JP2009257774A - Marker for vision sensor and method for making actuator recognize workspace - Google Patents

Marker for vision sensor and method for making actuator recognize workspace Download PDF

Info

Publication number
JP2009257774A
JP2009257774A JP2008103743A JP2008103743A JP2009257774A JP 2009257774 A JP2009257774 A JP 2009257774A JP 2008103743 A JP2008103743 A JP 2008103743A JP 2008103743 A JP2008103743 A JP 2008103743A JP 2009257774 A JP2009257774 A JP 2009257774A
Authority
JP
Japan
Prior art keywords
vision sensor
actuator
marker
markers
sphere
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008103743A
Other languages
Japanese (ja)
Inventor
Keisuke Mizuno
恵介 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008103743A priority Critical patent/JP2009257774A/en
Publication of JP2009257774A publication Critical patent/JP2009257774A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for making an actuator recognize a workspace which enables measurement of three-dimensional coordinates of each marker and makes the actuator recognize the workspace, while making measuring equipment minimal, even when a work plane is somewhat inclined. <P>SOLUTION: A robot arm 1 driven by the actuator 2 includes a vision sensor 4. First to third spherical markers 5-7 disposed on the work plane 20a are photographed by the vision sensor 4 and thereby the actuator 2 is made to recognize the workspace. Accordingly, even when the work plane 20a is somewhat inclined, the three-dimensional coordinates of each of the spherical markers 5-7 can be measured and the actuator 2 can be made to recognize the workspace, while the measuring equipment is made minimal. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ビジョンセンサーにより撮影認識されるビジョンセンサー用マーカ及びアクチュエータにより駆動される駆動体、例えばロボットアームの先端にビジョンセンサーを備え、該ビジョンセンサーにより作業平面上に配置された3点のビジョンセンサー用マーカを撮影して、アクチュエータに作動空間を認識させる作動空間認識方法に関するものである。   The present invention includes a vision sensor marker that is photographed and recognized by a vision sensor and a driving body driven by an actuator, for example, a vision sensor at the tip of a robot arm, and three visions arranged on a work plane by the vision sensor. The present invention relates to a working space recognition method for photographing a sensor marker and causing an actuator to recognize the working space.

一般に、ロボットアーム等を駆動させるアクチュエータは固有の作業空間を有しているため、ロボットアームにより作業を行う前に、アクチュエータの固有の作業空間を実作業空間に変換する必要がある。
従来のアクチュエータへの作動空間認識方法は、図4に示すように、作業平面20aの外周部上に、+印の第1〜第3マーカ31〜33が、各マーカ31〜33を結ぶ形状が平面視で直角三角形を描くように3点配置されており、アクチュエータへこれら第1〜第3マーカ31〜33の3次元座標(X,Y,Z)を認識させる必要がある。その際には、各マーカ31〜33の3次元座標の認識時に、ロボットアーム先端に備えられたビジョンセンサー4の姿勢を変化させないことが条件となる。
具体的には、ロボットアーム先端に備えたビジョンセンサー4を、アクチュエータにより第1マーカ31の上方に移動させて、ビジョンセンサー4による第1マーカ31の+印の縦線及び横線の長さの測定値がそれぞれ基準値と一致するビジョンセンサー4の姿勢及び位置を算出し、その後、ビジョンセンサー4の姿勢を変化させずに、該ビジョンセンサー4を、アクチュエータにより、順次、第2及び第3マーカ32、33の上方に移動させて、ビジョンセンサー4による第2及び第3マーカ32、33の+印の縦線及び横線の長さの測定値がそれぞれ基準値と一致するビジョンセンサー4の位置を算出して、同一姿勢のビジョンセンサー4に基いた第1〜第3マーカ31〜33の3次元座標を算出してアクチュエータへ認識させ、アクチュエータへ作業空間を認識させる必要がある。
In general, an actuator that drives a robot arm or the like has a unique work space. Therefore, before performing work by the robot arm, it is necessary to convert the work space unique to the actuator into an actual work space.
As shown in FIG. 4, the conventional method for recognizing the working space for the actuator has a shape in which first to third markers 31 to 33 marked + are connected to the markers 31 to 33 on the outer peripheral portion of the work plane 20 a. Three points are arranged so as to draw a right triangle in plan view, and it is necessary for the actuator to recognize the three-dimensional coordinates (X, Y, Z) of the first to third markers 31-33. In this case, it is a condition that the posture of the vision sensor 4 provided at the tip of the robot arm is not changed when the three-dimensional coordinates of the markers 31 to 33 are recognized.
Specifically, the vision sensor 4 provided at the tip of the robot arm is moved above the first marker 31 by an actuator, and the lengths of the vertical lines and horizontal lines of the first marker 31 by the vision sensor 4 are measured. The posture and position of the vision sensor 4 whose values respectively match the reference value are calculated, and then the vision sensor 4 is sequentially moved by the actuator by the actuator without changing the posture of the vision sensor 4. 33, and the position of the vision sensor 4 where the measured values of the lengths of the vertical and horizontal lines of the second and third markers 32 and 33 by the vision sensor 4 coincide with the reference value is calculated. The three-dimensional coordinates of the first to third markers 31 to 33 based on the vision sensor 4 of the same posture are calculated and recognized by the actuator. There is a need to recognize the work space to the mediator.

しかしながら、ビジョンセンサー4を、アクチュエータにより第1マーカ31の上方から第2マーカ32の上方にその姿勢を変化させずに移動させ、ビジョンセンサー4による第2マーカ32の+印の縦線及び横線の長さの測定値をそれぞれ基準値と一致させるには、ビジョンセンサー4を、第2マーカ32に対して垂直方向に配置させる必要があるが、作業平面20aが水平方向に対して多少傾斜している場合には、ビジョンセンサー4の姿勢を変化させずに、ビジョンセンサー4を第2マーカ32に対して垂直方向に配置することは不可能であった。
要するに、従来のアクチュエータへの作動空間認識方法では、ビジョンセンサー4の姿勢を変化させずに、ビジョンセンサー4を、+印の第1〜第3マーカ31〜33の上方に、第1〜第3マーカ31〜33に対して垂直方向に配置し、第1〜第3マーカ31〜33の3次元座標を算出することは不可能であった。
そのために、従来の作動空間認識方法では、図4に示すように、第1〜第3マーカ31〜33の+印の交点だけをビジョンセンサー4で撮影することで第1〜第3マーカ31〜33の2次元座標を算出して、且つレーザ測長機30を第1〜第3マーカ31〜33の上方に配置し、第1〜第3マーカ31〜33からレーザ測長機30までの高さをそれぞれ測定することで、第1〜第3マーカ31〜33の3次元座標を算出して、最終的にアクチュエータへ作動空間を認識させていた。
However, the vision sensor 4 is moved by the actuator from above the first marker 31 to above the second marker 32 without changing its posture, and the vertical and horizontal lines of the + mark of the second marker 32 by the vision sensor 4 are moved. In order to make the measurement values of the lengths coincide with the reference values, it is necessary to arrange the vision sensor 4 in the vertical direction with respect to the second marker 32. However, the work plane 20a is slightly inclined with respect to the horizontal direction. In such a case, it is impossible to dispose the vision sensor 4 in the direction perpendicular to the second marker 32 without changing the posture of the vision sensor 4.
In short, in the conventional method of recognizing the working space for the actuator, the vision sensor 4 is placed above the first to third markers 31 to 33 marked + without changing the posture of the vision sensor 4. It was impossible to calculate the three-dimensional coordinates of the first to third markers 31 to 33 by arranging the markers 31 to 33 in the vertical direction.
Therefore, in the conventional working space recognition method, as shown in FIG. 4, the first to third markers 31 to 31 are photographed by photographing only the intersections of the + marks of the first to third markers 31 to 33 with the vision sensor 4. 33 two-dimensional coordinates are calculated, and the laser length measuring device 30 is arranged above the first to third markers 31 to 33, and the height from the first to third markers 31 to 33 to the laser length measuring device 30 is calculated. By measuring the length, the three-dimensional coordinates of the first to third markers 31 to 33 are calculated, and finally the actuator is made to recognize the working space.

なお、特許文献1には、マークの読み取り作業点を教示する際、撮影映像入力装置をマークの真上に移動し、この位置を教示すると共に、撮影映像入力装置により取り込んだマークの画面上の座標位置を作業動作と共に記憶する無人搬送車搭載ロボットの位置補正方法が開示されている。
特開昭63−120088号公報
In Patent Document 1, when teaching a mark reading work point, the photographed video input device is moved right above the mark to teach this position, and on the screen of the mark captured by the photographed video input device. A position correction method for a robot equipped with an automatic guided vehicle that stores a coordinate position together with a work operation is disclosed.
JP 63-120088 A

上述したように、従来のアクチュエータへの作動空間認識方法では、図4に示すように、ビジョンセンサー用マーカとして、+印の各マーカ31〜33が使用されているため、各マーカ31〜33の3次元座標を測定するためにレーザ測長機30を採用する必要があり、各測定機器の微調整等、作業が煩雑になり、しかも、設備コストも高くなり問題が多かった。
また、特許文献1の発明に係る無人搬送車搭載ロボットの位置補正方法では、マーカの2次元座標しか算出しておらず、上述した問題を解決することはできない。
As described above, in the conventional method for recognizing the working space for the actuator, as shown in FIG. 4, the markers 31 to 33 marked + are used as vision sensor markers. In order to measure the three-dimensional coordinates, it is necessary to employ the laser length measuring machine 30, and the work such as fine adjustment of each measuring device becomes complicated, and the equipment cost increases, and there are many problems.
Moreover, in the position correction method of the robot equipped with the automatic guided vehicle according to the invention of Patent Document 1, only the two-dimensional coordinates of the marker are calculated, and the above-described problem cannot be solved.

本発明は、かかる点に鑑みてなされたものであり、ビジョンセンサーによりどの方向から撮影されてもその撮影映像が相似形状となるビジョンセンサー用マーカを提供すると共に、作業平面が多少傾斜していても、測定機器を最小限にして、各マーカの3次元座標を測定できアクチュエータへ作業空間を認識させるアクチュエータへの作業空間認識方法を提供することを目的とする。   The present invention has been made in view of the above points, and provides a vision sensor marker in which a captured image has a similar shape no matter which direction is taken by a vision sensor, and the work plane is slightly inclined. Another object of the present invention is to provide a work space recognition method for an actuator that can measure the three-dimensional coordinates of each marker with a minimum number of measuring devices and cause the actuator to recognize the work space.

上記課題を解決するために、本発明のビジョンセンサー用マーカは、球体マーカとして構成されることを特徴としている。
これにより、ビジョンセンサーにより球体マーカをどの方向から撮影してもその撮影映像が円形の相似形状となり好適である。
また、本発明のアクチュエータへの作業空間認識方法は、アクチュエータにより駆動される駆動体にビジョンセンサーを備え、該ビジョンセンサーにより作業平面上に配置された3点のマーカを撮影認識させて、前記アクチュエータへ作動空間を認識させる方法であって、前記各マーカに球体マーカを使用することを特徴としている。
これにより、従来のようにレーザ測長機を採用しなくても、ビジョンセンサーの姿勢を変化させることなく各球体マーカの中心の3次元座標を測定することができ、アクチュエータへ作業空間を認識させることができる。
なお、本発明のビジョンセンサー用マーカ及びアクチュエータへの作業空間認識方法の各種態様およびそれらの作用については、以下の発明の態様の項において詳しく説明する。
In order to solve the above problem, the vision sensor marker of the present invention is configured as a spherical marker.
Accordingly, it is preferable that the captured image becomes a circular similar shape, regardless of the direction from which the spherical marker is imaged by the vision sensor.
According to another aspect of the present invention, there is provided a method for recognizing a working space of an actuator, wherein a driving body driven by the actuator includes a vision sensor, and the vision sensor photographs and recognizes three markers arranged on a work plane. A method for recognizing a working space is characterized in that a spherical marker is used for each marker.
As a result, it is possible to measure the three-dimensional coordinates of the center of each spherical marker without changing the attitude of the vision sensor without employing a laser length measuring instrument as in the past, and to make the actuator recognize the work space. be able to.
Various aspects of the workspace recognition method for the vision sensor marker and actuator of the present invention and their functions will be described in detail in the section of the aspect of the invention below.

(発明の態様)
以下に、本願において特許請求が可能と認識されている発明(以下、「請求可能発明」という場合がある。)の態様をいくつか例示し、それらについて説明する。なお、各態様は、請求項と同様に、項に区分し、各項に番号を付して、必要に応じて他の項を引用する形式で記載する。これは、あくまでも請求可能発明の理解を容易にするためであり、請求可能発明を構成する構成要素の組み合わせを、以下の各項に記載されたものに限定する趣旨ではない。つまり、請求可能発明は、各項に付随する記載、実施の形態等を参酌して解釈されるべきであり、その解釈に従う限りにおいて、各項の態様にさらに他の構成要件を付加した態様も、また、各項の態様から構成要件を削除した態様も、請求可能発明の一態様となり得るのである。なお、以下の各項において、(1)乃至(3)の各々が、請求項1乃至3の各々に相当する。
(Aspect of the Invention)
In the following, some aspects of the invention that can be claimed in the present application (hereinafter sometimes referred to as “claimable invention”) will be exemplified and described. In addition, each aspect is divided into a term like a claim, it attaches | subjects a number to each term, and is described in the format which quotes another term as needed. This is for the purpose of facilitating the understanding of the claimable invention, and is not intended to limit the combinations of the constituent elements constituting the claimable invention to those described in the following sections. In other words, the claimable invention should be construed in consideration of the description, embodiments, etc. accompanying each section, and as long as the interpretation is followed, there may be embodiments in which other constituent elements are added to the aspects of each section. In addition, an aspect in which the constituent elements are deleted from the aspect of each item can be an aspect of the claimable invention. In each of the following items, each of (1) to (3) corresponds to each of claims 1 to 3.

(1)ビジョンセンサーにより撮影認識されるマーカを球体マーカとして構成することを特徴とするビジョンセンサー用マーカ。
従って、(1)項のビジョンセンサー用マーカでは、ビジョンセンサーにより球体マーカをどの方向から撮影してもその撮影映像が円形状の相似形状となる。
(1) A vision sensor marker comprising a marker that is photographed and recognized by a vision sensor as a spherical marker.
Therefore, in the vision sensor marker of item (1), the captured image has a circular similar shape regardless of the direction from which the spherical marker is imaged by the vision sensor.

(2)アクチュエータにより駆動される駆動体にビジョンセンサーを備え、該ビジョンセンサーにより作業平面上に配置された3点のマーカを撮影認識させて、前記アクチュエータへ作動空間を認識させる方法であって、前記各マーカに球体マーカを使用することを特徴とするアクチュエータへの作業空間認識方法。
従って、(2)項のアクチュエータへの作業空間認識方法では、各マーカに球体マーカが使用されることで、球体マーカをどの方向から撮影しても、その撮影映像が円形となる。これにより、作業平面が多少傾斜していても、ビジョンセンサーの姿勢を変化させることなく、ビジョンセンサーを各球体マーカの測定半径と基準値とが一致するように配置することができ、各球体マーカの中心の3次元座標を測定することができ、アクチュエータへ作業空間を認識させることができる。
(2) A method in which a driving body driven by an actuator is provided with a vision sensor, and the vision sensor captures and recognizes three markers arranged on the work plane, and causes the actuator to recognize the working space, A working space recognition method for an actuator, wherein a spherical marker is used for each of the markers.
Therefore, in the method for recognizing the work space for the actuator of item (2), a spherical marker is used for each marker, so that the captured image is circular regardless of the direction from which the spherical marker is captured. As a result, even if the work plane is slightly inclined, the vision sensor can be arranged so that the measurement radius of each sphere marker and the reference value coincide with each other without changing the attitude of the vision sensor. It is possible to measure the three-dimensional coordinates of the center of the actuator, and to make the actuator recognize the working space.

(3)前記アクチュエータへの作業空間認識方法は、前記ビジョンセンサーを、前記アクチュエータにより第1球体マーカの上方に移動させると共に、該ビジョンセンサーによる前記第1球体マーカの測定半径と基準半径とが一致するビジョンセンサーの姿勢及び位置を算出する第1ステップと、前記ビジョンセンサーを、前記アクチュエータにより第2球体マーカの上方に前記第1ステップと同じ姿勢で移動させると共に、該ビジョンセンサーによる前記第2球体マーカの測定半径と基準半径とが一致するビジョンセンサーの位置を算出する第2ステップと、さらに第3球体マーカに対して前記第2ステップを繰り返す第3ステップと、の各ステップの算出結果から、同一姿勢のビジョンセンサーに基いた第1〜第3球体マーカの中心座標を算出して前記アクチュエータへ作動空間を認識させることを特徴とする(2)項に記載のアクチュエータへの作業空間認識方法。
従って、(3)項のアクチュエータへの作業空間認識方法では、第1〜第3ステップの算出結果から、同一姿勢のビジョンセンサーに基いた第1〜第3球体マーカの中心の3次元座標が算出され、アクチュエータへ作業空間を認識させることが可能になる。
(3) In the workspace recognition method for the actuator, the vision sensor is moved above the first sphere marker by the actuator, and the measurement radius of the first sphere marker by the vision sensor coincides with the reference radius. A first step of calculating a posture and a position of the vision sensor to be moved, and the vision sensor is moved above the second spherical marker by the actuator in the same posture as the first step, and the second sphere by the vision sensor From the calculation result of each step of the second step of calculating the position of the vision sensor where the measurement radius of the marker matches the reference radius, and the third step of repeating the second step for the third spherical marker, Center coordinates of the 1st to 3rd spherical markers based on vision sensors with the same posture It calculates and characterized in that to recognize the working space to the actuator (2) working space recognition method of the actuator according to claim.
Therefore, in the workspace recognition method for the actuator of item (3), the three-dimensional coordinates of the center of the first to third sphere markers based on the vision sensor of the same posture are calculated from the calculation results of the first to third steps. Thus, the actuator can recognize the work space.

本発明によれば、ビジョンセンサーによりどの方向から撮影されてもその撮影映像が相似形状となるビジョンセンサー用マーカを提供できると共に、作業平面が多少傾斜していても、測定機器を最小限にして、各マーカの3次元座標を測定できアクチュエータへ作業空間を認識させるアクチュエータへの作業空間認識方法を提供することができる。   According to the present invention, it is possible to provide a vision sensor marker in which a captured image has a similar shape regardless of the direction taken by the vision sensor, and minimizes the measuring equipment even if the work plane is slightly inclined. Thus, it is possible to provide a method for recognizing a work space for an actuator that can measure the three-dimensional coordinates of each marker and cause the actuator to recognize the work space.

以下、本発明を実施するための最良の形態を図1〜図3に基いて詳細に説明する。
図1に示すように、ロボットアーム(駆動体)1にはアクチュエータ2が連結されており、アクチュエータ2の駆動によりロボットアーム1が作業台3上で所定の作業を行う。
なお、上述しているように、アクチュエータ2は固有の作業空間を有しているため、ロボットアーム1により作業を行う前に、アクチュエータ2の固有の作業空間を実作業空間20(図2の点線で囲まれた範囲)に変換する必要がある。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to FIGS.
As shown in FIG. 1, an actuator 2 is connected to a robot arm (driving body) 1, and the robot arm 1 performs a predetermined work on a work table 3 by driving the actuator 2.
As described above, since the actuator 2 has a unique work space, before the robot arm 1 performs the work, the work space unique to the actuator 2 is changed to the actual work space 20 (dotted line in FIG. 2). Range).

ロボットアーム1の先端にはビジョンセンサー4が備えられている。アクチュエータ2及びビジョンセンサー4には制御装置8が接続されている。
制御装置8には、アクチュエータコントローラ、ビジョンセンサーコントローラ、位置記憶手段及び演算手段が備えられている。
作業台3には、本発明の実施の形態に係る第1〜第3球体マーカ5〜7(φ40mm)が、各球体マーカ5〜7の中心を結ぶ形状が平面視で直角三角形を描くようにそれぞれ配置されている。各球体マーカ5〜7は、箱状の保持体10によりそれぞれ保持されている。なお、図1及び図2に示すように、第1〜第3球体マーカ5〜7の中心点の3点で形成される平面と平行な作業台3の範囲(300mm×600mm)がロボットアーム1(アクチュエータ2)の作業平面20aで、該作業平面20aからロボットアーム1の上昇可能な高さがロボットアーム1(アクチュエータ2)の作業空間20(図2の点線で囲まれた範囲)となる。
A vision sensor 4 is provided at the tip of the robot arm 1. A controller 8 is connected to the actuator 2 and the vision sensor 4.
The control device 8 includes an actuator controller, a vision sensor controller, a position storage unit, and a calculation unit.
The work table 3 has first to third spherical markers 5 to 7 (φ40 mm) according to the embodiment of the present invention such that the shape connecting the centers of the spherical markers 5 to 7 draws a right triangle in plan view. Each is arranged. Each of the spherical markers 5 to 7 is held by a box-like holding body 10. As shown in FIGS. 1 and 2, the range (300 mm × 600 mm) of the work table 3 parallel to the plane formed by the three central points of the first to third spherical markers 5 to 7 is the robot arm 1. In the work plane 20a of the (actuator 2), the height at which the robot arm 1 can be raised from the work plane 20a becomes the work space 20 (range surrounded by a dotted line in FIG. 2) of the robot arm 1 (actuator 2).

そして、本発明の実施の形態に係るアクチュエータ2への作業空間認識方法を説明する。
まず、ビジョンセンサー4を、アクチュエータ2により作業台3の作業平面20aの上方に移動させて、ビジョンセンサー4の撮影映像から第1球体マーカ5を見付け出す。
次に、ビジョンセンサー4を、アクチュエータ2により第1球体マーカ5の上方に移動させて、図3に示すように、ビジョンセンサー4で撮影された円形状の第1球体マーカ5の半径をビジョンセンサーコントローラで測定し、該測定値が基準値に一致するようにビジョンセンサー4を第1球体マーカ5に近接させる。続いて、ビジョンセンサー4による第1球体マーカ5の測定半径と基準半径とが一致した際のビジョンセンサー4の姿勢及びビジョンセンサー4の位置を制御装置8の位置記憶手段に記憶させておく(第1ステップ)。
Then, a work space recognition method for the actuator 2 according to the embodiment of the present invention will be described.
First, the vision sensor 4 is moved above the work plane 20 a of the work table 3 by the actuator 2, and the first spherical marker 5 is found from the captured image of the vision sensor 4.
Next, the vision sensor 4 is moved above the first sphere marker 5 by the actuator 2, and the radius of the circular first sphere marker 5 photographed by the vision sensor 4 is set as shown in FIG. The measurement is performed by the controller, and the vision sensor 4 is brought close to the first spherical marker 5 so that the measured value matches the reference value. Subsequently, the position of the vision sensor 4 and the position of the vision sensor 4 when the measurement radius of the first sphere marker 5 by the vision sensor 4 matches the reference radius are stored in the position storage means of the control device 8 (first). 1 step).

次に、図2に示すように、ビジョンセンサー4の姿勢を保持した状態で、ビジョンセンサー4を、アクチュエータ2により第2球体マーカ6の上方に移動させる。続いて、第1球体マーカ5時と同様に、図3に示すように、ビジョンセンサー4で撮影された円形状の第2球体マーカ6の半径をビジョンセンサーコントローラで測定し、該測定値が基準値に一致するようにビジョンセンサー4を第2球体マーカ6に近接させる。続いて、ビジョンセンサー4による第2球体マーカ6の測定半径と基準半径とが一致した際のビジョンセンサー4の位置を制御装置8の位置記憶手段に記憶させておく(第2ステップ)。   Next, as shown in FIG. 2, the vision sensor 4 is moved above the second spherical marker 6 by the actuator 2 while maintaining the posture of the vision sensor 4. Subsequently, as in the case of the first sphere marker 5, as shown in FIG. 3, the radius of the circular second sphere marker 6 photographed by the vision sensor 4 is measured by the vision sensor controller, and the measured value is the reference value. The vision sensor 4 is brought close to the second spherical marker 6 so as to match the value. Subsequently, the position of the vision sensor 4 when the measurement radius of the second sphere marker 6 by the vision sensor 4 coincides with the reference radius is stored in the position storage means of the control device 8 (second step).

次に、図2に示すように、ビジョンセンサー4の姿勢を保持した状態で、ビジョンセンサー4を、アクチュエータ2により第3球体マーカ7の上方に移動させる。続いて、第1及び第2球体マーカ5、6時と同様に、図3に示すように、ビジョンセンサー4で撮影された円形状の第3球体マーカ7の半径をビジョンセンサーコントローラで測定し、該測定値が基準値に一致するようにビジョンセンサー4を第3球体マーカ7に近接させる。続いて、ビジョンセンサー4による第3球体マーカ7の測定半径と基準半径とが一致した際のビジョンセンサー4の位置を制御装置8の位置記憶手段に記憶させておく(第3ステップ)。   Next, as shown in FIG. 2, the vision sensor 4 is moved above the third sphere marker 7 by the actuator 2 while maintaining the posture of the vision sensor 4. Subsequently, as in the case of the first and second spherical markers 5 and 6, as shown in FIG. 3, the radius of the circular third spherical marker 7 photographed by the vision sensor 4 is measured by the vision sensor controller, The vision sensor 4 is brought close to the third sphere marker 7 so that the measured value matches the reference value. Subsequently, the position of the vision sensor 4 when the measurement radius of the third sphere marker 7 by the vision sensor 4 coincides with the reference radius is stored in the position storage means of the control device 8 (third step).

そして、制御装置8の演算手段により、第1〜第3球体マーカ5〜7の上方に位置した際のビジョンセンサー4の位置から、同一姿勢のビジョンセンサー4に基いた第1〜第3球体マーカ5〜7の中心の3次元座標を算出してアクチュエータ2へ認識させて、アクチュエータ2へ実際に作業する作業空間20を認識させる。   Then, the first to third sphere markers based on the vision sensor 4 of the same posture are calculated from the position of the vision sensor 4 when the control device 8 is positioned above the first to third sphere markers 5 to 7. The three-dimensional coordinates of the centers of 5 to 7 are calculated and made to be recognized by the actuator 2, and the actuator 2 is made to recognize the work space 20 where the work is actually performed.

以上説明した本発明の実施の形態では、アクチュエータ2へ作業空間20を認識させる際、ビジョンセンサー用マーカとして第1〜第3球体マーカ5〜7を採用したので、ビジョンセンサー4により各球体マーカ5〜7をどの方向から撮影してもその撮影映像が円形状の相似形状となる。
そのために、作業平面20aが傾斜していても、ビジョンセンサー4の姿勢を変化させることなく、ビジョンセンサー4を、ビジョンセンサー4による第1〜第3球体マーカ5〜7の測定半径と基準値とが一致する位置にそれぞれ配置することできる。
その結果、第1〜第3球体マーカ5〜7の上方で、ビジョンセンサー4による第1〜第3球体マーカ5〜7の測定半径と基準値とが一致するビジョンセンサー4の位置を、ビジョンセンサー4の姿勢を変化させることなく測定することができ、ひいては、同一姿勢のビジョンセンサー4に基いた第1〜第3球体マーカ5〜7の中心の3次元座標が算出できると共に、アクチュエータ2へ作業空間20を認識させることができる。
In the embodiment of the present invention described above, when the work space 20 is recognized by the actuator 2, the first to third sphere markers 5 to 7 are employed as the vision sensor markers. No matter which direction is used to photograph .about.7, the photographed image has a similar circular shape.
Therefore, even if the work plane 20a is inclined, the vision sensor 4 can be measured by using the vision sensor 4 with the measurement radius and the reference value of the first to third spherical markers 5 to 7 without changing the posture of the vision sensor 4. Can be arranged at the positions where they match.
As a result, the position of the vision sensor 4 where the measurement radius of the first to third sphere markers 5 to 7 matches the reference value by the vision sensor 4 above the first to third sphere markers 5 to 7 is determined as the vision sensor. 4 can be measured without changing the posture, and by extension, the three-dimensional coordinates of the centers of the first to third spherical markers 5 to 7 based on the vision sensor 4 of the same posture can be calculated and the actuator 2 can be operated. The space 20 can be recognized.

図1は、本発明の実施の形態に係るアクチュエータへの作業空間認識方法を具現化する装置を示す図である。FIG. 1 is a diagram illustrating an apparatus that embodies a workspace recognition method for an actuator according to an embodiment of the present invention. 図2は、本発明の実施の形態に係るアクチュエータへの作業空間認識方法を説明するための図である。FIG. 2 is a diagram for explaining a working space recognition method for the actuator according to the embodiment of the present invention. 図3は、ビジョンセンサーによる球体マーカの撮影映像の図である。FIG. 3 is a view of a photographed image of the sphere marker by the vision sensor. 図4は、従来のアクチュエータへの作業空間認識方法を説明するための図である。FIG. 4 is a diagram for explaining a conventional workspace recognition method for an actuator. 図5は、アクチュエータの作業平面図で、従来のアクチュエータへの作業空間認識方法で使用される各マーカを示す図である。FIG. 5 is a work plan view of an actuator, and is a diagram showing each marker used in a conventional work space recognition method for an actuator.

符号の説明Explanation of symbols

1 ロボットアーム(駆動体),2 アクチュエータ,3 作業台,4 ビジョンセンサー,5 第1球体マーカ,6 第2球体マーカ,7 第3球体マーカ,8 制御装置   DESCRIPTION OF SYMBOLS 1 Robot arm (driving body), 2 Actuator, 3 Work bench, 4 Vision sensor, 5 1st sphere marker, 6 2nd sphere marker, 7 3rd sphere marker, 8 Control device

Claims (3)

ビジョンセンサーにより撮影認識されるマーカを球体マーカとして構成することを特徴とするビジョンセンサー用マーカ。   A marker for a vision sensor, characterized in that a marker recognized and photographed by the vision sensor is configured as a spherical marker. アクチュエータにより駆動される駆動体にビジョンセンサーを備え、該ビジョンセンサーにより作業平面上に配置された3点のマーカを撮影認識させて、前記アクチュエータへ作動空間を認識させる方法であって、
前記各マーカに球体マーカを使用することを特徴とするアクチュエータへの作業空間認識方法。
A method in which a driving body driven by an actuator is provided with a vision sensor, and the vision sensor captures and recognizes three markers arranged on a work plane, and causes the actuator to recognize an operation space,
A working space recognition method for an actuator, wherein a spherical marker is used for each of the markers.
前記アクチュエータへの作業空間認識方法は、前記ビジョンセンサーを、前記アクチュエータにより第1球体マーカの上方に移動させると共に、該ビジョンセンサーによる前記第1球体マーカの測定半径と基準半径とが一致するビジョンセンサーの姿勢及び位置を算出する第1ステップと、
前記ビジョンセンサーを、前記アクチュエータにより第2球体マーカの上方に前記第1ステップと同じ姿勢で移動させると共に、該ビジョンセンサーによる前記第2球体マーカの測定半径と基準半径とが一致するビジョンセンサーの位置を算出する第2ステップと、
さらに第3球体マーカに対して前記第2ステップを繰り返す第3ステップと、
の各ステップの算出結果から、同一姿勢のビジョンセンサーに基いた第1〜第3球体マーカの中心座標を算出して前記アクチュエータへ作動空間を認識させることを特徴とする請求項2に記載のアクチュエータへの作業空間認識方法。
In the method of recognizing the working space for the actuator, the vision sensor is moved above the first sphere marker by the actuator, and the vision radius by which the measurement radius of the first sphere marker by the vision sensor coincides with the reference radius. A first step of calculating the posture and position of
The vision sensor is moved above the second sphere marker by the actuator in the same posture as in the first step, and the position of the vision sensor where the measurement radius of the second sphere marker by the vision sensor coincides with the reference radius A second step of calculating
And a third step of repeating the second step for the third sphere marker;
3. The actuator according to claim 2, wherein a center coordinate of the first to third sphere markers based on a vision sensor having the same posture is calculated from the calculation result of each step, and the operating space is recognized by the actuator. Work space recognition method.
JP2008103743A 2008-04-11 2008-04-11 Marker for vision sensor and method for making actuator recognize workspace Pending JP2009257774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103743A JP2009257774A (en) 2008-04-11 2008-04-11 Marker for vision sensor and method for making actuator recognize workspace

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103743A JP2009257774A (en) 2008-04-11 2008-04-11 Marker for vision sensor and method for making actuator recognize workspace

Publications (1)

Publication Number Publication Date
JP2009257774A true JP2009257774A (en) 2009-11-05

Family

ID=41385396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103743A Pending JP2009257774A (en) 2008-04-11 2008-04-11 Marker for vision sensor and method for making actuator recognize workspace

Country Status (1)

Country Link
JP (1) JP2009257774A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125982A (en) * 2009-12-21 2011-06-30 Kec:Kk Positioning method by automatic machine, and positioning device of the automatic machine
EP2800353A1 (en) * 2013-04-30 2014-11-05 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125982A (en) * 2009-12-21 2011-06-30 Kec:Kk Positioning method by automatic machine, and positioning device of the automatic machine
EP2800353A1 (en) * 2013-04-30 2014-11-05 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor
US9986170B2 (en) 2013-04-30 2018-05-29 Samsung Electronics Co., Ltd. Method and apparatus for sensing spatial information based on vision sensor

Similar Documents

Publication Publication Date Title
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
US11565427B2 (en) Robot system
JP4508252B2 (en) Robot teaching device
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
JP5670416B2 (en) Robot system display device
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP2008021092A (en) Simulation apparatus of robot system
JP2005342832A (en) Robot system
JP2008296330A (en) Robot simulation device
JP2009269110A (en) Assembly equipment
JP2019030943A (en) Calibration method, calibration system and program
JP2017077614A (en) Teaching point correction method, program, recording medium, robot device, photographing point generation method, and photographing point generation device
JP2011133313A (en) Method of measuring sensor position and attitude
JP6885856B2 (en) Robot system and calibration method
JP6670974B1 (en) Robot coordinate system alignment method, alignment system, and alignment device
JP2021016922A (en) Three-dimensional data generator and robot control system
JP2008168372A (en) Robot device and shape recognition method
JP5088186B2 (en) Robot apparatus and control method of robot apparatus
JP2019113348A (en) Object inspection system and object inspection method
JP2013173191A (en) Robot apparatus, robot control apparatus, robot control method, and robot control program
JPWO2017085811A1 (en) Teaching apparatus and control information generation method
JP2009257774A (en) Marker for vision sensor and method for making actuator recognize workspace
JP2009279677A (en) Robot control apparatus which carries out position teaching of robot using measuring device
WO2022124232A1 (en) Image processing system and image processing method
JP2010214546A (en) Device and method for assembling