JP5251440B2 - Work posture recognition method, work posture recognition device, and robot - Google Patents

Work posture recognition method, work posture recognition device, and robot Download PDF

Info

Publication number
JP5251440B2
JP5251440B2 JP2008288536A JP2008288536A JP5251440B2 JP 5251440 B2 JP5251440 B2 JP 5251440B2 JP 2008288536 A JP2008288536 A JP 2008288536A JP 2008288536 A JP2008288536 A JP 2008288536A JP 5251440 B2 JP5251440 B2 JP 5251440B2
Authority
JP
Japan
Prior art keywords
mark
image
workpiece
posture
arrow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008288536A
Other languages
Japanese (ja)
Other versions
JP2010117754A (en
Inventor
達哉 松土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008288536A priority Critical patent/JP5251440B2/en
Publication of JP2010117754A publication Critical patent/JP2010117754A/en
Application granted granted Critical
Publication of JP5251440B2 publication Critical patent/JP5251440B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、ランダムな姿勢で供給されるワークに対して作業を実施するロボットにおけるワーク姿勢認識方法およびワーク姿勢認識装置に関する。   The present invention relates to a workpiece posture recognition method and a workpiece posture recognition device in a robot that performs work on a workpiece supplied in a random posture.

各種生産現場において、作業の高速化、効率化を訴求するためロボットが多用されている。ロボットに作業対象物であるワークを供給する場合、ワークを整列させたり、位置決めして供給することが一般的であった。ところが、近年、生産効率の向上のため、ワークの整列、位置決め工程を省略しワークをランダムな姿勢で供給して、ロボットがワークの位置や姿勢を認識して必要部位に作業を実施することが求められている。   In various production sites, robots are frequently used to appeal for speeding up and efficiency of work. When supplying a work, which is a work object, to a robot, it is common to align or supply the work. However, in recent years, in order to improve production efficiency, workpiece alignment and positioning processes can be omitted, workpieces can be supplied in a random posture, and the robot can recognize the position and posture of the workpiece and perform work on necessary parts. It has been demanded.

ワークの位置や姿勢の認識方法としては、例えば、対象物体(ワーク)の輪郭を輪郭関数として捉え、輪郭関数データベースと輪郭照合する方法が知られている。この方法では、三次元の数値データが与えられた対象物体(ワーク)をカメラにより複数の姿勢として捉え、対象物体(ワーク)の輪郭点から輪郭関数を算定し輪郭関数データベースを作成する。そして、実空間での対象物体(ワーク)をカメラで撮像して、カメラ画像から輪郭関数を抽出する。抽出された輪郭関数とデータベースに格納された輪郭関数との相関について、フーリエ変換を用いて相関係数を算定し、その結果から対象物体の位置や姿勢を推定する方法が提案されている(例えば、特許文献1参照)。   As a method for recognizing the position and orientation of a workpiece, for example, a method is known in which the contour of a target object (work) is regarded as a contour function and contour matching is performed with a contour function database. In this method, a target object (work) given three-dimensional numerical data is regarded as a plurality of postures by a camera, and a contour function is calculated from contour points of the target object (work) to create a contour function database. Then, a target object (work) in real space is imaged with a camera, and a contour function is extracted from the camera image. For the correlation between the extracted contour function and the contour function stored in the database, a correlation coefficient is calculated using Fourier transform, and a method for estimating the position and orientation of the target object from the result has been proposed (for example, , See Patent Document 1).

特開2004−326314号公報JP 2004-326314 A

しかしながら、上述の方法では、対象物体のカメラ画像から輪郭関数を得る際や、得られた輪郭関数と輪郭関数データベースとの相関をとる際に、データ量が多くなったり複雑な演算処理を行うため、多大な計算時間を要してしまうとの問題がある。   However, in the above method, when obtaining a contour function from the camera image of the target object, or when obtaining a correlation between the obtained contour function and the contour function database, the amount of data is increased or complicated calculation processing is performed. There is a problem that a lot of calculation time is required.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

(適用例1)ランダムな姿勢で供給されるワークに対して作業を実施するロボットにおける前記ワークの姿勢を認識するワーク姿勢認識方法であって、前記ワークは、複数の外面を有し、外面ごとに方向性を有するとともに異なる種類のマークが付与されており、前記ロボットは、少なくとも、前記ワークの前記マークを撮像する撮像手段と、複数の種類の前記マークに対して前記撮像手段により撮像されたマスタ画像を予め格納するマスタ画像格納手段と、を有し、前記撮像手段により撮像されるマーク画像を取り込む画像入力工程と、取り込まれた前記マーク画像と前記マスタ画像格納手段に格納される前記マスタ画像とを比較し、前記マーク画像と前記マスタ画像との一致度もしくは差異を検出する画像比較工程と、前記画像比較工程で得られた比較結果から前記ワークの姿勢を判定する姿勢判定工程と、を有することを特徴とするワーク姿勢認識方法。   (Application example 1) A workpiece posture recognition method for recognizing the posture of the workpiece in a robot that performs a work on a workpiece supplied in a random posture, the workpiece having a plurality of outer surfaces, and each outer surface The robot has a directionality and is provided with different types of marks, and the robot captures images of at least the marks of the workpiece and images of the plurality of types of marks by the imaging units. Master image storage means for storing a master image in advance, an image input step for capturing a mark image captured by the imaging means, and the captured mark image and the master image stored in the master image storage means An image comparison step of comparing an image and detecting a degree of coincidence or difference between the mark image and the master image, and the image comparison step Work posture recognition method characterized in that the comparison results obtained; and a posture determination step of determining posture of the workpiece.

(適用例2)前記画像比較工程において、前記マーク画像と前記マスタ画像とを順次比較して、前記マーク画像と最大に一致する前記マスタ画像を検出して前記マークの種類を認識するとともに、前記マーク画像と前記マスタ画像との方向もしくは角度の違いを検出し、前記姿勢判定工程では、前記マークの種類から前記撮像手段に対向する前記ワークの面を認識し、前記マーク画像の方向もしくは角度の違いから、前記マスタ画像を取得したときの前記ワークの姿勢からの方向および角度を認識することを特徴とする上記のワーク姿勢認識方法。   (Application Example 2) In the image comparison step, the mark image and the master image are sequentially compared, the master image that matches the mark image at the maximum is detected, and the type of the mark is recognized. A difference in direction or angle between the mark image and the master image is detected, and in the posture determination step, the surface of the workpiece facing the imaging unit is recognized from the type of the mark, and the direction or angle of the mark image is determined. The work posture recognition method described above, wherein the direction and angle from the posture of the workpiece when the master image is acquired are recognized from the difference.

これらの方法によれば、ワークにはそれぞれの外面ごとに異なる種類のマークが付与されている。そのため、撮像手段によって撮像されたマーク画像とマスタ画像とを比較してマークの種類を認識することによって、ワークのいずれの面が撮像手段が設けられている方向に面しているか容易に判断することができる。すなわち、ワークの向きを判断することができる。また、正面のマスタ画像との一致度もしくは差異を比較することによって、方向性を有するマークがどの方向を示しているのか、または、どれだけ傾いているか判断することができる。その結果、マークを付与されたワークの向き、方向、傾き、角度を容易に判定することができる。従って、データ量を低減することができるとともに複雑な演算処理を行わず、短時間でワークの姿勢を認識することができる。   According to these methods, different types of marks are given to the work for each outer surface. Therefore, by comparing the mark image picked up by the image pickup means with the master image and recognizing the type of the mark, it is easy to determine which side of the workpiece faces the direction in which the image pickup means is provided. be able to. That is, the direction of the workpiece can be determined. Further, by comparing the degree of coincidence or difference with the front master image, it is possible to determine which direction the mark having directionality indicates or how much it is inclined. As a result, it is possible to easily determine the direction, direction, inclination, and angle of the workpiece provided with the mark. Accordingly, the amount of data can be reduced, and the posture of the workpiece can be recognized in a short time without performing complicated arithmetic processing.

(適用例3)前記マークは、非対称の形状に形成されることを特徴とする上記のワーク姿勢認識方法。   (Application Example 3) The work posture recognition method described above, wherein the mark is formed in an asymmetric shape.

この方法によれば、マークは、方向性を有し、かつ非対称の形状である。そのため、マーク画像とマスタ画像とを比較する際において、一致度もしくは差異を容易に認識することができる。また、マークの方向、上下左右の関係、傾き等を容易に判断することができる。   According to this method, the mark is directional and has an asymmetric shape. Therefore, when the mark image and the master image are compared, the degree of coincidence or the difference can be easily recognized. Further, it is possible to easily determine the direction of the mark, the vertical / horizontal relationship, the inclination, and the like.

(適用例4)前記マークは、前記ワークのそれぞれの外面ごとに色違いに付与されていることを特徴とする上記のワーク姿勢認識方法。   (Application example 4) The work posture recognition method described above, wherein the mark is provided in a different color for each outer surface of the work.

この方法によれば、マークの色を識別することによって、いずれの面が撮像手段が設けられている方向に面しているか容易に判断することができる。そのため、1つのワークに付与されるマークの形状を同じくすることができる。その結果、マスタ画像の種類(データ量)を低減することができ、画像比較工程でマーク画像とマスタ画像とを比較する時間を低減することができる。   According to this method, by identifying the color of the mark, it is possible to easily determine which surface faces in the direction in which the imaging unit is provided. Therefore, the shape of the mark given to one work can be made the same. As a result, the type (data amount) of the master image can be reduced, and the time for comparing the mark image and the master image in the image comparison process can be reduced.

(適用例5)前記マークは、紫外線または赤外線で検出可能としていることを特徴とする上記のワーク姿勢認識方法。   (Application example 5) The work posture recognition method described above, wherein the mark can be detected by ultraviolet rays or infrared rays.

この方法によれば、マークはマルチCCDカメラ等で識別することができ、人間の目には見えない。そのため、出来上がった製品の外観特性を低減させることを防止することができる。   According to this method, the mark can be identified by a multi-CCD camera or the like and is not visible to human eyes. Therefore, it is possible to prevent the appearance characteristics of the finished product from being reduced.

(適用例6)ランダムな姿勢で供給されるワークに対して作業を実施するロボットにおける前記ワークの姿勢を認識するワーク姿勢認識装置であって、前記ワークは、複数の外面を有し、外面ごとに方向性を有するとともに異なる種類のマークが付与されており、前記ワークの前記マークを撮像する撮像手段と、複数の種類の前記マークに対して前記撮像手段により撮像されたマスタ画像を予め格納するマスタ画像格納部と、前記撮像手段により撮像されるマーク画像を取り込む画像入力部と、取り込まれた前記マーク画像と前記マスタ画像格納部に格納される前記マスタ画像とを比較し、前記マーク画像と前記マスタ画像との一致度もしくは差異を検出する画像比較部と、前記画像比較部で得られた比較結果から前記ワークの姿勢を判定する姿勢判定処理部と、を備えたことを特徴とするワーク姿勢認識装置。   (Application example 6) A workpiece posture recognition device for recognizing the posture of the workpiece in a robot that performs work on a workpiece supplied in a random posture, the workpiece having a plurality of outer surfaces, and each outer surface A mark having a direction and a different type of mark is provided, and an imaging unit that images the mark of the workpiece and a master image captured by the imaging unit for a plurality of types of the mark are stored in advance. A master image storage unit, an image input unit that captures a mark image captured by the imaging unit, the captured mark image and the master image stored in the master image storage unit are compared, and the mark image An image comparison unit that detects a degree of coincidence or difference with the master image, and a posture of the workpiece is determined from a comparison result obtained by the image comparison unit. Work posture recognition apparatus characterized by comprising: a posture determination processing unit.

(適用例7)前記画像比較部において、前記マーク画像と前記マスタ画像とを順次比較して、前記マーク画像と最大に一致する前記マスタ画像を検出して前記マークの種類を認識するとともに、前記マーク画像と前記マスタ画像との方向もしくは角度の違いを検出し、前記姿勢判定処理部では、前記マークの種類から前記撮像手段に対向する前記ワークの面を認識し、前記マーク画像の方向もしくは角度の違いから、前記マスタ画像を取得したときの前記ワークの姿勢からの方向および角度を認識することを特徴とする上記のワーク姿勢認識装置。   (Application Example 7) In the image comparison unit, the mark image and the master image are sequentially compared to detect the master image that matches the mark image at the maximum to recognize the type of the mark, and A difference in direction or angle between the mark image and the master image is detected, and the posture determination processing unit recognizes the surface of the workpiece facing the imaging unit from the type of the mark, and the direction or angle of the mark image The workpiece posture recognition apparatus according to claim 1, wherein a direction and an angle from the posture of the workpiece when the master image is acquired are recognized.

これらの装置によれば、ワークにはそれぞれの外面ごとに異なる種類のマークが付与されている。そのため、撮像手段で撮像されたマーク画像とマスタ画像とを比較してマークの種類を認識することによって、ワークのいずれの面が撮像手段が設けられている方向に面しているか容易に判断することができる。すなわち、ワークの向きを判断することができる。また、正面のマスタ画像との一致度もしくは差異を比較することによって、方向性を有するマークがどの方向を示しているのか、または、どれだけ傾いているか判断することができる。その結果、マークを付与されたワークの向き、方向、傾き、角度を容易に判定することができる。従って、データ量を低減することができるとともに複雑な演算処理を行わず、短時間でワークの姿勢を認識することができる。   According to these apparatuses, different types of marks are given to the work for each outer surface. Therefore, by comparing the mark image picked up by the image pickup means with the master image and recognizing the type of the mark, it is easy to determine which side of the workpiece faces the direction in which the image pickup means is provided. be able to. That is, the direction of the workpiece can be determined. Further, by comparing the degree of coincidence or difference with the front master image, it is possible to determine which direction the mark having directionality indicates or how much it is inclined. As a result, it is possible to easily determine the direction, direction, inclination, and angle of the workpiece provided with the mark. Accordingly, the amount of data can be reduced, and the posture of the workpiece can be recognized in a short time without performing complicated arithmetic processing.

(適用例8)前記マークは、非対称の形状に形成されることを特徴とする上記のワーク姿勢認識装置。   (Application example 8) The workpiece posture recognition apparatus, wherein the mark is formed in an asymmetric shape.

この装置によれば、マークは、方向性を有し、かつ非対称の形状である。そのため、マーク画像とマスタ画像とを比較する際において、一致度もしくは差異を容易に認識することができる。また、マークの方向、上下左右の関係、傾き等を容易に判断することができる。   According to this apparatus, the mark is directional and has an asymmetric shape. Therefore, when the mark image and the master image are compared, the degree of coincidence or the difference can be easily recognized. Further, it is possible to easily determine the direction of the mark, the vertical / horizontal relationship, the inclination, and the like.

(適用例9)前記マークは、前記ワークのそれぞれの外面ごとに色違いに付与されていることを特徴とする上記のワーク姿勢認識装置。   (Application example 9) The workpiece posture recognition apparatus, wherein the mark is provided in a different color for each outer surface of the workpiece.

この装置によれば、マークの色を識別することによって、いずれの面が撮像手段が設けられている方向に面しているか容易に判断することができる。そのため、1つのワークに付与されるマークの形状を同じくすることができる。その結果、マスタ画像の種類(データ量)を低減することができ、画像比較部でマーク画像とマスタ画像とを比較する時間を低減することができる。   According to this apparatus, by identifying the color of the mark, it is possible to easily determine which surface faces in the direction in which the imaging unit is provided. Therefore, the shape of the mark given to one work can be made the same. As a result, the type (data amount) of the master image can be reduced, and the time for comparing the mark image with the master image in the image comparison unit can be reduced.

(適用例10)前記マークは、紫外線または赤外線で検出可能としていることを特徴とする上記のワーク姿勢認識装置。   (Application example 10) The workpiece posture recognition apparatus described above, wherein the mark can be detected by ultraviolet rays or infrared rays.

この装置によれば、マークは2CCDカメラ等で識別することができ、人間の目には見えない。そのため、出来上がった製品の概観特性を低減させることを防止することができる。   According to this apparatus, the mark can be identified by a 2CCD camera or the like and is not visible to human eyes. Therefore, it is possible to prevent the appearance characteristics of the finished product from being reduced.

(ワーク姿勢認識装置について)
本発明のワーク姿勢認識方法を適用したワーク姿勢認識装置について、図1を参照して説明する。図1は、ワーク姿勢認識装置の構成例を示す図である。
(About work posture recognition device)
A workpiece posture recognition apparatus to which the workpiece posture recognition method of the present invention is applied will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a workpiece posture recognition apparatus.

図1に示すように、ワーク姿勢認識装置1は、ステージ5と、ロボット10と、ロボット10を制御する制御部20とから構成されている。ステージ5は、後述するマークが付与された被作業対象物であるワークWを保持する。ワークWは、図示しないベルトコンベアで搬送されステージ5に搬入されロボット10による作業が実施された後、次のステージ5もしくは次の工程に搬出される。なお、このときワークWは、ランダムな姿勢で搬入される。すなわち、生産効率向上および設備の簡素化のため、ワークWの整列工程および位置決め工程を設けていない。   As shown in FIG. 1, the workpiece posture recognition device 1 includes a stage 5, a robot 10, and a control unit 20 that controls the robot 10. The stage 5 holds a work W that is a work target to which a mark to be described later is given. The workpiece W is conveyed by a belt conveyor (not shown), carried into the stage 5, and after the work by the robot 10 is carried out, it is carried out to the next stage 5 or the next process. At this time, the workpiece W is carried in a random posture. That is, the work W alignment process and positioning process are not provided in order to improve production efficiency and simplify equipment.

ロボット10は、撮像手段としてのカメラ12と、ロボットハンド14と、ロボットアーム16,17と、関節部18とから構成されている。ロボット10は、いわゆる多関節型ロボットであり、ロボットアーム16,17が関節部18を支点として可動する。そして、ロボットハンド14にてワークWに対して作業が実施される。カメラ12は、いわばロボット10の眼として機能するものであり、ワークWの位置、姿勢、作業部位等を認識する。   The robot 10 includes a camera 12 as an imaging unit, a robot hand 14, robot arms 16 and 17, and a joint portion 18. The robot 10 is a so-called articulated robot, and the robot arms 16 and 17 are movable with the joint portion 18 as a fulcrum. Then, work is performed on the workpiece W by the robot hand 14. The camera 12 functions as an eye of the robot 10, and recognizes the position, posture, work site, and the like of the workpiece W.

制御部20は、少なくとも、画像処理装置30と、記憶装置40と、コンピュータ50とから構成されている。画像処理装置30は、少なくとも、画像入力部32と、画像比較処理部34と、カメラ位置制御部36とを含む。記憶装置40は、少なくとも、マスタ画像格納部42と、認識結果格納部44とを含む。コンピュータ50は、中央処理装置として機能し、ロボット10、画像処理装置30、および記憶装置40等を総括的に制御するものである。制御部20の動作については後述する。   The control unit 20 includes at least an image processing device 30, a storage device 40, and a computer 50. The image processing device 30 includes at least an image input unit 32, an image comparison processing unit 34, and a camera position control unit 36. The storage device 40 includes at least a master image storage unit 42 and a recognition result storage unit 44. The computer 50 functions as a central processing unit, and controls the robot 10, the image processing device 30, the storage device 40, and the like as a whole. The operation of the control unit 20 will be described later.

(マークについて)
次いで、ワークに付与するマークについて、図2および図3を参照して説明する。図2は、マークを付与されるワークの例を示す図であり、図3は、マークを説明する図である。
(About the mark)
Next, marks to be given to the workpiece will be described with reference to FIGS. FIG. 2 is a diagram illustrating an example of a workpiece to which a mark is given, and FIG. 3 is a diagram illustrating the mark.

図2に示すように、本実施形態におけるワークWは、例えば、長方形の面がそれぞれ平行に対向する六面体、すなわちレンガ形状に対して、4つの側面の一部が天面側からそれぞれ異なる角度で斜めに切り落とされた形状に形成されている。すなわち、このワークWは、上下、前後、左右に方向性を有している。なお、以降、このワークWの面Fに関して、面F3を正面から見た図を正面図として、天面をF1、底面をF2、前面をF3、後面をF4、右面をF5、左面をF6と称する。   As shown in FIG. 2, the workpiece W in the present embodiment is, for example, a hexahedron in which rectangular surfaces face each other in parallel, that is, a brick shape, and part of four side surfaces are at different angles from the top surface side. It is formed in the shape cut off diagonally. That is, this work W has directionality in the vertical direction, the front-rear direction, and the horizontal direction. Hereinafter, with respect to the surface F of the workpiece W, a front view of the surface F3 is a front view, the top surface is F1, the bottom surface is F2, the front surface is F3, the rear surface is F4, the right surface is F5, and the left surface is F6. Called.

そして、このワークWの各面Fには、マークCが付与されている。本実施例では、マークCがそれぞれ各面Fに小さく印刷されている。ただし、図面においては、説明をわかりやすくするためマークCを拡大し強調して示している。図3に示すように、マークCは、例えば、変形された矢印形状を呈している。すなわち、矢印Aは、矢の矢羽に相当する部分が矢竹を中心にいずれか片側のみしか形成されていない。すなわち、マークCとしての矢印Aは非対称形に形成されている。この場合、矢印Aの矢aの向きで図3中上下の方向を、矢印Aの矢竹に対する矢羽根bのある位置で図3中左右を表す。   A mark C is given to each surface F of the workpiece W. In this embodiment, the marks C are printed on each surface F in a small manner. However, in the drawings, the mark C is enlarged and emphasized for easy understanding. As shown in FIG. 3, the mark C has a deformed arrow shape, for example. That is, in the arrow A, the part corresponding to the arrow of the arrow is formed only on one side of the arrow bamboo. That is, the arrow A as the mark C is formed asymmetrically. In this case, the up and down directions in FIG. 3 are represented by the direction of the arrow a of the arrow A, and the left and right directions in FIG.

図2に示すワークWには、天面F1、底面F2、前面F3、後面F4、右面F5、左面F6に対して、図3に示す矢印A1を基本として、わずかずつ変形され識別可能となった矢印Aが付与される。矢印Aは、例えば、付与される矢羽根bの数によって識別される。すなわち、矢印A1は矢羽根bが1つ、矢印A2は矢羽根bが2つ、矢印A3は矢羽根bが3つ、矢印A4は矢羽根bが4つ、矢印A5は矢羽根bが5つ、矢印A6は矢羽根bが6つ付与され、それぞれ識別される。本実施形態では、ワークWの天面F1には矢印A1が、底面F2には矢印A2が、前面F3には矢印A3が、後面F4には矢印A4が、右面F5には矢印A5が、左面F6には矢印A6がそれぞれ付与される。   The workpiece W shown in FIG. 2 can be discriminated slightly from the top F1, bottom F2, front F3, rear F4, right F5, and left F6 based on the arrow A1 shown in FIG. Arrow A is given. The arrow A is identified by, for example, the number of arrow feathers b that are given. That is, arrow A1 has one arrow blade b, arrow A2 has two arrow blades b, arrow A3 has three arrow blades b, arrow A4 has four arrow blades b, and arrow A5 has five arrow blades b. The arrow A6 is provided with six arrow feathers b and is identified. In the present embodiment, the arrow A1 is on the top surface F1 of the workpiece W, the arrow A2 is on the bottom surface F2, the arrow A3 is on the front surface F3, the arrow A4 is on the rear surface F4, the arrow A5 is on the right surface F5, and the left surface. An arrow A6 is given to F6.

このとき、天面F1、底面F2には、矢印Aの矢aの向きが左面F6から右面F5に向かうように、前面F3、後面F4、右面F5、左面F6には、矢印Aの矢aの向きが底面F2から天面F1に向かうように付与される。また、天面F1、底面F2には矢印Aの矢羽根bが後面F4方向にあるように、前面F3、後面F4には矢印Aの矢羽根bが左面F6方向にあるように、右面F5、左面F6には前面F3方向にあるように付与される。すなわち、面Fに付与された矢印Aの種類、矢aの方向および矢羽根bの向きを知ることによって、面Fの種類、方向、向きを知ることができる。   At this time, on the top surface F1 and the bottom surface F2, the front surface F3, the rear surface F4, the right surface F5, and the left surface F6 are arranged with the arrow a of the arrow A so that the direction of the arrow a of the arrow A is from the left surface F6 to the right surface F5. It is given so that the direction is from the bottom surface F2 to the top surface F1. The top surface F1 and the bottom surface F2 have an arrow A arrow b in the rear surface F4 direction, and the front surface F3 and the rear surface F4 have an arrow A arrow blade b in the left surface F6 direction. The left surface F6 is provided so as to be in the direction of the front surface F3. That is, by knowing the type of arrow A given to the surface F, the direction of the arrow a, and the direction of the arrow blade b, the type, direction, and direction of the surface F can be known.

(マスタ画像について)
ここで、マスタ画像格納部に格納されるマスタ画像について、図4を参照して説明する。図4は、マスタ画像の例を示す図である。
図1に示すカメラ12を用いて、上述のワークWに付与されるマークCのそれぞれに対して正面から観察した時のマスタ画像を予め用意しておく。例えば、図1に示すワーク姿勢認識装置1のロボット10のカメラ12を用い、ワークWの各面に付与されたマークCを矢印Aの矢aが上方向をさすようにして正面から撮像してマスタ画像とする。詳しくは、制御部20の画像処理装置30のカメラ位置制御部36でカメラ12の位置を制御して、ステージ5に載置されたワークWの各面の正面にカメラ12を位置決めしてそれぞれ撮像する。
(About the master image)
Here, the master image stored in the master image storage unit will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a master image.
Using the camera 12 shown in FIG. 1, a master image is prepared in advance when each mark C given to the workpiece W is observed from the front. For example, using the camera 12 of the robot 10 of the workpiece posture recognition apparatus 1 shown in FIG. 1, the mark C given to each surface of the workpiece W is imaged from the front so that the arrow a of the arrow A points upward. The master image. Specifically, the position of the camera 12 is controlled by the camera position control unit 36 of the image processing apparatus 30 of the control unit 20, and the camera 12 is positioned in front of each surface of the workpiece W placed on the stage 5 to capture each image. To do.

その結果、図4に示すようなマスタ画像Mが得られる。マスタ画像M1は、天面F1の矢印A1を、マスタ画像M2は、底面F2の矢印A2を、マスタ画像M3は、前面F3の矢印A3を撮像した画像である。同様に、マスタ画像M4は、後面F4の矢印A4を、マスタ画像M5は、右面F5の矢印A5を、マスタ画像M6は、左面F6の矢印A6を撮像した画像である。この場合、マスタ画像M1,M3,M5と、マスタ画像M2,M4,M6とは矢印Aの矢羽根bの向きが図4中左右異なる。また、いずれのマスタ画像Mとも矢aは上方向を指し示している。このマスタ画像Mは、図1に示す制御部20の記憶装置40のマスタ画像格納部42に格納される。   As a result, a master image M as shown in FIG. 4 is obtained. The master image M1 is an image of the arrow A1 on the top surface F1, the master image M2 is an image of the arrow A2 on the bottom surface F2, and the master image M3 is an image of the arrow A3 on the front surface F3. Similarly, the master image M4 is an image obtained by capturing an arrow A4 on the rear surface F4, the master image M5 is an image captured by the arrow A5 on the right surface F5, and the master image M6 is an image obtained by capturing the arrow A6 on the left surface F6. In this case, the master images M1, M3, M5 and the master images M2, M4, M6 are different from each other in the direction of the arrow blade b of the arrow A in FIG. In any master image M, the arrow a points upward. The master image M is stored in the master image storage unit 42 of the storage device 40 of the control unit 20 shown in FIG.

(ワーク姿勢認識方法について)
(第1実施例)
次いで、本発明のワーク姿勢認識方法について、図5〜8を参照して説明する。図5は、ワーク姿勢認識方法の流れを示すフローチャートであり、図6は、ワーク姿勢認識方法を説明する図であり、図7は、マーク画像の例を示す図である。図8は、マーク画像とマスタ画像との比較処理を説明する図である。なお、図6で示すX軸、Y軸、Z軸は、ロボット10の作業における絶対座標の基本となるX軸、Y軸、Z軸を示す。すなわち、ロボット10のロボットハンド14の移動制御において、移動始点および移動終点等の位置を示す座標の基本となる座標軸である。本実施形態では、ロボット10は、XZ平面に正対しY方向を向いた位置にセットされている。
(About work posture recognition method)
(First embodiment)
Next, the workpiece posture recognition method of the present invention will be described with reference to FIGS. FIG. 5 is a flowchart showing a flow of the workpiece posture recognition method, FIG. 6 is a diagram for explaining the workpiece posture recognition method, and FIG. 7 is a diagram showing an example of a mark image. FIG. 8 is a diagram illustrating a comparison process between a mark image and a master image. Note that the X axis, the Y axis, and the Z axis shown in FIG. That is, in the movement control of the robot hand 14 of the robot 10, it is a coordinate axis serving as a basis for coordinates indicating positions such as a movement start point and a movement end point. In the present embodiment, the robot 10 is set at a position facing the XZ plane and facing the Y direction.

このワーク姿勢認識方法は、生産効率向上および設備の簡素化のため、ワークWの整列工程や位置決め工程を設けられていない生産ライン等でランダムな姿勢で搬入されるワークWの姿勢を、上述のワーク姿勢認識装置1を用いて認識するものである。ワーク姿勢認識方法は、図5に示すように、ワーク搬入工程S1、マーク撮像工程S2、マーク画像入力工程S3、画像比較工程S4、および姿勢判定工程S5を備えている。   In this work posture recognition method, in order to improve production efficiency and simplify equipment, the posture of the work W carried in a random posture on a production line or the like not provided with the work W alignment process or positioning process is described above. The workpiece posture recognition device 1 is used for recognition. As shown in FIG. 5, the workpiece posture recognition method includes a workpiece carry-in step S1, a mark imaging step S2, a mark image input step S3, an image comparison step S4, and a posture determination step S5.

ステップS1のワーク搬入工程では、図1に示すワーク姿勢認識装置1において、上述のマークCが付与されたワークWが、図示しないベルトコンベア等で搬送されステージ5に搬入される。このときワークWは、ランダムな姿勢で搬入される。そのため、例えば、図6(a)に示すように、搬入されたワークWは、どの面Fがどの方向を向いているのか、または、図示しない他のワークW等と重なり合い干渉して、図中X軸、Y軸、Z軸に対してどの位の角度で配置されているかわからない。そこで、図5に示すステップS2に進む。   In the workpiece carrying-in process in step S1, the workpiece W to which the above-mentioned mark C is given is conveyed by a belt conveyor (not shown) or the like and carried into the stage 5 in the workpiece posture recognition apparatus 1 shown in FIG. At this time, the workpiece W is carried in a random posture. Therefore, for example, as shown in FIG. 6 (a), the loaded work W overlaps with and interferes with which surface F faces in which direction, or other work W (not shown). I don't know how many angles are arranged with respect to the X, Y, and Z axes. Therefore, the process proceeds to step S2 shown in FIG.

図5に示すステップS2のマーク撮像工程では、図1に示すカメラ12を用いて、搬入されたワークWに付与されているマークCを撮像する。まず、図1に示すロボット10のカメラ12を、画像処理装置30のカメラ位置制御部36により、図6(a)中のXY平面に正対させZ(+)方向より、ワークWのマークCを撮像する。この場合、Z(+)方向にはマークCaが付与されているため、マークCaが撮影され図7に示すマーク画像P1を得る。次いで、カメラ12を、図6(a)中のXZ平面に正対させY(−)方向より、ワークWのマークCを撮像する。この場合、Y(−)方向にはマークCbが付与されているため、マークCbが撮影され図7に示すマーク画像P3を得る。次いで、カメラ12を、図6(a)中のYZ平面に正対させX(+)方向より、ワークWのマークCを撮像する。この場合、X(+)方向にはマークCcが付与されているため、マークCcが撮影され図7に示すマーク画像P5を得る。すなわち、図6の絶対座標軸としてのX軸方向、Y軸方向およびZ軸方向から対向するマークCを撮影して、それぞれのマーク画像Pを得る。   In the mark imaging process of step S2 shown in FIG. 5, the mark C given to the carried workpiece W is imaged using the camera 12 shown in FIG. First, the camera 12 of the robot 10 shown in FIG. 1 is directly opposed to the XY plane in FIG. 6A by the camera position control unit 36 of the image processing apparatus 30, and the mark C of the workpiece W is viewed from the Z (+) direction. Image. In this case, since the mark Ca is given in the Z (+) direction, the mark Ca is photographed to obtain the mark image P1 shown in FIG. Next, the camera 12 faces the XZ plane in FIG. 6A and images the mark C of the workpiece W from the Y (−) direction. In this case, since the mark Cb is given in the Y (−) direction, the mark Cb is photographed to obtain a mark image P3 shown in FIG. Next, the camera 12 faces the YZ plane in FIG. 6A and images the mark C of the workpiece W from the X (+) direction. In this case, since the mark Cc is given in the X (+) direction, the mark Cc is photographed to obtain a mark image P5 shown in FIG. That is, the mark C which opposes from the X-axis direction, the Y-axis direction, and the Z-axis direction as the absolute coordinate axes in FIG.

ステップS3のマーク画像入力工程では、カメラ12によって撮像された上記マーク画像P1,P3,P5は、図1に示す制御部20の画像処理装置30の画像入力部32に取り込まれる。   In the mark image input process of step S3, the mark images P1, P3, and P5 captured by the camera 12 are taken into the image input unit 32 of the image processing device 30 of the control unit 20 shown in FIG.

そして、ステップS4の画像比較工程およびステップS5の姿勢判定工程では、取り込まれたマーク画像Pとマスタ画像格納部42に格納されたマスタ画像Mとの比較処理および姿勢判定が行われる。この比較処理および姿勢判定は、図1に示す制御部20の画像比較処理部34で、コンピュータ50の指令、制御により行われる。   Then, in the image comparison step in step S4 and the posture determination step in step S5, a comparison process and posture determination between the captured mark image P and the master image M stored in the master image storage unit 42 are performed. This comparison process and posture determination are performed by the command and control of the computer 50 in the image comparison processing unit 34 of the control unit 20 shown in FIG.

まず、ステップS4の画像比較工程では、ステップS2で得られたマーク画像P1について比較検証する。図8(a)に示すように、マーク画像P1にあるマークCaを観察すると、マークCaは矢印Aaであり、矢印Aaは矢羽根bを1つ具備している。そのため、矢印Aaは、ワークWの天面F1に付与される矢印A1であることがわかる。そこで、マスタ画像格納部42に格納された矢印A1を撮像したマスタ画像M1を画像比較処理部34に取り込み、マーク画像P1とマスタ画像M1とを比較する。すると、矢印Aaの矢aの向いている方向は概略同じ図中のX(+)方向の範囲であるが、マスタ画像M1の矢印A1と比較して傾きがα度異なっていることがわかる。また、矢印Aaの矢羽根bは、Y(+)方向に向いていることがわかる。   First, in the image comparison process in step S4, the verification is performed on the mark image P1 obtained in step S2. As shown in FIG. 8A, when the mark Ca in the mark image P1 is observed, the mark Ca is an arrow Aa, and the arrow Aa has one arrow blade b. Therefore, it can be seen that the arrow Aa is the arrow A1 given to the top surface F1 of the workpiece W. Therefore, the master image M1 obtained by capturing the arrow A1 stored in the master image storage unit 42 is taken into the image comparison processing unit 34, and the mark image P1 and the master image M1 are compared. Then, it can be seen that the direction of the arrow aa in the direction of the arrow a is the range of the X (+) direction in the same figure, but the inclination is different by α degrees compared to the arrow A1 of the master image M1. Also, it can be seen that the arrow blade b of the arrow Aa is oriented in the Y (+) direction.

次いで、マーク画像P3について比較検証する。図8(b)に示すように、マーク画像P3にあるマークCbを観察すると、マークCbは矢印Abであり、矢印Abは矢羽根bを3つ具備している。そのため、矢印Abは、ワークWの前面F3に付与される矢印A3であることがわかる。そこで、マスタ画像格納部42に格納された矢印A3を撮像したマスタ画像M3を画像比較処理部34に取り込み、マーク画像P3とマスタ画像M3とを比較する。すると、矢印Abの矢aの向いている方向は、図中Z(+)方向と同じであり、傾き等も同じであることがわかる。また、矢印Abの矢羽根bは、X(−)方向に向いていることがわかる。   Next, the mark image P3 is compared and verified. As shown in FIG. 8B, when the mark Cb in the mark image P3 is observed, the mark Cb is an arrow Ab, and the arrow Ab has three arrow blades b. Therefore, it can be seen that the arrow Ab is an arrow A3 given to the front surface F3 of the workpiece W. Therefore, the master image M3 obtained by capturing the arrow A3 stored in the master image storage unit 42 is taken into the image comparison processing unit 34, and the mark image P3 and the master image M3 are compared. Then, it can be seen that the direction of the arrow Ab of the arrow Ab is the same as the Z (+) direction in the figure, and the inclination and the like are the same. Also, it can be seen that the arrow blade b of the arrow Ab is directed in the X (−) direction.

次いで、マーク画像P5について比較検証する。図8(c)に示すように、マーク画像P5にあるマークCcを観察すると、マークCcは矢印Acであり、矢印Acは矢羽根bを5つ具備している。そのため、矢印Acは、ワークWの右面F5に付与される矢印A5であることがわかる。そこで、マスタ画像格納部42に格納された矢印A5を撮像したマスタ画像M5を画像比較処理部34に取り込み、マーク画像P5とマスタ画像M5とを比較する。すると、矢印Acの矢aの向いている方向は概略同じZ(+)方向の範囲であるが、マスタ画像M5の矢印A5と比較して傾きがβ度異なっていることがわかる。また、矢印Acの矢羽根bは、Y(−)方向に向いていることがわかる。   Next, the mark image P5 is compared and verified. As shown in FIG. 8C, when the mark Cc in the mark image P5 is observed, the mark Cc is an arrow Ac, and the arrow Ac has five arrow blades b. Therefore, it can be seen that the arrow Ac is an arrow A5 given to the right surface F5 of the workpiece W. Therefore, the master image M5 obtained by capturing the arrow A5 stored in the master image storage unit 42 is taken into the image comparison processing unit 34, and the mark image P5 and the master image M5 are compared. Then, it can be seen that the direction of the arrow Ac in the direction of the arrow Ac is substantially the same Z (+) range, but the inclination is different by β degrees compared to the arrow A5 of the master image M5. Further, it can be seen that the arrow blade b of the arrow Ac is oriented in the Y (−) direction.

ステップS5の姿勢判定工程では、ステップS4の画像比較工程で得られたマーク画像Pとマスタ画像Mとの上述の比較検証結果により、図6(b)に示すように、マークCaが付された面Fは天面F1であり、マークCbが付された面Fは前面F3であり、マークCcが付された面Fは右面F5であると判定できる。これは、矢印Aの種類、矢aの方向、矢羽根bの向きのいずれかの組み合わせ、もしくは、すべてを用いることによって判定できる。また、天面F1の矢印A1(Aa)がX軸に対してα度傾いていること、前面F3の矢印A3(Ab)がZ軸に対して傾いていないこと、右面F5の矢印A5(Ac)がZ軸に対してβ度傾いていることによりワークWのX軸(Y軸)、Z軸に対する傾きを知ることができる。   In the posture determination process of step S5, as shown in FIG. 6B, the mark Ca is given as a result of the comparison verification result between the mark image P and the master image M obtained in the image comparison process of step S4. It can be determined that the surface F is the top surface F1, the surface F to which the mark Cb is attached is the front surface F3, and the surface F to which the mark Cc is attached is the right surface F5. This can be determined by using any combination of the type of arrow A, the direction of arrow a, and the direction of arrow blade b, or all of them. Also, the arrow A1 (Aa) on the top surface F1 is inclined by α degrees with respect to the X axis, the arrow A3 (Ab) on the front surface F3 is not inclined with respect to the Z axis, and the arrow A5 (Ac on the right surface F5) ) Is inclined by β degrees with respect to the Z axis, the inclination of the workpiece W with respect to the X axis (Y axis) and the Z axis can be known.

すなわち、ワークWは、図6(c)に示すように、天面F1をZ(+)方向に、前面F3をY(−)方向に、右面F5をX(+)方向に向け配置されている。また、ワークWは、XY面においてX軸に対してα度だけ傾いて、YZ面においてZ軸からβ度だけ傾いて配置されていることがわかる。この検証結果は、図1に示す制御部20の記憶装置40の認識結果格納部44に格納され、ワークWに対するロボット10の作業に対する指示命令の基本となる。   That is, as shown in FIG. 6C, the workpiece W is arranged with the top surface F1 in the Z (+) direction, the front surface F3 in the Y (−) direction, and the right surface F5 in the X (+) direction. Yes. Further, it can be seen that the workpiece W is inclined by α degrees with respect to the X axis in the XY plane and is inclined by β degrees from the Z axis in the YZ plane. The verification result is stored in the recognition result storage unit 44 of the storage device 40 of the control unit 20 shown in FIG. 1 and becomes a basic instruction command for the work of the robot 10 on the workpiece W.

次いで、ステップS6に進み、次に姿勢を判定するワークWがあるか否かを判断する。次に姿勢を判定するワークWがある(YES)場合は、上述のステップS1のワーク搬入工程に進み、上述の作業を繰り返す。次に姿勢を判定するワークWがない(NO)場合は、この姿勢認識作業を終了する。   Next, the process proceeds to step S6, in which it is determined whether there is a workpiece W whose posture is to be determined next. Next, when there is a workpiece W for which the posture is determined (YES), the process proceeds to the above-described workpiece carry-in process of step S1, and the above-described operation is repeated. Next, when there is no workpiece W for determining the posture (NO), this posture recognition work is ended.

以下、本実施例の効果を記載する。
(1)上述のワーク姿勢認識装置を用いたワーク姿勢認識方法によれば、ワークWにはそれぞれの面Fごとに識別可能なマークCとして方向性を示すことができる非対称形の矢印Aが付与されている。そして、ランダムな姿勢で供給されるワークWに対して、その矢印Aをカメラ12で撮像してマーク画像Pを得て、そのマーク画像Pを予め用意されている矢印Aのマスタ画像Mと比較することができる。
The effects of this example will be described below.
(1) According to the workpiece posture recognition method using the above-described workpiece posture recognition apparatus, the workpiece W is provided with an asymmetric arrow A that can indicate directionality as a mark C that can be identified for each surface F. Has been. Then, for the workpiece W supplied in a random posture, the arrow A is captured by the camera 12 to obtain a mark image P, and the mark image P is compared with a master image M of the arrow A prepared in advance. can do.

そのため、矢印Aの種類によってワークWのどの面Fがどの方向に向いているか、矢印Aの矢aの指し示す方向によってワークWがどの方向に向いているか、マーク画像Pの矢印Aとマスタ画像Mの矢印Aとの傾きの違いによってワークWがどの方向にどれだけ傾いているか判断することができる。すなわち、マーク画像Pとマスタ画像Mとを比較するという簡単な作業でワークWの姿勢を認識することができる。その結果、CAD/CAMデータや輪郭関数等を使って複雑な演算処理を行わずに少ないデータ量でワークWの姿勢を認識することができる。従って、ワークWの姿勢認識のための計算時間を短縮することができ、姿勢認識作業の効率化に寄与することができる。   Therefore, which surface F of the workpiece W is directed to which direction depending on the type of the arrow A, which direction the workpiece W is directed to according to the direction indicated by the arrow a of the arrow A, the arrow A of the mark image P and the master image M It can be determined in what direction and how much the workpiece W is tilted by the difference in tilt from the arrow A. That is, the posture of the workpiece W can be recognized by a simple operation of comparing the mark image P and the master image M. As a result, the posture of the workpiece W can be recognized with a small amount of data without performing complicated arithmetic processing using CAD / CAM data, contour functions, or the like. Accordingly, it is possible to shorten the calculation time for posture recognition of the workpiece W, and to contribute to the efficiency of posture recognition work.

(第2実施例)
ここで、第2実施例のワーク姿勢認識方法について説明する。なお、第2実施例は、第1実施例に対して、ワークWの各面に付与するマークの様態が異なる例である。また、第1実施例と同様な構成および内容については、符号を等しくして説明を省略する。
(Second embodiment)
Here, the workpiece posture recognition method of the second embodiment will be described. The second embodiment is an example in which the state of the mark applied to each surface of the workpiece W is different from the first embodiment. Further, the same configurations and contents as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted.

(マークについて)
第2実施例におけるマークについて、図9を参照して説明する。図9は、ワークと第2実施例におけるマークを説明する図である。
図9に示すように、第2実施例におけるワークWは、第1実施例のワークWと同様な形状を呈している。このワークWの各面Fには、マークDが付与されている。マークDは、第1実施例と同様に変形された矢印形状を呈している。マークDの矢印Eは、矢の矢羽に相当する部分が矢竹を中心にいずれか片側のみしか形成されていない。すなわち、マークDとしての矢印Eは非対称形に形成されている。
(About the mark)
The marks in the second embodiment will be described with reference to FIG. FIG. 9 is a diagram for explaining the workpiece and the mark in the second embodiment.
As shown in FIG. 9, the workpiece W in the second embodiment has the same shape as the workpiece W of the first embodiment. A mark D is given to each surface F of the workpiece W. The mark D has an arrow shape modified in the same manner as in the first embodiment. In the arrow E of the mark D, the part corresponding to the arrow feathers is formed only on one side of the arrow bamboo. That is, the arrow E as the mark D is formed asymmetrically.

図9に示すワークWには、天面F1、底面F2、前面F3、後面F4、右面F5、左面F6に対して、図3に示す矢印A1を基本として、それぞれ異なる色に着色され識別可能となった矢印Eが付与される。矢印Eは、例えば、矢印E1は赤色、矢印E2は青色、矢印E3は緑色、矢印E4は黄色、矢印E5は黒色、矢印E6は白色に着色され、それぞれ識別される。本実施例では、ワークWの天面F1には矢印E1が、底面F2には矢印E2が、前面F3には矢印E3が、後面F4には矢印E4が、右面F5には矢印E5が、左面F6には矢印E6がそれぞれ付与される。   The workpiece W shown in FIG. 9 can be identified by being colored in different colors based on the arrow A1 shown in FIG. 3 with respect to the top surface F1, the bottom surface F2, the front surface F3, the rear surface F4, the right surface F5, and the left surface F6. The arrow E is given. For example, the arrow E1 is colored red, the arrow E2 is blue, the arrow E3 is green, the arrow E4 is yellow, the arrow E5 is black, and the arrow E6 is white. In this embodiment, the arrow E1 is on the top surface F1 of the workpiece W, the arrow E2 is on the bottom surface F2, the arrow E3 is on the front surface F3, the arrow E4 is on the rear surface F4, the arrow E5 is on the right surface F5, and the left surface. An arrow E6 is given to F6.

このとき、天面F1、底面F2には、矢印Eの矢aの向きが左面F6から右面F5に向かうように、前面F3、後面F4、右面F5、左面F6には、矢印Eの矢aの向きが底面F2から天面F1に向かうように付与される。また、天面F1、底面F2には矢印Eの矢羽根bが後面F4方向にあるように、前面F3、後面F4には矢印Eの矢羽根bが左面F6方向にあるように、右面F5、左面F6には前面F3方向にあるように付与される。すなわち、面Fに付与された矢印Eの種類すなわち着色された色、矢aの方向および矢羽根bの向きを知ることによって、面Fの種類、方向、向きを知ることができる。   At this time, on the top surface F1 and the bottom surface F2, the front surface F3, the rear surface F4, the right surface F5, and the left surface F6 have the arrow a of the arrow E directed from the left surface F6 to the right surface F5. It is given so that the direction is from the bottom surface F2 to the top surface F1. The top surface F1, the bottom surface F2, the right surface F5, so that the arrow blade b of the arrow E is in the rear surface F4 direction, and the front surface F3, the rear surface F4, the arrow blade b of the arrow E is in the left surface F6 direction, The left surface F6 is provided so as to be in the direction of the front surface F3. That is, by knowing the type of arrow E given to the surface F, that is, the colored color, the direction of the arrow a, and the direction of the arrow blade b, the type, direction, and direction of the surface F can be known.

以降、第1実施例で説明したマスタ画像Mの取得およびワーク姿勢認識方法を適用して、マークDが付与されたワークWの姿勢を認識する。すなわち、第2実施例は、マークDとしての矢印E1〜6が矢羽根bの数の違いによって識別されるのではなく、着色された色の違いによって識別される点にある。   Thereafter, the posture of the workpiece W to which the mark D is given is recognized by applying the acquisition of the master image M and the workpiece posture recognition method described in the first embodiment. That is, the second embodiment is that the arrows E1 to 6 as the mark D are not identified by the difference in the number of the arrow blades b but by the difference in the colored colors.

以下、本第2実施例の効果を記載する。
(1)上述のワーク姿勢認識方法によれば、ワークWにはそれぞれの面Fごとに識別可能なマークDとして方向性を示すことができる非対称形かつ色違いの矢印Eが付与されている。そのため、矢印Eの色を識別することによってワークWのどの面Fがどの方向に向いているか容易に判断することができる。そのため、1つのワークに付与されるマークDの形状を同じくすることができ、マスタ画像Mの種類(データ量)を低減することができる。従って、より短時間でワークWの姿勢を認識することができる。
The effects of the second embodiment will be described below.
(1) According to the workpiece posture recognition method described above, the workpiece W is provided with an asymmetrical and different-colored arrow E that can indicate the direction as the mark D that can be identified for each surface F. Therefore, by identifying the color of the arrow E, it is possible to easily determine which surface F of the workpiece W is directed in which direction. Therefore, the shape of the mark D given to one work can be made the same, and the type (data amount) of the master image M can be reduced. Therefore, the posture of the workpiece W can be recognized in a shorter time.

(第3実施例)
ここで、第3実施例のワーク姿勢認識方法について説明する。なお、第3実施例は、第1および第2実施例に対して、ワークWの各面に付与するマークの様態が異なる例である。また、第1および第2実施例と同様な構成および内容については、符号を等しくして説明を省略する。
(Third embodiment)
Here, the workpiece posture recognition method of the third embodiment will be described. The third embodiment is an example in which the state of the mark applied to each surface of the workpiece W is different from the first and second embodiments. Further, the same configurations and contents as those of the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.

第3実施例におけるワークWは、第1および第2実施例のワークWと同様な形状を呈している。このワークWの各面Fには、マークGが付与されている。マークGは、図3に示す第1実施例と同様に変形された矢印形状を呈している。マークGの矢印Hは、例えば、紫外線もしくは赤外線を照射することによって認識可能になる機能を有するインキでワークWの各面Fに印刷されている。このインキで印刷された矢印Hは、紫外線ランプもしくは赤外線ランプ等により観察可能となる。   The workpiece W in the third embodiment has the same shape as the workpiece W in the first and second embodiments. A mark G is given to each surface F of the workpiece W. The mark G has an arrow shape modified in the same manner as in the first embodiment shown in FIG. The arrow H of the mark G is printed on each surface F of the workpiece W with ink having a function that can be recognized by irradiating ultraviolet rays or infrared rays, for example. The arrow H printed with this ink can be observed with an ultraviolet lamp or an infrared lamp.

この種のインキとしては、例えば、紫外線もしくは赤外線を照射することによって色変化を起こすインキ(フォトクロミックインキ)や紫外線もしくは赤外線の照射によりカメラ12で認識可能な波長域に発光する発光材料を混入したインキ等が適用され得る。
以降、紫外線ランプもしくは赤外線ランプ等を照射しながら上述のマスタ画像Mおよびマーク画像Pの取得、および上述のワーク姿勢認識方法を適用して、マークGが付与されたワークWの姿勢を認識する。
Examples of this type of ink include inks that change color when irradiated with ultraviolet rays or infrared rays (photochromic inks) and inks that contain light emitting materials that emit light in a wavelength range that can be recognized by the camera 12 when irradiated with ultraviolet rays or infrared rays. Etc. can be applied.
Thereafter, the above-described acquisition of the master image M and the mark image P and the above-described workpiece posture recognition method are applied while irradiating an ultraviolet lamp or an infrared lamp, and the posture of the workpiece W to which the mark G is given is recognized.

以下、本第3実施例の効果を記載する。
(1)上述のワーク姿勢認識方法によれば、ワークWには、それぞれの面Fごとに紫外線ランプもしくは赤外線ランプ等を照射することによって認識可能になるマークGが付与されている。そのため、マークGは、姿勢の認識作業のときに2CCDカメラ等で識別することができ、通常状態では目視で認識することができない。従って、出来上がった製品の外観特性を低減させることを防止することができる。
Hereinafter, effects of the third embodiment will be described.
(1) According to the above-described workpiece posture recognition method, the workpiece W is provided with the mark G that can be recognized by irradiating each surface F with an ultraviolet lamp, an infrared lamp, or the like. Therefore, the mark G can be identified by a 2CCD camera or the like during posture recognition work, and cannot be visually recognized in a normal state. Therefore, it is possible to prevent the appearance characteristics of the finished product from being reduced.

以上、本発明の実施形態について説明したが、上記実施形態に対しては、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。例えば上記実施形態以外の変形例は、以下の通りである。   As mentioned above, although embodiment of this invention was described, various deformation | transformation can be added with respect to the said embodiment in the range which does not deviate from the meaning of this invention. For example, modifications other than the above embodiment are as follows.

(第1変形例)上述の実施形態では、図5に示すステップS2のマーク撮像工程において、ワークWの各面Fごとにマーク画像Pを取得する場合を例にとり説明したがこれに限定されない。第1変形例を説明する図である図10に示すように、供給されたワークWをそのまま俯瞰してマーク画像Pを取得してもよい。図10に示すマーク画像P0は、前面F3と右面F5との稜線の上部Qに図1に示すカメラ12を対向させて取得されている。このようにすることによって、天面F1に付与された矢印A1、前面F3に付与された矢印A3、および右面F5に付与された矢印A5が、1つのマーク画像P0に記録される。   (First Modification) In the above-described embodiment, the case where the mark image P is acquired for each surface F of the workpiece W in the mark imaging process of step S2 shown in FIG. 5 is described as an example, but the present invention is not limited to this. As shown in FIG. 10, which is a diagram illustrating a first modification, the mark image P may be acquired by looking down over the supplied workpiece W as it is. The mark image P0 shown in FIG. 10 is acquired with the camera 12 shown in FIG. 1 facing the upper part Q of the ridgeline between the front surface F3 and the right surface F5. In this way, the arrow A1 given to the top surface F1, the arrow A3 given to the front surface F3, and the arrow A5 given to the right surface F5 are recorded in one mark image P0.

また、マスタ画像M作成において、図1に示すカメラ12を用いてワークWに付与されている各マークCを角度を変えて複数撮像し複数のマスタ画像Mを作成しておく。そして、図5に示すステップS4の画像比較工程では、取り込まれたマーク画像P0とマスタ画像格納部42に格納された複数のマスタ画像Mとを比較して、最も近い(一致度の高い)マスタ画像Mを抽出する。そして、マーク画像P0と抽出されたマスタ画像Mと差異を比較検証する。ステップS5の姿勢判定工程では、ステップS4の画像比較工程で得られたマーク画像Pとマスタ画像Mとの上述の比較検証結果により、ワークWの姿勢を判断する。この方法によれば、マーク撮像工程S2においてマーク画像P0を取り込む作業を簡便にすることができ、ワークWの姿勢を判定する時間を短縮することができる。   Further, in creating the master image M, a plurality of master images M are created by imaging a plurality of marks C given to the workpiece W at different angles using the camera 12 shown in FIG. Then, in the image comparison process of step S4 shown in FIG. 5, the captured mark image P0 is compared with the plurality of master images M stored in the master image storage unit 42, and the closest (highest matching) master is obtained. An image M is extracted. Then, the difference between the mark image P0 and the extracted master image M is compared and verified. In the posture determination step in step S5, the posture of the workpiece W is determined based on the above-described comparison verification result between the mark image P and the master image M obtained in the image comparison step in step S4. According to this method, the work of capturing the mark image P0 in the mark imaging step S2 can be simplified, and the time for determining the posture of the workpiece W can be shortened.

(第2変形例)上述の実施形態では、位置および個数の異なる矢羽根bの付いた矢印A,E,HをマークC,D,Gとして用いる場合を例にとり説明したが、これに限定されない。矢印A,E,Hは、一例であり様々な変形、応用が考えられる。例えば、マークとして、矢印の変形例を示す図である図11に示すような矢印J,K,L等が適用され得る。すなわち、マークは、方向性を有するとともに非対称形に形成されていて、わずかな変形を加えることによってそれぞれが識別可能であればよい。なお、矢印J,K,Lは、それぞれ付与される線分の数によって識別される。また、マークは矢印に限定されない。これらの場合でも上述の実施形態と同様な効果を奏することができる。   (Second Modification) In the above-described embodiment, the case where the arrows A, E, H with the arrow blades b having different positions and numbers are used as the marks C, D, G has been described as an example, but the present invention is not limited to this. . Arrows A, E, and H are examples, and various modifications and applications are possible. For example, arrows J, K, L, etc. as shown in FIG. In other words, the marks need only be directional and formed in an asymmetric shape, and can be identified by applying a slight deformation. The arrows J, K, and L are identified by the number of line segments to be assigned. Further, the mark is not limited to an arrow. Even in these cases, the same effect as the above-described embodiment can be obtained.

(第3変形例)上述の実施形態では、ワークWがベルトコンベア等でステージ5に搬入される場合を例にとり説明したが、これに限定されない。ワークWは、例えば、トレイ等にいわゆるバラ積みされていてもよい。この場合でも上述の実施形態と同様な効果を奏することができる。   (Third Modification) In the above embodiment, the case where the workpiece W is carried into the stage 5 by a belt conveyor or the like has been described as an example, but the present invention is not limited to this. For example, the workpieces W may be stacked on a tray or the like. Even in this case, the same effect as the above-described embodiment can be obtained.

(第4変形例)上述の実施形態では、マークC,D,Gとしての矢印A,E,HがワークWの各面に印刷され付与されている場合を例にとり説明したが、これに限定されない。矢印A,E,Hは、ラベルに印刷されそれぞれの面Fに貼り付けられていてもよい。また、それぞれの面に刻印されていてもよい。方向性を有するとともに非対称形に形成されていて、わずかな変形を加えることによってそれぞれが識別可能なマークが何らかの方法で付与されていればよい。また、上述の実施形態では、撮像手段としてのカメラ12がロボット10の一体として設けられている場合を例に説明したが、これに限定されない。生産ラインにおいてロボット10とワークWとを俯瞰する位置に設けられていてもよい。これらの場合でも上述の実施形態と同様な効果を奏することができる。   (Fourth Modification) In the above-described embodiment, the case where the arrows A, E, and H as the marks C, D, and G are printed and provided on each surface of the workpiece W has been described as an example, but the present invention is not limited thereto. Not. Arrows A, E, and H may be printed on a label and attached to each surface F. Moreover, it may be imprinted on each surface. It is only necessary that a mark having directionality and an asymmetric shape is formed by some method so that each mark can be identified by applying a slight deformation. In the above-described embodiment, the case where the camera 12 as the imaging unit is provided as an integral part of the robot 10 has been described as an example, but the present invention is not limited to this. You may provide in the position which looks down at the robot 10 and the workpiece | work W in a production line. Even in these cases, the same effect as the above-described embodiment can be obtained.

ワーク姿勢認識装置の構成例を示す図。The figure which shows the structural example of a workpiece | work attitude | position recognition apparatus. マークを付与されたワークの例を示す図。The figure which shows the example of the workpiece | work provided with the mark. マークを説明する図。The figure explaining a mark. マスタ画像の例を示す図。The figure which shows the example of a master image. ワーク姿勢認識方法の流れを示すフローチャート。The flowchart which shows the flow of the workpiece | work attitude | position recognition method. ワーク姿勢認識方法を説明する図。The figure explaining the workpiece posture recognition method. マーク画像の例を示す図。The figure which shows the example of a mark image. マーク画像とマスタ画像との比較処理を説明する図。The figure explaining the comparison process of a mark image and a master image. ワークと第2実施例におけるマークを説明する図。The figure explaining the workpiece | work and the mark in 2nd Example. 第1変形例を説明する図。The figure explaining a 1st modification. 矢印の変形例を示す図。The figure which shows the modification of an arrow.

符号の説明Explanation of symbols

1…ワーク姿勢認識装置、5…ステージ、10…ロボット、12…撮像手段としてのカメラ、20…制御部、30…画像処理装置、32…画像入力部、34…画像比較処理部、40…記憶装置、42…マスタ画像格納部、A,E,H,J,K,L…矢印、C,D,G…マーク、F…面、M…マスタ画像、P…マーク画像、S3…画像入力工程、S4…画像比較工程、S5…姿勢判定工程、W…ワーク、a…矢、b…矢羽根。   DESCRIPTION OF SYMBOLS 1 ... Work posture recognition apparatus, 5 ... Stage, 10 ... Robot, 12 ... Camera as an imaging means, 20 ... Control part, 30 ... Image processing apparatus, 32 ... Image input part, 34 ... Image comparison processing part, 40 ... Memory | storage Device, 42 ... Master image storage unit, A, E, H, J, K, L ... Arrow, C, D, G ... Mark, F ... Surface, M ... Master image, P ... Mark image, S3 ... Image input process , S4: Image comparison step, S5: Posture determination step, W: Workpiece, a ... Arrow, b ... Arrow feather.

Claims (9)

ランダムな姿勢で供給されるワークに対して作業を実施するロボットにおける前記ワークの姿勢を認識するワーク姿勢認識方法であって、
前記ワークは、複数の外面を有し、前記外面ごとに1つずつマークが付与されており、
各前記マークは、異なる種類であり、かつ、前記外面ごとに方向性を有する非対称な形状であり
前記ロボットは前記マークを撮像する撮像手段と、各前記マークに対して前記撮像手段により撮像されたマスタ画像を予め格納するマスタ画像格納手段と、を有し、
前記撮像手段により撮像されるマーク画像を取り込む画像入力工程と、
取り込まれた前記マーク画像と前記マスタ画像格納手段に格納される複数の前記マスタ画像とを順次比較して、前記マーク画像と最大に一致する前記マスタ画像を検出して前記マークの種類を認識するとともに、前記マーク画像のマークと当該マスタ画像のマークとの方向もしくは角度の違いを検出する画像比較工程と、
前記マークの種類から前記撮像手段に対向する前記ワークの外面を認識し、前記マーク画像の方向もしくは角度の違いから、前記マスタ画像を取得したときの前記ワークの姿勢からの方向および角度を認識し、前記ワークの姿勢を判定する姿勢判定工程と、を有することを特徴とするワーク姿勢認識方法。
A workpiece posture recognition method for recognizing the posture of the workpiece in a robot that performs work on a workpiece supplied in a random posture,
The workpiece has a plurality of outer surfaces, it marks one by one are assigned to each said outer surface,
Each of the marks is a different type and has an asymmetric shape having directionality for each outer surface ,
The robot includes imaging means for imaging the mark, the master image storing means for storing each master image captured by the imaging means with respect to each said mark in advance, a,
An image input step of capturing a mark image picked up by the image pickup means;
The captured mark image is sequentially compared with the plurality of master images stored in the master image storage means, and the master image that matches the mark image at the maximum is detected to recognize the type of the mark. And an image comparison step for detecting a difference in direction or angle between the mark of the mark image and the mark of the master image,
The outer surface of the workpiece facing the imaging unit is recognized from the type of the mark, and the direction and angle from the posture of the workpiece when the master image is acquired is recognized from the difference in direction or angle of the mark image. And a posture determination step of determining the posture of the workpiece.
前記マークは、前記ワークのそれぞれの外面ごとに色違いに付与されていることを特徴とする請求項1に記載のワーク姿勢認識方法。 The work posture recognition method according to claim 1, wherein the mark is provided in a different color for each outer surface of the work. 前記マークは、紫外線または赤外線で検出可能としていることを特徴とする請求項1に記載のワーク姿勢認識方法。 The workpiece posture recognition method according to claim 1, wherein the mark is detectable by ultraviolet rays or infrared rays. ランダムな姿勢で供給されるワークに対して作業を実施するロボットにおける前記ワークの姿勢を認識するワーク姿勢認識装置であって、
前記ワークは、複数の外面を有し、前記外面ごとに1つずつマークが付与されており、
各前記マークは、異なる種類であり、かつ、前記外面ごとに方向性を有する非対称な形状であり
記マークを撮像する撮像手段と、
各前記マークに対して前記撮像手段により撮像されたマスタ画像を予め格納するマスタ画像格納部と、
前記撮像手段により撮像されるマーク画像を取り込む画像入力部と、
取り込まれた前記マーク画像と前記マスタ画像格納手段に格納される複数の前記マスタ画像とを順次比較して、前記マーク画像と最大に一致する前記マスタ画像を検出して前記マークの種類を認識するとともに、前記マーク画像のマークと当該マスタ画像のマークとの方向もしくは角度の違いを検出する画像比較工程と、
前記マークの種類から前記撮像手段に対向する前記ワークの外面を認識し、前記マーク画像の方向もしくは角度の違いから、前記マスタ画像を取得したときの前記ワークの姿勢からの方向および角度を認識し、前記ワークの姿勢を判定する姿勢判定工程と、を有することを特徴とするワーク姿勢認識装置。
A workpiece posture recognition device for recognizing the posture of the workpiece in a robot that performs work on a workpiece supplied in a random posture,
The workpiece has a plurality of outer surfaces, it marks one by one are assigned to each said outer surface,
Each of the marks is a different type and has an asymmetric shape having directionality for each outer surface ,
Imaging means for imaging the previous Symbol mark,
A master image storage unit that stores in advance a master image captured by the imaging unit for each of the marks;
An image input unit that captures a mark image captured by the imaging unit;
The captured mark image is sequentially compared with the plurality of master images stored in the master image storage means, and the master image that matches the mark image at the maximum is detected to recognize the type of the mark. And an image comparison step for detecting a difference in direction or angle between the mark of the mark image and the mark of the master image,
The outer surface of the workpiece facing the imaging unit is recognized from the type of the mark, and the direction and angle from the posture of the workpiece when the master image is acquired is recognized from the difference in direction or angle of the mark image. And a posture determination step of determining the posture of the workpiece.
前記マークは、前記ワークのそれぞれの外面ごとに色違いに形成されていることを特徴とする請求項に記載のワーク姿勢認識装置。 The workpiece posture recognition device according to claim 4 , wherein the mark is formed in a different color for each outer surface of the workpiece. 前記マークは、紫外線または赤外線で検出可能としていることを特徴とする請求項に記載のワーク姿勢認識装置。 The workpiece posture recognition apparatus according to claim 4 , wherein the mark is detectable by ultraviolet rays or infrared rays. ランダムな姿勢で供給されるワークに対して作業を実施するロボットであって、
前記ワークは、複数の外面を有し、前記外面ごとに1つずつマークが付与されており、
各前記マークは、異なる種類であり、かつ、前記外面ごとに方向性を有する非対称な形状であり、
前記マークを撮像する撮像手段と、
各前記マークに対して前記撮像手段により撮像されたマスタ画像を予め格納するマスタ画像格納部と、
前記撮像手段により撮像されるマーク画像を取り込む画像入力部と、
取り込まれた前記マーク画像と前記マスタ画像格納手段に格納される複数の前記マスタ画像とを順次比較して、前記マーク画像と最大に一致する前記マスタ画像を検出して前記マークの種類を認識するとともに、前記マーク画像のマークと当該マスタ画像のマークとの方向もしくは角度の違いを検出する画像比較工程と、
前記マークの種類から前記撮像手段に対向する前記ワークの外面を認識し、前記マーク画像の方向もしくは角度の違いから、前記マスタ画像を取得したときの前記ワークの姿勢からの方向および角度を認識し、前記ワークの姿勢を判定する姿勢判定工程と、を有することを特徴とするロボット。
A robot that performs work on a workpiece supplied in a random posture,
The workpiece has a plurality of outer surfaces, and one mark is given to each outer surface,
Each of the marks is a different type and has an asymmetric shape having directionality for each outer surface,
Imaging means for imaging the mark;
A master image storage unit that stores in advance a master image captured by the imaging unit for each of the marks;
An image input unit that captures a mark image captured by the imaging unit;
The captured mark image is sequentially compared with the plurality of master images stored in the master image storage means, and the master image that matches the mark image at the maximum is detected to recognize the type of the mark. And an image comparison step for detecting a difference in direction or angle between the mark of the mark image and the mark of the master image,
The outer surface of the workpiece facing the imaging unit is recognized from the type of the mark, and the direction and angle from the posture of the workpiece when the master image is acquired is recognized from the difference in direction or angle of the mark image. And a posture determination step of determining the posture of the workpiece.
前記マークは、前記ワークのそれぞれの外面ごとに色違いに形成されていることを特徴とする請求項7に記載のロボット。   The robot according to claim 7, wherein the mark is formed in a different color for each outer surface of the workpiece. 前記マークは、紫外線または赤外線で検出可能としていることを特徴とする請求項7に記載のロボット。   The robot according to claim 7, wherein the mark is detectable by ultraviolet rays or infrared rays.
JP2008288536A 2008-11-11 2008-11-11 Work posture recognition method, work posture recognition device, and robot Expired - Fee Related JP5251440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008288536A JP5251440B2 (en) 2008-11-11 2008-11-11 Work posture recognition method, work posture recognition device, and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008288536A JP5251440B2 (en) 2008-11-11 2008-11-11 Work posture recognition method, work posture recognition device, and robot

Publications (2)

Publication Number Publication Date
JP2010117754A JP2010117754A (en) 2010-05-27
JP5251440B2 true JP5251440B2 (en) 2013-07-31

Family

ID=42305413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008288536A Expired - Fee Related JP5251440B2 (en) 2008-11-11 2008-11-11 Work posture recognition method, work posture recognition device, and robot

Country Status (1)

Country Link
JP (1) JP5251440B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61110640U (en) * 1984-12-22 1986-07-12
JP3514029B2 (en) * 1995-10-17 2004-03-31 富士ゼロックス株式会社 Two-dimensional position and orientation measurement method and apparatus, control apparatus for image recording apparatus, and control apparatus for manipulator
JP3101674B2 (en) * 1995-12-15 2000-10-23 岡山大学長 3D recognition method and apparatus using CAD information
JP2002120119A (en) * 2000-10-13 2002-04-23 Ricoh Co Ltd Automatic assembling method, automatic disassembling method, automatic assembling device, automatic disassembling device, automatic assembling/disassembling device, and storage medium
JP4604774B2 (en) * 2005-03-14 2011-01-05 オムロン株式会社 Calibration method for 3D measurement

Also Published As

Publication number Publication date
JP2010117754A (en) 2010-05-27

Similar Documents

Publication Publication Date Title
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP2010122777A (en) Workpiece identifying method and workpiece identifying device
JP4309439B2 (en) Object take-out device
JP5835926B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP5458885B2 (en) Object detection method, object detection apparatus, and robot system
EP2345515B1 (en) Method for picking up work pieces
JP5295828B2 (en) Object gripping system and interference detection method in the system
EP2682711B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
US20210023718A1 (en) Three-dimensional data generation device and robot control system
JP2016099257A (en) Information processing device and information processing method
JP6703812B2 (en) 3D object inspection device
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
WO2004011876A1 (en) Apparatus and method for automatically arranging three dimensional scan data using optical marker
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP2004090183A (en) Article position and orientation detecting device and article taking-out device
JP2012030320A (en) Work system, working robot controller, and work program
US11446822B2 (en) Simulation device that simulates operation of robot
JP2019057250A (en) Work-piece information processing system and work-piece recognition method
WO2020217878A1 (en) Device, method, and program for detecting position and orientation of object
JP2016159387A (en) Information processing device, processing system, object movement system and object movement method
JP2012230041A (en) Position detection method, position detector and robot system
JP5476943B2 (en) Posture recognition method and three-dimensional visual sensor using this method
JP7454132B2 (en) Robot system control device, robot system control method, computer control program, and robot system
JP5251440B2 (en) Work posture recognition method, work posture recognition device, and robot
CN110524538B (en) Image processing device, robot, and robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees