JP2011083882A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2011083882A
JP2011083882A JP2009240753A JP2009240753A JP2011083882A JP 2011083882 A JP2011083882 A JP 2011083882A JP 2009240753 A JP2009240753 A JP 2009240753A JP 2009240753 A JP2009240753 A JP 2009240753A JP 2011083882 A JP2011083882 A JP 2011083882A
Authority
JP
Japan
Prior art keywords
workpiece
camera
line
dimensional
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009240753A
Other languages
Japanese (ja)
Other versions
JP5282717B2 (en
Inventor
Toshimitsu Irie
俊充 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2009240753A priority Critical patent/JP5282717B2/en
Publication of JP2011083882A publication Critical patent/JP2011083882A/en
Application granted granted Critical
Publication of JP5282717B2 publication Critical patent/JP5282717B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot system for performing bin picking without reducing the detection accuracy while preventing a camera's view from being shielded by a returnable box and preventing the camera from being intervened by the returnable box. <P>SOLUTION: An image processing device 906 includes: a two-dimensional model 109 of a workpiece; a two-dimensional workpiece position detecting unit 108; an area model 106 for dividing the returnable box into a plurality of areas and defining an area-based visual line as to each area; an area determining unit 103 for outputting the defined area-based visual line to an area to which the workpiece to be picked belongs; a three-dimensional model 105 of the workpiece; a three-dimensional workpiece position detecting unit 102 for detecting a three-dimensional position posture from an image capturing the workpiece to be picked; a visual line model 107 for defining a visual direction of the camera from a plurality of directions relative to the workpiece; and a visual line calculating unit 104 for calculating a visual line of the camera in approaching the workpiece to be picked. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、通い箱内などにバラ積みされたワークをカメラ等の視覚センサで検出し、検出したワークを取り出すロボットシステムに関する。 The present invention relates to a robot system that detects a workpiece stacked in a returnable box or the like with a visual sensor such as a camera and takes out the detected workpiece.

通い箱等の中に複数のワークがバラ積みされた状態からカメラ等の視覚センサでワークの位置を検出し、検出されたワークをロボットで取り上げる作業は、ビンピッキングとして知られている。視覚センサをロボットの手先に搭載してビンピッキングを行う場合、視覚センサが通い箱に干渉しないよう配置することや、視覚センサの視野が通い箱によって遮蔽されないよう配置することが課題となる。
視覚センサの配置に関する技術として、特許文献1が開示されている。図8に特許文献1におけるピッキング装置の概略構成例を示す。図8では、3つの異なる位置に固定されたテレビカメラ11a〜11cにより対象物体14を撮像する。得られた画像は3次元計測手段12により処理され、把持物体決定手段13により把持物体の位置・姿勢が求められる。その結果に基づき、把持手段16を移動手段15により移動して対象物体14をピックアップする。ここで、3次元計測手段12及び把持物体決定手段13は、マイクロコンピュータにて構成される。また、把持手段16はロボットハンド、移動手段15は6軸多関節ロボットで構成される。
The operation of detecting the position of a workpiece with a visual sensor such as a camera from a state in which a plurality of workpieces are stacked in a return box or the like and picking up the detected workpiece with a robot is known as bin picking. When bin picking is performed by mounting the visual sensor on the hand of the robot, it is necessary to arrange the visual sensor so that it does not interfere with the return box, or to place the visual sensor so that the visual field of view is not blocked by the return box.
As a technique related to the arrangement of the visual sensor, Patent Document 1 is disclosed. FIG. 8 shows a schematic configuration example of the picking apparatus in Patent Document 1. In FIG. 8, the target object 14 is imaged by the television cameras 11a to 11c fixed at three different positions. The obtained image is processed by the three-dimensional measuring unit 12, and the position / posture of the grasped object is obtained by the grasped object determining unit 13. Based on the result, the gripping means 16 is moved by the moving means 15 to pick up the target object 14. Here, the three-dimensional measuring unit 12 and the grasped object determining unit 13 are configured by a microcomputer. The gripping means 16 is a robot hand, and the moving means 15 is a 6-axis articulated robot.

次に、計測精度の向上を目的としたテレビカメラ11a〜11cの配置方法を説明する。計測に適した画像とは、図9に示した物体モデルとして登録した面41を正面から撮像した画像であるので、そのような画像が得られる位置にテレビカメラ11a〜11cを配置することが望ましい。一方、図10に示すように、対象物体14が重なると、物体モデルとして登録した面41が矢印に示すように色々な方向を向く。が、例えば対象物体14のように厚みが小さい物体であれば、その向き得る範囲は予測することができる。
そこで従来の技術においては、面41の向き得る方向が、図11に示すように頂角2θの円錐状である場合、テレビカメラ11a〜11cを図11に示す61a〜61cの位置に配置する。各位置61a〜61cは円錐の頂点を中心として120度毎にθ/2の傾きで配置されている。これにより、面41をできるだけ計測に適した画像として撮像することができる。
Next, an arrangement method of the television cameras 11a to 11c for the purpose of improving measurement accuracy will be described. The images suitable for measurement are images obtained by capturing the surface 41 registered as the object model shown in FIG. 9 from the front, and it is desirable to arrange the television cameras 11a to 11c at positions where such images can be obtained. . On the other hand, as shown in FIG. 10, when the target object 14 overlaps, the surface 41 registered as an object model faces in various directions as indicated by arrows. However, if the thickness of the object is small, such as the target object 14, the range in which the orientation can be obtained can be predicted.
Therefore, in the conventional technique, when the direction in which the surface 41 can be oriented is a conical shape with an apex angle 2θ as shown in FIG. 11, the TV cameras 11a to 11c are arranged at positions 61a to 61c shown in FIG. The positions 61a to 61c are arranged at an inclination of θ / 2 every 120 degrees with the vertex of the cone as the center. Thereby, the surface 41 can be imaged as an image suitable for measurement as much as possible.

特開2000−94374号公報(第4、6頁、図1、図4−6)JP 2000-94374 A (pages 4 and 6, FIG. 1, FIG. 4-6)

ここで、特許文献1に記載されている技術をビンピッキングに適用した場合を考える。
図1は、ビンピッキングシステムの構成を表す図で、図1(a)は上面図、図1(b)は側面図である。カメラ902とハンド903は、多関節ロボット901の手先に搭載され、ロボット901の可動範囲内で移動させることができる。カメラ902は、通い箱904内にランダムに投入されたワーク905の画像を取得して画像処理装置906に出力する。画像処理装置906は、ワーク905の位置を演算し、その位置をロボットコントローラ907に出力する。ロボットコントローラ907は、演算された位置にハンド903を移動し、ハンド903は、ワーク905を把持または吸着して通い箱から取り出す。
ビンピッキングを行う際には、カメラ902が通い箱904内のワーク905の画像を取得し、画像処理装置906によって取得した画像からピッキングするワーク(対象ワーク)の位置を演算し、ロボット901によってハンド903を演算した対象ワークの位置に移動し、ワークを取り上げる。
Here, the case where the technique described in Patent Document 1 is applied to bin picking is considered.
1A and 1B are diagrams illustrating a configuration of a bin picking system, in which FIG. 1A is a top view and FIG. 1B is a side view. The camera 902 and the hand 903 are mounted on the hand of the articulated robot 901 and can be moved within the movable range of the robot 901. The camera 902 acquires an image of the work 905 randomly placed in the return box 904 and outputs it to the image processing apparatus 906. The image processing apparatus 906 calculates the position of the workpiece 905 and outputs the position to the robot controller 907. The robot controller 907 moves the hand 903 to the calculated position, and the hand 903 grips or sucks the work 905 and removes it from the return box.
When bin picking is performed, the camera 902 acquires an image of the workpiece 905 in the passing box 904, calculates the position of the workpiece (target workpiece) to be picked from the image acquired by the image processing device 906, and the robot 901 It moves to the position of the target workpiece calculated 903 and picks up the workpiece.

しかしながら図1のようなビンピッキングシステムに特許文献1に記載されている技術を適用すると次のような問題があった。
図12は、通い箱904の中のある対象ワークAを検出する様子を表す説明図である。図12では、通い箱内のワークのうち、ロボットの手前に位置する対象ワークA908をカメラ902で検出しようとしている。従来の技術によれば、「物体モデルとして登録した面を正面から撮像した画像であるので、そのような画像が得られる位置にカメラ902を配置することが望ましい」ということになるが、図12のような場合はそのような位置にカメラ902を配置すると、カメラ902の視界が通い箱904の壁に遮蔽されてしまい対象ワークA908の画像を取得できないという問題が発生する。
こうした問題に対して、従来の技術においては、図11に示したように、カメラ902の配置を120度毎でθ/2の傾きを許容するようになっているが、通い箱904による遮蔽を回避するために、θを大きくとってしまうと、検出精度が著しく低下したり、通い箱904の壁にカメラが干渉したりする問題が発生する。
However, applying the technique described in Patent Document 1 to the bin picking system as shown in FIG. 1 has the following problems.
FIG. 12 is an explanatory diagram showing a state in which a certain target workpiece A in the return box 904 is detected. In FIG. 12, the target workpiece A 908 positioned in front of the robot among the workpieces in the return box is to be detected by the camera 902. According to the prior art, “the image is a front image of a surface registered as an object model, so it is desirable to place the camera 902 at a position where such an image can be obtained”. In such a case, if the camera 902 is arranged at such a position, the field of view of the camera 902 passes through and is blocked by the wall of the box 904, so that there is a problem that an image of the target workpiece A 908 cannot be acquired.
With respect to such a problem, in the conventional technology, as shown in FIG. 11, the camera 902 is allowed to be tilted by θ / 2 every 120 degrees. In order to avoid this, if θ is set large, there will be a problem that the detection accuracy is remarkably lowered or the camera interferes with the wall of the return box 904.

また図13は、通い箱904の中のある対象ワークBを検出する様子を表す説明図である。図13では、通い箱の底部でなおかつロボットの手前に位置する対象ワークB909をカメラ902で検出しようとしている。従来技術によれば、「物体モデルとして登録した面を正面から撮像した画像であるので、そのような画像が得られる位置にカメラ902を配置することが望ましい」が、そのような位置にカメラを配置しようとすると、カメラ902が通い箱904の壁に干渉するという問題が発生する。
以上説明したように、従来技術では、ワーク905に対してモデルを登録した際と同様の場所にカメラ902を配置させようとするため、カメラ902の視界が通い箱904の壁に遮蔽され、対象ワークA908の画像が取得できないという問題や、カメラ902が通い箱904の壁に干渉するという問題があった。一方、カメラ902の配置の許容度を大きくとってしまうと、検出精度が著しく低下するという問題があった。
本発明はこのような問題点に鑑みてなされたものであり、検出精度を低下させることなく、カメラの視界が通い箱に遮蔽されず、またカメラが通い箱に干渉せずにビンピッキングを行うことができるロボットシステムを提供することを目的とする。
FIG. 13 is an explanatory diagram showing a state in which a certain target work B in the returnable box 904 is detected. In FIG. 13, the target workpiece B 909 located at the bottom of the return box and before the robot is detected by the camera 902. According to the prior art, “It is desirable to place the camera 902 at a position where such an image can be obtained because it is an image obtained by imaging the surface registered as the object model from the front”. When trying to arrange, the problem that the camera 902 interferes with the wall of the passing box 904 occurs.
As described above, in the conventional technique, the camera 902 is arranged at the same place as when the model is registered for the workpiece 905, so that the field of view of the camera 902 is blocked by the wall of the box 904, and the target There were a problem that the image of the workpiece A 908 could not be acquired and a problem that the camera 902 passed through and interfered with the wall of the box 904. On the other hand, if the tolerance of the arrangement of the camera 902 is increased, there is a problem that the detection accuracy is remarkably lowered.
The present invention has been made in view of such problems, and does not reduce the detection accuracy, the camera's field of view is not shielded by the passing box, and the camera performs bin picking without interfering with the passing box. An object of the present invention is to provide a robot system that can be used.

上記問題を解決するため、本発明は、次のように構成したのである。
請求項1に記載の発明は、先端部に取り付けられたハンドにより通い箱内に積まれたワークをピッキングするロボットと、前記ロボットに搭載され、前記ワークを撮像するカメラと、前記カメラによって撮像された前記ワークの画像を入力し、前記ワークの位置姿勢を演算して出力する画像処理装置と、前記画像処理装置の出力に基づいて前記ロボットを前記ワークの位置に移動させ前記ハンドによって前記ワークをピッキングさせるロボットコントローラと、を備えたロボットシステムにおいて、前記画像処理装置は、前記ワークの2次元モデルと、前記2次元モデルを用い、複数の前記ワークを撮像した画像からピッキング対象ワークの2次元位置姿勢を検出する2次元ワーク位置検出部と、前記通い箱を複数のエリアに分割し、各エリアについてエリア別視線を定義したエリアモデルと、前記2次元ワーク位置検出部で検出した前記ピッキング対象ワークの位置が、前記エリアモデルのいずれのエリアに属しているかを判定し、前記ピッキング対象ワークが属しているエリアに定義された前記エリア別視線を出力するエリア判定部と、前記ワークの3次元モデルと、前記3次元モデルを用い、前記ピッキング対象ワークを撮像した画像から、前記ピッキング対象ワークの3次元位置姿勢を検出する3次元ワーク位置検出部と、前記ワークに対して複数の方向からの前記カメラの視線方向を定義した視線モデルと、前記視線モデルと、前記3次元ワーク位置検出部で検出した前記ピッキング対象ワークの姿勢と、前記エリア判定部で求めたエリア別視線とから前記ピッキング対象ワークへアプローチする際の前記カメラの視線を演算する視線演算部と、を備え、前記2次元ワーク位置検出部は、検出した前記ピッキング対象ワークの2次元位置姿勢を前記ロボットコントローラに出力し、 前記視線演算部は、演算した前記ピッキング対象ワークへアプローチする際の前記カメラの視線を前記ロボットコントローラに出力することを特徴とするものである。
In order to solve the above problem, the present invention is configured as follows.
According to the first aspect of the present invention, there is provided a robot that picks up a work stacked in a box that is passed by a hand attached to the tip, a camera that is mounted on the robot and picks up the work, and is picked up by the camera. An image processing apparatus that inputs an image of the workpiece, calculates and outputs the position and orientation of the workpiece, and moves the robot to the position of the workpiece based on the output of the image processing apparatus, and moves the workpiece by the hand. In the robot system including the robot controller for picking, the image processing apparatus uses the two-dimensional model of the workpiece and the two-dimensional position of the workpiece to be picked from an image obtained by imaging the plurality of workpieces. A two-dimensional work position detection unit for detecting the posture and the return box are divided into a plurality of areas. The area model in which the line of sight for each area is defined and the position of the picking target work detected by the two-dimensional work position detection unit belong to which area of the area model, and the picking target work belongs An area determination unit that outputs the line of sight defined for each area defined by the area, a three-dimensional model of the workpiece, and an image obtained by imaging the picking workpiece using the three-dimensional model. Detected by a three-dimensional workpiece position detection unit that detects a three-dimensional position and orientation, a line-of-sight model that defines the camera gaze direction from a plurality of directions with respect to the workpiece, the line-of-sight model, and the three-dimensional workpiece position detection unit The picking pair is determined based on the posture of the picked workpiece and the area-specific gaze obtained by the area determination unit. A line-of-sight calculation unit that calculates the line of sight of the camera when approaching a workpiece, and the two-dimensional workpiece position detection unit outputs the detected two-dimensional position and orientation of the picking target workpiece to the robot controller, The line-of-sight calculation unit outputs the line of sight of the camera when approaching the calculated picking target work to the robot controller.

請求項2に記載の発明は、前記ロボットコントローラは、前記2次元ワーク位置検出部によって検出された前記ピッキングするワークの2次元位置姿勢に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークに接近させ、前記視線演算部によって演算された前記カメラの視線に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークにアプローチさせることを特徴とするものである。 According to a second aspect of the present invention, the robot controller operates the robot on the basis of the two-dimensional position and orientation of the workpiece to be picked detected by the two-dimensional workpiece position detection unit, and the workpiece to pick the camera. The robot is operated based on the line of sight of the camera calculated by the line-of-sight calculation unit, and the camera is approached to the workpiece to be picked.

請求項3に記載の発明は、前記3次元モデルは、前記ワークに設けられた4つ以上の特徴部の位置を記憶したものであって、前記3次元ワーク位置検出部は前記ワークを撮像した画像から前記特徴部を抽出することによって前記ワークの3次元位置姿勢を検出することを特徴とするものである。 According to a third aspect of the present invention, the three-dimensional model stores positions of four or more characteristic portions provided on the workpiece, and the three-dimensional workpiece position detection unit images the workpiece. The three-dimensional position / orientation of the workpiece is detected by extracting the feature from an image.

請求項4に記載の発明は、前記エリア別視線は、そのエリアに存在するワークに対して前記ロボットがピッキングを行う際に、前記カメラの視野が前記通い箱に遮蔽されず、かつ前記カメラが前記通い箱に干渉しないように前記カメラを配置した際の前記カメラの視線方向を表すことを特徴とするものである。 According to a fourth aspect of the present invention, when the robot performs picking on a work existing in the area, the visual field of the camera is not shielded by the return box, and the camera is It represents the line-of-sight direction of the camera when the camera is arranged so as not to interfere with the return box.

請求項5に記載の発明は、前記エリア別視線は、ロボット座標系に基づくベクトルとして定義されることを特徴とするものである。 The invention according to claim 5 is characterized in that the line of sight by area is defined as a vector based on a robot coordinate system.

請求項6に記載の発明は、前記視線演算部は、前記視線モデルにて定義されたカメラの視線方向と前記エリアに設定されたエリア別視線との内積を演算することによって、前記ピッキング対象ワークのピッキングに適した前記カメラの視線を決定することを特徴とするものである。 According to a sixth aspect of the present invention, the line-of-sight calculation unit calculates the inner product of the line-of-sight direction of the camera defined by the line-of-sight model and the line-of-sight of each area set in the area. The camera's line of sight suitable for picking is determined.

請求項7に記載の発明は、前記2次元ワーク位置検出部は、前記カメラによって撮像された画像と前記2次元モデルとのテンプレートマッチングによって前記ワークの2次元位置姿勢を検出することを特徴とするものである。 The invention according to claim 7 is characterized in that the two-dimensional workpiece position detecting unit detects a two-dimensional position and orientation of the workpiece by template matching between an image captured by the camera and the two-dimensional model. Is.

請求項8に記載の発明は、前記2次元ワーク位置検出部は、テンプレートマッチングによって前記カメラによって撮像された画像から前記ワークが複数個検出された場合は、前記2次元モデルとの一致度が最も高いものを選定することを特徴とするものである。 According to an eighth aspect of the present invention, the two-dimensional workpiece position detection unit has the highest degree of coincidence with the two-dimensional model when a plurality of workpieces are detected from an image captured by the camera by template matching. It is characterized by selecting a high one.

請求項9に記載の発明は、前記ロボットは垂直多関節ロボットであることを特徴とするものである。 The invention according to claim 9 is characterized in that the robot is a vertical articulated robot.

本発明によれば、エリア判定部において、ワークがどのエリアに属しているかを判定し、その判定結果と各エリアについて定義したカメラの視線方向を出力し、視線演算部において、ワークに対して視線方向を定義した視線モデルと、エリア判定部で求めたカメラの視線方向とから、エリア判定部で求めたカメラの視線方向に最も近い視線方向を視線モデルから選ぶようにしたので、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないという効果がある。
また、視線演算部で演算し出力された視線方向のそれぞれに対して3次元モデルが存在するので、3次元モデルを登録した時のワークに対するカメラ配置と近い位置にカメラを配置することができるようになり、検出精度が低下しないという効果がある。
請求項3に記載の発明によれば、1台のカメラによって取得した画像のみからワークの3次元位置姿勢を演算することができるので、ロボットの先端部に複数のカメラやレーザ光源などを設ける必要がなくなり、ロボット先端部をコンパクトにすることができ、カメラが通い箱に干渉する恐れがないという効果がある。
請求項4乃至6に記載の発明によれば、視線モデルのうち、ワークが存在するエリアに定義されたエリア別視線と最も向きの近い視線モデルを求めることにより、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないカメラの視線方向を求めることができる。
請求項7、8に記載の発明によれば、通い箱内に積まれた複数のワークからピッキングしやすいものを選定することができる。
請求項9に記載の発明によれば、カメラの姿勢を自在に変更できるため、視線演算部で求めたカメラの視線に合わせて実際のカメラの姿勢を変更することができ、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないカメラの配置を実現することができる。
According to the present invention, the area determination unit determines which area the work belongs to, outputs the determination result and the line-of-sight direction of the camera defined for each area, and the line-of-sight calculation unit outputs the line of sight to the work. Since the gaze direction closest to the camera gaze direction obtained by the area determination unit is selected from the gaze model from the gaze model that defines the direction and the camera gaze direction obtained by the area determination unit, the camera view is reduced. There is an effect that the camera is not shielded by the return box and the camera does not interfere with the return box.
In addition, since there is a three-dimensional model for each of the gaze directions calculated and output by the gaze computation unit, the camera can be arranged at a position close to the camera arrangement for the workpiece when the three-dimensional model is registered. Thus, there is an effect that the detection accuracy is not lowered.
According to the third aspect of the invention, since the three-dimensional position and orientation of the workpiece can be calculated only from the image acquired by one camera, it is necessary to provide a plurality of cameras, laser light sources, and the like at the tip of the robot. The robot tip can be made compact, and there is an effect that the camera does not interfere with the box.
According to the invention described in claims 4 to 6, the visual field of the camera is shielded by the viewing line by obtaining the visual line model closest to the visual line for each area defined in the area where the workpiece exists, among the visual line models. In other words, it is possible to determine the direction of the line of sight of the camera without causing the camera to interfere with the box.
According to invention of Claim 7, 8, the thing which is easy to pick can be selected from the some workpiece | work loaded in the return box.
According to the ninth aspect of the present invention, since the posture of the camera can be freely changed, the actual posture of the camera can be changed in accordance with the line of sight of the camera obtained by the line-of-sight calculation unit, and the field of view of the camera passes. It is possible to realize an arrangement of the camera that is not shielded by the box and does not interfere with the camera.

ビンピッキングを行うロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system which performs bin picking. ロボットシステムによりビンピッキングの流れを示す図である。It is a figure which shows the flow of bin picking by a robot system. 本発明のロボットシステムの画像処理装置のブロック図である。It is a block diagram of the image processing apparatus of the robot system of this invention. 本発明のエリアモデルの概念図である。It is a conceptual diagram of the area model of this invention. 本発明の視線モデルの概念図である。It is a conceptual diagram of the gaze model of this invention. 本発明の視線演算部の動作説明図である。It is operation | movement explanatory drawing of the gaze calculating part of this invention. ワークとカメラとの配置を表す説明図である。It is explanatory drawing showing arrangement | positioning of a workpiece | work and a camera. 従来技術におけるピッキング装置の概略構成図である。It is a schematic block diagram of the picking apparatus in a prior art. 従来技術における物体モデルを示す説明図である。It is explanatory drawing which shows the object model in a prior art. 従来技術における計測対象物体の姿勢を示す説明図である。It is explanatory drawing which shows the attitude | position of the measurement target object in a prior art. 従来技術における複数の視点の位置を示す説明図である。It is explanatory drawing which shows the position of the several viewpoint in a prior art. 対象ワークAを検出する様子を示す説明図である。It is explanatory drawing which shows a mode that the object workpiece | work A is detected. 対象ワークBを検出する様子を示す説明図である。It is explanatory drawing which shows a mode that the target workpiece | work B is detected.

以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、背景技術でも述べた、ワークに対する適切なカメラ配置の必要性について詳しく説明する。カメラで撮像した画像から作業対象となるワークの3次元位置姿勢を得るには、複数のカメラを用いたステレオ視や、レーザなどの光をワークに照射してその様子をカメラで撮像する三角測量を行う手法が従来から用いられているが、近年、複数のカメラやレーザなどを用いることなく、1台のカメラによって取得した1つの画像のみからワークの3次元位置姿勢を演算する手法が知られてきている(例えば技報 安川電機 第71巻 第3号 通巻 第276号(2007年)P144〜148)。
この手法を用いることによりロボットの先端部に複数のカメラやレーザ光源などを設ける必要がなくなり、ロボット先端部をコンパクトにすることができる。ロボットの先端部をコンパクトにすることは、ビンピッキングなどの用途では特に有用である。
1台のカメラによって取得した画像のみからワークの3次元位置姿勢を演算する具体的な方法は本発明の本質ではないため詳細な説明は割愛するが、この手法を用いるためには、対象となるワークに4つ以上の特徴点を設定する必要があり、さらにこれらの特徴点は、カメラで撮像した際に同一直線上に存在しないという条件を満たす必要がある。
First, the necessity for the proper camera arrangement with respect to the workpiece described in the background art will be described in detail. In order to obtain the 3D position and orientation of the work to be worked from the image captured by the camera, stereo vision using a plurality of cameras, or triangulation that irradiates the work with light such as laser and captures the state with the camera. In recent years, a method for calculating the three-dimensional position and orientation of a workpiece from only one image acquired by one camera without using a plurality of cameras or lasers is known. (For example, technical report Yaskawa Electric, Vol. 71, No. 3, No. 276 (2007) P144-148).
By using this method, it is not necessary to provide a plurality of cameras, laser light sources, etc. at the tip of the robot, and the robot tip can be made compact. Making the tip of the robot compact is particularly useful in applications such as bin picking.
A specific method for calculating the three-dimensional position and orientation of a workpiece from only an image acquired by a single camera is not the essence of the present invention, and a detailed description thereof will be omitted. However, in order to use this method, a target is used. It is necessary to set four or more feature points on the workpiece, and further, it is necessary to satisfy the condition that these feature points do not exist on the same straight line when captured by the camera.

例えば、図7に示したようなワーク501に対して、カメラ902で画像を取得する場合を考える。図7の場合、ワーク501には4つの穴502が存在する。ワーク501の上方に配置したカメラ902でワーク501の画像を取得し、画像処理装置906で4つの穴を検出し、この4つの穴を特徴点としてその位置関係を求める。ビンピッキングを行うのに先立ち、これら4つの穴の位置を物体モデルとして登録しておく。この物体モデルは後述する3次元モデルとして画像処理装置内に保存される。
図1に示したビンピッキングを行う場合は、物体モデルを登録する場合と同様にワーク905の画像をカメラ902で取得し、画像処理装置906で4つの穴を検出する。ここで検出した4つの穴の位置と、物体モデルの4つの穴の位置を比較することにより、1台のカメラ902から取得した画像からワーク905の3次元位置姿勢を演算することができる。
ビンピッキングを行う場合にワーク905を検出する際のカメラ902の配置は、物体モデルを登録した時の配置と同様にした方が、検出精度が高くなる。
物体モデルを登録した時とビンピッキングを行う時とでカメラに対するワークの配置が異なると、カメラ902から見た穴502の形状が変化するため、穴502の検出精度が低下し、その結果4つの穴の位置関係から求めるワークの3次元位置姿勢の精度が低下してしまうからである。
For example, consider a case where an image is acquired by the camera 902 for the work 501 as shown in FIG. In the case of FIG. 7, the work 501 has four holes 502. An image of the workpiece 501 is acquired by the camera 902 disposed above the workpiece 501, and four holes are detected by the image processing device 906, and the positional relationship is obtained using these four holes as feature points. Prior to bin picking, the positions of these four holes are registered as object models. This object model is stored in the image processing apparatus as a three-dimensional model to be described later.
When the bin picking shown in FIG. 1 is performed, an image of the work 905 is acquired by the camera 902 and four holes are detected by the image processing device 906, as in the case of registering the object model. By comparing the positions of the four holes detected here with the positions of the four holes of the object model, the three-dimensional position and orientation of the workpiece 905 can be calculated from an image acquired from one camera 902.
The detection accuracy is higher when the arrangement of the camera 902 when detecting the workpiece 905 when performing bin picking is the same as the arrangement when the object model is registered.
If the arrangement of the workpiece with respect to the camera is different between when the object model is registered and when bin picking is performed, the shape of the hole 502 as viewed from the camera 902 changes, so that the detection accuracy of the hole 502 decreases, resulting in four This is because the accuracy of the three-dimensional position and orientation of the workpiece obtained from the positional relationship of the holes is lowered.

本実施例では、図1に示したビンピッキングを行うロボットシステムに基づいて説明する。図1において、ロボット901は、通い箱904内のワーク905の姿勢に応じてカメラ902およびハンド903の位置姿勢を自在に変更できるよう、垂直多関節型のロボットを用いている。またカメラ902は、その視線がハンド903の長軸方向と一致するようハンド903と平行にロボット先端部に取り付けられている。 In this embodiment, description will be made based on the robot system that performs bin picking shown in FIG. In FIG. 1, the robot 901 uses a vertical articulated robot so that the position and orientation of the camera 902 and the hand 903 can be freely changed according to the posture of the work 905 in the return box 904. The camera 902 is attached to the tip of the robot in parallel with the hand 903 so that the line of sight coincides with the long axis direction of the hand 903.

まず図2に従ってビンピッキングの大まかな手順を説明する。図2は本発明のロボットシステムによるビンピッキング作業(1回分)の流れを示す図である。
まず通い箱904全体をカメラ902の視野に捉えることができるよう、ロボットを動作させてカメラ902を通い箱904からある程度離れた適当な位置に配置する。この位置は予め教示を行いロボットコントローラ907に記憶させておくことで再現性を確保することができる(ステップ1)。またこの時のカメラの姿勢は図1のように鉛直方向としておく。
カメラの移動が完了したら、続いてカメラ902によって通い箱904内の画像を取得し、その画像を画像処理装置906に出力する(ステップ2)。
画像処理装置906では2次元の検出処理を行ってピッキングしようとするワーク(対象ワーク)の通い箱内でのおおよその位置を検出し、ロボットコントローラに出力する(ステップ3)。ロボットコントローラはカメラの姿勢を図1の状態に保ちつつ、検出されたワークの位置に基づきロボットを水平方向に動作させてカメラ902を対象ワークに近付け、ワークの詳細な画像が得られるようにする(ステップ4)。
そしてカメラ902により再度対象ワークの画像を取得し、その画像を画像処理装置906に出力する(ステップ5)。
画像処理装置906では、今度は3次元の検出処理を行って、対象ワークの詳細な3次元位置姿勢を検出し、物体モデルを登録した時のカメラ位置をロボットコントローラに出力する(ステップ6)。ロボットコントローラは再度ロボットを動作させてカメラを適切な位置に配置し(ステップ7)、ハンド903をアプローチ方向から対象ワークへと接近させ、ハンド903によりワークを把持して通い箱から取り出す(ステップ8)。
前述のようにハンド903は、ワーク905を把持したり吸着したりすることによって通い箱から取り出す。把持する場合には、ハンドとして開閉機構を備えたグリッパなどがロボット先端に設けられる。また吸着する場合には、ハンドとして吸着カップなどが設けられる。
First, a rough procedure of bin picking will be described with reference to FIG. FIG. 2 is a diagram showing a flow of bin picking work (one time) by the robot system of the present invention.
First, the robot is operated so that the entire return box 904 can be captured in the field of view of the camera 902, and the camera 902 is placed at an appropriate position away from the box 904 to some extent. This position can be taught in advance and stored in the robot controller 907 to ensure reproducibility (step 1). Further, the posture of the camera at this time is set to the vertical direction as shown in FIG.
When the movement of the camera is completed, an image in the passing box 904 is acquired by the camera 902, and the image is output to the image processing device 906 (step 2).
The image processing apparatus 906 detects the approximate position of the work (target work) to be picked in the return box by performing a two-dimensional detection process, and outputs the detected position to the robot controller (step 3). While maintaining the posture of the camera in the state shown in FIG. 1, the robot controller moves the robot in the horizontal direction based on the detected position of the work to bring the camera 902 closer to the target work so that a detailed image of the work can be obtained. (Step 4).
Then, the image of the target workpiece is acquired again by the camera 902, and the image is output to the image processing device 906 (step 5).
The image processing apparatus 906 performs a three-dimensional detection process this time, detects the detailed three-dimensional position and orientation of the target workpiece, and outputs the camera position when the object model is registered to the robot controller (step 6). The robot controller operates the robot again to place the camera at an appropriate position (step 7), brings the hand 903 closer to the target work from the approach direction, holds the work with the hand 903, and removes it from the return box (step 8). ).
As described above, the hand 903 is taken out from the returnable box by gripping or adsorbing the workpiece 905. When gripping, a gripper having an opening / closing mechanism as a hand is provided at the tip of the robot. In the case of suction, a suction cup or the like is provided as a hand.

図3は、本発明のロボットシステムを構成する画像処理装置906の主要要素を表す図である。以下では、図3に示した画像処理装置906の各要素について説明しながら、図2で説明した手順をより詳細に説明する。
図3において画像入力部101はカメラ902で取得した画像を入力とし、その画像を適宜2次元ワーク位置検出部108や3次元ワーク位置検出部102に出力する。
まず図2のステップ2で複数のワークが写った通い箱904内の画像を取得した際には、その画像を2次元ワーク位置検出部108に出力する。
2次元ワーク位置検出部108は、予め登録されたワーク501に関する2次元モデル109を使い、入力された通い箱904内の画像から、カメラ撮像面におけるワーク905の2次元位置姿勢(2次元位置と回転角度)を検出し、エリア判定部103とロボットコントローラ907へ出力する。2次元ワーク位置検出部108からピッキングしようとするワーク905の2次元位置姿勢をロボットコントローラ907へ出力する処理が図2のステップ3に相当する。
FIG. 3 is a diagram showing main elements of the image processing apparatus 906 constituting the robot system of the present invention. In the following, the procedure described in FIG. 2 will be described in more detail while describing each element of the image processing apparatus 906 shown in FIG.
In FIG. 3, the image input unit 101 receives an image acquired by the camera 902 and outputs the image to the two-dimensional work position detection unit 108 and the three-dimensional work position detection unit 102 as appropriate.
First, when an image in the return box 904 showing a plurality of workpieces is acquired in step 2 of FIG. 2, the images are output to the two-dimensional workpiece position detection unit 108.
The two-dimensional workpiece position detection unit 108 uses a two-dimensional model 109 relating to the workpiece 501 registered in advance, and uses a two-dimensional position and orientation (two-dimensional position and position) of the workpiece 905 on the camera imaging surface from the input image in the return box 904. Rotation angle) is detected and output to the area determination unit 103 and the robot controller 907. The process of outputting the two-dimensional position and orientation of the work 905 to be picked from the two-dimensional work position detection unit 108 to the robot controller 907 corresponds to step 3 in FIG.

ここでの検出は例えば、通い箱内の画像の一部と、予め登録したモデル画像(テンプレート画像)との一致度を計算することでワークがどこに存在するかを見つけるテンプレートマッチングを利用する。この場合、2次元モデル109はワーク501に関するテンプレート画像となり、2次元ワーク位置検出部108では、入力された通い箱904内の画像(シーン画像)から、ワーク905の位置姿勢を検出する。通い箱904内に複数のワーク905が積まれている場合には、検出されるワークも複数になるが、テンプレートマッチングおいて、検出された各ワークについて2次元モデルとのマッチング程度(一致度)を表すスコアが算出されているため、最もスコアの高い1つを検出結果として抽出しピッキングしようとするワーク(対象ワーク)とすれば良い。スコアの高いワークは、カメラ902に対する傾きが2次元モデル登録時のそれと近いものとなる。
一般に2次元モデルは平面上に置かれたワークを真上から見た状態で登録されるため、カメラの視線に対して正対した状態に近いワークが、スコアの高いワークとなる。
実際には複数のワークが検出された場合は、2次元モデルとのマッチング程度(一致度)が高いものを上位から例えば10個選んでその位置を記憶しておき、最もマッチングのスコアが高いものから順にピッキングすることで、次にピッキングすべきワークを決定する際に、図2のステップ1、2の繰り返しを回避することができる。
The detection here uses, for example, template matching to find out where the work exists by calculating the degree of coincidence between a part of the images in the returnable box and a model image (template image) registered in advance. In this case, the two-dimensional model 109 becomes a template image related to the work 501, and the two-dimensional work position detection unit 108 detects the position and orientation of the work 905 from the input image (scene image) in the return box 904. When a plurality of workpieces 905 are stacked in the return box 904, a plurality of workpieces are detected. However, in template matching, the degree of matching (matching degree) with each two-dimensional model for each detected workpiece. Therefore, it is sufficient to extract one with the highest score as a detection result and set it as a work (target work) to be picked. A workpiece having a high score has an inclination with respect to the camera 902 that is close to that when the two-dimensional model is registered.
In general, since a two-dimensional model is registered in a state where a workpiece placed on a plane is viewed from directly above, a workpiece close to the state of facing the camera's line of sight is a workpiece having a high score.
When a plurality of workpieces are actually detected, the one with the highest matching score (coincidence) with the two-dimensional model is selected from the top ten, for example, and the positions thereof are stored, and the highest matching score is obtained. By picking in order, the steps 1 and 2 in FIG. 2 can be avoided when determining the workpiece to be picked next.

また、ビンピッキング作業を繰り返し、通い箱内のワーク905の数が少なくなると、最上面に位置するワークの、通い箱底面からの高さも低くなる。図2のステップ3でテンプレートマッチングを行う際にはカメラ902と最上面ワークとの距離が一定であることが望ましい。
そこで、ロボット先端のカメラ近傍に距離センサ(図示せず)を設け、ステップ1を実行する度に距離センサで通い箱内のワークまでの距離を計測し、予め定めた値になるようカメラの高さを調整するようにしたり、テンプレートマッチングを行う際にカメラ撮像面におけるワークの大きさを画像処理装置内のメモリ(図示せず)に記憶して、ステップ1を実行する度にカメラで通い箱内のワークを撮像し、記憶しておいたワークの大きさと同等になるようカメラの高さを調整するようにしたりすることによって、通い箱内のワークとカメラとの距離を適切に保つようにしてもよい。
またカメラの高さを調整せずにテンプレートマッチングの際にテンプレート画像の大きさを変化させるスケール変化対応のマッチング処理を行うようにしてもよい。
In addition, when the bin picking operation is repeated and the number of the workpieces 905 in the return box decreases, the height of the work located on the uppermost surface from the bottom of the return box also decreases. When performing template matching in step 3 of FIG. 2, it is desirable that the distance between the camera 902 and the uppermost workpiece is constant.
Therefore, a distance sensor (not shown) is provided in the vicinity of the camera at the tip of the robot, and each time Step 1 is executed, the distance to the work in the box is measured with the distance sensor, and the camera height is set to a predetermined value. The size of the work on the camera imaging surface is stored in a memory (not shown) in the image processing apparatus when template matching is performed, and the camera passes through each time step 1 is executed. The distance between the work in the return box and the camera can be kept appropriate by taking an image of the work in the box and adjusting the camera height so that it is equivalent to the size of the stored work. May be.
Further, matching processing corresponding to a scale change in which the size of the template image is changed at the time of template matching without adjusting the height of the camera may be performed.

エリア判定部103は、上方から見た通い箱904を複数のエリアに分割したエリアモデル106を使い、2次元ワーク位置検出部108で検出された対象ワークの位置が、どこのエリアに属しているかを判定し、そのエリアについて定義されたカメラ902の視線(エリア別視線)の方向を出力する。
図4に、エリアモデルの概念図を示す。図4は、通い箱904を上方から見た状態であり、通い箱904の内部を複数のエリア201に分割している。点線によって分割されているのがエリアである。図4ではエリア1からエリア8までの8つのエリアに分割しているがこれは一例に過ぎず、エリアの数や分割の仕方は図4のような形に限定されるものではない。
また、エリアモデル106では、各エリア201について、カメラ902の視線方向(エリア別視線202)も定義する。これら視線方向は、そのエリアに存在するワークに対してロボットがピッキングを行う際に、カメラ902の視野が通い箱904に遮蔽されず、かつカメラ902が通い箱904に干渉しないようにカメラ902を配置した際の、カメラ902の視線方向を表すものである。
具体的なエリア別視線の表現方法として、例えば図4のようにロボット座標系に基づくベクトルを用いることができる。例えばエリア1に定義されたエリア別視線は(1、−1)、エリア2に定義されたエリア別視線は(0、−1)のように表現できる。
The area determination unit 103 uses the area model 106 obtained by dividing the returnable box 904 viewed from above into a plurality of areas, and to which area the position of the target workpiece detected by the two-dimensional workpiece position detection unit 108 belongs. And the direction of the line of sight (line of sight for each area) of the camera 902 defined for the area is output.
FIG. 4 shows a conceptual diagram of the area model. FIG. 4 shows the return box 904 as viewed from above, and the inside of the return box 904 is divided into a plurality of areas 201. The area is divided by dotted lines. In FIG. 4, the area is divided into eight areas from area 1 to area 8, but this is only an example, and the number of areas and the way of division are not limited to the form shown in FIG. 4.
In the area model 106, the line-of-sight direction of the camera 902 (area-specific line of sight 202) is also defined for each area 201. These line-of-sight directions indicate that when the robot picks a work in the area, the camera 902 is not shielded by the box 904 through which the camera 902 passes and the camera 902 does not interfere with the box 904 through which the camera 902 passes. It represents the line-of-sight direction of the camera 902 when placed.
As a specific method of expressing the line of sight for each area, for example, a vector based on the robot coordinate system as shown in FIG. 4 can be used. For example, the line of sight defined by area 1 can be expressed as (1, -1), and the line of sight defined by area 2 can be expressed as (0, -1).

一方、2次元ワーク位置検出部108から出力された、カメラ撮像面における対象ワークの2次元位置を受けとったロボットコントローラ907は、その位置をロボットの座標系位置に変換する。そして変換されたロボット座標系に基づく位置へ向けてロボットを移動させ、カメラ902を対象ワークに接近させる(図2のステップ4に相当)。
カメラ撮像面の座標系とロボット座標系との位置関係については予めキャリブレーションが完了しているものとする。また、カメラの姿勢は通い箱904内の画像を取得した際の姿勢を維持したまま移動させる。
ロボットの移動によりカメラ902は対象ワークのほぼ真上に位置することになる。
On the other hand, the robot controller 907 that has received the two-dimensional position of the target work on the camera imaging surface output from the two-dimensional work position detection unit 108 converts the position into the coordinate system position of the robot. Then, the robot is moved toward a position based on the converted robot coordinate system, and the camera 902 is brought close to the target work (corresponding to step 4 in FIG. 2).
It is assumed that calibration has been completed in advance for the positional relationship between the coordinate system of the camera imaging surface and the robot coordinate system. Further, the camera is moved while maintaining the posture when the image in the returnable box 904 is acquired.
As the robot moves, the camera 902 is positioned almost directly above the target workpiece.

ロボットの移動が完了すると、ロボットコントローラ907は画像処理装置906に通知する。
この通知を受けて画像入力部101は再度カメラ902で取得した画像を入力し、その画像を3次元ワーク位置検出部102に出力する(図2のステップ5に相当)。
3次元ワーク位置検出部102は、予め登録されたワーク501に関する3次元モデル105を使い、対象ワークを含む通い箱904内の画像から対象ワークの3次元位置姿勢を検出し、視線演算部104へ出力する。
ここでの検出は、既に説明したように、1台のカメラの画像から4つの特徴点(ワーク501の場合は4つの穴)を検出し、それらの位置からワークの3次元位置姿勢を演算する手法を用いる。この場合3次元モデル105は4つの特徴点の位置関係であって、3次元ワーク位置検出部102では、対象ワークの画像から4つの特徴点(4つの穴)を検出し、3次元モデル105と比較することで、対象ワークの3次元位置姿勢を検出する。
When the movement of the robot is completed, the robot controller 907 notifies the image processing apparatus 906.
Upon receiving this notification, the image input unit 101 inputs the image acquired by the camera 902 again and outputs the image to the three-dimensional work position detection unit 102 (corresponding to step 5 in FIG. 2).
The three-dimensional workpiece position detection unit 102 detects the three-dimensional position and orientation of the target workpiece from the image in the return box 904 including the target workpiece using the three-dimensional model 105 related to the workpiece 501 registered in advance, and sends it to the line-of-sight calculation unit 104. Output.
As described above, the detection here detects four feature points (four holes in the case of the workpiece 501) from the image of one camera, and calculates the three-dimensional position and orientation of the workpiece from these positions. Use the technique. In this case, the three-dimensional model 105 is a positional relationship between the four feature points, and the three-dimensional workpiece position detection unit 102 detects four feature points (four holes) from the image of the target workpiece, By comparing, the three-dimensional position and orientation of the target workpiece are detected.

視線演算部104は、ワーク501に対して視線方向を定義した視線モデル107を使い、3次元ワーク位置検出部102で検出されたワーク905の姿勢と、エリア判定部103で求めたエリア別視線202の情報から、ピッキングしようとするワークに対するカメラの適切な視線を演算し出力する。
図5に、視線モデルの概念図を示す。図5(a)がワーク501を真上から見た図(上面図)、図5(b)がワーク501を斜めから見た図(斜視図)である。視線モデル107は、図5(a)の場合、ワーク501に対して8つの視線方向(視線方向1〜8)を定義している。
視線方向はカメラ902の視線に相当し、立体的に見れば図5(b)のようになる。尚、図5(b)では図を見やすくするため、視線方向1、5、7のみ表示している。視線演算部104は、この視線モデル107を、3次元ワーク位置検出部102で検出した対象ワークの姿勢に合わせて回転させ、エリア判定部103で求めたエリア別視線202と比較する。
尚、図5では、予め定義した視線方向の数を8つとしたが、視線方向の数はこれに限定されることなく、ワークの形状に応じて任意に設定することができる。
The line-of-sight calculation unit 104 uses the line-of-sight model 107 in which the line-of-sight direction is defined with respect to the work 501, and the posture of the work 905 detected by the three-dimensional work position detection unit 102 and the line-of-sight by area 202 obtained by the area determination unit 103. From this information, an appropriate camera gaze for the work to be picked is calculated and output.
FIG. 5 shows a conceptual diagram of the line-of-sight model. FIG. 5A is a view (top view) of the work 501 viewed from directly above, and FIG. 5B is a view (perspective view) of the work 501 viewed obliquely. In the case of FIG. 5A, the line-of-sight model 107 defines eight line-of-sight directions (line-of-sight directions 1 to 8) with respect to the workpiece 501.
The line-of-sight direction corresponds to the line of sight of the camera 902, and when viewed three-dimensionally, is as shown in FIG. In FIG. 5B, only the line-of-sight directions 1, 5, and 7 are displayed to make the drawing easier to see. The line-of-sight calculation unit 104 rotates the line-of-sight model 107 in accordance with the posture of the target workpiece detected by the three-dimensional workpiece position detection unit 102 and compares it with the area-specific line of sight 202 obtained by the area determination unit 103.
In FIG. 5, the number of the line-of-sight directions defined in advance is eight, but the number of the line-of-sight directions is not limited to this and can be arbitrarily set according to the shape of the workpiece.

図6に、視線演算部の動作説明図を示す。図6は、図4における通い箱の右上部にあたるエリア3を拡大表示したものである。今、エリア判定部103において、ピッキングしようとするワーク(対象ワーク)がエリア3に属していると判定され、エリア3のエリア別視線202が図6のように得られたとする。また3次元ワーク位置検出部102によって検出されたワーク905の3次元位置姿勢を用いて視線モデル107を回転させた結果、図6に示すようになったとする。
ここで視線方向1〜8の内、エリア3に設定されたエリア別視線202と最も向きが近い視線方向を特定する。
視線モデルに設定された8つの視線方向のうち、エリア別視線202と最も向きが近いものは、例えば、図6に示すようにXY平面に投影された8つの視線方向と、エリア別視線202との間で内積演算を行うことで求めることができる。
2つのベクトルの向きが近いとその内積は大きくなる。図6の8つの視線方向の各々についてエリア別視線202との間で内積を求め、その結果が最も大きいものがエリア別視線と向きが近い視線方向となる。図6の場合、視線方向3が該当することが分かる。
そして視線演算部104は、エリア別視線と最も向きの近い視線方向の番号と、図6の直交座標系に基づく視線方向3のベクトルを出力視線401としてロボットコントローラ907へ出力する。こうした過程が図2のステップ6に相当する。
FIG. 6 is a diagram for explaining the operation of the line-of-sight calculation unit. FIG. 6 is an enlarged view of the area 3 corresponding to the upper right part of the returnable box in FIG. Now, it is assumed that the area determination unit 103 determines that the work (target work) to be picked belongs to the area 3, and the area-specific gaze 202 of the area 3 is obtained as shown in FIG. Also, assume that the line-of-sight model 107 is rotated using the three-dimensional position and orientation of the workpiece 905 detected by the three-dimensional workpiece position detection unit 102, and the result is as shown in FIG.
Here, among the line-of-sight directions 1 to 8, the line-of-sight direction closest to the area-specific line-of-sight 202 set in the area 3 is specified.
Among the eight line-of-sight directions set in the line-of-sight model, those closest to the area-specific line-of-sight 202 are, for example, the eight line-of-sight directions projected on the XY plane as shown in FIG. Can be obtained by performing an inner product operation.
If the directions of the two vectors are close, the inner product increases. An inner product is obtained between each of the eight line-of-sight directions in FIG. 6 and the line-of-sight by area 202, and the line having the largest result is the line-of-sight direction close to the line-of-sight by area. In the case of FIG. 6, it can be seen that the line-of-sight direction 3 is applicable.
The line-of-sight calculation unit 104 then outputs the line-of-sight direction number closest to the area-specific line-of-sight and the vector of the line-of-sight direction 3 based on the orthogonal coordinate system of FIG. Such a process corresponds to Step 6 in FIG.

こうして選ばれた出力視線は、図6の8つの視線方向のうち、カメラ902の視野が通い箱904に遮蔽されず、またカメラ902が通い箱904に干渉しない視線方向と、向きが最も近いものとなっている。 The output line of sight thus selected is the closest to the line of sight in which the field of view of the camera 902 is not shielded by the box 904 and the camera 902 does not interfere with the box 904 among the eight lines of sight in FIG. It has become.

ロボットコントローラ907では、図5に示した視線モデルの各視線(視線方向1〜8)に対応したカメラ902の姿勢や配置が予め教示されている。
この教示データを図6の出力視線に合わせて調整することで、図6のように配置されたワークに対し、カメラ902の視野が通い箱904に遮蔽されず、またカメラ902が通い箱904に干渉しない視線方向を得ることができる。
ロボットコントローラ907では、視線演算部104から出力された視線方向の番号から対応するカメラ902の教示データを求め、その教示データを出力視線401のベクトルを用いて座標変換し、図6の状態に応じたカメラの姿勢、配置を求める。その後実際にロボットを動作させてカメラを適切な位置、姿勢に配置する。この動作が図2のステップ7に相当する。
この動作により、それまで図1のように鉛直方向を保っていたカメラの姿勢が、物体モデルを登録した時のカメラの位置・姿勢に変化する。
In the robot controller 907, the posture and arrangement of the camera 902 corresponding to each line of sight (line-of-sight directions 1 to 8) of the line-of-sight model shown in FIG.
By adjusting the teaching data in accordance with the output line of sight of FIG. 6, the field of view of the camera 902 is not shielded by the box 904 with respect to the work arranged as shown in FIG. A line-of-sight direction that does not interfere can be obtained.
The robot controller 907 obtains teaching data of the corresponding camera 902 from the line-of-sight direction number output from the line-of-sight calculation unit 104, and coordinates-converts the teaching data using the vector of the output line of sight 401, according to the state of FIG. Find the posture and placement of the camera. After that, the robot is actually operated to place the camera in an appropriate position and posture. This operation corresponds to step 7 in FIG.
By this operation, the posture of the camera that has been maintained in the vertical direction as shown in FIG. 1 changes to the position and posture of the camera when the object model is registered.

以上の一連の処理によってカメラが適切に配置された後は、従来の技術と同様にカメラで対象ワークを撮像し、画像処理装置906での処理結果に基づきハンドを移動させて対象ワークを把持または吸着して通い箱から取り出す(図2のステップ8)。 After the camera is appropriately arranged by the series of processes described above, the target work is imaged by the camera as in the conventional technique, and the hand is moved based on the processing result of the image processing apparatus 906 to hold the target work. It is adsorbed and removed from the returnable box (step 8 in FIG. 2).

以上説明したように、本発明によれば、エリア判定部103において、ピッキングしようとするワークが通い箱のどのエリアに属しているかを判定し、その判定結果と、ワークが属しているエリアについて定義したカメラの視線方向(エリア別視線)を出力し、視線演算部104において、ワークに対して視線方向を定義した視線モデル107と、エリア判定部103で求めたカメラの視線方向(エリア別視線)とから、エリア判定部103で求めたエリア別視線に最も近い視線方向を視線モデル107から選び、カメラの向きをその視線方向に合わせるようにしたので、カメラ902の視野が通い箱904に遮蔽されず、また、カメラ902が通い箱904に干渉しないようにカメラ902が配置されるようになる。 As described above, according to the present invention, the area determination unit 103 determines which area of the return box the work to be picked belongs to, and defines the determination result and the area to which the work belongs. The line-of-sight direction of the camera (line of sight by area) is output, and the line-of-sight calculation unit 104 defines the line-of-sight direction for the workpiece, and the line-of-sight direction of the camera obtained by the area determination unit 103 (line of sight by area) From the line-of-sight model 107, the line-of-sight direction closest to the line-of-sight obtained by the area determination unit 103 is selected and the direction of the camera is adjusted to the line-of-sight direction. In addition, the camera 902 is arranged so that the camera 902 does not interfere with the passing box 904.

101 画像入力部
102 3次元ワーク位置検出部
103 エリア判定部
104 視線演算部
105 3次元モデル
106 エリアモデル
107 視線モデル
108 2次元ワーク位置検出部
109 2次元モデル
201 エリア
202 エリア別視線
301 視線方向
401 出力視線
501 ワーク
502 穴
901 ロボット
902 カメラ
903 ハンド
904 通い箱
905 ワーク
906 画像処理装置
907 ロボットコントローラ
908 対象ワークA
909 対象ワークB
11a、11b、11c テレビカメラ
12 3次元計測手段
13 把持物体決定手段
14 物体
15 移動手段
16 把持手段
DESCRIPTION OF SYMBOLS 101 Image input part 102 Three-dimensional work position detection part 103 Area determination part 104 Gaze calculation part 105 Three-dimensional model 106 Area model 107 Gaze model 108 Two-dimensional work position detection part 109 Two-dimensional model 201 Area 202 Area-specific gaze 301 Gaze direction 401 Output line of sight 501 Work 502 Hole 901 Robot 902 Camera 903 Hand 904 Passing box 905 Work 906 Image processing device 907 Robot controller 908 Target work A
909 Target work B
11a, 11b, 11c Television camera 12 Three-dimensional measuring means 13 Grasping object determining means 14 Object 15 Moving means 16 Grasping means

Claims (9)

先端部に取り付けられたハンドにより通い箱内に積まれたワークをピッキングするロボットと、
前記ロボットに搭載され、前記ワークを撮像するカメラと、
前記カメラによって撮像された前記ワークの画像を入力し、前記ワークの位置姿勢を演算して出力する画像処理装置と、
前記画像処理装置の出力に基づいて前記ロボットを前記ワークの位置に移動させ前記ハンドによって前記ワークをピッキングさせるロボットコントローラと、
を備えたロボットシステムにおいて、
前記画像処理装置は、
前記ワークの2次元モデルと、
前記2次元モデルを用い、複数の前記ワークを撮像した画像からピッキング対象ワークの2次元位置姿勢を検出する2次元ワーク位置検出部と、
前記通い箱を複数のエリアに分割し、各エリアについてエリア別視線を定義したエリアモデルと、
前記2次元ワーク位置検出部で検出した前記ピッキング対象ワークの位置が、前記エリアモデルのいずれのエリアに属しているかを判定し、前記ピッキング対象ワークが属しているエリアに定義された前記エリア別視線を出力するエリア判定部と、
前記ワークの3次元モデルと、
前記3次元モデルを用い、前記ピッキング対象ワークを撮像した画像から、前記ピッキング対象ワークの3次元位置姿勢を検出する3次元ワーク位置検出部と、
前記ワークに対して複数の方向からの前記カメラの視線方向を定義した視線モデルと、
前記視線モデルと、前記3次元ワーク位置検出部で検出した前記ピッキング対象ワークの姿勢と、前記エリア判定部で求めたエリア別視線とから前記ピッキング対象ワークへアプローチする際の前記カメラの視線を演算する視線演算部と、
を備え、
前記2次元ワーク位置検出部は、検出した前記ピッキング対象ワークの2次元位置姿勢を前記ロボットコントローラに出力し、
前記視線演算部は、演算した前記ピッキング対象ワークへアプローチする際の前記カメラの視線を前記ロボットコントローラに出力することを特徴とするロボットシステム。
A robot that picks up the work stacked in the return box with the hand attached to the tip, and
A camera mounted on the robot for imaging the workpiece;
An image processing device that inputs an image of the workpiece imaged by the camera, calculates and outputs the position and orientation of the workpiece, and
A robot controller that moves the robot to the position of the workpiece based on the output of the image processing apparatus and picks the workpiece by the hand;
In a robot system equipped with
The image processing apparatus includes:
A two-dimensional model of the workpiece;
A two-dimensional workpiece position detection unit that detects a two-dimensional position and orientation of a workpiece to be picked from an image obtained by imaging the plurality of workpieces using the two-dimensional model;
An area model that divides the returnable box into a plurality of areas and defines a line of sight for each area;
It is determined which area of the area model the position of the picking target work detected by the two-dimensional work position detection unit, and the line of sight defined by the area defined by the area to which the picking target work belongs An area determination unit that outputs
A three-dimensional model of the workpiece;
A three-dimensional workpiece position detection unit that detects a three-dimensional position and orientation of the picking target workpiece from an image obtained by imaging the picking target workpiece using the three-dimensional model;
A line-of-sight model defining the line-of-sight direction of the camera from a plurality of directions with respect to the workpiece;
The camera's line of sight when approaching the picking target work is calculated from the line-of-sight model, the posture of the picking target work detected by the three-dimensional work position detection unit, and the area-specific visual line obtained by the area determination unit. A line-of-sight calculation unit to
With
The two-dimensional workpiece position detection unit outputs the detected two-dimensional position and orientation of the picking target workpiece to the robot controller;
The line-of-sight calculation unit outputs the calculated line of sight of the camera when approaching the picking target work to the robot controller.
前記ロボットコントローラは、前記2次元ワーク位置検出部によって検出された前記ピッキングするワークの2次元位置姿勢に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークに接近させ、前記視線演算部によって演算された前記カメラの視線に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークにアプローチさせることを特徴とする請求項1に記載のロボットシステム。   The robot controller operates the robot based on the two-dimensional position / posture of the workpiece to be picked detected by the two-dimensional work position detector, causes the camera to approach the picking workpiece, and The robot system according to claim 1, wherein the robot is operated based on the calculated line of sight of the camera, and the camera approaches the workpiece to be picked. 前記3次元モデルは、前記ワークに設けられた4つ以上の特徴部の位置を記憶したものであって、前記3次元ワーク位置検出部は前記ワークを撮像した画像から前記特徴部を抽出することによって前記ワークの3次元位置姿勢を検出することを特徴とする請求項1に記載のロボットシステム。 The three-dimensional model stores positions of four or more feature portions provided on the workpiece, and the three-dimensional workpiece position detection unit extracts the feature portions from an image obtained by imaging the workpiece. The robot system according to claim 1, wherein a three-dimensional position / orientation of the workpiece is detected by the method. 前記エリア別視線は、そのエリアに存在するワークに対して前記ロボットがピッキングを行う際に、前記カメラの視野が前記通い箱に遮蔽されず、かつ前記カメラが前記通い箱に干渉しないように前記カメラを配置した際の前記カメラの視線方向を表すことを特徴とする請求項1に記載のロボットシステム。 The line of sight for each area is such that when the robot picks a work existing in the area, the field of view of the camera is not shielded by the return box and the camera does not interfere with the return box. The robot system according to claim 1, wherein the robot system represents a line-of-sight direction of the camera when the camera is arranged. 前記エリア別視線は、ロボット座標系に基づくベクトルとして定義されることを特徴とする請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the line of sight for each area is defined as a vector based on a robot coordinate system. 前記視線演算部は、前記視線モデルにて定義されたカメラの視線方向と前記エリアに設定されたエリア別視線との内積を演算することによって、前記ピッキング対象ワークのピッキングに適した前記カメラの視線を決定することを特徴とする請求項1に記載のロボットシステム。 The line-of-sight calculation unit calculates the inner product of the line-of-sight direction of the camera defined by the line-of-sight model and the line-of-sight of each area set in the area, so that the line-of-sight of the camera suitable for picking the workpiece to be picked is calculated. The robot system according to claim 1, wherein: 前記2次元ワーク位置検出部は、前記カメラによって撮像された画像と前記2次元モデルとのテンプレートマッチングによって前記ワークの2次元位置姿勢を検出することを特徴とする請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the two-dimensional workpiece position detection unit detects a two-dimensional position and orientation of the workpiece by template matching between an image captured by the camera and the two-dimensional model. 前記2次元ワーク位置検出部は、テンプレートマッチングによって前記カメラによって撮像された画像から前記ワークが複数個検出された場合は、前記2次元モデルとの一致度が最も高いものを選定することを特徴とする請求項7に記載のロボットシステム。 The two-dimensional workpiece position detecting unit selects the one having the highest degree of coincidence with the two-dimensional model when a plurality of workpieces are detected from images captured by the camera by template matching. The robot system according to claim 7. 前記ロボットは垂直多関節ロボットであることを特徴とする請求項1に記載のロボットシステム。   The robot system according to claim 1, wherein the robot is a vertical articulated robot.
JP2009240753A 2009-10-19 2009-10-19 Robot system Expired - Fee Related JP5282717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009240753A JP5282717B2 (en) 2009-10-19 2009-10-19 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009240753A JP5282717B2 (en) 2009-10-19 2009-10-19 Robot system

Publications (2)

Publication Number Publication Date
JP2011083882A true JP2011083882A (en) 2011-04-28
JP5282717B2 JP5282717B2 (en) 2013-09-04

Family

ID=44077217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009240753A Expired - Fee Related JP5282717B2 (en) 2009-10-19 2009-10-19 Robot system

Country Status (1)

Country Link
JP (1) JP5282717B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
JP2013117795A (en) * 2011-12-01 2013-06-13 Canon Inc Image processor and image processing method
JP2013146813A (en) * 2012-01-18 2013-08-01 Seiko Epson Corp Robot apparatus, and position and orientation detecting method
JP2014028415A (en) * 2012-07-31 2014-02-13 Fanuc Ltd Device for unloading bulk loaded commodities with robot
JP2014237188A (en) * 2013-06-07 2014-12-18 株式会社安川電機 Work detecting device, robot system, manufacturing method of workpiece, and work detecting method
JP2015005093A (en) * 2013-06-20 2015-01-08 キヤノン株式会社 Pattern matching device and pattern matching method
JP2015085493A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, processor, and inspection method
CN104786226A (en) * 2015-03-26 2015-07-22 华南理工大学 Posture and moving track positioning system and method of robot grabbing online workpiece
JP2015176272A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processor, image processing method, and image processing program
US9529945B2 (en) 2014-03-12 2016-12-27 Fanuc Corporation Robot simulation system which simulates takeout process of workpieces
DE102012021375B4 (en) * 2011-11-08 2017-03-02 Fanuc Corporation Apparatus and method for detecting a three-dimensional position and orientation of an article
DE102013107709B4 (en) * 2012-07-26 2018-01-18 Fanuc Corporation Grab robot system with rolling device
JP6363294B1 (en) * 2017-04-04 2018-07-25 株式会社Mujin Information processing apparatus, picking system, distribution system, program, and information processing method
KR20190069309A (en) * 2017-12-11 2019-06-19 가부시키가이샤 다이후쿠 Article transport facility
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
WO2020050405A1 (en) * 2018-09-07 2020-03-12 Ntn株式会社 Work device
JP2020166371A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Information processing method, information processing device, object detection device, and robot system
WO2020255410A1 (en) * 2019-06-21 2020-12-24 株式会社Fuji Robot control system and robot control method
US11007643B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11027427B2 (en) 2017-04-04 2021-06-08 Mujin, Inc. Control device, picking system, distribution system, program, and control method
US11090808B2 (en) 2017-04-04 2021-08-17 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11097421B2 (en) 2017-04-04 2021-08-24 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JP2002090113A (en) * 2000-09-20 2002-03-27 Fanuc Ltd Position and attiude recognizing device
JP2007241857A (en) * 2006-03-10 2007-09-20 Fanuc Ltd Device for robot simulation, program, storage medium, and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JP2002090113A (en) * 2000-09-20 2002-03-27 Fanuc Ltd Position and attiude recognizing device
JP2007241857A (en) * 2006-03-10 2007-09-20 Fanuc Ltd Device for robot simulation, program, storage medium, and method

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9044858B2 (en) 2011-06-28 2015-06-02 Canon Kabushiki Kaisha Target object gripping apparatus, method for controlling the same and storage medium
JP2013010155A (en) * 2011-06-28 2013-01-17 Canon Inc Target object gripping apparatus, method of controlling the same, and program
DE102012021375B4 (en) * 2011-11-08 2017-03-02 Fanuc Corporation Apparatus and method for detecting a three-dimensional position and orientation of an article
JP2013117795A (en) * 2011-12-01 2013-06-13 Canon Inc Image processor and image processing method
JP2013146813A (en) * 2012-01-18 2013-08-01 Seiko Epson Corp Robot apparatus, and position and orientation detecting method
DE102013107709B4 (en) * 2012-07-26 2018-01-18 Fanuc Corporation Grab robot system with rolling device
JP2014028415A (en) * 2012-07-31 2014-02-13 Fanuc Ltd Device for unloading bulk loaded commodities with robot
US8874270B2 (en) 2012-07-31 2014-10-28 Fanuc Corporation Apparatus for taking out bulk stored articles by robot
JP2014237188A (en) * 2013-06-07 2014-12-18 株式会社安川電機 Work detecting device, robot system, manufacturing method of workpiece, and work detecting method
JP2015005093A (en) * 2013-06-20 2015-01-08 キヤノン株式会社 Pattern matching device and pattern matching method
JP2015085493A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, processor, and inspection method
DE102015002760B4 (en) * 2014-03-12 2021-01-28 Fanuc Corporation Robot simulation system that simulates the process of removing workpieces
US9529945B2 (en) 2014-03-12 2016-12-27 Fanuc Corporation Robot simulation system which simulates takeout process of workpieces
JP2015176272A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processor, image processing method, and image processing program
CN104786226A (en) * 2015-03-26 2015-07-22 华南理工大学 Posture and moving track positioning system and method of robot grabbing online workpiece
US11090808B2 (en) 2017-04-04 2021-08-17 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11679503B2 (en) 2017-04-04 2023-06-20 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
WO2018185857A1 (en) * 2017-04-04 2018-10-11 株式会社Mujin Information processing device, picking system, logistics system, program, and information processing method
US11097421B2 (en) 2017-04-04 2021-08-24 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
US11007649B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Information processing apparatus, picking system, distribution system, program and information processing method
US11027427B2 (en) 2017-04-04 2021-06-08 Mujin, Inc. Control device, picking system, distribution system, program, and control method
US11007643B2 (en) 2017-04-04 2021-05-18 Mujin, Inc. Control device, picking system, distribution system, program, control method and production method
JP6363294B1 (en) * 2017-04-04 2018-07-25 株式会社Mujin Information processing apparatus, picking system, distribution system, program, and information processing method
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
DE102018111370B4 (en) * 2017-05-19 2019-11-28 Fanuc Corporation Workpiece holder system
JP2019104571A (en) * 2017-12-11 2019-06-27 株式会社ダイフク Article conveying facility
KR20190069309A (en) * 2017-12-11 2019-06-19 가부시키가이샤 다이후쿠 Article transport facility
KR102596873B1 (en) 2017-12-11 2023-10-31 가부시키가이샤 다이후쿠 Article transport facility
WO2020050405A1 (en) * 2018-09-07 2020-03-12 Ntn株式会社 Work device
JPWO2020050405A1 (en) * 2018-09-07 2021-09-02 Ntn株式会社 Working equipment
JP2020166371A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Information processing method, information processing device, object detection device, and robot system
JPWO2020255410A1 (en) * 2019-06-21 2020-12-24
WO2020255410A1 (en) * 2019-06-21 2020-12-24 株式会社Fuji Robot control system and robot control method
JP7242856B2 (en) 2019-06-21 2023-03-20 株式会社Fuji Robot control system and robot control method

Also Published As

Publication number Publication date
JP5282717B2 (en) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5282717B2 (en) Robot system
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
CN107618030B (en) Robot dynamic tracking grabbing method and system based on vision
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
CN111151463B (en) Mechanical arm sorting and grabbing system and method based on 3D vision
US9672630B2 (en) Contour line measurement apparatus and robot system
JP5469216B2 (en) A device for picking up bulk items by robot
JP5642759B2 (en) Article take-out device and article take-out method
JP2020116734A (en) System and method for automatic hand-eye calibration of vision system for robot motion
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP2018176334A (en) Information processing device, measurement device, system, interference determination method and article manufacturing method
EP1477934A2 (en) Image processing apparatus
US11625842B2 (en) Image processing apparatus and image processing method
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2010210458A (en) Display method of recognition result by three-dimensional visual sensor, and the three-dimensional visual sensor
CN108177143A (en) A kind of robot localization grasping means and system based on laser vision guiding
JP2004090183A (en) Article position and orientation detecting device and article taking-out device
JP2017033429A (en) Three-dimensional object inspection device
JPS60200111A (en) Apparatus for recognizing three-dimensional object
JP7353757B2 (en) Methods for measuring artifacts
CN114341930A (en) Image processing device, imaging device, robot, and robot system
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
KR101438514B1 (en) Robot localization detecting system using a multi-view image and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120307

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

LAPS Cancellation because of no payment of annual fees