JP2011083882A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2011083882A JP2011083882A JP2009240753A JP2009240753A JP2011083882A JP 2011083882 A JP2011083882 A JP 2011083882A JP 2009240753 A JP2009240753 A JP 2009240753A JP 2009240753 A JP2009240753 A JP 2009240753A JP 2011083882 A JP2011083882 A JP 2011083882A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- camera
- line
- dimensional
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、通い箱内などにバラ積みされたワークをカメラ等の視覚センサで検出し、検出したワークを取り出すロボットシステムに関する。 The present invention relates to a robot system that detects a workpiece stacked in a returnable box or the like with a visual sensor such as a camera and takes out the detected workpiece.
通い箱等の中に複数のワークがバラ積みされた状態からカメラ等の視覚センサでワークの位置を検出し、検出されたワークをロボットで取り上げる作業は、ビンピッキングとして知られている。視覚センサをロボットの手先に搭載してビンピッキングを行う場合、視覚センサが通い箱に干渉しないよう配置することや、視覚センサの視野が通い箱によって遮蔽されないよう配置することが課題となる。
視覚センサの配置に関する技術として、特許文献1が開示されている。図8に特許文献1におけるピッキング装置の概略構成例を示す。図8では、3つの異なる位置に固定されたテレビカメラ11a〜11cにより対象物体14を撮像する。得られた画像は3次元計測手段12により処理され、把持物体決定手段13により把持物体の位置・姿勢が求められる。その結果に基づき、把持手段16を移動手段15により移動して対象物体14をピックアップする。ここで、3次元計測手段12及び把持物体決定手段13は、マイクロコンピュータにて構成される。また、把持手段16はロボットハンド、移動手段15は6軸多関節ロボットで構成される。
The operation of detecting the position of a workpiece with a visual sensor such as a camera from a state in which a plurality of workpieces are stacked in a return box or the like and picking up the detected workpiece with a robot is known as bin picking. When bin picking is performed by mounting the visual sensor on the hand of the robot, it is necessary to arrange the visual sensor so that it does not interfere with the return box, or to place the visual sensor so that the visual field of view is not blocked by the return box.
As a technique related to the arrangement of the visual sensor, Patent Document 1 is disclosed. FIG. 8 shows a schematic configuration example of the picking apparatus in Patent Document 1. In FIG. 8, the
次に、計測精度の向上を目的としたテレビカメラ11a〜11cの配置方法を説明する。計測に適した画像とは、図9に示した物体モデルとして登録した面41を正面から撮像した画像であるので、そのような画像が得られる位置にテレビカメラ11a〜11cを配置することが望ましい。一方、図10に示すように、対象物体14が重なると、物体モデルとして登録した面41が矢印に示すように色々な方向を向く。が、例えば対象物体14のように厚みが小さい物体であれば、その向き得る範囲は予測することができる。
そこで従来の技術においては、面41の向き得る方向が、図11に示すように頂角2θの円錐状である場合、テレビカメラ11a〜11cを図11に示す61a〜61cの位置に配置する。各位置61a〜61cは円錐の頂点を中心として120度毎にθ/2の傾きで配置されている。これにより、面41をできるだけ計測に適した画像として撮像することができる。
Next, an arrangement method of the television cameras 11a to 11c for the purpose of improving measurement accuracy will be described. The images suitable for measurement are images obtained by capturing the
Therefore, in the conventional technique, when the direction in which the
ここで、特許文献1に記載されている技術をビンピッキングに適用した場合を考える。
図1は、ビンピッキングシステムの構成を表す図で、図1(a)は上面図、図1(b)は側面図である。カメラ902とハンド903は、多関節ロボット901の手先に搭載され、ロボット901の可動範囲内で移動させることができる。カメラ902は、通い箱904内にランダムに投入されたワーク905の画像を取得して画像処理装置906に出力する。画像処理装置906は、ワーク905の位置を演算し、その位置をロボットコントローラ907に出力する。ロボットコントローラ907は、演算された位置にハンド903を移動し、ハンド903は、ワーク905を把持または吸着して通い箱から取り出す。
ビンピッキングを行う際には、カメラ902が通い箱904内のワーク905の画像を取得し、画像処理装置906によって取得した画像からピッキングするワーク(対象ワーク)の位置を演算し、ロボット901によってハンド903を演算した対象ワークの位置に移動し、ワークを取り上げる。
Here, the case where the technique described in Patent Document 1 is applied to bin picking is considered.
1A and 1B are diagrams illustrating a configuration of a bin picking system, in which FIG. 1A is a top view and FIG. 1B is a side view. The camera 902 and the
When bin picking is performed, the camera 902 acquires an image of the workpiece 905 in the passing box 904, calculates the position of the workpiece (target workpiece) to be picked from the image acquired by the
しかしながら図1のようなビンピッキングシステムに特許文献1に記載されている技術を適用すると次のような問題があった。
図12は、通い箱904の中のある対象ワークAを検出する様子を表す説明図である。図12では、通い箱内のワークのうち、ロボットの手前に位置する対象ワークA908をカメラ902で検出しようとしている。従来の技術によれば、「物体モデルとして登録した面を正面から撮像した画像であるので、そのような画像が得られる位置にカメラ902を配置することが望ましい」ということになるが、図12のような場合はそのような位置にカメラ902を配置すると、カメラ902の視界が通い箱904の壁に遮蔽されてしまい対象ワークA908の画像を取得できないという問題が発生する。
こうした問題に対して、従来の技術においては、図11に示したように、カメラ902の配置を120度毎でθ/2の傾きを許容するようになっているが、通い箱904による遮蔽を回避するために、θを大きくとってしまうと、検出精度が著しく低下したり、通い箱904の壁にカメラが干渉したりする問題が発生する。
However, applying the technique described in Patent Document 1 to the bin picking system as shown in FIG. 1 has the following problems.
FIG. 12 is an explanatory diagram showing a state in which a certain target workpiece A in the return box 904 is detected. In FIG. 12, the target workpiece A 908 positioned in front of the robot among the workpieces in the return box is to be detected by the camera 902. According to the prior art, “the image is a front image of a surface registered as an object model, so it is desirable to place the camera 902 at a position where such an image can be obtained”. In such a case, if the camera 902 is arranged at such a position, the field of view of the camera 902 passes through and is blocked by the wall of the box 904, so that there is a problem that an image of the target workpiece A 908 cannot be acquired.
With respect to such a problem, in the conventional technology, as shown in FIG. 11, the camera 902 is allowed to be tilted by θ / 2 every 120 degrees. In order to avoid this, if θ is set large, there will be a problem that the detection accuracy is remarkably lowered or the camera interferes with the wall of the return box 904.
また図13は、通い箱904の中のある対象ワークBを検出する様子を表す説明図である。図13では、通い箱の底部でなおかつロボットの手前に位置する対象ワークB909をカメラ902で検出しようとしている。従来技術によれば、「物体モデルとして登録した面を正面から撮像した画像であるので、そのような画像が得られる位置にカメラ902を配置することが望ましい」が、そのような位置にカメラを配置しようとすると、カメラ902が通い箱904の壁に干渉するという問題が発生する。
以上説明したように、従来技術では、ワーク905に対してモデルを登録した際と同様の場所にカメラ902を配置させようとするため、カメラ902の視界が通い箱904の壁に遮蔽され、対象ワークA908の画像が取得できないという問題や、カメラ902が通い箱904の壁に干渉するという問題があった。一方、カメラ902の配置の許容度を大きくとってしまうと、検出精度が著しく低下するという問題があった。
本発明はこのような問題点に鑑みてなされたものであり、検出精度を低下させることなく、カメラの視界が通い箱に遮蔽されず、またカメラが通い箱に干渉せずにビンピッキングを行うことができるロボットシステムを提供することを目的とする。
FIG. 13 is an explanatory diagram showing a state in which a certain target work B in the returnable box 904 is detected. In FIG. 13, the target workpiece B 909 located at the bottom of the return box and before the robot is detected by the camera 902. According to the prior art, “It is desirable to place the camera 902 at a position where such an image can be obtained because it is an image obtained by imaging the surface registered as the object model from the front”. When trying to arrange, the problem that the camera 902 interferes with the wall of the passing box 904 occurs.
As described above, in the conventional technique, the camera 902 is arranged at the same place as when the model is registered for the workpiece 905, so that the field of view of the camera 902 is blocked by the wall of the box 904, and the target There were a problem that the image of the workpiece A 908 could not be acquired and a problem that the camera 902 passed through and interfered with the wall of the box 904. On the other hand, if the tolerance of the arrangement of the camera 902 is increased, there is a problem that the detection accuracy is remarkably lowered.
The present invention has been made in view of such problems, and does not reduce the detection accuracy, the camera's field of view is not shielded by the passing box, and the camera performs bin picking without interfering with the passing box. An object of the present invention is to provide a robot system that can be used.
上記問題を解決するため、本発明は、次のように構成したのである。
請求項1に記載の発明は、先端部に取り付けられたハンドにより通い箱内に積まれたワークをピッキングするロボットと、前記ロボットに搭載され、前記ワークを撮像するカメラと、前記カメラによって撮像された前記ワークの画像を入力し、前記ワークの位置姿勢を演算して出力する画像処理装置と、前記画像処理装置の出力に基づいて前記ロボットを前記ワークの位置に移動させ前記ハンドによって前記ワークをピッキングさせるロボットコントローラと、を備えたロボットシステムにおいて、前記画像処理装置は、前記ワークの2次元モデルと、前記2次元モデルを用い、複数の前記ワークを撮像した画像からピッキング対象ワークの2次元位置姿勢を検出する2次元ワーク位置検出部と、前記通い箱を複数のエリアに分割し、各エリアについてエリア別視線を定義したエリアモデルと、前記2次元ワーク位置検出部で検出した前記ピッキング対象ワークの位置が、前記エリアモデルのいずれのエリアに属しているかを判定し、前記ピッキング対象ワークが属しているエリアに定義された前記エリア別視線を出力するエリア判定部と、前記ワークの3次元モデルと、前記3次元モデルを用い、前記ピッキング対象ワークを撮像した画像から、前記ピッキング対象ワークの3次元位置姿勢を検出する3次元ワーク位置検出部と、前記ワークに対して複数の方向からの前記カメラの視線方向を定義した視線モデルと、前記視線モデルと、前記3次元ワーク位置検出部で検出した前記ピッキング対象ワークの姿勢と、前記エリア判定部で求めたエリア別視線とから前記ピッキング対象ワークへアプローチする際の前記カメラの視線を演算する視線演算部と、を備え、前記2次元ワーク位置検出部は、検出した前記ピッキング対象ワークの2次元位置姿勢を前記ロボットコントローラに出力し、 前記視線演算部は、演算した前記ピッキング対象ワークへアプローチする際の前記カメラの視線を前記ロボットコントローラに出力することを特徴とするものである。
In order to solve the above problem, the present invention is configured as follows.
According to the first aspect of the present invention, there is provided a robot that picks up a work stacked in a box that is passed by a hand attached to the tip, a camera that is mounted on the robot and picks up the work, and is picked up by the camera. An image processing apparatus that inputs an image of the workpiece, calculates and outputs the position and orientation of the workpiece, and moves the robot to the position of the workpiece based on the output of the image processing apparatus, and moves the workpiece by the hand. In the robot system including the robot controller for picking, the image processing apparatus uses the two-dimensional model of the workpiece and the two-dimensional position of the workpiece to be picked from an image obtained by imaging the plurality of workpieces. A two-dimensional work position detection unit for detecting the posture and the return box are divided into a plurality of areas. The area model in which the line of sight for each area is defined and the position of the picking target work detected by the two-dimensional work position detection unit belong to which area of the area model, and the picking target work belongs An area determination unit that outputs the line of sight defined for each area defined by the area, a three-dimensional model of the workpiece, and an image obtained by imaging the picking workpiece using the three-dimensional model. Detected by a three-dimensional workpiece position detection unit that detects a three-dimensional position and orientation, a line-of-sight model that defines the camera gaze direction from a plurality of directions with respect to the workpiece, the line-of-sight model, and the three-dimensional workpiece position detection unit The picking pair is determined based on the posture of the picked workpiece and the area-specific gaze obtained by the area determination unit. A line-of-sight calculation unit that calculates the line of sight of the camera when approaching a workpiece, and the two-dimensional workpiece position detection unit outputs the detected two-dimensional position and orientation of the picking target workpiece to the robot controller, The line-of-sight calculation unit outputs the line of sight of the camera when approaching the calculated picking target work to the robot controller.
請求項2に記載の発明は、前記ロボットコントローラは、前記2次元ワーク位置検出部によって検出された前記ピッキングするワークの2次元位置姿勢に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークに接近させ、前記視線演算部によって演算された前記カメラの視線に基づいて前記ロボットを動作させ、前記カメラを前記ピッキングするワークにアプローチさせることを特徴とするものである。 According to a second aspect of the present invention, the robot controller operates the robot on the basis of the two-dimensional position and orientation of the workpiece to be picked detected by the two-dimensional workpiece position detection unit, and the workpiece to pick the camera. The robot is operated based on the line of sight of the camera calculated by the line-of-sight calculation unit, and the camera is approached to the workpiece to be picked.
請求項3に記載の発明は、前記3次元モデルは、前記ワークに設けられた4つ以上の特徴部の位置を記憶したものであって、前記3次元ワーク位置検出部は前記ワークを撮像した画像から前記特徴部を抽出することによって前記ワークの3次元位置姿勢を検出することを特徴とするものである。 According to a third aspect of the present invention, the three-dimensional model stores positions of four or more characteristic portions provided on the workpiece, and the three-dimensional workpiece position detection unit images the workpiece. The three-dimensional position / orientation of the workpiece is detected by extracting the feature from an image.
請求項4に記載の発明は、前記エリア別視線は、そのエリアに存在するワークに対して前記ロボットがピッキングを行う際に、前記カメラの視野が前記通い箱に遮蔽されず、かつ前記カメラが前記通い箱に干渉しないように前記カメラを配置した際の前記カメラの視線方向を表すことを特徴とするものである。 According to a fourth aspect of the present invention, when the robot performs picking on a work existing in the area, the visual field of the camera is not shielded by the return box, and the camera is It represents the line-of-sight direction of the camera when the camera is arranged so as not to interfere with the return box.
請求項5に記載の発明は、前記エリア別視線は、ロボット座標系に基づくベクトルとして定義されることを特徴とするものである。 The invention according to claim 5 is characterized in that the line of sight by area is defined as a vector based on a robot coordinate system.
請求項6に記載の発明は、前記視線演算部は、前記視線モデルにて定義されたカメラの視線方向と前記エリアに設定されたエリア別視線との内積を演算することによって、前記ピッキング対象ワークのピッキングに適した前記カメラの視線を決定することを特徴とするものである。 According to a sixth aspect of the present invention, the line-of-sight calculation unit calculates the inner product of the line-of-sight direction of the camera defined by the line-of-sight model and the line-of-sight of each area set in the area. The camera's line of sight suitable for picking is determined.
請求項7に記載の発明は、前記2次元ワーク位置検出部は、前記カメラによって撮像された画像と前記2次元モデルとのテンプレートマッチングによって前記ワークの2次元位置姿勢を検出することを特徴とするものである。 The invention according to claim 7 is characterized in that the two-dimensional workpiece position detecting unit detects a two-dimensional position and orientation of the workpiece by template matching between an image captured by the camera and the two-dimensional model. Is.
請求項8に記載の発明は、前記2次元ワーク位置検出部は、テンプレートマッチングによって前記カメラによって撮像された画像から前記ワークが複数個検出された場合は、前記2次元モデルとの一致度が最も高いものを選定することを特徴とするものである。 According to an eighth aspect of the present invention, the two-dimensional workpiece position detection unit has the highest degree of coincidence with the two-dimensional model when a plurality of workpieces are detected from an image captured by the camera by template matching. It is characterized by selecting a high one.
請求項9に記載の発明は、前記ロボットは垂直多関節ロボットであることを特徴とするものである。 The invention according to claim 9 is characterized in that the robot is a vertical articulated robot.
本発明によれば、エリア判定部において、ワークがどのエリアに属しているかを判定し、その判定結果と各エリアについて定義したカメラの視線方向を出力し、視線演算部において、ワークに対して視線方向を定義した視線モデルと、エリア判定部で求めたカメラの視線方向とから、エリア判定部で求めたカメラの視線方向に最も近い視線方向を視線モデルから選ぶようにしたので、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないという効果がある。
また、視線演算部で演算し出力された視線方向のそれぞれに対して3次元モデルが存在するので、3次元モデルを登録した時のワークに対するカメラ配置と近い位置にカメラを配置することができるようになり、検出精度が低下しないという効果がある。
請求項3に記載の発明によれば、1台のカメラによって取得した画像のみからワークの3次元位置姿勢を演算することができるので、ロボットの先端部に複数のカメラやレーザ光源などを設ける必要がなくなり、ロボット先端部をコンパクトにすることができ、カメラが通い箱に干渉する恐れがないという効果がある。
請求項4乃至6に記載の発明によれば、視線モデルのうち、ワークが存在するエリアに定義されたエリア別視線と最も向きの近い視線モデルを求めることにより、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないカメラの視線方向を求めることができる。
請求項7、8に記載の発明によれば、通い箱内に積まれた複数のワークからピッキングしやすいものを選定することができる。
請求項9に記載の発明によれば、カメラの姿勢を自在に変更できるため、視線演算部で求めたカメラの視線に合わせて実際のカメラの姿勢を変更することができ、カメラの視界が通い箱に遮蔽されず、カメラが通い箱に干渉する恐れがないカメラの配置を実現することができる。
According to the present invention, the area determination unit determines which area the work belongs to, outputs the determination result and the line-of-sight direction of the camera defined for each area, and the line-of-sight calculation unit outputs the line of sight to the work. Since the gaze direction closest to the camera gaze direction obtained by the area determination unit is selected from the gaze model from the gaze model that defines the direction and the camera gaze direction obtained by the area determination unit, the camera view is reduced. There is an effect that the camera is not shielded by the return box and the camera does not interfere with the return box.
In addition, since there is a three-dimensional model for each of the gaze directions calculated and output by the gaze computation unit, the camera can be arranged at a position close to the camera arrangement for the workpiece when the three-dimensional model is registered. Thus, there is an effect that the detection accuracy is not lowered.
According to the third aspect of the invention, since the three-dimensional position and orientation of the workpiece can be calculated only from the image acquired by one camera, it is necessary to provide a plurality of cameras, laser light sources, and the like at the tip of the robot. The robot tip can be made compact, and there is an effect that the camera does not interfere with the box.
According to the invention described in claims 4 to 6, the visual field of the camera is shielded by the viewing line by obtaining the visual line model closest to the visual line for each area defined in the area where the workpiece exists, among the visual line models. In other words, it is possible to determine the direction of the line of sight of the camera without causing the camera to interfere with the box.
According to invention of Claim 7, 8, the thing which is easy to pick can be selected from the some workpiece | work loaded in the return box.
According to the ninth aspect of the present invention, since the posture of the camera can be freely changed, the actual posture of the camera can be changed in accordance with the line of sight of the camera obtained by the line-of-sight calculation unit, and the field of view of the camera passes. It is possible to realize an arrangement of the camera that is not shielded by the box and does not interfere with the camera.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、背景技術でも述べた、ワークに対する適切なカメラ配置の必要性について詳しく説明する。カメラで撮像した画像から作業対象となるワークの3次元位置姿勢を得るには、複数のカメラを用いたステレオ視や、レーザなどの光をワークに照射してその様子をカメラで撮像する三角測量を行う手法が従来から用いられているが、近年、複数のカメラやレーザなどを用いることなく、1台のカメラによって取得した1つの画像のみからワークの3次元位置姿勢を演算する手法が知られてきている(例えば技報 安川電機 第71巻 第3号 通巻 第276号(2007年)P144〜148)。
この手法を用いることによりロボットの先端部に複数のカメラやレーザ光源などを設ける必要がなくなり、ロボット先端部をコンパクトにすることができる。ロボットの先端部をコンパクトにすることは、ビンピッキングなどの用途では特に有用である。
1台のカメラによって取得した画像のみからワークの3次元位置姿勢を演算する具体的な方法は本発明の本質ではないため詳細な説明は割愛するが、この手法を用いるためには、対象となるワークに4つ以上の特徴点を設定する必要があり、さらにこれらの特徴点は、カメラで撮像した際に同一直線上に存在しないという条件を満たす必要がある。
First, the necessity for the proper camera arrangement with respect to the workpiece described in the background art will be described in detail. In order to obtain the 3D position and orientation of the work to be worked from the image captured by the camera, stereo vision using a plurality of cameras, or triangulation that irradiates the work with light such as laser and captures the state with the camera. In recent years, a method for calculating the three-dimensional position and orientation of a workpiece from only one image acquired by one camera without using a plurality of cameras or lasers is known. (For example, technical report Yaskawa Electric, Vol. 71, No. 3, No. 276 (2007) P144-148).
By using this method, it is not necessary to provide a plurality of cameras, laser light sources, etc. at the tip of the robot, and the robot tip can be made compact. Making the tip of the robot compact is particularly useful in applications such as bin picking.
A specific method for calculating the three-dimensional position and orientation of a workpiece from only an image acquired by a single camera is not the essence of the present invention, and a detailed description thereof will be omitted. However, in order to use this method, a target is used. It is necessary to set four or more feature points on the workpiece, and further, it is necessary to satisfy the condition that these feature points do not exist on the same straight line when captured by the camera.
例えば、図7に示したようなワーク501に対して、カメラ902で画像を取得する場合を考える。図7の場合、ワーク501には4つの穴502が存在する。ワーク501の上方に配置したカメラ902でワーク501の画像を取得し、画像処理装置906で4つの穴を検出し、この4つの穴を特徴点としてその位置関係を求める。ビンピッキングを行うのに先立ち、これら4つの穴の位置を物体モデルとして登録しておく。この物体モデルは後述する3次元モデルとして画像処理装置内に保存される。
図1に示したビンピッキングを行う場合は、物体モデルを登録する場合と同様にワーク905の画像をカメラ902で取得し、画像処理装置906で4つの穴を検出する。ここで検出した4つの穴の位置と、物体モデルの4つの穴の位置を比較することにより、1台のカメラ902から取得した画像からワーク905の3次元位置姿勢を演算することができる。
ビンピッキングを行う場合にワーク905を検出する際のカメラ902の配置は、物体モデルを登録した時の配置と同様にした方が、検出精度が高くなる。
物体モデルを登録した時とビンピッキングを行う時とでカメラに対するワークの配置が異なると、カメラ902から見た穴502の形状が変化するため、穴502の検出精度が低下し、その結果4つの穴の位置関係から求めるワークの3次元位置姿勢の精度が低下してしまうからである。
For example, consider a case where an image is acquired by the camera 902 for the
When the bin picking shown in FIG. 1 is performed, an image of the work 905 is acquired by the camera 902 and four holes are detected by the
The detection accuracy is higher when the arrangement of the camera 902 when detecting the workpiece 905 when performing bin picking is the same as the arrangement when the object model is registered.
If the arrangement of the workpiece with respect to the camera is different between when the object model is registered and when bin picking is performed, the shape of the hole 502 as viewed from the camera 902 changes, so that the detection accuracy of the hole 502 decreases, resulting in four This is because the accuracy of the three-dimensional position and orientation of the workpiece obtained from the positional relationship of the holes is lowered.
本実施例では、図1に示したビンピッキングを行うロボットシステムに基づいて説明する。図1において、ロボット901は、通い箱904内のワーク905の姿勢に応じてカメラ902およびハンド903の位置姿勢を自在に変更できるよう、垂直多関節型のロボットを用いている。またカメラ902は、その視線がハンド903の長軸方向と一致するようハンド903と平行にロボット先端部に取り付けられている。
In this embodiment, description will be made based on the robot system that performs bin picking shown in FIG. In FIG. 1, the robot 901 uses a vertical articulated robot so that the position and orientation of the camera 902 and the
まず図2に従ってビンピッキングの大まかな手順を説明する。図2は本発明のロボットシステムによるビンピッキング作業(1回分)の流れを示す図である。
まず通い箱904全体をカメラ902の視野に捉えることができるよう、ロボットを動作させてカメラ902を通い箱904からある程度離れた適当な位置に配置する。この位置は予め教示を行いロボットコントローラ907に記憶させておくことで再現性を確保することができる(ステップ1)。またこの時のカメラの姿勢は図1のように鉛直方向としておく。
カメラの移動が完了したら、続いてカメラ902によって通い箱904内の画像を取得し、その画像を画像処理装置906に出力する(ステップ2)。
画像処理装置906では2次元の検出処理を行ってピッキングしようとするワーク(対象ワーク)の通い箱内でのおおよその位置を検出し、ロボットコントローラに出力する(ステップ3)。ロボットコントローラはカメラの姿勢を図1の状態に保ちつつ、検出されたワークの位置に基づきロボットを水平方向に動作させてカメラ902を対象ワークに近付け、ワークの詳細な画像が得られるようにする(ステップ4)。
そしてカメラ902により再度対象ワークの画像を取得し、その画像を画像処理装置906に出力する(ステップ5)。
画像処理装置906では、今度は3次元の検出処理を行って、対象ワークの詳細な3次元位置姿勢を検出し、物体モデルを登録した時のカメラ位置をロボットコントローラに出力する(ステップ6)。ロボットコントローラは再度ロボットを動作させてカメラを適切な位置に配置し(ステップ7)、ハンド903をアプローチ方向から対象ワークへと接近させ、ハンド903によりワークを把持して通い箱から取り出す(ステップ8)。
前述のようにハンド903は、ワーク905を把持したり吸着したりすることによって通い箱から取り出す。把持する場合には、ハンドとして開閉機構を備えたグリッパなどがロボット先端に設けられる。また吸着する場合には、ハンドとして吸着カップなどが設けられる。
First, a rough procedure of bin picking will be described with reference to FIG. FIG. 2 is a diagram showing a flow of bin picking work (one time) by the robot system of the present invention.
First, the robot is operated so that the entire return box 904 can be captured in the field of view of the camera 902, and the camera 902 is placed at an appropriate position away from the box 904 to some extent. This position can be taught in advance and stored in the
When the movement of the camera is completed, an image in the passing box 904 is acquired by the camera 902, and the image is output to the image processing device 906 (step 2).
The
Then, the image of the target workpiece is acquired again by the camera 902, and the image is output to the image processing device 906 (step 5).
The
As described above, the
図3は、本発明のロボットシステムを構成する画像処理装置906の主要要素を表す図である。以下では、図3に示した画像処理装置906の各要素について説明しながら、図2で説明した手順をより詳細に説明する。
図3において画像入力部101はカメラ902で取得した画像を入力とし、その画像を適宜2次元ワーク位置検出部108や3次元ワーク位置検出部102に出力する。
まず図2のステップ2で複数のワークが写った通い箱904内の画像を取得した際には、その画像を2次元ワーク位置検出部108に出力する。
2次元ワーク位置検出部108は、予め登録されたワーク501に関する2次元モデル109を使い、入力された通い箱904内の画像から、カメラ撮像面におけるワーク905の2次元位置姿勢(2次元位置と回転角度)を検出し、エリア判定部103とロボットコントローラ907へ出力する。2次元ワーク位置検出部108からピッキングしようとするワーク905の2次元位置姿勢をロボットコントローラ907へ出力する処理が図2のステップ3に相当する。
FIG. 3 is a diagram showing main elements of the
In FIG. 3, the
First, when an image in the return box 904 showing a plurality of workpieces is acquired in step 2 of FIG. 2, the images are output to the two-dimensional workpiece
The two-dimensional workpiece
ここでの検出は例えば、通い箱内の画像の一部と、予め登録したモデル画像(テンプレート画像)との一致度を計算することでワークがどこに存在するかを見つけるテンプレートマッチングを利用する。この場合、2次元モデル109はワーク501に関するテンプレート画像となり、2次元ワーク位置検出部108では、入力された通い箱904内の画像(シーン画像)から、ワーク905の位置姿勢を検出する。通い箱904内に複数のワーク905が積まれている場合には、検出されるワークも複数になるが、テンプレートマッチングおいて、検出された各ワークについて2次元モデルとのマッチング程度(一致度)を表すスコアが算出されているため、最もスコアの高い1つを検出結果として抽出しピッキングしようとするワーク(対象ワーク)とすれば良い。スコアの高いワークは、カメラ902に対する傾きが2次元モデル登録時のそれと近いものとなる。
一般に2次元モデルは平面上に置かれたワークを真上から見た状態で登録されるため、カメラの視線に対して正対した状態に近いワークが、スコアの高いワークとなる。
実際には複数のワークが検出された場合は、2次元モデルとのマッチング程度(一致度)が高いものを上位から例えば10個選んでその位置を記憶しておき、最もマッチングのスコアが高いものから順にピッキングすることで、次にピッキングすべきワークを決定する際に、図2のステップ1、2の繰り返しを回避することができる。
The detection here uses, for example, template matching to find out where the work exists by calculating the degree of coincidence between a part of the images in the returnable box and a model image (template image) registered in advance. In this case, the two-
In general, since a two-dimensional model is registered in a state where a workpiece placed on a plane is viewed from directly above, a workpiece close to the state of facing the camera's line of sight is a workpiece having a high score.
When a plurality of workpieces are actually detected, the one with the highest matching score (coincidence) with the two-dimensional model is selected from the top ten, for example, and the positions thereof are stored, and the highest matching score is obtained. By picking in order, the steps 1 and 2 in FIG. 2 can be avoided when determining the workpiece to be picked next.
また、ビンピッキング作業を繰り返し、通い箱内のワーク905の数が少なくなると、最上面に位置するワークの、通い箱底面からの高さも低くなる。図2のステップ3でテンプレートマッチングを行う際にはカメラ902と最上面ワークとの距離が一定であることが望ましい。
そこで、ロボット先端のカメラ近傍に距離センサ(図示せず)を設け、ステップ1を実行する度に距離センサで通い箱内のワークまでの距離を計測し、予め定めた値になるようカメラの高さを調整するようにしたり、テンプレートマッチングを行う際にカメラ撮像面におけるワークの大きさを画像処理装置内のメモリ(図示せず)に記憶して、ステップ1を実行する度にカメラで通い箱内のワークを撮像し、記憶しておいたワークの大きさと同等になるようカメラの高さを調整するようにしたりすることによって、通い箱内のワークとカメラとの距離を適切に保つようにしてもよい。
またカメラの高さを調整せずにテンプレートマッチングの際にテンプレート画像の大きさを変化させるスケール変化対応のマッチング処理を行うようにしてもよい。
In addition, when the bin picking operation is repeated and the number of the workpieces 905 in the return box decreases, the height of the work located on the uppermost surface from the bottom of the return box also decreases. When performing template matching in step 3 of FIG. 2, it is desirable that the distance between the camera 902 and the uppermost workpiece is constant.
Therefore, a distance sensor (not shown) is provided in the vicinity of the camera at the tip of the robot, and each time Step 1 is executed, the distance to the work in the box is measured with the distance sensor, and the camera height is set to a predetermined value. The size of the work on the camera imaging surface is stored in a memory (not shown) in the image processing apparatus when template matching is performed, and the camera passes through each time step 1 is executed. The distance between the work in the return box and the camera can be kept appropriate by taking an image of the work in the box and adjusting the camera height so that it is equivalent to the size of the stored work. May be.
Further, matching processing corresponding to a scale change in which the size of the template image is changed at the time of template matching without adjusting the height of the camera may be performed.
エリア判定部103は、上方から見た通い箱904を複数のエリアに分割したエリアモデル106を使い、2次元ワーク位置検出部108で検出された対象ワークの位置が、どこのエリアに属しているかを判定し、そのエリアについて定義されたカメラ902の視線(エリア別視線)の方向を出力する。
図4に、エリアモデルの概念図を示す。図4は、通い箱904を上方から見た状態であり、通い箱904の内部を複数のエリア201に分割している。点線によって分割されているのがエリアである。図4ではエリア1からエリア8までの8つのエリアに分割しているがこれは一例に過ぎず、エリアの数や分割の仕方は図4のような形に限定されるものではない。
また、エリアモデル106では、各エリア201について、カメラ902の視線方向(エリア別視線202)も定義する。これら視線方向は、そのエリアに存在するワークに対してロボットがピッキングを行う際に、カメラ902の視野が通い箱904に遮蔽されず、かつカメラ902が通い箱904に干渉しないようにカメラ902を配置した際の、カメラ902の視線方向を表すものである。
具体的なエリア別視線の表現方法として、例えば図4のようにロボット座標系に基づくベクトルを用いることができる。例えばエリア1に定義されたエリア別視線は(1、−1)、エリア2に定義されたエリア別視線は(0、−1)のように表現できる。
The
FIG. 4 shows a conceptual diagram of the area model. FIG. 4 shows the return box 904 as viewed from above, and the inside of the return box 904 is divided into a plurality of areas 201. The area is divided by dotted lines. In FIG. 4, the area is divided into eight areas from area 1 to area 8, but this is only an example, and the number of areas and the way of division are not limited to the form shown in FIG. 4.
In the
As a specific method of expressing the line of sight for each area, for example, a vector based on the robot coordinate system as shown in FIG. 4 can be used. For example, the line of sight defined by area 1 can be expressed as (1, -1), and the line of sight defined by area 2 can be expressed as (0, -1).
一方、2次元ワーク位置検出部108から出力された、カメラ撮像面における対象ワークの2次元位置を受けとったロボットコントローラ907は、その位置をロボットの座標系位置に変換する。そして変換されたロボット座標系に基づく位置へ向けてロボットを移動させ、カメラ902を対象ワークに接近させる(図2のステップ4に相当)。
カメラ撮像面の座標系とロボット座標系との位置関係については予めキャリブレーションが完了しているものとする。また、カメラの姿勢は通い箱904内の画像を取得した際の姿勢を維持したまま移動させる。
ロボットの移動によりカメラ902は対象ワークのほぼ真上に位置することになる。
On the other hand, the
It is assumed that calibration has been completed in advance for the positional relationship between the coordinate system of the camera imaging surface and the robot coordinate system. Further, the camera is moved while maintaining the posture when the image in the returnable box 904 is acquired.
As the robot moves, the camera 902 is positioned almost directly above the target workpiece.
ロボットの移動が完了すると、ロボットコントローラ907は画像処理装置906に通知する。
この通知を受けて画像入力部101は再度カメラ902で取得した画像を入力し、その画像を3次元ワーク位置検出部102に出力する(図2のステップ5に相当)。
3次元ワーク位置検出部102は、予め登録されたワーク501に関する3次元モデル105を使い、対象ワークを含む通い箱904内の画像から対象ワークの3次元位置姿勢を検出し、視線演算部104へ出力する。
ここでの検出は、既に説明したように、1台のカメラの画像から4つの特徴点(ワーク501の場合は4つの穴)を検出し、それらの位置からワークの3次元位置姿勢を演算する手法を用いる。この場合3次元モデル105は4つの特徴点の位置関係であって、3次元ワーク位置検出部102では、対象ワークの画像から4つの特徴点(4つの穴)を検出し、3次元モデル105と比較することで、対象ワークの3次元位置姿勢を検出する。
When the movement of the robot is completed, the
Upon receiving this notification, the
The three-dimensional workpiece
As described above, the detection here detects four feature points (four holes in the case of the workpiece 501) from the image of one camera, and calculates the three-dimensional position and orientation of the workpiece from these positions. Use the technique. In this case, the three-
視線演算部104は、ワーク501に対して視線方向を定義した視線モデル107を使い、3次元ワーク位置検出部102で検出されたワーク905の姿勢と、エリア判定部103で求めたエリア別視線202の情報から、ピッキングしようとするワークに対するカメラの適切な視線を演算し出力する。
図5に、視線モデルの概念図を示す。図5(a)がワーク501を真上から見た図(上面図)、図5(b)がワーク501を斜めから見た図(斜視図)である。視線モデル107は、図5(a)の場合、ワーク501に対して8つの視線方向(視線方向1〜8)を定義している。
視線方向はカメラ902の視線に相当し、立体的に見れば図5(b)のようになる。尚、図5(b)では図を見やすくするため、視線方向1、5、7のみ表示している。視線演算部104は、この視線モデル107を、3次元ワーク位置検出部102で検出した対象ワークの姿勢に合わせて回転させ、エリア判定部103で求めたエリア別視線202と比較する。
尚、図5では、予め定義した視線方向の数を8つとしたが、視線方向の数はこれに限定されることなく、ワークの形状に応じて任意に設定することができる。
The line-of-
FIG. 5 shows a conceptual diagram of the line-of-sight model. FIG. 5A is a view (top view) of the
The line-of-sight direction corresponds to the line of sight of the camera 902, and when viewed three-dimensionally, is as shown in FIG. In FIG. 5B, only the line-of-sight directions 1, 5, and 7 are displayed to make the drawing easier to see. The line-of-
In FIG. 5, the number of the line-of-sight directions defined in advance is eight, but the number of the line-of-sight directions is not limited to this and can be arbitrarily set according to the shape of the workpiece.
図6に、視線演算部の動作説明図を示す。図6は、図4における通い箱の右上部にあたるエリア3を拡大表示したものである。今、エリア判定部103において、ピッキングしようとするワーク(対象ワーク)がエリア3に属していると判定され、エリア3のエリア別視線202が図6のように得られたとする。また3次元ワーク位置検出部102によって検出されたワーク905の3次元位置姿勢を用いて視線モデル107を回転させた結果、図6に示すようになったとする。
ここで視線方向1〜8の内、エリア3に設定されたエリア別視線202と最も向きが近い視線方向を特定する。
視線モデルに設定された8つの視線方向のうち、エリア別視線202と最も向きが近いものは、例えば、図6に示すようにXY平面に投影された8つの視線方向と、エリア別視線202との間で内積演算を行うことで求めることができる。
2つのベクトルの向きが近いとその内積は大きくなる。図6の8つの視線方向の各々についてエリア別視線202との間で内積を求め、その結果が最も大きいものがエリア別視線と向きが近い視線方向となる。図6の場合、視線方向3が該当することが分かる。
そして視線演算部104は、エリア別視線と最も向きの近い視線方向の番号と、図6の直交座標系に基づく視線方向3のベクトルを出力視線401としてロボットコントローラ907へ出力する。こうした過程が図2のステップ6に相当する。
FIG. 6 is a diagram for explaining the operation of the line-of-sight calculation unit. FIG. 6 is an enlarged view of the area 3 corresponding to the upper right part of the returnable box in FIG. Now, it is assumed that the
Here, among the line-of-sight directions 1 to 8, the line-of-sight direction closest to the area-specific line-of-sight 202 set in the area 3 is specified.
Among the eight line-of-sight directions set in the line-of-sight model, those closest to the area-specific line-of-sight 202 are, for example, the eight line-of-sight directions projected on the XY plane as shown in FIG. Can be obtained by performing an inner product operation.
If the directions of the two vectors are close, the inner product increases. An inner product is obtained between each of the eight line-of-sight directions in FIG. 6 and the line-of-sight by area 202, and the line having the largest result is the line-of-sight direction close to the line-of-sight by area. In the case of FIG. 6, it can be seen that the line-of-sight direction 3 is applicable.
The line-of-
こうして選ばれた出力視線は、図6の8つの視線方向のうち、カメラ902の視野が通い箱904に遮蔽されず、またカメラ902が通い箱904に干渉しない視線方向と、向きが最も近いものとなっている。 The output line of sight thus selected is the closest to the line of sight in which the field of view of the camera 902 is not shielded by the box 904 and the camera 902 does not interfere with the box 904 among the eight lines of sight in FIG. It has become.
ロボットコントローラ907では、図5に示した視線モデルの各視線(視線方向1〜8)に対応したカメラ902の姿勢や配置が予め教示されている。
この教示データを図6の出力視線に合わせて調整することで、図6のように配置されたワークに対し、カメラ902の視野が通い箱904に遮蔽されず、またカメラ902が通い箱904に干渉しない視線方向を得ることができる。
ロボットコントローラ907では、視線演算部104から出力された視線方向の番号から対応するカメラ902の教示データを求め、その教示データを出力視線401のベクトルを用いて座標変換し、図6の状態に応じたカメラの姿勢、配置を求める。その後実際にロボットを動作させてカメラを適切な位置、姿勢に配置する。この動作が図2のステップ7に相当する。
この動作により、それまで図1のように鉛直方向を保っていたカメラの姿勢が、物体モデルを登録した時のカメラの位置・姿勢に変化する。
In the
By adjusting the teaching data in accordance with the output line of sight of FIG. 6, the field of view of the camera 902 is not shielded by the box 904 with respect to the work arranged as shown in FIG. A line-of-sight direction that does not interfere can be obtained.
The
By this operation, the posture of the camera that has been maintained in the vertical direction as shown in FIG. 1 changes to the position and posture of the camera when the object model is registered.
以上の一連の処理によってカメラが適切に配置された後は、従来の技術と同様にカメラで対象ワークを撮像し、画像処理装置906での処理結果に基づきハンドを移動させて対象ワークを把持または吸着して通い箱から取り出す(図2のステップ8)。
After the camera is appropriately arranged by the series of processes described above, the target work is imaged by the camera as in the conventional technique, and the hand is moved based on the processing result of the
以上説明したように、本発明によれば、エリア判定部103において、ピッキングしようとするワークが通い箱のどのエリアに属しているかを判定し、その判定結果と、ワークが属しているエリアについて定義したカメラの視線方向(エリア別視線)を出力し、視線演算部104において、ワークに対して視線方向を定義した視線モデル107と、エリア判定部103で求めたカメラの視線方向(エリア別視線)とから、エリア判定部103で求めたエリア別視線に最も近い視線方向を視線モデル107から選び、カメラの向きをその視線方向に合わせるようにしたので、カメラ902の視野が通い箱904に遮蔽されず、また、カメラ902が通い箱904に干渉しないようにカメラ902が配置されるようになる。
As described above, according to the present invention, the
101 画像入力部
102 3次元ワーク位置検出部
103 エリア判定部
104 視線演算部
105 3次元モデル
106 エリアモデル
107 視線モデル
108 2次元ワーク位置検出部
109 2次元モデル
201 エリア
202 エリア別視線
301 視線方向
401 出力視線
501 ワーク
502 穴
901 ロボット
902 カメラ
903 ハンド
904 通い箱
905 ワーク
906 画像処理装置
907 ロボットコントローラ
908 対象ワークA
909 対象ワークB
11a、11b、11c テレビカメラ
12 3次元計測手段
13 把持物体決定手段
14 物体
15 移動手段
16 把持手段
DESCRIPTION OF
909 Target work B
11a, 11b,
Claims (9)
前記ロボットに搭載され、前記ワークを撮像するカメラと、
前記カメラによって撮像された前記ワークの画像を入力し、前記ワークの位置姿勢を演算して出力する画像処理装置と、
前記画像処理装置の出力に基づいて前記ロボットを前記ワークの位置に移動させ前記ハンドによって前記ワークをピッキングさせるロボットコントローラと、
を備えたロボットシステムにおいて、
前記画像処理装置は、
前記ワークの2次元モデルと、
前記2次元モデルを用い、複数の前記ワークを撮像した画像からピッキング対象ワークの2次元位置姿勢を検出する2次元ワーク位置検出部と、
前記通い箱を複数のエリアに分割し、各エリアについてエリア別視線を定義したエリアモデルと、
前記2次元ワーク位置検出部で検出した前記ピッキング対象ワークの位置が、前記エリアモデルのいずれのエリアに属しているかを判定し、前記ピッキング対象ワークが属しているエリアに定義された前記エリア別視線を出力するエリア判定部と、
前記ワークの3次元モデルと、
前記3次元モデルを用い、前記ピッキング対象ワークを撮像した画像から、前記ピッキング対象ワークの3次元位置姿勢を検出する3次元ワーク位置検出部と、
前記ワークに対して複数の方向からの前記カメラの視線方向を定義した視線モデルと、
前記視線モデルと、前記3次元ワーク位置検出部で検出した前記ピッキング対象ワークの姿勢と、前記エリア判定部で求めたエリア別視線とから前記ピッキング対象ワークへアプローチする際の前記カメラの視線を演算する視線演算部と、
を備え、
前記2次元ワーク位置検出部は、検出した前記ピッキング対象ワークの2次元位置姿勢を前記ロボットコントローラに出力し、
前記視線演算部は、演算した前記ピッキング対象ワークへアプローチする際の前記カメラの視線を前記ロボットコントローラに出力することを特徴とするロボットシステム。 A robot that picks up the work stacked in the return box with the hand attached to the tip, and
A camera mounted on the robot for imaging the workpiece;
An image processing device that inputs an image of the workpiece imaged by the camera, calculates and outputs the position and orientation of the workpiece, and
A robot controller that moves the robot to the position of the workpiece based on the output of the image processing apparatus and picks the workpiece by the hand;
In a robot system equipped with
The image processing apparatus includes:
A two-dimensional model of the workpiece;
A two-dimensional workpiece position detection unit that detects a two-dimensional position and orientation of a workpiece to be picked from an image obtained by imaging the plurality of workpieces using the two-dimensional model;
An area model that divides the returnable box into a plurality of areas and defines a line of sight for each area;
It is determined which area of the area model the position of the picking target work detected by the two-dimensional work position detection unit, and the line of sight defined by the area defined by the area to which the picking target work belongs An area determination unit that outputs
A three-dimensional model of the workpiece;
A three-dimensional workpiece position detection unit that detects a three-dimensional position and orientation of the picking target workpiece from an image obtained by imaging the picking target workpiece using the three-dimensional model;
A line-of-sight model defining the line-of-sight direction of the camera from a plurality of directions with respect to the workpiece;
The camera's line of sight when approaching the picking target work is calculated from the line-of-sight model, the posture of the picking target work detected by the three-dimensional work position detection unit, and the area-specific visual line obtained by the area determination unit. A line-of-sight calculation unit to
With
The two-dimensional workpiece position detection unit outputs the detected two-dimensional position and orientation of the picking target workpiece to the robot controller;
The line-of-sight calculation unit outputs the calculated line of sight of the camera when approaching the picking target work to the robot controller.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009240753A JP5282717B2 (en) | 2009-10-19 | 2009-10-19 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009240753A JP5282717B2 (en) | 2009-10-19 | 2009-10-19 | Robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011083882A true JP2011083882A (en) | 2011-04-28 |
JP5282717B2 JP5282717B2 (en) | 2013-09-04 |
Family
ID=44077217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009240753A Expired - Fee Related JP5282717B2 (en) | 2009-10-19 | 2009-10-19 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5282717B2 (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013010155A (en) * | 2011-06-28 | 2013-01-17 | Canon Inc | Target object gripping apparatus, method of controlling the same, and program |
JP2013117795A (en) * | 2011-12-01 | 2013-06-13 | Canon Inc | Image processor and image processing method |
JP2013146813A (en) * | 2012-01-18 | 2013-08-01 | Seiko Epson Corp | Robot apparatus, and position and orientation detecting method |
JP2014028415A (en) * | 2012-07-31 | 2014-02-13 | Fanuc Ltd | Device for unloading bulk loaded commodities with robot |
JP2014237188A (en) * | 2013-06-07 | 2014-12-18 | 株式会社安川電機 | Work detecting device, robot system, manufacturing method of workpiece, and work detecting method |
JP2015005093A (en) * | 2013-06-20 | 2015-01-08 | キヤノン株式会社 | Pattern matching device and pattern matching method |
JP2015085493A (en) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | Robot, processor, and inspection method |
CN104786226A (en) * | 2015-03-26 | 2015-07-22 | 华南理工大学 | Posture and moving track positioning system and method of robot grabbing online workpiece |
JP2015176272A (en) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | Image processor, image processing method, and image processing program |
US9529945B2 (en) | 2014-03-12 | 2016-12-27 | Fanuc Corporation | Robot simulation system which simulates takeout process of workpieces |
DE102012021375B4 (en) * | 2011-11-08 | 2017-03-02 | Fanuc Corporation | Apparatus and method for detecting a three-dimensional position and orientation of an article |
DE102013107709B4 (en) * | 2012-07-26 | 2018-01-18 | Fanuc Corporation | Grab robot system with rolling device |
JP6363294B1 (en) * | 2017-04-04 | 2018-07-25 | 株式会社Mujin | Information processing apparatus, picking system, distribution system, program, and information processing method |
KR20190069309A (en) * | 2017-12-11 | 2019-06-19 | 가부시키가이샤 다이후쿠 | Article transport facility |
US10434652B2 (en) | 2017-05-19 | 2019-10-08 | Fanuc Corporation | Workpiece picking system |
WO2020050405A1 (en) * | 2018-09-07 | 2020-03-12 | Ntn株式会社 | Work device |
JP2020166371A (en) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | Information processing method, information processing device, object detection device, and robot system |
WO2020255410A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社Fuji | Robot control system and robot control method |
US11007643B2 (en) | 2017-04-04 | 2021-05-18 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
US11027427B2 (en) | 2017-04-04 | 2021-06-08 | Mujin, Inc. | Control device, picking system, distribution system, program, and control method |
US11090808B2 (en) | 2017-04-04 | 2021-08-17 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
US11097421B2 (en) | 2017-04-04 | 2021-08-24 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6317735A (en) * | 1986-07-07 | 1988-01-25 | Okura Yusoki Co Ltd | Takeout device |
JP2002090113A (en) * | 2000-09-20 | 2002-03-27 | Fanuc Ltd | Position and attiude recognizing device |
JP2007241857A (en) * | 2006-03-10 | 2007-09-20 | Fanuc Ltd | Device for robot simulation, program, storage medium, and method |
-
2009
- 2009-10-19 JP JP2009240753A patent/JP5282717B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6317735A (en) * | 1986-07-07 | 1988-01-25 | Okura Yusoki Co Ltd | Takeout device |
JP2002090113A (en) * | 2000-09-20 | 2002-03-27 | Fanuc Ltd | Position and attiude recognizing device |
JP2007241857A (en) * | 2006-03-10 | 2007-09-20 | Fanuc Ltd | Device for robot simulation, program, storage medium, and method |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9044858B2 (en) | 2011-06-28 | 2015-06-02 | Canon Kabushiki Kaisha | Target object gripping apparatus, method for controlling the same and storage medium |
JP2013010155A (en) * | 2011-06-28 | 2013-01-17 | Canon Inc | Target object gripping apparatus, method of controlling the same, and program |
DE102012021375B4 (en) * | 2011-11-08 | 2017-03-02 | Fanuc Corporation | Apparatus and method for detecting a three-dimensional position and orientation of an article |
JP2013117795A (en) * | 2011-12-01 | 2013-06-13 | Canon Inc | Image processor and image processing method |
JP2013146813A (en) * | 2012-01-18 | 2013-08-01 | Seiko Epson Corp | Robot apparatus, and position and orientation detecting method |
DE102013107709B4 (en) * | 2012-07-26 | 2018-01-18 | Fanuc Corporation | Grab robot system with rolling device |
JP2014028415A (en) * | 2012-07-31 | 2014-02-13 | Fanuc Ltd | Device for unloading bulk loaded commodities with robot |
US8874270B2 (en) | 2012-07-31 | 2014-10-28 | Fanuc Corporation | Apparatus for taking out bulk stored articles by robot |
JP2014237188A (en) * | 2013-06-07 | 2014-12-18 | 株式会社安川電機 | Work detecting device, robot system, manufacturing method of workpiece, and work detecting method |
JP2015005093A (en) * | 2013-06-20 | 2015-01-08 | キヤノン株式会社 | Pattern matching device and pattern matching method |
JP2015085493A (en) * | 2013-11-01 | 2015-05-07 | セイコーエプソン株式会社 | Robot, processor, and inspection method |
DE102015002760B4 (en) * | 2014-03-12 | 2021-01-28 | Fanuc Corporation | Robot simulation system that simulates the process of removing workpieces |
US9529945B2 (en) | 2014-03-12 | 2016-12-27 | Fanuc Corporation | Robot simulation system which simulates takeout process of workpieces |
JP2015176272A (en) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | Image processor, image processing method, and image processing program |
CN104786226A (en) * | 2015-03-26 | 2015-07-22 | 华南理工大学 | Posture and moving track positioning system and method of robot grabbing online workpiece |
US11090808B2 (en) | 2017-04-04 | 2021-08-17 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
US11679503B2 (en) | 2017-04-04 | 2023-06-20 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
WO2018185857A1 (en) * | 2017-04-04 | 2018-10-11 | 株式会社Mujin | Information processing device, picking system, logistics system, program, and information processing method |
US11097421B2 (en) | 2017-04-04 | 2021-08-24 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
US11007649B2 (en) | 2017-04-04 | 2021-05-18 | Mujin, Inc. | Information processing apparatus, picking system, distribution system, program and information processing method |
US11027427B2 (en) | 2017-04-04 | 2021-06-08 | Mujin, Inc. | Control device, picking system, distribution system, program, and control method |
US11007643B2 (en) | 2017-04-04 | 2021-05-18 | Mujin, Inc. | Control device, picking system, distribution system, program, control method and production method |
JP6363294B1 (en) * | 2017-04-04 | 2018-07-25 | 株式会社Mujin | Information processing apparatus, picking system, distribution system, program, and information processing method |
US10434652B2 (en) | 2017-05-19 | 2019-10-08 | Fanuc Corporation | Workpiece picking system |
DE102018111370B4 (en) * | 2017-05-19 | 2019-11-28 | Fanuc Corporation | Workpiece holder system |
JP2019104571A (en) * | 2017-12-11 | 2019-06-27 | 株式会社ダイフク | Article conveying facility |
KR20190069309A (en) * | 2017-12-11 | 2019-06-19 | 가부시키가이샤 다이후쿠 | Article transport facility |
KR102596873B1 (en) | 2017-12-11 | 2023-10-31 | 가부시키가이샤 다이후쿠 | Article transport facility |
WO2020050405A1 (en) * | 2018-09-07 | 2020-03-12 | Ntn株式会社 | Work device |
JPWO2020050405A1 (en) * | 2018-09-07 | 2021-09-02 | Ntn株式会社 | Working equipment |
JP2020166371A (en) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | Information processing method, information processing device, object detection device, and robot system |
JPWO2020255410A1 (en) * | 2019-06-21 | 2020-12-24 | ||
WO2020255410A1 (en) * | 2019-06-21 | 2020-12-24 | 株式会社Fuji | Robot control system and robot control method |
JP7242856B2 (en) | 2019-06-21 | 2023-03-20 | 株式会社Fuji | Robot control system and robot control method |
Also Published As
Publication number | Publication date |
---|---|
JP5282717B2 (en) | 2013-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5282717B2 (en) | Robot system | |
US11511421B2 (en) | Object recognition processing apparatus and method, and object picking apparatus and method | |
CN107618030B (en) | Robot dynamic tracking grabbing method and system based on vision | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP6280525B2 (en) | System and method for runtime determination of camera miscalibration | |
CN111151463B (en) | Mechanical arm sorting and grabbing system and method based on 3D vision | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
JP5469216B2 (en) | A device for picking up bulk items by robot | |
JP5642759B2 (en) | Article take-out device and article take-out method | |
JP2020116734A (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
JP2018176334A (en) | Information processing device, measurement device, system, interference determination method and article manufacturing method | |
EP1477934A2 (en) | Image processing apparatus | |
US11625842B2 (en) | Image processing apparatus and image processing method | |
US11972589B2 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP2010210458A (en) | Display method of recognition result by three-dimensional visual sensor, and the three-dimensional visual sensor | |
CN108177143A (en) | A kind of robot localization grasping means and system based on laser vision guiding | |
JP2004090183A (en) | Article position and orientation detecting device and article taking-out device | |
JP2017033429A (en) | Three-dimensional object inspection device | |
JPS60200111A (en) | Apparatus for recognizing three-dimensional object | |
JP7353757B2 (en) | Methods for measuring artifacts | |
CN114341930A (en) | Image processing device, imaging device, robot, and robot system | |
JP2003136465A (en) | Three-dimensional position and posture decision method of detection target object and visual sensor of robot | |
KR101438514B1 (en) | Robot localization detecting system using a multi-view image and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120307 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120316 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130513 |
|
LAPS | Cancellation because of no payment of annual fees |