JP2011133313A - Method of measuring sensor position and attitude - Google Patents
Method of measuring sensor position and attitude Download PDFInfo
- Publication number
- JP2011133313A JP2011133313A JP2009292367A JP2009292367A JP2011133313A JP 2011133313 A JP2011133313 A JP 2011133313A JP 2009292367 A JP2009292367 A JP 2009292367A JP 2009292367 A JP2009292367 A JP 2009292367A JP 2011133313 A JP2011133313 A JP 2011133313A
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- work
- global
- sensor
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、複数の移動可能なセンサから得られる画像情報を基に作業を遂行するシステムで用いられるセンサ位置姿勢計測方法に関するものである。 The present invention relates to a sensor position and orientation measurement method used in a system that performs work based on image information obtained from a plurality of movable sensors.
高品質の製品を安定して生産を行うため、また危険な作業や疲労を伴う検査等から人間を解放するためといった様々な目的のために、産業用ロボットは生産現場に導入されてきている。そして、自動車産業を始めとする多くの分野では、既に不可欠な存在となっている。 Industrial robots have been introduced to production sites for various purposes such as stable production of high-quality products and freeing humans from dangerous work and fatigue-related inspections. And in many fields including the automobile industry, it is already indispensable.
従来からロボットのマニピュレータやそこに取り付けられた作業用工具を、予め定まった道筋に沿って移動、動作させることにより、単純作業を繰り返し行うことがされてきている。更に、マニピュレータに作業用工具の他に、オンハンドカメラを取り付け、オンハンドカメラによって取得された映像を基に、作業対象や環境を把握し、より高度な作業を行わせることも行われている。このように、ロボットに視覚機能を持たせる分野はロボットビジョンとも呼ばれ、多くの研究がなされている。また、コグネックス株式会社からはビジョンシステム「In−Sightシリーズ」が販売されており、産業用ロボットと組み合わせることで、ロボットに視覚機能を持たせることができる。 Conventionally, a simple operation has been repeatedly performed by moving and operating a robot manipulator and a work tool attached thereto along a predetermined route. Furthermore, in addition to the work tools, an on-hand camera is attached to the manipulator, and based on the video acquired by the on-hand camera, the work target and the environment are grasped and more advanced work is performed. . In this way, the field of giving robots visual functions is also called robot vision, and many studies have been made. In addition, Cognex Co., Ltd. sells a vision system “In-Sight series”, which can be combined with an industrial robot to give the robot a visual function.
更にオンハンドカメラの他に、環境内に作業領域全体を俯瞰するグローバルカメラを設置する手法が特許文献1により開示されている。これは、グローバルカメラとオンハンドカメラの両カメラからの映像情報を基に、ロボットの行動を決定する手法である。
Furthermore, in addition to the on-hand camera,
グローバルカメラとオンハンドカメラの両方を用いるシステムにおいては、それぞれのカメラによって取得される映像情報を基に、算出される作業空間内にある物体の位置や姿勢を一致させる必要がある。これには両カメラの相対位置及び相対姿勢が正確に分かっていることが必要十分な条件となる。 In a system using both a global camera and an on-hand camera, it is necessary to match the position and orientation of an object in the calculated work space based on video information acquired by each camera. This is a necessary and sufficient condition that the relative positions and relative postures of both cameras are accurately known.
オンハンドカメラの位置姿勢は、設置時に校正を行うことが可能である。すると、ロボット設置環境である作業環境を基準にした座標系でのオンハンドカメラの位置姿勢は、マニピュレータの位置姿勢から算出することができる。なお、以降のロボット設置環境を基準にした座標系をグローバル座標系と呼び、特に断りのない限り、物体の位置や姿勢はグローバル座標系における値とする。 The position and orientation of the on-hand camera can be calibrated at the time of installation. Then, the position and orientation of the on-hand camera in the coordinate system based on the work environment that is the robot installation environment can be calculated from the position and orientation of the manipulator. Note that a coordinate system based on the subsequent robot installation environment is called a global coordinate system, and unless otherwise specified, the position and orientation of an object are values in the global coordinate system.
残る課題はグローバルカメラの位置姿勢を正確に知ることである。これには、作業環境に固定された治具等に、グローバルカメラを確実に固定し、設置時に位置姿勢を計測することで実現できる。 The remaining task is to know the position and orientation of the global camera accurately. This can be realized by securely fixing the global camera to a jig or the like fixed in the work environment and measuring the position and orientation at the time of installation.
ところで、工場での製品の生産は、製品ユーザの嗜好にきめ細かく対応するために大量生産から多品種少量生産へシフトしてきている。更に、高価な産業用ロボットシステムを有効活用するために、多くの作業を同一のロボットシステムでこなすように対応を迫られている。 By the way, production of products in factories has shifted from mass production to high-mix low-volume production in order to closely respond to product user preferences. Furthermore, in order to effectively use an expensive industrial robot system, it is required to cope with many tasks by the same robot system.
ロボットが行う作業内容によって、最適なグローバルカメラの配置は異なるが、作業内容が変更する度にグローバルカメラの位置姿勢を計測することは、生産ラインを停止させることにもつながり、生産性が低下することになる。そこで、グローバルカメラの位置姿勢計測を短時間で行うことが求められており、その1つの解決手法としては、グローバルカメラとその治具にエンコーダを取り付けることが考えられる。 Although the optimal global camera placement differs depending on the work performed by the robot, measuring the position and orientation of the global camera each time the work content changes leads to stopping the production line and lowering productivity. It will be. Therefore, it is required to measure the position and orientation of the global camera in a short time, and one possible solution is to attach an encoder to the global camera and its jig.
別の手法として、追加ハードウェアを殆ど必要とせずに、グローバルカメラの位置姿勢を計測する手法として、グローバルカメラ自体が環境内の予め校正されたランドマークを撮像する手法がある。これはランドマークがグローバルカメラによる撮像画像と同様に、観測できる位置をグローバルカメラの位置姿勢とする手法である。 As another method, there is a method in which the global camera itself images pre-calibrated landmarks in the environment as a method for measuring the position and orientation of the global camera with little additional hardware. This is a method in which the position where the landmark can be observed is set to the position and orientation of the global camera, as in the case of the image captured by the global camera.
特許文献2にはこのような手法が開示されている。また、特許文献3には環境そのものをCGデータとして持ち、CG画像と撮像画像を比較するという、いわば環境全体をランドマークとする手法が開示されている。更に特許文献4には、カメラ同士が互いを見合うことで、相対位置を検出する手法が開示されている。
しかし、グローバルカメラとその治具にエンコーダを取り付ける手法では、治具の工作精度、治具を固定するフレーム等の支持体の剛性が求められ、更にエンコーダやその値を受信するインタフェースが必要となり、コストアップにつながるという課題がある。 However, the method of attaching the encoder to the global camera and its jig requires the work accuracy of the jig, the rigidity of the support such as the frame to fix the jig, and also requires an encoder and an interface to receive the value. There is a problem that leads to cost increase.
また特許文献2の手法は、グローバルカメラからランドマークが観測可能でなければならず、間に障害物があってはならない。そのため、作業対象によってランドマークが隠されてしまう状況や、ランドマークの設置が困難な環境では実施困難であるという課題がある。また、グローバルカメラの位置姿勢算出手法に三角測量の原理を用いている場合に、高精度の位置姿勢計測には複数のランドマーク、又は大きな形状のランドマークが観測できなければならない。この制約は特許文献2の手法の実施を、更に困難にしてしまうという問題がある。
In the method of
特許文献3の手法は、環境の全てをCGデータ化しなければならず、実施困難な場合も多いという問題がある。更に現場環境を変更する度にCGデータも変更しなければならず、メンテナンスコストが増大してしまうという課題がある。また、作業空間が不透明な仕切りによって囲まれていない場合に、作業空間の向こう側の映像をマスクするような仕組みを実装しなければならず、システムのコストアップにつながるという課題がある。
The method of
特許文献4の手法は、背景差分によりカメラの位置を算出しているが、差分により違いが出るようなカメラ自体の首降りの仕組みを用意しなければならない課題がある。また、特許文献2と同様に、カメラ間に障害物があってはならないという課題がある。
Although the method of
また、グローバルカメラを視覚補助装置と捉えれば、撮像装置である必要はなく、照明でもよいし、ビーム光、スリット光を出すグローバル照明であってもよい。この場合に、視覚補助装置の位置姿勢を計測するためには、別途に視覚補助装置と一体化したカメラが必要となり、システムのコストアップを招いてしまうという課題がある。 Further, if the global camera is regarded as a visual assistance device, it is not necessary to be an imaging device, and it may be illumination, or global illumination that emits beam light and slit light. In this case, in order to measure the position and orientation of the visual assistance device, a separate camera that is integrated with the visual assistance device is required, which increases the cost of the system.
本発明の目的は、上述の問題点を解消し、主センサ手段と補助センサ手段を用いて作業対象物の姿勢に対する正確な計測を行い得るセンサ位置姿勢計測方法を提供することにある。 An object of the present invention is to provide a sensor position / orientation measurement method that can solve the above-described problems and can accurately measure the attitude of a work object using main sensor means and auxiliary sensor means.
上記目的を達成するための本発明に係るセンサ位置姿勢計測方法は、作業対象物が存在し得る対象領域の画像情報を取得又は取得のための補助をする位置及び姿勢が定められた補助センサ手段と、前記作業対象物の少なくとも一部の画像情報又は位置姿勢情報を取得するため高精度に位置及び姿勢の移動指示が可能な主センサ移動手段を備えた主センサ手段とを備え、前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて作業対象物に対する作業を遂行するシステムにおいて、前記主センサ移動手段により前記主センサ手段を移動し、前記主センサ手段より得られた画像情報を用いて前記補助センサ手段の三次元位置及び姿勢を計測するように構成し、前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段により前記補助センサ手段の位置及び姿勢を計測することを特徴とする。 In order to achieve the above object, the sensor position and orientation measurement method according to the present invention obtains image information of a target area where a work object can exist or assist sensor means in which a position and orientation for assisting acquisition are determined. And a main sensor means comprising a main sensor moving means capable of instructing movement of the position and orientation with high accuracy in order to acquire at least part of image information or position and orientation information of the work object, and the auxiliary sensor Based on the image information acquired by the main sensor means and the main sensor means, the main sensor means determines the position and posture to be moved and / or the work content, and uses the image information obtained from the main sensor means to work. In a system for performing work on an object, the main sensor means is moved by the main sensor moving means, and the image information obtained from the main sensor means is used to It is configured to measure the three-dimensional position and orientation of the auxiliary sensor means, and prior to performing work on the work object, the position and orientation of the auxiliary sensor means are measured by the main sensor means. .
本発明に係るセンサ位置姿勢計測方法によれば、治具の工作精度、治具が固定されているフレーム等の支持体の剛性が求められたり、エンコーダやその値を受信するインタフェースが必要となるコストアップが抑えられる。 According to the sensor position / orientation measurement method of the present invention, the work accuracy of the jig and the rigidity of the support such as the frame to which the jig is fixed are required, and an encoder and an interface for receiving the value are required. Cost increase can be suppressed.
また、主センサは作業空間内を移動するので、作業対象によってランドマークが隠されてしまう状況が少ないという効果がある。また、作業環境内にランドマークを設置する必要がなく、ランドマークの設置が困難であるという状況を回避できる。 Further, since the main sensor moves in the work space, there is an effect that there are few situations where the landmark is hidden by the work object. In addition, it is not necessary to install a landmark in the work environment, and a situation where it is difficult to install the landmark can be avoided.
本発明を図示の実施例に基づいて詳細に説明する。 The present invention will be described in detail based on the embodiments shown in the drawings.
図1は本実施例のセンサ位置姿勢計測方法を適用した物体追跡撮像システムの構成図である。ロボット1には可動腕であるマニピュレータ2が設けられており、またマニピュレータ2の先端には主センサ手段であるオンハンドカメラ3と、作業内容に適した作業用工具4が取り付けられている。マニピュレータ2、オンハンドカメラ3、作業用工具4の動作は、アプリケーションコントローラ5によって制御可能とされている。なお、外観検査等の作業用工具が不要な作業のみを行う場合に、作業用工具4は省略してもよい。
FIG. 1 is a configuration diagram of an object tracking imaging system to which the sensor position / orientation measurement method of the present embodiment is applied. The
コントローラ5には補助センサ手段であるグローバルカメラ6、グローバル照明手段7が接続されている。グローバルカメラ6は補助センサ移動手段である例えば直線状のレール8に沿って移動し、グローバル照明手段7は同様の補助センサ移動手段である例えば曲線状のレール9に沿って移動するようにされている。
Connected to the
この場合の作業内容は、例えば山積みされている作業対象物Wを作業用工具4によって1つずつ摘み上げ、部品箱の所定の場所に整列するものである。この際に、山積みされている多くの作業対象物Wのうち、最も摘み上げ易いものを検出するために、グローバルカメラ6が撮像した画像情報の一部を用い、個々の作業対象物Wの精密な位置姿勢情報を得るためにロボット1のオンハンドカメラ3を用いる。
The work content in this case is, for example, picking up the work objects W piled up one by one with the
このような構成では、例えばグローバルカメラ6は作業範囲全体が見渡せるように広範囲を撮像し、オンハンドカメラ3は作業対象物Wを作業用工具4によって確実に掴めるように、作業用工具4の付近の狭い対象領域を撮像する。
In such a configuration, for example, the
このように、両カメラ6、3は協調して作業を遂行してゆくが、これらの制御はコントローラ5によって行われる。各カメラ6、3が取得した画像から、摘み上げる作業対象物Wを特定し、作業対象物Wの位置姿勢を計測し、マニピュレータ2を移動し摘み上げる、といった制御の具体的内容は本発明の範囲外であるので詳細な説明は省略する。
As described above, the
ここで重要なことは、作業対象物Wの位置姿勢は、グローバルカメラ6によって撮像した画像から算出したものと、オンハンドカメラ3によって撮像した画像から算出されたものとで、等しくなければならないということである。これにはオンハンドカメラ3の位置姿勢と、グローバルカメラ6の位置姿勢とが正確に分かっていることが必要十分条件である。
What is important here is that the position and orientation of the work object W must be equal between those calculated from the image captured by the
なお、グローバルカメラ6で山積みとなっている作業対象物Wの三次元形状を取得するために、スリット光やパターン光を投光するグローバル照明手段7を必要に応じて設置してもよい。この場合には、更にグローバル照明手段7の位置姿勢を正確に知る必要がある。
In addition, in order to acquire the three-dimensional shape of the work target W piled up with the
作業内容によっては、グローバルカメラ6やグローバル照明手段7の最適な配置が異なる。例えば、摘み上げるべき作業対象物Wがばらばらに積み上げられているような状況では、個々の作業対象物Wの特徴的な頂点、エッジ等の個所が良く観測できるように、作業対象物Wの斜め上方にグローバルカメラ6を設置することが好ましい。また、作業対象物Wが整列されて山積みされている状況では、作業対象物Wを真横から撮影するような位置にグローバルカメラ6を設置すると、山の高さを認識し易い。このように、作業内容の変更に応じて、グローバルカメラ6やグローバル照明手段7を最適に配置することにより、作業対象物Wの認識精度が向上することが期待できる。
Depending on the work contents, the optimal arrangement of the
グローバルカメラ6やグローバル照明手段7はそれぞれ1個に限られるものではなく、また位置姿勢の算出法も同様であるので、以降では特に断りがない限り、これらをまとめてグローバル機器と呼ぶ。補助センサ手段として機能するグローバル機器は一方又は双方を同時に使用してもよい。
The number of
主センサ手段であるオンハンドカメラ3の主センサ移動手段による位置姿勢は、設置時に計測可能である。何故なら、ロボット1が作業環境に対してどのように設置されているかさえ分かれば、ロボット1の基台に対するマニピュレータ2の位置姿勢は、コントローラ5により取得・制御可能である。更に、マニピュレータ2に対するオンハンドカメラ3の位置姿勢もマニピュレータ2にオンハンドカメラ3を固定する際に計測可能である。
The position and orientation of the on-
グローバル機器の位置姿勢を算出する測定原理は、本計測方法の範囲外であるが、例えば三角測量の原理を用いることができる。この場合に、グローバル機器上の異なる3点の三次元位置が計測できれば、グローバル機器の位置姿勢が算出できる。 The measurement principle for calculating the position and orientation of the global device is outside the scope of this measurement method, but for example, the principle of triangulation can be used. In this case, if the three-dimensional positions of three different points on the global device can be measured, the position and orientation of the global device can be calculated.
図2はコントローラ5の内部構成図である。コントローラ5内のグローバル機器位置姿勢算出部5aの出力は、マニピュレータ移動指示部5bを介してロボット1に接続されていると共に、作業遂行部5cに接続されている。また、グローバル機器位置姿勢算出部5aには外部の作業内容指示手段10の出力が接続され、またオンハンドカメラ3の出力がオンハンドカメラ画像取得部5dを介して接続されている。更に、グローバル機器位置姿勢算出部5aは図3に示す作業内容・位置姿勢対応表を有している。
FIG. 2 is an internal configuration diagram of the
図4は実施例1の動作フローチャート図であり、先ずグローバル機器として、グローバルカメラ6が1台だけの場合を考える。作業内容に応じてグローバルカメラ6を移動させた後に、作業内容を押しボタン等の作業内容指示手段10によって指示する。グローバル機器位置姿勢算出部5aは作業内容の指示を受信すると(ステップS11)、グローバルカメラ6を撮影するためのオンハンドカメラ3の位置姿勢1及び位置姿勢2を図3の作業内容・位置姿勢対応表を参照して求める(ステップS12)。
FIG. 4 is an operation flowchart of the first embodiment. First, consider a case where there is only one
作業内容・位置姿勢対応表は作業内容に対応するグローバルカメラ6の位置姿勢1、及びそれを撮影するオンハンドカメラ3の位置姿勢2が記録されており、図3はその例を示している。なお、これらの位置姿勢1、2の決め方については後述する。
In the work content / position / orientation correspondence table, the position /
位置姿勢1、2を取得した後に、グローバル機器位置姿勢算出部5aはマニピュレータ移動指示部5bに対してオンハンドカメラ3を位置姿勢1に移動するような指示を行う(ステップS13)。マニピュレータ移動指示部5bはロボット1に対して指示された位置姿勢にオンハンドカメラ3を移動する。なお、本来はロボット1への移動指示はマニピュレータ2に対するものであるが、オンハンドカメラ3はマニピュレータ2に固定されているため、オンハンドカメラ3への移動指示は、マニピュレータ2への移動指示に1対1に変換できる。なお、以後は特に断りのない限り、オンハンドカメラ3への移動指示として説明する。
After obtaining the position and
オンハンドカメラ3を位置姿勢1に移動させた後に、オンハンドカメラ3でグローバルカメラ6を画像1として撮影する(ステップS14)。同様に、オンハンドカメラ3を位置姿勢2に移動させ(ステップS15)、オンハンドカメラ3でグローバルカメラ6を画像2として撮影する(ステップS16)。画像1、2はオンハンドカメラ画像取得部5dを通してグローバル機器位置姿勢算出部5aに渡される。
After the on-
グローバル機器位置姿勢算出部5aでは、三角測量の原理により画像1及び画像2から、グローバルカメラ6の位置姿勢を算出する(ステップS17)。なお、位置姿勢1と位置姿勢2は三角測量の原理における2個所の観測位置姿勢のことであり、計測点が撮像画像に含まれるような位置姿勢である。より具体的には、グローバルカメラ6上の異なる3点の全てが、画像1に含まれるようなオンハンドカメラ3の位置姿勢を位置姿勢1、画像2に含まれるような位置姿勢を位置姿勢2とする。
The global device position /
図5は三角測量による説明図である。位置姿勢1の位置をP1、位置姿勢2の位置をP2、グローバルカメラ6上の位置計測をしようとしている位置をP3とする。また、位置P1から位置P3を見る方向が位置姿勢1の姿勢、位置P2から位置P3を見る方向が位置姿勢2の姿勢である。図5は位置P1、P2、P3を通る平面における各点の関係を示し、位置P3を同定することは、距離L21及びL22を求めることと同値である。
FIG. 5 is an explanatory diagram based on triangulation. Assume that the position of the position and
先ず、位置P1及びP2から距離L1を算出し、また角度θ1は画像1から取得でき、角度θ2は画像2から取得できる。正弦定理を用いて、次のように距離L21及びL22が求められる。
L21=L1・(sinθ1・sinθ2)/sin(θ1+θ2)…(1)
L22=L1・(cosθ1・sinθ2)/sin(θ1+θ2)…(2)
First, the distance L1 is calculated from the positions P1 and P2, the angle θ1 can be acquired from the
L21 = L1 · (sin θ1 · sin θ2) / sin (θ1 + θ2) (1)
L22 = L1 · (cos θ1 · sin θ2) / sin (θ1 + θ2) (2)
グローバルカメラ6が或る程度離れているという仮定、つまり距離L21がL1に比べて或る程度大きければ、式(1)及び(2)から、安定して値を算出するには下記の条件1、2を満たすようにすればよい。
Assuming that the
(条件1)距離L1を大きくする。
(条件2)角度θ1とθ2を近い値とする。
(Condition 1) The distance L1 is increased.
(Condition 2) The angles θ1 and θ2 are close to each other.
これらの2条件をなるべく満たすように、位置姿勢1、2を決定するが、位置姿勢1、2はグローバルカメラ6の概略の位置姿勢が定まれば決定が可能である。そのため、作業内容に応じて予めグローバルカメラ6の位置と対応する位置姿勢1、2を作業内容・位置姿勢対応表にしておくことができ、グローバル機器位置姿勢算出部5aはこれを参照して位置姿勢1、2を算出する。
The positions and
作業内容・位置姿勢対応表の作業IDは、コントローラ5で処理を行い易くするために付された作業内容を区別する一意的な番号である。作業内容に応じたグローバルカメラ6の大まかな位置姿勢を予め計測しておき、その値を作業内容・位置姿勢対応表に書き込んである。また、その位置姿勢にあるグローバルカメラ6の位置姿勢を最も安定して計測できるように、条件1、2を満たす位置姿勢1、2を予め算出しておき、作業内容・位置姿勢対応表に書き込んである。なお、位置姿勢1、2は条件1、2を満たすように実行時に算出してもよく、その場合は作業内容・位置姿勢対応表に値を書き込んでおく必要はない。
The work ID in the work content / position / orientation correspondence table is a unique number for distinguishing the work content assigned to facilitate the processing by the
このようにして、グローバルカメラ6の位置姿勢が算出できるが、グローバル照明手段7を備える場合は、グローバル照明手段7用の作業内容・位置姿勢対応表を予め作成しておく。そして、グローバルカメラ6に対するものと同様の処理を、グローバル照明手段7に対しても行い、グローバル照明手段7の位置姿勢の算出も行う。
In this way, the position and orientation of the
このように、全てのグローバル機器に対して作業内容・位置姿勢対応表を作成しておくことにより、全てのグローバル機器について位置姿勢を算出することができる。算出したグローバル機器の位置姿勢は作業遂行部5cに渡され、以降はグローバル機器とオンハンドカメラ3が協調しながら指示した作業を遂行してゆく。
Thus, by creating the work content / position / posture correspondence table for all global devices, the position / posture can be calculated for all global devices. The calculated position and orientation of the global device are transferred to the
また、算出したグローバル機器の位置姿勢の精度は、オンハンドカメラ3の位置姿勢の精度による。しかし、ロボット1から得られるマニピュレータ2の位置姿勢の値の精度が十分に高いと考えられる場合に、各グローバル機器に取り付けるエンコーダ等のハードウェアの追加なしに高精度な計測が可能となる。
Further, the accuracy of the calculated position and orientation of the global device depends on the accuracy of the position and orientation of the on-
なお、グローバル機器はレール8、9のような移動に限られるものではなく、二次元或いは三次元上を動くようにしても支障はない。
The global device is not limited to the movement of the
図6はグローバルカメラ6をレール8上で移動させたり、姿勢を変えたりするグローバルカメラ移動手段11、グローバル照明手段7をレール9上で移動させたり、姿勢を変えたりするグローバル照明移動手段12を備えたシステムの構成図である。また、以後、グローバルカメラ移動手段11、グローバル照明移動手段12についてはグローバル機器移動手段と呼ぶ。
FIG. 6 shows a global camera moving means 11 for moving the
図7はコントローラ5の構成図であり、図2の構成図において、グローバル機器位置姿勢算出部5aの出力は、グローバル機器移動指示部5eを介してグローバル機器移動手段11、12に接続されている。
FIG. 7 is a block diagram of the
図8は実施例2の動作フローチャート図である。作業内容の変更があった際に、作業開始に先立って作業内容指示手段10により、グローバル機器位置姿勢算出部5aに作業内容の変更が伝えられると(ステップS21)、全グローバル機器の位置姿勢の算出は完了しているかを判定する(ステップS22)。算出が完了していなければ、作業内容に適したグローバル機器の移動先位置姿勢を算出し(ステップS23)、更にグローバル機器を撮影するオンハンドカメラ3の撮影位置姿勢の位置姿勢1、位置姿勢2を算出する(ステップS24)。ここで、ステップS23やステップS24で算出する位置姿勢は、実施例1と同様に予め用意した作業内容・位置姿勢対応表を参照して導出する。
FIG. 8 is an operation flowchart of the second embodiment. When there is a change in the work content, if the change of the work content is transmitted to the global device position /
次いで、グローバル機器移動指示部5eに指示を出し、グローバル機器をステップS23で算出された移動先位置姿勢に移動する(ステップS25)。この後に、オンハンドカメラ3を用いてグローバル機器の位置姿勢を計測するが、この処理は図4のステップS13〜S17と同様である。以上のステップS23以降の処理を、全グローバル機器に対して行う。
Next, an instruction is issued to the global device
実施例2では、作業内容の変更は作業内容指示手段10によって指示を出していたが、作業内容識別部5fを設けることにより、人手を介さずにグローバル機器の位置姿勢を計測することも可能である。
In the second embodiment, the change of the work content is instructed by the work content instruction means 10, but by providing the work
図9及び図10は実施例3のシステムの構成図であり、作業対象物Wは作業パレット13内に入れられており、作業パレット13には作業内容を表す指標Iが付されている。図9では作業パレット13内に山積みに置かれているばらばらの作業対象物Wを1個ずつ摘み上げ、図示しない部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、作業対象物Wの頂点、エッジ等の画像特徴が良好に得られるように、グローバルカメラ6を水平よりも僅かに上方の斜め上方の角度からグローバル照明手段7を配置している。
FIGS. 9 and 10 are configuration diagrams of the system of the third embodiment. The work object W is placed in the
図10においては、何本かのタワー状に積み上げられている円盤状の作業対象物Wを1個ずつ摘み上げ、不図示の部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、積み上げられた作業対象物Wの高さが良く分かるように、グローバルカメラ6は作業対象物Wをほぼ真横から観測できる位置に、グローバル照明手段7は稍々上方に配置されている。
In FIG. 10, it is assumed that the work contents are picked up one by one from a plurality of disk-shaped work objects W stacked in a tower shape and arranged in a predetermined place in a component box (not shown). ing. In this case, the global illumination means 7 is often disposed above the
なお、ここでは2つの作業内容を例として挙げたが、2つである必要はなく、更に多くの作業内容を想定してもよい。また、作業内容は例示したものでなくとも支障はない。作業内容により最適なグローバル機器の配置が異なる状況があり、本実施例はそれに対処できることを示すために例として挙げたものである。 In addition, although two work content was mentioned here as an example, it is not necessary to be two, and more work content may be assumed. Further, there is no problem even if the work contents are not illustrated. There are situations in which the optimal global device arrangement differs depending on the work content, and this example is given as an example to show that it can be dealt with.
図11は本実施例が適用されるコントローラ5の構成図である。オンハンドカメラ画像取得部5dからの出力を受け、グローバル機器位置姿勢算出部5a、マニピュレータ移動指示部5bに出力する作業内容識別部5fが設けられている。
FIG. 11 is a block diagram of the
図12は実施例3の動作フローチャート図であり、図8と比べて作業内容変更指示を受信するステップS21の代りに、ステップS31〜S33を処理する。これは作業内容識別部5fによって行われ、作業内容の識別を行う部分であり、
先ず、オンハンドカメラ3が指標Iが良く観察できる位置に移動するように、マニピュレータ移動指示部5bに対して指示を出力する(ステップS31)。作業パレット13や指標Iの位置を全作業で共通化しておけば、この位置は既知のものとなる。指標Iは作業内容を表し、例えばバーコードを用いることにより、作業内容をコード化することができる。
FIG. 12 is an operation flowchart of the third embodiment. Steps S31 to S33 are processed instead of step S21 for receiving a work content change instruction as compared with FIG. This is performed by the work
First, an instruction is output to the manipulator
次に、オンハンドカメラ画像取得部5dを通してオンハンドカメラ3が撮像した指標Iの画像を取得し(ステップS32)、作業内容識別部5fはこの画像を基に作業内容を識別する(ステップS33)。バーコードを撮像した画像からコード内容を認識する処理は一般的な技術であり、本発明の範囲外であるのでその説明は省略する。識別した作業内容は、グローバル機器位置姿勢算出部5aに送られ、実施例2と同様の処理が行われる。
Next, an image of the index I captured by the on-
なお、指標Iの識別を行うために、オンハンドカメラ3から得られる画像を用いたが、専用のカメラやバーコードスキャナを用いてもよい。また、指標Iはバーコードに限られるものではなく、RFID等を用いてもよい。更に、指標Iは作業パレット13に標示されているが、作業内容と同期していれば作業パレット13に標示しなくともよい。例えば、ベルトコンベアによって作業対象物Wが流れてくる場合に、指標Iの後に対応する作業対象物Wを流すようにしてもよい。
In order to identify the index I, an image obtained from the on-
図13は実施例4のコントローラ5の構成図である。外部のグローバル機器6、7の出力はグローバル機器情報取得部5gをグローバル機器特徴抽出部5hを介してグローバル機器微小移動指示生成部5iに接続されている。また、グローバル機器微小移動指示生成部5iの出力はグローバル機器移動指示部5eに接続され、更に作業内容識別部5fの出力が接続されている。
FIG. 13 is a configuration diagram of the
実施例3では、グローバルカメラ6、グローバル照明手段7を移動した後に、その位置姿勢を計測しているが、作業遂行に当っては、より高い品質の情報が得られる位置にグローバル機器を設置した方が好ましい。より高い品質とは、例えば山積みされた作業対象物Wを撮像した画像から頂点特徴を抽出し、それを基にして、作業対象物Wの位置姿勢等の作業に必要な情報を取得する。例えば、頂点特徴がより確実に取得できるように、「明度のコントラストが高い」や、「作業対象物W以外の物体や照明が撮像画像内に存在しない」、また「作業対象物W自体が他の物体によって隠されない」ようにする。
In the third embodiment, after the
実際に頂点特徴を検出した上で、得られた頂点特徴の個数が多いものほど高品質であるとしてもよい。このような高い品質の情報が得られるグローバル機器の配置は、個々のケースにおいて作業対象物Wの配置状況や、システムが動作している環境によって多少変化する。 After actually detecting vertex features, the higher the number of obtained vertex features, the higher the quality may be. The arrangement of global devices that can obtain such high-quality information varies somewhat depending on the arrangement of work objects W and the environment in which the system is operating in each case.
そこで、先ずグローバル機器を作業内容・位置姿勢対応表を参照して得られる作業内容に適した位置に移動した後に、グローバル機器の位置姿勢を微小量移動させながら、最も高い品質の出力が得られる位置姿勢で停止させる。その後に、グローバル機器の位置姿勢を計測する。 Therefore, after moving the global device to a position suitable for the work content obtained by referring to the work content / position / orientation correspondence table, the highest quality output can be obtained while moving the position / posture of the global device by a small amount. Stop at position and orientation. After that, the position and orientation of the global device are measured.
図14は実施例4の動作フローチャート図である。最初にグローバル機器を移動させると、ステップS31〜S25までは図12と同様であり、その次から説明する。先ず、全てのグローバル機器を作業内容に適した位置姿勢に移動させる。そして、各グローバル機器について以下の処理を行う。 FIG. 14 is an operation flowchart of the fourth embodiment. When the global device is moved first, steps S31 to S25 are the same as in FIG. 12, and will be described next. First, all global devices are moved to positions and orientations suitable for the work content. Then, the following processing is performed for each global device.
前記グローバル機器の位置姿勢を算出したかを判断する(ステップS41)。算出が完了していなければ、グローバル機器情報取得部5gでグローバル機器に対応したグローバル機器から情報を得る(ステップS42)。例えば、設置調整対象のグローバル機器がグローバルカメラ6であれば、グローバルカメラ6から画像を取得する。また投光器の場合には、投光器に対応したグローバルカメラ6から画像を取得する。
It is determined whether the position and orientation of the global device have been calculated (step S41). If the calculation is not completed, the global device
得られた情報からグローバル機器特徴抽出部5hによって特徴抽出を行う(ステップS43)。この特徴は前述したように作業内容によって異なるが、例えば得られた画像から頂点特徴を抽出しその個数を数える。ここで得られた特徴が高品質のものであると判断できた場合は(ステップS44)、図4のステップS13〜S17の処理と同様にグローバル機器の位置姿勢を計測する。
Feature extraction is performed by the global device
もし高品質のものではない場合は、現在のグローバル機器の位置姿勢を中心として微小移動を行うように、グローバル機器微小移動指示生成部5iで微小移動指示を生成し(ステップS45)、グローバル機器を移動させる(ステップS46)。
If it is not of high quality, the global device minute movement
グローバル機器から得られた特徴が高品質のものかどうかは、抽出された頂点特徴の個数がグローバル機器の位置姿勢を微小移動させた範囲内で、極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。また、特徴としてグローバルカメラ6から得られた撮像画像の明度コントラストを用いることもできる。この場合は、グローバル機器の位置姿勢を微小移動させた範囲内で明度コントラストが極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。
Whether or not the features obtained from the global device are of high quality, the position and orientation that is the maximum (or maximum) within the range in which the number of extracted vertex features is slightly moved from the position and orientation of the global device is the highest quality. The position and orientation can be obtained. Moreover, the brightness contrast of the captured image obtained from the
更に、これらの特徴を複合的に用いて品質評価を行ってもよい。複合評価の手法は本実施例の範囲外であるが、例えば各特徴からスコアを出し、それらの重み付き平均を求める。重み付き平均の値がグローバル機器の位置姿勢を微小移動させた範囲内で極大(又は最大)となる位置姿勢を、最高品質が得られる位置姿勢とすればよい。 Furthermore, quality evaluation may be performed using these characteristics in combination. The composite evaluation method is out of the scope of the present embodiment. For example, a score is obtained from each feature, and a weighted average thereof is obtained. The position / posture in which the weighted average value becomes the maximum (or maximum) within the range in which the position / posture of the global device is slightly moved may be set as the position / posture with which the highest quality is obtained.
グローバル機器を微小量移動させた場合は、ステップS42からの処理を繰り返す。このような処理により、各グローバル機器を作業内容により適した位置姿勢にした上で、位置姿勢の計測を行うことができる。 When the global device is moved by a minute amount, the processing from step S42 is repeated. With such processing, the position and orientation can be measured after each global device is brought into a position and orientation that is more suitable for the work content.
本発明は位置姿勢計測手法に関し、特に作業空間内に設置され作業中は固定されている視覚補助装置と、ロボットのマニピュレータに取り付けられたカメラの両者を用いて、作業を遂行してゆくロボットシステムに用いると好適である。また、主センサはカメラ、補助センサはカメラ、照明手段、を用いたが、他の例えば物体検知センサであってもよい。 The present invention relates to a position / orientation measurement method, and in particular, a robot system that performs work using both a visual assistance device installed in a work space and fixed during work and a camera attached to a robot manipulator. It is suitable for use in. Further, although the camera is used as the main sensor and the camera and illumination means are used as the auxiliary sensor, other object detection sensors, for example, may be used.
1 ロボット
2 マニピュレータ
3 オンハンドカメラ
4 作業用工具
5 アプリケーションコントローラ
5a グローバル機器位置姿勢算出部
5b マニピュレータ移動指示部
5c 作業遂行部
5d オンハンドカメラ画像取得部
5e グローバル機器移動指示部
5f 作業内容識別部
5g グローバル機器情報取得部
5h グローバル機器特徴抽出部
5i グローバル機器微小移動指示生成部
6 グローバルカメラ
7 グローバル照明手段
8、9 レール
10 作業内容指示手段
11 グローバルカメラ移動手段
12 グローバル照明移動手段
W 作業対象物
DESCRIPTION OF
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009292367A JP5725708B2 (en) | 2009-12-24 | 2009-12-24 | Sensor position and orientation measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009292367A JP5725708B2 (en) | 2009-12-24 | 2009-12-24 | Sensor position and orientation measurement method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011133313A true JP2011133313A (en) | 2011-07-07 |
JP5725708B2 JP5725708B2 (en) | 2015-05-27 |
Family
ID=44346213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009292367A Active JP5725708B2 (en) | 2009-12-24 | 2009-12-24 | Sensor position and orientation measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5725708B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103085076A (en) * | 2011-11-08 | 2013-05-08 | 发那科株式会社 | Device and method for recognizing three-dimensional position and orientation of article |
JP2013186088A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Information processing device and information processing method |
JP2014046433A (en) * | 2012-09-03 | 2014-03-17 | Canon Inc | Information processing system, method, and program |
CN104019743A (en) * | 2014-06-06 | 2014-09-03 | 清华大学深圳研究生院 | Mechanical arm pose precision testing system |
WO2015024579A1 (en) * | 2013-08-19 | 2015-02-26 | Abb Technology Ltd | Robot manipulated viewpoint |
JP2015172575A (en) * | 2014-03-05 | 2015-10-01 | タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド | programmable digital machine vision inspection system |
JP2016052695A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Robot device and control method of robot device |
CN107478205A (en) * | 2017-09-01 | 2017-12-15 | 西北工业大学 | Aero-engine high accuracy assembly quality detector device people's system |
JP2018202608A (en) * | 2018-09-28 | 2018-12-27 | キヤノン株式会社 | Robot device, control method of robot device, program, and recording medium |
CN109328126A (en) * | 2016-07-06 | 2019-02-12 | 株式会社富士 | Filming apparatus and camera system |
EP3470182A3 (en) * | 2017-10-11 | 2019-05-15 | Seiko Epson Corporation | Robot system |
WO2020138345A1 (en) * | 2018-12-27 | 2020-07-02 | 日本電気通信システム株式会社 | Article position management device, article position management system, article position management method, and program |
CN112907513A (en) * | 2021-01-18 | 2021-06-04 | 东莞市三姆森光电科技有限公司 | Image position stamp system in industrial visual detection and generation method thereof |
CN114390963A (en) * | 2019-09-06 | 2022-04-22 | 罗伯特·博世有限公司 | Calibration method and device for industrial robot, three-dimensional environment modeling method and device, computer storage medium and industrial robot operating platform |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02276725A (en) * | 1989-04-13 | 1990-11-13 | Toshiba Corp | Instruction for robot |
JP2008087074A (en) * | 2006-09-29 | 2008-04-17 | Fanuc Ltd | Workpiece picking apparatus |
-
2009
- 2009-12-24 JP JP2009292367A patent/JP5725708B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02276725A (en) * | 1989-04-13 | 1990-11-13 | Toshiba Corp | Instruction for robot |
JP2008087074A (en) * | 2006-09-29 | 2008-04-17 | Fanuc Ltd | Workpiece picking apparatus |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103085076A (en) * | 2011-11-08 | 2013-05-08 | 发那科株式会社 | Device and method for recognizing three-dimensional position and orientation of article |
JP2013101045A (en) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | Recognition device and recognition method of three-dimensional position posture of article |
US8929608B2 (en) | 2011-11-08 | 2015-01-06 | Fanuc Corporation | Device and method for recognizing three-dimensional position and orientation of article |
JP2013186088A (en) * | 2012-03-09 | 2013-09-19 | Canon Inc | Information processing device and information processing method |
JP2014046433A (en) * | 2012-09-03 | 2014-03-17 | Canon Inc | Information processing system, method, and program |
WO2015024579A1 (en) * | 2013-08-19 | 2015-02-26 | Abb Technology Ltd | Robot manipulated viewpoint |
JP2015172575A (en) * | 2014-03-05 | 2015-10-01 | タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド | programmable digital machine vision inspection system |
CN104019743A (en) * | 2014-06-06 | 2014-09-03 | 清华大学深圳研究生院 | Mechanical arm pose precision testing system |
JP2016052695A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Robot device and control method of robot device |
CN109328126B (en) * | 2016-07-06 | 2022-06-07 | 株式会社富士 | Imaging device and imaging system |
CN109328126A (en) * | 2016-07-06 | 2019-02-12 | 株式会社富士 | Filming apparatus and camera system |
CN107478205A (en) * | 2017-09-01 | 2017-12-15 | 西北工业大学 | Aero-engine high accuracy assembly quality detector device people's system |
US11090810B2 (en) | 2017-10-11 | 2021-08-17 | Seiko Epson Corporation | Robot system |
EP3470182A3 (en) * | 2017-10-11 | 2019-05-15 | Seiko Epson Corporation | Robot system |
JP2018202608A (en) * | 2018-09-28 | 2018-12-27 | キヤノン株式会社 | Robot device, control method of robot device, program, and recording medium |
WO2020138345A1 (en) * | 2018-12-27 | 2020-07-02 | 日本電気通信システム株式会社 | Article position management device, article position management system, article position management method, and program |
JPWO2020138345A1 (en) * | 2018-12-27 | 2021-11-04 | 日本電気通信システム株式会社 | Article position management device, article position management system, article position management method and program |
JP7529266B2 (en) | 2018-12-27 | 2024-08-06 | 日本電気通信システム株式会社 | Item position management device, item position management system, item position management method and program |
US12080027B2 (en) | 2018-12-27 | 2024-09-03 | Nec Communication Systems, Ltd. | Article position managing apparatus, article position management system, article position managing method, and program |
CN114390963A (en) * | 2019-09-06 | 2022-04-22 | 罗伯特·博世有限公司 | Calibration method and device for industrial robot, three-dimensional environment modeling method and device, computer storage medium and industrial robot operating platform |
CN112907513A (en) * | 2021-01-18 | 2021-06-04 | 东莞市三姆森光电科技有限公司 | Image position stamp system in industrial visual detection and generation method thereof |
CN112907513B (en) * | 2021-01-18 | 2023-06-27 | 广东三姆森科技股份有限公司 | Image position stamping system in industrial vision detection and generation method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP5725708B2 (en) | 2015-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5725708B2 (en) | Sensor position and orientation measurement method | |
EP2916189B1 (en) | Quality assured manufacturing | |
US11565427B2 (en) | Robot system | |
US10675759B2 (en) | Interference region setting apparatus for mobile robot | |
EP2636493B1 (en) | Information processing apparatus and information processing method | |
US20050273199A1 (en) | Robot system | |
JP6025386B2 (en) | Image measuring apparatus, image measuring method, and image measuring program | |
EP2543483A1 (en) | Information processing apparatus and information processing method | |
JP2018176334A (en) | Information processing device, measurement device, system, interference determination method and article manufacturing method | |
US10704891B2 (en) | Method and apparatus for determining the 3D coordinates of an object | |
JP7359633B2 (en) | robot system | |
JP2008168372A (en) | Robot device and shape recognition method | |
KR100933024B1 (en) | Absence location information recognition device and method | |
KR101972432B1 (en) | A laser-vision sensor and calibration method thereof | |
JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
JP2014149182A (en) | Method of positioning relative to workpiece | |
CN113302027B (en) | Job coordinate generating device | |
JP2019113348A (en) | Object inspection system and object inspection method | |
CN113196165A (en) | Information projection system, control device, and information projection method | |
KR20140053712A (en) | The localization method for indoor mobile robots by sensor fusion | |
US8717579B2 (en) | Distance measuring device using a method of spanning separately targeted endpoints | |
JP2019078569A (en) | Position recognition method, position recognition device, moving body for reference point installation, moving body for work, and position recognition system | |
JP2018067170A (en) | Production management system and production management method | |
WO2022124232A1 (en) | Image processing system and image processing method | |
JP2010214546A (en) | Device and method for assembling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150331 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5725708 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |