JP2011133313A - Method of measuring sensor position and attitude - Google Patents

Method of measuring sensor position and attitude Download PDF

Info

Publication number
JP2011133313A
JP2011133313A JP2009292367A JP2009292367A JP2011133313A JP 2011133313 A JP2011133313 A JP 2011133313A JP 2009292367 A JP2009292367 A JP 2009292367A JP 2009292367 A JP2009292367 A JP 2009292367A JP 2011133313 A JP2011133313 A JP 2011133313A
Authority
JP
Japan
Prior art keywords
orientation
work
global
sensor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009292367A
Other languages
Japanese (ja)
Other versions
JP5725708B2 (en
Inventor
Hideo Noro
英生 野呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009292367A priority Critical patent/JP5725708B2/en
Publication of JP2011133313A publication Critical patent/JP2011133313A/en
Application granted granted Critical
Publication of JP5725708B2 publication Critical patent/JP5725708B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately measure a work object using a main sensor means and a sub sensor means. <P>SOLUTION: An on-hand camera 3 is moved by a manipulator 2, three-dimensional positions and attitudes of a global camera 6 are measured by image information obtained by the on-hand camera 3, and the positions and attitudes of the global camera 6 are measured by the on-hand camera 3 before starting work to the work object W. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の移動可能なセンサから得られる画像情報を基に作業を遂行するシステムで用いられるセンサ位置姿勢計測方法に関するものである。   The present invention relates to a sensor position and orientation measurement method used in a system that performs work based on image information obtained from a plurality of movable sensors.

高品質の製品を安定して生産を行うため、また危険な作業や疲労を伴う検査等から人間を解放するためといった様々な目的のために、産業用ロボットは生産現場に導入されてきている。そして、自動車産業を始めとする多くの分野では、既に不可欠な存在となっている。   Industrial robots have been introduced to production sites for various purposes such as stable production of high-quality products and freeing humans from dangerous work and fatigue-related inspections. And in many fields including the automobile industry, it is already indispensable.

従来からロボットのマニピュレータやそこに取り付けられた作業用工具を、予め定まった道筋に沿って移動、動作させることにより、単純作業を繰り返し行うことがされてきている。更に、マニピュレータに作業用工具の他に、オンハンドカメラを取り付け、オンハンドカメラによって取得された映像を基に、作業対象や環境を把握し、より高度な作業を行わせることも行われている。このように、ロボットに視覚機能を持たせる分野はロボットビジョンとも呼ばれ、多くの研究がなされている。また、コグネックス株式会社からはビジョンシステム「In−Sightシリーズ」が販売されており、産業用ロボットと組み合わせることで、ロボットに視覚機能を持たせることができる。   Conventionally, a simple operation has been repeatedly performed by moving and operating a robot manipulator and a work tool attached thereto along a predetermined route. Furthermore, in addition to the work tools, an on-hand camera is attached to the manipulator, and based on the video acquired by the on-hand camera, the work target and the environment are grasped and more advanced work is performed. . In this way, the field of giving robots visual functions is also called robot vision, and many studies have been made. In addition, Cognex Co., Ltd. sells a vision system “In-Sight series”, which can be combined with an industrial robot to give the robot a visual function.

更にオンハンドカメラの他に、環境内に作業領域全体を俯瞰するグローバルカメラを設置する手法が特許文献1により開示されている。これは、グローバルカメラとオンハンドカメラの両カメラからの映像情報を基に、ロボットの行動を決定する手法である。   Furthermore, in addition to the on-hand camera, Patent Document 1 discloses a method of installing a global camera that overlooks the entire work area in the environment. This is a technique for determining robot behavior based on video information from both a global camera and an on-hand camera.

グローバルカメラとオンハンドカメラの両方を用いるシステムにおいては、それぞれのカメラによって取得される映像情報を基に、算出される作業空間内にある物体の位置や姿勢を一致させる必要がある。これには両カメラの相対位置及び相対姿勢が正確に分かっていることが必要十分な条件となる。   In a system using both a global camera and an on-hand camera, it is necessary to match the position and orientation of an object in the calculated work space based on video information acquired by each camera. This is a necessary and sufficient condition that the relative positions and relative postures of both cameras are accurately known.

オンハンドカメラの位置姿勢は、設置時に校正を行うことが可能である。すると、ロボット設置環境である作業環境を基準にした座標系でのオンハンドカメラの位置姿勢は、マニピュレータの位置姿勢から算出することができる。なお、以降のロボット設置環境を基準にした座標系をグローバル座標系と呼び、特に断りのない限り、物体の位置や姿勢はグローバル座標系における値とする。   The position and orientation of the on-hand camera can be calibrated at the time of installation. Then, the position and orientation of the on-hand camera in the coordinate system based on the work environment that is the robot installation environment can be calculated from the position and orientation of the manipulator. Note that a coordinate system based on the subsequent robot installation environment is called a global coordinate system, and unless otherwise specified, the position and orientation of an object are values in the global coordinate system.

残る課題はグローバルカメラの位置姿勢を正確に知ることである。これには、作業環境に固定された治具等に、グローバルカメラを確実に固定し、設置時に位置姿勢を計測することで実現できる。   The remaining task is to know the position and orientation of the global camera accurately. This can be realized by securely fixing the global camera to a jig or the like fixed in the work environment and measuring the position and orientation at the time of installation.

ところで、工場での製品の生産は、製品ユーザの嗜好にきめ細かく対応するために大量生産から多品種少量生産へシフトしてきている。更に、高価な産業用ロボットシステムを有効活用するために、多くの作業を同一のロボットシステムでこなすように対応を迫られている。   By the way, production of products in factories has shifted from mass production to high-mix low-volume production in order to closely respond to product user preferences. Furthermore, in order to effectively use an expensive industrial robot system, it is required to cope with many tasks by the same robot system.

ロボットが行う作業内容によって、最適なグローバルカメラの配置は異なるが、作業内容が変更する度にグローバルカメラの位置姿勢を計測することは、生産ラインを停止させることにもつながり、生産性が低下することになる。そこで、グローバルカメラの位置姿勢計測を短時間で行うことが求められており、その1つの解決手法としては、グローバルカメラとその治具にエンコーダを取り付けることが考えられる。   Although the optimal global camera placement differs depending on the work performed by the robot, measuring the position and orientation of the global camera each time the work content changes leads to stopping the production line and lowering productivity. It will be. Therefore, it is required to measure the position and orientation of the global camera in a short time, and one possible solution is to attach an encoder to the global camera and its jig.

別の手法として、追加ハードウェアを殆ど必要とせずに、グローバルカメラの位置姿勢を計測する手法として、グローバルカメラ自体が環境内の予め校正されたランドマークを撮像する手法がある。これはランドマークがグローバルカメラによる撮像画像と同様に、観測できる位置をグローバルカメラの位置姿勢とする手法である。   As another method, there is a method in which the global camera itself images pre-calibrated landmarks in the environment as a method for measuring the position and orientation of the global camera with little additional hardware. This is a method in which the position where the landmark can be observed is set to the position and orientation of the global camera, as in the case of the image captured by the global camera.

特許文献2にはこのような手法が開示されている。また、特許文献3には環境そのものをCGデータとして持ち、CG画像と撮像画像を比較するという、いわば環境全体をランドマークとする手法が開示されている。更に特許文献4には、カメラ同士が互いを見合うことで、相対位置を検出する手法が開示されている。   Patent Document 2 discloses such a technique. Japanese Patent Application Laid-Open No. 2004-228561 discloses a method of using the environment itself as CG data and comparing the CG image with the captured image, that is, using the entire environment as a landmark. Further, Patent Document 4 discloses a method of detecting a relative position by allowing cameras to look at each other.

特開平3−73284号公報JP-A-3-73284 特開2005−57592号公報JP 2005-57592 A 特開平7−237158号公報JP 7-237158 A 特開2007−327750号公報JP 2007-327750 A

しかし、グローバルカメラとその治具にエンコーダを取り付ける手法では、治具の工作精度、治具を固定するフレーム等の支持体の剛性が求められ、更にエンコーダやその値を受信するインタフェースが必要となり、コストアップにつながるという課題がある。   However, the method of attaching the encoder to the global camera and its jig requires the work accuracy of the jig, the rigidity of the support such as the frame to fix the jig, and also requires an encoder and an interface to receive the value. There is a problem that leads to cost increase.

また特許文献2の手法は、グローバルカメラからランドマークが観測可能でなければならず、間に障害物があってはならない。そのため、作業対象によってランドマークが隠されてしまう状況や、ランドマークの設置が困難な環境では実施困難であるという課題がある。また、グローバルカメラの位置姿勢算出手法に三角測量の原理を用いている場合に、高精度の位置姿勢計測には複数のランドマーク、又は大きな形状のランドマークが観測できなければならない。この制約は特許文献2の手法の実施を、更に困難にしてしまうという問題がある。   In the method of Patent Document 2, landmarks must be observable from a global camera, and there must be no obstacles between them. Therefore, there is a problem that it is difficult to implement in a situation where the landmark is hidden by the work target or in an environment where it is difficult to install the landmark. In addition, when the principle of triangulation is used for the position and orientation calculation method of the global camera, it is necessary to be able to observe a plurality of landmarks or large landmarks for highly accurate position and orientation measurement. This restriction has a problem that the implementation of the method of Patent Document 2 becomes more difficult.

特許文献3の手法は、環境の全てをCGデータ化しなければならず、実施困難な場合も多いという問題がある。更に現場環境を変更する度にCGデータも変更しなければならず、メンテナンスコストが増大してしまうという課題がある。また、作業空間が不透明な仕切りによって囲まれていない場合に、作業空間の向こう側の映像をマスクするような仕組みを実装しなければならず、システムのコストアップにつながるという課題がある。   The method of Patent Document 3 has a problem that all of the environment must be converted to CG data and is often difficult to implement. Furthermore, every time the site environment is changed, the CG data must also be changed, which causes a problem that maintenance costs increase. In addition, when the work space is not surrounded by an opaque partition, a mechanism for masking an image on the other side of the work space has to be implemented, leading to an increase in system cost.

特許文献4の手法は、背景差分によりカメラの位置を算出しているが、差分により違いが出るようなカメラ自体の首降りの仕組みを用意しなければならない課題がある。また、特許文献2と同様に、カメラ間に障害物があってはならないという課題がある。   Although the method of Patent Document 4 calculates the position of the camera based on the background difference, there is a problem that it is necessary to prepare a mechanism for bouncing the camera itself so that the difference is caused by the difference. In addition, similarly to Patent Document 2, there is a problem that there must be no obstacle between the cameras.

また、グローバルカメラを視覚補助装置と捉えれば、撮像装置である必要はなく、照明でもよいし、ビーム光、スリット光を出すグローバル照明であってもよい。この場合に、視覚補助装置の位置姿勢を計測するためには、別途に視覚補助装置と一体化したカメラが必要となり、システムのコストアップを招いてしまうという課題がある。   Further, if the global camera is regarded as a visual assistance device, it is not necessary to be an imaging device, and it may be illumination, or global illumination that emits beam light and slit light. In this case, in order to measure the position and orientation of the visual assistance device, a separate camera that is integrated with the visual assistance device is required, which increases the cost of the system.

本発明の目的は、上述の問題点を解消し、主センサ手段と補助センサ手段を用いて作業対象物の姿勢に対する正確な計測を行い得るセンサ位置姿勢計測方法を提供することにある。   An object of the present invention is to provide a sensor position / orientation measurement method that can solve the above-described problems and can accurately measure the attitude of a work object using main sensor means and auxiliary sensor means.

上記目的を達成するための本発明に係るセンサ位置姿勢計測方法は、作業対象物が存在し得る対象領域の画像情報を取得又は取得のための補助をする位置及び姿勢が定められた補助センサ手段と、前記作業対象物の少なくとも一部の画像情報又は位置姿勢情報を取得するため高精度に位置及び姿勢の移動指示が可能な主センサ移動手段を備えた主センサ手段とを備え、前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて作業対象物に対する作業を遂行するシステムにおいて、前記主センサ移動手段により前記主センサ手段を移動し、前記主センサ手段より得られた画像情報を用いて前記補助センサ手段の三次元位置及び姿勢を計測するように構成し、前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段により前記補助センサ手段の位置及び姿勢を計測することを特徴とする。   In order to achieve the above object, the sensor position and orientation measurement method according to the present invention obtains image information of a target area where a work object can exist or assist sensor means in which a position and orientation for assisting acquisition are determined. And a main sensor means comprising a main sensor moving means capable of instructing movement of the position and orientation with high accuracy in order to acquire at least part of image information or position and orientation information of the work object, and the auxiliary sensor Based on the image information acquired by the main sensor means and the main sensor means, the main sensor means determines the position and posture to be moved and / or the work content, and uses the image information obtained from the main sensor means to work. In a system for performing work on an object, the main sensor means is moved by the main sensor moving means, and the image information obtained from the main sensor means is used to It is configured to measure the three-dimensional position and orientation of the auxiliary sensor means, and prior to performing work on the work object, the position and orientation of the auxiliary sensor means are measured by the main sensor means. .

本発明に係るセンサ位置姿勢計測方法によれば、治具の工作精度、治具が固定されているフレーム等の支持体の剛性が求められたり、エンコーダやその値を受信するインタフェースが必要となるコストアップが抑えられる。   According to the sensor position / orientation measurement method of the present invention, the work accuracy of the jig and the rigidity of the support such as the frame to which the jig is fixed are required, and an encoder and an interface for receiving the value are required. Cost increase can be suppressed.

また、主センサは作業空間内を移動するので、作業対象によってランドマークが隠されてしまう状況が少ないという効果がある。また、作業環境内にランドマークを設置する必要がなく、ランドマークの設置が困難であるという状況を回避できる。   Further, since the main sensor moves in the work space, there is an effect that there are few situations where the landmark is hidden by the work object. In addition, it is not necessary to install a landmark in the work environment, and a situation where it is difficult to install the landmark can be avoided.

実施例1のセンサ位置姿勢計測方法のシステムの構成図である。It is a block diagram of the system of the sensor position and orientation measurement method of Example 1. コントローラの構成図である。It is a block diagram of a controller. 作業内容・位置姿勢対応表の例である。It is an example of a work content / position / posture correspondence table. アプリケーションコントローラの動作フローチャート図である。It is an operation | movement flowchart figure of an application controller. 三角測量の原理の説明図である。It is explanatory drawing of the principle of triangulation. 実施例2のシステムの構成図である。FIG. 6 is a configuration diagram of a system according to a second embodiment. コントローラの構成図である。It is a block diagram of a controller. コントローラの動作フローチャート図である。It is an operation | movement flowchart figure of a controller. 実施例3のシステムの構成図である。FIG. 10 is a configuration diagram of a system according to a third embodiment. システムの構成図である。It is a block diagram of a system. コントローラの構成図である。It is a block diagram of a controller. アプリケーションコントローラの動作フローチャート図である。It is an operation | movement flowchart figure of an application controller. 実施例4のコントローラの構成図である。FIG. 6 is a configuration diagram of a controller according to a fourth embodiment. コントローラの動作フローチャート図である。It is an operation | movement flowchart figure of a controller.

本発明を図示の実施例に基づいて詳細に説明する。   The present invention will be described in detail based on the embodiments shown in the drawings.

図1は本実施例のセンサ位置姿勢計測方法を適用した物体追跡撮像システムの構成図である。ロボット1には可動腕であるマニピュレータ2が設けられており、またマニピュレータ2の先端には主センサ手段であるオンハンドカメラ3と、作業内容に適した作業用工具4が取り付けられている。マニピュレータ2、オンハンドカメラ3、作業用工具4の動作は、アプリケーションコントローラ5によって制御可能とされている。なお、外観検査等の作業用工具が不要な作業のみを行う場合に、作業用工具4は省略してもよい。   FIG. 1 is a configuration diagram of an object tracking imaging system to which the sensor position / orientation measurement method of the present embodiment is applied. The robot 1 is provided with a manipulator 2 which is a movable arm, and an on-hand camera 3 which is a main sensor means and a work tool 4 suitable for work contents are attached to the tip of the manipulator 2. The operations of the manipulator 2, the on-hand camera 3, and the work tool 4 can be controlled by the application controller 5. Note that the work tool 4 may be omitted when only work that does not require work tools such as appearance inspection is performed.

コントローラ5には補助センサ手段であるグローバルカメラ6、グローバル照明手段7が接続されている。グローバルカメラ6は補助センサ移動手段である例えば直線状のレール8に沿って移動し、グローバル照明手段7は同様の補助センサ移動手段である例えば曲線状のレール9に沿って移動するようにされている。   Connected to the controller 5 are a global camera 6 and global illumination means 7 which are auxiliary sensor means. The global camera 6 moves along, for example, a linear rail 8 that is auxiliary sensor moving means, and the global illumination means 7 moves along, for example, a curved rail 9 that is similar auxiliary sensor moving means. Yes.

この場合の作業内容は、例えば山積みされている作業対象物Wを作業用工具4によって1つずつ摘み上げ、部品箱の所定の場所に整列するものである。この際に、山積みされている多くの作業対象物Wのうち、最も摘み上げ易いものを検出するために、グローバルカメラ6が撮像した画像情報の一部を用い、個々の作業対象物Wの精密な位置姿勢情報を得るためにロボット1のオンハンドカメラ3を用いる。   The work content in this case is, for example, picking up the work objects W piled up one by one with the work tool 4 and aligning them in a predetermined place of the parts box. At this time, in order to detect the most easily picked up among the many work objects W that are piled up, a part of the image information captured by the global camera 6 is used, and the precision of each work object W is determined. In order to obtain accurate position and orientation information, the on-hand camera 3 of the robot 1 is used.

このような構成では、例えばグローバルカメラ6は作業範囲全体が見渡せるように広範囲を撮像し、オンハンドカメラ3は作業対象物Wを作業用工具4によって確実に掴めるように、作業用工具4の付近の狭い対象領域を撮像する。   In such a configuration, for example, the global camera 6 images a wide range so that the entire work range can be seen, and the on-hand camera 3 is near the work tool 4 so that the work object W can be reliably grasped by the work tool 4. The narrow target area is imaged.

このように、両カメラ6、3は協調して作業を遂行してゆくが、これらの制御はコントローラ5によって行われる。各カメラ6、3が取得した画像から、摘み上げる作業対象物Wを特定し、作業対象物Wの位置姿勢を計測し、マニピュレータ2を移動し摘み上げる、といった制御の具体的内容は本発明の範囲外であるので詳細な説明は省略する。   As described above, the cameras 6 and 3 perform work in cooperation, but these controls are performed by the controller 5. The specific contents of the control of specifying the work object W to be picked up from the images acquired by the cameras 6 and 3, measuring the position and orientation of the work object W, and moving and picking up the manipulator 2 are described in the present invention. Since it is out of range, detailed description is omitted.

ここで重要なことは、作業対象物Wの位置姿勢は、グローバルカメラ6によって撮像した画像から算出したものと、オンハンドカメラ3によって撮像した画像から算出されたものとで、等しくなければならないということである。これにはオンハンドカメラ3の位置姿勢と、グローバルカメラ6の位置姿勢とが正確に分かっていることが必要十分条件である。   What is important here is that the position and orientation of the work object W must be equal between those calculated from the image captured by the global camera 6 and those calculated from the image captured by the on-hand camera 3. That is. This is a necessary and sufficient condition that the position and orientation of the on-hand camera 3 and the position and orientation of the global camera 6 are accurately known.

なお、グローバルカメラ6で山積みとなっている作業対象物Wの三次元形状を取得するために、スリット光やパターン光を投光するグローバル照明手段7を必要に応じて設置してもよい。この場合には、更にグローバル照明手段7の位置姿勢を正確に知る必要がある。   In addition, in order to acquire the three-dimensional shape of the work target W piled up with the global camera 6, you may install the global illumination means 7 which projects slit light and pattern light as needed. In this case, it is necessary to accurately know the position and orientation of the global illumination means 7.

作業内容によっては、グローバルカメラ6やグローバル照明手段7の最適な配置が異なる。例えば、摘み上げるべき作業対象物Wがばらばらに積み上げられているような状況では、個々の作業対象物Wの特徴的な頂点、エッジ等の個所が良く観測できるように、作業対象物Wの斜め上方にグローバルカメラ6を設置することが好ましい。また、作業対象物Wが整列されて山積みされている状況では、作業対象物Wを真横から撮影するような位置にグローバルカメラ6を設置すると、山の高さを認識し易い。このように、作業内容の変更に応じて、グローバルカメラ6やグローバル照明手段7を最適に配置することにより、作業対象物Wの認識精度が向上することが期待できる。   Depending on the work contents, the optimal arrangement of the global camera 6 and the global illumination means 7 differs. For example, in a situation where the work objects W to be picked up are piled apart, the work objects W are oblique so that the points such as the characteristic vertices and edges of the individual work objects W can be observed well. It is preferable to install the global camera 6 above. Further, in a situation where the work objects W are aligned and stacked, if the global camera 6 is installed at a position where the work objects W are photographed from the side, it is easy to recognize the height of the mountain. Thus, it can be expected that the recognition accuracy of the work object W is improved by optimally arranging the global camera 6 and the global illumination means 7 in accordance with the change of the work content.

グローバルカメラ6やグローバル照明手段7はそれぞれ1個に限られるものではなく、また位置姿勢の算出法も同様であるので、以降では特に断りがない限り、これらをまとめてグローバル機器と呼ぶ。補助センサ手段として機能するグローバル機器は一方又は双方を同時に使用してもよい。   The number of global cameras 6 and global illumination means 7 is not limited to one, and the position and orientation calculation method is the same. Therefore, these are collectively referred to as global devices unless otherwise specified. One or both of the global devices functioning as auxiliary sensor means may be used simultaneously.

主センサ手段であるオンハンドカメラ3の主センサ移動手段による位置姿勢は、設置時に計測可能である。何故なら、ロボット1が作業環境に対してどのように設置されているかさえ分かれば、ロボット1の基台に対するマニピュレータ2の位置姿勢は、コントローラ5により取得・制御可能である。更に、マニピュレータ2に対するオンハンドカメラ3の位置姿勢もマニピュレータ2にオンハンドカメラ3を固定する際に計測可能である。   The position and orientation of the on-hand camera 3 as the main sensor means by the main sensor moving means can be measured at the time of installation. This is because the position and orientation of the manipulator 2 relative to the base of the robot 1 can be acquired and controlled by the controller 5 as long as the robot 1 is installed in the working environment. Further, the position and orientation of the on-hand camera 3 relative to the manipulator 2 can also be measured when the on-hand camera 3 is fixed to the manipulator 2.

グローバル機器の位置姿勢を算出する測定原理は、本計測方法の範囲外であるが、例えば三角測量の原理を用いることができる。この場合に、グローバル機器上の異なる3点の三次元位置が計測できれば、グローバル機器の位置姿勢が算出できる。   The measurement principle for calculating the position and orientation of the global device is outside the scope of this measurement method, but for example, the principle of triangulation can be used. In this case, if the three-dimensional positions of three different points on the global device can be measured, the position and orientation of the global device can be calculated.

図2はコントローラ5の内部構成図である。コントローラ5内のグローバル機器位置姿勢算出部5aの出力は、マニピュレータ移動指示部5bを介してロボット1に接続されていると共に、作業遂行部5cに接続されている。また、グローバル機器位置姿勢算出部5aには外部の作業内容指示手段10の出力が接続され、またオンハンドカメラ3の出力がオンハンドカメラ画像取得部5dを介して接続されている。更に、グローバル機器位置姿勢算出部5aは図3に示す作業内容・位置姿勢対応表を有している。   FIG. 2 is an internal configuration diagram of the controller 5. The output of the global device position / orientation calculation unit 5a in the controller 5 is connected to the robot 1 via the manipulator movement instruction unit 5b and to the work execution unit 5c. Further, the output of the external work content instruction means 10 is connected to the global device position / orientation calculation unit 5a, and the output of the on-hand camera 3 is connected via the on-hand camera image acquisition unit 5d. Further, the global device position / orientation calculation unit 5a has a work content / position / orientation correspondence table shown in FIG.

図4は実施例1の動作フローチャート図であり、先ずグローバル機器として、グローバルカメラ6が1台だけの場合を考える。作業内容に応じてグローバルカメラ6を移動させた後に、作業内容を押しボタン等の作業内容指示手段10によって指示する。グローバル機器位置姿勢算出部5aは作業内容の指示を受信すると(ステップS11)、グローバルカメラ6を撮影するためのオンハンドカメラ3の位置姿勢1及び位置姿勢2を図3の作業内容・位置姿勢対応表を参照して求める(ステップS12)。   FIG. 4 is an operation flowchart of the first embodiment. First, consider a case where there is only one global camera 6 as a global device. After the global camera 6 is moved according to the work content, the work content is instructed by the work content instruction means 10 such as a push button. When the global device position / orientation calculation unit 5a receives the work content instruction (step S11), the position / orientation 1 and position / orientation 2 of the on-hand camera 3 for photographing the global camera 6 are associated with the work content / position / orientation shown in FIG. This is determined with reference to the table (step S12).

作業内容・位置姿勢対応表は作業内容に対応するグローバルカメラ6の位置姿勢1、及びそれを撮影するオンハンドカメラ3の位置姿勢2が記録されており、図3はその例を示している。なお、これらの位置姿勢1、2の決め方については後述する。   In the work content / position / orientation correspondence table, the position / orientation 1 of the global camera 6 corresponding to the work content and the position / orientation 2 of the on-hand camera 3 for photographing it are recorded, and FIG. 3 shows an example thereof. In addition, how to determine these positions and orientations 1 and 2 will be described later.

位置姿勢1、2を取得した後に、グローバル機器位置姿勢算出部5aはマニピュレータ移動指示部5bに対してオンハンドカメラ3を位置姿勢1に移動するような指示を行う(ステップS13)。マニピュレータ移動指示部5bはロボット1に対して指示された位置姿勢にオンハンドカメラ3を移動する。なお、本来はロボット1への移動指示はマニピュレータ2に対するものであるが、オンハンドカメラ3はマニピュレータ2に固定されているため、オンハンドカメラ3への移動指示は、マニピュレータ2への移動指示に1対1に変換できる。なお、以後は特に断りのない限り、オンハンドカメラ3への移動指示として説明する。   After obtaining the position and orientation 1 and 2, the global device position and orientation calculation unit 5a instructs the manipulator movement instruction unit 5b to move the on-hand camera 3 to the position and orientation 1 (step S13). The manipulator movement instruction unit 5b moves the on-hand camera 3 to the position and orientation instructed to the robot 1. Originally, the movement instruction to the robot 1 is for the manipulator 2, but the on-hand camera 3 is fixed to the manipulator 2, so the movement instruction to the on-hand camera 3 is the movement instruction to the manipulator 2. One-to-one conversion is possible. Hereinafter, unless otherwise specified, the description will be made as a movement instruction to the on-hand camera 3.

オンハンドカメラ3を位置姿勢1に移動させた後に、オンハンドカメラ3でグローバルカメラ6を画像1として撮影する(ステップS14)。同様に、オンハンドカメラ3を位置姿勢2に移動させ(ステップS15)、オンハンドカメラ3でグローバルカメラ6を画像2として撮影する(ステップS16)。画像1、2はオンハンドカメラ画像取得部5dを通してグローバル機器位置姿勢算出部5aに渡される。   After the on-hand camera 3 is moved to the position and orientation 1, the global camera 6 is photographed as the image 1 with the on-hand camera 3 (step S14). Similarly, the on-hand camera 3 is moved to the position and orientation 2 (step S15), and the global camera 6 is photographed as the image 2 with the on-hand camera 3 (step S16). The images 1 and 2 are transferred to the global device position and orientation calculation unit 5a through the on-hand camera image acquisition unit 5d.

グローバル機器位置姿勢算出部5aでは、三角測量の原理により画像1及び画像2から、グローバルカメラ6の位置姿勢を算出する(ステップS17)。なお、位置姿勢1と位置姿勢2は三角測量の原理における2個所の観測位置姿勢のことであり、計測点が撮像画像に含まれるような位置姿勢である。より具体的には、グローバルカメラ6上の異なる3点の全てが、画像1に含まれるようなオンハンドカメラ3の位置姿勢を位置姿勢1、画像2に含まれるような位置姿勢を位置姿勢2とする。   The global device position / orientation calculation unit 5a calculates the position / orientation of the global camera 6 from the image 1 and the image 2 based on the principle of triangulation (step S17). Note that the position and orientation 1 and the position and orientation 2 are two observation positions and orientations based on the principle of triangulation, and are positions and orientations in which the measurement points are included in the captured image. More specifically, the position and orientation of the on-hand camera 3 such that all three different points on the global camera 6 are included in the image 1 are the position and orientation 1, and the position and orientation that is included in the image 2 is the position and orientation 2. And

図5は三角測量による説明図である。位置姿勢1の位置をP1、位置姿勢2の位置をP2、グローバルカメラ6上の位置計測をしようとしている位置をP3とする。また、位置P1から位置P3を見る方向が位置姿勢1の姿勢、位置P2から位置P3を見る方向が位置姿勢2の姿勢である。図5は位置P1、P2、P3を通る平面における各点の関係を示し、位置P3を同定することは、距離L21及びL22を求めることと同値である。   FIG. 5 is an explanatory diagram based on triangulation. Assume that the position of the position and orientation 1 is P1, the position of the position and orientation 2 is P2, and the position on the global camera 6 where the position measurement is to be performed is P3. Further, the direction from the position P1 to the position P3 is the posture of the position / posture 1, and the direction from the position P2 to the position P3 is the posture of the position / posture 2. FIG. 5 shows the relationship between points on a plane passing through the positions P1, P2, and P3, and identifying the position P3 is equivalent to obtaining the distances L21 and L22.

先ず、位置P1及びP2から距離L1を算出し、また角度θ1は画像1から取得でき、角度θ2は画像2から取得できる。正弦定理を用いて、次のように距離L21及びL22が求められる。
L21=L1・(sinθ1・sinθ2)/sin(θ1+θ2)…(1)
L22=L1・(cosθ1・sinθ2)/sin(θ1+θ2)…(2)
First, the distance L1 is calculated from the positions P1 and P2, the angle θ1 can be acquired from the image 1, and the angle θ2 can be acquired from the image 2. Using the sine theorem, the distances L21 and L22 are obtained as follows.
L21 = L1 · (sin θ1 · sin θ2) / sin (θ1 + θ2) (1)
L22 = L1 · (cos θ1 · sin θ2) / sin (θ1 + θ2) (2)

グローバルカメラ6が或る程度離れているという仮定、つまり距離L21がL1に比べて或る程度大きければ、式(1)及び(2)から、安定して値を算出するには下記の条件1、2を満たすようにすればよい。   Assuming that the global camera 6 is some distance away, that is, if the distance L21 is somewhat larger than L1, the following condition 1 is used to stably calculate the value from the equations (1) and (2). 2 may be satisfied.

(条件1)距離L1を大きくする。
(条件2)角度θ1とθ2を近い値とする。
(Condition 1) The distance L1 is increased.
(Condition 2) The angles θ1 and θ2 are close to each other.

これらの2条件をなるべく満たすように、位置姿勢1、2を決定するが、位置姿勢1、2はグローバルカメラ6の概略の位置姿勢が定まれば決定が可能である。そのため、作業内容に応じて予めグローバルカメラ6の位置と対応する位置姿勢1、2を作業内容・位置姿勢対応表にしておくことができ、グローバル機器位置姿勢算出部5aはこれを参照して位置姿勢1、2を算出する。   The positions and orientations 1 and 2 are determined so as to satisfy these two conditions as much as possible. The positions and orientations 1 and 2 can be determined if the approximate position and orientation of the global camera 6 are determined. Therefore, the position / orientation 1 and 2 corresponding to the position of the global camera 6 can be made in advance in the work contents / position / orientation correspondence table according to the work contents, and the global device position / orientation calculation unit 5a refers to this to determine the position. Postures 1 and 2 are calculated.

作業内容・位置姿勢対応表の作業IDは、コントローラ5で処理を行い易くするために付された作業内容を区別する一意的な番号である。作業内容に応じたグローバルカメラ6の大まかな位置姿勢を予め計測しておき、その値を作業内容・位置姿勢対応表に書き込んである。また、その位置姿勢にあるグローバルカメラ6の位置姿勢を最も安定して計測できるように、条件1、2を満たす位置姿勢1、2を予め算出しておき、作業内容・位置姿勢対応表に書き込んである。なお、位置姿勢1、2は条件1、2を満たすように実行時に算出してもよく、その場合は作業内容・位置姿勢対応表に値を書き込んでおく必要はない。   The work ID in the work content / position / orientation correspondence table is a unique number for distinguishing the work content assigned to facilitate the processing by the controller 5. A rough position and orientation of the global camera 6 corresponding to the work content is measured in advance, and the value is written in the work content / position and orientation correspondence table. In addition, position and orientation 1 and 2 satisfying conditions 1 and 2 are calculated in advance and written in the work content / position and orientation correspondence table so that the position and orientation of the global camera 6 at that position and orientation can be measured most stably. It is. The positions and orientations 1 and 2 may be calculated at the time of execution so that the conditions 1 and 2 are satisfied. In this case, it is not necessary to write values in the work content / position and orientation correspondence table.

このようにして、グローバルカメラ6の位置姿勢が算出できるが、グローバル照明手段7を備える場合は、グローバル照明手段7用の作業内容・位置姿勢対応表を予め作成しておく。そして、グローバルカメラ6に対するものと同様の処理を、グローバル照明手段7に対しても行い、グローバル照明手段7の位置姿勢の算出も行う。   In this way, the position and orientation of the global camera 6 can be calculated, but when the global illumination unit 7 is provided, a work content / position and orientation correspondence table for the global illumination unit 7 is created in advance. Then, the same processing as that for the global camera 6 is also performed for the global illumination unit 7 and the position and orientation of the global illumination unit 7 are also calculated.

このように、全てのグローバル機器に対して作業内容・位置姿勢対応表を作成しておくことにより、全てのグローバル機器について位置姿勢を算出することができる。算出したグローバル機器の位置姿勢は作業遂行部5cに渡され、以降はグローバル機器とオンハンドカメラ3が協調しながら指示した作業を遂行してゆく。   Thus, by creating the work content / position / posture correspondence table for all global devices, the position / posture can be calculated for all global devices. The calculated position and orientation of the global device are transferred to the work execution unit 5c, and thereafter, the global device and the on-hand camera 3 perform the work instructed in cooperation.

また、算出したグローバル機器の位置姿勢の精度は、オンハンドカメラ3の位置姿勢の精度による。しかし、ロボット1から得られるマニピュレータ2の位置姿勢の値の精度が十分に高いと考えられる場合に、各グローバル機器に取り付けるエンコーダ等のハードウェアの追加なしに高精度な計測が可能となる。   Further, the accuracy of the calculated position and orientation of the global device depends on the accuracy of the position and orientation of the on-hand camera 3. However, when the accuracy of the position and orientation value of the manipulator 2 obtained from the robot 1 is considered to be sufficiently high, highly accurate measurement can be performed without adding hardware such as an encoder attached to each global device.

なお、グローバル機器はレール8、9のような移動に限られるものではなく、二次元或いは三次元上を動くようにしても支障はない。   The global device is not limited to the movement of the rails 8 and 9, and there is no problem even if it moves in two dimensions or three dimensions.

図6はグローバルカメラ6をレール8上で移動させたり、姿勢を変えたりするグローバルカメラ移動手段11、グローバル照明手段7をレール9上で移動させたり、姿勢を変えたりするグローバル照明移動手段12を備えたシステムの構成図である。また、以後、グローバルカメラ移動手段11、グローバル照明移動手段12についてはグローバル機器移動手段と呼ぶ。   FIG. 6 shows a global camera moving means 11 for moving the global camera 6 on the rail 8 and changing the attitude, and a global illumination moving means 12 for moving the global illumination means 7 on the rail 9 and changing the attitude. It is a block diagram of the system provided. Hereinafter, the global camera moving unit 11 and the global illumination moving unit 12 are referred to as a global device moving unit.

図7はコントローラ5の構成図であり、図2の構成図において、グローバル機器位置姿勢算出部5aの出力は、グローバル機器移動指示部5eを介してグローバル機器移動手段11、12に接続されている。   FIG. 7 is a block diagram of the controller 5. In the block diagram of FIG. 2, the output of the global device position / orientation calculation unit 5a is connected to the global device moving means 11 and 12 via the global device movement instruction unit 5e. .

図8は実施例2の動作フローチャート図である。作業内容の変更があった際に、作業開始に先立って作業内容指示手段10により、グローバル機器位置姿勢算出部5aに作業内容の変更が伝えられると(ステップS21)、全グローバル機器の位置姿勢の算出は完了しているかを判定する(ステップS22)。算出が完了していなければ、作業内容に適したグローバル機器の移動先位置姿勢を算出し(ステップS23)、更にグローバル機器を撮影するオンハンドカメラ3の撮影位置姿勢の位置姿勢1、位置姿勢2を算出する(ステップS24)。ここで、ステップS23やステップS24で算出する位置姿勢は、実施例1と同様に予め用意した作業内容・位置姿勢対応表を参照して導出する。   FIG. 8 is an operation flowchart of the second embodiment. When there is a change in the work content, if the change of the work content is transmitted to the global device position / orientation calculation unit 5a by the work content instruction means 10 prior to the start of the work (step S21), the position / orientation of all the global devices is changed. It is determined whether the calculation has been completed (step S22). If the calculation has not been completed, the destination position / posture of the global device suitable for the work content is calculated (step S23), and the position / posture 1 and the position / posture 2 of the shooting position / posture of the on-hand camera 3 that captures the global device are further calculated. Is calculated (step S24). Here, the position and orientation calculated in step S23 and step S24 are derived with reference to the work content / position and orientation correspondence table prepared in advance as in the first embodiment.

次いで、グローバル機器移動指示部5eに指示を出し、グローバル機器をステップS23で算出された移動先位置姿勢に移動する(ステップS25)。この後に、オンハンドカメラ3を用いてグローバル機器の位置姿勢を計測するが、この処理は図4のステップS13〜S17と同様である。以上のステップS23以降の処理を、全グローバル機器に対して行う。   Next, an instruction is issued to the global device movement instruction unit 5e, and the global device is moved to the movement destination position and orientation calculated in step S23 (step S25). Thereafter, the position and orientation of the global device are measured using the on-hand camera 3, and this process is the same as steps S13 to S17 in FIG. The processes from step S23 onward are performed for all global devices.

実施例2では、作業内容の変更は作業内容指示手段10によって指示を出していたが、作業内容識別部5fを設けることにより、人手を介さずにグローバル機器の位置姿勢を計測することも可能である。   In the second embodiment, the change of the work content is instructed by the work content instruction means 10, but by providing the work content identification unit 5f, it is also possible to measure the position and orientation of the global device without human intervention. is there.

図9及び図10は実施例3のシステムの構成図であり、作業対象物Wは作業パレット13内に入れられており、作業パレット13には作業内容を表す指標Iが付されている。図9では作業パレット13内に山積みに置かれているばらばらの作業対象物Wを1個ずつ摘み上げ、図示しない部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、作業対象物Wの頂点、エッジ等の画像特徴が良好に得られるように、グローバルカメラ6を水平よりも僅かに上方の斜め上方の角度からグローバル照明手段7を配置している。   FIGS. 9 and 10 are configuration diagrams of the system of the third embodiment. The work object W is placed in the work pallet 13 and the work pallet 13 is provided with an index I indicating the work content. In FIG. 9, it is assumed that the work contents are picked up one by one from the separate work objects W placed in a pile in the work pallet 13 and arranged in a predetermined place in a component box (not shown). In this case, the global illumination means 7 is arranged from an obliquely upward angle slightly above the horizontal so that the image features such as the vertex and edge of the work target W can be obtained satisfactorily.

図10においては、何本かのタワー状に積み上げられている円盤状の作業対象物Wを1個ずつ摘み上げ、不図示の部品箱の所定の場所に整列しておくという作業内容を想定している。この場合に、積み上げられた作業対象物Wの高さが良く分かるように、グローバルカメラ6は作業対象物Wをほぼ真横から観測できる位置に、グローバル照明手段7は稍々上方に配置されている。   In FIG. 10, it is assumed that the work contents are picked up one by one from a plurality of disk-shaped work objects W stacked in a tower shape and arranged in a predetermined place in a component box (not shown). ing. In this case, the global illumination means 7 is often disposed above the global camera 6 at a position where the work object W can be observed almost directly from the side so that the height of the stacked work objects W can be clearly understood. .

なお、ここでは2つの作業内容を例として挙げたが、2つである必要はなく、更に多くの作業内容を想定してもよい。また、作業内容は例示したものでなくとも支障はない。作業内容により最適なグローバル機器の配置が異なる状況があり、本実施例はそれに対処できることを示すために例として挙げたものである。   In addition, although two work content was mentioned here as an example, it is not necessary to be two, and more work content may be assumed. Further, there is no problem even if the work contents are not illustrated. There are situations in which the optimal global device arrangement differs depending on the work content, and this example is given as an example to show that it can be dealt with.

図11は本実施例が適用されるコントローラ5の構成図である。オンハンドカメラ画像取得部5dからの出力を受け、グローバル機器位置姿勢算出部5a、マニピュレータ移動指示部5bに出力する作業内容識別部5fが設けられている。   FIG. 11 is a block diagram of the controller 5 to which this embodiment is applied. A work content identification unit 5f that receives the output from the on-hand camera image acquisition unit 5d and outputs the output to the global device position and orientation calculation unit 5a and the manipulator movement instruction unit 5b is provided.

図12は実施例3の動作フローチャート図であり、図8と比べて作業内容変更指示を受信するステップS21の代りに、ステップS31〜S33を処理する。これは作業内容識別部5fによって行われ、作業内容の識別を行う部分であり、
先ず、オンハンドカメラ3が指標Iが良く観察できる位置に移動するように、マニピュレータ移動指示部5bに対して指示を出力する(ステップS31)。作業パレット13や指標Iの位置を全作業で共通化しておけば、この位置は既知のものとなる。指標Iは作業内容を表し、例えばバーコードを用いることにより、作業内容をコード化することができる。
FIG. 12 is an operation flowchart of the third embodiment. Steps S31 to S33 are processed instead of step S21 for receiving a work content change instruction as compared with FIG. This is performed by the work content identification unit 5f and identifies the work content.
First, an instruction is output to the manipulator movement instruction unit 5b so that the on-hand camera 3 moves to a position where the index I can be observed well (step S31). If the positions of the work pallet 13 and the index I are made common to all work, this position becomes known. The index I represents the work content. For example, the work content can be coded by using a barcode.

次に、オンハンドカメラ画像取得部5dを通してオンハンドカメラ3が撮像した指標Iの画像を取得し(ステップS32)、作業内容識別部5fはこの画像を基に作業内容を識別する(ステップS33)。バーコードを撮像した画像からコード内容を認識する処理は一般的な技術であり、本発明の範囲外であるのでその説明は省略する。識別した作業内容は、グローバル機器位置姿勢算出部5aに送られ、実施例2と同様の処理が行われる。   Next, an image of the index I captured by the on-hand camera 3 is acquired through the on-hand camera image acquisition unit 5d (step S32), and the work content identification unit 5f identifies the work content based on this image (step S33). . The process of recognizing the code contents from the image obtained by capturing the bar code is a general technique and is out of the scope of the present invention, so the description thereof is omitted. The identified work content is sent to the global device position / orientation calculation unit 5a, and the same processing as in the second embodiment is performed.

なお、指標Iの識別を行うために、オンハンドカメラ3から得られる画像を用いたが、専用のカメラやバーコードスキャナを用いてもよい。また、指標Iはバーコードに限られるものではなく、RFID等を用いてもよい。更に、指標Iは作業パレット13に標示されているが、作業内容と同期していれば作業パレット13に標示しなくともよい。例えば、ベルトコンベアによって作業対象物Wが流れてくる場合に、指標Iの後に対応する作業対象物Wを流すようにしてもよい。   In order to identify the index I, an image obtained from the on-hand camera 3 is used. However, a dedicated camera or a barcode scanner may be used. In addition, the index I is not limited to the barcode, and an RFID or the like may be used. Furthermore, although the index I is marked on the work pallet 13, it may not be marked on the work pallet 13 if it is synchronized with the work content. For example, when the work object W flows by the belt conveyor, the corresponding work object W may be made to flow after the index I.

図13は実施例4のコントローラ5の構成図である。外部のグローバル機器6、7の出力はグローバル機器情報取得部5gをグローバル機器特徴抽出部5hを介してグローバル機器微小移動指示生成部5iに接続されている。また、グローバル機器微小移動指示生成部5iの出力はグローバル機器移動指示部5eに接続され、更に作業内容識別部5fの出力が接続されている。   FIG. 13 is a configuration diagram of the controller 5 according to the fourth embodiment. The outputs of the external global devices 6 and 7 are connected to the global device minute movement instruction generating unit 5i via the global device information extracting unit 5h through the global device information acquiring unit 5g. Further, the output of the global device movement instruction generation unit 5i is connected to the global device movement instruction unit 5e, and the output of the work content identification unit 5f is further connected.

実施例3では、グローバルカメラ6、グローバル照明手段7を移動した後に、その位置姿勢を計測しているが、作業遂行に当っては、より高い品質の情報が得られる位置にグローバル機器を設置した方が好ましい。より高い品質とは、例えば山積みされた作業対象物Wを撮像した画像から頂点特徴を抽出し、それを基にして、作業対象物Wの位置姿勢等の作業に必要な情報を取得する。例えば、頂点特徴がより確実に取得できるように、「明度のコントラストが高い」や、「作業対象物W以外の物体や照明が撮像画像内に存在しない」、また「作業対象物W自体が他の物体によって隠されない」ようにする。   In the third embodiment, after the global camera 6 and the global illumination means 7 are moved, the position and orientation of the global camera 6 are measured. However, in performing the work, a global device is installed at a position where higher quality information can be obtained. Is preferred. With higher quality, for example, vertex features are extracted from an image obtained by picking up piled work objects W, and information necessary for work such as the position and orientation of the work object W is acquired based on the extracted vertex features. For example, in order to obtain the vertex feature more reliably, “the brightness contrast is high”, “no object or illumination other than the work object W exists in the captured image”, or “the work object W itself is other Not be hidden by other objects. "

実際に頂点特徴を検出した上で、得られた頂点特徴の個数が多いものほど高品質であるとしてもよい。このような高い品質の情報が得られるグローバル機器の配置は、個々のケースにおいて作業対象物Wの配置状況や、システムが動作している環境によって多少変化する。   After actually detecting vertex features, the higher the number of obtained vertex features, the higher the quality may be. The arrangement of global devices that can obtain such high-quality information varies somewhat depending on the arrangement of work objects W and the environment in which the system is operating in each case.

そこで、先ずグローバル機器を作業内容・位置姿勢対応表を参照して得られる作業内容に適した位置に移動した後に、グローバル機器の位置姿勢を微小量移動させながら、最も高い品質の出力が得られる位置姿勢で停止させる。その後に、グローバル機器の位置姿勢を計測する。   Therefore, after moving the global device to a position suitable for the work content obtained by referring to the work content / position / orientation correspondence table, the highest quality output can be obtained while moving the position / posture of the global device by a small amount. Stop at position and orientation. After that, the position and orientation of the global device are measured.

図14は実施例4の動作フローチャート図である。最初にグローバル機器を移動させると、ステップS31〜S25までは図12と同様であり、その次から説明する。先ず、全てのグローバル機器を作業内容に適した位置姿勢に移動させる。そして、各グローバル機器について以下の処理を行う。   FIG. 14 is an operation flowchart of the fourth embodiment. When the global device is moved first, steps S31 to S25 are the same as in FIG. 12, and will be described next. First, all global devices are moved to positions and orientations suitable for the work content. Then, the following processing is performed for each global device.

前記グローバル機器の位置姿勢を算出したかを判断する(ステップS41)。算出が完了していなければ、グローバル機器情報取得部5gでグローバル機器に対応したグローバル機器から情報を得る(ステップS42)。例えば、設置調整対象のグローバル機器がグローバルカメラ6であれば、グローバルカメラ6から画像を取得する。また投光器の場合には、投光器に対応したグローバルカメラ6から画像を取得する。   It is determined whether the position and orientation of the global device have been calculated (step S41). If the calculation is not completed, the global device information acquisition unit 5g obtains information from the global device corresponding to the global device (step S42). For example, if the global device targeted for installation adjustment is the global camera 6, an image is acquired from the global camera 6. In the case of a projector, an image is acquired from the global camera 6 corresponding to the projector.

得られた情報からグローバル機器特徴抽出部5hによって特徴抽出を行う(ステップS43)。この特徴は前述したように作業内容によって異なるが、例えば得られた画像から頂点特徴を抽出しその個数を数える。ここで得られた特徴が高品質のものであると判断できた場合は(ステップS44)、図4のステップS13〜S17の処理と同様にグローバル機器の位置姿勢を計測する。   Feature extraction is performed by the global device feature extraction unit 5h from the obtained information (step S43). As described above, this feature differs depending on the work content. For example, vertex features are extracted from the obtained image and the number of the features is counted. If it can be determined that the obtained feature is of high quality (step S44), the position and orientation of the global device are measured in the same manner as in steps S13 to S17 of FIG.

もし高品質のものではない場合は、現在のグローバル機器の位置姿勢を中心として微小移動を行うように、グローバル機器微小移動指示生成部5iで微小移動指示を生成し(ステップS45)、グローバル機器を移動させる(ステップS46)。   If it is not of high quality, the global device minute movement instruction generation unit 5i generates a minute movement instruction so that the minute movement is performed around the current position and orientation of the global device (step S45). Move (step S46).

グローバル機器から得られた特徴が高品質のものかどうかは、抽出された頂点特徴の個数がグローバル機器の位置姿勢を微小移動させた範囲内で、極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。また、特徴としてグローバルカメラ6から得られた撮像画像の明度コントラストを用いることもできる。この場合は、グローバル機器の位置姿勢を微小移動させた範囲内で明度コントラストが極大(又は最大)となる位置姿勢を最高品質が得られる位置姿勢とすればよい。   Whether or not the features obtained from the global device are of high quality, the position and orientation that is the maximum (or maximum) within the range in which the number of extracted vertex features is slightly moved from the position and orientation of the global device is the highest quality. The position and orientation can be obtained. Moreover, the brightness contrast of the captured image obtained from the global camera 6 can also be used as a feature. In this case, the position and orientation at which the brightness contrast is maximized (or maximum) within the range in which the position and orientation of the global device are finely moved may be set as the position and orientation that provides the highest quality.

更に、これらの特徴を複合的に用いて品質評価を行ってもよい。複合評価の手法は本実施例の範囲外であるが、例えば各特徴からスコアを出し、それらの重み付き平均を求める。重み付き平均の値がグローバル機器の位置姿勢を微小移動させた範囲内で極大(又は最大)となる位置姿勢を、最高品質が得られる位置姿勢とすればよい。   Furthermore, quality evaluation may be performed using these characteristics in combination. The composite evaluation method is out of the scope of the present embodiment. For example, a score is obtained from each feature, and a weighted average thereof is obtained. The position / posture in which the weighted average value becomes the maximum (or maximum) within the range in which the position / posture of the global device is slightly moved may be set as the position / posture with which the highest quality is obtained.

グローバル機器を微小量移動させた場合は、ステップS42からの処理を繰り返す。このような処理により、各グローバル機器を作業内容により適した位置姿勢にした上で、位置姿勢の計測を行うことができる。   When the global device is moved by a minute amount, the processing from step S42 is repeated. With such processing, the position and orientation can be measured after each global device is brought into a position and orientation that is more suitable for the work content.

本発明は位置姿勢計測手法に関し、特に作業空間内に設置され作業中は固定されている視覚補助装置と、ロボットのマニピュレータに取り付けられたカメラの両者を用いて、作業を遂行してゆくロボットシステムに用いると好適である。また、主センサはカメラ、補助センサはカメラ、照明手段、を用いたが、他の例えば物体検知センサであってもよい。   The present invention relates to a position / orientation measurement method, and in particular, a robot system that performs work using both a visual assistance device installed in a work space and fixed during work and a camera attached to a robot manipulator. It is suitable for use in. Further, although the camera is used as the main sensor and the camera and illumination means are used as the auxiliary sensor, other object detection sensors, for example, may be used.

1 ロボット
2 マニピュレータ
3 オンハンドカメラ
4 作業用工具
5 アプリケーションコントローラ
5a グローバル機器位置姿勢算出部
5b マニピュレータ移動指示部
5c 作業遂行部
5d オンハンドカメラ画像取得部
5e グローバル機器移動指示部
5f 作業内容識別部
5g グローバル機器情報取得部
5h グローバル機器特徴抽出部
5i グローバル機器微小移動指示生成部
6 グローバルカメラ
7 グローバル照明手段
8、9 レール
10 作業内容指示手段
11 グローバルカメラ移動手段
12 グローバル照明移動手段
W 作業対象物
DESCRIPTION OF SYMBOLS 1 Robot 2 Manipulator 3 On-hand camera 4 Work tool 5 Application controller 5a Global apparatus position and orientation calculation part 5b Manipulator movement instruction part 5c Work execution part 5d On-hand camera image acquisition part 5e Global apparatus movement instruction part 5f Work content identification part 5g Global device information acquisition unit 5h Global device feature extraction unit 5i Global device minute movement instruction generation unit 6 Global camera 7 Global illumination means 8, 9 Rail 10 Work content instruction means 11 Global camera movement means 12 Global illumination movement means W Work object

Claims (5)

作業対象物が存在し得る対象領域の画像情報を取得又は取得のための補助をする位置及び姿勢が定められた補助センサ手段と、前記作業対象物の少なくとも一部の画像情報又は位置姿勢情報を取得するため高精度に位置及び姿勢の移動指示が可能な主センサ移動手段を備えた主センサ手段とを備え、前記補助センサ手段及び前記主センサ手段によって取得した画像情報を基に、前記主センサ手段が移動すべき位置及び姿勢又は作業内容又はその双方を決定し、前記主センサ手段より得られた画像情報を用いて作業対象物に対する作業を遂行するシステムにおいて、前記主センサ移動手段により前記主センサ手段を移動し、前記主センサ手段より得られた画像情報を用いて前記補助センサ手段の三次元位置及び姿勢を計測するように構成し、前記作業対象物に対する作業を行うことに先立ち、前記主センサ手段により前記補助センサ手段の位置及び姿勢を計測することを特徴とするセンサ位置姿勢計測方法。   Auxiliary sensor means in which a position and posture for assisting acquisition or acquisition of image information of a target area where a work target can exist, and image information or position / posture information of at least a part of the work target are obtained. Main sensor means including main sensor moving means capable of instructing movement of the position and orientation with high accuracy for acquisition, and based on the image information acquired by the auxiliary sensor means and the main sensor means, the main sensor In the system for determining the position and posture to be moved and / or the work content or both, and performing the work on the work object using the image information obtained from the main sensor means, the main sensor moving means causes the main sensor moving means to perform the work. The sensor means is moved and configured to measure the three-dimensional position and orientation of the auxiliary sensor means using image information obtained from the main sensor means. Prior to performing the work for the workpiece, the sensor position and orientation measurement method characterized by measuring the position and orientation of the auxiliary sensor means by said main sensor unit. 前記補助センサ手段は投光手段及び撮像手段の何れか一方、又は双方を含み、前記主センサ手段は前記投光手段及び撮像手段の位置及び姿勢を計測することを特徴とする請求項1に記載のセンサ位置姿勢計測方法。   2. The auxiliary sensor unit includes one or both of a light projecting unit and an image capturing unit, and the main sensor unit measures the position and orientation of the light projecting unit and the image capturing unit. Sensor position and orientation measurement method. 前記補助センサ手段は補助センサ移動手段により、位置及び姿勢の何れか一方又は双方を移動できるように構成し、前記作業対象物に対する作業を行うのに先立ち、前記補助センサ手段は前記補助センサ移動手段により前記作業に適した予め定められた位置及び姿勢に移動した後に、前記補助センサ手段の位置及び姿勢を計測することを特徴とする請求項1又は2に記載のセンサ位置姿勢計測方法。   The auxiliary sensor means is configured to be able to move either or both of the position and the posture by the auxiliary sensor moving means, and prior to performing the work on the work object, the auxiliary sensor means is the auxiliary sensor moving means. 3. The sensor position / orientation measurement method according to claim 1 or 2, wherein the position and orientation of the auxiliary sensor means are measured after moving to a predetermined position and orientation suitable for the work. 作業内容識別手段を備え、作業内容が変更された際に前記作業内容識別手段により前記作業内容を識別し、前記識別した作業内容を遂行するために適した前記補助センサ手段の位置及び姿勢を算出し、前記補助センサ移動手段により前記補助センサ手段で算出した位置及び姿勢に移動した後に、前記補助センサ手段の位置及び姿勢を計測することを特徴とする請求項3に記載のセンサ位置姿勢計測方法。   A work content identification unit is provided, and when the work content is changed, the work content is identified by the work content identification unit, and the position and orientation of the auxiliary sensor unit suitable for performing the identified work content are calculated. 4. The sensor position and orientation measuring method according to claim 3, wherein the position and orientation of the auxiliary sensor means are measured after the auxiliary sensor moving means has moved to the position and orientation calculated by the auxiliary sensor means. . 前記補助センサ手段を前記算出した位置及び姿勢に移動した後に、前記補助センサ手段による出力の精度を高めるために、前記補助センサ移動手段により前記補助センサ手段を更に微小量移動させ、前記補助センサ手段の位置及び姿勢を計測することを特徴とする請求項3又は4に記載のセンサ位置姿勢計測方法。   After the auxiliary sensor means is moved to the calculated position and posture, the auxiliary sensor means is further moved by a minute amount by the auxiliary sensor moving means in order to increase the accuracy of the output by the auxiliary sensor means, and the auxiliary sensor means 5. The sensor position and orientation measurement method according to claim 3, wherein the position and orientation of the sensor are measured.
JP2009292367A 2009-12-24 2009-12-24 Sensor position and orientation measurement method Active JP5725708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009292367A JP5725708B2 (en) 2009-12-24 2009-12-24 Sensor position and orientation measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009292367A JP5725708B2 (en) 2009-12-24 2009-12-24 Sensor position and orientation measurement method

Publications (2)

Publication Number Publication Date
JP2011133313A true JP2011133313A (en) 2011-07-07
JP5725708B2 JP5725708B2 (en) 2015-05-27

Family

ID=44346213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009292367A Active JP5725708B2 (en) 2009-12-24 2009-12-24 Sensor position and orientation measurement method

Country Status (1)

Country Link
JP (1) JP5725708B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103085076A (en) * 2011-11-08 2013-05-08 发那科株式会社 Device and method for recognizing three-dimensional position and orientation of article
JP2013186088A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing device and information processing method
JP2014046433A (en) * 2012-09-03 2014-03-17 Canon Inc Information processing system, method, and program
CN104019743A (en) * 2014-06-06 2014-09-03 清华大学深圳研究生院 Mechanical arm pose precision testing system
WO2015024579A1 (en) * 2013-08-19 2015-02-26 Abb Technology Ltd Robot manipulated viewpoint
JP2015172575A (en) * 2014-03-05 2015-10-01 タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド programmable digital machine vision inspection system
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
CN107478205A (en) * 2017-09-01 2017-12-15 西北工业大学 Aero-engine high accuracy assembly quality detector device people's system
JP2018202608A (en) * 2018-09-28 2018-12-27 キヤノン株式会社 Robot device, control method of robot device, program, and recording medium
CN109328126A (en) * 2016-07-06 2019-02-12 株式会社富士 Filming apparatus and camera system
EP3470182A3 (en) * 2017-10-11 2019-05-15 Seiko Epson Corporation Robot system
WO2020138345A1 (en) * 2018-12-27 2020-07-02 日本電気通信システム株式会社 Article position management device, article position management system, article position management method, and program
CN112907513A (en) * 2021-01-18 2021-06-04 东莞市三姆森光电科技有限公司 Image position stamp system in industrial visual detection and generation method thereof
CN114390963A (en) * 2019-09-06 2022-04-22 罗伯特·博世有限公司 Calibration method and device for industrial robot, three-dimensional environment modeling method and device, computer storage medium and industrial robot operating platform

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02276725A (en) * 1989-04-13 1990-11-13 Toshiba Corp Instruction for robot
JP2008087074A (en) * 2006-09-29 2008-04-17 Fanuc Ltd Workpiece picking apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02276725A (en) * 1989-04-13 1990-11-13 Toshiba Corp Instruction for robot
JP2008087074A (en) * 2006-09-29 2008-04-17 Fanuc Ltd Workpiece picking apparatus

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103085076A (en) * 2011-11-08 2013-05-08 发那科株式会社 Device and method for recognizing three-dimensional position and orientation of article
JP2013101045A (en) * 2011-11-08 2013-05-23 Fanuc Ltd Recognition device and recognition method of three-dimensional position posture of article
US8929608B2 (en) 2011-11-08 2015-01-06 Fanuc Corporation Device and method for recognizing three-dimensional position and orientation of article
JP2013186088A (en) * 2012-03-09 2013-09-19 Canon Inc Information processing device and information processing method
JP2014046433A (en) * 2012-09-03 2014-03-17 Canon Inc Information processing system, method, and program
WO2015024579A1 (en) * 2013-08-19 2015-02-26 Abb Technology Ltd Robot manipulated viewpoint
JP2015172575A (en) * 2014-03-05 2015-10-01 タイコ エレクトロニクス (シャンハイ) カンパニー リミテッド programmable digital machine vision inspection system
CN104019743A (en) * 2014-06-06 2014-09-03 清华大学深圳研究生院 Mechanical arm pose precision testing system
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
CN109328126B (en) * 2016-07-06 2022-06-07 株式会社富士 Imaging device and imaging system
CN109328126A (en) * 2016-07-06 2019-02-12 株式会社富士 Filming apparatus and camera system
CN107478205A (en) * 2017-09-01 2017-12-15 西北工业大学 Aero-engine high accuracy assembly quality detector device people's system
US11090810B2 (en) 2017-10-11 2021-08-17 Seiko Epson Corporation Robot system
EP3470182A3 (en) * 2017-10-11 2019-05-15 Seiko Epson Corporation Robot system
JP2018202608A (en) * 2018-09-28 2018-12-27 キヤノン株式会社 Robot device, control method of robot device, program, and recording medium
WO2020138345A1 (en) * 2018-12-27 2020-07-02 日本電気通信システム株式会社 Article position management device, article position management system, article position management method, and program
JPWO2020138345A1 (en) * 2018-12-27 2021-11-04 日本電気通信システム株式会社 Article position management device, article position management system, article position management method and program
JP7529266B2 (en) 2018-12-27 2024-08-06 日本電気通信システム株式会社 Item position management device, item position management system, item position management method and program
US12080027B2 (en) 2018-12-27 2024-09-03 Nec Communication Systems, Ltd. Article position managing apparatus, article position management system, article position managing method, and program
CN114390963A (en) * 2019-09-06 2022-04-22 罗伯特·博世有限公司 Calibration method and device for industrial robot, three-dimensional environment modeling method and device, computer storage medium and industrial robot operating platform
CN112907513A (en) * 2021-01-18 2021-06-04 东莞市三姆森光电科技有限公司 Image position stamp system in industrial visual detection and generation method thereof
CN112907513B (en) * 2021-01-18 2023-06-27 广东三姆森科技股份有限公司 Image position stamping system in industrial vision detection and generation method thereof

Also Published As

Publication number Publication date
JP5725708B2 (en) 2015-05-27

Similar Documents

Publication Publication Date Title
JP5725708B2 (en) Sensor position and orientation measurement method
EP2916189B1 (en) Quality assured manufacturing
US11565427B2 (en) Robot system
US10675759B2 (en) Interference region setting apparatus for mobile robot
EP2636493B1 (en) Information processing apparatus and information processing method
US20050273199A1 (en) Robot system
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
EP2543483A1 (en) Information processing apparatus and information processing method
JP2018176334A (en) Information processing device, measurement device, system, interference determination method and article manufacturing method
US10704891B2 (en) Method and apparatus for determining the 3D coordinates of an object
JP7359633B2 (en) robot system
JP2008168372A (en) Robot device and shape recognition method
KR100933024B1 (en) Absence location information recognition device and method
KR101972432B1 (en) A laser-vision sensor and calibration method thereof
JP7502003B2 (en) Apparatus and method for acquiring deviation of moving trajectory of moving machine
JP2014149182A (en) Method of positioning relative to workpiece
CN113302027B (en) Job coordinate generating device
JP2019113348A (en) Object inspection system and object inspection method
CN113196165A (en) Information projection system, control device, and information projection method
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
US8717579B2 (en) Distance measuring device using a method of spanning separately targeted endpoints
JP2019078569A (en) Position recognition method, position recognition device, moving body for reference point installation, moving body for work, and position recognition system
JP2018067170A (en) Production management system and production management method
WO2022124232A1 (en) Image processing system and image processing method
JP2010214546A (en) Device and method for assembling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R151 Written notification of patent or utility model registration

Ref document number: 5725708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151