JP2003136465A - Three-dimensional position and posture decision method of detection target object and visual sensor of robot - Google Patents

Three-dimensional position and posture decision method of detection target object and visual sensor of robot

Info

Publication number
JP2003136465A
JP2003136465A JP2001340998A JP2001340998A JP2003136465A JP 2003136465 A JP2003136465 A JP 2003136465A JP 2001340998 A JP2001340998 A JP 2001340998A JP 2001340998 A JP2001340998 A JP 2001340998A JP 2003136465 A JP2003136465 A JP 2003136465A
Authority
JP
Japan
Prior art keywords
detection target
dimensional
camera
image
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001340998A
Other languages
Japanese (ja)
Inventor
Keiichi Takaoka
佳市 高岡
Toshimitsu Irie
俊充 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2001340998A priority Critical patent/JP2003136465A/en
Priority to PCT/JP2002/011533 priority patent/WO2003039820A1/en
Publication of JP2003136465A publication Critical patent/JP2003136465A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate needs to develop a detection algorithm for each target object when calculating a three-dimensional position and a posture 3 of the target object. SOLUTION: In a target object, a distinctive part of relatively simple shape, such as a cylinder, is captured and its central axis is determined by a three- dimension sensor. A camera mounted on a wrist of a manipulator is guided on the central axis to pickup a two-dimensional image of the target object. The target object in this two-dimensional image is compared with a model to detect the rotation angle, and the three-dimensional position of the detection target object is calculated from the rotation angle and an operation information of the manipulator.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、産業用ロボットを
用いた自動化システムにおいて検出対象物の位置と姿勢
を決定する技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for determining the position and orientation of a detection target in an automation system using an industrial robot.

【0002】[0002]

【従来の技術】従来の産業用ロボットにおける作業対象
物の位置や姿勢の認識に使用する視覚センサは、CCD
カメラで得た画像を処理する2次元画像処理装置を用い
ることが多い。しかし単一のCCDカメラを用いた2次
元画像処理では、バラ積みしたワークのピッキング(ビ
ンピッキング)を実現しようとした際は、対象物同士の
重なりなどによる傾きにより、対象物のカメラ画像上の
見え方が変化するため、2次元画像モデルを探索する方
式の2次元画像処理だけでは対応に限界があった。この
ビンピッキングを実現するため国際特許公報WO97−
2426では、CCDカメラとレーザセンサを組み合わ
せた複合センサロボットシステムが記載されている。以
下、簡単に図面を用いて説明する。
2. Description of the Related Art A conventional visual sensor used for recognizing the position and orientation of a work object in an industrial robot is a CCD.
A two-dimensional image processing device that processes an image obtained by a camera is often used. However, in two-dimensional image processing using a single CCD camera, when trying to realize picking (bin picking) of workpieces that are piled up in bulk, tilting due to overlapping of objects causes Since the appearance changes, there is a limit to the correspondence only with the two-dimensional image processing of the method of searching the two-dimensional image model. In order to realize this bin picking, International Patent Publication WO97-
2426 describes a multi-sensor robot system that combines a CCD camera and a laser sensor. Hereinafter, a brief description will be given with reference to the drawings.

【0003】図8はこの従来技術を説明する図である。
このシステムは相対的に広範囲の領域831内の2次元
画像を取得する能力を有する第1のセンサ手段830お
よび相対的に狭範囲811の領域に光を投射して3次元
的な位置測定を行う能力(レーザ発光部812より照射
し、受光部813にて受光し測定を行う)を有する第2
のセンサ手段810とを装備した複合センサとロボット
を結合したシステムである。
FIG. 8 is a diagram for explaining this conventional technique.
This system projects three-dimensional position measurement by projecting light onto a first sensor means 830 having the ability to acquire a two-dimensional image in a relatively wide area 831 and an area of a relatively narrow area 811. Second having capability (irradiation from the laser emission unit 812 and reception by the light reception unit 813 for measurement)
This system is a system in which a robot is combined with a composite sensor equipped with the sensor means 810 of FIG.

【0004】また、このシステムは第1のセンサ手段8
30のための動作指令を出力する手段(図では固定カメ
ラであるのでこの手段は示されていない)と、第2のセ
ンサ手段810のための動作指令を出力する手段と、第
1のセンサ手段830により取得された画像信号を処理
する手段(画像処理装置802)と、第2のセンサ手段
810の計測出力信号を処理する手段(レーザセンサ制
御部820)と、ロボット840を制御するロボット制
御手段(ロボットコントローラ801)を備えている。
第1のセンサ手段830によって取得された画像信号の
処理(画像処理装置802内の処理)には、相対的に広
範囲の領域の中で作業台18上の計測対象物Wの位置を
特定するための処理が含まれており、ロボット制御手段
(ロボットコントローラ801)は、計測対象物の特定
された位置に基づいて、ロボットに計測対象物に対する
アプローチ動作を行わせる手段を備えている。第2のセ
ンサ手段810の計測出力信号の処理には、第2のセン
サ手段810がアプローチ動作によってアプローチ位置
へ移動した後に出力される計測出力信号の処理(レーザ
センサ制御部820)が含まれている。
This system also includes a first sensor means 8
Means for outputting an operation command for 30 (this means is not shown because it is a fixed camera in the figure), means for outputting an operation command for the second sensor means 810, and first sensor means Means for processing the image signal acquired by 830 (image processing device 802), means for processing the measurement output signal of the second sensor means 810 (laser sensor control unit 820), and robot control means for controlling the robot 840. (Robot controller 801).
The processing of the image signal acquired by the first sensor means 830 (processing in the image processing device 802) is performed in order to specify the position of the measuring object W on the work table 18 within a relatively wide area. The robot control means (robot controller 801) includes means for causing the robot to perform an approach operation on the measurement target object based on the specified position of the measurement target object. The processing of the measurement output signal of the second sensor unit 810 includes the processing of the measurement output signal (laser sensor control unit 820) output after the second sensor unit 810 moves to the approach position by the approach operation. There is.

【0005】要するに、この従来技術によれば、第1の
2次元視覚センサにより大まかな対象物の位置を見て、
そこで得た対象物の位置情報より、第2の3次元センサ
を適切な位置へロボットで誘導する。これにより、対象
物の位置や姿勢が未知であっても、ロボットを迅速に対
象物にアプローチさせレーザセンサなどの3次元位置測
定能力を有するセンサ手段による計測を開始することが
できる。このことはロボットを用いた各種作業の信頼性
向上とサイクルタイム短縮につながる。
In short, according to this conventional technique, the first two-dimensional visual sensor is used to see the rough position of the object,
The robot guides the second three-dimensional sensor to an appropriate position based on the obtained position information of the object. As a result, even if the position or orientation of the target object is unknown, the robot can quickly approach the target object and start the measurement by the sensor means having a three-dimensional position measuring capability such as a laser sensor. This leads to improved reliability of various work using robots and shortened cycle time.

【0006】また、特開平7−136959号公報も2
次元視覚センサと3次元視覚センサとを組み合わせた別
の従来技術を示している。図9を参照してこの従来技術
を説明する。入力画像特徴抽出部920は、固定カメラ
910で撮像した対象物体の2次元画像を入力し、特徴
線分および特徴点を抽出する。画像・物体対応付け部9
40は、抽出された特徴線分および特徴点と物体モデル
記述格納部930に予め用意された物体モデルの線分記
述および点記述の特徴との各対応付けを行い、物体姿勢
推定部950は、この対応付けから対象物体の姿勢を推
定する。ロボット一次誘導部960は、推定姿勢に従っ
てロボットを誘導する。ロボット二次誘導部980は、
誘導した時点で得られるロボットハンド上のレンジセン
サ970による位置情報とカメラ910による位置情報
によりロボット位置を補正する。
Further, Japanese Unexamined Patent Publication No. 7-136959 also discloses 2
Another prior art combining a three-dimensional visual sensor and a three-dimensional visual sensor is shown. This conventional technique will be described with reference to FIG. The input image feature extraction unit 920 inputs the two-dimensional image of the target object captured by the fixed camera 910, and extracts the feature line segment and the feature point. Image / object association unit 9
40 associates the extracted feature line segment and feature point with the feature of the line segment description and point description of the object model prepared in advance in the object model description storage unit 930, and the object posture estimation unit 950 The orientation of the target object is estimated from this association. The robot primary guiding unit 960 guides the robot according to the estimated posture. The robot secondary guiding unit 980
The robot position is corrected based on the position information from the range sensor 970 on the robot hand and the position information from the camera 910 obtained at the time of guiding.

【0007】要するに、撮像手段で撮像した対象物体の
2次元画像の特徴と予め用意してある対象物体の物体モ
デルとの対応付けを行って、対象物体の姿勢を推定し、
こうして得られた推定姿勢に従ってロボットを移動させ
た後、レンジセンサにより観測される物体位置とカメラ
情報から得られる物体位置を統合することによって、物
体の正確な位置を推定している。この従来技術は工業用
視覚センサあるいはロボットの視覚系を実現するのに広
く適用でき、また、正確な形状モデルが予め与えられて
いない場合についても、物体の位置決めを実現できる。
In short, the features of the two-dimensional image of the target object picked up by the image pickup means and the object model of the target object prepared in advance are associated with each other to estimate the posture of the target object,
After moving the robot according to the estimated posture obtained in this way, the accurate position of the object is estimated by integrating the object position observed by the range sensor and the object position obtained from the camera information. This conventional technique can be widely applied to realize an industrial visual sensor or a visual system of a robot, and can position an object even when an accurate shape model is not given in advance.

【0008】[0008]

【発明が解決しようとする課題】しかしながらこれらの
従来技術はいずれも2次元センサで概略位置を求めて、
その位置を元に、3次元センサを適切な測定位置へ誘導
して検出精度を上げているが、以下のような問題があ
る。まず、画像処理で実際に問題になるアプリケーショ
ン毎のプログラミングの簡単化には全く対処していな
い。また、「最初に2次元センサで概略位置を求める」
としているが、姿勢が不明確な対象物を2次元センサで
検出すること自体難しく、大きな姿勢の変化に対応でき
ない。
However, in all of these conventional techniques, a two-dimensional sensor is used to obtain a rough position,
Based on the position, the three-dimensional sensor is guided to an appropriate measurement position to improve the detection accuracy, but there are the following problems. First, we have not dealt with the simplification of programming for each application, which is actually a problem in image processing. In addition, "first obtain a rough position with a two-dimensional sensor"
However, it is difficult for a two-dimensional sensor to detect an object whose posture is unclear, and it is not possible to cope with a large change in posture.

【0009】まずアプリケーション毎のプログラミング
の簡単化に関して言及する。視覚センサをロボット作業
に利用することは、約20年前から行われてきている
が、現在に至るも予想されたほど実作業で活用されてい
ない。その大きな理由の一つに、検出する対象物ごと
に、認識のためのアルゴリズムやパラメータを開発、あ
るいは変更しなければならないことが多いためである。
2次元視覚センサに関しては、対象物を見せるだけで、
適切なアルゴリズム選択やパラメータ調整を自動化する
技術が開発されており普及されてきている。しかし3次
元視覚センサにおいては、今だに対象物毎に検出の戦略
をたてアルゴリズム開発を行うのが一般であり、この点
で2次元ビジョンの簡単さには遠く及ばない。このよう
に物体の3次元的な位置・姿勢をセンサにて検出しよう
とすると、検出対象毎に、検出のためのソフトウエアを
開発する必要があり、その開発のためのコストが掛かり
すぎて実導入に至らない。このことが3次元センサの普
及を阻害していたのである。
First, reference will be made to the simplification of programming for each application. The use of visual sensors for robot work has been performed for about 20 years, but has not been used in actual work as expected up to now. One of the main reasons for this is that it is often necessary to develop or change the recognition algorithm or parameter for each object to be detected.
For the two-dimensional visual sensor, just show the object,
Techniques for automating appropriate algorithm selection and parameter adjustment have been developed and are becoming popular. However, in the three-dimensional visual sensor, it is general to develop an algorithm by setting a detection strategy for each object, and in this respect, the simplicity of the two-dimensional vision is far short. In order to detect the three-dimensional position / orientation of an object with a sensor in this way, it is necessary to develop software for detection for each object to be detected, and the cost for the development is too high. Not introduced. This has hindered the spread of three-dimensional sensors.

【0010】そこで、本発明の第1の目的は、対象物の
3次元的な位置や姿勢を検出する上で、対象物ごとに検
出アルゴリズムの開発を必要としないで済む検出対象物
の位置・姿勢決定方法とそれに使用するロボット用視覚
センサを提供することである。
Therefore, a first object of the present invention is to detect the three-dimensional position and orientation of an object without the need to develop a detection algorithm for each object. It is to provide a posture determination method and a visual sensor for a robot used for the method.

【0011】次に、姿勢が不明確な対象物の認識に関し
て、2次元センサで対象物を認識する場合、2次元画像
に垂直な軸周りの回転(画面内の対象物の回転)や2次
元画像内の対象物の大きさの変化(カメラから対象物の
距離の変化)については、すでに技術的に確立されてい
るが、それ以外の姿勢の変化については、2次元画像処
理では、困難であり、それが3次元センサを必要とする
最大の理由である。前述の2つの従来技術は、2次元セ
ンサで対象物の概略位置を決定しているのであり、この
ことは対象物の姿勢があまり変化していない場合に限っ
てこれらの従来技術が実施できるということを暗黙裏に
述べているのである。
Next, regarding the recognition of an object whose posture is unclear, when the object is recognized by a two-dimensional sensor, rotation about an axis perpendicular to the two-dimensional image (rotation of the object in the screen) or two-dimensional The change in the size of the object in the image (change in the distance from the camera to the object) has already been technically established, but other changes in the posture are difficult with the two-dimensional image processing. Yes, that is the biggest reason why we need a three-dimensional sensor. In the above-mentioned two conventional techniques, the approximate position of the object is determined by the two-dimensional sensor, which means that these conventional techniques can be implemented only when the posture of the object does not change much. That is the implicit statement.

【0012】そこで、さらに本発明の第2の目的は、対
象物の大きな姿勢変化にも柔軟に対応できる検出対象物
の3次元位置・姿勢を決定する方法とそれに使用するロ
ボット用視覚センサを提供することである。
Therefore, a second object of the present invention is to provide a method for determining the three-dimensional position / orientation of an object to be detected which can flexibly cope with a large attitude change of the object and a robot vision sensor used therefor. It is to be.

【0013】[0013]

【課題を解決するための手段】本発明に従って3次元視
覚センサと2次元視覚センサの特徴を組み合わせ上記の
目的を達成している。すなわち3次元センサにより検出
対象物の比較的簡単な形状の(例えば、円筒状の)特徴
的な部位の位置と姿勢を求め、これを基準にマニピュレ
ータを操作してカメラを前記の特徴的な部位に正対させ
て対象物の2次元画像を取得し、その画像と検出対象物
のモデル画像とを対比して検出対象物の基準位置からの
ずれを決定し、それによって対象物の3次元的な位置と
姿勢を導出する。これにより3次元センサは比較的簡単
な形状の特徴的な部位を導出するというアルゴリズムだ
けを保有していればそれをもって足り、対象物毎に変化
する特徴的な部位以外の認識は、既に対象物変化に対し
て技術の確立された2次元視覚センサにゆだねることと
し、対象物毎に検出用ソフトの開発を回避しているので
ある。
According to the present invention, the features of the three-dimensional visual sensor and the two-dimensional visual sensor are combined to achieve the above object. That is, the position and orientation of a relatively simple (eg, cylindrical) characteristic part of the detection target is obtained by the three-dimensional sensor, and the manipulator is operated with this as a reference to operate the camera to detect the characteristic part. To obtain a two-dimensional image of the object, and compare the image with the model image of the object to be detected to determine the deviation from the reference position of the object to be detected. A new position and orientation. As a result, the three-dimensional sensor only needs to have an algorithm for deriving a characteristic part having a relatively simple shape, and recognition of objects other than the characteristic part that changes for each object is already performed. The change is left to a two-dimensional visual sensor with established technology, and development of detection software for each object is avoided.

【0014】すなわち、検出対象物の2次元画像を取得
できるカメラと検出対象物の距離画像を取得できる3次
元センサとを装備したマニピュレータを操作して検出対
象物の3次元位置・姿勢を決定する本発明の方法は、3
次元センサで取得した検出対象物の距離画像から検出対
象物の特徴的な部位を検出して、その特徴的な部位の位
置を求め、こうして求めた特徴的な部位の位置を基準と
して前記のカメラを検出対象物に正対させ、前記のカメ
ラで撮像した検出対象物の2次元画像を検出対象物の2
次元モデルと比較して平行移動と回転角度についての検
出対象物のずれを求め、そしてこのずれと前記のカメラ
を検出対象物に正対させたときのマニピュレータの操作
情報とから検出対象物の3次元位置・姿勢を決定するこ
とを特徴としている。
That is, a manipulator equipped with a camera capable of acquiring a two-dimensional image of a detection target and a three-dimensional sensor capable of acquiring a distance image of the detection target is operated to determine the three-dimensional position and orientation of the detection target. The method of the present invention is 3
The characteristic part of the detection target is detected from the distance image of the detection target acquired by the three-dimensional sensor, the position of the characteristic part is obtained, and the position of the characteristic part thus obtained is used as a reference for the camera. To the detection target, and the two-dimensional image of the detection target captured by the above-mentioned camera is
The displacement of the detection target with respect to the parallel movement and the rotation angle is obtained by comparing with the three-dimensional model, and the detection target's 3 It is characterized by determining the dimensional position and orientation.

【0015】前記の検出対象物の特徴的な部位を構成す
る部分は、その部分の中心軸周りに360度以内の角度
回転させれば同一形状となる部分であって、この特徴的
な部位の位置は中心線ベクトルと中心位置によって与え
られ、カメラの光軸と特徴的な部位の中心線ベクトルと
一致させ、特徴的な部位の中心位置からカメラが検出対
象物を撮像できる程度の距離カメラを離して配置するこ
とによってカメラを検出対象物に正対させるようにす
る。
The portion forming the characteristic portion of the object to be detected is a portion having the same shape when rotated by an angle within 360 degrees around the central axis of the portion. The position is given by the centerline vector and the center position, and the distance between the camera optical axis and the centerline vector of the characteristic part is set so that the camera can image the detection target from the center position of the characteristic part. The cameras are made to face the detection target by arranging them separately.

【0016】前記の特徴的な部位は、例えば、円筒形状
の凸部、凹部である円形な部位、多角形形状の凸部、凹
部である正多角形部位、円錐形状の凸部、凹部である円
錐部位、正多角錐形状の凸部、凹部である正多角錐部位
である。
The characteristic portions are, for example, a cylindrical convex portion, a concave circular portion, a polygonal convex portion, a concave regular polygonal portion, a conical convex portion, and a concave portion. A conical portion, a regular polygonal pyramid-shaped convex portion, and a regular polygonal pyramid portion which are concave portions.

【0017】本発明のロボット用視覚センサは、検出対
象物の2次元画像を取得できるカメラと検出対象物の距
離画像を取得できる3次元センサとを装備したマニピュ
レータと、前記の3次元センサで取得した検出対象物の
距離画像から検出対象物の特徴的な部位を検出して、そ
の特徴的な部位の位置を求める距離画像処理部と、こう
して求めた特徴的な部位の位置を基準として前記のカメ
ラを検出対象物に正対させるマニピュレータ誘導部と、
前記のカメラで撮像した検出対象物の2次元画像を検出
対象物の2次元モデルと比較して平行移動と回転角度に
ついての検出対象物のずれを求める2次元画像処理部
と、この2次元画像処理部と前記のマニピュレータ誘導
部とに接続され、前記の検出対象物のずれと、前記のカ
メラを検出対象物に正対させたときのマニピュレータの
操作情報とから検出対象物の3次元位置・姿勢を決定す
る対象物3次元位置導出部とを備えている。
The robot visual sensor of the present invention is equipped with a manipulator equipped with a camera capable of acquiring a two-dimensional image of a detection target and a three-dimensional sensor capable of acquiring a distance image of the detection target, and acquired by the three-dimensional sensor. The distance image processing unit that detects a characteristic part of the detection target from the distance image of the detected target and obtains the position of the characteristic part, and the position of the characteristic part thus obtained as a reference A manipulator guiding unit that causes the camera to face the object to be detected,
A two-dimensional image processing unit that compares a two-dimensional image of the detection target imaged by the camera with a two-dimensional model of the detection target to obtain a displacement of the detection target object with respect to translation and rotation angle, and this two-dimensional image The three-dimensional position of the detection target is connected to the processing unit and the manipulator guiding unit, and based on the displacement of the detection target and the operation information of the manipulator when the camera faces the detection target. An object three-dimensional position deriving unit that determines a posture is provided.

【0018】[0018]

【発明の実施の形態】図1ないし図5を参照して本発明
の視覚センサ装置を説明する。図1は本視覚センサの構
成を示す。マニピュレータ誘導部5で動作制御される一
般的な6軸マニピュレータ12の手首フランジ13にC
CDカメラ14を設置している。CCDカメラ14の撮
像情報は2次元画像入力部6に入力される。手首フラン
ジとCCDカメラ原点はキャリブレーションされてい
る。また3次元センサとしてレーザセンサ17を作業台
18の真上方向に下向きに固定して設置している。レー
ザセンサ17で取得した3次元情報は距離画像入力部1
に入力される。尚、レーザセンサ17の原点とマニピュ
レータ原点21はキャリブレーションされている。検出
対象物15は作業台18の上に置かれている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A visual sensor device of the present invention will be described with reference to FIGS. FIG. 1 shows the configuration of the present visual sensor. C is attached to the wrist flange 13 of the general 6-axis manipulator 12 whose operation is controlled by the manipulator guiding section 5.
A CD camera 14 is installed. Imaging information of the CCD camera 14 is input to the two-dimensional image input unit 6. The wrist flange and the CCD camera origin are calibrated. Further, a laser sensor 17 as a three-dimensional sensor is fixedly installed downwardly above the work table 18. The three-dimensional information acquired by the laser sensor 17 is the distance image input unit 1
Entered in. The origin of the laser sensor 17 and the manipulator origin 21 are calibrated. The detection target 15 is placed on the work table 18.

【0019】図2、図3は各構成要素の座標関係を示し
ている。図2、図3は同じシーンの座標関係を示してい
るが、対象物近傍の図が煩雑になるため2つに分けてい
る。図中で同じ内容を示すものは同じ番号で示してい
る。マニピュレータ原点21から見た3次元レーザセン
サ原点25を、レーザセンサ検出対象物の円柱部
の上面中心位置(検出位置)19を、レーザセン
サ原点からの変換26を、円柱部上面の平
面に対して垂直方向である中心線ベクトル20を
(尚、およびはレーザセンサ原点からみた
座標で表されている。)、マニピュレータ原点から見た
カメラ原点の変換22を、CCDカメラ原点から
対象物までの距離Lの点(検出対象物の円柱部の上面の
中心位置19)までの変換 23 を、CC
Dカメラ画像原点(説明の便宜上カメラ画像の中央に配
置)から検出対象物原点の変換24をとする。
2 and 3 show the coordinate relationship of each component.
ing. 2 and 3 show the coordinate relationships of the same scene.
However, it is divided into two because the figure near the object becomes complicated.
It In the figure, the same items are indicated by the same numbers.
It Three-dimensional laser sensor seen from manipulator origin 21
Service origin 25rTl, The cylindrical part of the object detected by the laser sensor
Center position (detection position) 19 oflP0, Laser Sen
From the originlP0Conversion of 26lT0, The flat top of the cylinder
Centerline vector 20 which is the direction perpendicular to the plane lV0
(still,lP0andlV0Viewed from the laser sensor origin
It is expressed in coordinates. ), Seen from the origin of the manipulator
Camera origin conversion 22rTc, From the CCD camera origin
A point at a distance L to the target object (of the upper surface of the cylindrical portion of the detection target object)
Center positionlP0The conversion 23 up to 19)cT0, CC
D camera image origin (for convenience of explanation, the origin is set in the center of the camera image.
Position) to convert the detection object origin 240TpAnd

【0020】実施例の処理内容を以下に時系列的に説明
する。
The processing contents of the embodiment will be described below in time series.

【0021】1)3次元レーザレンジセンサ17(レー
ザ照射部、受光部を有す)により、作業台 18上の対
象物15に対してレーザ光を照射し、得たデータを距離
画像入力部1により距離画像に変換する。この距離画像
データはレーザセンサ原点からの対象物の位置情報であ
る。
1) A three-dimensional laser range sensor 17 (having a laser irradiation unit and a light receiving unit) irradiates the object 15 on the work table 18 with laser light, and the obtained data is used as the range image input unit 1 Is converted into a range image by. This range image data is position information of the object from the laser sensor origin.

【0022】2)前記距離画像データを、距離画像処理
部 2の要素である特徴部位抽出部3により対象物15
の一部である円柱部16を検出し、その中心線ベクトル
および円柱部の上面の中心位置を導出す
る。この場合の3次元検出に関する具体的手法は「三次
元画像計測(昭晃堂、井口征士、佐藤宏介共著 199
0年11月19日 初版)」の6.1.1 ビンピッキン
グ 146ページ に記載された方式を用いることで実
現可能である。具体的には距離画像の中のエッジ部を抽
出し、そのエッジで区切られた面に分割し、円筒部の局
面に対して円の方程式を当てはめることなどで求めるこ
とが出来る。
2) Range image processing is performed on the range image data.
The object 15 is extracted by the characteristic part extraction unit 3 which is an element of the unit 2.
Of the cylindrical part 16 that is a part of the
lV 0And the center position of the top surface of the cylinderlP0Derive
It The specific method for three-dimensional detection in this case is "3rd order
Original image measurement (Co-authored by Shokodo, Seiji Iguchi, Kosuke Sato 199
6.1.1 Bin Pickin of "November 19th, 1st edition)"
Using the method described on page 146
It is possible now. Specifically, the edge part in the distance image is extracted.
Out, divide it into faces separated by its edges, and
It can be obtained by applying a circle equation to the surface.
You can

【0023】3)導出した中心位置19、および
中心線ベクトル20を用いて、マニピュレータ手
首フランジ13に設置したカメラ14の光軸が、前記中
心線ベクトル 20を通り、カメラレンズ21の
位置が前記中心点19から、あらかじめ設定した距離L
だけ離れた位置へ来るようにマニピュレータ誘導部5が
マニピュレータを誘導する。尚、この距離Lは対象物全
体もしくは対象物の中で2次元画面内の回転が検出でき
る程度の領域がカメラから撮像できる距離に設定されて
いる。マニピュレータ誘導部5の処理は後で詳述する。
3) Using the derived center position l P 0 19 and center line vector l V 0 20, the optical axis of the camera 14 installed on the manipulator wrist flange 13 passes through the center line vector l V 0 20. , The position of the camera lens 21 is a preset distance L from the center point 19
The manipulator guiding unit 5 guides the manipulator so that the manipulator is moved to a position separated by a distance. It should be noted that this distance L is set to a distance at which the camera can capture an image of the entire object or an area within the object where rotation can be detected within the two-dimensional screen. The process of the manipulator guiding unit 5 will be described in detail later.

【0024】4)カメラ14にて対象物を撮像し、撮像
した画像を2次元画像入力部6へ入力する。
4) The camera 14 captures an image of the object, and the captured image is input to the two-dimensional image input unit 6.

【0025】5)入力された2次元画像を2次元画像処
理部7で処理し対象物の2次元位置と回転角を導出す
る。処理内容は、2次元画像処理部7のモデル入力部8
にて予め設定された2次元モデルを、前記入力された2
次元画像をモデルマッチング部9で探索し、合致する画
像を検出する。尚、2次元モデルは対象物全体もしくは
対象物の中で2次元画面内の回転が検出できる程度の領
域をカバーしたものである。
5) The input two-dimensional image is processed by the two-dimensional image processing section 7 to derive the two-dimensional position and rotation angle of the object. The processing content is the model input unit 8 of the two-dimensional image processing unit 7.
The two-dimensional model previously set in
The model matching unit 9 searches for a three-dimensional image and detects a matching image. The two-dimensional model covers the entire object or a region in the two-dimensional screen where rotation can be detected in the object.

【0026】図5では2次元モデル33に相当する画像
を、モデル入力部8から入力された2次元画像34から
検出しているイメージ図である。円筒部35は、CCD
カメラをその中心軸上に誘導するため、2次元モデル3
3、2次元画像34ともに画像中心部に位置している。
探索時は、モデルの画像を平行移動、回転、もしくは拡
大、縮小し探索を行う。予め3次元センサで得た円筒部
位置からのCCDカメラ距離は固定されるため、図で示
すように、回転以外の探索量は、実際は僅かである。図
の場合に画像が右回りに約45度回転して検出される。
尚、モデルの画像の平行移動、回転、拡大・縮小探索機
能は市販の一般的な2次元視覚センサにおいて、標準的
に装備されており、その説明は省略する。図5では円筒
部中心と物体の座標原点36は一致しておらずそれを固
定のずれ分(Yp,0)とする。検出した回
転角度をα、検出したずれを(Δx,Δy,0)とする
と、位置・回転角度導出部10はカメラ画像原点から検
出対象物原点の変換を次のように導出する。
FIG. 5 is an image diagram in which an image corresponding to the two-dimensional model 33 is detected from the two-dimensional image 34 input from the model input unit 8. The cylindrical portion 35 is a CCD
Two-dimensional model 3 to guide the camera on its central axis
Both the 3D image and the 2D image 34 are located at the center of the image.
At the time of search, the image of the model is translated, rotated, or enlarged or reduced to perform the search. Since the CCD camera distance from the position of the cylinder obtained by the three-dimensional sensor in advance is fixed, the search amount other than rotation is actually small as shown in the figure. In the case of the figure, the image is detected by rotating clockwise by about 45 degrees.
Incidentally, the parallel movement, rotation, and enlargement / reduction search functions of the model image are provided as standard in a general commercially available two-dimensional visual sensor, and a description thereof will be omitted. In FIG. 5, the center of the cylindrical portion and the coordinate origin 36 of the object do not coincide with each other, and they are set as a fixed shift amount ( 0 X p , 0 Yp, 0). Assuming that the detected rotation angle is α and the detected deviation is (Δx, Δy, 0), the position / rotation angle deriving unit 10 derives the transformation 0 T p of the detection object origin from the camera image origin as follows.

【0027】[0027]

【数1】 6)対象物3次元位置導出部は前記2次元画像処理部で
得たカメラ画像原点から検出対象物原点の変換
およびマニピュレータ誘導部から得た、カメラ座標位置
eから、対象物の3次元位置を以下のよう
に導出する。
[Equation 1] 6) The object three-dimensional position deriving unit transforms the camera image origin obtained by the two-dimensional image processing unit from the origin of the detected object 0 T p ,
And the camera coordinate position obtained from the manipulator guide
From r T c e, the three-dimensional position r T p of the object is derived as follows.

【0028】 マニピュレータ誘導部5の処理について図4を参照して
説明する。マニピュレータは任意の位置にありその時
の、CCDカメラ位置29から目標位置31へ動作する
場合の処理内容は、次のステップとなる。
The processing of the r T p = r T c e c T 0 0 T p manipulator guiding unit 5 will be described with reference to FIG. The manipulator is located at an arbitrary position, and when the manipulator moves from the CCD camera position 29 to the target position 31, the processing contents are the following steps.

【0029】 およびをマニピュレータ
座標系に変換する。マニピュレータ誘導部には予めマニ
ピュレータ原点から見たレーザセンサ原点25を
が設定されている。変換にはこのを用いてマニピ
ュレータ原点からの中心位置を、マニピュレータ
原点からの中心線ベクトル位置とすると = 式1 = 式2 となる。
[0029]  lP0andlV0The manipulator
Convert to coordinate system. The manipulator guide is
The laser sensor origin 25 viewed from the originatorrTl
Is set. To convert thisrTlUsing Manipi
Center position from the originrP0,manipulator
Centerline vector position from originrV0And     rP0=rTl lP0                                 Formula 1     rV0=rTl lV0                                 Formula 2 Becomes

【0030】 CCDカメラ原点の目標位置31では
カメラの向き(アプローチ方向のみ)が既知であり、そ
の他その周りの回転角度は任意の値でよい、しかし動作
させるためにはその値を決定する必要があり、それを以
下のように求めるマニピュレータが任意の位置にあり、
その位置から目標位置へ誘導することになる。マニピュ
レータの動作開始位置でのマニピュレータ原点からのC
CDカメラ原点位置・姿勢を動作開始位置・姿勢30
sとし、目標位置・姿勢32をeとするとそ
れぞれ
At the target position 31 of the CCD camera origin, the direction of the camera (only the approach direction) is known, and the rotation angle around it is arbitrary, but it is necessary to determine that value in order to operate. Yes, there is a manipulator that asks for it as follows,
It will guide from that position to the target position. C from the manipulator origin at the operation start position of the manipulator
CD camera origin position / orientation start position / orientation 30 r
Let T c s and target position / posture 32 be r T c e, respectively.

【数2】 と表現できる。[Equation 2] Can be expressed as

【0031】sの位置要素ベクトルをs、
姿勢要素マトリックスをs、eの位置要素
ベクトルをe、姿勢要素マトリックスを
とする。
Let the position element vector of r T c s be r P c s,
The orientation element matrix r R c s, r T c the position element vector r P of e c e, the attitude element matrix r R c e
And

【0032】また、前記Further, the r V 0 is

【数3】 と表現できる。[Equation 3] Can be expressed as

【0033】の単位ベクトルをとすると [0033] When the unit vector of r V 0 and r v 0

【数4】 である。[Equation 4] Is.

【0034】目標位置eはThe target position r P c e is

【数5】 で求められる。[Equation 5] Required by.

【0035】目標姿勢である、eの姿勢要素マト
リックスeは以下のように求める。
The posture element matrix r R c e of r T c e, which is the target posture, is obtained as follows.

【0036】eのアプローチ方向姿勢要素単位ベ
クトルAは中心線ベクトルの単位ベクトルの符号を反転したものである。
The approach direction posture element unit vector A e of r R c e is the inversion of the sign of the unit vector r v 0 of the centerline vector.

【0037】[0037]

【数6】 eはsのアプローチ方向姿勢要素単位ベク
トルAとAの外積krまわりにAとAの内積よ
り求めた角度θだけs姿勢要素マトリックス
sを回転させて求める。
[Equation 6] r R c e is r R c s in the outer product kr around the approach direction orientation component unit vector A s and A e only A s and A angles obtained from the inner product of e θ r T c s orientation element matrix r R
Calculate by rotating c s.

【0038】 kr=A×A 式9 θ=cos−1(A・A) 式10 e=sRot(kr, θ) 式11 以上によりマニピュレータ誘導目標位置と姿勢
が導出される。
Kr = A s × A e Formula 9 θ = cos −1 (A s · A e ) Formula 10 r R c e = r R c sRot (kr, θ) Formula 11 Manipulator guidance target position and attitude r T c e
Is derived.

【0039】 マニピュレータ動作させCCDカメラ
を誘導目標位置eへ誘導する。
The manipulator is operated to guide the CCD camera to the guidance target position r T c e.

【0040】次に円筒部以外の形状の場合の例を図6,
図7を用いて説明する。3次元抽出対象として円筒部を
挙げて上に説明したが、3次元抽出対象は円筒部の凹部
でもよく、その他、円錐(凸部、凹部)正多角柱(凸
部、凹部)、正多角錐(凸部、凹部)等、その物体の中
心軸周りに回転させた場合に360度回転させずとも同
一形状となる角度を有する形状であればよい。
Next, an example of a shape other than the cylindrical portion is shown in FIG.
This will be described with reference to FIG. The above description has been given by taking the cylindrical part as the three-dimensional extraction target, but the three-dimensional extraction target may be a concave part of the cylindrical part, or a conical (convex part, concave part) regular polygonal column (convex part, concave part), regular polygonal cone. Any shape such as (convex portion or concave portion) may be used as long as it has the same angle when rotated about the center axis of the object without rotating 360 degrees.

【0041】正多角柱として正6角柱(ボルトの一般的
な形状)部を有するワークを対象とした場合について説
明する。図6は座標系の関係を示す図であり、図7は取
得した2次元画像から2次元モデル画像を探索したイメ
ージ図である。処理内容として記述の実施態様と異なる
のは図1の特徴部位抽出部3の処理内容であり、ここで
は円筒でなく正6角柱を抽出する。 3次元検出に関す
る具体的手法はこれも「三次元画像計測(昭晃堂、井口
征士、佐藤宏介共著 1990年11月19日初版)」
の6.1.1 ビンピッキング 146ページ に記載さ
れた方式を用いることで実現可能である。具体的には距
離画像の中のエッジ部を抽出し、そのエッジで区切られ
た面に分割し、平面の位置関係から正6角柱の中心軸を
もとめる。その後は、記述の実施態様と同じように、中
心軸にCCDカメラを誘導して、CCDカメラで取得し
た画像39を、予め準備した2次元モデル38に相当す
る画像イメージに一致するよう回転させてその回転角度
を求め、マニピュレータ位置と合わせて対象物の位置と
姿勢を導出する。
A case where a work having a regular hexagonal prism (general shape of a bolt) portion as a regular polygonal prism is targeted will be described. FIG. 6 is a diagram showing the relationship of coordinate systems, and FIG. 7 is an image diagram in which a two-dimensional model image is searched from the acquired two-dimensional image. The processing content differs from the described embodiment in the processing content of the characteristic part extraction unit 3 in FIG. 1, and here, not a cylinder but a regular hexagonal prism is extracted. The specific method for three-dimensional detection is also "Three-dimensional image measurement (Shokodo, Seiji Iguchi, Kosuke Sato, November 19, 1990, first edition)".
This can be realized by using the method described in 6.1.1, Bin picking, page 146. Specifically, the edge portion in the distance image is extracted, divided into the surfaces divided by the edge, and the central axis of the regular hexagonal prism is obtained from the positional relationship of the planes. After that, as in the described embodiment, the CCD camera is guided to the central axis, and the image 39 acquired by the CCD camera is rotated so as to match the image image corresponding to the two-dimensional model 38 prepared in advance. The rotation angle is obtained, and the position and orientation of the object are derived from the manipulator position.

【0042】なお、3次元センサは距離画像の取得がで
きれば、レーザレンジセンサでなくともよく、結局、本
発明では3次元画像処理部の特徴部位抽出部3に対象物
の比較的簡単な特徴的な部位の形状に対応した検出アル
ゴリズムを準備しておけば、それを以って足りる。
The three-dimensional sensor need not be a laser range sensor as long as it can acquire a range image. After all, in the present invention, the characteristic part extraction unit 3 of the three-dimensional image processing unit is provided with a relatively simple characteristic of the object. If a detection algorithm corresponding to the shape of a different part is prepared, it will suffice.

【0043】パッシブなステレオカメラ方式に置き換え
ることも可能である。また、実施例では3次元センサ
は、固定した状態であるが、ロボット手首部に装着して
もよい。
It is also possible to replace with a passive stereo camera system. Although the three-dimensional sensor is fixed in the embodiment, it may be attached to the wrist of the robot.

【0044】検出対象物の中に円柱など、その物体の中
心軸周りに回転させた場合に360度回転させずとも同
一形状となる角度を有する形状を有していれば、先ず3
次元センサでその中心軸を求め、その中心軸上にロボッ
ト手首に装着したCCDカメラを誘導することで、2次
元画像処理を可能とする。2次元画像処理は現在、対象
物毎にアルゴリズム開発をする必要の無い技術レベルに
到達している。このことにより3次元物体の検出を行う
際に、専用の3次元物体検出ソフトウエアの開発をする
必要が無くなる。このため3次元物体検出が必要な作業
に容易にそれが適用できるようになり、ビンピッキング
等へのロボットの適用が推進される。
If the object to be detected has a shape, such as a cylinder, which has the same shape when rotated about the central axis of the object without rotating it by 360 degrees, first,
The two-dimensional image processing is made possible by obtaining the central axis of the two-dimensional sensor and guiding the CCD camera attached to the robot wrist on the central axis. Two-dimensional image processing has now reached a technical level that does not require algorithm development for each object. This eliminates the need to develop dedicated three-dimensional object detection software when detecting a three-dimensional object. For this reason, it becomes possible to easily apply it to the work that requires three-dimensional object detection, and the application of the robot to bin picking and the like is promoted.

【0045】[0045]

【発明の効果】本発明によれば、3次元センサには対象
物の比較的簡単な形状部分、例えば円筒部を導出するア
ルゴリズムだけを保有していればよく、対象物毎に変化
する円筒部以外の認識は、対象物変化に対して一般化さ
れた技術の確立した2次元視覚センサにゆだねるため、
システムとして対象物毎に検出のためのソフトウエアを
それぞれ開発する必要がなくなる。これにより、3次元
センサの適用範囲を飛躍的に拡大することができる。
According to the present invention, the three-dimensional sensor only needs to have an algorithm for deriving a relatively simple shape part of the object, for example, a cylindrical part, and the cylindrical part that changes for each object. Since the recognition other than that is left to the two-dimensional visual sensor, which has established a generalized technique for changing the object,
It is not necessary to develop software for detecting each object as a system. Thereby, the applicable range of the three-dimensional sensor can be dramatically expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の視覚センサ装置の構成を示すブロック
図。
FIG. 1 is a block diagram showing the configuration of a visual sensor device of the present invention.

【図2】本発明の視覚センサ装置の3次元センサ関連の
座標系の関係を示す図。
FIG. 2 is a diagram showing a relationship of coordinate systems related to a three-dimensional sensor of the visual sensor device of the present invention.

【図3】本発明の視覚センサ装置の2次元センサ関連の
座標系の関係を示す図(特徴的な部位は円筒)。
FIG. 3 is a diagram showing a relationship of a coordinate system related to a two-dimensional sensor of the visual sensor device of the present invention (a characteristic part is a cylinder).

【図4】本発明の視覚センサ装置のマニピュレータ動作
を説明する図。
FIG. 4 is a diagram illustrating a manipulator operation of the visual sensor device of the present invention.

【図5】2次元画像から2次元モデル画像を探索するイ
メージ図(特徴的な部位は円筒)。
FIG. 5 is an image diagram for searching a two-dimensional model image from a two-dimensional image (a characteristic part is a cylinder).

【図6】本発明の視覚センサ装置の座標系の関係を示す
図(特徴的な部位は正多角柱)。
FIG. 6 is a diagram showing a relationship between coordinate systems of the visual sensor device of the present invention (a characteristic portion is a regular polygonal prism).

【図7】2次元画像から2次元モデル画像を探索したイ
メージ図(特徴的な部位は正多角柱)。
FIG. 7 is an image diagram in which a two-dimensional model image is searched from a two-dimensional image (a characteristic part is a regular polygonal prism).

【図8】従来技術の構成を示すブロック図。。FIG. 8 is a block diagram showing a configuration of a conventional technique. .

【図9】別の従来技術の構成を示すブロック図。FIG. 9 is a block diagram showing the configuration of another conventional technique.

【符号の説明】 1 距離画像入力部 2 距離画像処理部 3 特徴部位抽出部 4 位置・姿勢導出部 5 マニピュレータ誘導部 6 2次元画像入力部 7 2次元画像処理部 8 モデル入力部 9 モデルマッチング部 10 位置・回転角度導出部 11 対象物3次元位置導出部 12 マニピュレータ 13 手首フランジ 14 カメラ 15 対象物 16 特徴的な部位 17 レーザーセンサ(3次元センサ)[Explanation of symbols] 1 Distance image input section 2 Distance image processing unit 3 Feature part extraction unit 4 Position / posture derivation unit 5 Manipulator guide 6 Two-dimensional image input section 7 Two-dimensional image processing unit 8 model input section 9 Model matching section 10 Position / rotation angle derivation unit 11 Object 3D position derivation unit 12 Manipulator 13 wrist flange 14 cameras 15 Target 16 characteristic parts 17 Laser sensor (three-dimensional sensor)

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 BS12 KT01 KT05 KV00 KX19 MT00 5B057 AA05 CA12 CA13 CA16 DC05 DC08 DC36 5L096 AA09 BA05 CA05 FA05 FA67 FA69 JA11    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 3C007 BS12 KT01 KT05 KV00 KX19                       MT00                 5B057 AA05 CA12 CA13 CA16 DC05                       DC08 DC36                 5L096 AA09 BA05 CA05 FA05 FA67                       FA69 JA11

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 検出対象物の2次元画像を取得できるカ
メラと検出対象物の距離画像を取得できる3次元センサ
とを装備したマニピュレータを操作して検出対象物の3
次元位置・姿勢を決定する方法において、 3次元センサで取得した検出対象物の距離画像から検出
対象物の特徴的な部位を検出して、その特徴的な部位の
位置を求め、 こうして求めた特徴的な部位の位置を基準として前記の
カメラを検出対象物に正対させ、 前記のカメラで撮像した検出対象物の2次元画像を検出
対象物の2次元モデルと比較して平行移動と回転角度に
ついての検出対象物のずれを求め、そしてこのずれと前
記のカメラを検出対象物に正対させたときのマニピュレ
ータの操作情報とから検出対象物の3次元位置・姿勢を
決定することを特徴とした検出対象物の3次元位置・姿
勢決定方法。
1. A manipulator equipped with a camera capable of acquiring a two-dimensional image of a detection target and a three-dimensional sensor capable of acquiring a range image of the detection target is operated to operate a three-dimensional detection target.
In the method of determining the three-dimensional position / orientation, a characteristic part of the detection target is detected from a distance image of the detection target acquired by a three-dimensional sensor, and the position of the characteristic part is calculated. The camera is made to face the detection target object based on the position of the target part, and the two-dimensional image of the detection target imaged by the camera is compared with the two-dimensional model of the detection target object to translate and rotate. Is obtained, and the three-dimensional position / orientation of the detection target is determined from this shift and the operation information of the manipulator when the camera is directly opposed to the detection target. 3D position / posture determination method of the detected object.
【請求項2】 前記の検出対象物の特徴的な部位を構成
する部分は、その部分の中心軸周りに360度以内の角
度回転させれば同一形状となる部分であって、 この特徴的な部位の位置は中心線ベクトルと中心位置に
よって与えられ、 カメラの光軸と特徴的な部位の中心線ベクトルと一致さ
せ、特徴的な部位の中心位置からカメラが検出対象物を
撮像できる程度の距離カメラを離して配置することによ
ってカメラを検出対象物に正対させるようにした請求項
1に記載の検出対象物の3次元位置・姿勢決定方法。
2. A portion forming a characteristic portion of the detection target is a portion having the same shape when rotated by an angle of 360 degrees or less around the central axis of the portion. The position of the part is given by the center line vector and the center position, and the optical axis of the camera matches the center line vector of the characteristic part, and the distance from the center position of the characteristic part to the extent that the camera can image the detection target. The method for determining the three-dimensional position / orientation of a detection target object according to claim 1, wherein the camera is made to face the detection target object by disposing the cameras apart from each other.
【請求項3】 前記の特徴的な部位は、円筒形状の凸
部、凹部である円形な部位、多角形形状の凸部、凹部で
ある正多角形部位、円錐形状の凸部、凹部である円錐部
位、正多角錐形状の凸部、凹部である正多角錐部位であ
る請求項2に記載の検出対象物の3次元位置・姿勢決定
方法。
3. The characteristic part is a cylindrical convex part, a circular part which is a concave part, a polygonal convex part, a regular polygonal part which is a concave part, a conical convex part and a concave part. The three-dimensional position / posture determination method of the detection target according to claim 2, wherein the three-dimensional position / orientation of the detection object is a conical portion, a regular polygonal pyramidal convex portion, or a concave portion.
【請求項4】 検出対象物の2次元画像を取得できるカ
メラと検出対象物の距離画像を取得できる3次元センサ
とを装備したマニピュレータと、 前記の3次元センサで取得した検出対象物の距離画像か
ら検出対象物の特徴的な部位を検出して、その特徴的な
部位の位置を求める距離画像処理部と、 こうして求めた特徴的な部位の位置を基準として前記の
カメラを検出対象物に正対させるマニピュレータ誘導部
と、 前記のカメラで撮像した検出対象物の2次元画像を検出
対象物の2次元モデルと比較して平行移動と回転角度に
ついての検出対象物のずれを求める2次元画像処理部
と、 この2次元画像処理部と前記のマニピュレータ誘導部と
に接続され、前記の検出対象物のずれと、前記のカメラ
を検出対象物に正対させたときのマニピュレータの操作
情報とから検出対象物の3次元位置・姿勢を決定する対
象物3次元位置導出部とを備えたことを特徴とするロボ
ット用視覚センサ。
4. A manipulator equipped with a camera capable of acquiring a two-dimensional image of a detection target and a three-dimensional sensor capable of acquiring a range image of the detection target, and a range image of the detection target acquired by the three-dimensional sensor. A distance image processing unit that detects a characteristic part of the detection target from the position and finds the position of the characteristic part, and corrects the camera to the detection target based on the position of the characteristic part thus obtained as a reference. A manipulator guiding unit to be paired with, and a two-dimensional image processing for obtaining a displacement of the detection target with respect to translation and rotation angle by comparing a two-dimensional image of the detection target captured by the camera with a two-dimensional model of the detection target. Section, the two-dimensional image processing section, and the manipulator guiding section, and the displacement of the detection target and the manipulator when the camera is directly opposed to the detection target. Robot vision sensor, characterized in that a target 3-dimensional position deriving unit for determining the three-dimensional position and orientation of the detection object from the operation information.
JP2001340998A 2001-11-06 2001-11-06 Three-dimensional position and posture decision method of detection target object and visual sensor of robot Pending JP2003136465A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001340998A JP2003136465A (en) 2001-11-06 2001-11-06 Three-dimensional position and posture decision method of detection target object and visual sensor of robot
PCT/JP2002/011533 WO2003039820A1 (en) 2001-11-06 2002-11-05 Method for determining three-dimensional position and posture of object being sensed and visual sensor for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001340998A JP2003136465A (en) 2001-11-06 2001-11-06 Three-dimensional position and posture decision method of detection target object and visual sensor of robot

Publications (1)

Publication Number Publication Date
JP2003136465A true JP2003136465A (en) 2003-05-14

Family

ID=19155110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001340998A Pending JP2003136465A (en) 2001-11-06 2001-11-06 Three-dimensional position and posture decision method of detection target object and visual sensor of robot

Country Status (2)

Country Link
JP (1) JP2003136465A (en)
WO (1) WO2003039820A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012008618A1 (en) * 2010-07-16 2012-01-19 Canon Kabushiki Kaisha Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
CN102410832A (en) * 2010-08-06 2012-04-11 佳能株式会社 Position and orientation measurement apparatus and position and orientation measurement method
JP2013130426A (en) * 2011-12-20 2013-07-04 Canon Inc Information processing apparatus, control method of information processing apparatus and program
CN104440953A (en) * 2013-09-16 2015-03-25 财团法人工业技术研究院 Method and device for measuring object position information
US9418470B2 (en) 2007-10-26 2016-08-16 Koninklijke Philips N.V. Method and system for selecting the viewing configuration of a rendered figure
CN111031958A (en) * 2017-08-16 2020-04-17 柯惠有限合伙公司 Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery
CN113478487A (en) * 2021-07-13 2021-10-08 苏州市汇邦自动化系统有限公司 Automatic deviation rectifying method, device and system for manipulator and storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
DE102017207063A1 (en) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Control device for a test apparatus, test arrangement with the control device, method for controlling the test arrangement and computer program
DE102017207069A1 (en) 2017-04-27 2018-10-31 Robert Bosch Gmbh Test device for optical inspection of an object, production plant with the test device and method for optical testing of the object with the test device
DE102018200060B4 (en) * 2018-01-04 2024-05-08 Robert Bosch Gmbh Method for operating a mobile work machine and mobile work machine
CN109470704B (en) * 2018-05-31 2023-05-23 武汉深海弈智科技有限公司 Visual defect detection system and detection method for automobile brake bracket
DE102019100820A1 (en) 2019-01-14 2020-07-16 Lufthansa Technik Aktiengesellschaft Method and device for inspecting components that are difficult to reach
CN112140109B (en) * 2020-09-10 2024-04-30 华南理工大学 Robot remote control system and method based on Web page and electromyographic signals

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5135988B2 (en) * 1972-04-05 1976-10-06
JPS6015780A (en) * 1983-07-08 1985-01-26 Hitachi Ltd Robot
JP3442140B2 (en) * 1994-04-20 2003-09-02 ファナック株式会社 Position measurement device and position deviation correction device using three-dimensional visual sensor
JP3475026B2 (en) * 1996-10-24 2003-12-08 富士通株式会社 Shape tracking method and apparatus
JP2001277167A (en) * 2000-03-31 2001-10-09 Okayama Pref Gov Shin Gijutsu Shinko Zaidan Three-dimensional attitude recognizing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418470B2 (en) 2007-10-26 2016-08-16 Koninklijke Philips N.V. Method and system for selecting the viewing configuration of a rendered figure
WO2012008618A1 (en) * 2010-07-16 2012-01-19 Canon Kabushiki Kaisha Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
US9163940B2 (en) 2010-07-16 2015-10-20 Canon Kabushiki Kaisha Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
US9927222B2 (en) 2010-07-16 2018-03-27 Canon Kabushiki Kaisha Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
CN102410832A (en) * 2010-08-06 2012-04-11 佳能株式会社 Position and orientation measurement apparatus and position and orientation measurement method
US8786700B2 (en) 2010-08-06 2014-07-22 Canon Kabushiki Kaisha Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP2013130426A (en) * 2011-12-20 2013-07-04 Canon Inc Information processing apparatus, control method of information processing apparatus and program
CN104440953A (en) * 2013-09-16 2015-03-25 财团法人工业技术研究院 Method and device for measuring object position information
CN111031958A (en) * 2017-08-16 2020-04-17 柯惠有限合伙公司 Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery
CN111031958B (en) * 2017-08-16 2023-09-15 柯惠有限合伙公司 Synthesizing spatially aware transitions between multiple camera viewpoints during minimally invasive surgery
CN113478487A (en) * 2021-07-13 2021-10-08 苏州市汇邦自动化系统有限公司 Automatic deviation rectifying method, device and system for manipulator and storage medium
CN113478487B (en) * 2021-07-13 2023-12-29 苏州市汇邦自动化系统有限公司 Automatic deviation correcting method, device and system for mechanical arm and storage medium

Also Published As

Publication number Publication date
WO2003039820A1 (en) 2003-05-15

Similar Documents

Publication Publication Date Title
US7283661B2 (en) Image processing apparatus
US7200260B1 (en) Teaching model generating device
US7171041B2 (en) Position-orientation recognition device
US7177459B1 (en) Robot system having image processing function
EP1413850B1 (en) Optical sensor for measuring position and orientation of an object in three dimensions
JP5282717B2 (en) Robot system
US11625842B2 (en) Image processing apparatus and image processing method
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP2004090183A (en) Article position and orientation detecting device and article taking-out device
JP2000094374A (en) Picking device
JP6621351B2 (en) Image processing apparatus and image processing method for laser processing
Wan et al. High-precision six-degree-of-freedom pose measurement and grasping system for large-size object based on binocular vision
CN114341930A (en) Image processing device, imaging device, robot, and robot system
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JP2001076128A (en) Device and method for detecting obstacle
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2778430B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP2007171018A (en) Object position recognition method and device
JP3326851B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
Nakhaeinia et al. Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
JP3208900B2 (en) Method and apparatus for recognizing three-dimensional position and orientation based on vision
KR20190092051A (en) Object detection method and robot system
Okada et al. A parts picking system with a range finder and a camera system
JP2809348B2 (en) 3D position measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090814