JP5471355B2 - 3次元視覚センサ - Google Patents

3次元視覚センサ Download PDF

Info

Publication number
JP5471355B2
JP5471355B2 JP2009266776A JP2009266776A JP5471355B2 JP 5471355 B2 JP5471355 B2 JP 5471355B2 JP 2009266776 A JP2009266776 A JP 2009266776A JP 2009266776 A JP2009266776 A JP 2009266776A JP 5471355 B2 JP5471355 B2 JP 5471355B2
Authority
JP
Japan
Prior art keywords
model
dimensional
coordinate system
coordinate
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009266776A
Other languages
English (en)
Other versions
JP2011112400A (ja
Inventor
紫朗 藤枝
篤 種野
玲治 高橋
政直 吉野
賢一 鵜飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009266776A priority Critical patent/JP5471355B2/ja
Priority to US12/943,565 priority patent/US20110122228A1/en
Publication of JP2011112400A publication Critical patent/JP2011112400A/ja
Application granted granted Critical
Publication of JP5471355B2 publication Critical patent/JP5471355B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)

Description

本発明は、ステレオ計測により認識対象物を表す複数の3次元座標を取得し、これらの3次元座標をあらかじめ登録された認識対象物の3次元モデルと照合することにより、認識対象物の位置および姿勢を認識し、その認識結果を出力する3次元視覚センサに関する。
工場のピッキングシステムでは、ロボットに把持させる対象のワークの位置や姿勢をステレオ計測により認識し、その認識結果に基づきロボットのアームの動作を制御する。この制御を実現するには、あらかじめ、キャリブレーションによりステレオカメラの計測対象空間の3次元座標系を特定すると共に、ワークの実物モデルやCADデータなどを用いて、ワークのモデルの3次元形状を表す3次元モデルを作成する。この3次元モデルは、一般に、モデル内の一点を原点とする3次元座標系(以下、「モデル座標系」という。)による3次元座標の集合として表され、この集合に対する各座標軸の設定方向によって、ワークの基準の姿勢が表現される。
3次元認識処理では、あらかじめ特定された計測用のパラメータに基づき、認識対象物のステレオ画像から抽出された複数の特徴点の3次元座標を算出した後に、これらの特徴点の分布に対し、3次元モデルをその位置や姿勢を変更しながら照合する。そして、両者の一致度が最も高くなったときにモデル座標系の原点に対応づけられた座標を認識対象物の位置として認識する。また、一致度が最も高くなったときにモデル座標系の各座標軸に対応づけられた方向について、それぞれ計測用の座標系の対応する座標軸に対する回転角度を算出し、これらの回転角度を認識対象物の姿勢として認識する。
さらに、上記の認識結果に基づきロボットの動作を制御するには、認識結果を示す座標や回転角度を、ロボットを基準に設定されたワールド座標系の座標や回転角度に変換する必要がある(特許文献1を参照)。
特開2007−171018号公報
上記のピッキングシステムにおいて、ロボットにより安定してワークが把持されるようにするには、アームの先端部の目標位置を表す座標や、目標位置に向かうアームの方向を示す角度をロボットに与える必要がある。これらの座標や角度は、ワークを安定して把持できることを条件に現場の担当者により定められるが、3次元モデルにより認識される位置や姿勢はこの条件に適合していない場合が多い。特に、CADデータを用いて3次元モデルを作成する場合には、CADデータで定められている座標系の定義がそのままモデル座標系に反映されることが多いため、ロボットの制御に適合しないモデル座標系が設定される可能性が高くなる。
出願人は、近年、汎用の視覚センサを開発しているが、この種の視覚センサをピッキングシステムに導入する場合に、上記のようにロボット制御に適合しない認識処理が行われると、ロボットのコントローラにおいて、3次元視覚センサから入力した座標や回転角度をロボットの制御に適した座標や角度に変換する処理が必要となる。この結果、ロボットコントローラの演算の負担が増えてロボットの制御に時間がかかり、ピッキングを高速化するのが困難になる。
本発明は、上記の問題に着目し、簡単な設定操作によって、3次元視覚センサから出力される座標や回転角度がロボットの制御に適合するものになるように、3次元モデルのモデル座標系を変更することを、課題とする。
本発明が適用される3次元視覚センサは、認識対象物のモデルの3次元形状を示す複数の点がそれぞれ当該モデル中の一点を原点とするモデル座標系の3次元座標により表された3次元モデルが登録される登録手段と、認識対象物を撮像するステレオカメラと、ステレオカメラにより生成されたステレオ画像を用いて、認識対象物を表す複数の特徴点につき、あらかじめ定めた計測用の3次元座標系における3次元座標を求める3次元計測手段と、3次元計測手段が取得した3次元座標の集合を前記3次元モデルと照合することにより、モデル座標系の原点に対応する3次元座標と、モデル座標系が示す3次元モデルの基準の姿勢に対する認識対象物の回転角度とを認識する認識手段と、認識手段により認識された3次元座標および回転角度を出力する出力手段とを具備する。
本発明による3次元視覚センサは、さらに計測用の3次元座標系に対するモデル座標系の位置および姿勢を定めて前記3次元モデルを配置し、この3次元モデルモデル座標系を構成する3本の座標軸とを所定の方向から透視変換して2次元の投影画像を生成する透視変換手段と、透視変換処理により生成された3次元モデルおよび各座標軸の投影画像をモニタに表示する表示手段と、3次元モデルおよび各座標軸の投影画像の表示下でモデル座標系の位置または姿勢を変更する変更操作を受け付けて、その操作により変更されたモデル座標系に応じて投影画像中の各座標軸の表示を変更する表示変更手段と、表示変更手段による各座標軸の表示変更に対する確定操作を受け付けて、モデル座標系を当該確定操作により確定された各座標軸の投影画像が示す位置および姿勢で確定すると共に、3次元モデルを構成する各3次元座標を確定後のモデル座標系による3次元座標に変更し、変更後の3次元モデルを前記認識手段の照合処理に使用される3次元モデルとして登録手段に登録するモデル修正手段とを、具備する。
上記の構成によれば、ユーザは、3次元モデルおよび各座標軸の投影画像の表示により、モデル座標系の原点の位置や各座標軸の方向がロボットの制御に適合しているかどうかを確認することができる。ここで、いずれかが適合していないと判断した場合には、ユーザは、その不適合な箇所を変更する変更操作を行う。
上記の変更操作は一度に限らず、変更後のモデル座標系がロボットの制御に適した状態になるまで、何度でも実行することができる。よって、ユーザは、たとえばモデル座標系の原点をロボットアームの先端部の目標位置に変更し、ロボットに対するワークの最適な姿勢が基準の姿勢となるように、各座標軸の方向を変更することができる。
ユーザがモデル座標系がロボットの制御に適した状態に変更されたと判断して確定操作を行うと、その操作により確定された各座標軸の投影画像が示す位置および姿勢によりモデル座標系が確定されると共に、3次元モデルを構成する各3次元座標が確定後のモデル座標系による3次元座標に変更され、認識処理のための3次元モデルとして登録されるので、3次元視覚センサから出力される座標や角度を、ロボットの制御に適したものにすることができる。
上記の3次元視覚センサの好ましい実施態様では、表示手段は、前記投影画像が表示されるモニタに、この投影画像中の各座標軸の交点への対応点の3次元座標として、モデル修正手段により変更される前のモデル座標系の原点の3次元座標を表示し、投影画像中の各座標軸が示すモデル座標系の姿勢として、投影画像中の各座標軸に対応する方向が初期のモデル座標系の各座標軸に対してなす回転角度を表示する。また、受付手段は、モニタに表示された3次元座標または回転角度を変更する操作を受け付ける。
上記の態様によれば、投影画像中の原点の位置や各座標軸が示す方向を、現段階でのモデル座標系を用いた具体的な数値により表示し、これらの数値をユーザに変更させるので、モデル座標系や3次元モデルの各座標を容易に変更することが可能になる。
本発明によれば、3次元モデルに対するモデル座標系の設定を確認しながら、このモデル座標系をロボットの制御に適合するものに容易に修正することが可能になる。よって、3次元視覚センサから出力される座標や角度もロボットの制御に適したものとなり、ロボットに対する制御を高速化することが可能になる。
3次元視覚センサが導入されたピッキングシステムの構成を示す図である。 3次元視覚センサの電気構成を示すブロック図である。 ワークの認識に用いられる3次元モデルの構成を模式的に示す図である。 モデル座標系の修正のための作業画面の例を示す図である。 モデル座標系の座標軸の方向を変更する操作が行われたときの作業画面の例を示す図である。 モデル座標系の原点の位置を変更する操作が行われたときの作業画面の例を示す図である。 3次元モデルの修正に関する処理の手順を示すフローチャートである。
図1は、3次元視覚センサが導入されたピッキングシステムの例を、図2は3次元視覚センサの構成を、それぞれ示す。
この実施例のピッキングシステムは、トレイ4の上にバラ積みされたワークWを1つずつ取り出して別の場所に移動させる作業を行うためのもので、ワークWを認識するための3次元視覚センサ100のほか、実際の作業を行う多関節ロボット3や、図示しないロボットコントローラなどが含まれる。
3次元視覚センサ100は、ステレオカメラ1と認識処理装置2とにより構成される。
ステレオカメラ1は、3台のカメラC0,C1,C2により構成される。これらのうち中央のカメラC0は、光軸を鉛直方向に向けた状態(すなわち正面視を行う状態)にして配備され、左右のカメラC1,C2は、光軸を斜めにして配備される。
認識処理装置2は、専用のプログラムが格納されたパーソナルコンピュータである。この認識処理装置2では、各カメラC0,C1,C2が生成した画像を取り込んで、ワークWの輪郭線を対象とする3次元計測を実行した後に、この計測により復元された3次元情報をあらかじめ登録された3次元モデルと照合することにより、ワークWの位置および姿勢を認識する。そして、認識したワークWの位置を表す3次元座標、および3次元モデルに対するワークWの回転角度(X,Y,Zの各軸毎に表される。)をロボットコントローラに出力する。ロボットコントローラは、この情報に基づき、ロボット3のアーム30やハンド部31の動作を制御して、先端の爪部32,32をワークWの把持に適した位置に把持に適した姿勢で配置し、爪部32,32にワークWを把持させる。
図2によれば、認識処理装置2には、各カメラC0,C1,C2に対応する画像入力部20,21,22、カメラ駆動部23、CPU24、メモリ25、入力部26、表示部27、通信インターフェース28などが含まれる。
カメラ駆動部23は、CPU24からの指令に応じて、各カメラC0,C1,C2を同時に駆動する。各カメラC0,C1,C2により生成された画像は、それぞれ画像入力部20,21,22を介してメモリ25に入力され、CPU24により上記した認識処理が実行される。
表示部27は液晶ディスプレイなどのモニタ装置であり、入力部26には、キーボードやマウスが含まれる。これらは、キャリブレーション処理や3次元モデルの登録処理の際に、設定のための情報を入力したり、作業を支援するための情報を表示する目的に使用される。
通信インターフェース28は、ロボットコントローラとの通信に用いられる。
メモリ25は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータや3次元モデルも、メモリ25内の専用のエリアに登録される。
CPU24は、メモリ25内のプログラムに基づき、3次元計測用のパラメータの算出および登録を行った後に、ワークWの3次元モデルの作成および登録処理を実行する。この2種類の設定処理を実行することによって、ワークWに対する3次元計測および認識処理が可能な状態になる。
また、この実施例の認識処理装置2では、ワークWのCADデータを利用して、ワークWの輪郭形状を示す3次元モデルを作成するとともに、この3次元モデルのデータ構成をロボットの制御に適した内容に修正する機能が設けられている。以下、この3次元モデルの修正機能について詳細に説明する。
図3は、ワークWの3次元モデルを、XY平面、YZ平面、XZ平面のそれぞれに直交する方向から観察した状態を模式的に示す。
この3次元モデルは、CADデータが示すモデル内の一点Oを原点とするモデル座標系により、輪郭線の各構成点の座標を表現したものである。具体的に、この実施例のワークWは薄型であり、厚み部分の中心位置に原点Oが設定される。また、面積が一番広い面の長手方向にX軸が、短手方向にY軸が、それぞれ設定され、XY平面の法線の方向にZ軸が設定されている。
上記のモデル座標系の設定は、元データのCADデータに基づいて設定されたものであるが、この実施例のロボット3にワークWを把持させる目的に必ずしも適しているとは限らない。そこで、この実施例では、表示部27に、モデル座標系の設定を変更するための作業画面を表示して、ユーザによる設定変更操作に応じて、原点Oの位置や、各座標軸の方向を変更するようにしている。
図4〜6は、モデル座標系の設定変更のための作業画面の例を示す。
この作業画面の右手には、3つの画像表示領域201,202,203が設けられて、これらの領域内に、それぞれ3次元モデルおよびモデル座標系の投影画像が表示される。これらのうち、面積の大きい画像表示領域201では、マウスによる視線方向の変更操作を受け付けて、投影画像の姿勢を種々に変更することができる。
画像表示領域201の下方に並べて配置された画像表示領域202,203には、それぞれZ軸方向に対向する方向からの透視変換による画像と、X軸方向に対向する方向からの透視変換による画像とが表示される。画像表示領域202,203における透視変換の方向は固定されている(ただし、ユーザにより選択は可能である。)ため、モデル座標系の座標軸が変更されると、これに追随して画像表示領域202,203内の投影画像の姿勢が変動する。
画面の左手には、モデル座標系の設定パラメータを変更するための2つの作業領域204,205が、上下に並べて設けられている。作業領域204では、モデル座標系の原点Oが「検出点」と表現されて、この検出点のX,Y,Zの座標毎に、設定値変更用のスライダ206や数値表示ボックス207が設けられる。
もう一方の作業領域205では、3次元モデルの基準姿勢を表すモデル座標系のX,Y,Z軸の方向が、それぞれ回転角度RTx,RTy,RTzにより表示される。これらの角度RTx,RTy,RTzについても、それぞれ設定値変更用のスライダ206や数値表示ボックス207が設けられる。
このほか、この実施例の作業画面には、原点Oの座標や回転角度RTx,RTy,RTzの設定値を確定するためのOKボタン208、モデル座標系の設定値の変更を破棄するためのキャンセルボタン209、透視変換の視点を初期状態に戻すことを指示する視点変更ボタン210などが設けられる。
この実施例では、OKボタン208が操作されるまでは、CADデータに基づき設定されたモデル座標系を有効に設定する。また各作業領域204,205のスライダ206の位置や表示ボックス207内の数値は、現在有効なモデル座標系に基づいて設定される。
具体的に、作業領域204では、各画像領域201,202,203に表示されている原点Oの位置が、現在のモデル座標系のX,Y,Z座標により表現される。したがって、この作業領域204内に表示されている座標(X,Y,Z)が(0,0,0)であれば、原点Oは変更されていないことになる。
作業領域205では、CADデータに基づき設定されたモデル座標系のX,Y,Z軸の方向をそれぞれ0度として、これらの方向に対して投影画像中のX,Y,Z軸が示す方向の回転角度をRTx,RTy、RTzとする。したがって、RTx,RTy,RTzがそれぞれ0度のときは、モデル座標系の軸方向は変更されていないことになる。
図7は、上記の作業画面によりモデル座標系の設定を変更する処理の手順を示す。以下、この図7および図4〜6を参照して、モデル座標系の設定を変更する作業や、この作業に応じてCPU24により実行される処理を説明する。
なお、前提として、この実施例では、ロボット3の爪部32,32が開いた状態になっているときの爪部32,32間の空間内の一点P(図1に示す。)を基準点として、ワークWを把持する直前の基準点Pの位置に原点Oを変更するものとする。また、アーム部30を延ばしたときの長さ方向がZ軸の正方向に対向し、爪部32,32が並ぶ方向がY軸方向に対応するように、各軸方向を変更するものとする。
図7の処理は、CADデータを用いて3次元モデルが作成されたことに応じて開始される。まず、CPU24は、モデル座標系のX,Y,Z軸を計測用の3次元座標系に所定の姿勢で仮想配置して、3通りの方向からの透視変換処理を実行し(ST1)、この処理により生成された投影画像を含む作業画面を立ち上げる(ST2)。図4は、この立ち上げ直後の画面を示すもので、各画像表示領域201,202,203には、CADデータに基づき設定されたままのモデル座標系が表示されている。作業領域204,205内の各スライダ206や数値表示ボックス207の表示も全て0である。
この画面において、ユーザは、原点OのX,Y,Z座標や各座標軸の回転角度RTx,RTy,RTzを、それぞれスライダ206の操作または数値表示ボックス207への数値入力により、自由に変更する。また、必要に応じて、画像表示領域201内の投影画像を、異なる視線方向から投影したものに変更することもできる。
原点Oの座標が変更された場合(ST4が「YES」)には、CPU24は、各画像表示領域201,202,203の投影画像における変更後の原点Oの位置を算出し、その算出結果に応じて各投影画像中の原点Oの表示位置を更新する(ST5)。これにより、原点Oは、操作により変更された位置に表示される状態となる。
X,Y,Zのいずれかの座標軸の回転角度が変更された場合には、ST6が「YES」となってST7に進む。このST7において、CPU24は、角度変更の対象となった座標軸を変更された回転角度で回転させた状態で透視変換処理を実行し、その結果に応じて画像表示領域201内の座標軸の表示を更新する。また、画像表示領域202,203内の投影画像についても、上記の回転角度により回転した後の座標軸を含む平面が正面視画像になるように、表示を更新する。これらの処理により、回転角度を変更する操作に応じて、該当する座標軸が回転した状態を表示することができる。
図5は、図4の画面が表示された後に、X軸まわりの回転角度RTxが変更されたことに伴って変化した画面の例を示す。この例では、画像表示領域201内の投影画像がユーザの操作に応じて変更されると共に、RTxの値に応じたモデル座標系の回転によりY軸およびZ軸の方向が変更されている。また画像表示領域201内の投影画像も、それぞれ変更後のYX平面およびYZ平面に直交する方向から透視変換を行った結果を表すものに変更されている。
図6は、図5の画面が表示された後に、さらに原点Oの位置が変更されたことにより変化した画面の例を示す。この実施例では、Y座標およびZ座標が変更されたことに伴い、画像表示領域201,202内の原点Oや各座標軸の表示位置が変更されている。
図7に参照を戻して説明を続ける。上記した方法により、ユーザが作業画面上のモデル座標系をロボット3の制御に適した状態になるように変更して、OKボタン208を操作すると、ST3およびST8が「YES」となる。これらの「YES」判定に応じて、CPU24は、その段階で各作業領域204,205の各入力ボックス207に表示されている設定値を確定し、これらの設定値に基づいて原点OおよびX,Y,Z軸の方向を変更する(ST9)。さらに、CPU24は、3次元モデルの各輪郭構成点の座標を、変更後のモデル座標系による座標に変換する(ST10)。そして、座標変換後の3次元モデルをメモリ25に登録し(ST11)、処理を終了する。
なお、座標変換後の3次元モデルの登録に伴い、元の3次元モデルは消去されるが、これに限らず、元の3次元モデルを無効化した状態で保存しておいてもよい。
なお、図4に示した初期状態の作業画面でOKボタン208が操作された場合には、ST9,10,11はスキップされて、処理終了となる。また、図7には示していないが、作業の途中でキャンセルボタン209が操作された場合には、各入力ボックス207内の設定値は破棄されて、初期状態の作業画面に戻る。
上記の処理によれば、ユーザは、モデル座標系の原点Oの位置や各座標軸の方向を確認しながら、これらがロボット3にワークWを把持させるのに必要な条件を満たす状態になるように変更する作業を容易に行うことができる。また、この変更操作は、現在のモデル座標系におけるX,Y,Z座標や各座標軸に対する回転角度RTx,RTy,RTzを用いて行われるので、変更の内容を容易に投影画像に反映させることができる。また、変更した内容を確定する操作(OKボタン208の操作)が行われた場合には、その時点で作業領域204,205に表示されている各数値を用いて、速やかにモデル座標系を変更することが可能になる。
上記の変更後の3次元モデルが登録された3次元視覚センサ100によれば、ワークWに対するロボット3のアーム30の方向やアーム30を延ばす位置を一意に特定できる情報が出力されるので、ロボットコントローラは、これらを用いて速やかにロボット3を制御することができる。さらに、この3次元視覚センサ100に、計測用の3次元座標系による座標をワールド座標系の座標に変換するための変換パラメータを登録しておけば、ロボットコントローラにおいて、3次元視覚センサ100から入力された情報を変換する必要がなくなり、ロボットコントローラにおける演算の負担をより一層軽減することが可能になる。
なお、上記の作業画面の画像表示領域201には、様々な視線方向からの投影画像を表示することができるが、最初の表示では、実際のワークWの画像と比較できるように、カメラC0,C1,C2のいずれかの撮像面に対する投影画像を表示するのが望ましい。また、このようにカメラの撮像面に対して透視変換処理を行うのであれば、まず各カメラC0,C1,C2によりワークWの実物モデルを撮像して3次元モデルによる認識処理を行い、その認識結果に基づき、実物モデルに3次元モデルを重ねあわせた画像を対象にした透視変換処理を行うようにしてもよい。このようにすれば、ユーザは実物モデルの投影画像を参照して、モデル座標系の原点や座標軸の方向を容易に定めることが可能になる。
また、図4〜6の例では、3次元モデルに設定されている輪郭構成点の全てを表示するようにしたが、透視変換の方向に基づき、その方向からの視認が可能な輪郭構成点のみに限定して表示を行うようにしてもよい。また、上記の実施例ではCADデータを用いて作成された3次元モデルを対象に、そのモデル座標系を修正しているが、ワークWの実物モデルのステレオ計測結果を用いて作成された3次元モデルに関しても、そのモデル座標系がロボットの制御に適していない場合には、上記と同様の処理によりモデル座標系を変更することが可能になる。
つぎに、上記の実施例では、3次元モデルをモデル座標系とともに表示して、ユーザの操作に応じてモデル座標系の設定を変更するようにしたが、モデル座標系の設定の変更はこの方法に限定されるものではない。以下に、考えられる方法を2つ紹介する。
(1)コンピュータグラフィックスの利用
コンピュータグラフィックスによりロボット3の作業空間のシミュレーション画面を立ち上げて、ロボット3によるピッキング動作をシミュレーションし、爪部32,32によりワークWを把持するのに最適な対象位置やワークWの最適な姿勢を特定する。そして、この特定結果に基づいてモデル座標系の原点や座標軸を変更し、3次元モデルの各構成点の座標を変更後のモデル座標系による座標に変換する。
(2)ステレオ計測の利用
ロボット3の作業空間において、ワークWをロボット3が最適な位置関係をもって把持した状態を設定して、カメラC0,C1,C2を用いたステレオ計測を実施し、アーム部30の方向や爪部32,32の位置および並び方向を計測する。また、ワークWに対しても3次元計測を実行して、計測結果を初期状態の3次元モデルにより照合し、原点Oに対応する座標やX,Y,Zの各座標軸の方向を特定する。そして、原点Oへの対応点と爪部32,32の計測位置から割り出される基準点Pとの間の距離や、アーム部30の方向に対するZ軸の回転角度、爪部32,32の並び方向に対するY軸の回転角度を導出し、これらの値に基づき、3次元モデル中の原点Oの座標や、Y,Zの各座標軸の方向を変更する。また、YZ平面に直交する方向をX軸方向に設定する。
100 3次元視覚センサ
C0,C1,C2 カメラ
1 ステレオカメラ
2 認識処理装置
24 CPU
25 メモリ
26 入力部
27 表示部
201,202,203 画像表示領域
206 スライダ
207 数値表示ボックス

Claims (2)

  1. 認識対象物のモデルの3次元形状を示す複数の点がそれぞれ当該モデル中の一点を原点とするモデル座標系の3次元座標により表された3次元モデルが登録される登録手段と、認識対象物を撮像するステレオカメラと、ステレオカメラにより生成されたステレオ画像を用いて、前記認識対象物を表す複数の特徴点につき、あらかじめ定めた計測用の3次元座標系における3次元座標を求める3次元計測手段と、3次元計測手段が取得した3次元座標の集合を前記3次元モデルと照合することにより、前記モデル座標系の原点に対応する3次元座標と、前記モデル座標系が示す3次元モデルの基準の姿勢に対する認識対象物の回転角度とを認識する認識手段と、認識手段により認識された3次元座標および回転角度を出力する出力手段とを具備する3次元視覚センサにおいて、
    前記計測用の3次元座標系に対する前記モデル座標系の位置および姿勢を定めて前記3次元モデルを配置し、この3次元モデルモデル座標系を構成する3本の座標軸とを所定の方向から透視変換して2次元の投影画像を生成する透視変換手段と、
    前記透視変換処理により生成された前記3次元モデルおよび各座標軸の投影画像をモニタに表示する表示手段と、
    前記3次元モデルおよび各座標軸の投影画像の表示下で前記モデル座標系の位置または姿勢を変更する変更操作を受け付けて、その操作により変更されたモデル座標系に応じて前記投影画像中の各座標軸の表示を変更する表示変更手段と、
    前記表示変更手段による各座標軸の表示変更に対する確定操作を受け付けて、前記モデル座標系を当該確定操作により確定された各座標軸の投影画像が示す位置および姿勢で確定すると共に、前記3次元モデルを構成する各3次元座標を確定後のモデル座標系による3次元座標に変更し、変更後の3次元モデルを前記認識手段の照合処理に使用される3次元モデルとして前記登録手段に登録するモデル修正手段とを、具備することを特徴とする3次元視覚センサ。
  2. 前記表示手段は、前記投影画像が表示されたモニタに、この投影画像中の各座標軸の交点への対応点の3次元座標として、初期のモデル座標系の原点の3次元座標を表示し、前記投影画像中の各座標軸が示すモデル座標系の姿勢として、前記投影画像中の各座標軸に対応する方向が前記初期のモデル座標系の各座標軸に対してなす回転角度を表示し、
    前記受付手段は、前記モニタに表示された3次元座標または回転角度を変更する操作を受け付ける、請求項1に記載された3次元視覚センサ。
JP2009266776A 2009-11-24 2009-11-24 3次元視覚センサ Active JP5471355B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009266776A JP5471355B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサ
US12/943,565 US20110122228A1 (en) 2009-11-24 2010-11-10 Three-dimensional visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009266776A JP5471355B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2011112400A JP2011112400A (ja) 2011-06-09
JP5471355B2 true JP5471355B2 (ja) 2014-04-16

Family

ID=44061797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009266776A Active JP5471355B2 (ja) 2009-11-24 2009-11-24 3次元視覚センサ

Country Status (2)

Country Link
US (1) US20110122228A1 (ja)
JP (1) JP5471355B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
RU2568290C1 (ru) 2011-11-14 2015-11-20 Кэнон Кабусики Кайся Устройство съемки изображения, устройство управления, способ управления и машиночитаемый носитель информации
JP6091092B2 (ja) * 2012-06-14 2017-03-08 キヤノン株式会社 画像処理装置、及び画像処理方法
JP6222898B2 (ja) * 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
JP2014069251A (ja) 2012-09-28 2014-04-21 Dainippon Screen Mfg Co Ltd 作業部制御装置、作業ロボット、作業部制御方法、および作業部制御プログラム
JP6322959B2 (ja) * 2013-11-05 2018-05-16 セイコーエプソン株式会社 ロボット、ロボットシステム、及びロボット制御装置
JP5897624B2 (ja) 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2016172718A1 (en) * 2015-04-24 2016-10-27 Abb Technology Ltd. System and method of remote teleoperation using a reconstructed 3d scene
JP6877191B2 (ja) * 2017-03-03 2021-05-26 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP6857052B2 (ja) * 2017-03-03 2021-04-14 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6892286B2 (ja) 2017-03-03 2021-06-23 株式会社キーエンス 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6598814B2 (ja) * 2017-04-05 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
DE102017207069A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
CN109813251B (zh) * 2017-11-21 2021-10-01 蒋晶 用于三维测量的方法、装置以及系统
JP7017469B2 (ja) * 2018-05-16 2022-02-08 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
JP6802225B2 (ja) 2018-08-31 2020-12-16 ファナック株式会社 情報処理装置および情報処理方法
JP6836628B2 (ja) * 2019-07-18 2021-03-03 株式会社ファースト ピッキングまたはデバンニング用対象物認識装置、ピッキングまたはデバンニング用対象物認識方法、ならびにプログラム
CN110985827B (zh) * 2019-12-09 2021-02-12 芜湖赛宝机器人产业技术研究院有限公司 一种用于测试工业机器人重复定位精度的减震支架
CN111089569B (zh) * 2019-12-26 2021-11-30 中国科学院沈阳自动化研究所 一种基于单目视觉的大型箱体测量方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3738456B2 (ja) * 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
JP2000234915A (ja) * 1999-02-12 2000-08-29 Keyence Corp 検査方法及び検査装置
JP2004191335A (ja) * 2002-12-13 2004-07-08 Toyota Motor Corp 形状測定装置
US7746377B2 (en) * 2003-11-28 2010-06-29 Topcon Corporation Three-dimensional image display apparatus and method
JP4595042B2 (ja) * 2005-09-30 2010-12-08 コニカミノルタセンシング株式会社 3次元測定方法およびシステム並びにマニピュレータの制御方法および装置
JP4940715B2 (ja) * 2006-03-15 2012-05-30 日産自動車株式会社 ピッキングシステム
US7912602B2 (en) * 2007-06-29 2011-03-22 Caterpillar Inc. Visual diagnostic system and subscription service
JP2009264956A (ja) * 2008-04-25 2009-11-12 Toyota Motor Corp 三次元形状・位置品質評価システム及びその方法

Also Published As

Publication number Publication date
JP2011112400A (ja) 2011-06-09
US20110122228A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
JP5471355B2 (ja) 3次元視覚センサ
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP5245938B2 (ja) 3次元認識結果の表示方法および3次元視覚センサ
JP7467041B2 (ja) 情報処理装置、情報処理方法及びシステム
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP4508252B2 (ja) ロボット教示装置
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
CN110977931A (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP2010210585A (ja) 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
EP1617380A1 (en) Device for producing shape model
JP2004295223A (ja) 画像処理装置及びロボットシステム
US20230347509A1 (en) Robot control apparatus, robot control method, and program
JP7323993B2 (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP2009175012A (ja) 計測装置および計測方法
JP5476943B2 (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2022092168A1 (ja) ロボット制御装置及びロボットシステム
WO2022176928A1 (ja) 教示装置
JP5862382B2 (ja) 作業支援装置
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
WO2023157083A1 (ja) ワークの位置を取得する装置、制御装置、ロボットシステム、及び方法
WO2024042619A1 (ja) 装置、ロボットの制御装置、ロボットシステム、方法
US20230241763A1 (en) Generation Method, Computer Program, And Generation System
JP2010210376A (ja) テンプレートマッチングシステムおよびテンプレートマッチング方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130424

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Ref document number: 5471355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150