JP5310130B2 - 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ - Google Patents

3次元視覚センサによる認識結果の表示方法および3次元視覚センサ Download PDF

Info

Publication number
JP5310130B2
JP5310130B2 JP2009057430A JP2009057430A JP5310130B2 JP 5310130 B2 JP5310130 B2 JP 5310130B2 JP 2009057430 A JP2009057430 A JP 2009057430A JP 2009057430 A JP2009057430 A JP 2009057430A JP 5310130 B2 JP5310130 B2 JP 5310130B2
Authority
JP
Japan
Prior art keywords
coordinate
camera
dimensional model
dimensional
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009057430A
Other languages
English (en)
Other versions
JP2010210458A (ja
Inventor
紫朗 藤枝
篤 種野
博司 矢野
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009057430A priority Critical patent/JP5310130B2/ja
Priority to US12/711,196 priority patent/US8280151B2/en
Publication of JP2010210458A publication Critical patent/JP2010210458A/ja
Application granted granted Critical
Publication of JP5310130B2 publication Critical patent/JP5310130B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Description

本発明は、ステレオカメラを用いた3次元計測処理により対象物を認識する3次元視覚センサに関するもので、特に、認識結果を表示するための技術に関する。
たとえば製造現場でロボットに部品などを把持させる目的で3次元認識処理を行う場合には、ステレオカメラによる3次元計測により復元された3次元情報を、あらかじめ登録された認識対象物の3次元モデルと照合することで、認識対象物の位置や姿勢(具体的には3次元モデルに対する回転角度)を認識する(たとえば特許文献1を参照。)。また同様の手法を検査に適用して、検査対象の物体の位置や姿勢の適否を判別する場合もある。
上記の認識処理に用いられる3次元モデルは、一般に、複数の3次元座標によって実寸大の認識対象物の形状(主として輪郭線)を表すものである。認識処理では、この3次元モデルと復元された3次元情報との一致度が最大になるように、両者を対応づけし、この時の3次元モデルの位置および回転角度を、認識対象物の位置および姿勢として特定する。
特開2000−94374号公報
上記の認識処理の結果は、位置を表す座標や姿勢を表す角度として表示することができるが、単なる数値表示のみではユーザにはわかりづらいため、認識結果やその精度を容易に確認できるような表示をしてほしい、という要望が出されている。
そこで、発明者は、3次元モデルを認識した位置や回転角度に基づいて座標変換し、座標変換後のモデルを3次元表示することを検討した。また3次元モデルを認識結果に基づいて座標変換したものを、カメラの撮像面に透視変換すると、認識対象物と同様の見え方の投影像が生成されることから、この3次元モデルの投影像を認識対象物の画像に重ね合わせた表示をベースにして、視線方向の変更に応じて、3次元モデルの投影像を立体的な表示に変更する方法を検討した。
しかし、透視変換処理では、カメラの倍率を反映したパラメータに基づいて、実際の画像による見え方と同様になるような投影像を生成するので、同一の面積の平面であっても、カメラからの距離が異なると、撮像面に結像する平面の大きさが異なるものになる。このため、3次元モデルの投影像の各点に元のモデルの対応点のZ座標に応じた高さを対応づけたものを、撮像面に直交する方向から離れた方向から透視変換すると、Z座標の違いによる大きさが変動した投影像がそのまま投影されて、3次元モデルの形状を適切に表現しない投影像になることが判明した。
本発明は、上記の問題を解消し、3次元認識処理に用いた画像に対応づけて3次元モデルの立体視表示を行う場合に、実際の3次元モデルや認識対象物に適合した表示を行えるようにすることを課題とする。
本発明による方法は、少なくとも1台のカメラを含む撮像手段と、実寸大の認識対象物の全体の輪郭形状を表す3次元情報が3次元モデルとして登録される登録手段と、撮像手段内のカメラの光軸の方向を横切る所定の平面からの距離が高さを示すZ座標となるようにワールド座標系が定められていることを条件に、登録手段に3次元モデルが登録されている認識対象物を対象に撮像手段が実行した撮像により生成された画像中のエッジに対する3次元計測を実行し、この計測により復元された3次元情報を登録された3次元モデルと照合して、認識対象物の位置および姿勢を認識する認識手段とを具備する3次元視覚センサにおいて、認識手段により認識された結果を表示するために実行されるものである。この方法では、撮像手段内のカメラのうちの少なくとも1台を処理対象として、処理対象のカメラの座標系とワールド座標系との関係に基づき、空間内の高さが0の平面を処理対象のカメラの撮像面に透視変換したときの当該撮像面に割り当てられる1画素あたりの寸法を特定する準備のステップをあらかじめ実行する。そして、処理対象のカメラ毎に、以下の第1〜第4の各ステップを実行する。
第1ステップでは、処理対象のカメラの撮像面に対する視線の方向を指定する操作を受け付ける。第2ステップでは、認識手段により認識された位置および姿勢に基づき座標変換された3次元モデルを対象に、当該3次元モデルに含まれる複数の点のZ座標を、第1ステップで受け付けた視線方向と処理対象のカメラの撮像面との関係に基づいて補正し、Z座標が補正された各点を、それぞれ処理対象のカメラの座標系とワールド座標系との関係に基づき、処理対象のカメラの撮像面に透視変換する。以下、この透視変換を「第1の透視変換」という。なお、カメラの座標系とワールド座標系との関係は後記する(1)式により表されるもので、あらかじめキャリブレーションにより(1)式中の透視変換行列の各要素を求めることにより、各座標系の関係を特定することができる。
第3ステップでは、第1の透視変換により処理対象のカメラの撮像面に生成された各投影点に対し、それぞれ座標変換後の3次元モデルの対応点の補正前のZ座標を前記準備のステップで特定された1画素あたりの寸法に基づき画素数に換算して、換算された画素数を高さとして設定し、この高さの設定がなされた各点を第1ステップで受け付けた視線方向から透視変換する。以下、この透視変換を「第2の透視変換」という。
第4ステップでは、第2の透視変換により生成された投影像をモニタ装置に表示する。
さらに上記の方法では、第2ステップのZ座標の補正について、第1ステップで受け付けた視線方向と処理対象のカメラの撮像面とが直交する関係になるときの各Z座標に対する補正量を0とし、視線方向が撮像面に平行になるときの各Z座標を一定の値Z0に補正し、視線方向と撮像面との関係が直交する状態から平行になる状態に近づくにつれて補正後の各Z座標を上記のZ0に近づけ、かつ任意の2つのZ座標Z1,Z2(Z1>Z2)の補正後のZ座標Z1´,Z2´について、Z1´>Z2´の関係を維持しながら両者間の差をしだいに小さくするように補正演算のルールを定める。そして、この演算ルールに基づき、第2ステップにおいて補正対象の各点のZ座標を補正し、この補正後の各点をカメラの撮像面に透視変換する。
上記の方法では、認識された位置および姿勢に合うように座標変換された3次元モデルに含まれる複数の点のZ座標を、ユーザの指定した視線方向と処理対象のカメラの撮像面との関係に基づき補正してから、補正後の各点を処理対象のカメラの撮像面に透視変換する(第1の透視変換)。さらに、この第1の透視変換により撮像面に生成された投影像の各点に、それぞれ座標変換後の3次元モデルの対応点の補正前のZ座標に応じた高さを設定することによって、各点を3次元モデルの対応点の高さに対応する位置に配置して、これら3次元的に分布する各点を対象に第2の透視変換を実行する。
以下、カメラの座標系の各軸をx,y,zとして説明する(xy平面が撮像面に対応する。)と、視線方向として撮像面に直交する方向、言い換えれば撮像面を正面から見る方向が指定された場合には、3次元モデルのZ座標に対する補正量は0となるので、第1の透視変換では、座標変換後の3次元モデルがそのままカメラ座標系のxy平面(撮像面)に投影されることになる。よって、xy平面に生成される投影像は、処理対象のカメラにより3次元モデルを撮像した場合に生成される画像と同様のものになると考えられる。また各点に3次元モデルの対応点のZ座標に応じた高さを設定して、撮像面に直交する方向から透視変換しても、投影像の見え方は、第1の透視変換により生成された投影像と同様になる。したがって、Z座標に対する補正が行われなくとも、座標変換後の3次元モデルを処理対象のカメラの撮像面に投影した場合と同様の画像を表すことができる。
一方、撮像面に平行な方向が視線方向に指定された場合、すなわちカメラ座標系のz軸方向に直交する方向が視線方向として指定された場合には、各Z座標はすべて一定の値Z0に補正される。したがって、第1の透視変換では、X,Yの各座標が同一の点は、補正前のZ座標に関係なく、カメラ座標系のxy平面の同じ座標に投影される。したがって、3次元モデルの投影像の各点に、座標変換後の3次元モデルの対応点の補正前のZ座標に応じた高さを設定すると、X,Yの各座標が同一であった各投影点を、それぞれのx,y座標が同一の状態を維持したまま、本来のZ座標に応じた高さに配置することができる。よって、これらの点を真横方向から透視変換することによって、3次元モデルを真横から観察した状態を歪みなく表す画像を生成することが可能になる。
つぎに、撮像面に対して斜めになる方向が視線方向に指定された場合には、その視線方向が撮像面に平行な状態に近づくにつれて、補正後の各座標がZ0に近づき、かつ補正後のZ座標間の差が小さくなるように各Z座標が補正される。したがって、撮像面に直交する方向から視線方向が大きくずれても、第1の透視変換により生成される投影像におけるZ座標の影響を小さくする一方で、投影像の各点を、本来のZ座標に応じた高さに配置して、第2の透視変換を実施することができるので、第2の投影変換による投影像に歪みが生じるのを防止することができる。よって、指定された方向から観測した3次元モデルを違和感なく表した画像を生成することができる。
したがって、ユーザは、視線方向を種々に変更して表示された投影像中の3次元モデルの状態を確認することによって、3次元モデルによる認識結果を視覚的に確認することができる。
さらに第3ステップでは、3次元モデルの各投影点のz座標に、x,y座標とほぼ同じ倍率が設定されるので、高さ方向の寸法を適切なものにして第2の透視変換を実施することができ、違和感のない画像を生成して表示することができる。
本発明による3次元視覚センサは、少なくとも1台のカメラを含む撮像手段と、実寸大の認識対象物の全体の輪郭形状を表すを表す3次元情報が3次元モデルとして登録される登録手段と、撮像手段内のカメラの光軸の方向を横切る所定の平面からの距離が高さを示すZ座標となるようにワールド座標系が定められていることを条件に、登録手段に3次元モデルが登録されている認識対象物を対象に撮像手段が実行した撮像により生成された画像中のエッジに対する3次元計測を実行し、この計測により求めた3次元情報を登録された3次元モデルと照合して、3次元モデルに対する認識対象物の位置および姿勢を認識する認識手段とを具備する。
さらに、この3次元視覚センサは、撮像手段内のカメラのうちの少なくとも1つを処理対象として、この処理対象のカメラの撮像面に対する視線の方向を指定する操作を受け付ける指定操作受付手段;指定操作受付手段が受け付けた視線方向と処理対象のカメラの撮像面との関係に基づいて、認識手段により認識された位置および姿勢に基づき座標変換した3次元モデルに含まれる複数の点のZ座標を補正し、Z座標が補正された各点を、それぞれ処理対象のカメラとワールド座標系との関係に基づき、処理対象のカメラの撮像面に透視変換する第1の透視変換手段;第1の透視変換手段が実行した透視変換処理により処理対象のカメラの撮像面に生成された各投影点に対し、それぞれ座標変換後の3次元モデルの対応点の補正前のZ座標を当該撮像面における1画素あたりの寸法としてあらかじめ設定された値に基づき画素数に換算して、換算された画素数を高さとして設定し、この高さの設定がなされた各点を指定操作受付手段が受け付けた視線方向から透視変換する第2の透視変換手段;第2の透視変換手段が実行した透視変換により生成された投影像をモニタ装置に表示する表示制御手段とを具備する。また第1の透視変換手段には、Z座標の補正演算のためのルールとして、視線方向と処理対象のカメラの撮像面とが直交する関係になるときの各Z座標に対する補正量を0とし、視線方向が撮像面に平行になるときの各Z座標を一定の値Z0に補正し、視線方向と撮像面との関係が直交する状態から平行になる状態に近づくにつれて補正後の各Z座標をZ0に近づけ、かつ任意の2つのZ座標Z1,Z2(Z1>Z2)の補正後の値Z1´,Z2´について、Z1´>Z2´の関係を維持しながら両者間の差をしだいに小さくするように定められた演算ルールが設定される。第1の透視変換手段は、この演算ルールに基づき、補正対象のZ座標を補正し、この補正がなされた各点を処理対象のカメラの撮像面に透視変換する。
上記の認識結果の表示方法、およびこの方法を適用した3次元視覚センサによれば、3次元モデルの3次元表示を介して、3次元モデルとの照合による認識結果の確認を容易に行うことが可能になり、3次元視覚センサの利便性が大幅に高められる。
3次元視覚センサが導入された生産ラインの構成を示す図である。 3次元視覚センサの電気構成を示すブロック図である。 3次元モデルの構成例を示す図である。 3次元モデルによる認識結果の確認用画面を示す図である。 確認用画面の画像が更新された例を示す図である。 確認用画面の画像が更新された例を示す図である。 3次元モデル画像の作成処理の手順を示すフローチャートである。 1つのワークに対して実行される処理の手順を示すフローチャートである。
図1は、3次元視覚センサ100を、工場の生産ラインに導入した例を示す。
この実施例の3次元視覚センサ100は、所定の製品に組み込まれるために搬送ライン101により搬送されているワークW(説明を簡単にするために形態を単純化して示す。)の位置や姿勢を認識する目的に使用されている。認識結果を示す情報は、ライン101の下流に配備されたロボットのコントローラ(いずれも図示せず。)に送信され、ロボットの動作の制御に用いられる。
3次元視覚センサ100は、ステレオカメラ1と、ライン101の近傍に配備された認識処理装置2とにより構成される。ステレオカメラ1は、搬送ライン101の上方に横並びに配置された3台のカメラA,B,Cにより構成される。これらのうち中央のカメラAは、光軸を鉛直方向に向けた状態(すなわちワークWを正面視する状態)にして配備され、左右のカメラB,Cは、光軸を斜めにして配備される。
認識処理装置2は、専用のプログラムが格納されたパーソナルコンピュータであり、モニタ装置25や、キーボード27,マウス28などを具備する。この認識処理装置2では、各カメラA,B,Cが生成した画像を取り込んで、ワークWの輪郭線を対象とする3次元計測を実行した後に、復元された3次元情報を、あらかじめ装置内に登録された3次元モデルと照合する。
図2は、上記の3次元視覚センサ100の構成をブロック図により表したものである。
この図によれば、認識処理装置2には、各カメラA,B,Cに対応する画像入力部20A,20B,20C、カメラ駆動部21、CPU22、メモリ23、入力部24、表示部25、通信インターフェース26などが含まれる。
カメラ駆動部21は、CPU22からの指令に応じて、各カメラA,B,Cを同時に駆動する。これにより各カメラA,B,Cで生成された画像は、画像入力部20A,20B,20Cを介してCPU22に入力される。
表示部25は、図1におけるモニタ装置である。また入力部24は、図1のキーボード27およびマウス28をまとめたものである。これらは、キャリブレーション処理の際に、設定のための情報を入力したり、作業を支援するための情報を表示する目的に使用される。通信インターフェース26は、ロボットコントローラとの通信に用いられる。
メモリ23は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータや3次元モデルも、メモリ23内の専用のエリアに登録される。
CPU22は、メモリ23内のプログラムに基づき、キャリブレーション処理や3次元モデルの登録処理を実行する。これによりワークWに対する3次元認識処理が可能な状態になる。
キャリブレーション処理では、所定のキャリブレーションパターンが描かれたキャリブレーションプレート(図示せず。)を用いて、ワークWを支持する面(すなわち図1の搬送ライン101の上面)からの距離が高さを示すZ座標となるようにワールド座標系を定義する。そして、キャリブレーションプレートの撮像および画像処理を複数サイクル実行して、カメラ毎に、3次元座標(X,Y,Z)と2次元座標(x,y)との組み合わせを複数組特定し、これらの座標の組み合わせを用いて、下記の変換式((1)式)に適用する3行4列の透視変換行列を導出する((1)式中のSは、後記する(1−2)式により算出することができる。)。
Figure 0005310130
上記の透視変換行列の各要素P00,P01・・・P23は、3次元計測用のパラメータとしてカメラA,B,C毎に求められ、メモリ23内に登録される。この登録が完了することによって、ワークWに対する3次元計測が可能な状態となる。
この実施例の3次元計測処理では、各カメラA,B,Cにより生成された画像からエッジを抽出した後に、各エッジを、連結点や分岐点を基準に「セグメント」と呼ばれる単位に分解し、各セグメントを画像間で対応づける。そして、対応づけられたセグメントの組毎に、上記のパラメータを用いた演算を実行することにより、3次元のセグメントを表す3次元座標の集合を導出する。以下、この処理を「3次元情報の復元」という。
上記の3次元情報の復元処理のために、この実施例では、図3に示すような、ワークWの全体の輪郭形状を表す3次元モデルMを生成する。この3次元モデルMには、複数のセグメントの3次元情報のほか、代表点として、内部の一点O(重心など)の3次元座標が含められる。
上記の3次元モデルMを用いた認識処理では、3次元計測により復元された3次元情報における特徴点(具体的には、セグメントの分岐点)と3次元モデルM側の特徴点とを総当たり式に対応づけて、両者間の類似度を算出する。そして類似度が最も大きくなったときの各特徴点の対応関係を正しい関係として特定し、このときに3次元モデルMの代表点Oに対応した座標を、ワークWの位置として認識する。またこの特定された関係になったときの3次元モデルMの回転角度を、3次元モデルMが示す基本の姿勢に対するワークWの回転角度として認識する。この回転角度は、X,Y,Zの軸毎に算出される。
この実施例では、登録した3次元モデルMによる認識処理の結果を、ユーザが適宜確認することができるように、図4に示すような画面を表示部25に表示する。この確認用の画面は左右に二分され、右側に画像表示領域30が、左側に操作領域31が、それぞれ設定されている。
画像表示領域30には、カメラA,B,Cのいずれか(ここでは正面視用のカメラAが選択されている。)により生成されて認識処理に使用された画像G(以下、「処理対象画像G」という。)が、所定広さの背景領域(画像表示領域30内の白い部分)とともに表示される。図4およびつぎの図5,6では、この処理対象画像G中のワークWをWの符号で示す。
さらに画像表示領域30には、3次元モデルMを表す一様な色彩の画像M(ワークWの輪郭形状を示すもの)が処理対象画像Gに重ねて表示されている。この3次元モデルの画像Mは、以下の図5,6に示すように、画像に対する視線の方向を変更する指定により立体的な表示に変更される。以下、この3次元モデルの立体視画像Mを「3次元モデル画像M」という。
左側の操作領域31には、方位角θ、仰角φ、横方向の移動量、縦方向の移動量の4種類の数値情報について、それぞれ入力ボックス32およびスライダ33が個別に設けられている。ユーザは、入力ボックス32への数値入力またはスライダ33の移動操作によって、各数値の入力または変更を行う。
さらに操作領域31の上部には、画像表示領域30の表示を選択するための選択ボックス35が設けられている。ユーザは、この選択ボックス35からメニューを呼び出して、画像表示領域を他の表示モード(説明は省略する。)に切り替えることができる。
また操作領域31の下端部には、画像表示領域30内の表示を一段階前の状態に戻すためのボタン34が設けられている。図示していないが、図4に示す初期状態の画面では、このボタン34は無効な状態に設定されている。
方位角θは、表示されている画像に対する視点の方位を表すものであるが、便宜的に、表示部25の表示画面の座標系に対する処理対象画像Gの座標系の回転角度により表現する。
仰角φは、表示されている画像の面に対して視線方向がなす角度である。たとえば、画像を正面から見ている場合にはφ=90°となり、画像を真横から見ている場合にはφ=0°となる。
なお、後記する(d)式による透視変換処理の観点でいうと、方位角θは、カメラAのカメラ座標系における視点の方位を示し、仰角はカメラ座標系のxy平面(撮像面に対応する。)に対して視線方向がなす角度を示すことになる。
横方向および縦方向の各移動量は、画像表示領域30における画像の配置位置を設定するためのものである。これらの移動量も、θ,φとともに透視変換処理のパラメータとして使用される。
図4の画面は、認識処理が終了した直後に表示されるもので、画像表示領域30にはカメラAにより生成された処理対象画像Gが、通常の姿勢(画像のx軸方向を画面の左右方向に、y軸方向を画面の上下方向に対応づけた状態をいう。)で表示されている。また処理対象画像Gに重ね表示されている3次元モデル画像Mも、位置および姿勢を認識結果に合わせた3次元モデルをカメラAの視線から観察した状態を示すものとなる。したがってこの例のように、3次元モデル画像Mと処理対象画像G中のワークWとが精度良く位置合わせされた状態であれば、3次元モデルMによる認識が精度良く行われていると考えられる。
画像表示領域30内の表示が上記の状態にあるとき、操作領域31内の方位角θは0°を示し、仰角φは90°を示している。この実施例では、これらの角度θ,φをユーザが自由に変更することによって、上記のワークWや立体視画像の表示を変更できるようにしている。
図5は、方位角θを0°に維持したまま、仰角φを44°に設定したときの表示画面の例を示す。この場合には、処理対象画像Gが斜め上から観測された状態のものに変更されるとともに、3次元モデル画像Mも3次元モデルMを斜め上から見た状態を表す立体視画像に変更されている。
図6は、方位角を45°とし、仰角を0°としたときの画面を示す。この場合には、画像を45°回転させて真横から観察する旨が指定されていることになるため、処理対象画像Gは一次元の状態で表示されている。また、3次元モデル画像Mは、3次元モデルMを図4,5に示す状態から45°回転させて、視線に対向する側の側面を表したものに変更される。
なお、図5や図6の表示例では、3次元モデル画像Mは処理対象画像よりも少し上方に配置されているが、これは処理対象画像との比較の便宜のための措置である。このような表示例に限らず、3次元モデルMの底面に相当する部位を処理対象画像中のワークWに対応づけた状態にして表示してもよい。
上記の処理対象画像Gや3次元モデル画像Mの変化は、いずれも操作領域31で設定された内容に基づく透視変換処理により生じたものである。処理対象画像Gは2次元データであるため、透視変換後も平面として表示される。一方、3次元モデル画像Mについては、実寸大の認識対象物を表す3次元情報をカメラAのカメラ座標系における3次元情報に変換したものを透視変換することにより、上記のような立体視画像を表示することができる。
図7は、3次元モデル画像の生成に関する手順を示す。以下、このフローチャートに示す4つのステップA,B,C,Dについて、詳細に説明する。
<ステップA>
このステップAでは、メモリ23に登録されている3次元モデルを、ワークWにつき認識した位置および回転角度に基づいて座標変換する。具体的には、3次元モデルMの代表点Oとして登録されている座標に対し、ワークWの代表点として認識された座標の位置ずれ量をX,Y,Zの軸毎に求める。そして、これらの位置ずれ量と、3次元モデルに対するワークWの回転角度として算出された角度(X,Y,Zの軸毎の回転角度)とに基づき、同次座標変換の変換行列の各要素T00,T01,T02・・・T23(下記の(a)式を参照)を決定する。
この後は、3次元モデルMに含まれる各点について、それぞれその点の座標(XMP,YMP,ZMP)と同次変換行列とをあてはめた(a)式による演算を実行することにより、変換後の座標(Xt,Yt,Zt)を求める。以下、この変換後の座標(Xt,Yt,Zt)が示す3次元モデルを「3次元モデルMt」と記載する。
Figure 0005310130
<ステップB>
このステップでは、上記の3次元モデルMtの各点について、そのZ座標Ztを仰角φを用いて補正する。具体的には、仰角φおよび3次元モデルMtの代表点のZ座標Z0をあてはめた下記の(b)式により、補正後のZ座標Zt´を算出する。なおZ0は、図3の代表点Oの座標をステップAで座標変換することにより得られる。
Figure 0005310130
上記の(b)式によれば、φが90°のときに、Zt´=Zt、すなわち補正量が0の状態となる。またφが0°のとき、Zt´=Z0、すなわちZtの値に関わらず、すべてのZ座標が一定値Z0に変換される状態になる。
また90°より小さく0°より大きい数値範囲においては、φの値が0°に近づくにつれて、補正後のZt´の値がZ0に近づく。また大きさの異なる2つのZ座標の補正後の座標間の距離も、φの値が0°に近づくにつれて短くなる。
<ステップC>
このステップCでは、上記の(b)式によりZ座標を補正した後の3次元モデルMtをカメラAの座標系のxy平面に透視変換する。
ここで、先の(1)式を用いて一般的な透視変換について説明すると、(1)式は以下の(1−1)式と(1−2)式とに分解することができる。
Figure 0005310130
よって、(1−1)式中のSを(1−2)式の右辺に置き換えることによって、変換前の3次元座標(X,Y,Z)と変換後の2次元座標(x,y)との関係を、(2)式のように表すことができる。
Figure 0005310130
しかし、上記の一般的な変換式は、3次元情報が示す立体形状をカメラにより撮像した状態を表すものであるから、同一形状、同一面積の平面であっても、それぞれのZ座標が異なると投影像の大きさも異なるものになる(カメラから離れるほど、すなわちZ座標が小さくなるほど、投影像は小さくなる。)。この異なる大きさの投影像を、撮像面に直交する方向から離れた方向から透視変換すると、これらの大きさの違いがそのまま投影され、3次元モデルの形状を適切に表現しない投影像が生成されてしまう。
このため、本実施例では、補正後のZ座標Zt´を組み込んだ以下の(c)式を実行することにより、Z座標の違いに伴って投影像の変動量を調整するようにしている。
Figure 0005310130
先に述べたように、Zt´の値は、仰角φが0°に近づくにつれて一定の値Z0に近づき、各Z座標の補正後の値の差も小さくなる。よって、このZt´を組み込んだ(c)式によって、仰角φが0°に近づくにつれて、Z座標の違いによる投影位置の差が小さくなるように、3次元モデルMtの各点の投影位置を調整することができる。
<ステップD>
上記のステップCにより、3次元モデルの各点は、カメラAの座標系のxy平面に2次元座標として投影された状態となる。ステップDでは、投影された各点につき、3次元モデルMtの対応点の補正前のZ座標Ztを画素単位の座標に換算したものを、高さとして対応づけることにより、各点にカメラ座標系の3次元座標を付与する。そして、これらの3次元座標の集合を、操作領域31に設定された各情報を用いて透視変換する。具体的な演算式は(d)式のようになる。
Figure 0005310130
上記(d)式において、(xo,yo)は、カメラ座標系の原点に対応する画面上の座標である。またtxは、操作領域31で指定された横方向の移動量に、tyは縦方向の移動量に、それぞれ相当する。
また(d)式中のKは、カメラ座標系の倍率(1画素あたりの実寸法。単位はmm)である。この倍率Kは、ワールド座標系のZ=0の平面とカメラ座標系のx=0の平面との関係に基づいて、以下のようにして割り出される。
まずワールド座標系の原点(0,0,0)を前出の(2)式に代入することにより設定した(2−1)式により、当該原点の投影点の座標(x,y)を算出する。
Figure 0005310130
つぎに、X軸において原点から1mm離れた点に相当する座標(1,0,0)と、Y軸において原点から1mm離れた点に相当する座標(0,1,0)とを、それぞれ(2)式に代入することにより、(2−2)式および(2−3)式を設定し、これらの式から、座標(1,0,0)に対する投影点の座標(x,y)および座標(0,1,0)に対する投影点の座標(x,y)を算出する。
Figure 0005310130
Figure 0005310130
この後、カメラ座標系に関して、上記の各投影点の座標を用いて(3)式および(4)式を実行することにより、ワールド座標系のX軸方向に対応する方向における1画素あたりの寸法Kxと、ワールド座標系のY軸方向に対応する方向における1画素あたりの寸法Kyとを算出する。そして、Kx,Kyの平均値を倍率Kとする。
Figure 0005310130
なお、上記の倍率Kを求める演算は、あらかじめキャリブレーション処理の終了後などに実行することができる。
先の(d)式では、各投影点に、実寸法によるZ座標Ztを上記の倍率Kにより画素単位の座標に換算したものをZ座標として設定している。したがって、カメラAの座標系のz=0の面に投影された各点を、それぞれZt/Kに相当する距離だけz=0の面から移動させて、各点をカメラ座標系に3次元的に配置した状態を設定して、透視変換を行うことになる。
このように、各投影点のz座標に、x座標やy座標とほぼ同じ倍率を設定するので、高さ方向における投影点の間隔が間延びした状態になることがなく、xy平面における分布との釣り合いがとれた状態の3次元情報を透視変換することができる。また前出の(b)(c)式によって、各投影点のx座標およびy座標が仰角φの値に応じて調整されるので、設定された視線の方向が撮像面を正面視する方向から大きくずれても、3次元モデルMtの各点が投影される位置に対するZ座標の影響を小さくすることができ、2回目の透視変換による投影像に歪みが生じるのを防止することができる。したがって、3次元モデルの形状を違和感なく表した立体視画像を生成することが可能になる。
つぎに図8は、1つのワークWに対して実行される処理全体の手順の概略を示す。
このフローチャートに基づき説明すると、まずステップS1でワークWに対する3次元計測を実行する。つぎのステップS2では、上記の計測により復元された3次元情報を3次元モデルにより照合して、ワークWの位置および回転角度を認識する。
つぎに、ステップS3では、まず方位角θおよび仰角φにそれぞれ初期値の0°および90°を設定して、3次元モデルMにつき、先の図7のステップA,B,C,Dを実行して3次元モデル画像Mを生成する。ステップS4では、生成した3次元モデル画像Mと処理対象画像Gとを重ねた状態にして表示部25に表示する。これにより表示部25の画面には、図4に示した状態の画像が表示されることになる。
以後は、終了操作が行われるまで、透視変換用のパラメータの設定を変更する操作に応じて、3次元モデル画像Mおよび処理対象画像Gの表示を更新する処理を実行する(ステップS5,6,7)。
上記のループのステップS6について、具体的に説明する。
このステップでは、座標変換後の3次元モデルMtについて、図7のステップB,C,Dを実行することにより、指定された方位角θおよび仰角φに応じた3次元モデル画像を生成する。すなわち図7のステップAは、認識処理の終了後に1回実行すれば良く、以後は、座標変換後の3次元モデルMtを対象に、ステップB,C,Dの処理を行うことで、3次元モデル画像Mを生成することができる。
また、処理対象画像Gについては、各画素のx,y座標をそのまま適用するとともに、全ての画素にz座標として0を設定し、上記の(d)式と同様の演算を実行する。そして、変換後の処理対象画像Gに3次元モデル画像Mを重ねたものにより、画像表示領域30内の表示を更新する。
上記の手順によれば、ユーザは、まず通常の姿勢の処理対象画像Gとこれに合わせた3次元モデル画像Mとによる表示を見て、認識の結果や精度を確認した後に、方位角θや仰角φを自由に変更して、3次元モデルと処理対象画像中のワークWとの関係を、種々の方向から確認することができる。
なお、上記の実施例の画像表示はカメラAを対象に実行されているが、他のカメラB,Cについても、同様の手法で、それぞれのカメラで生成された画像と3次元モデル画像とを対応づけて、種々の方向からの透視変換処理による画像を表示することができる。また上記の実施例では、3次元モデル画像Mの作成開始時に、3次元モデル画像を認識結果に基づいて座標変換するとしたが、上記ステップS2の認識処理において実行した座標変換の結果を保存しておけば、その保存データを用いることで、再度の座標変換を不要にすることができる。
また、上記の実施例では、複数のカメラを用いたステレオ計測によりワークWの3次元情報を復元したが、3次元計測の方法はステレオ計測に限らず、1台のカメラにより生成された画像を処理する方法をとることも可能である。たとえば、ワークWの表面にスポット光を照射して画像中の輝点の座標からスポット光の照射位置の3次元座標を求める方法がある。またワークモデルの高さを種々に変更して撮像を行うことにより複数の2次元モデルを生成し、処理対象のワークWの画像を各2次元モデルと順に照合してワークWの高さおよび回転角度を特定し、この特定結果を画像中の各特徴点に反映させて、複数の3次元座標を導出する場合もある。いずれの方法でも、復元された3次元情報を実物大の3次元モデルと照合してワークWの位置および姿勢を認識する場合には、その認識結果を上記の実施例と同様の手法で表示することができる。
100 3次元視覚センサ
1(A,B,C) ステレオカメラ
2 認識処理装置
22 CPU
23 メモリ
24 入力部
25 モニタ装置(表示部)
W ワーク
M 3次元モデル

Claims (3)

  1. 少なくとも1台のカメラを含む撮像手段と、実寸大の認識対象物の全体の輪郭形状を表す3次元情報が3次元モデルとして登録される登録手段と、前記撮像手段内のカメラの光軸の方向を横切る所定の平面からの距離が高さを示すZ座標となるようにワールド座標系が定められていることを条件に、前記登録手段に3次元モデルが登録されている認識対象物を対象に前記撮像手段が実行した撮像により生成された画像中のエッジに対する3次元計測を実行し、この計測により復元された3次元情報を登録された3次元モデルと照合して、認識対象物の位置および姿勢を認識する認識手段とを具備する3次元視覚センサにおいて、前記認識手段により認識された結果を表示する方法であって、
    前記撮像手段内のカメラのうちの少なくとも1台を処理対象として、処理対象のカメラの座標系とワールド座標系との関係に基づき、空間内の高さが0の平面を処理対象のカメラの撮像面に透視変換したときの当該撮像面に割り当てられる1画素あたりの寸法を特定する準備のステップをあらかじめ実行し、
    処理対象のカメラの撮像面に対する視線の方向を指定する操作を受け付ける第1ステップ、
    前記認識手段により認識された位置および姿勢に基づき座標変換された3次元モデルを対象に、当該3次元モデルに含まれる複数の点のZ座標を、第1ステップで受け付けた視線方向と処理対象のカメラの撮像面との関係に基づいて補正し、Z座標が補正された各点を、それぞれ前記処理対象のカメラの座標系と前記ワールド座標系との関係に基づき、処理対象のカメラの撮像面に透視変換する第2ステップ、
    前記透視変換処理により処理対象のカメラの撮像面に生成された各投影点に対し、それぞれ前記座標変換後の3次元モデルの対応点の補正前のZ座標を前記準備のステップで特定された1画素あたりの寸法に基づき画素数に換算して、換算された画素数を高さとして設定し、この高さの設定がなされた各点を前記第1ステップで受け付けた視線方向から透視変換する第3ステップ、
    前記第3ステップの透視変換により生成された投影像をモニタ装置に表示する第4ステップ、
    の各ステップを、処理対象のカメラ毎に実行し、
    前記第2ステップでは、Z座標の補正について、前記第1ステップで受け付けた視線方向と処理対象のカメラの撮像面とが直交する関係になるときの各Z座標に対する補正量を0とし、前記視線方向が撮像面に平行になるときの各Z座標を一定の値Z0に補正し、前記視線方向と撮像面との関係が直交する状態から平行になる状態に近づくにつれて補正後の各Z座標を前記Z0に近づけ、かつ任意の2つのZ座標Z1,Z2(Z1>Z2)の補正後のZ座標Z1´,Z2´について、Z1´>Z2´の関係を維持しながら両者間の差をしだいに小さくするように定められた補正演算のルールに基づき、前記補正対象の各点のZ座標を補正し、この補正後の各点を前記カメラの撮像面に透視変換する、
    ことを特徴とする3次元視覚センサによる認識結果の表示方法。
  2. 前記ワールド座標系のXY平面は、前記認識対象物を支持する平面に平行に設定されており、
    前記撮像手段には、前記XY平面に光軸を直交させて配置された正面視カメラが含まれており、この正面視カメラに対し、前記準備のステップおよび第1〜第3の各ステップが実施される、請求項1に記載された3次元視覚センサによる認識結果の表示方法。
  3. 少なくとも1台のカメラを含む撮像手段と、実寸大の認識対象物の全体の輪郭形状を表す3次元情報が3次元モデルとして登録される登録手段と、前記撮像手段内のカメラの光軸の方向を横切る所定の平面からの距離が高さを示すZ座標となるようにワールド座標系が定められていることを条件に、前記登録手段に3次元モデルが登録されている認識対象物を対象に前記撮像手段が実行した撮像により生成された画像中のエッジに対する3次元計測を実行し、この計測により求めた3次元情報を登録された3次元モデルと照合して、3次元モデルに対する認識対象物の位置および姿勢を認識する認識手段とを具備する3次元視覚センサにおいて、
    前記撮像手段内のカメラのうちの少なくとも1つを処理対象として、この処理対象のカメラの撮像面に対する視線の方向を指定する操作を受け付ける指定操作受付手段と
    前記指定操作受付手段が受け付けた視線方向と処理対象のカメラの撮像面との関係に基づいて、前記認識手段により認識された位置および姿勢に基づき座標変換した3次元モデルに含まれる複数の点のZ座標を補正し、Z座標が補正された各点を、それぞれ前記処理対象のカメラと前記ワールド座標系との関係に基づき、処理対象のカメラの撮像面に透視変換する第1の透視変換手段と、
    前記第1の透視変換手段が実行した透視変換処理により処理対象のカメラの撮像面に生成された各投影点に対し、それぞれ前記座標変換後の3次元モデルの対応点の補正前のZ座標を当該撮像面における1画素あたりの寸法としてあらかじめ設定された値に基づき画素数に換算して、換算された画素数を高さとして設定し、この高さの設定がなされた各点を前記指定操作受付手段が受け付けた視線方向から透視変換する第2の透視変換手段と、
    前記第2の透視変換手段が実行した透視変換により生成された投影像をモニタ装置に表示する表示制御手段とを具備し、
    前記第1の透視変換手段には、前記Z座標の補正演算のためのルールとして、前記視線方向と処理対象のカメラの撮像面とが直交する関係になるときの各Z座標に対する補正量を0とし、前記視線方向が撮像面に平行になるときの各Z座標を一定の値Z0に補正し、前記視線方向と撮像面との関係が直交する状態から平行になる状態に近づくにつれて補正後の各Z座標を前記Z0に近づけ、かつ任意の2つのZ座標Z1,Z2(Z1>Z2)の補正後の値Z1´,Z2´について、Z1´>Z2´の関係を維持しながら両者間の差をしだいに小さくするように定められた演算ルールが設定されており、
    前記第1の透視変換手段は、上記の演算ルールに基づき、補正対象のZ座標を補正し、この補正がなされた各点を前記処理対象のカメラの撮像面に透視変換する、ことを特徴とする3次元視覚センサ。
JP2009057430A 2009-03-11 2009-03-11 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ Active JP5310130B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009057430A JP5310130B2 (ja) 2009-03-11 2009-03-11 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
US12/711,196 US8280151B2 (en) 2009-03-11 2010-02-23 Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009057430A JP5310130B2 (ja) 2009-03-11 2009-03-11 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2010210458A JP2010210458A (ja) 2010-09-24
JP5310130B2 true JP5310130B2 (ja) 2013-10-09

Family

ID=42730746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009057430A Active JP5310130B2 (ja) 2009-03-11 2009-03-11 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ

Country Status (2)

Country Link
US (1) US8280151B2 (ja)
JP (1) JP5310130B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP4528867B1 (ja) * 2009-05-15 2010-08-25 株式会社東芝 画像処理装置、画像処理方法及び表示装置
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5713159B2 (ja) * 2010-03-24 2015-05-07 独立行政法人産業技術総合研究所 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
JP2012105047A (ja) * 2010-11-10 2012-05-31 Fujifilm Corp 立体視画像表示装置および方法並びにプログラム
CN103837097B (zh) * 2012-11-23 2016-12-21 上海久点触控计算机系统股份有限公司 一种基于图像处理的工件角度自动测量装置及测量方法
CN103970518B (zh) * 2013-01-31 2019-06-25 腾讯科技(深圳)有限公司 一种逻辑窗口的3d渲染方法和装置
JP6642968B2 (ja) 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
DE102014004919B4 (de) * 2014-04-07 2022-05-12 Abb Schweiz Ag Verfahren und Mittel zum Handhaben eines Objekts
JP6112616B2 (ja) * 2014-04-18 2017-04-12 Necフィールディング株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US9305345B2 (en) * 2014-04-24 2016-04-05 General Electric Company System and method for image based inspection of an object
CN106162277A (zh) * 2015-03-31 2016-11-23 乐视致新电子科技(天津)有限公司 一种识别操作对象的方法和装置、智能终端
US9800866B2 (en) * 2015-04-08 2017-10-24 Algolux Inc. Method for providing an estimation of a point spread function indicative of intrinsic camera blur
JP6472402B2 (ja) * 2016-03-08 2019-02-20 株式会社日立パワーソリューションズ 放射性廃棄物管理システムおよび放射性廃棄物管理方法
JP6665040B2 (ja) * 2016-06-20 2020-03-13 三菱重工業株式会社 ロボット制御システム及びロボット制御方法
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
JP7063165B2 (ja) * 2018-07-26 2022-05-09 富士通株式会社 計測装置、計測方法及び計測プログラム
CN110120010B (zh) * 2019-04-12 2023-02-07 嘉兴恒创电力集团有限公司博创物资分公司 一种基于相机图像拼接的立体货架视觉盘点方法和系统
CN110342134B (zh) * 2019-07-23 2023-06-09 珠海一微半导体股份有限公司 一种基于双目视觉的垃圾分类识别系统及其方法
CN110568866B (zh) * 2019-08-23 2023-01-17 成都新西旺自动化科技有限公司 一种三维立体曲面视觉引导对位系统及对位方法
CN111508066B (zh) * 2020-04-16 2023-05-26 北京迁移科技有限公司 一种基于3d视觉的无序堆叠工件抓取系统及交互方法
CN113643356A (zh) * 2020-04-27 2021-11-12 北京达佳互联信息技术有限公司 相机位姿确定、虚拟物体显示方法、装置及电子设备
CN114289332A (zh) * 2022-01-20 2022-04-08 湖南视比特机器人有限公司 工件分拣的视觉识别与定位方法、装置及分拣系统
CN114770505A (zh) * 2022-04-29 2022-07-22 清华大学 一种抓取装置、装配设备及其控制方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278798B1 (en) * 1993-08-09 2001-08-21 Texas Instruments Incorporated Image object recognition system and method
JP3622094B2 (ja) * 1995-10-05 2005-02-23 株式会社日立製作所 地図更新支援装置および地図情報の編集方法
JPH10269362A (ja) 1997-03-21 1998-10-09 Omron Corp 物体認識方法およびその装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3859371B2 (ja) 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
GB2371866A (en) * 2001-01-31 2002-08-07 Hewlett Packard Co Measuring apparatus
JP4688309B2 (ja) * 2001-02-20 2011-05-25 成典 田中 3次元コンピュータグラフィックス作成支援装置、3次元コンピュータグラフィックス作成支援方法、及び3次元コンピュータグラフィックス作成支援プログラム
JP3603118B2 (ja) * 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2004062980A (ja) * 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US7277599B2 (en) * 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
JP3859574B2 (ja) * 2002-10-23 2006-12-20 ファナック株式会社 3次元視覚センサ
ES2295599T3 (es) * 2003-05-14 2008-04-16 Tbs Holding Ag Procedimiento y dispositivo para reconocer datos biometricos despues de su registro desde al menos dos direcciones.
JP3892838B2 (ja) * 2003-10-16 2007-03-14 ファナック株式会社 3次元測定装置
US7596283B2 (en) * 2004-04-12 2009-09-29 Siemens Medical Solutions Usa, Inc. Fast parametric non-rigid image registration based on feature correspondences
JP4111166B2 (ja) * 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3次元形状入力装置
JP4389663B2 (ja) * 2004-05-18 2009-12-24 トヨタ自動車株式会社 画像処理方法及び画像処理装置
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
JP4434890B2 (ja) * 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4604774B2 (ja) 2005-03-14 2011-01-05 オムロン株式会社 3次元計測のためのキャリブレーション方法
EP1880364A1 (en) * 2005-05-12 2008-01-23 Bracco Imaging S.P.A. Method for coding pixels or voxels of a digital image and a method for processing digital images
JP4825971B2 (ja) * 2005-07-14 2011-11-30 国立大学法人岩手大学 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
WO2007108412A1 (ja) * 2006-03-17 2007-09-27 Nec Corporation 3次元データ処理システム
JP4650386B2 (ja) * 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5245938B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
EP2423873B1 (en) * 2010-08-25 2013-12-11 Lakeside Labs GmbH Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane

Also Published As

Publication number Publication date
JP2010210458A (ja) 2010-09-24
US8280151B2 (en) 2012-10-02
US20100232683A1 (en) 2010-09-16

Similar Documents

Publication Publication Date Title
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5257335B2 (ja) 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5245938B2 (ja) 3次元認識結果の表示方法および3次元視覚センサ
JP6080407B2 (ja) 3次元計測装置及びロボット装置
JP5471355B2 (ja) 3次元視覚センサ
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP5365218B2 (ja) ロボットビジョンシステムおよび自動キャリブレーション方法
JP2010210585A (ja) 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5714232B2 (ja) キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP4774824B2 (ja) 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
JP4677281B2 (ja) 画像処理方法、画像処理装置
JP6092530B2 (ja) 画像処理装置、画像処理方法
CN104976950B (zh) 物件空间信息量测装置与方法及取像路径的计算方法
JP2011112401A (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP2013130508A (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2018106643A (ja) 空間モデル処理装置
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
KR20170067023A (ko) 도면 검사 장치 및 방법
JP7225109B2 (ja) 作業支援システムおよび作業支援方法
JPH0498367A (ja) 3次元形状作成方式
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
TW202333920A (zh) 取得工件位置之裝置、機器人之控制裝置、機器人系統及方法
CN108062431A (zh) 作业支援系统以及作业方法
JP2023080688A (ja) 画像作成方法、画像作成プログラム、画像作成装置及び画像作成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5310130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250