JP2010210586A - 3次元計測処理のパラメータの導出方法および3次元視覚センサ - Google Patents

3次元計測処理のパラメータの導出方法および3次元視覚センサ Download PDF

Info

Publication number
JP2010210586A
JP2010210586A JP2009059922A JP2009059922A JP2010210586A JP 2010210586 A JP2010210586 A JP 2010210586A JP 2009059922 A JP2009059922 A JP 2009059922A JP 2009059922 A JP2009059922 A JP 2009059922A JP 2010210586 A JP2010210586 A JP 2010210586A
Authority
JP
Japan
Prior art keywords
recognition
dimensional
parameter
value
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009059922A
Other languages
English (en)
Other versions
JP5245937B2 (ja
Inventor
Shiro Fujieda
紫朗 藤枝
Atsushi Taneno
篤 種野
Hiroshi Yano
博司 矢野
Yasuyuki Ikeda
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009059922A priority Critical patent/JP5245937B2/ja
Priority to US12/711,179 priority patent/US8208718B2/en
Publication of JP2010210586A publication Critical patent/JP2010210586A/ja
Application granted granted Critical
Publication of JP5245937B2 publication Critical patent/JP5245937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

【課題】3次元計測の計測条件を表すパラメータを適切な適切な認識結果を出力するのに必要な値に設定する処理を、容易に行えるようにする。
【解決手段】ワークの実物モデルWM1,WM2のステレオ画像を対象に、ユーザが設定した計測パラメータによる3次元計測を実行し、計測結果に基づきワークモデルWM1,WM2の位置および姿勢を認識する。また認識結果を表す画像を表示し、ユーザの認識結果を選択する操作に応じて、選択された認識結果を示す数値データをサンプルデータに設定する。そして、計測パラメータの設定値を所定の数値範囲内で毎回変更して、設定された計測パラメータによる3次元計測および認識処理を実行し、サンプルデータとの相違量が所定値以内になる認識結果が得られたときに設定されたパラメータの数値範囲を合格範囲に設定する。そして合格範囲の中間値をパラメータの最適値として確定し、登録する。
【選択図】図8

Description

本発明は、画像処理による3次元計測を行って、その計測結果に基づき所定の認識処理を実行してその認識結果を数値データとして出力する3次元視覚センサに、3次元計測の計測条件を表すパラメータを設定する方法、およびこの方法が適用される3次元視覚センサに関する。
たとえば製造現場でロボットに部品などを把持させる目的で3次元認識処理を行う場合には、ステレオカメラによる3次元計測により復元された3次元情報を、あらかじめ登録された認識対象物の3次元モデルと照合することで、認識対象物の位置や姿勢(具体的には3次元モデルに対する回転角度)を認識するようにしている(たとえば特許文献1を参照。)。
また、この種の認識処理に関して、ステレオ画像中のエッジを「セグメント」と呼ばれる単位に分割し、セグメント単位でステレオ対応検索を行って、輪郭線の3次元情報を復元する方法(セグメントベーストステレオ法)が提案されている(非特許文献1を参照。)。
特開2000−94374号公報
「セグメントベーストステレオにおける連結性に基づく対応評価」 情報処理学会論文誌 vol.40,No.8,3219−3229ページ,1999年8月発行
出願人は、近年、汎用の3次元視覚センサを開発しているが、このような汎用の装置では、カメラの位置決め、キャリブレーション、3次元モデルの登録などの設定処理をユーザ自身が行う必要がある。さらに、処理目的や認識対象物の特徴に応じて、計測条件を表す種々のパラメータをユーザ自身が設定する必要がある。
たとえば、ステレオ画像を用いた3次元計測では、一般に、計測対象として画像中のエッジを抽出するが、この場合には、対象物のエッジが精度良く抽出されるように濃度勾配強度のしきい値を設定する必要がある。またステレオ画像間の対応づけにより3次元座標を算出した後も、認識精度を高める目的で、特徴点の補完やノイズの除去などに関する種々の計測条件を設定する場合がある。
したがって、安定した認識を行うには、計測条件を表す各種パラメータを適切な値に設定する必要があるが、パラメータの最適値を見つけるには、パラメータの設定を変更しながら試験的な計測および認識処理を繰り返し行って、毎時の認識結果を確認する必要があり、ユーザの労力が多大なものになる。また、そのような作業によりユーザの負担を増大させると、装置の汎用性や利便性が損なわれてしまう。
本発明は、上記の問題点に着目し、3次元計測の計測条件を表すパラメータを適切な値に設定する処理を容易に行えるようにすることを、課題とする。
本発明による3次元計測処理のパラメータの導出方法は、所定の認識対象物を撮像手段により撮像し、この撮像により生成された認識対象物の画像を用いた3次元計測を実行し、3次元計測の結果に基づき所定の認識処理を実行してその認識結果を数値データとして出力する3次元視覚センサに適用される。この3次元視覚センサでは、数値データとして、たとえば認識対象物の位置を示す座標を出力する。また、認識対象物の位置を示す座標と姿勢を表す角度とを出力する場合もある。または、認識対象物の高さを示すZ座標を出力する場合や、3次元モデルに対する認識対象物の一致度を出力する場合もある。
本発明では、これらの数値データが認識対象物に関する認識結果を表すものとなるように3次元計測の計測条件を表すパラメータを設定するために、以下の第1、第2、第3のステップを実行する。
第1ステップでは、撮像手段により認識対象物の実物モデルを撮像する処理と、パラメータを所定の値に設定する操作を受け付ける処理とを実行した後に、撮像により生成された実物モデルの画像を用いて受け付けた設定値によるパラメータに基づく3次元計測および認識処理を実行し、認識結果を示す情報を表示する。
第2ステップでは、表示された認識結果を採用する旨の操作が行われたとき、当該認識結果を示す数値データをサンプルデータに設定すると共に、第1ステップで設定されたパラメータの値を含む所定の数値範囲内でパラメータの設定値を毎回変更して、設定されたパラメータにより実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく認識処理を実行して、その認識結果を示す数値データを上記のサンプルデータと照合するステップBとを複数サイクル実行することによって、サンプルデータに対する相違量が所定値以内となる数値データが得られる間に設定されるパラメータの数値範囲を特定する。
第3ステップでは、第2ステップで特定された数値範囲において、当該範囲の上限値および下限値からそれぞれ所定の距離を隔てた位置にある数値を、3次元視覚センサのメモリ内に登録する。
上記の方法によれば、ユーザが自身の判断でパラメータを設定すると、そのパラメータによる3次元計測と認識処理とが実行されて、認識結果を示す情報が表示される。この表示によりユーザが妥当な認識結果が得られたと判断して、この認識結果を採用する旨の操作を行うと、当該認識結果を示す数値データがサンプルデータに設定され、ユーザの設定した値を含む所定の数値範囲内にある複数の値をそれぞれパラメータとして、3次元計測および認識処理が実行され、サンプルデータに対する相違量が所定値以内となる数値データが得られる間に設定されるパラメータの数値範囲が特定される。そして、この数値範囲の中の上限値および下限値からそれぞれ所定の距離を隔てた位置にある数値がパラメータとして3次元視覚センサのメモリ内に登録される。
ユーザにより設定されるパラメータは、最適なものとは限らず、適切でない値に近いものが設定されている可能性もある。しかし、上記の方法では、設定されたパラメータによる3次元計測および認識処理の結果を表示して、認識結果が妥当であることをユーザに確認させてから、当該認識結果を示す数値データをサンプルデータに設定するので、第2ステップにより特定される数値範囲を、サンプルデータと同様の妥当な認識結果を得ることができるパラメータの値を示すものにすることができる。
よって、ユーザによる設定のばらつきに左右されることなく、認識処理に適したパラメータの範囲を特定することができる。さらに、特定された範囲において、当該範囲の上限値および下限値からそれぞれ十分に離れた位置にある値を登録することによって、認識に適さない数値に近い値がパラメータとして登録されるのを防止することができる。したがって、登録されたパラメータにより安定した3次元計測を行うことができ、これにより認識結果として出力される数値データの信頼度を確保することができる。
上記の方法の好ましい態様では、第1ステップでは、3次元計測の計測条件を表す複数のパラメータにそれぞれ所定の値を設定して、実物モデルの画像に対する3次元計測および認識処理を実行した後に、認識結果を示す情報を表示する。また第2ステップでは、表示された認識結果を採用する旨の操作に応じて、当該認識結果を示す数値データをサンプルデータに設定すると共に、複数のパラメータにそれぞれ第1ステップにおける設定値を含む所定の数値範囲を設定して、これらの数値範囲内で各パラメータの値の組み合わせを毎回変更し、各パラメータの設定値の組み合わせに基づき実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく認識処理を実行して、その認識結果を示す数値データをサンプルデータと照合するステップBとを複数サイクル実行することによって、パラメータ毎にサンプルデータに対する相違量が所定値以内になる数値データが得られる間に設定される当該パラメータの数値範囲を特定し、特定された数値範囲毎に第3ステップを実行する。
上記の態様によれば、計測条件を表すパラメータを複数設定する必要がある場合にも、それぞれのパラメータ毎に、好ましい値のパラメータを3次元視覚センサに登録することが可能になる。
上記の方法の他の好ましい態様では、認識処理として、3次元計測により復元された3次元情報をあらかじめ登録された認識対象物の3次元モデルと照合することにより、認識対象物の位置を表す座標、および3次元モデルに対する認識対象物の回転角度を数値データとして算出する処理を実行する。この場合の第1ステップでは、実物モデルの画像を用いた3次元計測処理により復元された3次元情報に対して上記の認識処理を実行するステップと、この認識処理により算出された座標および回転角度に基づき認識対象物の3次元モデルを座標変換するステップと、座標変換後の3次元モデルを撮像手段の座標系に透視変換して、この透視変換により生成された3次元モデルの投影像を実物モデルの画像に重ね合わせて表示するステップとを実行する。
上記の態様によれば、実物モデルにつき認識した位置および回転角度に基づいて3次元モデルを撮像手段の座標系に透視変換し、この透視変換により生成された3次元モデルの投影像を、実物モデルの画像に重ね合わせて表示するので、ユーザは、表示された各画像の一致度合から認識結果の精度を容易に判断することができる。
本発明による3次元視覚センサは、認識対象物を撮像するための撮像手段と、この撮像手段により生成された認識対象物の画像を用いた3次元計測を実行し、3次元計測の結果に基づき所定の認識処理を実行してその認識結果を数値データとして出力する認識処理手段と、3次元計測を実行する際の計測条件を表すパラメータを認識処理手段に登録する登録処理手段とを具備する。さらにこの3次元視覚センサには、以下の設定受付手段、仮認識実行手段、サンプルデータ設定手段、数値範囲特定手段、登録値特定手段、の各手段が設けられる。
設定受付手段は、パラメータの値を設定する操作を受け付けるためのものである。仮認識実行手段は、設定受付手段が受け付けたパラメータの設定値を認識処理手段に与えて、撮像手段により生成された認識対象物の実物モデルの画像を対象にした3次元計測およびその計測結果に基づく認識処理を実行させ、認識結果を示す情報をモニタ装置に表示する。サンプルデータ設定手段は、仮認識実行手段により表示された認識結果を採用する旨の操作を受け付けて、この認識結果を示す数値データをサンプルデータとして設定する。
数値範囲特定手段は、サンプルデータに設定した認識結果を得たときのパラメータの設定値を含む所定の数値範囲内でパラメータの設定値を毎回変更して、設定されたパラメータにより実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく認識処理を実行して、その認識結果を示す数値データをサンプルデータと照合するステップBとを複数サイクル実行することによって、サンプルデータに対する相違量が所定値以内になる数値データが得られる間に設定されるパラメータの数値範囲を特定する。登録値特定手段は、数値範囲特定手段により特定された設定値の範囲において、当該範囲の上限値および下限値からそれぞれ所定の値を隔てた位置にある数値を、認識処理手段に登録するパラメータとして特定する。
上記の構成によれば、ユーザが、認識対象物の実物モデルに関して妥当な認識結果を得ることができるようなパラメータを設定して、実物モデルを撮像することにより、前出の第1ステップ、第2ステップ、第3ステップが実行され、安定した認識処理を行うのに適した値のパラメータを認識処理手段に登録することができる。
なお、上記の3次元視覚センサは、撮像手段を複数のカメラより成るステレオカメラとし、計測手段を、上記のステレオカメラにより生成されたステレオ画像を用いて3次元計測を行うように構成するのが望ましい。ただしこれに限らず、撮像手段を1台のカメラにより構成し、スリット光やスポット光の走査下で生成された画像を用いた3次元計測を行うことも可能である。
上記の3次元計測処理のパラメータの設定方法および3次元視覚センサによれば、3次元計測の計測条件を表すパラメータについて、認識対象物を正しく認識するのに適した値を容易に設定することが可能になり、安定した出力を行うことができる。また、好ましい値のパラメータを自動的に導出して登録することができるので、ユーザに負担をかけることがなく、3次元視覚センサの利便性を高めることができる。
3次元視覚センサの電気構成を示すブロック図である。 3次元視覚センサが実行する認識処理の概略手順を示すフローチャートである。 特徴点の補完処理を説明する図である。 エッジレベルの設定時に表示される画像の例を示す図である。 頂点抽出レベル、頂点除去レベルの設定時に表示される画像の例を示す図である。 計測パラメータの最適化処理のための作業画面の例を示す図である。 計測パラメータの最適化処理のための作業画面の例を示す図である。 計測パラメータの最適化処理のための作業画面の例を示す図である。 計測パラメータの最適化処理の手順を示すフローチャートである。 計測パラメータの合格範囲および最適値の導出に関する処理手順を示すフローチャートである。
図1は、3次元視覚センサの構成をブロック図により表したものである。
この3次元視覚センサ100は、ステレオカメラを構成する3台のカメラA,B,Cと、認識処理装置2とにより構成される。認識処理装置2は、専用のプログラムが格納されたパーソナルコンピュータであって、各カメラA,B,Cが生成した画像中のエッジを対象にしたステレオ計測によりエッジの3次元情報を取得した後に、この3次元情報をあらかじめ登録された3次元モデルと照合することによって、認識対象物の位置および姿勢を認識する。
具体的に認識処理装置2には、各カメラA,B,Cに対応する画像入力部20A,20B,20C、カメラ駆動部21、CPU22、メモリ23、入力部24、表示部25、通信インターフェース26などが含まれる。
カメラ駆動部21は、CPU22からの指令に応じて、各カメラA,B,Cを同時に駆動する。これにより各カメラA,B,Cで生成された画像は、画像入力部20A,20B,20Cを介してCPU22に入力される。
表示部25は、液晶パネルなどによるモニタ装置であり、入力部24には、キーボードやマウスなどが含められる。入力部24や表示部25は、キャリブレーション処理や、後記するパラメータなどを設定する際に、設定情報を入力したり、作業を支援するための情報を表示する目的に使用される。通信インターフェース26は、外部装置との通信に用いられる。
メモリ23は、ROM,RAM,およびハードディスクなどの大容量メモリを含むものである。このメモリ23には、3次元計測を含む認識処理やこの認識処理のための種々の設定処理に関わるプログラムが格納される。なお、この実施例では、認識処理の対象となる3次元情報を、セグメントベーストステレオ法に基づく計測により取得するようにしている。
さらにメモリ23には、各カメラA,B,Cのカメラ座標系とワールド座標系との関係を表すカメラパラメータ(具体的には下記の(1)式中の変換行列を構成する12個の要素P00,P01,・・・P23)のほか、計測条件を表すパラメータ(以下、「計測パラメータ」という。)や3次元モデルが登録される。
Figure 2010210586
上記のカメラパラメータは、所定のパターンが描かれたキャリブレーションプレートを用いたキャリブレーション作業によって、カメラA,B,C毎に導出される。計測パラメータや3次元モデルは、カメラパラメータが登録された後に、各カメラA,B,Cにより生成された認識対象物の実物モデルの画像(以下、個々のカメラによる画像を「モデル画像」といい、3つのモデル画像を合わせたものを「モデルステレオ画像」という。)を用いて、設定または作成される。
以下、上記構成の3次元視覚センサ100を、工場内のピッキング用ロボットに把持させる部品の位置や姿勢を認識する用途に使用する例について、詳細に説明する。
図2は、認識対象の部品(以下、「ワーク」という。)を認識する処理の概略手順を示す。この処理では、まずカメラA,B,Cによるステレオ撮像を実行する(ST1)。
つぎに、生成された各画像からエッジを検出する(ST2)。具体的には、処理対象の画像にエッジ抽出用フィルタを適用して、画素毎に濃度勾配強度を算出し、算出された濃度勾配強度が所定のしきい値を上回る画素をエッジの構成画素として検出する。
つぎに検出されたエッジを細線化し(1画素幅のデータにする。)、細線化後のエッジを連結点や分岐点を基準に直線や曲線のセグメントに分割する(ST3,4)。この2次元画像上のエッジから抽出されたセグメントを、以下では「2次元セグメント」と呼ぶ。
つぎに、画像間で対応関係にある2次元セグメントを対応づける処理を実行する(ST5)。具体的には、3つの画像のうちの1つを基準画像として、この基準画像の各2次元セグメントに順に着目し、着目した2次元セグメントにつき、エピポーラ条件を満たすこと、および近傍のセグメントとの連結関係が着目中の2次元セグメントに整合することを条件として、他の2つの画像において条件を満たす2次元セグメントを探索する。この探索処理により、2つの画像で、ともに条件を満たす2次元セグメントが検出された場合には、これらを着目中の2次元セグメントに対応づける。
なお、各画像間での対応づけがなされなかった2次元セグメントは、以下の処理の対象から除外される。
上記の対応づけ処理が完了すると、ST6に進み、対応づけられた2次元セグメントの組み合わせ毎に、3次元情報を復元する処理を実行する。この復元された3次元情報により表される3次元のセグメントを、以下では「3次元セグメント」という。
ここで1つの3次元セグメントの3次元情報を復元する処理について説明する。
まず、対応づけられた2次元セグメント間で、さらに画素単位の対応づけを実行し、対応づけられた画素の組毎に3次元座標を算出する。つぎに、各組につき算出された3次元座標が円弧を表すものとして、その円弧の半径を算出し、この半径が所定のしきい値以上であれば、処理中の3次元セグメントの種別を「直線」に設定する。一方、円弧の半径がしきい値を下回る場合には、処理中の3次元セグメントの種別を「曲線」に設定する。
さらに、設定した種別に基づき、各3次元座標の分布パターンに近似する直線または曲線を設定し、これをあらかじめ設定された間隔毎にサンプリングする。そして、設定されたセグメントの種別(直線または曲線)と各サンプリング点の3次元座標による集合とを対応づける。この対応づけによって、3次元セグメントが完成する。
3次元情報を復元する処理が終了すると、つぎのST7では、復元された3次元情報を補正するために、特徴点の補完およびノイズの除去処理を行う。
特徴点の補完処理では、図3に示すように、直線の3次元セグメントのうち他の3次元セグメントと連結していない端縁を有するもの(この例では3次元セグメントL1,L2)を対象に、その連結のない端縁を所定の上限値までの範囲で延長する。ここで、延長された部分(たとえばセグメントL1の延長部分)が、他のセグメントL2またはそのセグメントL2の延長部分と交わった場合には、その交点Pを特徴点として、その3次元座標を算出する。
上記の処理によれば、復元された3次元情報には存在しなかった頂点について、その3次元座標を補完することが可能になる。ピッキング処理のための3次元認識では、バラ積みされたワークなど、一部分の3次元セグメントしか取得できないワークを認識対象とすることが多いため、この特徴点の補完処理は、認識精度を高めるのに有用である。
しかし、元々の長さが短い3次元セグメントに対して上記の補完処理が行われると、頂点以外の場所に特徴点が設定される可能性がある。そこで、ノイズの除去処理では、上記の特徴点の補完処理が行われたセグメントのうち、延長される前のセグメントの長さが所定のしきい値を下回るものを、補完された特徴点とともに除去する。
この後は、補正後の3次元情報をあらかじめ登録された3次元モデルと照合することによって、ワークの位置および姿勢を認識する(ST8)。この処理についても、以下に具体的に説明する。
3次元モデルには、ワークの全体の輪郭形状を表す複数の3次元セグメントと、重心などの代表点の座標が含められる。ST8では、各3次元セグメントの交点を特徴点として、3次元モデル側の各特徴点と照合対象の3次元情報における各特徴点とを総当たり式に対応づけながら、3次元モデルに対する照合対象の情報の一致度を算出する。そして、所定の基準値を超える一致度が得られたときの対応づけを正しいものとして、その一致度を保存するとともに、そのとき3次元モデルの代表点に対応づけられていた座標を、ワークの位置として特定し、また、このときの3次元モデルの回転角度を、ワークの姿勢として特定する。
上記の認識処理が終了すると、認識結果を表す数値データ、すなわちワークの位置を表す座標およびワークの姿勢を表す回転角度を、通信インターフェース26より出力する。この出力データは、図示しないロボットコントローラに与えられて、ピッキング用ロボットの動作制御に使用される。
なお、ST8では、3次元モデルに対する一致度が基準値を超える対応づけが複数見つかった場合には、それぞれの対応づけ毎に、座標および回転角度を特定する。よって、複数のワークを対象にステレオ計測が実施された場合でも、各ワークをそれぞれ個別に認識することが可能になる。
上記の認識処理の精度を確保するには、精度の良い3次元モデルを登録するほか、ワークの輪郭形状を正しく反映した3次元情報が復元されるような計測パラメータを設定する必要がある。この点につき、本実施例の3次元視覚センサでは、各種計測パラメータをユーザの手操作に応じて設定した後に、ワークのステレオモデル画像を用いて各パラメータをより好ましい値に調整する処理(以下、これを「パラメータの最適化処理」という。)を実行するようにしている。
以下、エッジ検出処理(図3のST2)に用いられる濃度勾配強度のしきい値、特徴点の補完処理(図3のST7)のために3次元セグメントを延長する場合の延長部分の長さの上限値、およびノイズ除去処理(図3のST7)の対象とする3次元セグメントの最大の長さを、具体的な計測パラメータの例として、ユーザによるパラメータの設定処理およびパラメータの最適化処理を詳細に説明する。
この実施例では、ワークの実物モデル(以下、「ワークモデル」という。)を撮像することにより生成されたモデル画像またはステレオモデル画像を、ユーザが設定した計測パラメータに基づき処理して、その処理結果を表示部25に表示し、さらにこの表示状態下でも、パラメータを変更する操作を受け付けるようにしている。よってユーザは、適切な処理結果が表示されるまでパラメータを調整することで、ワークの認識に適した3次元情報を復元することができる。
図4は、エッジ検出処理に用いられる濃度勾配強度のしきい値(以下、「エッジレベル」という。)を設定する際の表示の例を示す。
この表示は、ワークモデルWM1を対象にした撮像により生成されたモデル画像(カメラA,B,Cのいずれかによるもの)をベースにして、ユーザが設定したエッジレベルに基づいてこのモデル画像から検出したエッジを、所定の色彩の線画(図4では、極太線により表現する。)としてモデル画像に重ね表示したものである。
図4(1)は、エッジレベルが適切でない場合の表示例であって、ワークモデルWM1の輪郭を表すエッジのほかに、周囲の影などに起因するノイズのエッジが多数現れている。これに対し、図4(2)の例では、ノイズが消失し、ワークモデルWM1の輪郭の主要な部分を表すエッジのみが表示された状態になっている。
この実施例のエッジレベルの設定作業では、まずある程度のノイズが生じる状態(図4(1))になるようにエッジレベルを設定した後に、エッジレベルを徐々に上げて、背景のノイズが消失する状態の表示(図4(2))になるまでエッジレベルを調整する。また各カメラA,B,Cによるモデル画像毎にこの設定を行うようにしている。
図5は、3次元セグメントを延長する処理における延長部分の最大の長さ、およびノイズとして削除される3次元セグメントの最大の長さを設定する際の表示の例を示す。なお以下では、これらの計測パラメータによる処理がワークの頂点を抽出することを目的とする点に鑑み、3次元セグメントの延長部分の最大長さを「頂点抽出レベル」といい、削除する3次元セグメントの最大の長さを「頂点除去レベル」という。
図5に示す表示は、同形状の2つのワークモデルWM1,WM2のモデル画像に、エッジを表す線画や3次元セグメントの延長処理により補完された特徴点P1〜P8が重ね表示されている。ただし、ここに表示されているエッジは、図4の例とは異なり、3次元セグメントを表現するものである。すなわち、2次元セグメントから復元された3次元セグメントを、頂点抽出レベルおよび頂点除去レベルにより処理し、処理後の3次元セグメントを表示中のモデル画像に対応するカメラの座標系に透視変換することにより生成された投影像に相当する。特徴点Pも同様に、3次元座標の透視変換の結果に基づいて設定されたものである。また、3次元セグメントのうち、延長された部分(破線の部分)は、通常の計測により復元された部分とは異なる色彩により表される。
この透視変換処理では、前出の(1)式を変形させた下記の(2)式を使用する((2)式中の(P20X+P21Y+P23Z+P23)の部分が(1)式中のSに相当する。)。すなわち、3次元セグメントの各3次元座標を(X,Y,Z)に代入して(2)式の演算を実行することにより、変換後の座標(x,y)を取得する。
Figure 2010210586
よって、頂点抽出レベルや頂点除去レベルの設定が適切であれば、3次元セグメントの投影像は画像中のワークモデルWM1,WM2の輪郭線に適合し、特徴点P1〜P8は、ワークモデルWM1,WM2の頂点に適合した状態になる。したがってユーザは、この表示が良好な状態になるまで頂点抽出レベルや頂点抽出レベルを調整することによって、これらのパラメータを、精度の良い3次元セグメントを復元するのに適した値に設定することができる。
上記のとおり、この実施例では、ユーザが設定した計測パラメータに基づき、モデル画像を用いた2次元の処理、またはステレオモデル画像を用いた3次元の処理を実行し、その処理結果をモデル画像に重ね合わせた表示を行うので、作業経験が乏しいユーザでも、計測パラメータを容易に設定することができる。また、この実施例では、この設定後に、以下で説明するパラメータの最適化処理を実行するので、仮にユーザの設定した計測パラメータが認識に適さない範囲に近い値であっても、これを安定した認識処理を行うのに適した値に調整することができる。
図6〜図8は、計測パラメータの最適化処理が行われる際に表示部25に立ち上げられる作業画面の例を示す。
この作業画面は、左右に二分され、右側に画像表示領域30が、情報の表示や操作のための領域31〜34や操作ボタン35〜39が設けられる(ただし、領域34およびボタン39は、図8のみ図示。)。
画像表示領域30には、カメラA,B,Cのいずれかにより生成されたモデル画像が表示される(図6〜8の例でも、図5と同様に、2つのワークモデルWM1,WM2が現れたものを示す。)。なお、画像表示領域30内の表示は、画面右下の切り替えボタン40を操作することによって、他のカメラによるモデル画像の表示に切り替えることができる。
画面の左側の領域31〜34内の表示や操作ボタン35〜39の有効・無効状態は、処理の進行に応じて変動する。また、領域33,34内の「エッジ」「頂点抽出」「頂点除去」の各項目は、それぞれエッジレベル、頂点抽出レベル、頂点除去レベルを意味するものである。
この実施例の最適化処理は、上記の作業画面上でのユーザの操作を受け付けながら、図9に示す手順で実行される。
以下、図9のフローチャートに示す各ステップ(ST101〜111)の処理について、図6〜8を参照しながら詳細に説明する。
この処理では、まず、処理対象とするステレオモデル画像を読み出し、その中の1つを画像表示領域30に配置した作業画面を立ち上げる(ST101,102)。なお、この段階の作業画面には、領域34は設定されず、領域31,32,33内は空白の状態に設定される。
この状態下で、ユーザが画面内の「確認計測」ボタン35を操作すると、ST101で読み出したステレオモデル画像を対象に、ユーザにより設定された各計測パラメータを適用した3次元認識処理を実行する(ST103)。この3次元認識処理は、先の図2に示した手順どおりに実行されるが、最後の認識結果の出力(図2のST9)を実行せず、これに代えて、以下のST104,105のステップを実行する。
ST104では、メモリ23に登録されている3次元モデルに2段階の変換処理を行うことにより、3次元認識処理による認識結果を示す投影像を生成する。
具体的には、まずワークモデルの位置として認識された座標と、ワークモデルの姿勢として認識された角度とに基づき、登録された3次元モデルを座標変換することによって、3次元モデルの位置および姿勢を認識結果に合わせた状態にする。
つぎに、座標変換後の3次元モデルを、画像表示領域30内に表示されているモデル画像に対応するカメラの座標系に透視変換する。この透視変換処理でも、図5の例と同様の(2)式が使用される。
上記の投影像を生成する処理は、3次元モデルに対応づけられた箇所(3次元モデルに対する一致度が基準値を超えた箇所)毎に、すなわち認識されたワークモデル毎に実行される。ST105では、これらの投影像を各ワークモデルの3次元モデルに対する一致度とともに作業画面に表示する。この表示状態を示したのが図6である。
図6によれば、画像表示領域30内のモデル画像に、3次元モデルの投影像TM1,TM2が重ねて表示されている。各投影像TM1,TM2は、それぞれワークモデルWM1,WM2に対する認識結果を示すものである。さらに画面左手の領域31内には、3次元モデルに対応づけられた箇所毎に、3次元モデルに対する一致度(この例の作業画面では「認識率」と表現する。)が、値が高いものから順に表示されている。
領域31内の一致度の数値表示は、ユーザに認識の精度を確認させる目的のほか、画像表示領域30内の投影像TM1,TM2が示す具体的な認識結果を選択させることを目的とする。すなわち、ユーザが、領域31内の所定の数値表示箇所をクリック操作により選択すると、画像表示領域30内では、選択された箇所に対応する投影像(図示例ではTM1)のみが表示される。これによりユーザは、各ワークモデルWMに対する認識精度を確認することができる。
さらに、ユーザが認識結果を選択した後に、「追加」ボタン36を操作すると、この操作を受け付ける処理(図9のST106)が実行されて、図7に示すように、選択された認識結果(この例ではワークモデルWM1に対する認識結果)に対応する数値表示が領域32内に移動する。
ここで選択できる認識結果は1つに限らず、複数の認識結果を選択することができる。また認識結果が選択されると、ボタン36の右手にある「削除」ボタン37が有効化されて、このボタン37を操作することにより、選択を解除することができる。
つぎに、領域33は最適化処理の条件を設定するためのもので、エッジレベル、頂点抽出レベル、頂点除去レベルの各計測パラメータ毎に、下限値、上限値、および変動幅(刻み)を設定するための入力ボックス(符号省略)が設けられている。各入力ボックス内には、デフォルトの設定に基づき、ユーザにより設定された数値を含む所定幅の数値範囲が表示されているが、ユーザは、各値を自由に変更することができる。
各計測パラメータに設定されている条件は、下限値から上限値までの範囲で、変動幅分ずつ計測パラメータの設定値を変更することを意味する。
ST107では、「最適化実行」ボタン38の操作に応じて、この領域33内の設定内容に基づいて最適化処理の条件を設定する。さらに、つぎのST108で、選択された認識結果(座標および角度)をサンプルデータに設定した後、設定された条件に基づき各計測パラメータの値の組み合わせを毎回変更しながら、ステレオモデル画像を用いた3次元認識処理およびその認識結果を上記のサンプルデータと照合する処理を繰り返す。そして最終的に、計測パラメータ毎に、良好な認識結果を得られる設定値の範囲(以下、「合格範囲」という。)を求め、さらに合格範囲内の一数値をパラメータの最適値に設定する。
この後は、ST109において、導出された各良好範囲や最適値を、作業画面に表示する。図8は、この時点の表示を表すもので、ボタン38の下方に、さらに領域34と「実行」ボタン39が設けられる。
領域34内には、3種類の計測パラメータ毎の処理結果が示されている。図中、矢印bで示す枠内に表示されているのが各計測パラメータの合格範囲である。また矢印aで示す枠内には、各計測パラメータの最適値として合格範囲内の中間位置の数値が表示されている。また、左手の括弧内の数値は、ユーザにより設定されたパラメータである。
この状態下でユーザが「実行」ボタン39を操作すると、図9のST111に進み、各計測パラメータを、上記のa欄に表示されている最適値に更新する。各最適値は、計測パラメータの合格範囲として特定された数値範囲の中の中間位置に相当するので、本処理において生成されるステレオ画像に多少のばらつきがあっても、設定された計測パラメータにより安定した計測を行うことができる。よって、認識結果として、信頼度の高い数値データ(座標および角度)を出力することが可能になる。
つぎに、各計測パラメータの合格範囲および最適値を導出する方法について、具体的に説明する。
この処理では、処理対象の3種類の計測パラメータにそれぞれ下限値を設定した状態で処理を開始し、各計測パラメータに順に着目して、それぞれに対し、図10に示す処理を実行する。
なお、このフローチャート中の変数Li,Hi,Si,OKHi,OKLiのiは、パラメータの種別を示す引数である。たとえば、i=0はエッジレベルに対応し、i=1は頂点抽出レベルに対応し、i=2は頂点除去レベルに対応する。
以下、1つめの計測パラメータ(たとえばエッジレベル)に着目しているものとして、図10の手順を説明する。
まず、設定値の下限値をLiとし、上限値をHiとし、変動幅をSiとする(ST201)。つぎに、状態フラグFを0に設定し(ST202)、また、合格範囲の下限値OKLiを0に、上限値OKHiを1に、それぞれ初期設定する(ST203)。また着目中のパラメータPiに初期値として下限値Liを設定する(ST204)。
この後は、ST205〜217のループに入る。このループでは、パラメータPiを初期値Liから上限値Hiまでの範囲でSiずつ変更しながら、現在設定されているパラメータPiに基づき、ステレオモデル画像に対する3次元認識処理を実行する(ST205)。
上記の3次元認識処理も、認識結果の出力を実行しない点を除けば、先の図2と同様の手順で実施される。また、この3次元認識処理では、着目していない計測パラメータ(頂点抽出レベル、頂点除去レベル)の値は下限値に設定する。
3次元認識処理が終了すると、認識結果の中からサンプルデータに最も近いものを選択し、座標、角度のデータ別にサンプルデータとの相違量(サンプルデータとの差の絶対値または自乗値)を求め、それぞれの相違量を所定のしきい値と比較する(ST206)。ここで各相違量がともにしきい値以下であれば、現在のパラメータPiを「合格」と判定する。これに対し、一方または双方の相違量がしきい値を上回った場合には、現在のパラメータPiを「不合格」と判定する。
状態フラグFは、1段階前の判定結果を記憶するためのもので、F=0は1段階前の判定が不合格であったことを意味する。ループの開始からしばらくの間、パラメータPiが不合格と判定される状態が続いた場合には、ST207およびST210が「NO」となって、Piの値を更新する(ST216)だけの処理になる。
所定の時点でのパラメータPiが合格と判定されると、ST207が「YES」、ST208が「YES」となる。この場合にはST209に進んで、状態フラグFを1に変更し、また変数QLにPiの現在値をセットし、しかる後にPiの値を更新する(ST216)。
その後も、更新されたパラメータPiが合格と判定される状態が継続すると、ST207が「YES」、ST208が「NO」となり、状態フラグFが1の状態が維持される。
所定の時点で、パラメータPiに対する判定が不合格に変わると、ST207が「NO」、ST210が「YES」となり、状態フラグFが0に変更される(ST211)。さらに、現在のパラメータPiから変動幅Siを差し引いたものを、変数QHにセットする(ST212)。
つぎに、上記のQHとST209で設定したQLとの差(QH−QL)を(OKHi−OKLi)の値と比較する(ST213)。ここでQH−QLの値の方が大きい場合には、ST214に進んで、QHの値によりOKHiを書き換え、QLの値によりOKLiを書き換える。さらに、ST215において、更新後のOKHiとOKLiとの中間値Giを算出する。
上記のST213の判定処理が初めて実行されるときには、OKHi,OKLiは、いずれもST203で設定された値のままであるから、OKHi−OKLi=1である。よって殆どの場合、ST213の判定は「YES」となり、ST214,215の処理が実行される。
この後、パラメータPiが上限値Hiに達するまで、不合格の判定が続いた場合には、ループの終了(ST217の「YES」判定)によって、上記のOKLi,OKHi,Giの値が確定する。
これに対し、再度、不合格から合格に判定が転じた場合には、ST207,ST208が「YES」となって、ST209に進み、状態フラグFが1に変更され、変数QLがPiの現在値に更新される。この後も、Piの合格判定が続く間は、ST207が「YES」、ST208が「NO」となって、Piを更新する(ST216)だけの処理状態になる。
所定の時点でパラメータPiに対する判定が不合格に変化すると、ST207が「NO」、ST210が「YES」となり、以下、状態フラグFを0にする処理(ST211)、変数QHを現在のPiからSiを差し引いた値に更新する処理(ST214)が実行される。
さらに、再びST213の判定が実行され、QH−QLの値がOKHi−OKLiより大きい場合には、QH,QLによりOKHi,OKLiを書き換え(ST214)、またGiの値を更新する(ST217)。これに対し、OKHi−OKLi≧QHーQLの場合には、ST214,215は実行されず、OKHi,OKLi,Giの値が維持される。
以下、同様にして、ST216で更新されたパラメータPiが上限値Hiを上回った時点で、ST205〜217のループを終了し、そのときのOKHi,OKLiを合格範囲の上限値および下限値として確定し、Giの値を最適値として確定する(ST218)。ただし、図10には示していないが、ループが終了したときの状態フラグFが0であった場合には、ST212〜215と同様の手順を実行してから、その処理結果に基づいてST218の確定処理を実行する。
上記に説明したように、この実施例では、パラメータPiの値を設定された条件に基づき毎回変更して、3次元認識処理を実行する処理(ST205)と、サンプルデータに対応する認識結果をサンプルデータと比較する処理(ST206)とを繰り返し実行することによって、パラメータPiについて、適切な認識結果を得ることができる設定範囲(合格範囲)を特定し、この範囲内の中間位置にある値を適正値に設定する。また、Piに設定された数値範囲の中で合格判定が得られる範囲が複数検出された場合には、ST213,214,215の処理によって、数値幅が最も大きな数値範囲を合格範囲として特定して、適正値を求める。
また、図6〜8に示したような表示により、十分な精度が確保されている認識結果を選択してサンプルデータを設定することができるので、このサンプルデータに近似する認識結果が得られている間に設定されるパラメータPiの数値範囲の中間位置の値を適正値とすることにより、ワークの認識に適した計測処理を安定して行うことが可能になる。
以下、2番目、3番目の計測パラメータについても同様の手順で、合格範囲および適正値を求めるが、この場合には、適正値Giが確定したパラメータについては、その適正値Giを設定して3次元認識処理を実行する。
なお、計測パラメータの最適値は合格範囲の中間位置の値に限らず、合格範囲の上限値および下限値から十分に離れた位置にある値を設定すればよい。よって、たとえばエッジレベルに関しては、合格範囲の中間位置より若干小さな値を設定値とし、頂点抽出レベルに関しては、合格範囲の中間位置より若干大きな値を設定値としてもよい。
また、上記の3種類の計測パラメータのほかにも、3次元セグメントの生成時のサンプリング点の間隔や、セグメントの種別を判別する処理の基準を示す数値(たとえば、曲線とするセグメントの最大曲率)などについても、同様の方法により計測パラメータの最適値を求めることができる。
また、上記の実施例の3次元視覚センサ100は、複数のカメラA,B,Cを用いたステレオ計測によりワークWのエッジの3次元情報を取得するものであるが、これに限らず、たとえばスリット光やスポット光をワークに走査しながら1台のカメラによる撮像を行い、2次元の画像処理によりワークの3次元情報を復元するタイプの装置でも、上記実施例と同様の方法により、計測条件を表すパラメータを設定することが可能である。
また、3次元視覚センサ100からワークの高さまたは代表点の3次元座標を出力する場合や、3次元モデルとの一致度を出力する場合においても、上記の実施例と同様の手法で、適切な数値データが得られる間に設定される計測パラメータの数値範囲を特定し、その中から最適な計測パラメータを特定することができる。
100 3次元視覚センサ
1(A,B,C) ステレオカメラ
2 認識処理装置
22 CPU
23 メモリ
25 モニタ装置(表示部)
WM1,WM2 ワークモデル
TM1,TM2 3次元モデルの投影像
Pi パラメータ

Claims (4)

  1. 所定の認識対象物を撮像手段により撮像し、この撮像により生成された認識対象物の画像を用いた3次元計測を実行し、3次元計測の結果に基づき所定の認識処理を実行してその認識結果を数値データとして出力する3次元視覚センサに、前記認識対象物に関する認識結果を示す数値データが出力されるように前記3次元計測の計測条件を表すパラメータを設定する方法であって、
    前記撮像手段により前記認識対象物の実物モデルを撮像する処理と、前記パラメータを所定の値に設定する操作を受け付ける処理とを実行した後に、前記撮像により生成された実物モデルの画像を用いて前記受け付けた設定値によるパラメータに基づく3次元計測および前記認識処理を実行し、この認識結果を示す情報を表示する第1ステップ、
    前記表示された認識結果を採用する旨の操作が行われたとき、当該認識結果を示す数値データをサンプルデータに設定すると共に、前記第1ステップで設定されたパラメータの値を含む所定の数値範囲内で前記パラメータの設定値を毎回変更して、設定されたパラメータにより前記実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく認識処理を実行して、認識結果を示す数値データを前記サンプルデータと照合するステップBとを複数サイクル実行することによって、前記サンプルデータに対する相違量が所定値以内となる数値データが得られる間に設定されるパラメータの数値範囲を特定する第2ステップ、
    前記第2ステップで特定された数値範囲において、当該範囲の上限値および下限値からそれぞれ所定の距離を隔てた位置にある数値を、前記3次元視覚センサのメモリ内に登録する第3ステップ、
    の各ステップを実行することを特徴とする、3次元計測処理のパラメータの導出方法。
  2. 請求項1に記載された方法において、
    前記第1ステップでは、前記3次元計測の計測条件を表す複数のパラメータにそれぞれ所定の値を設定して、前記実物モデルの画像に対する3次元計測および認識処理を実行した後に、認識結果を示す情報を表示し、
    前記第2ステップでは、前記表示された認識結果を採用する旨の操作に応じて、当該認識結果を示す数値データをサンプルデータに設定すると共に、前記複数のパラメータにそれぞれ第1ステップにおける設定値を含む所定の数値範囲を設定して、これらの数値範囲内で各パラメータの値の組み合わせを毎回変更し、各パラメータの設定値の組み合わせに基づき前記実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく前記認識処理を実行して、その認識結果を示す数値データを前記サンプルデータと照合するステップBとを複数サイクル実行することによって、パラメータ毎に前記サンプルデータに対する相違量が前記所定値以内になる数値データが得られる間に設定される当該パラメータの数値範囲を特定し、特定された数値範囲毎に、前記第3ステップを実行する、3次元計測処理のパラメータの導出方法。
  3. 請求項1または2に記載された方法において、
    前記認識処理として、3次元計測により復元された3次元情報をあらかじめ登録された前記認識対象物の3次元モデルと照合することにより、前記認識対象物の位置を表す座標、および3次元モデルに対する認識対象物の回転角度を前記数値データとして算出する処理を実行し、
    前記第1ステップでは、前記実物モデルの画像を用いた3次元計測処理により復元された3次元情報に対して前記認識処理を実行するステップと、この認識処理により算出された座標および回転角度に基づき前記認識対象物の3次元モデルを座標変換するステップと、座標変換後の3次元モデルを前記撮像手段の座標系に透視変換して、この透視変換により生成された3次元モデルの投影像を前記実物モデルの画像に重ね合わせて表示するステップとを実行する、
    3次元計測処理のパラメータの導出方法。
  4. 認識対象物を撮像するための撮像手段と、この撮像手段により生成された認識対象物の画像を用いた3次元計測を実行し、3次元計測の結果に基づき所定の認識処理を実行してその認識結果を数値データとして出力する認識処理手段と、前記3次元計測を実行する際の計測条件を表すパラメータを前記認識処理手段に登録するための登録処理手段とを具備する3次元視覚センサにおいて、
    前記登録処理手段は、
    前記パラメータの値を設定する操作を受け付ける設定受付手段と、
    前記設定受付手段が受け付けたパラメータの設定値を認識処理手段に与えて、前記撮像手段により生成された前記対象物の実物モデルの画像を対象にした3次元計測およびその計測結果に基づく認識処理を実行させ、認識結果を示す情報をモニタ装置に表示する仮認識実行手段と、
    仮認識実行手段により表示された認識結果を採用する旨の操作を受け付けて、この認識結果を示す数値データをサンプルデータとして設定するサンプルデータ設定手段と、
    前記サンプルデータに設定した認識結果を得たときのパラメータの設定値を含む所定の数値範囲内で前記パラメータの設定値を毎回変更して、設定されたパラメータにより前記実物モデルの画像を用いた3次元計測を実行するステップAと、この3次元計測の結果に基づく前記認識処理を実行して、その認識結果を示す数値データを前記サンプルデータと照合するステップBとを複数サイクル実行することによって、前記サンプルデータに対する相違量が所定値以内になる数値データが得られる間に設定されるパラメータの数値範囲を特定する数値範囲特定手段と、
    前記数値範囲特定手段により特定された数値範囲において、当該範囲の上限値および下限値からそれぞれ所定の値を隔てた位置にある数値を、前記認識処理手段に登録するパラメータとして特定する登録値特定手段とを、具備する3次元視覚センサ。
JP2009059922A 2009-03-12 2009-03-12 3次元計測処理のパラメータの導出方法および3次元視覚センサ Active JP5245937B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009059922A JP5245937B2 (ja) 2009-03-12 2009-03-12 3次元計測処理のパラメータの導出方法および3次元視覚センサ
US12/711,179 US8208718B2 (en) 2009-03-12 2010-02-23 Method for deriving parameter for three-dimensional measurement processing and three-dimensional visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009059922A JP5245937B2 (ja) 2009-03-12 2009-03-12 3次元計測処理のパラメータの導出方法および3次元視覚センサ

Publications (2)

Publication Number Publication Date
JP2010210586A true JP2010210586A (ja) 2010-09-24
JP5245937B2 JP5245937B2 (ja) 2013-07-24

Family

ID=42730745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009059922A Active JP5245937B2 (ja) 2009-03-12 2009-03-12 3次元計測処理のパラメータの導出方法および3次元視覚センサ

Country Status (2)

Country Link
US (1) US8208718B2 (ja)
JP (1) JP5245937B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037178A1 (ja) * 2013-09-12 2015-03-19 トヨタ自動車株式会社 姿勢推定方法及びロボット
WO2020255229A1 (ja) * 2019-06-17 2020-12-24 オムロン株式会社 計測装置、計測方法、及び計測プログラム
WO2022107684A1 (ja) * 2020-11-18 2022-05-27 ファナック株式会社 パラメータを調整する装置、ロボットシステム、方法、及びコンピュータプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5713159B2 (ja) * 2010-03-24 2015-05-07 独立行政法人産業技術総合研究所 ステレオ画像による3次元位置姿勢計測装置、方法およびプログラム
US9191650B2 (en) * 2011-06-20 2015-11-17 National Chiao Tung University Video object localization method using multiple cameras
CN106952332B (zh) * 2017-03-06 2020-05-05 华侨大学 一种基于透视变换的3d画施工图自动生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07103715A (ja) * 1993-10-01 1995-04-18 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH0949714A (ja) * 1995-08-04 1997-02-18 Canon Inc 3次元形状抽出装置
JP2005165481A (ja) * 2003-11-28 2005-06-23 Topcon Corp 三次元画像表示装置及び方法
JP2006294003A (ja) * 2005-03-15 2006-10-26 Omron Corp 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP2006329684A (ja) * 2005-05-23 2006-12-07 Olympus Corp 画像計測装置及び方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269362A (ja) 1997-03-21 1998-10-09 Omron Corp 物体認識方法およびその装置
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3859371B2 (ja) 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
US6980690B1 (en) 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
JP3603118B2 (ja) 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
US7003136B1 (en) 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2004062980A (ja) 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
ES2295599T3 (es) * 2003-05-14 2008-04-16 Tbs Holding Ag Procedimiento y dispositivo para reconocer datos biometricos despues de su registro desde al menos dos direcciones.
EP1766552A2 (en) 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
JP4434890B2 (ja) 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
JP4604774B2 (ja) 2005-03-14 2011-01-05 オムロン株式会社 3次元計測のためのキャリブレーション方法
CN101189641B (zh) * 2005-05-12 2012-05-02 布雷克成像有限公司 编码数字图像的像素或体素的方法及处理数字图像的方法
JP4873004B2 (ja) * 2006-03-17 2012-02-08 日本電気株式会社 3次元データ処理システム
JP5310130B2 (ja) 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2010210585A (ja) 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5282614B2 (ja) 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07103715A (ja) * 1993-10-01 1995-04-18 Nippondenso Co Ltd 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH0949714A (ja) * 1995-08-04 1997-02-18 Canon Inc 3次元形状抽出装置
JP2005165481A (ja) * 2003-11-28 2005-06-23 Topcon Corp 三次元画像表示装置及び方法
JP2006294003A (ja) * 2005-03-15 2006-10-26 Omron Corp 画像処理方法およびその方法を用いた3次元計測方法ならびに画像処理装置
JP2006329684A (ja) * 2005-05-23 2006-12-07 Olympus Corp 画像計測装置及び方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037178A1 (ja) * 2013-09-12 2015-03-19 トヨタ自動車株式会社 姿勢推定方法及びロボット
WO2020255229A1 (ja) * 2019-06-17 2020-12-24 オムロン株式会社 計測装置、計測方法、及び計測プログラム
JPWO2020255229A1 (ja) * 2019-06-17 2020-12-24
JP7134413B2 (ja) 2019-06-17 2022-09-12 オムロン株式会社 計測装置、計測方法、及び計測プログラム
WO2022107684A1 (ja) * 2020-11-18 2022-05-27 ファナック株式会社 パラメータを調整する装置、ロボットシステム、方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
US20100232682A1 (en) 2010-09-16
JP5245937B2 (ja) 2013-07-24
US8208718B2 (en) 2012-06-26

Similar Documents

Publication Publication Date Title
JP5245937B2 (ja) 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5245938B2 (ja) 3次元認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP4774824B2 (ja) 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
JP5316118B2 (ja) 3次元視覚センサ
JP5282614B2 (ja) 視覚認識処理用のモデルデータの登録方法および視覚センサ
CN110926330B (zh) 图像处理装置和图像处理方法
KR100817656B1 (ko) 화상 처리 방법, 3차원 위치 계측 방법 및 화상 처리 장치
JP2011112400A (ja) 3次元視覚センサ
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2010210458A (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP2010112729A (ja) 3次元モデルの作成方法および物体認識装置
KR101715781B1 (ko) 물체 인식 시스템 및 그 물체 인식 방법
JP3886471B2 (ja) 画像処理装置
JPH1079029A (ja) 立体情報検出方法及びその装置
JP4788475B2 (ja) 画像処理装置および画像処理方法
JP2010113398A (ja) 3次元モデルの作成方法および物体認識装置
CN114373060B (zh) 行李模型生成方法与设备
KR20170067023A (ko) 도면 검사 장치 및 방법
JP6025400B2 (ja) ワーク位置検出装置、及びワーク位置検出方法
JP4359939B2 (ja) 画像測定装置
JP2009058359A (ja) 画像処理装置
JP2007218922A (ja) 画像測定装置
JP2006331009A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130325

R150 Certificate of patent or registration of utility model

Ref document number: 5245937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250