JP5282614B2 - 視覚認識処理用のモデルデータの登録方法および視覚センサ - Google Patents

視覚認識処理用のモデルデータの登録方法および視覚センサ Download PDF

Info

Publication number
JP5282614B2
JP5282614B2 JP2009061355A JP2009061355A JP5282614B2 JP 5282614 B2 JP5282614 B2 JP 5282614B2 JP 2009061355 A JP2009061355 A JP 2009061355A JP 2009061355 A JP2009061355 A JP 2009061355A JP 5282614 B2 JP5282614 B2 JP 5282614B2
Authority
JP
Japan
Prior art keywords
model
data
dimensional
measurement
model data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009061355A
Other languages
English (en)
Other versions
JP2010218016A (ja
Inventor
篤 種野
紫朗 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009061355A priority Critical patent/JP5282614B2/ja
Priority to US12/711,976 priority patent/US8654193B2/en
Publication of JP2010218016A publication Critical patent/JP2010218016A/ja
Application granted granted Critical
Publication of JP5282614B2 publication Critical patent/JP5282614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces

Description

本発明は、認識対象の物体をカメラにより撮像し、生成された画像を用いて2次元または3次元の計測処理を実行することにより取得した特徴データをあらかじめ登録したモデルデータと照合することによって、所定の認識処理を実行する視覚センサに関する。特に本発明は、上記の認識処理に用いるモデルデータを視覚センサに登録する処理に関する。
物体の外形の3次元情報のモデルデータを作成する方法として、たとえば特許文献1に開示されたものがある。
この特許文献1に記載の発明では、ステレオ計測により3次元情報を復元することを前提として、物体の実物モデルを、計測方向を毎回変更して複数回計測する。さらに、毎時の計測により復元された3次元情報を相互に照合して位置合わせを行い、位置合わせ後の情報を統合することによって、種々の方向からの計測に対応可能なモデルデータを作成する。
また、特許文献1や下記の非特許文献1には、物体の輪郭線の3次元情報を復元する方法として、「セグメントベーストステレオ」という手法が開示されている。この方法は、ステレオ画像を構成する各画像に含まれるエッジを、連結点や分岐点を基準に直線や曲線のセグメントに分割し、セグメント単位でステレオ対応検索を行って、所定数の3次元座標を算出するものである。
特許第2961264号公報
「セグメントベーストステレオにおける連結性に基づく対応評価」 情報処理学会論文誌 vol.40,No.8,3219−3229ページ,1999年8月発行
視覚センサにモデルデータを登録する処理では、一般に、登録対象の視覚センサに良好な形状の認識対象物を供給して、実際に撮像や計測を実行し、計測により取得した特徴データをベースにしてモデルデータを作成する。また、認識精度を確保するために、作成されたモデルデータによる試験的な認識を行って、その認識結果に基づいてモデルデータを修正し、精度が極端に悪い場合には、必要に応じてモデルデータを作成し直すなど、登録対象のモデルデータを決定するまでにかなりの時間や労力を費やす。
このように、視覚センサにモデルを登録する作業には大きな負荷がかかるため、同一の工程を実行する生産ラインを複数持つ現場からは、これらのラインの1つに配置された視覚センサに登録したモデルデータを、他のラインの視覚センサに移植したい、という要望があがっている。しかし、実際には、照明条件がラインによって異なったり、外光の影響を受けるラインがあったり、カメラの特性のばらつきによりコントラストが異なる画像が生成されるなどの原因により、各視覚センサが生成する画像の状態にばらつきが生じるため、各視覚センサに同一のモデルデータを登録するのは困難である。
一方、視覚センサ毎にモデルデータを作成する場合には、モデルデータの作成に関わる作業者がセンサによって異なると、モデルデータに設定される内容に作業者によるばらつきが生じ、そのばらつきにより各ラインにおける処理の安定性にばらつきが生じるおそれがある。
上記の点に関して、発明者らは、CADデータなどの設計データを計測に応じたデータ形式に変換することによって、センサの設置条件や計測条件の違いによる影響を受けないモデルデータを自動作成し、これを各視覚センサに導入することを検討した。しかし、設計データから導き出されたモデルデータには、視覚センサで計測できる範囲を超える情報が含まれるため、計測結果と照合すると、モデルデータ中に計測結果に対応づけされない情報が多数生じて、一致度がかえって低下することが判明した。
本発明は上記の問題点に着目し、個々の視覚センサの設置環境や計測条件に適合し、認識精度が確保されたモデルデータを容易に作成できるようにすることを、課題とする。
本発明によるモデルデータの登録方法は、認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により物体の輪郭形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより物体に対する認識処理を実行する視覚センサにおいて実施されるもので、以下の第1〜第4のステップを実行することを特徴とする。
第1ステップでは、認識対象の物体について、当該物体の実寸大の全輪郭形状を表す3次元情報を基本モデルデータとして入力する。なお、本発明では、物体の内部構造などの視覚認識が不可能な部位の情報を含む基本モデルデータを入力することを、なんら排除するものではない。
また、上記の3次元情報は、文字どおり、実寸法を表すものに限らず、実寸法をあらかじめ定めた比率で縮小したサイズを表すものも含む。
第2ステップでは、認識対象の物体の実物モデルを処理対象として、カメラによる撮像および計測処理、ならびに計測処理により取得した実物モデルの輪郭形状を表す特徴データ基本モデルデータまたは基本モデルデータを透視変換して得られた2次元情報(以下、「変換モデルデータ」という。)と照合する処理を、実物モデルのカメラに対する姿勢を変更しながら複数サイクル実行する。第3ステップでは、第2ステップで実物モデルの特徴データと照合されたデータ(第2ステップの処理対象となった基本モデルデータまたは変換モデルデータを意味する。)から少なくとも第2ステップで実行された複数サイクルのいずれの照合処理においても実物モデルの特徴データに対応づけられなかった情報を削除し、残されたデータを前記照合処理のためのモデルデータとして登録する。
上記の方法によれば、認識対象の物体について自装置が必要とする以上の情報を含む基本モデルデータを入力し、この基本モデルデータまたは当該基本モデルデータから生成した変換モデルデータを自装置で実物モデルに対して行った計測結果と照合する。そして、照合処理の対象とされた基本モデルデータまたは変換モデルデータから、実物モデルの特徴データに対応づけられなかったデータを、自装置での処理には不要なデータとして削除する。
したがって、物体の実寸大の全輪郭形状を表す3次元の基本モデルを入力する第1ステップを実行した後、第2ステップにおいて、カメラに対する実物モデルの姿勢を実際の計測の際に想定される範囲で種々に変更して撮像および計測処理ならびに照合処理を行えば、その後の第3ステップで残されるデータは、おのずと視覚センサが行うべき認識処理に適合するものとなり、モデルデータの精度を検証する作業を不要、または大幅に削減することができる。また、作業者によりモデルデータを修正する必要もなくなるので、モデルデータの精度にばらつきが生じるのを防止することができる。
また、認識対象の物体の実寸大の全輪郭形状を表す3次元情報を基本モデルデータとするので、同じ物体を認識対象とする全ての視覚センサに同一の基本モデルデータを導入し、各視覚センサで上記の方法を実行することができる。よって、十分な精度の基本モデルデータを準備しておけば、各視覚センサにおいて、この基本モデルデータを、自装置の認識処理に適したモデルデータに作り替えて登録することができる。
さらに、本発明によれば、この方法を実施している視覚センサでは計測される可能性が殆どない特徴データに対応するデータを不要な情報として、基本モデルデータまたは変換モデルデータから不要な情報を除いたものをモデルデータとして登録することができる。よって、計測により得た特徴データの中からモデルデータに対応するものを安定して抽出することができ、認識精度を確保することができる。
第1の態様における第3ステップでは、実物モデルの特徴データと照合されたデータに含まれる情報のうち、第2ステップでの複数のサイクル毎の照合処理において実物モデルの特徴データに対応づけることができなかった回数またはその割合が所定の基準値を上回る情報を、削除の対象に設定する。
上記の態様によれば、視覚センサでの計測が可能であるが、照明条件の変動などによって計測が不安定になる情報を、モデルデータに含めないようにすることができる。よって、不安定な情報による照合が行われるのを防止して、認識精度を高めることができる。
第2の態様による第3ステップでは、実物モデルの特徴データと照合されたデータに含まれる情報のうち、第2ステップの複数のサイクルのうちの少なくとも1サイクルにおける照合処理において実物モデルの特徴データに対応づけられなかった情報を、削除対象に設定する。
上記の態様によれば、基本モデルデータ又は変換モデルデータから、実物モデルの特徴データへの対応づけに1回でも失敗したものを不要な情報として削除することにより、認識対象の物体につき、ほぼ確実に計測することができる情報のみを含むモデルデータを作成することができる。よって、認識処理の安定度をより一層高めることができる。
上記の方法において、計測処理として、認識対象の物体の3次元の輪郭形状を表す特徴データを取得する3次元の計測処理を実行する場合には、第2ステップの照合処理では、実物モデルに対する計測処理により取得した当該実物モデルの3次元の輪郭形状を表す特徴データを基本モデルデータが示す3次元情報と照合する。
一方、計測処理として、カメラにより生成された画像中の物体のエッジを取得する2次元の計測処理を実行する場合もある。この場合の第2ステップの照合処理では、基本モデルデータをカメラの座標系に透視変換することにより生成された2次元のエッジパターンを照合対象として、実物モデルに対する計測処理により取得したエッジのパターンを照合対象のエッジパターンと照合する。
このように、本発明による方法は、2次元の計測を行う装置、3次元の計測を行う装置の双方に適用することが可能である。
上記の方法が適用された視覚センサは、認識対象の物体について、当該物体の実寸大の全輪郭形状を表す3次元情報を基本モデルデータとして入力するための入力手段と、認識対象の物体の実物モデルが処理対象となることを条件として、カメラによる撮像および計測処理、ならびに計測処理により取得した実物モデルの輪郭形状を表す特徴データ入力手段より入力した基本モデルデータまたは当該基本モデルデータを透視変換して得られた2次元情報とを照合する処理を、複数サイクル実行する実物モデル処理手段と、実物モデルの特徴データと照合されたデータから実物モデル処理手段が少なくとも前記複数サイクルのいずれの照合処理においても実物モデルの特徴データに対応づけられなかった情報を削除し、残されたデータを登録対象のモデルデータとして設定するモデルデータ設定手段とを、具備する。
上記の構成によれば、あらかじめ認識対象の物体の実寸大の全輪郭形状を精度良く表す3次元情報を生成して、これを基本モデルデータとして視覚センサに入力すると共に、計測条件に応じた状態で配置された実物モデルをカメラの視野に導入して、実際の計測で想定される範囲内で実物モデルのカメラに対する姿勢を種々に変更しながらモデル処理手段による処理を実行し、ついでモデル設定手段による処理を実行することにより、視覚センサの設置される環境や計測条件などに適合したモデルデータを作成し、登録することができる。
本発明によれば、同種の物体を認識対象とする複数の視覚センサに対し、これらのセンサが認識対象とする物体の実寸大の全輪郭形状を表す3次元情報による基本モデルデータを1つ準備し、この基本モデルデータを各視覚センサに入力して、それぞれの視覚センサの設置環境、カメラの特性、計測条件などに適合したモデルデータに作り替えて登録することができる。よって、個々の視覚センサにおけるモデルデータの登録処理を効率良く行うことができる。
また認識対象の物体の実物モデルを実際の処理と同様の条件で撮像して計測し、この計測結果に対応づけられる情報によるモデルデータを作成するから、このモデルデータの精度を自然と確保することができ、このモデルデータをもって安定した認識処理を実行することが可能である。
ピッキングシステムの構成例を示す図である。 視覚センサの電気構成を示すブロック図である。 上記の視覚センサにおいて実施される3次元認識処理の手順を示すフローチャートである。 認識対象のワークの構成例を示す斜視図および底面図である。 認識対象のワークの構成例を示す側面図である。 図4に示したワークの基本モデルのデータ構成を示す図である。 計測時のワークの配置例を示す図である。 図6の配置状態のワークを用いて作成した実用モデルのデータ構成を示す図である。 計測時のワークの配置の他の例を示す図である。 図8の配置状態のワークを用いて作成した実用モデルのデータ構成を示す図である。 モデル登録処理の手順を示すフローチャートである。 ワークに影が発生するか否かにより実用モデルのデータ構成が変化する例を示す図である。 2次元の認識処理を行う視覚センサにおけるモデル登録処理の手順を示すフローチャートである。
図1は3次元視覚センサが導入されたピッキングシステムの構成例を示す。
このピッキングシステムは、工場内で収容ボックス6に収容されたワークWを1つずつ取り出して所定の位置に搬送する作業を行うためのもので、作業を行う多関節ロボット4や、このロボット4の動作を制御するロボット制御装置3のほか、処理対象のワークWを認識する3次元視覚センサ100が含まれる。
3次元視覚センサ100は、ステレオカメラ1と認識処理装置2とにより構成される。
ステレオカメラ1は、横並びに配置された3台のカメラA,B,Cにより構成される。認識処理装置2は、専用のプログラムが格納され、表示部25や、キーボード、マウスなどによる入力部24が接続されたパーソナルコンピュータにより構成される。
認識処理装置2は、各カメラA,B,Cを用いたステレオ計測処理によってワークWの輪郭線の3次元情報を取得した後、取得した3次元情報をあらかじめ登録された3次元のモデルデータ(以下、「3次元モデル」という。)と照合することにより、ワークWの位置および姿勢を認識する。ロボット制御装置3は、認識処理装置2から上記の認識結果の送信を受け付けて、これに基づきロボット4のアーム40がワークWを把持するように、その動作を制御する。
図2は、上記の3次元視覚センサ100の構成をブロック図により表したものである。
この図に示すように、認識処理装置2には、各カメラA,B,Cに対応する画像入力部20A,20B,20C、カメラ駆動部21、CPU22、メモリ23、入力部24、表示部25、通信インターフェース26、外部ディスク装置27などが含まれる。
カメラ駆動部21は、CPU22からの指令に応じて、各カメラA,B,Cを同時に駆動する。なお、キャリブレーション処理や3次元モデルを登録する処理を行う場合には、このカメラ駆動は、入力部24から撮像開始の指示を受け付けたことに応じて行われる。
表示部25および入力部24は、キャリブレーション処理や3次元モデルの作成処理の際に、設定のための情報の入力や撮像開始の指示を行ったり、作業を支援するための情報を表示したり、作成された3次元モデルの投影像を確認する目的で使用される。
通信インターフェース26は、ロボット制御装置3との通信に用いられる。外部ディスクドライブ27は、コンパクトディスクなどの記憶媒体に情報を読み書きするためのもので、この実施例では、後記する基本モデルデータを読み出す目的に使用される。
メモリ23は、ROM,RAM,およびハードディスクなどの大容量メモリを含むもので、キャリブレーション処理、3次元モデルの作成、およびワークWの3次元認識処理のためのプログラムや設定データが格納されている。また、キャリブレーション処理で算出された3次元計測用のパラメータや3次元のモデルデータも、メモリ23内の専用のエリアに登録される。
CPU22は、メモリ23のプログラムに基づき、キャリブレーション処理を実行して、3次元計測用のパラメータの算出および登録を行った後に、認識処理用のモデルデータの作成および登録処理を実行する。この2種類の設定処理を実行することによって、視覚センサ100は、ワークWに対する3次元計測や認識処理を実行することが可能な状態になる。
図3は上記の3次元視覚センサ100において、ワークWを認識するために実行される処理手順を示す。以下、このフローチャートに沿って、認識処理の概要を説明する。
まず、カメラA,B,Cによるステレオ撮像を実行し(ST1)、生成された各画像からエッジを抽出する(ST2)。
つぎに検出されたエッジを細線化し(1画素幅のデータにする。)、細線化後のエッジを連結点や分岐点を基準に直線や曲線のセグメントに分割する(ST3,4)。この2次元画像上のエッジから抽出されたセグメントを、以下では「2次元セグメント」と呼ぶ。
つぎに、画像間で対応関係にある2次元セグメントを対応づける処理を実行する(ST5)。具体的には、3つの画像のうちの1つを基準画像として、この基準画像の各2次元セグメントに順に着目し、着目した2次元セグメントにつき、エピポーラ条件を満たすこと、および近傍のセグメントとの連結関係が着目中の2次元セグメントに整合することを条件として、他の2つの画像において条件を満たす2次元セグメントを探索する。この探索処理により、2つの画像で、ともに条件を満たす2次元セグメントが検出された場合には、これらを着目中の2次元セグメントに対応づける。
なお、各画像間での対応づけがなされなかった2次元セグメントは、以下の処理の対象から除外される。
上記の対応付け処理が終了すると、ST6に進み、対応づけられた2次元セグメントの組み合わせ毎に、3次元情報を復元する処理を実行する。この復元された3次元情報により表される3次元のセグメントを、以下では「3次元セグメント」という。
ここで対応づけられた1組の2次元セグメントから1つの3次元セグメントを復元する処理について説明する。
まず対応づけられた2次元セグメント間で、さらに画素単位の対応づけを行い、対応づけられた画素の組毎に3次元座標を算出する。さらに各3次元座標の分布パターンに近似する直線または曲線を設定し、設定された直線または曲線を所定の間隔毎にサンプリングする。そして、サンプリングされた3次元座標による集合に、各3次元座標の分布パターンに応じた属性(直線または曲線)を対応づけたものを、3次元セグメントとして確定する。
ST6では、2次元セグメントのすべての組み合わせについて上記の処理を実行することにより、ワークWの輪郭形状を表す複数の3次元セグメントによる3次元情報を復元する。この処理が終了すると、つぎのST7では、復元した3次元情報をあらかじめ登録したモデルデータと照合することにより、ワークWの位置および姿勢を認識する。
上記ST7の処理について、具体的に説明する。この実施例では、モデルデータとして、ワークWの計測され得る範囲の輪郭形状を表す3次元セグメントが登録されており、ST7では、各3次元セグメントの交点を特徴点として、モデルデータ側の各特徴点と復元された3次元情報における各特徴点とを総当たり式に対応づけながら、両者の一致度を算出する。そして、所定の基準値を超える一致度が得られたときの対応づけを正しいものとして、モデルデータ中の代表点(たとえば重心)に対応づけられた座標をワークWの位置として特定する。またこの正しい対応づけにおけるモデルデータの回転角度をワークの姿勢として特定する。
さらに上記の照合処理では、3次元モデルに対する一致度が基準値を超える対応づけが複数見つかった場合には、それぞれの対応づけ毎に、座標および回転角度を特定する。よって、複数のワークWを対象にステレオ計測が実施された場合でも、各ワークWを個別に認識することができる。
ワークWの位置および姿勢が認識されると、この後は、通信インターフェース26を介して認識結果をロボットコントローラ3に出力し(ST8)、処理を終了する。
上記の認識処理の精度を確保するには、精度の良いモデルデータを登録する必要がある。この点につき、この実施例では、図1に示したシステム外のコンピュータにおいて、ワークWのCADデータを3次元セグメント形式の情報に変換することにより、ワークWの全輪郭形状を実寸法で表した3次元情報を作成し、これをワークの基本のモデルデータ(以下、「基本モデル」という。)とする。作成された基本モデルはコンパクトディスクに保存されて、ユーザに提供される。
ユーザは、このコンパクトディスクを認識処理装置2の外部ディスクドライブ27にセットして、3次元モデルの作成処理を開始する。ここでユーザは、ワークWの実物モデルを実際に計測する場合と同様の姿勢にしてステレオカメラ1の計測領域に配置し、入力部24より撮像を指示する。認識処理装置2では、この指示に応じて図3のST1〜ST6の各ステップに相当する処理を実行し、復元された実物モデルの3次元情報を外部ディスクドライブ27より読み出した基本モデルと照合する。
さらにこの実施例では、計測時に取り得る範囲内でワークWの姿勢を毎回変更して、上記のステレオ計測および照合処理を複数サイクル実行する。そして、基本モデル側の3次元セグメントのうち、いずれのサイクルの照合処理でもステレオ計測の結果に対応づけされなかった情報を、認識処理に不要な情報と判別する。そして基本モデルから不要な情報を削除したものを、図3の認識処理に使用するモデルデータ(以下「実用モデル」という。)としてメモリ23に登録するようにしている。
図4は、視覚センサの認識対象となるワークWの具体的な構成例を、斜視図および背面図(図4−1の(1)(2))、および三方から見た側面図(図4−2の(3)(4)(5))により示す。これらの図に示すように、この実施例のワークWは、厚みのある板体30の背面に3個の取付片41,42,43を具備する取付金具40を一体に設けた構成のものである。各取付片41,42,43は、取り付け金具40の本体部の三辺からそれぞれ異なる傾斜角度をもって後方に突出している。また取付片41,42の先端部は屈曲しているのに対し、取付片43は、まっすぐに延びた状態に形成されている。なお、図4では、板体30の厚み部分の面を、符号32,33,34,35により示す。
上記のワークWは、板体30の前面31を上に向けることにより、取付片42,43によって板体30を水平な状態にして支持される(このときの取付片41は浮いた状態になる。)。また後記する図8に示すように、面33を底面として、板体30を垂直な状態にして支持される場合もある。
図5は、上記のワークWの基本モデルのデータ構成を、図4の斜視図に合わせた模式図として示す。この基本モデルM0は、CADデータを変換処理することにより生成されたもので、ワークWのすべての輪郭線(図中、一点鎖線で示す。)を表す3次元セグメント情報(3次元セグメントの集合)が含まれている。
図6は、ワークWの実物モデル(以下、これを単に「ワークW」という。)を図4に示した支持状態にして配置したものを、ステレオカメラ1により計測される方向から見たののである。ただし、計測方向に対するワークWの姿勢は一定ではなく、図中の矢印fの方向に沿って回転した姿勢をとる可能性がある。
図6の例の場合には、板体30の前面31の真上から計測を行うため、計測が可能となるのは、板体30の前面31、および取付片41,42,43の先端部付近であり、板体30の背面32や取付金具40の本体部分を計測することは不可能になる。
図7は、上記の計測条件による計測結果を図5に示した基本モデルM0と照合することにより作成した実用モデルM1の例を示す。なお、この図7および後記する図9では、削除された情報を極細点線により表現している。
この実用モデルM1は、計測方向に対し、ワークWを図6の矢印fの方向に沿って所定角度ずつ回転させて、撮像および計測を繰り返し行い、毎回の計測により取得した3次元情報を基本モデルと照合し、ワークWの3次元情報に対応づけられなかった情報を基本モデルから削除することにより得られたものである。この結果、実用モデルM1に含まれるのは、実際に計測される箇所(板体30の前面および取付片41,42,43の先端部)に対応する情報のみとなっている。
図8は、ステレオカメラ1に対するワークWの他の配置例を示す。この例のワークWは、板体30の取付片が設けられていない方位にある面33を底面とすることにより、板体30を垂直に起立させた状態で配置される。図8では、計測方向に対してワークWが取り得る3通りの姿勢を、示している。このようにワークWの姿勢は一定ではないが、この例では、板体30の背面が計測されることはないものとする。
図9は、図8のように配置されたワークWに対して複数回のステレオ計測を実行し、各計測により取得した3次元情報と基本モデルM0とを照合することにより生成された実用モデルの例を示す。この実用モデルM2も、基本モデルM0からワークWの計測結果を対応づけられなかった情報を削除することにより生成されたものである。
上記の各例に示したように、この実施例の視覚センサ100が作成する実用モデルM1,M2は、基本モデルM0に含まれる3次元情報から、実際のワークWに対する計測処理では取得することができない情報を削除したものである。いずれの実用モデルM1,M2も、実際に認識されるものと同様の姿勢で配置されたワークWに対する計測結果に対応するように作成されているので、これらの実用モデルM1,M2を用いた認識処理では、計測処理により得た3次元情報と実用モデルとが正しく対応づけられたときに、実用モデルの殆どの情報が計測された3次元情報に対応する状態になる。よって、十分な一致度をもってワークWを認識することができ、安定した認識を行うことができる。
図10は、実用モデルを作成する際の処理手順を示す。
この処理は、作業者が基本モデルが格納されたコンパクトディスクを外部ディスクドライブ27にセットして、読み出し操作を行ったことに応じて開始される。まず最初のステップ(ST11)では、読み出し操作に従って基本モデルを読み出し、これをメモリ23の作業領域に格納する。
ここで作業者は、ステレオカメラ1の計測領域に、実際に計測されるときと同様の姿勢でワークWを配置し、撮像指示操作を行う。この操作に応じてST12が「YES」となり、ステレオ撮像を実行する(ST13)。さらに、この撮像により生成されたステレオ画像を用いた計測処理により、ワークWの3次元情報を取得する(ST14)。なお、図10のST14は、図3のST3〜ST6に相当する処理をまとめて表したもので、これにより、ワークWの輪郭形状を表す特徴データとして、複数の3次元セグメントを取得することになる。
つぎのST15では、上記の計測処理により取得した3次元情報(特徴データ)を基本モデルと照合する。この場合にも、図3のST7の処理と同様に、計測による特徴点と基本モデル側の特徴点とを総当たり式で対応づけて一致度を求める処理を繰り返し、両者の一致度が最も高い状態になったときの対応関係を正しい関係として特定する。さらに、基本モデルに含まれる3次元情報の中から、上記の正しい対応関係にあるときに特徴データに対応づけられなかった情報を特定する処理も実行する。
この後も、作業者は、実際の計測で想定される範囲内でワークWの姿勢を種々に変更して撮像指示操作を行う。視覚センサ100では、この操作に応じて、ST13,14,15の各処理を実行する。
以下、同様に、撮像指示操作に応じて、ステレオ撮像および計測処理、ならびに計測処理により得た特徴データと基本モデルとを照合する処理が繰り返し実行される。所定の時点で、作業者が必要な撮像を実行したと判断して終了操作を行うと(ST16が「YES」)、毎回の照合処理の結果に基づき、基本モデル内の3次元情報のうち、いずれの照合処理においても計測データに対応づけられなかった情報を、不要情報として特定する(ST17)。
この後は、基本モデルから特定した不要情報を削除し(ST18)、残された情報を実用モデルとしてメモリ23に登録する(ST19)。
なお、実用モデルの登録は、作業者による確認作業を経てから実行してもよい。たとえば、不要情報を削除した後の情報をカメラA,B,Cの座標系に透視変換し、この変換処理により生成された投影像を表示部25に表示し、表示された投影像が実物のワークWの画像に適合しているか否かを作業者に判断させてもよい。
上記の手順によれば、ワークWを処理対象とする複数の視覚センサ100に同一の基本モデルM0を入力し、各視覚センサ100において、それぞれその装置の計測条件に応じた実用モデルを作成することができる。たとえば、ワークWを図6に示すような条件で計測する視覚センサ100と、ワークWを図8で示すような条件で計測する視覚センサ100とに、それぞれ図5に示した構成の基本モデルM0を入力して、各センサ100において上記図10の処理を実行すれば、前者のセンサ100には、図7に示した実用モデルM1が、後者のセンサ100には図9に示した実用モデルM2が、それぞれ登録され、これらによりワークWを認識する処理を安定して実行することができる。
さらに、各視覚センサ100における計測条件が同一であっても、照明の状態やカメラの特性などの違いによって計測が可能な範囲が異なる場合にも、各センサ100に同一の基本モデルを入力して、上記図10と同様の方法により、それぞれの計測精度に応じた実用モデルを作成することができる。
図11は、ワークWを板体30のみの構成に模式して、このワークWに対する照明条件の違いによる実用モデルの構成の違いを示す。この図では、(1)にワークWの基本モデルの構成を示すとともに、(2)に上面に影が生じているワークWを、(3)に影が発生していないワークWを、それぞれの実用モデルM,Mとともに示す。
上記の例によれば、影が生じていないワークWを用いてモデル登録処理を行った場合の実用モデルMには、計測対象のすべての輪郭線の情報が含まれるのに対し、上面に影が生じたワークWを用いてモデル登録処理を行った場合の実用モデル では、影が生じた面の輪郭線の情報を含まない実用モデルが作成される。このように、影が発生する環境下で計測されるワークWに対し、影により取得できない計測データに対応する情報を除いた実用モデルを設定すれば、影の発生しない環境下で計測されるワークWと同様の精度の認識処理を行うことができる。
なお、外光の影響など、時間の経過に伴って環境を変化させる要因がある場合には、それぞれの環境においてワークWの撮像および計測を実行し、基本モデルM0との照合処理において、ワークWの特徴データに対応づけられなかった回数、またはこの回数の全照合回数に対する割合が所定の基準値を上回った情報を基本モデルM0から削除すれば、計測が不安定な部位の情報を含まない実用モデルを作成することが可能になる。計測が可能になる場合と不可能になる場合とがある部位が存在するような場合も、同様である。
さらに、高い認識精度を要求するような場合には、複数回の照合処理のうちのたとえ1回でも計測データに対応づけることができない状態が生じた情報を、不要情報として基本モデルから削除してもよい。このような厳しい基準を設定すれば、安定して計測することができる部位の情報のみを含む実用モデルを作成し、認識処理をより一層安定させることができる。
なお、上記の実施例では、CADデータから基本モデルを作成するとしたが、基本モデルの作成方法はこれに限定されるものではない。たとえば、良好な環境を確保した視覚センサ100の計測エリアに実物のワークWを導入し、このワークWに対するステレオ計測を複数の方向から実行し、各計測結果を統合する方法(特許文献1参照。)により基本モデルを作成し、これを各視覚センサ100に導入することも可能である。
また、上記の実施例では、計測処理として、ワークWの輪郭形状を表す3次元情報を復元する処理を行うことに伴い、基本モデルや実用モデルも、同様に輪郭形状を表す3次元情報により構成したが、3次元計測の手法は、これに限定されるものではない。
たとえば、ステレオ計測や光切断法などによりワークWの表面の形状を表す3次元座標の集合を取得し、この集合を登録されたモデルデータと照合する場合もある。このような計測を行うタイプの視覚センサについても、ワークWの表面全体の形状を表す3次元座標群を基本モデルとして入力し、実物のワークWに対する撮像および計測、ならびに計測処理により取得した3次元座標群(特徴データ)を基本モデルと照合する処理を実行し、基本モデルからワークWの特徴データに対応づけられなかった座標を削除したものを、実用モデルとして登録することができる。
さらに、上記の実用モデルの作成方法は、3次元の認識処理を行うタイプの視覚センサに限らず、2次元の認識処理を行うタイプの視覚センサに適用することもできる。以下、1台のカメラによりワークWを撮像し、生成された画像中のエッジのパターンを登録されたモデルの2次元のエッジパターンと照合することにより、ワークWの位置および姿勢を認識するタイプの視覚センサを例に、登録対象のモデルのエッジパターンを作成する処理を説明する。
この実施例の視覚センサは、カメラおよび画像入力部の組み合わせが1つになることを除けば、図2に示したのと同様のハードウェア構成を具備する。よって、以下の説明では、適宜、図2の符号を参照して説明する(カメラについては符号を省略する。)。
この実施例では、カメラの光軸が特定の方向に固定され(たとえば、鉛直方向を向く状態に設定される。)、処理対象のワークWが常に特定の部位で支持される状態で配置されること(たとえば、図6または図8に示した配置)を前提にする。この場合の基本モデルは、画像に現れるワークWのエッジパターンを実寸法で表すものであり、たとえば2次元のCADデータにより生成される。また、この実施例の視覚センサ100では、あらかじめキャリブレーション処理の結果に基づいて、カメラにより生成される画像の倍率(1画素当たりの実寸法)を特定し、この倍率をメモリ23内に登録する。
図12は、上記の前提による視覚センサ100において、基本モデルから実用モデルを作成する処理の手順を示す。この処理では、まず、コンパクトディスクからエッジパターンの基本モデルを読み出す処理を実行し(ST21)、メモリ23に登録された倍率に基づき、この基本モデルを画像に適合するサイズに変換する(ST22)。以下、この変換後のエッジパターンを「変換モデル」という。
ユーザは、上記の前提条件を守りながら、計測方向に対するワークWの向きを想定される範囲で毎回変更して、撮像開始の指示操作を行う。この操作が行われる都度、カメラによる撮像処理、生成された画像からエッジを抽出する処理、抽出されたエッジのパターンを変換モデルと照合する処理が実行される(ST23〜ST26)。
なお、ST26の照合処理では、画像から抽出されたエッジのパターンと変換モデルとを、位置関係を毎回変更して対応づけて、一致度が最大になったときの対応関係を正しいものとして特定する。また、この正しい対応関係における変換モデルから、照合対象のエッジに対応づけられなかった情報を特定する。
所定の時点で終了操作が行われると、ST23〜27のループを終了してST28に進む。このST28では、計測が不安定な情報を削除対象とする目的で、変換モデルを構成するエッジ情報のうち、画像側のエッジに対応づけられなかった割合が基準値を超えた情報を不要な情報として特定する。さらに、この不要情報を変換モデルから削除し(ST29)、削除後の変換モデルを実用モデルとしてメモリ23に登録する(ST30)。
上記のとおり、ワークWの2次元形状を表す特徴データを用いた認識処理を行う場合には、ワークWのカメラによる視認が可能な範囲内の実寸大の形状を表す2次元パターンを基本モデルとして視覚センサ100に入力し、実際の計測におけるのと同じ姿勢で配置されたワークWに対する計測結果を基本モデルと照合し、基本モデルから計測結果に対応しない割合が高い情報を削除することにより、照明の変動などによる不安定な要素を含まない実用モデルを作成することができる。また、ワークWの配置やカメラの光軸方向に関する設定内容が一致する複数の視覚センサに同一の基本モデルを入力して、それぞれのセンサに適した実用モデルを作成することができる。
なお、上記の2次元の認識処理を行う場合の視覚センサ100に導入される基本モデルも、CADデータによるものに限らない。たとえば、設置環境が良好な状態の視覚センサ100において、ワークWの撮像および生成された画像からエッジを抽出する処理によって、このセンサによる倍率で表したモデルデータを作成した後に、このモデルデータを上記の倍率に基づき実寸法を示す情報に変換したものを基本モデルとしてもよい。または視覚センサで作成したモデルデータと倍率との組み合わせを基本モデルとしてもよい。
さらに、同一のワークWを処理対象とするが、ワークWの底面とする面が視覚センサ100によって異なる場合(たとえば図6の例の配置を採用するセンサと、図8の例の配置を採用するセンサとがある場合)には、ワークWの表面の全輪郭形状を表す3次元情報を基本モデルとして各センサに入力して、実用モデルを作成することができる。簡単に説明すると、この場合には、3次元の基本モデルを視覚センサ100に入力した後に、そのセンサ100におけるワークWの配置状態に合わせて基本モデルを回転補正し、さらに補正後の基本モデルをカメラ座標系に透視変換する。そして、この変換により生成された2次元のエッジパターンを変換モデルとして、図12のST23以降の処理を実行する。
最後に、上記した各種構成による視覚センサ100は、認識対象のワークWの位置および姿勢を認識する処理を実行する以外に、計測結果をモデルデータと照合したときの一致度に基づいて、ワークWの姿勢または形状の適否を判定する目的に利用することもできる。また2次元のエッジパターンの抽出および照合を行うタイプの視覚センサ100においては、図12に示した方法により登録したモデルデータを複数とおりの倍率で表し、ワークWの画像から抽出したエッジパターンを各倍率のモデルデータと照合することにより、ワークWの位置および姿勢に加えて、ワークWの高さを認識することも可能である。
A,B,C カメラ
W ワーク
1 ステレオカメラ
2 認識処理装置
22 CPU
23 メモリ
100 視覚センサ

Claims (7)

  1. 認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により前記物体の輪郭形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより前記物体に対する認識処理を実行する視覚センサにおいて、前記照合処理のためのモデルデータを登録する方法であって、
    認識対象の物体について、当該物体の実寸大の全輪郭形状を表す3次元情報を基本モデルデータとして入力する第1ステップと、
    前記認識対象の物体の実物モデルを処理対象として、前記カメラによる撮像および前記計測処理、ならびに計測処理により取得した前記実物モデルの輪郭形状を表す特徴データ前記基本モデルデータまたは基本モデルデータを透視変換して得られた2次元情報とを照合する処理を、前記実物モデルのカメラに対する姿勢を変更しながら複数サイクル実行する第2ステップと、
    前記第2ステップで前記実物モデルの特徴データと照合されたデータから少なくとも前記第2ステップで実行された複数サイクルのいずれの照合処理においても前記実物モデルの特徴データに対応づけられなかった情報を削除し、残されたデータを前記照合処理のためのモデルデータとして登録する第3ステップとを、
    実行することを特徴とする、視覚認識処理用のモデルデータの登録方法。
  2. 前記第2ステップでは、前記カメラに対する実物モデルの姿勢を毎回変更して撮像および前記計測処理ならびに前記照合処理を複数サイクル繰り返す、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
  3. 前記第3ステップでは、前記実物モデルの特徴データと照合されたデータに含まれる情報のうち、前記第2ステップでの複数のサイクル毎の照合処理において実物モデルの特徴データに対応づけることができなかった回数またはその割合が所定の基準値を上回る情報を、削除の対象に設定する、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
  4. 前記第3ステップでは、前記実物モデルの特徴データと照合されたデータに含まれる情報のうち、前記第2ステップの複数のサイクルのうちの少なくとも1サイクルにおける照合処理において実物モデルの特徴データに対応づけられなかった情報を、削除の対象に設定する、請求項1に記載された視覚認識処理用のモデルデータの登録方法。
  5. 請求項1〜4のいずれかに記載された方法において、
    前記計測処理として、前記認識対象の物体の3次元の輪郭形状を表す特徴データを取得する3次元の計測処理を実行し、
    前記第2ステップの照合処理では、実物モデルに対する前記計測処理により取得した当該実物モデルの3次元の輪郭形状を表す特徴データを前記基本モデルデータが示す3次元情報と照合する、視覚認識処理用のモデルデータの登録方法。
  6. 請求項1〜4のいずれかに記載された方法において、
    前記計測処理として、前記カメラにより生成された画像中のエッジを取得する2次元の計測処理を実行し、
    前記第2ステップの照合処理では、前記基本モデルデータを前記カメラの座標系に透視変換することにより生成された2次元のエッジパターンを照合対象として、実物モデルに対する前記計測処理により取得したエッジのパターンを照合対象のエッジパターンと照合する、視覚認識処理用のモデルデータの登録方法。
  7. 認識対象の物体を少なくとも1台のカメラにより撮像し、生成された画像を用いた計測処理により前記物体の輪郭形状を表す特徴データを取得し、取得した特徴データを、あらかじめ登録したモデルデータと照合することにより前記物体に対する認識処理を実行する視覚センサであって、
    認識対象の物体について、当該物体の実寸大の全輪郭形状を表す3次元情報を基本モデルデータとして入力するための入力手段と、
    前記認識対象の物体の実物モデルが処理対象になることを条件として、前記カメラによる撮像および前記計測処理、ならびに計測処理により取得した実物モデルの輪郭形状を表す特徴データ前記入力手段より入力した基本モデルデータまたは基本モデルデータを透視変換して得られた2次元情報とを照合する処理を、複数サイクル実行する実物モデル処理手段と、
    前記実物モデルの特徴データと照合されたデータから前記実物モデル処理手段が少なくとも前記複数サイクルのいずれの照合処理においても前記実物モデルの特徴データに対応づけられなかった情報を削除し、残されたデータを登録対象のモデルデータとして設定するモデルデータ設定手段とを、
    具備することを特徴とする、視覚センサ。
JP2009061355A 2009-03-13 2009-03-13 視覚認識処理用のモデルデータの登録方法および視覚センサ Active JP5282614B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009061355A JP5282614B2 (ja) 2009-03-13 2009-03-13 視覚認識処理用のモデルデータの登録方法および視覚センサ
US12/711,976 US8654193B2 (en) 2009-03-13 2010-02-24 Method for registering model data for optical recognition processing and optical sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009061355A JP5282614B2 (ja) 2009-03-13 2009-03-13 視覚認識処理用のモデルデータの登録方法および視覚センサ

Publications (2)

Publication Number Publication Date
JP2010218016A JP2010218016A (ja) 2010-09-30
JP5282614B2 true JP5282614B2 (ja) 2013-09-04

Family

ID=42730360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009061355A Active JP5282614B2 (ja) 2009-03-13 2009-03-13 視覚認識処理用のモデルデータの登録方法および視覚センサ

Country Status (2)

Country Link
US (1) US8654193B2 (ja)
JP (1) JP5282614B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835175A (zh) * 2015-05-26 2015-08-12 西南科技大学 一种基于视觉注意机制的核环境中目标检测方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100081881A (ko) * 2009-01-07 2010-07-15 삼성전자주식회사 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5245937B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
US9213891B2 (en) 2011-02-17 2015-12-15 Nec Corporation Information processing device
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
DE102011114674C5 (de) * 2011-09-30 2020-05-28 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
TW201342303A (zh) * 2012-04-13 2013-10-16 Hon Hai Prec Ind Co Ltd 三維空間圖像的獲取系統及方法
JP6515547B2 (ja) * 2014-03-11 2019-05-22 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム
JP5778311B1 (ja) * 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP6588270B2 (ja) * 2015-08-24 2019-10-09 株式会社アマダホールディングス ワーク位置検出装置及びワーク位置検出方法
US9836673B2 (en) * 2015-12-30 2017-12-05 International Business Machines Corporation System, method and computer program product for training a three dimensional object indentification system and identifying three dimensional objects using semantic segments
JP7119606B2 (ja) 2018-06-11 2022-08-17 オムロン株式会社 計測システムおよび計測方法

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278798B1 (en) 1993-08-09 2001-08-21 Texas Instruments Incorporated Image object recognition system and method
JP3622094B2 (ja) 1995-10-05 2005-02-23 株式会社日立製作所 地図更新支援装置および地図情報の編集方法
JPH10122819A (ja) 1996-10-21 1998-05-15 Omron Corp キャリブレーション方法およびその装置
JPH10160464A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JPH10269362A (ja) 1997-03-21 1998-10-09 Omron Corp 物体認識方法およびその装置
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3859371B2 (ja) 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
US6480627B1 (en) 1999-06-29 2002-11-12 Koninklijke Philips Electronics N.V. Image classification using evolved parameters
US6330356B1 (en) 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US6980690B1 (en) 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7065242B2 (en) 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US7167583B1 (en) 2000-06-28 2007-01-23 Landrex Technologies Co., Ltd. Image processing system for use with inspection systems
JP3603118B2 (ja) 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
AU2002357335A1 (en) 2001-12-28 2003-07-24 Applied Precision, Llc Stereoscopic three-dimensional metrology system and method
JP4154156B2 (ja) 2002-02-08 2008-09-24 ソニーマニュファクチュアリングシステムズ株式会社 欠陥分類検査装置
US7003136B1 (en) 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
JP2004062980A (ja) 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US7277599B2 (en) 2002-09-23 2007-10-02 Regents Of The University Of Minnesota System and method for three-dimensional video imaging using a single camera
JP3859574B2 (ja) 2002-10-23 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3929384B2 (ja) 2002-10-23 2007-06-13 オリンパス株式会社 ファインダ、撮影装置、マーカ提示部材、及び、キャリブレーションのための撮影方法
WO2004081488A2 (en) 2003-03-07 2004-09-23 International Industry Support, Inc. Scanning system with stereo camera set
MXPA05004610A (es) 2003-05-14 2005-06-08 Tbs Holding Ag Metodo y dispositivo para el reconocimiento de datos biometricos despues del registro de al menos dos direcciones.
JP4234059B2 (ja) 2003-06-06 2009-03-04 三菱電機株式会社 カメラキャリブレーション方法およびカメラキャリブレーション装置
JP3892838B2 (ja) 2003-10-16 2007-03-14 ファナック株式会社 3次元測定装置
US7596283B2 (en) * 2004-04-12 2009-09-29 Siemens Medical Solutions Usa, Inc. Fast parametric non-rigid image registration based on feature correspondences
JP4111166B2 (ja) 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3次元形状入力装置
JP4560711B2 (ja) 2004-06-22 2010-10-13 株式会社セガ 画像処理
EP1766552A2 (en) 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US7657081B2 (en) * 2004-09-03 2010-02-02 National Research Council Of Canada Recursive 3D model optimization
JP4434890B2 (ja) 2004-09-06 2010-03-17 キヤノン株式会社 画像合成方法及び装置
WO2006030731A1 (ja) 2004-09-13 2006-03-23 Hitachi Medical Corporation 超音波撮像装置及び投影像生成方法
JP4604774B2 (ja) 2005-03-14 2011-01-05 オムロン株式会社 3次元計測のためのキャリブレーション方法
JP2008544766A (ja) 2005-05-12 2008-12-11 ブラッコ イメージング エス.ピー.エー. デジタル画像のピクセルまたはボクセルをコーディングするための方法、およびデジタル画像を処理するための方法
US7580560B2 (en) 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition
JP2007064836A (ja) 2005-08-31 2007-03-15 Kyushu Institute Of Technology カメラキャリブレーションの自動化アルゴリズム
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
JP4709668B2 (ja) * 2006-03-15 2011-06-22 独立行政法人科学技術振興機構 3次元物体認識システム
JP4873004B2 (ja) 2006-03-17 2012-02-08 日本電気株式会社 3次元データ処理システム
CA2653908A1 (en) 2006-06-29 2008-01-03 Aftercad Software Inc. Method and system for displaying and communicating complex graphics file information
US7636478B2 (en) 2006-07-31 2009-12-22 Mitutoyo Corporation Fast multiple template matching using a shared correlation map
JP4650386B2 (ja) 2006-09-29 2011-03-16 沖電気工業株式会社 個人認証システム及び個人認証方法
US8328871B2 (en) * 2006-11-09 2012-12-11 Warsaw Orthopedic, Inc. Expanding vertebral body implant
US7769205B2 (en) 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
JP2008235504A (ja) * 2007-03-20 2008-10-02 Mitsubishi Electric Corp 組立品検査装置
US8126260B2 (en) 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US8793619B2 (en) 2008-03-03 2014-07-29 The United States Of America, As Represented By The Secretary Of The Navy Graphical user control for multidimensional datasets
JP5310130B2 (ja) 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5245937B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP2010210585A (ja) 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
TW201115183A (en) 2009-10-20 2011-05-01 Ind Tech Res Inst Stereovision system and calculation method for the distance between object and diffractive optical element
US8509482B2 (en) * 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2011185650A (ja) 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
EP2423873B1 (en) * 2010-08-25 2013-12-11 Lakeside Labs GmbH Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
US8548269B2 (en) 2010-12-17 2013-10-01 Microsoft Corporation Seamless left/right views for 360-degree stereoscopic video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104835175A (zh) * 2015-05-26 2015-08-12 西南科技大学 一种基于视觉注意机制的核环境中目标检测方法
CN104835175B (zh) * 2015-05-26 2019-11-05 西南科技大学 一种基于视觉注意机制的核环境中目标检测方法

Also Published As

Publication number Publication date
US20100231711A1 (en) 2010-09-16
JP2010218016A (ja) 2010-09-30
US8654193B2 (en) 2014-02-18

Similar Documents

Publication Publication Date Title
JP5282614B2 (ja) 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5316118B2 (ja) 3次元視覚センサ
JP4418841B2 (ja) 作業装置及びその校正方法
CN110926330B (zh) 图像处理装置和图像处理方法
CN102084214B (zh) 结构光系统用于光学形状和位置测量的精确图象获取
JP2019200697A (ja) 棚管理システムおよびプログラム
US9715730B2 (en) Three-dimensional measurement apparatus and robot system
JP5092711B2 (ja) 物体認識装置およびロボット装置
JP5471356B2 (ja) 3次元計測のためのキャリブレーション方法および3次元視覚センサ
JP2011185650A (ja) モデル作成装置およびモデル作成プログラム
JP2010210585A (ja) 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP7134016B2 (ja) 情報処理装置、情報処理方法
JP2010210586A (ja) 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5104248B2 (ja) 物体認識装置およびロボット装置
CN112424564A (zh) 用于生成用于测试测量对象的测试计划的方法和装置、用于测试测量对象的方法和装置以及计算机程序产品
KR101792701B1 (ko) 도면 검사 장치 및 방법
JP2007026423A (ja) 画像処理装置および画像処理方法
CN109813283A (zh) 立体摄像头和立体摄影测量方法
JP2015062017A (ja) モデル作成装置、モデル作成プログラム、および画像認識システム
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
JP2012078105A (ja) 姿勢制御装置、制御方法及びプログラム
EP3563983A1 (en) Method of, as well as a system for, performing a welding step on a work piece
CN117073543B (zh) 双旋转平面度量测机的外观测量方法、装置及设备
KR101714700B1 (ko) 스캔 데이터 정합 장치
WO2024042619A1 (ja) 装置、ロボットの制御装置、ロボットシステム、方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

R150 Certificate of patent or registration of utility model

Ref document number: 5282614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250