JP4715539B2 - 画像処理装置、その方法、および画像処理用プログラム - Google Patents

画像処理装置、その方法、および画像処理用プログラム Download PDF

Info

Publication number
JP4715539B2
JP4715539B2 JP2006038642A JP2006038642A JP4715539B2 JP 4715539 B2 JP4715539 B2 JP 4715539B2 JP 2006038642 A JP2006038642 A JP 2006038642A JP 2006038642 A JP2006038642 A JP 2006038642A JP 4715539 B2 JP4715539 B2 JP 4715539B2
Authority
JP
Japan
Prior art keywords
image
registered
database
orientation
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006038642A
Other languages
English (en)
Other versions
JP2007219765A (ja
Inventor
謙一 北浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006038642A priority Critical patent/JP4715539B2/ja
Publication of JP2007219765A publication Critical patent/JP2007219765A/ja
Application granted granted Critical
Publication of JP4715539B2 publication Critical patent/JP4715539B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、および画像処理用プログラムに関し、詳細には、三次元物体を認識する画像処理装置、画像処理方法、および画像処理用プログラムに関する。
三次元物体を様々な方向から撮影し、これにより得られた二次元画像に基づいて未知物体の認識を行う三次元物体認識システムが知られている。この三次元物体認識システムは、ロボットの視覚情報の取得や物体認識、車両の自動運転装置、パノラマ画像の作成、および三次元形状の計測等に広く利用されている。この種の三次元物体認識システムとしては、例えば、非特許文献1が公知である。同文献では、画像の特徴量を使用して、画像中から物体を検出する技術が開示されている。
Distinctive image features from scale invariant Keypoints,David G,Lowe,International Journal of Computer Vision,60,2(2004),pp.91−110.
しかしながら、従来技術においては、二次元画像に基づいて、三次元物体を認識する場合に、二次元画像中の未知物体の三次元位置・姿勢を検出していないため、二次元画像中の未知物体を検出して、検出した未知物体を正確な三次元位置・姿勢で復元することができないという問題がある。
本発明は、上記課題に鑑みてなされたものであり、二次元画像に基づいて、三次元物体の三次元位置・姿勢を精度良く推定することが可能な画像処理装置、画像処理方法、および画像処理用プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけて格納したデータベース手段と、認識対象物体を1視点で撮像した1枚の入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出する物体検出手段と、前記データベースを参照して、前記物体検出手段で検出されたキーフレームに対応する位置関係に基づいて、前記入力画像中の物体の三次元位置・姿勢を推定する物体位置・姿勢推定手段と、を備えたことを特徴とする。
また、本発明の好ましい態様によれば、前記特徴量は、テクスチャ情報であり、前記データベースには、前記各登録画像のテクスチャ情報の特徴点として、距離・向きが近い登録画像に対して、拘束条件を満たす特徴点を選択して格納することが望ましい。
また、本発明の好ましい態様によれば、前記参照用の物体のプリミティブモデルを定義して、前記データベースに格納するプリミティブモデル生成手段と、前記物体位置・姿勢推定手段で推定した物体の三次元位置・姿勢に基づいて、前記データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する把持部推定手段と、を備えたことが望ましい。
また、本発明の好ましい態様によれば、前記プリミティブモデル生成手段は、前記参照用の物体のプリミティブモデルが対応する登録画像の領域を包含するように、当該プリミティブモデルを修正することが望ましい。
また、本発明の好ましい態様によれば、物体を撮像して画像を取得する撮像手段と、前記参照用の物体の位置・姿勢を変更させる物体位置・姿勢変更手段と、を備え、物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、前記撮像手段で、当該参照用の物体を撮像して、前記登録画像を入力することが望ましい。
また、本発明の好ましい態様によれば、前記物体検出手段は、未知物体を複数の視点で撮像した複数の入力画像毎に、前記データベースに格納されている各登録画像との特徴点の合致度を算出して、それぞれ合致度が最も高いキーフレームを検出し、各視点毎に、当該視点の入力画像と他の視点の入力画像との位置関係をそれぞれ取得し、前記キーフレームと前記位置関係に近い登録画像を前記データベースから選択し、各視点毎に、当該視点の入力画像と前記キーフレーム、および他の視点の入力画像と選択した登録画像の組み合わせを作成し、当該他の視点の入力画像と選択した登録画像の特徴点の合致度を算出し、
各視点毎の前記組み合わせにおいて、前記合致度の平均値が高い組み合わせのキーフレームを最終的なキーフレームとして選択することが望ましい。
また、本発明の好ましい態様によれば、物体位置・姿勢推定手段は、前記合致度の平均値が高い組み合わせにおいて、ロバスト推定を利用して、位置・姿勢推定時に登録画像を使用する頻度を変えることが望ましい。
また、本発明の好ましい態様によれば、前記特徴量は、テクスチャ情報および輪郭情報であり、前記物体位置・姿勢推定手段は、前記データベースに格納されている登録画像のテクスチャ情報および輪郭情報の両者を使用して、前記入力画像の物体の三次元位置・姿勢推定を行うことが望ましい。
また、本発明の好ましい態様によれば、前記物体位置・姿勢推定手段は、前記入力画像に対して特徴点の合致度が高い順に、その登録画像の前記位置関係に基づいて前記入力画像の物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影して輪郭線を抽出し、前記輪郭線と前記入力画像のエッジ線とに基づいて、前記物体の三次元位置・姿勢推定が正しか否かを判断することが望ましい。
また、本発明の好ましい態様によれば、前記物体位置・姿勢推定手段は、前記キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超える場合に、前記物体の三次元位置・姿勢推定に使用することが望ましい。
また、本発明の好ましい態様によれば、検出した物体の周囲の三次元の凹凸構造を認識する三次元復元手段を備えたことが望ましい。
また、本発明の好ましい態様によれば、前記三次元復元手段は、位置・姿勢推定手段で推定した三次元位置・姿勢に基づいた物体の三次元形状を入力画像に投影し、入力画像上での物体の領域を算出し、前記入力画像の前記算出した領域内の画像を第1の画像として抽出し、前記登録画像内の前記物体の領域に含まれる画像を、前記入力画像の視点からみた第2の画像に変換し、前記第1の画像と前記第2の画像との差分が閾値以下の領域を前記物体の領域として抽出することが望ましい。
また、本発明の好ましい態様によれば、物体を撮像して画像を取得する複数の撮像手段と、前記複数の撮像手段の位置・姿勢を調整する位置・姿勢変更手段と、前記参照用の物体の位置・姿勢を変更させる物体位置・姿勢変更手段と、前記物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、前記複数の撮像手段で当該参照用の物体を撮像した画像と、前記データベースに格納されている対応する登録画像とを比較して、前記位置・姿勢変更手段のキャリブレーションを行うキャリブレーション手段を備えたことが望ましい。
上記した課題を解決して、本発明の目的を達成するために、本発明は、参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけてデータベースに格納する工程と、認識対象物体を1視点で撮像した1枚の入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出する物体検出工程と、前記データベースを参照して、前記検出されたキーフレームに対応する位置関係に基づいて、前記入力画像中の物体の三次元位置・姿勢を推定する物体位置・姿勢推定工程と、を含むことを特徴とする。
また、本発明の好ましい態様によれば、前記特徴量は、テクスチャ情報であり、前記データベースには、前記各登録画像のテクスチャ情報の特徴点として、距離・向きが近い登録画像に対して、拘束条件を満たす特徴点を選択して格納することが望ましい。
また、本発明の好ましい態様によれば、前記参照用の物体のプリミティブモデルを定義して、前記データベースに格納するプリミティブモデル生成工程と、前記物体位置・姿勢推定手工程で推定した物体の三次元位置・姿勢に基づいて、前記データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する把持部推定工程と、を含むことが望ましい。
また、本発明の好ましい態様によれば、前記プリミティブモデル生成工程では、前記参照用の物体のプリミティブモデルが対応する登録画像の領域を包含するように、当該プリミティブモデルを修正することが望ましい。
また、本発明の好ましい態様によれば、物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、撮像手段で、当該参照用の物体を撮像して、前記登録画像を入力することが望ましい。
また、本発明の好ましい態様によれば、前記物体検出工程では、未知物体を複数の視点で撮像した複数の入力画像毎に、前記データベースに格納されている各登録画像との特徴点の合致度を算出して、それぞれ合致度が最も高いキーフレームを検出し、各視点毎に、当該視点の入力画像と他の視点の入力画像との位置関係をそれぞれ取得し、前記キーフレームと前記位置関係に近い登録画像を前記データベースから選択し、各視点毎に、当該視点の入力画像と前記キーフレーム、および他の視点の入力画像と選択した登録画像の組み合わせを作成し、当該他の視点の入力画像と選択した登録画像の特徴点の合致度を算出し、各視点毎の前記組み合わせにおいて、前記合致度の平均値が高い組み合わせのキーフレームを最終的なキーフレームとして選択することが望ましい。
また、本発明の好ましい態様によれば、物体位置・姿勢推定工程では、前記合致度の平均値が高い組み合わせにおいて、ロバスト推定を利用して、位置・姿勢推定時に登録画像を使用する頻度を変えることが望ましい。
また、本発明の好ましい態様によれば、前記特徴量は、テクスチャ情報および輪郭情報であり、前記物体位置・姿勢推定工程では、前記データベースに格納されている登録画像のテクスチャ情報および輪郭情報の両者を使用して、前記入力画像の物体の三次元位置・姿勢推定を行うことが望ましい。
また、本発明の好ましい態様によれば、前記物体位置・姿勢推定工程では、前記入力画像に対して特徴点の合致度が高い順に、その登録画像の前記位置関係に基づいて前記入力画像の物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影して輪郭線を抽出し、前記輪郭線と前記入力画像のエッジ線とに基づいて、前記物体の三次元位置・姿勢推定が正しか否かを判断することが望ましい。
また、本発明の好ましい態様によれば、前記物体位置・姿勢推定工程は、前記キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超える場合に、前記物体の三次元位置・姿勢推定に使用することが望ましい。
また、本発明の好ましい態様によれば、検出した物体の周囲の三次元の凹凸構造を認識する三次元復元工程を含むことが望ましい。
また、本発明の好ましい態様によれば、前記三次元復元工程では、位置・姿勢推定工程で推定した三次元位置・姿勢に基づいた物体の三次元形状を入力画像に投影し、入力画像上での物体の領域を算出し、前記入力画像の前記算出した領域内の画像を第1の画像として抽出し、前記登録画像内の前記物体の領域に含まれる画像を、前記入力画像の視点からみた第2の画像に変換し、前記第1の画像と前記第2の画像との差分が閾値以下の領域を前記物体の領域として抽出することが望ましい。
また、本発明の好ましい態様によれば、物体位置・姿勢変更手段で参照用の物体の位置・姿勢を変更しながら、複数の撮像手段で当該参照用の物体を撮像した画像と、前記データベースに格納されている対応する登録画像とを比較して、前記位置・姿勢変更手段のキャリブレーションを行うキャリブレーション工程を含むことが望ましい。
また、本発明の好ましい態様によれば、本発明の画像処理方法の各工程をコンピュータに実行させることが望ましい。
本発明によれば、参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけてデータベースに登録し、物体検出手段は、認識対象物体を撮像した入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出し、物体位置・姿勢推定手段は、前記データベースを参照して、前記物体検出手段で検出されたキーフレームに対応する位置関係に基づいて、前記入力画像中の物体の三次元位置・姿勢を推定することとしたので、二次元画像に基づいて、三次元物体の三次元位置・姿勢を精度良く推定することが可能な画像処理装置、画像処理方法、および画像処理用プログラムを提供することが可能になるという効果を奏する。
以下に、この発明に係る画像処理方法、画像処理装置、および画像処理用プログラムについて、図面を参照しつつ詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、下記実施の形態における構成要素には、当業者が容易に想定できるものまたは実質的に同一のものが含まれる。本発明に係る画像処理装置は、各種システムに利用可能であるが、以下では、主として、ロボットの視覚情報の取得や物体認識に適用した場合を例示して説明する。
[画像処理装置]
図1−1は、本発明に係る画像処理装置の基本構成を示す図である。画像処理装置1は、図1−1に示すように、物体を撮像して画像を取得する画像取得部10と、画像取得部10で撮像された画像に基づいて、物体の三次元形状を検出する画像処理部20と、レーザやカメラ等を使用して参照用の物体の三次元形状を取得する三次元形状取得部30と、参照用の物体の登録画像の特徴量およびプリミティブモデル等を格納するデータベース登録部40とを備えている。
画像取得部10は、1または複数のデジタルカメラ(以下「カメラ」と称する)を備えており、物体を撮像して電気信号に変換して画像を取得する。画像取得部10は、データベースに参照用の物体の情報を登録する場合には、N(Nは2以上の整数)視点で、参照用の物体の周囲から全周に亘り、異なる高さ位置から撮像し、撮像したN個の画像をデータベース登録部40に出力する。
画像取得部10は、N(Nは2以上の整数)視点毎にカメラ(ステレオカメラ)を設けて、同一物体を撮像する構成、1つのカメラの位置・姿勢を変更してN視点で同一物体を撮像する構成、および1つのカメラを固定し、物体の位置・姿勢を変更しながらN視点で撮像する構成のいずれでもよい。また、画像取得部10は、物体の位置・姿勢を変更する位置・姿勢変更手段としてロボット・アームを備えることにしてもよく、また、カメラの位置・姿勢を調整する位置・姿勢調整手段としてロボット・アームを備えることにしてもよい。
画像データベース登録部40は、特徴点・特徴量抽出部41と、特徴点の三次元位置推定部42と、プリミティブモデル生成部43とを備えている。データベース登録部40には、画像取得部10から参照用の物体をその周囲から全周に亘り、異なる高さ位置からN視点で撮像されたN個の画像が入力される。
特徴点・特徴量抽出部41は、入力されるN個の画像毎に特徴量・特徴点を抽出して、データベース格納部44に出力する。具体的には、特徴点・特徴量抽出部41は、テクスチャ情報として、特徴量(SIFTなど)および各特徴量を持つ点(特徴点)の物体座標での座標、および輪郭情報として、特徴量(Pedal Curve)や物体の表面を構成する点またはパッチの三次元座標を検出する。
特徴点の三次元位置推定部42は、物体座標とN個の画像の画像座標間の運動パラメータ(回転パラメータR、並進パラメータt)を算出して、データベース格納部44に出力する。
プリミティブモデル生成部43は、三次元形状取得部30から入力される参照用の物体の三次元形状に基づいて、参照用の物体のプリミティブモデルを作成してデータベース格納部44に出力する。プリミティブモデルの作成は、手作業入力または自動実行のいずれでもよい。
データベース格納部44は、データベースを格納する。図1−2はデータベースの概念図、図1−3はデータベースの構成例を示す図である。図1−2に示すように、データベースには、参照用の物体の周囲から全周に亘り、異なる高さ位置から撮像した各登録画像の特徴量(テクスチャ情報、輪郭情報)および運動パラメータ、並びに参照用の物体のプリミティブモデルが格納される。データベース格納部44は、参照用の物体毎に物体番号を付加し、また、各参照用の物体を撮像したN個の画像に登録番号を付加して、登録画像1〜登録画像Nとして管理する。データベース格納部44は、データベースに、参照用の物体1〜M毎に登録画像1〜登録画像Nおよびプリミティブモデルを格納し、また、各登録画像1〜Nに、テクスチャ情報(特徴量(SIFTなど)および各特徴量を持つ点(特徴点)の物体座標での座標)、輪郭情報(特徴量(Pedal Curve)および物体の表面を構成する点またはパッチの三次元座標)、並びに、物体座標と登録画像座標間の運動パラメータ(回転パラメータR、並進パラメータt)を関連づけて格納する。
画像処理部20は、上記データベースを使用して、未知物体を撮像した認識対象画像から物体の検出を行うものであり、特徴点・特徴量抽出部21と、特徴量マッチング部22と、位置・姿勢推定部23と、三次元復元部24と、把持部推定部25とを備えている。
画像処理部20には、画像取得部10で未知物体を撮像した認識対象画像が入力される。特徴点・特徴量抽出部21は、認識対象画像から特徴量(テクスチャ情報および/または輪郭情報)とその特徴点を検出する。特徴量マッチング部22は、認識対象画像の特徴点と、データベースに格納されている各物体1〜Mの登録画像1〜Nの特徴点との合致度をそれぞれ算出した後、合致度の高い順にソーティングし、合致度の高い登録画像をキーフレームとして検出する。これにより、このキーフレームに対応する参照用の物体が認識対象画像中に含まれていることを検出することができる。なお、データベースで検索対象の物体を指定可能な構成としてもよい。これにより、高速にキーフレームを検出することが可能となる。
位置・姿勢推定部23は、特徴点・特徴量抽出部21で検出したキーフレームの運動パラメータ(回転パラメータR、並進パラメータt)に基づいて、検出した物体の三次元位置・姿勢を推定する。把持部推定部25は、検出した物体の三次元位置・姿勢に基づいて、データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する。三次元復元部24は、検出した物体の周囲の三次元の凹凸構造を認識する。
[画像処理装置の全体動作の概略]
図1−4は、画像処理装置1で未知物体を検出する場合の全体動作の概略を説明するためのフローチャートである。図1−4において、まず、画像処理部20では、画像取得部10から認識対象画像(以下「入力画像」と称する)が入力される(ステップS1)。
つぎに、入力画像中の物体の検出処理が行われる(ステップS2)。具体的には、特徴点・特徴量抽出部21は、入力画像から特徴量(テクスチャ情報および/または輪郭情報)・その特徴点を検出する。特徴量マッチング部22は、入力画像の特徴点と、データ画像データベース3の各物体の登録画像1〜Nの特徴点との合致度をそれぞれ算出した後、合致度の高い順にソーティングし、合致度の高い登録画像をキーフレームとして検出する。
位置・姿勢推定部23は、キーフレーム(登録画像)の運動パラメータ(回転パラメータR、並進パラメータt)に基づいて、入力画像中の物体の三次元位置・姿勢を推定する(ステップS3)。把持部推定部25は、検出した物体の三次元位置・姿勢に基づいて、データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する(ステップS4)。なお、把持部がない物体を検出した場合には、把持部の決定は行わない。この物体の把持部の認識は、ロボットで物体を把持する制御を行う場合に有効である。三次元復元部24は、検出した物体の周囲の三次元の凹凸構造を認識する(ステップS5)。
画像処理装置1をロボットシステムに適用した場合は、この後、ハンドの把持姿勢を決定し、アームの経路を計画し、ハンド・アームの把持制御を開始する。
なお、ステップS5とステップS6を実行する順序は、この順に限られるものではなく、ステップS6とステップS5の実行順序を逆にしてもよい。
上記構成の画像処理装置1では、参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけてデータベースに格納しておき、特徴点・特徴量抽出部21および特徴量マッチング部22は、認識対象物体を撮像した入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出し、位置・姿勢推定部23は、データベースを参照して、検出されたキーフレームに対応する位置関係に基づいて、入力画像中の物体の三次元位置・姿勢を推定することとしたので、簡単かつ低コストな構成で入力画像中の物体の三次元位置・姿勢を高精度に推定することが可能となる。
また、データベースでは、登録画像の特徴量として、テクスチャ情報および輪郭情報を登録することとしたので、後述するように、物体の模様の有無にかかわらず、物体の検出が可能となる。また、これらの2つの特徴量を組み合わせることで精度の高い物体の検出が可能となる。
また、データベースの登録画像と、物体の三次元形状の位置関係(運動パラメータ(回転パラメータ、並進パラメータ))を定義しておくことで、物体の検出と三次元位置・姿勢推定とを同時に行うことが可能となる。
また、参照用の物体のプリミティブモデルを定義して、データベースに格納しておき、
把持部推定部25は、位置・姿勢推定部23で推定した物体の三次元位置・姿勢に基づいて、データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定することとしたので、物体の詳細な三次元形状を使わずに、物体のプリミティブモデルを使うことで、物体の把持部の推定を高速に行うことが可能となる。また、物体の詳細な三次元形状を使わずに、プリミティブモデルを使うことで、後処理での周辺の三次元の凹凸構造との組み合わせを簡単に行うことが可能となる。
なお、上記画像処理装置1では、データベース作成用と物体検出用で同じカメラを使用する構成であるが、異なるカメラを使用することにしてもよい。また、検出対象画像の入力は、画像取得部10で撮像して入力する場合に限られるものではなく、外部から送信される検出対象画像を入力することにしてもよい。
上記構成の画像処理装置1の実施例1〜11を詳細に説明する。
[データベース]
(実施例1)
実施例1は、特徴点・特徴量抽出部41が、登録画像の特徴点(テクスチャ情報)を検出する場合に、三次元物体の高精度な三次元位置・姿勢推定のために、有効な特徴点だけを抽出するものである。
図2−1は、特徴量検出部11の特徴点(テクスチャ情報)を検出する場合の処理を説明するためのフローチャートである。図2−2は、登録画像iと登録画像jの距離・向きd*(1−COSθ)を説明するための図である。登録画像間の距離・向きd*(1−COSθ)は、各登録画像を撮像するときのカメラの撮像条件(位置、姿勢、撮影距離等)で定まるため、予めデータベースに各登録画像間の距離・向きd*(1−COSθ)の情報を格納しておくものとする。図2−3は、登録画像iと距離・向きd*(1−COSθ)が近い登録画像を示す概念図である。図2−4は、特徴点の選択を説明するための説明図である。
図2−1において、まず、特徴点・特徴量抽出部21は、i=1を設定し(ステップS101)、データベースから登録画像iを選択する(ステップS102)。次に、特徴点・特徴量抽出部21は、データベースを参照して、登録画像iに距離・向きd*(1−COSθ)が近い順に、登録画像jを選択する(ステップS103)。
特徴点・特徴量抽出部21は、登録画像i上の各特徴点に対応する特徴点を登録画像j上で探索する(ステップS104)。この後、特徴点・特徴量抽出部21は、登録画像i上で、各対応点のうち、エピポーラ拘束条件を満たす点だけを選択する(ステップS105)。図2−4に示す例では、登録画像i内の特徴点A、Bに対応する登録画像j内の特徴点A’、B’のうち、A’は、拘束条件式上にあるので特徴点Aを選択し、B’は、拘束条件式上にないので特徴点Bは選択しない。
特徴点・特徴量抽出部21は、選択された特徴点の累積数が閾値を超えたか否かを判断し(ステップS106)、閾値を超えていない場合には(ステップS106の「No」)、ステップS103に戻り、登録画像iに距離・向きd*(1−COSθ)が次に近い登録画像jを選択して同様な処理を行う。他方、閾値を超えた場合には(ステップS106の「Yes」)、i=N(画像総枚数)であるか否かを判断し(ステップS107)、i=Nではない場合には(ステップS107の「No」)、i=i+1として(ステップS108)、ステップS102に戻り、次の登録画像iについて特徴点を抽出する処理を行い、i=Nの場合には(ステップS107の「Yes」)、当該処理を終了する。この特徴点・特徴量抽出部21で抽出された各登録画像の特徴点はデータベースに格納される。
実施例1によれば、データベースには、各登録画像のテクスチャ情報の特徴点として、距離・向きが近い登録画像に対して、エピポーラ拘束条件を満たす特徴点を選択して格納することとしたので、再現性の高い特徴点(=物体をみる視点が多少変わっても抽出される特徴点)だけをデータベースに登録でき、データベースの登録画像と見え方の異なる物体を検出する際に、特徴点の対応の検出精度を向上させることが可能となる。また、特徴点の数を低減できるので、特徴点の対応の探索速度を速くすることが可能となる。
(実施例2)
実施例2は、プリミティブモデル生成部43が、物体の座標と、データベースに登録される各登録画像との位置関係の誤差を吸収できるように、プリミティブモデルを修正するものである。
例えば、ロボットハンドで物体の把持部を把持する場合に、物体を小さく認識してしまうと物体の把持部を把持できない場合がある。実際にロボットハンドで物体を把持する際には、少し大きめの物体を把持するような制御(ハンドの接触センサー等の情報を利用)することが多いので、物体を少し大きめに認識できるように、プリミティブモデルを修正する。
図3は、プリミティブモデル生成部43が、プリミティブモデルを修正する処理を説明するための説明図である。参照用の物体の座標と、データベースの登録画像の位置関係に誤差があると、プリミティブモデルによる投影像と物体の領域(輪郭)との間にずれが生じる。
図3では、プリミティブモデルの修正前と修正後を示している。図3に示す例では、3つの登録画像を選択した場合を示している。同図において、データベースの登録画像の複数または全てを選択し、選択した登録画像に対応する回転パラメータに従った三次元位置・姿勢のプリミティブモデルの投映像Pを形成する。そして、プリミティブモデルの投映像Prに、登録画像の領域(輪郭)Oを投影する。修正前の例では、登録画像の領域(輪郭)Oが、プリミティブモデルの投映像Pをはみ出している。そこで、修正後の例に示すように、プリミティブモデルの投影像Pが登録画像の領域(輪郭)Oを包含するように、プリミティブモデルを修正する。
なお、演算量が増えるが、三次元位置・姿勢推定した後、その際に選ばれたデータベースの登録画像(キーフレーム)分だけに同様の処理を行い、プリミティブモデルを調整してもよい。また、プリミティブモデルの大きさの調整だけでなく、傾きの調整を同時に行うことにしてもよい。
実施例2によれば、プリミティブモデル生成部43は、参照用の物体のプリミティブモデルが対応する登録画像の領域を包含するように、プリミティブモデルを修正することとしたので、ロボットハンドで物体の把持部を把持する場合に、物体を小さく認識して把持部を把持できないという状態を防止することが可能となる。実際にロボットハンドで把持する際には、少し大きめの物体を把持するような制御(ハンドの接触センサー等の情報を利用)することが多いので、三次元位置・姿勢推定精度に多少誤差を含んでいても把持が可能になる。
(実施例3)
実施例3は、ロボットのハンド・アームで、参照用の物体を把持して、参照用の物体の位置・姿勢を変更し、様々な角度から画像を取得して三次元形状と特徴点(輪郭)を取得して、データベースを自動で取得するものである。
実施例3では、画像取得部10は、ハンド・アーム(物体位置・姿勢変更手段)を備えており、ハンド・アームは、参照用の物体を把持してその位置姿勢を変更可能な構成となっているものとする。
図4−1は、ロボットのハンド・アームで物体の位置姿勢を変更しながら画像を取得する場合を説明するためのフローチャートである。図4−2は、ロボットのハンド・アームで参照用の物体の位置姿勢を変更しながら画像を取得する場合を説明するための説明図である。同図において、Arはハンド・アームを示しており、Hiはハンド・アームArの輪郭、Obは参照用の物体を示しており、Oiは物体Obの輪郭を示している。
図4−1において、まず、視点iで画像iを取得する(ステップS121)。制御信号とハンド・アームの3Dデータから、ハンド・アームを画像iに投影する(ステップS122)。この後、ハンド・アームの輪郭Hiを抽出する(ステップS123)。Graph Cut法などにより物体Aの輪郭Oi抽出する(ステップS124)。物体の輪郭のうち、ハンド・アームの輪郭と接している輪郭を除去し、Oi’を得る(ステップS125)。これらの処理(ステップS121〜S125)を視点1〜Nについて実行する。
Oi’(i=1,...,N、N:視点数)を使って、Shape from silhouette法で三次元形状を復元する(ステップS126)。この後、画像i(i=1,...,N)から特徴点を抽出する。そして、ステレオ視等により三次元座標を計算する(ステップS127)。
実施例3によれば、ハンド・アームで参照用の物体の位置・姿勢を変更しながら、カメラで、参照用の物体を撮像して、データベースを作成することとしたので、ロボットが未知の物体のデータベースを自動で構築でき、自ら学習していくことが可能となる。また、三次元形状が欠落している部分をロボットが自分で認識することができ、物体を持ち直して視点を変更して観察するなど、より高精度なデータベースの構築が可能となる。
[物体検出]
(実施例4)
実施例4は、1枚の入力画像から未知物体を検出するものである。
図5は、1枚の入力画像から未知物体を検出する処理を説明するためもフローチャートである。実施例1では、特徴点・特徴量抽出部21には、画像取得部10から1枚の入力画像が入力される。
図5において、特徴点・特徴量抽出部21は、画像取得部10から認識対象の入力画像が入力されると、この入力画像の特徴点を抽出する(ステップS131)。特徴量マッチング部22は、l=1を設定し(ステップS132)、データベース44から物体lを選択する(ステップS133)。また、特徴量マッチング部22は、i=1を設定し(ステップS134)、データベース44の物体lの登録画像iを選択する(ステップS135)。特徴量マッチング部22は、入力画像と登録画像iの特徴点の合致度Eiを算出する(ステップS136)。この後、i=N(登録画像総数)であるか否かを判断し(ステップS137)、i=Nではない場合には(ステップS137の「No」)、i=i+1として(ステップS140)、ステップS133に戻り、次の登録画像との特徴点の合致度Eiを算出し、物体lの登録画像の全てが終了するまで処理を実行する。
i=Nの場合には(ステップS137の「Yes」)、l=M(登録物体総数)であるか否かを判断し(ステップS138)、l=Mではない場合には(ステップS138の「No」)、l=l+1として(ステップS141)、ステップS133に戻り、データベースの次の物体lについての登録画像との特徴点の合致度Eiを算出し、全ての物体lが終了するまで同様の処理を行う。
i=M(登録物体総数)の場合には(ステップS138の「Yes」)、合致度Eiが高い順に登録画像をソーティングして、合致度Eiが最も高い登録画像をキーフレームとする(ステップS139)。これにより、入力画像中の物体を検出することができる。
なお、入力画像中に複数の物体が含まれている場合には、各物体毎にキーフレームの検出を行う。この場合、入力画像中で物体領域を検出した後に、各物体領域毎に物体検出を行う。
実施例4によれば、1枚の入力画像から未知物体を検出することとしたので、高速かつ簡易に未知物体を検出することが可能となる。
(実施例5)
実施例5は、同一未知物体を異なる角度で撮像した複数枚の入力画像を使用して、キーフレームの検出精度を向上させるものである。実施例5では、画像取得部10は、異なる位置に配置された複数のカメラを備えており、各カメラで未知物体を撮像した入力画像を特徴点・特徴量抽出部21に出力する。
図6−1は、同一未知物体を異なる角度で撮像した複数枚の入力画像に基づいて物体を検出する処理を説明するためのフローチャートである。図6−2は、入力画像と対応する登録画像の関係を説明するための図である。図6−3は、同一未知物体を異なる角度で撮像した複数枚の入力画像に基づいて物体を検出する処理を説明するための説明図である。
図6−1において、特徴点・特徴量抽出部21には、画像取得部10のカメラ1〜Nで未知物体を撮像した入力画像が入力される。特徴点・特徴量抽出部21は、カメラiで撮像した入力画像の特徴点を抽出し、特徴量マッチング部22は、入力画像とデータベースの全登録画像1〜Nとの特徴点の合致度を算出し、そのうち最も合致度が高い登録画像iをカメラiのキーフレームとして選択し、そのときの合致度をEiiとする(ステップS151)。
カメラiの入力画像iと他のカメラjの入力画像jとの位置関係R、tを取得し、カメラiのキーフレーム(登録画像)との位置関係R、tに近い登録画像ijをデータベースから選択し、他のカメラjの入力画像jと登録画像ijの特徴点の合致度Eijをそれぞれ算出する(ステップS152)。例えば、カメラが5つの場合は、他の4つのカメラの入力画像jについての合致度Eijがそれぞれ算出される。入力画像間の位置関係R、tは、各カメラの位置・姿勢で定まり、各カメラの位置・姿勢は固定条件であるので、予めカメラiの入力画像iと他のカメラjの入力画像jとの位置関係R、tを保持しておくことができる。
カメラiのキーフレーム(登録画像)との位置関係が、カメラiの入力画像iと他のカメラjの入力画像jとの位置関係R、tに近い登録画像ijは、他のカメラjの入力画像jとの特徴点の合致度が最も高くなると推測できる。図6−3は、カメラが5個の場合に、入力画像iと最も対応する(合致度が高い)登録画像i(キーフレーム)と、他の4つの入力画像jにそれぞれ最も対応する登録画像ijを概念的に示している。
このようにして、カメラiについて、入力画像−登録画像の組み合わせ(N個の合致度Eの組み合わせ)ができる。カメラiについてのN個の合致度Eの平均値Ei=ΣjEijを算出する(ステップS153)。この処理を、全てのカメラ1〜Nについて実行する(ステップS155、S151,152,S153)。
そして、各カメラについてのN個の合致度の平均値Eiが最大となる組み合わせのキーフレームを最終的なキーフレームとして選択とする(ステップS154)。図6−2は、各カメラ1〜Nについての入力画像−登録画像の組み合わせとその合致度の平均値Eiを示す図である。同図において、例えば、カメラ1の入力画像−登録画像の組み合わせの合致度の平均値E1が最大となる場合には、カメラ1の入力画像1に対するキーフレームが最終的なキーフレームとして選択される。
なお、実施例5では、複数個のカメラを備える構成としたが、1つのカメラを移動させて複数の視点で撮像することにしてもよい。
以上説明したように、実施例5によれば、未知物体を複数のカメラで撮像した複数の入力画像毎に、データベースに格納されている各登録画像との特徴点の合致度を算出して、それぞれ合致度が最も高いキーフレームを検出し、各カメラに、当該カメラの入力画像と他のカメラの入力画像との位置関係をそれぞれ取得し、キーフレームと位置関係に近い登録画像をデータベースから選択し、各カメラ毎に、当該カメラの入力画像とキーフレーム(登録画像)、および他のカメラの入力画像と選択した登録画像の組み合わせを作成し、当該他のカメラの入力画像と選択した登録画像の特徴点の合致度を算出し、各カメラ毎の組み合わせにおいて、合致度の平均値が高い組み合わせのキーフレーム(登録画像)を最終的なキーフレーム(登録画像)として選択することとしたので、物体の向きに近いデータベースの登録画像を複数のカメラの位置関係を利用して高精度に選択することができ、仮に、一部の入力画像のキーフレームを誤って選択しても、他の入力画像のキーフレームから正しいキーフレームを選択し直すことが可能となる。これにより、入力画像を撮影したカメラ間の位置関係と整合のとれたキーフレームがそれぞれ選択でき、三次元位置・姿勢推定精度を向上させることが可能となる。
[物体の三次元位置・姿勢推定]
(実施例6)
実施例6は、実施例5で決定した最適な入力画像−登録画像の組み合わせにおいて、RANSAC(ランダムサンプルコンセンサス)法を使用してロバスト推定し、三次元位置・姿勢推定時に登録画像を使用する頻度を変えることにより、三次元位置・姿勢推定精度を向上させるものである。
図7−1は、実施例6を説明するためのフローチャートである。図7−2は、実施例6を説明するための説明図である。図7−2は、実施例5において、未知物体を撮像するカメラ数N=3とした場合の最適な入力画像−登録画像の組み合わせの一例と、この各入力画像−登録画像のEli(各入力画像−登録画像の特徴点の合致度)、Ri、Mi、Siの一例を示す図である。
図7−1において、まず、位置・姿勢推定部23は、i=E1i/RΣiE1iを算出した後(ステップS161)、Mi=M_o*Ri(ただし、M_oは定数、例えば、「100」)を算出する(ステップS162)。次に、位置・姿勢推定部23は、Si=(Σi=1...i Mi+1)から、(Σi=1...i Mi+1)までの整数の組み合わせを算出する(ステップS163)。
この後、位置・姿勢推定部23は、1〜M_oの整数から1つの整数をランダムに選択し、その整数が含まれるSk(k=1...N)を選択し、入力画像kと対応する登録画像から三次元位置・姿勢推定を行い、インライア検出を行う(ステップS164)。図7−3に示す例では、i=3の組み合わせのSiが最も大きいので、i=3の入力画像−登録画像の組み合わせが選択される可能性が最も高くなる。
得られた三次元位置・姿勢推定結果を、他の入力画像−登録画像にも適用し、インライア検出を行う(ステップS165)。そして、RANSAC処理が終了したか否かを判断し(ステップS166)、RANSAC処理が終了してない場合には(ステップS166の「Yes」)、ステップS164に戻り、RANSAC処理が終了するまで同一の処理を繰り返す。
実施例6によれば、入力画像と、各カメラで選択された登録画像との一致度を考慮して、RANSAC法を使用して、三次元位置・姿勢推定時に、登録画像を使用する頻度を変えることとしたので、最も対応している入力画像と登録画像の組み合わせを多く使用して、三次元位置・姿勢推定ができ、インライアを検出し易くRANSACの収束を速くすることが可能となる(処理速度が速くなる)。また、視点によって、物体の一部が隠れている場合もあるが、その場合に対応する入力画像と登録画像の組み合わせは選ばれる確率が低くなるので、推定精度を向上させることが可能となる。
(実施例7)
実施例7は、テクスチャ情報と輪郭情報の両特徴量を使用して、三次元位置・姿勢推定の精度を向上させるものである。
図8−1は、実施例7を説明するためのフローチャート、図8−2〜図8−4は、実施例7を説明するための図である。
図8−1において、特徴量マッチング部22は、入力画像のテクスチャ情報を使用して物体検出し、合致度Wtを計算する(ステップS171)。具体的には、特徴点・特徴量抽出部21は、入力画像のテクスチャ情報の特徴点を抽出し、特徴量マッチングモ部22は、入力画像とデータベースの全登録画像1〜Nとのテクスチャ情報の特徴点の合致度を算出し、そのうち最も合致度が高い登録画像をキーフレームとして選択し、そのときの合致度をWtとする。
また、特徴量マッチング部22は、入力画像の輪郭情報を使用して物体検出し、合致度Wbを計算する(ステップS172)。具体的には、特徴点・特徴量抽出部21は、入力画像の輪郭情報の特徴点を抽出し、特徴量マッチング部22は、入力画像とデータベースの全登録画像1〜Nとの輪郭情報の特徴点の合致度を算出し、そのうち最も合致度が高い登録画像をキーフレームとして選択し、そのときの合致度をWtとする。
ここで、WbとWtの値は、データベース作成時に予め決定しておいてもよい。例えば、模様が全くない物体は、Wt=0、Wb=1、模様が非常に多き物体はWt=1,Wb=0などとすることができる。
位置・姿勢推定部23は、Wt>Wbであるか否かを判断する(ステップS173)。位置・姿勢推定部23は、Wt>Wbである場合は(ステップS173の「Yes」)、テクスチャ情報を使用して、物体の三次元位置・姿勢推定(=回転パラメータR0、並進パラメータt0を推定)する(ステップS174)。他方、位置・姿勢推定部23は、Wt>Wbでない場合には(ステップS173の「No」)、輪郭情報を使用して、物体の三次元位置・姿勢推定(=回転パラメータR0、並進パラメータt0を推定)する(ステップS175)。
位置・姿勢推定部23は、物体の特徴点(テクスチャ情報)を、回転パラメータR0、並進パラメータt0を使って入力画像に投影し、特徴点の座標Ci(1...N,N:投影された特徴点数)を計算する(ステップS176)。投影点の座標Ciと、対応する入力画像中の特徴点までの距離Diを計算する(ステップS177)。図8−2は、テクスチャ情報で算出した回転パラメータRo、並進パラメータt0を使って、入力画像に投影した点と、入力画像の対応点とのずれの一例を示す図である。
位置・姿勢推定部23は、物体の三次元形状(輪郭)を、回転パラメータR0、並進パラメータt0を使って入力画像に投影し、投影像の輪郭B0を算出する(ステップS178)。輪郭B0上に計算点Bjを設定(j=1...M,M=N×Wb/Wt)する(ステップS179)。ここで、Wb/Wtの値は、データベース作成時に予め決定しておいてもよい。位置・姿勢推定部23は、計算点Bjと、点Bjでの輪郭B0の法線方向に最も近い、入力画像のエッジ点までの距離Djを計算する(ステップS180)。図8−3は、物体の三次元形状(輪郭)を、回転パラメータR0、並進パラメータt0を使って入力画像に投影した例を示す図、図8−4は、図8−3を反転表示した図である。
そして、位置・姿勢推定部23は、回転パラメータR0、並進パラメータt0を初期値として、ΣiDi+ΣjDjが最小となるような回転パラメータR、並進パラメータtを計算する(ステップS181)。
実施例7によれば、データベースに格納されている登録画像のテクスチャ情報および輪郭情報の両者を使用して、入力画像の物体の三次元位置・姿勢推定を行うこととしたので、物体の模様の有無にかかわらず、物体の三次元位置・姿勢推定が可能となり、また、これらの2つの特徴量を組み合わせることで精度の高い物体の検出が可能となる。
また、テクスチャの多い物体は、物体内部の模様のエッジと、輪郭のエッジを区別することが難しく、三次元位置・姿勢推定に輪郭情報を利用することは一般に困難である。これに対して、実施例7によれば、最初にテクスチャ情報を使用して、概略の三次元位置・姿勢を推定できると、投映像の周辺のエッジを輪郭のエッジとして抽出でき、この後、輪郭情報も三次元位置・姿勢推定に使用できる。この結果、テクスチャの多い物体の三次元位置・姿勢精度を向上させることができる。さらに、テクスチャの少ない物体は、輪郭情報だけでなく、例えば、ワンポイントの模様の情報も三次元位置・姿勢推定に使えることになるので、三次元位置・姿勢の推定精度を向上させることができる。
(実施例8)
実施例8は、テクスチャ情報の特徴点を使用して、物体の三次元位置・姿勢推定が原理的に困難な表裏対称物体を、輪郭情報も併用することで、物体の三次元位置・姿勢推定を高精度に行うものである。
図9−1は、実施例8を説明するためのフローチャートである。図9−2は、実施例8を説明するための図である。
図9−1において、位置・姿勢推定部23は、テクスチャ情報の特徴点を使用して、入力画像との合致度Eiが高い順に登録画像を選択する(ステップS191)。そして、位置・姿勢推定部23は、選択した登録画像の回転パラメータR、並進パラメータtを使用して、物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影し、輪郭を抽出する(ステップS192)。
位置・姿勢推定部23は、輪郭上の点Pi(i=1...N、Nは輪郭線上に設定した点の数)から、Piにおける輪郭線の法線方向で、最も近い入力画像のエッジ点Qiを選択する(ステップS193)。そして、Piでの輪郭線の法線方向と、Qiでのエッジ線の接線方向のなす角θiを計算した後(ステップS194)、E=Σi{θi}を計算する(ステップS195)。位置・姿勢推定部23は、E<閾値であるか否かを判断し(ステップS196)、E<閾値である場合には(ステップS196の「Yes」)、ステップS192で算出した三次元位置・姿勢推定が正しいと判断して当該処理を終了し、E<閾値でない場合には(ステップS196の「No」)、ステップS191に戻り、次の登録画像について処理を行う。
実施例8によれば、位置・姿勢推定部23は、入力画像に対して特徴点の合致度が高い順に、その登録画像の位置関係に基づいて入力画像の物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影して輪郭線を抽出し、輪郭線と入力画像のエッジ線とに基づいて、物体の三次元位置・姿勢推定が正しか否かを判断することとしたので、表裏対称物体において、180°反転した登録画像をキーフレームとして選択することなく、正しいキーフレームを選択することが可能となる。
(実施例9)
実施例9は、各登録画像上の特徴点の三次元的なバラツキが平面的に近いか否かを指標として、より精度良く物体の三次元位置・姿勢を推定するためのカメラの移動方向を決定するものである。
図10−1は、実施例9を説明するためのフローチャート、図10−2は、特徴点の三次元座標のバラツキを説明するための図である。図10−3は、登録画像の選択方法を説明するための図である。
図10−2において、Sは特徴点の三次元分布にフィッテイングした平面、dnは特徴点とフィッテイングした平面Sとの距離を示している。特徴点の三次元座標のバラツキが平面上に近い場合は、物体の検出はできるが三次元位置・姿勢推定の精度が悪くなる。例えば、立方体形状の物体を正面から撮像した場合が該当する。そこで、実施例9では、特徴点の三次元的なバラツキの平面度合いが閾値を超える登録画像を三次元位置・姿勢推定に使用する。特徴点のバラツキの平面度合いEiは、Ei=(1/N)Σ(dn)で表すことができる。ここで、Nはある登録画像上の特徴点数である。特徴点のバラツキの平面度合いEiは、登録画像毎に予め算出しておいてデータベースに格納しておく。
図10−1において、位置・姿勢推定部23は、キーフレームとして、登録画像iを選択する(ステップS201)。登録画像iの特徴点のバラツキの平面度合いEiを画像データベースから読み出し、Eiが閾値以下であるか否かを判定する(ステップS202)。位置・姿勢推定部23は、Eiが閾値以下でない場合には(ステップS202の「No」)、登録画像iの特徴点のバラツキの平面度合いEiが閾値を越えており、高精度な三次元位置・姿勢推定を行うことができるので、当該処理を終了する。
位置・姿勢推定部23は、Eiが閾値以下である場合には(ステップS202の「Yes」)、dijが小さく、かつEjが大きい登録画像jを選択する(ステップS203)。ここで、dij=d*(1−cosθ)は、登録画像iと登録画像jとの距離・向きである。図10−3は、dijが小さく、かつEjが大きい登録画像jを選択する場合を説明するための図である。登録画像において、dijの小さい方からの序列と、Ejの大きい方からの序列との和が小さいものを登録画像jとして選択する。
位置・姿勢推定部23は、登録画像iと登録画像jの運動パラメータR(回転)、t(並進)をデータベースからそれぞれ取得する(ステップS204)。そして、位置・姿勢推定部23は、画像取得部10に、両登録画像i、jの運動パラメータR(回転)、t(並進)の差だけカメラを回転・並進させて撮像させる(ステップS205)。これにより、登録画像jに対応する入力画像を取得することができる。そして、i=jに設定した後(ステップS206)、ステップS201に戻り、同じ処理をEiが閾値より大きくなるまで繰り返し行う。
実施例9によれば、位置・姿勢推定部23は、キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超える場合に、当該キーフレームを物体の三次元位置・姿勢推定に使用することとしたので、物体の三次元位置・姿勢推定を高精度に行えない登録画像(入力画像)を使用することを防止でき、物体の三次元位置・姿勢推定を高精度に行うことが可能となる。また、キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超えるまで、カメラを移動させるので、必ず、精度の高いカメラの撮像位置まで移動させることが可能となる。
[物体の周辺の三次元の凹凸構造の認識]
(実施例10)
実施例10は、データベースを使用して推定した物体の三次元位置・姿勢に基づいて、画像内での見え方を推定し、実際の画像との差分から物体が他の物体に隠されている領域を検出するものである。
図11−1は、実施例10を説明するためのフローチャート、図11−2は、実施例10を説明するための図である。実施例10を図11−1のフローチャートに従って、図11−2を参照しつつ説明する。
図11−1において、三次元復元部24は、位置・姿勢推定部23で推定した三次元位置・姿勢に基づいた物体の三次元形状Oを入力画像に投影し、入力画像上での物体の領域を算出する(ステップS212)。
三次元復元部24は、入力画像の領域内の画像1を抽出し(ステップS213)、登録画像内の物体の領域に含まれる画像を、入力画像の視点からみた画像2に変換する(ステップS214)。そして、三次元復元部24は、画像1(第1の画像)と画像2(第2の画像)の差分をとり、差分が閾値以下の領域を物体の領域として抽出する(ステップS215)。
実施例10によれば、三次元復元部24は、位置・姿勢推定部23で推定した三次元位置・姿勢に基づいた物体の三次元形状を入力画像に投影し、入力画像上での物体の領域を算出し、入力画像の算出した領域内の画像を第1の画像として抽出し、登録画像内の物体の領域に含まれる画像を、入力画像の視点からみた第2の画像に変換し、第1の画像と第2の画像との差分が閾値以下の領域を物体の領域として抽出することとしたので、入力画像内での見え方を推定し、実際の画像との差分から物体が他の物体に隠されている領域を検出することができ、物体の領域だけを抽出することが可能となり、物体以外の領域の三次元復元精度を向上させることができる。
例えば、図11−2に示す例では、マグカップの取手の前方にある障害物(ジュースパック)を取り除くことなく、三次元復元できるので、ハンド・アームで把持する際に、ハンドの軌跡を、物体を避けて経路を計算することが可能となる。
[キャリブレーション]
(実施例11)
実施例11は、データベースに登録されている物体を1または複数使用して、画像取得部10のステレオカメラの各カメラの位置関係のキャリブレーションや、カメラ台、ロボット・アーム、ハンド等のモータのキャリブレーションをロボットが自動で行うものである。画像取得部10は、キャリブレーション手段を備えており、以下に示すフローチャートの処理を実行する。
図12−1は、実施例11を説明するためのフローチャートである。図12−2は、実施例11を説明するための説明図である。同図では、Arはロボット・アーム、Obは参照用の物体を示している。
図12−1において、画像取得部10のロボット・アームでデータベースに登録されている物体を把持する(ステップS221)。ロボット・アームで物体を動かしながら画像を取得する(ステップS222)。画像を取得した時のモータの角度(カメラ台・アーム・ハンド・導体など)を読み取る(ステップS223)。
各カメラで撮像した入力画像から、物体上の特徴点Piを抽出し、Piの画像上での2次元座標(ui、vi)を読み取り、ステレオ視で三次元座標(Xi、Yi、Zi)を計算する(ステップS224)。
そして、特徴点Piと対応する登録画像中の特徴点Pi’を探索し、Pi’の三次元座標(Xi’、Yi’、Zi’)を計算する(ステップS225)。(ui、vi)と、(Xi、Yi、Zi)に基づき、各カメラ間の位置関係をキャリブレーションし、(Xi、Yi、Zi)と、(Xi’、Yi’、Zi’)に基づき、モータの角度をキャリブレーションする(ステップS226)。
実施例11によれば、データベースに登録されている物体を1または複数使用して、画像取得部10の各カメラの位置関係のキャリブレーションや、カメラ台、ロボット・アーム、ハンド等のモータのキャリブレーションをロボットが自動で行うこととしたので、高精度なキャリブレーションを行うことが可能となる。
特に、誤対応しにくい特徴点を多く有している場合や、特徴点の配置が三次元的に広くばらついているデータベースの登録画像を使用すると、高精度なキャリブレーションを行うことができる。さらに、このような条件を満たす登録画像の番号を知識として与えておき、そのデータベース画像に近い見え方をするように、実際に物体の向きを制御すると、高精度なキャリブレーションを行うことができる。
また、ステレオカメラやアーム・ハンドのキャリブレーションをロボットが定期的に自動で行うことができ、キャリブレーションの手間を省くことができる。また、データベースとして、移動ロボットの移動空間を考えると、移動台車のキャリブレーションも同様の手法で行うことができる。
(プログラム)
なお、本発明の目的は、上述した画像処理装置の機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システム(ロボットシステム等)または装置(例えば、ホストコンピュータ等)に供給し、そのシステムまたは装置のコンピュータ(または、CPU、MPU、DSP)が記録媒体に格納されたプログラムコードを実行することによっても達成することが可能である。この場合、記録媒体から読み出されたプログラムコード自体が前述した画像処理装置の機能を実現することになり、そのプログラムコードまたはそのプログラムを記憶した記録媒体は本発明を構成することになる。プログラムコードを供給するための記録媒体としては、FD、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD、磁気テープ、不揮発性のメモリ、ROMなどの光記録媒体、磁気記録媒体、光磁気記録媒体、半導体記録媒体を使用することができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した画像処理装置の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した画像処理装置の機能が実現される場合も含まれること言うまでもない。
また、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した画像処理装置の機能が実現される場合も含まれることは言うまでもない。
以上のように、本発明に係る画像処理方法、画像処理装置、および画像処理用プログラムは、ロボットの視覚情報の取得や物体認識、車両の自動運転装置、パノラマ画像の作成、および三次元形状の計測等に広く利用可能である。
本発明に係る画像処理装置の構成例を示す図である。 データベースの概念図である。 データベースの構成例を示す図である。 画像処理装置で未知物体を検出する場合の全体動作の概略を説明するためのフローチャートである。 実施例1を説明するためのフローチャートである。 実施例1を説明するための説明図である。 実施例1を説明するための説明図である。 実施例1を説明するための説明図である。 実施例2を説明するための説明図である。 実施例2を説明するための説明図である。 実施例3を説明するためのフローチャートである。 実施例3を説明するための説明図である。 実施例4を説明するためのフローチャートである。 実施例5を説明するためのフローチャートである。 実施例5を説明するための説明図である。 実施例5を説明するための説明図である。 実施例6を説明するためのフローチャートである。 実施例6を説明するための説明図である。 実施例6を説明するための説明図である。 実施例7を説明するためのフローチャートである。 実施例7を説明するための説明図である。 実施例7を説明するための説明図である。 実施例7を説明するための説明図である。 実施例8を説明するためのフローチャートである。 実施例8を説明するための説明図である。 実施例9を説明するためのフローチャートである。 実施例9を説明するための説明図である。 実施例9を説明するための説明図である。 実施例10を説明するためのフローチャートである。 実施例10を説明するための説明図である。 実施例11を説明するためのフローチャートである。 実施例11を説明するための説明図である。
符号の説明
1 画像処理装置
10 画像取得部
20 画像処理部
21 特徴点・特徴量抽出部
22 特徴量マッチング部
23 位置・姿勢推定部
24 三次元復元部
25 把持部推定部
30 三次元形状取得部
40 データベース登録部
41 特徴点・特徴量抽出部
42 特徴点の三次元位置推定部
43 プリミティブモデル生成部
44 データベース格納部

Claims (25)

  1. 参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけて格納したデータベースと、
    認識対象物体を撮像した入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出する物体検出手段と、
    前記データベースを参照して、前記物体検出手段で検出されたキーフレームに対応する前記位置関係に基づいて、前記入力画像中の物体の三次元位置・姿勢を推定する物体位置・姿勢推定手段と、
    を備え、
    前記物体検出手段は、未知物体を複数の視点で撮像した複数の入力画像毎に、前記データベースに格納されている各登録画像との特徴点の合致度を算出して、それぞれ合致度が最も高いキーフレームを検出し、各視点毎に、当該視点の入力画像と他の視点の入力画像との位置関係をそれぞれ取得し、前記キーフレームと前記位置関係に近い登録画像を前記データベースから選択し、各視点毎に、当該視点の入力画像と前記キーフレーム、および他の視点の入力画像と選択した登録画像の組み合わせを作成し、当該他の視点の入力画像と選択した登録画像の特徴点の合致度を算出し、各視点毎の前記組み合わせにおいて、前記合致度の平均値が高い組み合わせのキーフレームを最終的なキーフレームとして選択することを特徴とする画像処理装置。
  2. 前記特徴量は、テクスチャ情報であり、
    前記データベースから登録画像を選択し、選択された登録画像上の各特徴点に対応する特徴点を、前記選択された登録画像と距離・向きが近い登録画像から抽出し、前記選択された登録画像の特徴点と前記距離・向きが近い登録画像の特徴点との位置を比較し、所定の位置条件にある前記距離・向きが近い登録画像の特徴点を、前記データベースに前記各登録画像のテクスチャ情報の特徴点として格納することを特徴とする請求項1に記載の画像処理装置。
  3. 前記参照用の物体のプリミティブモデルを定義して、前記データベースに格納するプリミティブモデル生成手段と、
    前記物体位置・姿勢推定手段で推定した物体の三次元位置・姿勢に基づいて、前記データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する把持部推定手段と、
    を備えたことを特徴とする請求項1に記載の画像処理装置。
  4. 前記プリミティブモデル生成手段は、前記参照用の物体のプリミティブモデルが対応する登録画像の領域を包含するように、当該プリミティブモデルを修正することを特徴とする請求項3に記載の画像処理装置。
  5. 物体を撮像して画像を取得する撮像手段と、
    前記参照用の物体の位置・姿勢を変更させる物体位置・姿勢変更手段と、
    を備え、
    物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、前記撮像手段で、当該参照用の物体を撮像して、当該参照用の物体の三次元形状が欠落している部分の特徴点を抽出して、前記データベースに格納することを特徴とする請求項1に記載の画像処理装置。
  6. 物体位置・姿勢推定手段は、前記合致度の平均値が高い組み合わせにおいて、ロバスト推定を利用して、位置・姿勢推定時に登録画像を使用する頻度を変えることを特徴とする請求項1に記載の画像処理装置。
  7. 前記特徴量は、テクスチャ情報および輪郭情報であり、
    前記物体位置・姿勢推定手段は、前記データベースに格納されている登録画像のテクスチャ情報および輪郭情報の両者を使用して、前記入力画像の物体の位置・姿勢推定を行うことを特徴とする請求項1に記載の画像処理装置。
  8. 前記物体位置・姿勢推定手段は、
    前記入力画像に対して特徴点の合致度が高い順に、その登録画像の前記位置関係に基づいて前記入力画像の物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影して輪郭線を抽出し、
    前記輪郭線と前記入力画像のエッジ線とに基づいて、前記物体の三次元位置・姿勢推定が正しか否かを判断することを特徴とする請求項1に記載の画像処理装置。
  9. 前記物体位置・姿勢推定手段は、前記キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超える場合に、前記物体の三次元位置・姿勢推定に使用することを特徴とする請求項1に記載の画像処理装置。
  10. 検出した物体の周囲の三次元の凹凸構造を認識する三次元復元手段を備えたことを特徴とする請求項1に記載の画像処理装置。
  11. 前記三次元復元手段は、
    位置・姿勢推定手段で推定した三次元位置・姿勢に基づいた物体の三次元形状を入力画像に投影し、入力画像上での物体の領域を算出し、
    前記入力画像の前記算出した領域内の画像を第1の画像として抽出し、
    前記登録画像内の前記物体の領域に含まれる画像を、前記入力画像の視点からみた第2の画像に変換し、
    前記第1の画像と前記第2の画像との差分が閾値以下の領域を前記物体の領域として抽出することを特徴とする請求項10に記載の画像処理装置。
  12. 物体を撮像して画像を取得する複数の撮像手段と、
    前記複数の撮像手段の位置・姿勢を調整する位置・姿勢変更手段と、
    前記参照用の物体の位置・姿勢を変更させる物体位置・姿勢変更手段と、
    前記物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、前記複数の撮像手段で当該参照用の物体を撮像した画像と、前記データベースに格納されている対応する登録画像とを比較して、前記位置・姿勢変更手段のキャリブレーションを行うキャリブレーション手段と、
    を備えたことを特徴とする請求項1に記載の画像処理装置。
  13. 参照用の物体を異なる複数の視点で各々撮像した登録画像の特徴量と、各登録画像の物体座標上での位置関係とを関連づけてデータベースに格納する工程と、
    認識対象物体を撮像した入力画像の特徴量と、前記データベースに格納されている各登録画像の特徴量との相関を各々算出し、相関の高い登録画像をキーフレームとして検出する物体検出工程と、
    前記データベースを参照して、前記検出されたキーフレームに対応する位置関係に基づいて、前記入力画像中の物体の三次元位置・姿勢を推定する物体位置・姿勢推定工程と、
    を含み、
    前記物体検出工程では、
    未知物体を複数の視点で撮像した複数の入力画像毎に、前記データベースに格納されている各登録画像との特徴点の合致度を算出して、それぞれ合致度が最も高いキーフレームを検出し、
    各視点毎に、当該視点の入力画像と他の視点の入力画像との位置関係をそれぞれ取得し、前記キーフレームと前記位置関係に近い登録画像を前記データベースから選択し、
    各視点毎に、当該視点の入力画像と前記キーフレーム、および他の視点の入力画像と選択した登録画像の組み合わせを作成し、当該他の視点の入力画像と選択した登録画像の特徴点の合致度を算出し、
    各視点毎の前記組み合わせにおいて、前記合致度の平均値が高い組み合わせのキーフレームを最終的なキーフレームとして選択することを特徴とする画像処理方法。
  14. 前記特徴量は、テクスチャ情報であり、
    前記データベースから登録画像を選択し、選択された登録画像上の各特徴点に対応する特徴点を、前記選択された登録画像と距離・向きが近い登録画像から抽出し、前記選択された登録画像の特徴点と前記距離・向きが近い登録画像の特徴点との位置を比較し、所定の位置条件にある前記距離・向きが近い登録画像の特徴点を、前記データベースに前記各登録画像のテクスチャ情報の特徴点として格納することを特徴とする請求項13に記載の画像処理方法。
  15. 前記参照用の物体のプリミティブモデルを定義して、前記データベースに格納するプリミティブモデル生成工程と、
    前記物体位置・姿勢推定手工程で推定した物体の三次元位置・姿勢に基づいて、前記データベースに格納されている対応する参照用の物体のプリミティブモデルを復元して物体の把持部を推定する把持部推定工程と、
    を含むことを特徴とする請求項13に記載の画像処理方法。
  16. 前記プリミティブモデル生成工程では、前記参照用の物体のプリミティブモデルが対応する登録画像の領域を包含するように、当該プリミティブモデルを修正することを特徴とする請求項15に記載の画像処理方法。
  17. 物体位置・姿勢変更手段で前記参照用の物体の位置・姿勢を変更しながら、撮像手段で、当該参照用の物体を撮像して、当該参照用の物体の三次元形状が欠落している部分の特徴点を抽出して、前記データベースに格納することを特徴とする請求項13に記載の画像処理方法。
  18. 物体位置・姿勢推定工程では、前記合致度の平均値が高い組み合わせにおいて、ロバスト推定を利用して、位置・姿勢推定時に登録画像を使用する頻度を変えることを特徴とする請求項17に記載の画像処理方法。
  19. 前記特徴量は、テクスチャ情報および輪郭情報であり、
    前記物体位置・姿勢推定工程では、前記データベースに格納されている登録画像のテクスチャ情報および輪郭情報の両者を使用して、前記入力画像の物体の三次元位置・姿勢推定を行うことを特徴とする請求項13に記載の画像処理方法。
  20. 前記物体位置・姿勢推定工程では、
    前記入力画像に対して特徴点の合致度が高い順に、その登録画像の前記位置関係に基づいて前記入力画像の物体の三次元位置・姿勢推定を行い、物体の三次元形状を入力画像に投影して輪郭線を抽出し、
    前記輪郭線と前記入力画像のエッジ線とに基づいて、前記物体の三次元位置・姿勢推定が正しか否かを判断することを特徴とする請求項13に記載の画像処理方法。
  21. 前記物体位置・姿勢推定工程は、前記キーフレームの特徴点の三次元的なバラツキの平面度合いが閾値を超える場合に、前記物体の三次元位置・姿勢推定に使用することを特徴とする請求項13に記載の画像処理方法。
  22. 検出した物体の周囲の三次元の凹凸構造を認識する三次元復元工程を含むことを特徴とする請求項13に記載の画像処理方法。
  23. 前記三次元復元工程では、
    位置・姿勢推定工程で推定した三次元位置・姿勢に基づいた物体の三次元形状を入力画像に投影し、入力画像上での物体の領域を算出し、
    前記入力画像の前記算出した領域内の画像を第1の画像として抽出し、
    前記登録画像内の前記物体の領域に含まれる画像を、前記入力画像の視点からみた第2の画像に変換し、
    前記第1の画像と前記第2の画像との差分が閾値以下の領域を前記物体の領域として抽出することを特徴とする請求項22に記載の画像処理方法。
  24. 物体位置・姿勢変更手段で参照用の物体の位置・姿勢を変更しながら、複数の撮像手段で当該参照用の物体を撮像した画像と、前記データベースに格納されている対応する登録画像とを比較して、前記位置・姿勢変更手段のキャリブレーションを行うキャリブレーション工程を含むことを特徴とする請求項13に記載の画像処理方法。
  25. 請求項13〜請求項24にいずれか1つに記載の画像処理方法の各工程をコンピュータに実行させることを特徴とする画像処理用プログラム。
JP2006038642A 2006-02-15 2006-02-15 画像処理装置、その方法、および画像処理用プログラム Expired - Fee Related JP4715539B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006038642A JP4715539B2 (ja) 2006-02-15 2006-02-15 画像処理装置、その方法、および画像処理用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006038642A JP4715539B2 (ja) 2006-02-15 2006-02-15 画像処理装置、その方法、および画像処理用プログラム

Publications (2)

Publication Number Publication Date
JP2007219765A JP2007219765A (ja) 2007-08-30
JP4715539B2 true JP4715539B2 (ja) 2011-07-06

Family

ID=38497012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006038642A Expired - Fee Related JP4715539B2 (ja) 2006-02-15 2006-02-15 画像処理装置、その方法、および画像処理用プログラム

Country Status (1)

Country Link
JP (1) JP4715539B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4983539B2 (ja) * 2007-10-19 2012-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5221939B2 (ja) * 2007-11-21 2013-06-26 三菱重工業株式会社 位置特定装置および動作指示装置並びに自走式ロボット
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP4677536B1 (ja) * 2009-11-20 2011-04-27 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP5227993B2 (ja) * 2010-03-31 2013-07-03 株式会社東芝 視差画像生成装置、及びその方法
KR101791590B1 (ko) * 2010-11-05 2017-10-30 삼성전자주식회사 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
JP5800494B2 (ja) 2010-11-19 2015-10-28 キヤノン株式会社 特定領域選択装置、特定領域選択方法及びプログラム
JP5087684B2 (ja) * 2011-02-07 2012-12-05 株式会社東芝 画像処理装置、画像処理方法および画像表示装置
JP5791475B2 (ja) * 2011-11-24 2015-10-07 キヤノン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
US9251582B2 (en) * 2012-12-31 2016-02-02 General Electric Company Methods and systems for enhanced automated visual inspection of a physical asset
US9501725B2 (en) * 2013-06-11 2016-11-22 Qualcomm Incorporated Interactive and automatic 3-D object scanning method for the purpose of database creation
JP6086491B2 (ja) * 2013-08-06 2017-03-01 Kddi株式会社 画像処理装置およびそのデータベース構築装置
JP6179267B2 (ja) * 2013-08-13 2017-08-16 セイコーエプソン株式会社 画像処理装置、ロボット制御システム、画像処理方法及びプログラム
JP2016004466A (ja) * 2014-06-18 2016-01-12 パイオニア株式会社 情報生成装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP6304815B2 (ja) * 2014-08-08 2018-04-04 Kddi株式会社 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置
KR102313801B1 (ko) * 2014-09-30 2021-10-19 (주)바텍이우홀딩스 의료 영상 시스템의 자세 교정 가이드 장치 및 그 방법
JP6164319B2 (ja) * 2016-03-02 2017-07-19 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP6769554B2 (ja) 2017-07-07 2020-10-14 日本電気株式会社 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体
US11462004B2 (en) 2017-07-07 2022-10-04 Nec Corporation Object identification device, object identification method, calculation device, system, and recording medium
JP2019192145A (ja) * 2018-04-27 2019-10-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN109002797B (zh) * 2018-07-16 2023-07-25 腾讯科技(深圳)有限公司 车辆变道检测方法、装置、存储介质和计算机设备
US10229346B1 (en) * 2018-09-04 2019-03-12 StradVision, Inc. Learning method, learning device for detecting object using edge image and testing method, testing device using the same
JP2019109918A (ja) * 2019-02-19 2019-07-04 パイオニア株式会社 情報生成装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP2020194600A (ja) * 2020-09-02 2020-12-03 パイオニア株式会社 情報生成装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
CN112712000A (zh) * 2020-12-24 2021-04-27 珠海新天地科技有限公司 一种信息处理装置及其控制方法
CN116437164A (zh) * 2023-06-13 2023-07-14 中国南方电网有限责任公司超高压输电公司广州局 热像仪、热像仪监控方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288974A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 画像処理機能を持つロボット装置
JP2004046772A (ja) * 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555822B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP3118047B2 (ja) * 1991-12-18 2000-12-18 株式会社小野測器 三次元座標計測方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288974A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 画像処理機能を持つロボット装置
JP2004046772A (ja) * 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置

Also Published As

Publication number Publication date
JP2007219765A (ja) 2007-08-30

Similar Documents

Publication Publication Date Title
JP4715539B2 (ja) 画像処理装置、その方法、および画像処理用プログラム
JP5726378B2 (ja) 物体の姿勢を推定するための方法
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
Choi et al. Voting-based pose estimation for robotic assembly using a 3D sensor
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
JP4709668B2 (ja) 3次元物体認識システム
JP6044293B2 (ja) 3次元物体認識装置および3次元物体認識方法
KR20120048370A (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
JP6836561B2 (ja) 画像処理装置及び画像処理方法
CN109493384B (zh) 相机位姿估计方法、系统、设备及存储介质
CN110274598B (zh) 一种机器人单目视觉鲁棒定位估计方法
CN113781561B (zh) 基于自适应高斯权快速点特征直方图的目标位姿估计方法
JP5297727B2 (ja) ロボット装置及び物体の位置姿勢推定方法
Zhi et al. Simultaneous hand-eye calibration and reconstruction
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
CN113393524B (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
Azad et al. Accurate shape-based 6-dof pose estimation of single-colored objects
JP4876742B2 (ja) 画像処理装置及び画像処理プログラム
JP2011022066A (ja) 3次元物体位置姿勢計測方法
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP2007140729A (ja) 物品の位置及び姿勢を検出する方法および装置
JP2018526753A (ja) 物体認識装置、物体認識方法及び記憶媒体
Li et al. OCNN: Point cloud-based convolutional neural network for object orientation estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110314

R151 Written notification of patent or utility model registration

Ref document number: 4715539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees