JP5588196B2 - 認識装置及びその制御方法、コンピュータプログラム - Google Patents

認識装置及びその制御方法、コンピュータプログラム Download PDF

Info

Publication number
JP5588196B2
JP5588196B2 JP2010041003A JP2010041003A JP5588196B2 JP 5588196 B2 JP5588196 B2 JP 5588196B2 JP 2010041003 A JP2010041003 A JP 2010041003A JP 2010041003 A JP2010041003 A JP 2010041003A JP 5588196 B2 JP5588196 B2 JP 5588196B2
Authority
JP
Japan
Prior art keywords
illumination
feature
recognition
imaging
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010041003A
Other languages
English (en)
Other versions
JP2011175600A5 (ja
JP2011175600A (ja
Inventor
貴之 猿田
優和 真継
雅人 青葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010041003A priority Critical patent/JP5588196B2/ja
Priority to US13/030,956 priority patent/US9087265B2/en
Publication of JP2011175600A publication Critical patent/JP2011175600A/ja
Publication of JP2011175600A5 publication Critical patent/JP2011175600A5/ja
Application granted granted Critical
Publication of JP5588196B2 publication Critical patent/JP5588196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Description

本発明は認識装置及びその制御方法、コンピュータプログラムに関し、特に、学習時と認識時に照明変動があり得る環境において、撮像手段によって獲得される画像から対象物を認識する技術に関する。
近年、工場などで行われる組立等の作業をロボットに行わせる需要が高まっている。その中でも、位置および姿勢が常に一定でない作業対象物体をロボットで扱う場合、作業対象物体の位置および姿勢を計測する仕組みが必要であり、視覚センサはその手段として一般的によく用いられるものである。
より高度な組立等の作業をロボットに行わせるためには、組み立てる部品などを視覚センサにより認識する必要がある。古くから部品のCADデータなどの形状情報と視覚センサなどにより得られる2次元もしくは3次元情報とを照合して、部品の種別および位置・姿勢を認識する研究がなされてきた。また、認識手法のひとつとして、撮像装置によって得られる対象物体の画像から抽出される特徴量をコンピュータに学習させて、入力された画像の中に映る被写体物体の種別を認識する研究も活発になされてきた。
しかし、画像を用いた物体認識技術では、被写体物体における鏡面反射や光沢の観察や、照明方向や強度の変化、或いは、照明、撮像装置、及び被写体物体の位置関係の変化などにより学習時と認識時において照明変動が起きた場合、認識率は低下する。
そこで、学習時と認識時において照明変動が起きる場合に対応するための認識の研究がなされてきた。照明変動に対してロバストとするための手法としては、学習や認識に用いる画像特徴としてエッジなどの照明変動が小さな特徴を用いるものが知られている。或いは、レンジファインダなどで3次元構造を取得して認識時に変動をシミュレーションするもの、或いは、さまざまな照明変動を学習データに含めるものなども知られている。
特許文献1にも、学習時と認識時において照明条件が異なる場合においても画像を認識するための構成が記載されている。特許文献1の構成では、まず認識対象物を撮像して、認識が成功した撮像画像を登録画像として記憶しておく。実際の認識時には、撮像画像の認識が失敗した場合、撮像画像内の認識対象物を表す領域において認識対象物の特徴点を一点検出する。その検出された特徴点の画素値とその特徴点と同じ位置にある登録画像の特徴点の画素値との関係を表す写像関数を算出し、写像関数を用いて撮像画像の各画素値を補正して照明変動を補正する。
特開2008−65378公報
画像からある特徴量を抽出して、その特徴量を特徴量ベクトルによって構成される特徴空間にマッピングして、識別関数を学習する認識技術では、学習時と認識時とにおいて照明変動が起きる場合、対象物の高精度な識別が困難であるという課題がある。
特許文献1の構成では認識に失敗した場合に、特徴点を一点検出して、その特徴点の画素値と学習時に得られた特徴点の画素値との関係から、補正を行う。補正に利用する写像関数を計算するためには特徴点対応を得る必要があり、特許文献1には、人間の顔の目や眉毛、肌色領域を抽出したり、もしくはマーカーを利用したりして特徴点対応を得ることが記載されている。このような手法は、対象物の特定部位や特徴点を検出できる場合や、マーカーなどにより対応点が一意に決定される場合に有効であると言える。しかし、補正を行うためには対応点を探索しなければならず、照明変動により対応関係が不定となる場合や誤対応をおこす場合に補正を精度よく行うことができない。
本発明は上記の課題を解決するためになされたもので、照明変動が存在する環境においても対象物認識をより安定的に行うための技術を提供することを目的とする。
上記目的を達成するため、本発明による第一の認識装置は以下の構成を備える。即ち、対象物の位置姿勢を認識する認識装置であって、
規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定手段と、
前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識手段と
を備える。
本発明によれば、照明変動が存在する環境においても対象物認識をより安定的に行うことができる。
対象物認識システムの機能構成を示す図。 対象物認識処理のフローを示したフローチャート。 対象物認識システムの構成例を示す図。 照明条件等を示す情報の三次元空間内での分布を示す模式図。 対象物認識システムの機能構成を示す図。 対象物認識処理のフローを示したフローチャート。 対象物中心から見た撮像部及び照明の方向ベクトルを示す模式図。 対象物認識システムの機能構成を示す図。 対象物認識処理のフローを示したフローチャート。 対象物認識装置のハードウェア構成を示す図。
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。
<<第1の実施形態>>
(対象物認識システムの機能構成)
図1に、第1の実施形態における対象物認識システムの基本的な機能構成例を示す。
A100は画像データを取得するための撮像部であり、対象物を撮像して撮像画像を対象物認識装置A400に供給する。A200は物理的情報取得部であり、対象物の表面の、例えば、法線ベクトル、物体反射率、反射特性(拡散反射率、鏡面反射率)等の物理的性質を示す物理的情報(性質情報)を取得する。A300は照明情報保持部であり、照明及びカメラ(撮像部)の位置・方向や、照明の強度などの照明条件を示す情報を、照明情報として保持する。
A400は認識のためのさまざまな計算を行う対象物認識装置であり、特徴抽出部A410、特徴重要度決定部A420、認識処理部A430、特徴情報保持部A401を備える。特徴抽出部A410は、輝度勾配や特徴点(例えば後述のKeypoints)などの特徴(特徴部分)や、当該特徴における画像の特性を示す特徴量を、撮像画像を解析して抽出する。また、特徴抽出部A410は、所定の照明条件で撮像装置により撮像された対象物の撮像画像を入力する第1入力手段としても機能する。
特徴重要度決定部A420は、対象物の表面の物理的情報と照明情報とに基づいて、抽出した特徴量の各々の重要度を決定する。なお、特徴重要度決定部A420は、対象物上の複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段、並びに、撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段としても機能する。
認識処理部A430は、特徴抽出部A410が抽出した特徴と、特徴重要度決定部A420が決定した当該特徴の重要度とに基づいて、対象物の種類、位置・姿勢などを認識する。認識の際は、特徴量をその重要度で重み付けしたものに基づいて処理を行う。特徴情報保持部A401は、特徴重要度決定部A420において重要度が決定された特徴情報を保持する。
(対象物認識装置のハードウェア構成)
図10は、対象物認識装置A400のハードウェア構成例を模式的に示すブロック図である。対象物認識装置A400は、例えば、パーソナルコンピュータ(PC)やワークステーション(WS)、モバイル端末、スマートフォン等で実現される。
図10において、CPU990は中央演算処理装置であり、オペレーティングシステム(OS)やアプリケーションプログラム等のコンピュータプログラムに基づいて他の構成要素と協働し、対象物認識装置A400全体の動作を制御する。ROM991は読み出し専用メモリであり、基本I/Oプログラム等のプログラム、基本処理に使用するデータ等を記憶する。RAM992は書き込み可能メモリであり、CPU990のワークエリア等として機能する。
外部記憶ドライブ993は記録媒体へのアクセスを実現し、メディア(記録媒体)994に記憶されたプログラム等を本システムにロードすることができる。メディア994には、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、フラッシュメモリ等が含まれる。外部記憶装置995は大容量メモリとして機能する装置であり、本実施形態ではハードディスク装置(以下、HDと呼ぶ)を用いている。HD995には、OS、アプリケーションプログラム等が格納される。
指示入力装置996はユーザからの指示やコマンドの入力を受け付ける装置であり、キーボードやポインティングデバイス、タッチパネル等がこれに相当する。ディスプレイ997は、指示入力装置996から入力されたコマンドや、それに対する対象物認識装置A400の応答出力等を表示したりする表示装置である。インターフェイス(I/F)998は外部装置とのデータのやり取りを中継する装置である。システムバス999は、対象物認識装置A400内のデータの流れを司るデータバスである。
(対象物認識処理の概要)
次に、本実施形態に係る対象物認識システムにおける対象物認識処理の概要を図2に基づいて説明する。
まず、撮像工程(S110)では、撮像部A100が撮影を行う。撮像により獲得された画像データは特徴抽出部A410に送信される。
特徴抽出工程(S120)では、S110によって撮影された画像中の特徴およびその特徴を記述する特徴量を取得する。取得された特徴および特徴量は物理的情報取得部A200および特徴重要度決定部A420に送信される。なお、特徴(特徴部分)は、点、又は、一定範囲を占める領域である。
物理的情報取得工程(S130)では、S120において抽出された特徴近傍表面の物理的情報を取得する。取得された物理的情報は特徴重要度決定部A420に送信される。物理的情報はあらかじめ取得されていて、記憶しておいてもよい。その場合、物理的情報取得部A200は記憶装置として利用される。
特徴重要度決定工程(S140)では、S120において抽出された特徴に対して、
・S130において取得された物理的情報。
・照明情報保持部A300に保持されている特徴位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、各特徴の重要度を決定する。重要度を決定された特徴および重要度は特徴情報保持部A401に送信され、保持される。
認識処理工程(S150)では、S140において重要度を決定された特徴および特徴量を用いて所定の認識処理を行い、対象物認識を行う。
(対象物認識システムの具体例)
図3(a)に、第1の実施形態における対象物認識システムの具体的な構成例を示す。
10は撮像部A100として動作するカメラであり、対象物40を撮像対象として捉えている。20は物理的情報取得部A200として動作する距離センサであり、対象物40表面の物理的情報の1つである法線ベクトルを取得する。その他の対象物表面の物理的情報としては、例えば、物体反射率や反射特性(拡散反射率、鏡面反射率)などがある。30は照明であり、対象物40に向けて光を照射している。照明30の位置や照射方向、強度などの照明情報はあらかじめ得られており、照明情報保持部A300に保持されている。
50は対象物認識装置A400として動作する計算機(コンピュータ)であり、特徴抽出部A410、特徴重要度決定部A420、認識処理部A430を、プログラムを実行することにより実現する。また、計算機50は、距離センサ20を操作して物理的情報を取得することができる物理的情報取得部A200(に相当するインターフェース)が装備されている。計算機50は、特徴情報保持部A401として利用できるメモリを搭載し、照明情報保持部A401として利用できる不揮発性の記憶装置を外部もしくは内部に持っている。これらの記憶装置は、RAM992,HD995等により実現することができる。計算機50はカメラ10、距離センサ20、及び照明30に接続されているが、照明30は計算機50から切り離されていてもよい。
(対象物認識処理の詳細)
次に、本実施形態に係る対象物認識システムが実行する具体的な処理内容を図2の処理フローに沿って説明する。
○撮像(S110)
S110では、カメラ10によって対象物40を撮影し、画像データを獲得する。撮影時の対象物をとらえるカメラ10の位置・方向、及び、照明30の位置・方向などの情報はあらかじめ得られており、照明情報保持部A300に保持されている。
○特徴抽出(S120)
次に、S120では、S110で獲得された画像から特徴点とその特徴点まわり(特徴点の周囲)の情報を記述する特徴量とを抽出する。特徴量は、例えば、SURF(非特許文献1)のような抽出された特徴点まわりの輝度勾配などの情報を記述するものを使用することができる。その他には、特徴点は、例えば、いわゆるKeypoints(非特許文献2、3)などの特徴点を用いることができる。ここではxi、yiを画像座標として、各特徴点をfi=(xi,yi)(i=1,2,・・・,N)と表す。また、特徴量を表す特徴量ベクトルをFi(i=1,2,・・・,N)とする。Nは画像から得られる特徴点の総数、iは各特徴点を表すインデックスである。
[非特許文献1]H.Bay, "Speeded-Up RobustFeatures (SURF)", Computing Vision and Image Understanding, Vol.110 (3)June 2008, pp.346-359.
[非特許文献2]E.Tola, "A Fast LocalDescriptor for Dense Matching", CVPR 2008.
[非特許文献3]K.Mikolajczyk, "A PerformanceEvaluation of Local Descriptors", PAMI, 27(10) 2004, pp.1615-1630.
○物理的情報取得(S130)
次に、S130ではS120において抽出された各特徴点fi近傍表面の物理的情報を得る。物理的情報としては、物体反射率や法線ベクトルなど、物体もしくは特徴点近傍固有のパラメータ又はベクトルを用いることができる。本実施形態においては、物理的情報として法線ベクトルを距離センサ20によって取得する。ここでは特徴点fiに対する法線ベクトルをni(i=1,2,・・・,N)で表す。法線ベクトルは特徴点に対応する3次元座標から近傍画素に対応する3次元座標へのベクトル群を主成分分析することで求められる。以上の作業を各特徴点に対して行う。法線ベクトルが計測不可能である場合は、計測不可能であることを記録しておく。計測不可能な場合について、本実施形態ではni=(0,0,0)としておく。
○特徴重要度決定(S140)
次に、S140では、S120において抽出された各特徴点fiに対して、
・S130において取得された法線ベクトルni
・特徴点位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、各特徴点の重要度を決定する。特徴点位置から見た照明方向および撮像部方向は、例えば、照明情報保持部A300に保持されている照明および撮像装置の三次元位置と、距離センサなどを用いて得られる特徴点の三次元位置とから求めることができる。
図3(b)は、特徴点41に関する、法線ベクトル42、照明方向31、及び撮像部方向(特徴点から見たカメラ10の方向)11を示す図である。ここでは簡単のため図3(c)のようにカメラ10の光軸の方向と照明32の光軸の方向が同軸である、即ち、カメラ10の光軸と照明32の光軸とが一致している場合を説明する。各特徴点fiの位置から見た照明方向および撮像部方向をli(i=1,2,・・・,N)とする。
各特徴点fiの重要度はあらかじめ学習時に得られている特徴点(量)群(学習サンプル)との関係によって決定される。学習サンプルはあらかじめさまざまな照明方向、撮像部方向から対象物を捉えて取得しておく。その際も各特徴点近傍の法線ベクトル、照明位置、撮像装置の位置は得られているものとする。
ここでは、特徴点の位置から見た照明方向(撮像部方向)および特徴点近傍の法線ベクトルによって重要度を評価・決定する。決定手法としては、例えば、照明方向、法線ベクトル間の角度により評価する手法や、照明方向、法線ベクトルを量子化してヒストグラムを作成して評価する手法等がある。重要度は、例えば、0か1を割り当てたり、0から1の間の実数を割り当てたりすることができる。
〔ベクトル間角度による重要度評価〕
まず、照明方向、法線ベクトル間の角度により評価する手法を説明する。この手法では、特徴点fiにおける2つの方向ベクトル間の角度と同じ角度の学習サンプルがある場合に、当該特徴点fiの重要度を高くする。例えば、特徴点fiの重要度ωiを、数式1のように法線ベクトルniと特徴点から見た照明方向ベクトルliと間の角度θiの関数で表す。ここで、角度θi(i=1,2,・・・,N)は以下のように表される。
数式1によって、N個の全特徴点に対して角度θiを計算する。各θiに関して、あらかじめ学習時に記録されている、照明方向と法線ベクトルとの角度θのリストを参照して、θi近傍の学習サンプルが存在すれば重要度を1、存在しなければ0とする。後述するように、学習サンプルにおいて得られていない光学的条件で取得した特徴点(すなわち、重要度が0の特徴点)は後段の認識処理で使用されない。なお、θi近傍の学習サンプルの重要度の値は1から0の間で決定してもよい。この場合、θiに対応するθのリストをθ’とすれば、θiとθ’の差によって重要度ωiが決定される(数式2)。
数式2において、αはθのリストに含まれるサンプル数であり、εは予め定められた定数である。θiに対応する学習サンプル数が大きければ、特徴点fiと同じ位置条件(特徴点と照明、撮像装置の位置関係)で特徴が得られた可能性が高いため、重要度を大きくする。なお、本実施形態では、ベクトル間の角度のみに着目したが、照明強度等に着目してもよい。本実施形態では輝度勾配を利用している局所特徴量を画像特徴として利用しているため、特徴点から見た照明方向と法線ベクトル間の角度に着目する。法線ベクトルが取得できていない特徴点、つまり、ni=(0,0,0)である特徴点に関しては重要度を1もしくは0とするが、どちらにするかは学習時に決定しておく。
〔ヒストグラムによる重要度評価〕
次に、照明方向、法線ベクトルを量子化してヒストグラムを作成して評価する手法を説明する。図4(a)のように特徴点から見た照明方向ベクトル501を三次元空間座標系502に設けた球面503上にプロットして、球面の分割面を1セルとするヒストグラム504を作成する。例えば図4(b)のように分割した場合、1セルを示す球面の分割面は505のようになる。分割手法は測地ドームのように多面体近似法で分割してもよいし、認識率が高くなるように分割手法を学習して決定してもよい。各セルkに対応する重要度αkを、例えば、数式3のように各セルkに含まれる学習サンプル数と全学習サンプル数から計算する。
[数3]
αk=(セルkの学習サンプル数)/(全学習サンプル数)
数式3によって計算された重要度をS120において抽出された各特徴点fiに対して、特徴点から見た照明方向ベクトルliによって決定する。同様に、特徴点近傍の法線ベクトルniに対しても同様の処理を行って重要度βkを決定する。最終的に各特徴点fiの重要度γiは特徴点から見た照明方向ベクトルliと特徴点近傍の法線ベクトルniとのそれぞれから決定された重要度α、βの積となる。即ち、γ=α×βである。学習時に光学的に同様の条件で多くサンプル数を得ている特徴点は、ヒストグラムの度数が大きくなり重要度が大きくなる。
後段の認識処理においては、重要度γiが予め定められたしきい値以上の特徴点のみ利用したり、或いは、各特徴点の重要度γiを認識処理の際に重みづけとして利用したりすることができる。法線ベクトルが取得できていない特徴点に関しては先と同様に重要度をあらかじめ決定しておく。
なお、重要度の評価は上述したものに限られない。例えば、図4(c)のように各特徴点fiについて、
・特徴点から見た照明方向ベクトルliの学習サンプル。
・特徴点近傍の法線ベクトルniの学習サンプル。
から2次元ヒストグラムを作成し、各セルの重要度を決定してもよい。2次元ヒストグラムの各セルは照明方向ベクトルli及び特徴点近傍の法線ベクトルniそれぞれによって描かれる球面の分割面における位置を示している。各特徴点fiの重要度γiは、照明方向ベクトルli及び法線ベクトルniに基づき割り当てられたセルの各々について決定される。
上記のように、本実施形態では、特徴量の重要度を、取得した物理的情報及び照明情報を、予め取得されている物理的性質及び照明条件のサンプルとを比較して決定する。このため、照明条件が変化する環境であっても、対象物認識を精度よく行うための特徴量を適切に選択することができる。
○認識処理(S150)
最後に、S150では、S140において重要度を決定した特徴点群を用いて、所定の認識処理を行うことで対象物認識を行う。本実施形態ではBag−of−keypoints(Bag−of−words)(非特許文献4)のように、各特徴点fiから得られた特徴量Fiを量子化して、画像ごとにヒストグラムを作成する。そして、そのヒストグラムを画像の特徴量Fとする。
[非特許文献4] J. Zhang, "Local Features andKernels for Classification of Texture and Object Categories: A ComprehensiveStudy", International Journal of Computer Vision, 2006.
ここで、特徴量Fiのヒストグラムを作成する際は、S140において決定した重要度で重み付けを行って、重要度を反映させる。具体的には、例えば、各特徴点をヒストグラムに加算する際に重要度を積算してから加算する。
なお、予め、学習サンプル画像群に対して同様にヒストグラムを作成しておき、対象物が撮影されている画像とそれ以外の画像を識別する超平面をサポートベクターマシーン(SVM)により事前学習しておく。そして、その重要度で重み付けられた特徴量と、事前に学習しておいたものとを比較して、対象物の種類や位置姿勢等を認識する。
なお、SVMに使用するヒストグラム特徴量としては、画像特徴のみではなく、S130において取得された法線ベクトルや照明情報保持部A300に保持されている光学的情報も合わせてベクトル量子化してもよい。あるいはimplicit−shape−model(非特許文献5)のように各局所特徴から対象物中心への確率投票を行う手法で認識処理を行ってもよい。その際の確率投票のときに重要度を積算して投票を行う。多クラス問題の際は、全クラスに対してそれぞれ投票を行ったあと最も投票されたクラスおよび位置を認識結果とすればよい。
[非特許文献5] B. Leibe and B. Schiele,"Scale-Invariant Object Categorization using a Scale-Adaptive Mean-ShiftSearch", DAGM'04 Pattern Recognition Symposium.
また、第1の実施形態においては、対象物認識手法、装置として記載したがS150を持たない特徴重要度決定手法としても利用することができる。
上記のように、本実施形態では、撮像画像から特徴(特徴部分)および特徴量を抽出して、その特徴近傍表面の物理的性質と、特徴位置から見た照明方向および撮像手段方向の少なくともいずれか1つとに基づいて特徴の重要度を決定する。そして、重要度で重み付けをした特徴量を用いて所定の認識処理を行う。このため、照明変動に伴う特徴量変化が小さい特徴のみに着目して、対象物の認識を安定的に行うことが可能となる。
<<第2の実施形態>>
(機能構成)
図5に、第2の実施形態における対象物認識システムの基本的な機能構成を示す。A100、A200、A300、A400、A410、A430、A401は第1の実施形態と同様である。本実施形態に係る対象物認識システムは、特徴重要度決定部A420を有さないが、特徴取得条件変更部A440、特徴取得部A450を備えている。特徴取得条件変更部A440は、対象物の表面の物理的情報と照明情報とに基づいて、特徴取得条件を変更する。特徴取得部A450は、変更した特徴取得条件(撮像条件)で、対象物の特徴を再度取得する。なお、特徴取得条件には、撮像時の、照明の位置及び方向と、撮像装置の位置及び方向との少なくともいずれか1つが含まれる。
第1の実施形態においては、学習サンプルからの物理的情報によって識別時に得られた各特徴点の重要度を決定した。本実施形態では、学習サンプルから得られた物理的情報から識別時に取得する特徴の物理的条件を変更することで、照明条件が変動した場合においても対象物体の認識を精度よく行う。
(対象物認識処理の概要)
次に処理フローについて説明する。本実施形態の処理フローは図6で示される。まず、撮像工程(S210)から物理情報取得工程(S230)は、第1の実施形態におけるS110〜S130と同様である。
特徴取得条件変更工程(S240)では、特徴抽出工程(S220)において抽出された特徴に対して、
・S230において取得された物理的情報。
・照明情報保持部A300に保持されている特徴位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている情報との比較により特徴を取得する条件(特徴取得条件)を変更する。特徴取得条件としては、例えば、撮像装置、対象物に照射する照明装置の位置・向き、対象物の位置・向きなどが挙げられる。
特徴取得工程(S250)では、S240において特徴取得条件を変更した上で、再度、特徴および特徴量を取得する。取得された特徴は認識処理部A430に送信される。
認識処理工程(S260)では、S250において取得した特徴および特徴量を用いて所定の認識処理を行い、対象物認識を行う。
(対象物認識システムの具体例)
次に、第2の実施形態における対象物認識システムの具体的な構成例は第1の実施形態で参照した図3(a)とほぼ同様である。ただし、対象物認識装置A400に相当する計算機50は、プログラムとして特徴抽出部A410、認識処理部A430の他に、特徴取得条件変更部A440、特徴取得部A450を有している。また、特徴取得条件変更部A440として、本実施形態では、カメラ10と照明30の少なくとも一方の位置、向きなどを変更可能なインターフェースが装備されている。計算機50は、カメラ10、距離センサ20、場合によっては照明30に接続されている。
(対象物認識処理の詳細)
次に、本実施形態に係る対象物認識システムが実行する具体的な処理内容を図2の処理フローに沿って説明する。
撮像工程(S210)、特徴抽出工程(S220)および物理的情報取得工程(S230)は第1の実施形態におけるS110、S120およびS130と同様である。
○特徴取得条件変更(S240)
次に、特徴取得条件変更工程(S240)では、物理的情報が示す対象物の特徴部分における物理的性質と、照明情報が示す照明条件とに基づいて、撮像装置が対象物を撮像する時の撮像条件を変更する。具体的には、S220において抽出された各特徴点fiに対して、
・S230において取得された法線ベクトルni
・照明情報保持部A300に保持されている特徴点の位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている特徴点情報との比較により、特徴取得条件を変更する。
特徴取得条件の変更の前提として、本実施形態においても、学習サンプルの物理的情報のヒストグラムを予め作成しておき、特徴情報保持部A401に保持しておく。その上で、S240では、S220において抽出された特徴点群から作成されるヒストグラムの分布が特徴情報保持部A401に保持しておいたものに近づくように、カメラ10もしくは照明30の位置・方向を変更する。本実施形態においても簡単のため図3(c)のようにカメラ10と照明32の光軸が同軸、すなわち一致している場合を説明する。
ヒストグラムを作成する物理的情報としては、第1の実施形態と同様に、例えば、学習サンプルに含まれる各特徴点に関する法線ベクトルと特徴点の位置から見た照明方向ベクトルとの角度差とすることができる。この場合、ヒストグラムpは数式4に示されているようにサンプル数によって正規化される。
ただし、uはヒストグラムの各セルのインデックス、Mはヒストグラムのセルの総数、puはuで表されるインデックスのセルの度数を表している。S220で抽出された各特徴点fiにおける法線ベクトルniと特徴点から見た照明方向ベクトルliとの角度差のヒストグラムをqとしたとする。この場合、ヒストグラムqもヒストグラムpと同様に数式5のように特徴点数Nによって正規化される。
学習サンプルによって得られるヒストグラムpとS220において得られた画像特徴群によって得られるヒストグラムqの類似度を計算して、その類似度が大きくなるように照明30(カメラ10)の位置・向きを変更する。ヒストグラムpとqの類似度はρ[p、q]で表す。ヒストグラム同士の類似度は数式6のようにBhattcharyya係数で評価する。ただし、これに限られるわけではなく、例えば、数式7のようなhistogram−intersection、数式7のようなχ2乗距離によって評価してもよい。
照明30(カメラ10)の位置・向きをyで表すと、yにおけるヒストグラムはq[y]と表せ、ヒストグラムの類似度は以下の数式8のようになる。
最も類似度が高くなる照明30(カメラ10)の位置・向きyを求めればよいので、
となる。例えば、探索初期位置・向きをy0とすれば、y0に近いyでは、ヒストグラムの値も近いと考えて、Bhattcharyya係数をTaylor展開すると、
となる。第1項はyに依存しないので、類似度を最大にするyを探索する問題は第2項
を最大化する問題になる。ここでは最大となるyを求めているが、類似度がしきい値以上となるyを求めてもよい。探索手法はgreedyに探索してもよいし、MeanShiftを使ってもよい。MeanShiftの場合、入力ヒストグラムを以下の数式12のように定義する。
ただし、δ[i]はi=0で1をとるデルタ関数で、b(x)はxの位置におけるヒストグラムの度数、k(d)は中心に近いほど大きい値をとる微分可能な重み関数を表す。nhはビンuに属する画素数、hはスケールである。数式11に数式12を代入すると、
よって、数式13の最大とするy1は、g(x)をカーネル関数の微分として、g(x)=−k’(x)とすれば、
となる。
または、あらかじめ得られている学習サンプルの物理的条件と一致する特徴点の数が増えるようにカメラ10もしくは照明30の位置・方向を変更してもよい。その場合は学習サンプルによって得られているヒストグラム、及び、S220において得られた画像特徴群によって得られるヒストグラムqを総数によって正規化を行わない。数式6で表されるヒストグラムpとqのhistogram−intersectionが最大となるように照明30(カメラ10)の位置・向きを変更する。ここでも類似度がしきい値以上となるyを求めてもよい。
ヒストグラムの求め方については学習サンプルの各特徴点の法線ベクトルおよび特徴点から見た照明方向を図4(b)のように球面上にプロットして、各分割面がヒストグラムの各セルに対応するように2次元ヒストグラムを作成してもよい。
○特徴取得(S250)
次に、特徴取得工程(S250)では、S240で変更された撮像条件で撮像された対象物の撮像画像から抽出された特徴量に基づいて、対象物を認識する。具体的には、まず、S240においてカメラ10もしくは照明30の位置・方向が変更されたあと、再度カメラ10によって対象物40を撮影し、画像データを獲得する。獲得された画像データからS220と同様の手法で特徴および特徴量を取得する。次の認識処理工程(S260)で特徴量として光学的情報が必要であれば、S230と同様の手法で、各特徴点近傍の物理的情報も取得しておく。
最後に、認識処理工程(S260)では、第1の実施形態におけるS150と同様の処理により認識処理を行う。
上記のように、本実施形態では、対象物を撮像した撮像画像から特徴および特徴量を抽出して、その特徴近傍表面の物理的性質と、特徴位置から見た照明方向、撮像手段方向の少なくともいずれか1つとに基づいて、特徴取得条件を変更する。変更したのちに特徴および特徴量を取得して、所定の認識処理を行う。このため、照明変動に合わせて、適切な特徴量を取得して、対象物認識を精度よく行うことができる。
なお、本実施形態では、物理的情報が示す対象物上の特徴部分における物理的性質、及び、照明情報が示す照明条件が、予め取得しておいた物理的性質及び照明条件のサンプルに近づくように、撮像条件を変更することを説明した。また、物理的情報が示す対象物上の特徴部分における物理的性質、及び、照明情報が示す照明条件が、特徴部分について予め定められた分布を示すように、撮像条件を変更することも説明した。これらの構成では、事前に学習しておいた精度のよい対象物認識が可能な認識条件で対象物認識を行うことが可能となる。
また、学習時に各特徴に対して、物理的情報を得ることで、その物理的条件をさまざまな条件に設定したり、認識時に、学習時に得られたサンプルの物理的条件の分布が近くなるように特徴取得条件を変更することができる。もしくは認識に有用な特徴を取得できるように特徴取得条件を変更することで照明変動に対して安定な認識装置を実現することができる。このように、本実施形態の構成によれば、物理的性質と、特徴位置から見た照明方向および撮像手段方向の少なくともいずれか1つとに基づいて、特徴取得条件を変更することで照明変動に対して安定な特徴のみを取得することができる。
<<第3の実施形態>>
第3の実施形態は基本的な機能構成、処理フローともに第2の実施形態とほぼ同様であるが、特徴取得条件変更工程(S240)の具体的な処理内容が異なる。第2の実施形態においては、学習時に得られた学習サンプルの分布(ヒストグラム)に従って、認識時に取得する特徴取得条件を変更したが、本実施形態においては学習時に得られる後述のポテンシャル面に従って特徴取得条件を変更する。
本実施形態では、学習時に対象物をとらえる照明の位置・方向、及び撮像装置の位置・方向は三次元的に得られているものとして、対象物の姿勢、照明の位置・方向および撮像装置の位置・方向をさまざまに変化させて学習を行う。図7に対象物中心から見た撮像部方向ベクトル12、照明方向ベクトル32、対象物中心を原点とする対象物座標43を示す。各姿勢において得られる各特徴に関して、距離センサなどを利用して特徴近傍の法線ベクトルを取得する。その他、特徴近傍表面の物理的情報も取得する。
さまざまな条件で特徴を取得したあとに、各条件で得られる特徴量群のなかで認識に有用な特徴を選択する。この場合の条件とは対象物の姿勢、照明の位置・方向および撮像装置の位置・方向を指す。特徴の選択は、例えば、選択情報量(自己エントロピー)や平均情報量(エントロピー)を用いて行うことができる。本実施形態では、各条件で得られる特徴量群のなかで情報量の値が所定のしきい値を超える特徴の数を評価値として選択し、記録する。各特徴に関する物理的情報も参照データとして併せて記憶しておく。なお、評価値は情報量の値を加算するなどして決定してもよい。
本実施形態では、対象物の姿勢を示すベクトルを、対象物中心を中心とする座標軸の各軸の回転角で表して、X=(φ1,φ2,φ3)とする。さらに、対象物中心の位置から見た照明位置ベクトルをL、撮像装置位置ベクトルをCとする。このようにして、各条件で得られる評価値をf(X,L,C)とする。このf(X,L,C)をポテンシャル面と呼び、認識時に利用する。
特徴取得条件変更工程(S240)では、S220において抽出された特徴を用いてまず、認識処理を一次的に行う。この処理においては、例えば、第1の実施形態のS150と同様に、implicit−shape−modelを用いて、各特徴から対象物中心に確率投票を行うことができる。姿勢Xも求められた対象物中心と各特徴の関係から求めることができる。次に、一次的に求められた認識結果によりf(X,L,C)が大きくなるように撮像装置の位置・方向、もしくは照明の位置・方向を変更する。
撮像装置の位置・方向、もしくは照明の位置・方向を変更したあと、特徴取得工程(S250)において再度特徴抽出を行う。
最後に、認識処理工程(S260)では、第1の実施形態のS150と同様の認識処理を行う。その際に、学習時に得られていた情報量の値が所定のしきい値を超える特徴のみを物理的条件を利用して選択する。
上記のように、本実施形態では、学習時に得られるポテンシャル面に従って特徴取得条件を変更する構成を説明した。本実施形態においても、特徴取得条件を変更したのちに特徴および特徴量を取得して、所定の認識処理を行うため、第2の実施形態と同様に、照明変動に合わせて、適切な特徴量を取得して、対象物認識を精度よく行うことができる。
<<第4の実施形態>>
(機能構成)
図8に、第4の実施形態における基本的な機能構成を示す。本実施形態における対象物認識システムの基本的な機能構成は第2の実施形態(図5)とほぼ同様であるが、本実施形態では、特徴抽出装置A500が認識処理部A430を有さない点が相違する。特徴抽出装置A500で、特徴抽出部A410、特徴取得条件変更部A440、特徴取得部A450、特徴情報保持部A401を備え、これらの構成要素は第2の実施形態と機能を果たす。
(対象物認識処理)
次に、対象物認識処理の処理フローを図9に基づいて説明する。本実施形態の処理フローは第2の実施形態の処理フローとほぼ同様であるが、認識処理工程を持たない。かわりに十分な特徴が得られたかを判断する工程(S360)を有している。
図9の処理フローの各工程の詳細を説明する。撮像工程(S310)、特徴抽出工程(S320)および物理的情報取得工程(S330)は第1の実施形態におけるS110、S120およびS130と同様である。
次に、特徴取得条件変更工程(S340)では、S320において抽出された各特徴点fiに対して、
・S330において取得された法線ベクトルni
・照明情報保持部A300に保持されている特徴点の位置から見た照明方向、撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている特徴点情報との比較により、特徴取得条件を変更する。
特徴取得条件の変更は、特徴情報保持部A401にあらかじめ保持されているサンプルの物理的情報のヒストグラムを第1の実施形態と同様に作成しておき、その分布に従ってカメラ10もしくは照明30の位置・方向を変更して行うことができる。例えば、分布を均一化するようにカメラ10もしくは照明30の位置・方向を変更することができる。もしくは、分布形状を保つように(物理的情報を揃えるように)カメラ10もしくは照明30の位置・方向を変更してもよい。具体的には、尖度や歪度を用いてヒストグラムを評価する。例えば、ヒストグラムの分布を一様分布にするためには、尖度が−1.2に近づくようにすればよい(正規分布を0として定義した場合)。必要に応じてカメラ10もしくは照明30の位置・方向を変更して特徴を増やすか、もしくは必要のない特徴を削除(選択)する。
特徴取得工程(S350)において、特徴点が再度取得されたあと十分な特徴が得られたと判断されるまで、S340およびS350の処理を繰り返して特徴を取得する。十分かどうかの判断は、例えば、取得サンプル数が、予め決定しておいた数に到達したか否かにより行うことができる。あるいは、テストセットを用意して認識率が定めたしきい値以上になった場合に十分な特徴が得られたと判断してもよい。
上記のように、本実施形態の構成においては、十分な特徴が得られるまで、特徴取得条件を変更して再度撮像を行うことを繰り返す。このため、本実施形態によれば、照明条件が変化する環境においても、一定の精度で安定的に対象物を認識することが可能となる。
<<その他の実施形態>>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (12)

  1. 対象物の位置姿勢を認識する認識装置であって、
    規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
    前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
    前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
    前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
    学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
    前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定手段と、
    前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識手段と
    を備えることを特徴とする認識装置。
  2. 前記決定手段は、前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件と、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件と、をそれぞれ比較して、前記重要度を決定することを特徴とする請求項1に記載の認識装置。
  3. 対象物の位置姿勢を認識する認識装置であって、
    規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
    前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
    前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
    前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
    学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
    前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記撮像装置が前記対象物を撮像する時の撮像条件を変更する変更手段と、
    前記変更手段により変更された撮像条件で撮像された前記対象物の撮像画像から抽出された前記特徴量に基づいて、前記対象物の位置姿勢を認識する認識手段と
    を備えることを特徴とする認識装置。
  4. 前記変更手段は、
    前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件と、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件と、をそれぞれ比較して、前記性質情報が示す物理的性質及び前記照明情報が示す照明条件が、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件に近づくように、前記撮像条件を変更する
    ことを特徴とする請求項3に記載の認識装置。
  5. 前記変更手段は、
    前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件が、前記複数の特徴部分について、予め定められた分布を示すように、前記撮像条件を変更する
    ことを特徴とする請求項3に記載の認識装置。
  6. 前記撮像条件には、撮像時の、照明の位置及び方向と、前記撮像装置の位置及び方向との少なくとも1つが含まれることを特徴とする請求項3から5のいずれか1項に記載の認識装置。
  7. 前記照明条件には、前記対象物上の前記特徴部分から見た、照明の方向と、前記撮像装置の方向との少なくとも1つが含まれることを特徴とする請求項1から6のいずれか1項に記載の認識装置。
  8. 前記物理的性質には、前記対象物上の前記特徴部分における、法線ベクトルと、物体反射率と、拡散反射率と、鏡面反射率との少なくとも1つが含まれることを特徴とする請求項1から7のいずれか1項に記載の認識装置。
  9. 前記特徴部分は、点、又は、一定範囲を占める領域であることを特徴とする請求項1から8のいずれか1項に記載の認識装置。
  10. 対象物の位置姿勢を認識する認識装置の制御方法であって、
    第1入力手段が、規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力工程と、
    抽出手段が、前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出工程と、
    第2入力手段が、前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力工程と、
    第3入力手段が、前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力工程と、
    決定手段が、前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と該学習画像の撮像時における照明条件との関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定工程と、
    認識手段が、前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識工程と
    を備えることを特徴とする認識装置の制御方法。
  11. 対象物の位置姿勢を認識する認識装置の制御方法であって、
    第1入力手段が、規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力工程と、
    抽出手段が、前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出工程と、
    第2入力手段が、前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力工程と、
    第3入力手段が、前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力工程と、
    変更手段が、前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と該学習画像の撮像時における照明条件との関係と、に基づいて、前記撮像装置が前記対象物を撮像する時の撮像条件を変更する変更工程と、
    認識手段が、前記変更工程で変更された撮像条件で撮像された前記対象物の撮像画像から抽出された前記特徴量に基づいて、前記対象物の位置姿勢を認識する認識工程と
    を備えることを特徴とする認識装置の制御方法。
  12. コンピュータを請求項1から9のいずれか1項に記載の認識装置の各手段として機能させるためのコンピュータプログラム。
JP2010041003A 2010-02-25 2010-02-25 認識装置及びその制御方法、コンピュータプログラム Expired - Fee Related JP5588196B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010041003A JP5588196B2 (ja) 2010-02-25 2010-02-25 認識装置及びその制御方法、コンピュータプログラム
US13/030,956 US9087265B2 (en) 2010-02-25 2011-02-18 Recognition apparatus and method thereof, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010041003A JP5588196B2 (ja) 2010-02-25 2010-02-25 認識装置及びその制御方法、コンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2011175600A JP2011175600A (ja) 2011-09-08
JP2011175600A5 JP2011175600A5 (ja) 2013-04-11
JP5588196B2 true JP5588196B2 (ja) 2014-09-10

Family

ID=44476507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010041003A Expired - Fee Related JP5588196B2 (ja) 2010-02-25 2010-02-25 認識装置及びその制御方法、コンピュータプログラム

Country Status (2)

Country Link
US (1) US9087265B2 (ja)
JP (1) JP5588196B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
JP5913903B2 (ja) * 2011-10-24 2016-04-27 株式会社日立製作所 形状検査方法およびその装置
CN104024793B (zh) * 2011-10-24 2017-02-15 株式会社日立制作所 形状检查方法及其装置
JP6027764B2 (ja) 2012-04-25 2016-11-16 キヤノン株式会社 ミラーシステム、および、その制御方法
JP6126437B2 (ja) * 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
KR20150015680A (ko) * 2013-08-01 2015-02-11 씨제이씨지브이 주식회사 특징점의 생성을 이용한 이미지 보정 방법 및 장치
JPWO2015163169A1 (ja) * 2014-04-23 2017-04-13 ソニー株式会社 画像処理装置および方法
JP6424020B2 (ja) 2014-06-09 2018-11-14 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6471934B2 (ja) * 2014-06-12 2019-02-20 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2529846B (en) * 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
CN107003658B (zh) * 2014-11-26 2019-04-05 三菱电机工程技术株式会社 作业辅助系统、作业辅助装置以及作业辅助方法
JP6693514B2 (ja) * 2015-04-30 2020-05-13 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
JP6579659B2 (ja) * 2016-08-31 2019-09-25 Kddi株式会社 光源推定装置及びプログラム
JP7071054B2 (ja) * 2017-01-20 2022-05-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10452958B2 (en) * 2017-10-06 2019-10-22 Mitsubishi Electric Research Laboratories, Inc. System and method for image comparison based on hyperplanes similarity
JP6536707B1 (ja) * 2018-03-07 2019-07-03 株式会社マーケットヴィジョン 画像認識システム
CN108491498B (zh) * 2018-03-20 2021-06-25 济南神博信息技术有限公司 一种基于多特征检测的卡口图像目标搜索方法
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
US10825199B2 (en) 2018-09-12 2020-11-03 Cognex Corporation Methods and apparatus for processing image data for machine vision
US10878299B2 (en) 2018-09-12 2020-12-29 Cognex Corporation Methods and apparatus for testing multiple fields for machine vision
US10846563B2 (en) 2018-09-12 2020-11-24 Cognex Corporation Methods and apparatus for generating a dense field of three dimensional data for machine vision
CN111383270B (zh) * 2018-12-27 2023-12-29 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
JP7233251B2 (ja) 2019-02-28 2023-03-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5930383A (en) * 1996-09-24 1999-07-27 Netzer; Yishay Depth sensing camera systems and methods
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
US20020186878A1 (en) * 2001-06-07 2002-12-12 Hoon Tan Seow System and method for multiple image analysis
JP4780921B2 (ja) * 2004-03-17 2011-09-28 キヤノン株式会社 並列パルス信号処理装置、及びその制御方法
JP4789511B2 (ja) * 2004-06-04 2011-10-12 キヤノン株式会社 状況モニタリング装置及び状況モニタリングシステム
JP4794846B2 (ja) * 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
JP2007206797A (ja) * 2006-01-31 2007-08-16 Omron Corp 画像処理方法および画像処理装置
WO2007108041A1 (ja) * 2006-03-15 2007-09-27 Matsushita Electric Industrial Co., Ltd. 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム
JP2008065378A (ja) 2006-09-04 2008-03-21 Digital Fashion Ltd 画像認識プログラム、画像認識方法及び画像認識装置
JP2009139246A (ja) * 2007-12-07 2009-06-25 Honda Motor Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体
JP5058838B2 (ja) * 2008-02-01 2012-10-24 キヤノン株式会社 情報処理装置および方法
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法

Also Published As

Publication number Publication date
US9087265B2 (en) 2015-07-21
US20110206237A1 (en) 2011-08-25
JP2011175600A (ja) 2011-09-08

Similar Documents

Publication Publication Date Title
JP5588196B2 (ja) 認識装置及びその制御方法、コンピュータプログラム
JP4691158B2 (ja) 三次元クラスモデルを用いた二次元画像における認識システムおよび方法
US8526679B2 (en) Image processing apparatus and image processing method
CN103503029B (zh) 检测面部特性的方法
JP6732214B2 (ja) 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム
US7912253B2 (en) Object recognition method and apparatus therefor
JP6305171B2 (ja) シーン内の物体を検出する方法
KR102016082B1 (ko) 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치
JP5806606B2 (ja) 情報処理装置、情報処理方法
US9245206B2 (en) Image processing apparatus and image processing method
JP5591360B2 (ja) 分類及び対象物検出の方法及び装置、撮像装置及び画像処理装置
JP2017033469A (ja) 画像識別方法、画像識別装置及びプログラム
US10713530B2 (en) Image processing apparatus, image processing method, and image processing program
CN110069129B (zh) 确定系统和确定方法
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
Zhang et al. Hybrid support vector machines for robust object tracking
WO2018100668A1 (en) Image processing device, image processing method, and image processing program
JP7048423B2 (ja) 商品特定装置、プログラム及び学習方法
CN112668374A (zh) 图像处理方法、装置、重识别网络的训练方法及电子设备
CN105139013A (zh) 一种融合形状特征和兴趣点的物体识别方法
JP7077046B2 (ja) 情報処理装置、被写体の判別方法及びコンピュータプログラム
Poostchi et al. Feature selection for appearance-based vehicle tracking in geospatial video
Fang et al. Feature covariance matrix-based dynamic hand gesture recognition
JPWO2019142787A1 (ja) 人体部位推定装置、人体部位推定方法、及びプログラム
Sharma et al. A novel approach for efficient SVM classification with histogram intersection kernel

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140725

R151 Written notification of patent or utility model registration

Ref document number: 5588196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees