JP5588196B2 - 認識装置及びその制御方法、コンピュータプログラム - Google Patents
認識装置及びその制御方法、コンピュータプログラム Download PDFInfo
- Publication number
- JP5588196B2 JP5588196B2 JP2010041003A JP2010041003A JP5588196B2 JP 5588196 B2 JP5588196 B2 JP 5588196B2 JP 2010041003 A JP2010041003 A JP 2010041003A JP 2010041003 A JP2010041003 A JP 2010041003A JP 5588196 B2 JP5588196 B2 JP 5588196B2
- Authority
- JP
- Japan
- Prior art keywords
- illumination
- feature
- recognition
- imaging
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
Description
規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定手段と、
前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識手段と
を備える。
(対象物認識システムの機能構成)
図1に、第1の実施形態における対象物認識システムの基本的な機能構成例を示す。
図10は、対象物認識装置A400のハードウェア構成例を模式的に示すブロック図である。対象物認識装置A400は、例えば、パーソナルコンピュータ(PC)やワークステーション(WS)、モバイル端末、スマートフォン等で実現される。
次に、本実施形態に係る対象物認識システムにおける対象物認識処理の概要を図2に基づいて説明する。
・S130において取得された物理的情報。
・照明情報保持部A300に保持されている特徴位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、各特徴の重要度を決定する。重要度を決定された特徴および重要度は特徴情報保持部A401に送信され、保持される。
図3(a)に、第1の実施形態における対象物認識システムの具体的な構成例を示す。
次に、本実施形態に係る対象物認識システムが実行する具体的な処理内容を図2の処理フローに沿って説明する。
S110では、カメラ10によって対象物40を撮影し、画像データを獲得する。撮影時の対象物をとらえるカメラ10の位置・方向、及び、照明30の位置・方向などの情報はあらかじめ得られており、照明情報保持部A300に保持されている。
次に、S120では、S110で獲得された画像から特徴点とその特徴点まわり(特徴点の周囲)の情報を記述する特徴量とを抽出する。特徴量は、例えば、SURF(非特許文献1)のような抽出された特徴点まわりの輝度勾配などの情報を記述するものを使用することができる。その他には、特徴点は、例えば、いわゆるKeypoints(非特許文献2、3)などの特徴点を用いることができる。ここではxi、yiを画像座標として、各特徴点をfi=(xi,yi)(i=1,2,・・・,N)と表す。また、特徴量を表す特徴量ベクトルをFi(i=1,2,・・・,N)とする。Nは画像から得られる特徴点の総数、iは各特徴点を表すインデックスである。
[非特許文献1]H.Bay, "Speeded-Up RobustFeatures (SURF)", Computing Vision and Image Understanding, Vol.110 (3)June 2008, pp.346-359.
[非特許文献2]E.Tola, "A Fast LocalDescriptor for Dense Matching", CVPR 2008.
[非特許文献3]K.Mikolajczyk, "A PerformanceEvaluation of Local Descriptors", PAMI, 27(10) 2004, pp.1615-1630.
次に、S130ではS120において抽出された各特徴点fi近傍表面の物理的情報を得る。物理的情報としては、物体反射率や法線ベクトルなど、物体もしくは特徴点近傍固有のパラメータ又はベクトルを用いることができる。本実施形態においては、物理的情報として法線ベクトルを距離センサ20によって取得する。ここでは特徴点fiに対する法線ベクトルをni(i=1,2,・・・,N)で表す。法線ベクトルは特徴点に対応する3次元座標から近傍画素に対応する3次元座標へのベクトル群を主成分分析することで求められる。以上の作業を各特徴点に対して行う。法線ベクトルが計測不可能である場合は、計測不可能であることを記録しておく。計測不可能な場合について、本実施形態ではni=(0,0,0)としておく。
次に、S140では、S120において抽出された各特徴点fiに対して、
・S130において取得された法線ベクトルni。
・特徴点位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、各特徴点の重要度を決定する。特徴点位置から見た照明方向および撮像部方向は、例えば、照明情報保持部A300に保持されている照明および撮像装置の三次元位置と、距離センサなどを用いて得られる特徴点の三次元位置とから求めることができる。
まず、照明方向、法線ベクトル間の角度により評価する手法を説明する。この手法では、特徴点fiにおける2つの方向ベクトル間の角度と同じ角度の学習サンプルがある場合に、当該特徴点fiの重要度を高くする。例えば、特徴点fiの重要度ωiを、数式1のように法線ベクトルniと特徴点から見た照明方向ベクトルliと間の角度θiの関数で表す。ここで、角度θi(i=1,2,・・・,N)は以下のように表される。
次に、照明方向、法線ベクトルを量子化してヒストグラムを作成して評価する手法を説明する。図4(a)のように特徴点から見た照明方向ベクトル501を三次元空間座標系502に設けた球面503上にプロットして、球面の分割面を1セルとするヒストグラム504を作成する。例えば図4(b)のように分割した場合、1セルを示す球面の分割面は505のようになる。分割手法は測地ドームのように多面体近似法で分割してもよいし、認識率が高くなるように分割手法を学習して決定してもよい。各セルkに対応する重要度αkを、例えば、数式3のように各セルkに含まれる学習サンプル数と全学習サンプル数から計算する。
[数3]
αk=(セルkの学習サンプル数)/(全学習サンプル数)
・特徴点から見た照明方向ベクトルliの学習サンプル。
・特徴点近傍の法線ベクトルniの学習サンプル。
から2次元ヒストグラムを作成し、各セルの重要度を決定してもよい。2次元ヒストグラムの各セルは照明方向ベクトルli及び特徴点近傍の法線ベクトルniそれぞれによって描かれる球面の分割面における位置を示している。各特徴点fiの重要度γiは、照明方向ベクトルli及び法線ベクトルniに基づき割り当てられたセルの各々について決定される。
最後に、S150では、S140において重要度を決定した特徴点群を用いて、所定の認識処理を行うことで対象物認識を行う。本実施形態ではBag−of−keypoints(Bag−of−words)(非特許文献4)のように、各特徴点fiから得られた特徴量Fiを量子化して、画像ごとにヒストグラムを作成する。そして、そのヒストグラムを画像の特徴量Fとする。
[非特許文献4] J. Zhang, "Local Features andKernels for Classification of Texture and Object Categories: A ComprehensiveStudy", International Journal of Computer Vision, 2006.
[非特許文献5] B. Leibe and B. Schiele,"Scale-Invariant Object Categorization using a Scale-Adaptive Mean-ShiftSearch", DAGM'04 Pattern Recognition Symposium.
(機能構成)
図5に、第2の実施形態における対象物認識システムの基本的な機能構成を示す。A100、A200、A300、A400、A410、A430、A401は第1の実施形態と同様である。本実施形態に係る対象物認識システムは、特徴重要度決定部A420を有さないが、特徴取得条件変更部A440、特徴取得部A450を備えている。特徴取得条件変更部A440は、対象物の表面の物理的情報と照明情報とに基づいて、特徴取得条件を変更する。特徴取得部A450は、変更した特徴取得条件(撮像条件)で、対象物の特徴を再度取得する。なお、特徴取得条件には、撮像時の、照明の位置及び方向と、撮像装置の位置及び方向との少なくともいずれか1つが含まれる。
次に処理フローについて説明する。本実施形態の処理フローは図6で示される。まず、撮像工程(S210)から物理情報取得工程(S230)は、第1の実施形態におけるS110〜S130と同様である。
・S230において取得された物理的情報。
・照明情報保持部A300に保持されている特徴位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている情報との比較により特徴を取得する条件(特徴取得条件)を変更する。特徴取得条件としては、例えば、撮像装置、対象物に照射する照明装置の位置・向き、対象物の位置・向きなどが挙げられる。
次に、第2の実施形態における対象物認識システムの具体的な構成例は第1の実施形態で参照した図3(a)とほぼ同様である。ただし、対象物認識装置A400に相当する計算機50は、プログラムとして特徴抽出部A410、認識処理部A430の他に、特徴取得条件変更部A440、特徴取得部A450を有している。また、特徴取得条件変更部A440として、本実施形態では、カメラ10と照明30の少なくとも一方の位置、向きなどを変更可能なインターフェースが装備されている。計算機50は、カメラ10、距離センサ20、場合によっては照明30に接続されている。
次に、本実施形態に係る対象物認識システムが実行する具体的な処理内容を図2の処理フローに沿って説明する。
次に、特徴取得条件変更工程(S240)では、物理的情報が示す対象物の特徴部分における物理的性質と、照明情報が示す照明条件とに基づいて、撮像装置が対象物を撮像する時の撮像条件を変更する。具体的には、S220において抽出された各特徴点fiに対して、
・S230において取得された法線ベクトルni。
・照明情報保持部A300に保持されている特徴点の位置から見た照明方向および撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている特徴点情報との比較により、特徴取得条件を変更する。
次に、特徴取得工程(S250)では、S240で変更された撮像条件で撮像された対象物の撮像画像から抽出された特徴量に基づいて、対象物を認識する。具体的には、まず、S240においてカメラ10もしくは照明30の位置・方向が変更されたあと、再度カメラ10によって対象物40を撮影し、画像データを獲得する。獲得された画像データからS220と同様の手法で特徴および特徴量を取得する。次の認識処理工程(S260)で特徴量として光学的情報が必要であれば、S230と同様の手法で、各特徴点近傍の物理的情報も取得しておく。
第3の実施形態は基本的な機能構成、処理フローともに第2の実施形態とほぼ同様であるが、特徴取得条件変更工程(S240)の具体的な処理内容が異なる。第2の実施形態においては、学習時に得られた学習サンプルの分布(ヒストグラム)に従って、認識時に取得する特徴取得条件を変更したが、本実施形態においては学習時に得られる後述のポテンシャル面に従って特徴取得条件を変更する。
(機能構成)
図8に、第4の実施形態における基本的な機能構成を示す。本実施形態における対象物認識システムの基本的な機能構成は第2の実施形態(図5)とほぼ同様であるが、本実施形態では、特徴抽出装置A500が認識処理部A430を有さない点が相違する。特徴抽出装置A500で、特徴抽出部A410、特徴取得条件変更部A440、特徴取得部A450、特徴情報保持部A401を備え、これらの構成要素は第2の実施形態と機能を果たす。
次に、対象物認識処理の処理フローを図9に基づいて説明する。本実施形態の処理フローは第2の実施形態の処理フローとほぼ同様であるが、認識処理工程を持たない。かわりに十分な特徴が得られたかを判断する工程(S360)を有している。
・S330において取得された法線ベクトルni。
・照明情報保持部A300に保持されている特徴点の位置から見た照明方向、撮像部方向の少なくともいずれか1つ。
の両方に基づいて、特徴情報保持部A401にあらかじめ保持されている特徴点情報との比較により、特徴取得条件を変更する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (12)
- 対象物の位置姿勢を認識する認識装置であって、
規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定手段と、
前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識手段と
を備えることを特徴とする認識装置。 - 前記決定手段は、前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件と、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件と、をそれぞれ比較して、前記重要度を決定することを特徴とする請求項1に記載の認識装置。
- 対象物の位置姿勢を認識する認識装置であって、
規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力手段と、
前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出手段と、
前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力手段と、
前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力手段と、
学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と、該学習画像の撮像時における照明条件と、の関係を保持する保持手段と、
前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、前記保持手段が保持している前記関係と、に基づいて、前記撮像装置が前記対象物を撮像する時の撮像条件を変更する変更手段と、
前記変更手段により変更された撮像条件で撮像された前記対象物の撮像画像から抽出された前記特徴量に基づいて、前記対象物の位置姿勢を認識する認識手段と
を備えることを特徴とする認識装置。 - 前記変更手段は、
前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件と、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件と、をそれぞれ比較して、前記性質情報が示す物理的性質及び前記照明情報が示す照明条件が、前記学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質、及び該学習画像の撮像時における照明条件に近づくように、前記撮像条件を変更する
ことを特徴とする請求項3に記載の認識装置。 - 前記変更手段は、
前記第2入力手段が入力した性質情報が示す物理的性質、及び前記第3入力手段が入力した照明情報が示す照明条件が、前記複数の特徴部分について、予め定められた分布を示すように、前記撮像条件を変更する
ことを特徴とする請求項3に記載の認識装置。 - 前記撮像条件には、撮像時の、照明の位置及び方向と、前記撮像装置の位置及び方向との少なくとも1つが含まれることを特徴とする請求項3から5のいずれか1項に記載の認識装置。
- 前記照明条件には、前記対象物上の前記特徴部分から見た、照明の方向と、前記撮像装置の方向との少なくとも1つが含まれることを特徴とする請求項1から6のいずれか1項に記載の認識装置。
- 前記物理的性質には、前記対象物上の前記特徴部分における、法線ベクトルと、物体反射率と、拡散反射率と、鏡面反射率との少なくとも1つが含まれることを特徴とする請求項1から7のいずれか1項に記載の認識装置。
- 前記特徴部分は、点、又は、一定範囲を占める領域であることを特徴とする請求項1から8のいずれか1項に記載の認識装置。
- 対象物の位置姿勢を認識する認識装置の制御方法であって、
第1入力手段が、規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力工程と、
抽出手段が、前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出工程と、
第2入力手段が、前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力工程と、
第3入力手段が、前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力工程と、
決定手段が、前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と該学習画像の撮像時における照明条件との関係と、に基づいて、前記抽出した複数の特徴量の各々の重要度を決定する決定工程と、
認識手段が、前記複数の特徴量をそれぞれの重要度で重み付けした値に基づいて、前記対象物の位置姿勢を認識する認識工程と
を備えることを特徴とする認識装置の制御方法。 - 対象物の位置姿勢を認識する認識装置の制御方法であって、
第1入力手段が、規定の照明条件で撮像装置により撮像された前記対象物の撮像画像を入力する第1入力工程と、
抽出手段が、前記撮像画像を解析して該撮像画像中の複数の特徴部分を決定し、該複数の特徴部分における画像特性をそれぞれ示す複数の特徴量を抽出する抽出工程と、
第2入力手段が、前記対象物上の前記複数の特徴部分のそれぞれにおける物理的性質を示す性質情報を入力する第2入力工程と、
第3入力手段が、前記撮像画像の撮像時における照明条件を示す照明情報を入力する第3入力工程と、
変更手段が、前記性質情報が示す物理的性質と、前記照明情報が示す照明条件と、学習画像に含まれる前記対象物上の複数の特徴部分のそれぞれにおける物理的性質と該学習画像の撮像時における照明条件との関係と、に基づいて、前記撮像装置が前記対象物を撮像する時の撮像条件を変更する変更工程と、
認識手段が、前記変更工程で変更された撮像条件で撮像された前記対象物の撮像画像から抽出された前記特徴量に基づいて、前記対象物の位置姿勢を認識する認識工程と
を備えることを特徴とする認識装置の制御方法。 - コンピュータを請求項1から9のいずれか1項に記載の認識装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010041003A JP5588196B2 (ja) | 2010-02-25 | 2010-02-25 | 認識装置及びその制御方法、コンピュータプログラム |
US13/030,956 US9087265B2 (en) | 2010-02-25 | 2011-02-18 | Recognition apparatus and method thereof, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010041003A JP5588196B2 (ja) | 2010-02-25 | 2010-02-25 | 認識装置及びその制御方法、コンピュータプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011175600A JP2011175600A (ja) | 2011-09-08 |
JP2011175600A5 JP2011175600A5 (ja) | 2013-04-11 |
JP5588196B2 true JP5588196B2 (ja) | 2014-09-10 |
Family
ID=44476507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010041003A Expired - Fee Related JP5588196B2 (ja) | 2010-02-25 | 2010-02-25 | 認識装置及びその制御方法、コンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9087265B2 (ja) |
JP (1) | JP5588196B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5812599B2 (ja) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | 情報処理方法及びその装置 |
JP5913903B2 (ja) * | 2011-10-24 | 2016-04-27 | 株式会社日立製作所 | 形状検査方法およびその装置 |
CN104024793B (zh) * | 2011-10-24 | 2017-02-15 | 株式会社日立制作所 | 形状检查方法及其装置 |
JP6027764B2 (ja) | 2012-04-25 | 2016-11-16 | キヤノン株式会社 | ミラーシステム、および、その制御方法 |
JP6126437B2 (ja) * | 2013-03-29 | 2017-05-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
KR20150015680A (ko) * | 2013-08-01 | 2015-02-11 | 씨제이씨지브이 주식회사 | 특징점의 생성을 이용한 이미지 보정 방법 및 장치 |
JPWO2015163169A1 (ja) * | 2014-04-23 | 2017-04-13 | ソニー株式会社 | 画像処理装置および方法 |
JP6424020B2 (ja) | 2014-06-09 | 2018-11-14 | 株式会社キーエンス | 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP6471934B2 (ja) * | 2014-06-12 | 2019-02-20 | パナソニックIpマネジメント株式会社 | 画像認識方法、カメラシステム |
GB2529847B (en) | 2014-09-03 | 2018-12-19 | Dyson Technology Ltd | A mobile Robot with Independently Adjustable Light Sources |
GB2529846B (en) * | 2014-09-03 | 2019-02-20 | Dyson Technology Ltd | Illumination Control of a Vision System for a Mobile Robot |
CN107003658B (zh) * | 2014-11-26 | 2019-04-05 | 三菱电机工程技术株式会社 | 作业辅助系统、作业辅助装置以及作业辅助方法 |
JP6693514B2 (ja) * | 2015-04-30 | 2020-05-13 | ソニー株式会社 | 画像処理装置と画像処理方法およびプログラム |
JP6579659B2 (ja) * | 2016-08-31 | 2019-09-25 | Kddi株式会社 | 光源推定装置及びプログラム |
JP7071054B2 (ja) * | 2017-01-20 | 2022-05-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10452958B2 (en) * | 2017-10-06 | 2019-10-22 | Mitsubishi Electric Research Laboratories, Inc. | System and method for image comparison based on hyperplanes similarity |
JP6536707B1 (ja) * | 2018-03-07 | 2019-07-03 | 株式会社マーケットヴィジョン | 画像認識システム |
CN108491498B (zh) * | 2018-03-20 | 2021-06-25 | 济南神博信息技术有限公司 | 一种基于多特征检测的卡口图像目标搜索方法 |
JP6937995B2 (ja) * | 2018-04-05 | 2021-09-22 | オムロン株式会社 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
US10825199B2 (en) | 2018-09-12 | 2020-11-03 | Cognex Corporation | Methods and apparatus for processing image data for machine vision |
US10878299B2 (en) | 2018-09-12 | 2020-12-29 | Cognex Corporation | Methods and apparatus for testing multiple fields for machine vision |
US10846563B2 (en) | 2018-09-12 | 2020-11-24 | Cognex Corporation | Methods and apparatus for generating a dense field of three dimensional data for machine vision |
CN111383270B (zh) * | 2018-12-27 | 2023-12-29 | 深圳市优必选科技有限公司 | 物体定位方法、装置、计算机设备及存储介质 |
JP7233251B2 (ja) | 2019-02-28 | 2023-03-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5930383A (en) * | 1996-09-24 | 1999-07-27 | Netzer; Yishay | Depth sensing camera systems and methods |
JP2001283216A (ja) * | 2000-04-03 | 2001-10-12 | Nec Corp | 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体 |
US20020186878A1 (en) * | 2001-06-07 | 2002-12-12 | Hoon Tan Seow | System and method for multiple image analysis |
JP4780921B2 (ja) * | 2004-03-17 | 2011-09-28 | キヤノン株式会社 | 並列パルス信号処理装置、及びその制御方法 |
JP4789511B2 (ja) * | 2004-06-04 | 2011-10-12 | キヤノン株式会社 | 状況モニタリング装置及び状況モニタリングシステム |
JP4794846B2 (ja) * | 2004-10-27 | 2011-10-19 | キヤノン株式会社 | 推定装置、及び推定方法 |
JP2007206797A (ja) * | 2006-01-31 | 2007-08-16 | Omron Corp | 画像処理方法および画像処理装置 |
WO2007108041A1 (ja) * | 2006-03-15 | 2007-09-27 | Matsushita Electric Industrial Co., Ltd. | 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム |
JP2008065378A (ja) | 2006-09-04 | 2008-03-21 | Digital Fashion Ltd | 画像認識プログラム、画像認識方法及び画像認識装置 |
JP2009139246A (ja) * | 2007-12-07 | 2009-06-25 | Honda Motor Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体 |
JP5058838B2 (ja) * | 2008-02-01 | 2012-10-24 | キヤノン株式会社 | 情報処理装置および方法 |
JP2010152550A (ja) * | 2008-12-24 | 2010-07-08 | Canon Inc | 作業装置及びその校正方法 |
-
2010
- 2010-02-25 JP JP2010041003A patent/JP5588196B2/ja not_active Expired - Fee Related
-
2011
- 2011-02-18 US US13/030,956 patent/US9087265B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9087265B2 (en) | 2015-07-21 |
US20110206237A1 (en) | 2011-08-25 |
JP2011175600A (ja) | 2011-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5588196B2 (ja) | 認識装置及びその制御方法、コンピュータプログラム | |
JP4691158B2 (ja) | 三次元クラスモデルを用いた二次元画像における認識システムおよび方法 | |
US8526679B2 (en) | Image processing apparatus and image processing method | |
CN103503029B (zh) | 检测面部特性的方法 | |
JP6732214B2 (ja) | 画像処理装置、画像処理方法、テンプレート作成装置、物体認識処理装置及びプログラム | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
JP6305171B2 (ja) | シーン内の物体を検出する方法 | |
KR102016082B1 (ko) | 딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치 | |
JP5806606B2 (ja) | 情報処理装置、情報処理方法 | |
US9245206B2 (en) | Image processing apparatus and image processing method | |
JP5591360B2 (ja) | 分類及び対象物検出の方法及び装置、撮像装置及び画像処理装置 | |
JP2017033469A (ja) | 画像識別方法、画像識別装置及びプログラム | |
US10713530B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110069129B (zh) | 确定系统和确定方法 | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
Zhang et al. | Hybrid support vector machines for robust object tracking | |
WO2018100668A1 (en) | Image processing device, image processing method, and image processing program | |
JP7048423B2 (ja) | 商品特定装置、プログラム及び学習方法 | |
CN112668374A (zh) | 图像处理方法、装置、重识别网络的训练方法及电子设备 | |
CN105139013A (zh) | 一种融合形状特征和兴趣点的物体识别方法 | |
JP7077046B2 (ja) | 情報処理装置、被写体の判別方法及びコンピュータプログラム | |
Poostchi et al. | Feature selection for appearance-based vehicle tracking in geospatial video | |
Fang et al. | Feature covariance matrix-based dynamic hand gesture recognition | |
JPWO2019142787A1 (ja) | 人体部位推定装置、人体部位推定方法、及びプログラム | |
Sharma et al. | A novel approach for efficient SVM classification with histogram intersection kernel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140725 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5588196 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |