JP6540577B2 - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP6540577B2 JP6540577B2 JP2016071416A JP2016071416A JP6540577B2 JP 6540577 B2 JP6540577 B2 JP 6540577B2 JP 2016071416 A JP2016071416 A JP 2016071416A JP 2016071416 A JP2016071416 A JP 2016071416A JP 6540577 B2 JP6540577 B2 JP 6540577B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- orientation
- information
- object candidate
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 55
- 230000010354 integration Effects 0.000 claims description 31
- 238000000034 method Methods 0.000 claims description 28
- 238000010586 diagram Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
認識対象物の画像情報を取得する情報取得手段と、
複数の物体のモデル画像を記憶する記憶手段と、
前記情報取得手段により取得された認識対象物の画像情報の特徴量と、前記記憶手段のモデル画像の特徴量と、を比較し、前記認識対象物の物体候補を検出し、該物体候補の位置及び姿勢候補を算出する検出手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記検出手段により検出された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第1判定手段と、
前記第1判定手段から出力される物体候補及び該物体候補の位置及び姿勢候補に基づいて、前記物体候補及び該物体候補の位置及び姿勢候補同士をまとめる統合処理を行う統合手段と、
前記統合手段により統合された前記物体候補及び該物体候補の位置及び姿勢候補の幾何学形状に基づいて追跡処理を行う追跡手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記追跡手段から出力された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が前記第1判定閾値よりも緩い第2判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第2判定手段と、を備え、
前記統合手段は、フレーム時刻t(tは任意の自然数)において前記第2判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、次回のフレーム時刻t+1において前記第1判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、に基づいて前記統合処理を行い、該統合処理した物体候補及び該物体候補の位置及び姿勢候補を、前記フレーム時刻t+1における前記認識対象物の物体及び該物体の位置及び姿勢として出力する、
ことを特徴とする物体認識装置
である。
詳細なアルゴリズムは、例えば、非特許文献
S.Hinterstoisser,C.Cagniart,S.Iiic,P.Sturm,N.Navab,P.Fua,V.Lepetit Gradient Response Maps for Real-Time Detection of Texture-Less Objects IEEE Transactions on Pattern Analysis and Maschine Intelligence(TPAMI)
に詳細に開示されており、これを援用できるものとする。
メモリ12は、記憶手段の一具体例である。メモリ12は、例えば、複数の物体の画像をモデル画像として記憶している。
SIFTについては、例えば、非特許文献
David G.Lowe,”Distinctive image features from scale-invariant keypoints, ” International Journal of Computer Vision, 60, 2 (2004), pp.91-110
に詳細に開示されており、これを援用できるものとする。
A−KAZEについては、例えば、非特許文献
Fast Explicit Diffusion for Accelerrated Features in Nonlinear Scale Spaces Pablo F. Alcantarilla, Jesus Nuevo and Adrien Bartoli. In British Machine Vision Conference (BMVC). Bristol, UK. September 2013
に詳細に開示されており、これを援用できるものとする。
SHOTについては、例えば、非特許文献
Tombari et al. Unique signatures of histograms for local surface description. ECCV 2010
に詳細に開示されており、これを援用できるものとする。
検出部3は、検出した物体候補とその位置姿勢候補(以下、物体位置姿勢候補)を第1判定部4に出力する。
さらに、第2判定部7の第2判定閾値は緩く緩和され、その背反として誤検出の増加を招く可能性がある。しかし、本実施形態においては、上述のように、緩い第2判定閾値を用いた第2判定部7の前に、トラッキング処理部6が、物体位置姿勢候補の幾何学形状に基づいて追跡処理を行う。これにより、幾何学形状に一貫性のない物体位置姿勢候補を排除できるため、誤検出の増加を抑制できる。すなわち、物体位置姿勢の誤検出及び未検出を同時に抑制できる。
これにより、第1判定部4から出力される物体位置姿勢候補によって、フレーム時刻t+1における新しい検出結果が反映されると共に、第2判定部7から出力される物体位置姿勢候補によって、フレーム時刻tにおける過去の検出結果を活用できる。
上述したような第1及び第2判定部4、7の切り分けを行うことで、上記誤検出と未検出のトレードオフを良好に図り、物体の位置姿勢の誤検出及び未検出を同時に抑制し、高精度な物体認識を実現できる。
第1判定部4は、対象物画像とモデル画像とを比較した結果、検出部3により検出された物体位置姿勢候補の中から、一定以上の信頼度がある物体位置姿勢候補を最終的な結果として出力する。
なお、第1判定部4は、対象物画像の距離情報と検出部3により検出された物体位置姿勢候補のモデル画像の距離情報とを比較し、その不一致度の差分が判定閾値以下であるとき、信頼度があると判定してもよい。
第1判定部4は、色相判定器を用いて、RGB輝度情報を、HSV情報(色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Lightness・Brightness)の三つの成分からなる色空間情報)に変換し、その色相Hを用いて上記比較行う。
第1判定部4は、RGB判定器を用いて、RGB輝度情報の生値を用いて上記比較を行う。
第1判定部4は、Gray_Scale判定器を用いて、RGB輝度情報を、グレースケール情報(白黒情報)に変換し、その変換した値を用いて、上記比較を行う。
なお、上記(A)乃至(D)の色情報は一例であり、これに限定されず、任意の色情報であってもよい。
トラッキング処理部6は、追跡手段の一具体例である。トラッキング処理部6は、メモリ12の候補群(hold)データベース10に格納された候補群(hold)に対してトラッキング処理を行う。トラッキング処理部6は、トラッキング処理において、候補群(hold)の物体位置姿勢候補を物体毎に、追跡(トラッキング)する。
(時刻tフレーム)
時刻t(tは任意の自然数)フレームにおいて、検出部3は、画像情報取得部2からの認識対象物の画像情報に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて判定し、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定し検出する。時刻tフレームにおいて、物体認識装置1は、その第1判定部4により判定された物体位置姿勢候補を出力する(1)。さらに、第1判定部4は、その物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
上記時刻tフレームの候補群(new)は、候補群(hold)として次回の時刻t+1フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。時刻t+1フレームにおいて、物体認識装置1は、その第2判定部7により判定された物体位置姿勢候補を出力する(2)。さらに、第2判定部7は、その物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
上記時刻t+1フレームの候補群(update)は、候補群(hold)として、次回の時刻t+2フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。そして、第2判定部7は、その判定した物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
この時刻t+2フレームにおいて、検出部3は、画像情報取得部2からの対象物画像に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。第1判定部4は、判定した物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(update)データベース9に格納された候補群(update)と、を統合する。フレームt+2において、物体認識装置1は、その統合処理部5により統合された物体位置姿勢候補を出力する(3)。
上記時刻t+2フレームにおいて、統合処理部5により統合された物体位置姿勢候補は、候補群(hold)として、次回の時刻t+3フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。そして、第2判定部7は、その判定した物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
この時刻t+3フレームにおいて、検出部3は、画像情報取得部2からの対象物画像に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。第1判定部4は、判定した物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(update)データベース9に格納された候補群(update)と、を統合する。時刻t+3フレームにおいて、物体認識装置1は、その統合処理部5により統合された物体位置姿勢候補を出力する(4)。
例えば、上記実施形態において、統合処理を行い位置を変更してもよい。図11に示す如く、第2判定部7は、判定した物体位置姿勢候補を、候補群(update)データベース9および候補群(hold)データベース10を介して統合処理部5に出力してもよい。統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(hold)データベース9に格納された候補群(hold)と、を統合する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
Claims (1)
- 認識対象物の画像情報を取得する情報取得手段と、
複数の物体のモデル画像を記憶する記憶手段と、
前記情報取得手段により取得された認識対象物の画像情報の特徴量と、前記記憶手段のモデル画像の特徴量と、を比較し、前記認識対象物の物体候補を検出し、該物体候補の位置及び姿勢候補を算出する検出手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記検出手段により検出された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第1判定手段と、
前記第1判定手段から出力される物体候補及び該物体候補の位置及び姿勢候補に基づいて、前記物体候補及び該物体候補の位置及び姿勢候補同士をまとめる統合処理を行う統合手段と、
前記統合手段により統合された前記物体候補及び該物体候補の位置及び姿勢候補の幾何学形状に基づいて追跡処理を行う追跡手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記追跡手段から出力された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が前記第1判定閾値よりも緩い第2判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第2判定手段と、を備え、
前記統合手段は、フレーム時刻t(tは任意の自然数)において前記第2判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、次回のフレーム時刻t+1において前記第1判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、に基づいて前記統合処理を行い、該統合処理した物体候補及び該物体候補の位置及び姿勢候補を、前記フレーム時刻t+1における前記認識対象物の物体及び該物体の位置及び姿勢として出力する、
ことを特徴とする物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071416A JP6540577B2 (ja) | 2016-03-31 | 2016-03-31 | 物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016071416A JP6540577B2 (ja) | 2016-03-31 | 2016-03-31 | 物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017182600A JP2017182600A (ja) | 2017-10-05 |
JP6540577B2 true JP6540577B2 (ja) | 2019-07-10 |
Family
ID=60007146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016071416A Expired - Fee Related JP6540577B2 (ja) | 2016-03-31 | 2016-03-31 | 物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6540577B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6968342B2 (ja) * | 2017-12-25 | 2021-11-17 | オムロン株式会社 | 物体認識処理装置、物体認識処理方法及びプログラム |
CN109636854A (zh) * | 2018-12-18 | 2019-04-16 | 重庆邮电大学 | 一种基于line-mod模板匹配的增强现实三维跟踪注册方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4686406B2 (ja) * | 2006-06-14 | 2011-05-25 | 富士フイルム株式会社 | 撮像装置およびその制御方法 |
JP5077164B2 (ja) * | 2008-09-16 | 2012-11-21 | オムロン株式会社 | 追跡装置及び追跡方法 |
-
2016
- 2016-03-31 JP JP2016071416A patent/JP6540577B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017182600A (ja) | 2017-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6528723B2 (ja) | 物体認識装置、物体認識方法及びプログラム | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
CN110546651B (zh) | 用于识别对象的方法、系统和计算机可读介质 | |
US9665803B2 (en) | Image processing apparatus and image processing method | |
US10748294B2 (en) | Method, system, and computer-readable recording medium for image object tracking | |
US20150213328A1 (en) | Object identification apparatus, object identification method, and program | |
US9679221B2 (en) | Object identification apparatus, object identification method, and program | |
TW201437925A (zh) | 物體識別裝置、方法及電腦程式產品 | |
US20180075291A1 (en) | Biometrics authentication based on a normalized image of an object | |
JP2018067120A (ja) | 指紋処理装置、指紋処理方法、プログラム、指紋処理回路 | |
CN108573471B (zh) | 图像处理装置、图像处理方法以及记录介质 | |
US9633284B2 (en) | Image processing apparatus and image processing method of identifying object in image | |
US10528844B2 (en) | Method and apparatus for distance measurement | |
US20220398824A1 (en) | Reading system, reading device, reading method, and storage medium | |
KR20170024303A (ko) | 얼굴의 특징점 검출 시스템 및 방법 | |
JP4625949B2 (ja) | 物体追跡方法および物体追跡装置ならびにプログラム | |
KR20170108339A (ko) | 영상에서 다수의 객체를 인식하는 방법 | |
JP2018124689A (ja) | 移動物体検出装置、移動物体検出システム、及び移動物体検出方法 | |
JP6540577B2 (ja) | 物体認識装置 | |
JP2018109824A (ja) | 電子制御装置、電子制御システムおよび電子制御方法 | |
KR101521136B1 (ko) | 얼굴 인식 방법 및 얼굴 인식 장치 | |
JP2014199505A (ja) | 画像認識装置、画像認識方法及びプログラム | |
Chen et al. | Method of item recognition based on SIFT and SURF | |
US20230377188A1 (en) | Group specification apparatus, group specification method, and computer-readable recording medium | |
KR102035245B1 (ko) | 타겟 마커 위치 추정 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190527 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6540577 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |