JP6540577B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP6540577B2
JP6540577B2 JP2016071416A JP2016071416A JP6540577B2 JP 6540577 B2 JP6540577 B2 JP 6540577B2 JP 2016071416 A JP2016071416 A JP 2016071416A JP 2016071416 A JP2016071416 A JP 2016071416A JP 6540577 B2 JP6540577 B2 JP 6540577B2
Authority
JP
Japan
Prior art keywords
candidate
orientation
information
object candidate
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016071416A
Other languages
English (en)
Other versions
JP2017182600A (ja
Inventor
訓成 小堀
訓成 小堀
国松 橋本
国松 橋本
実 山内
実 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016071416A priority Critical patent/JP6540577B2/ja
Publication of JP2017182600A publication Critical patent/JP2017182600A/ja
Application granted granted Critical
Publication of JP6540577B2 publication Critical patent/JP6540577B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体を認識する物体認識装置に関する。
物体の撮像画像から抽出した輪郭情報に基づいて、物体の位置及び姿勢(位置姿勢)を検出する装置が知られている(例えば、特許文献1参照)。
特開2008−015895号公報
上記物体の位置姿勢の誤検出を抑制するため、例えば、検出した物体の位置姿勢を更に物体の色情報や距離情報に基づいて判定することが考えられる。この判定処理では、その判定条件を厳しく設定すれば、物体の位置姿勢の誤検出を容易に抑制できる。しかし、物体が静止している状況下では、色情報や距離情報などのセンサ値は絶えず変化している。このため、時刻フレームによっては、そのセンサ値のばらつきに起因して、厳しく設定した判定条件を満足できず物体の位置姿勢の未検出となることがある(図12)。
本発明は、このような問題点に鑑みてなされたものであり、物体の位置姿勢の誤検出及び未検出を同時に抑制し、高精度な物体認識を実現できる物体認識装置を提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、
認識対象物の画像情報を取得する情報取得手段と、
複数の物体のモデル画像を記憶する記憶手段と、
前記情報取得手段により取得された認識対象物の画像情報の特徴量と、前記記憶手段のモデル画像の特徴量と、を比較し、前記認識対象物の物体候補を検出し、該物体候補の位置及び姿勢候補を算出する検出手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記検出手段により検出された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第1判定手段と、
前記第1判定手段から出力される物体候補及び該物体候補の位置及び姿勢候補に基づいて、前記物体候補及び該物体候補の位置及び姿勢候補同士をまとめる統合処理を行う統合手段と、
前記統合手段により統合された前記物体候補及び該物体候補の位置及び姿勢候補の幾何学形状に基づいて追跡処理を行う追跡手段と、
前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記追跡手段から出力された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が前記第1判定閾値よりも緩い第2判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第2判定手段と、を備え、
前記統合手段は、フレーム時刻t(tは任意の自然数)において前記第2判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、次回のフレーム時刻t+1において前記第1判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、に基づいて前記統合処理を行い、該統合処理した物体候補及び該物体候補の位置及び姿勢候補を、前記フレーム時刻t+1における前記認識対象物の物体及び該物体の位置及び姿勢として出力する、
ことを特徴とする物体認識装置
である。
本発明によれば、物体の位置姿勢の誤検出及び未検出を同時に抑制し、高精度な物体認識を実現できる物体認識装置を提供することができる。
図1は、本発明の一実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。 図1は、本発明の一実施形態に係る物体認識装置のメモリの構成を示すブロック図である。 CLBP判定器を用いた比較方法を説明するための図である。 MeanShfit法を説明するための図である。 ICPトラッキングを説明するための図である。 ICPトラッキングを説明するための図である。 ICPトラッキングを説明するための図である。 各時刻tフレームにおいて、物体認識装置から出力される物体位置姿勢候補を示す図である。 本発明の一実施形態に係る物体認識装置を用いてシミュレーションを行った結果を示す図である。 本発明の一実施形態に係る物体認識装置を用いてシミュレーションを行った結果を示す図である。 統合処理を行い位置を変更した構成を示す図である。 時刻フレームによって物体位置姿勢が未検出となる場合を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。本実施形態に係る物体認識装置1は、任意の3次元形状の認識対象物の認識及びその位置及び姿勢(位置姿勢)を推定する装置である。
物体認識装置1は、例えば、演算処理等を行うCPU(Central Processing Unit)11、CPU11によって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ12、外部と信号の入出力を行うインターフェイス部(I/F)13などからなるマイクロコンピュータを中心にして、ハードウェア構成されている(図2)。CPU11、メモリ12及びインターフェイス部13は、データバス14などを介して相互に接続されている。
物体認識装置1は、画像情報取得部2と、検出部3と、第1判定部4と、統合処理部5と、トラッキング処理部6と、第2判定部7と、を備えている。
画像情報取得部2は、情報取得手段の一具体例である。画像情報取得部2は、カメラや距離センサ(距離画像センサ、ミリ波センサ、超音波センサなど)などセンサを用いて、認識対象物の画像情報(RGB輝度情報(色情報)や距離情報を含む)を取得する。
検出部3は、検出手段の一具体例である。検出部3は、認識対象物の画像情報に基づいて、認識対象物の物体候補(その物体が何であるか)とその位置及び姿勢の候補(以下、物体位置姿勢候補)を検出する。検出部3は、例えば、LineMode検出器である。LineMode検出器は、離散化された複数の種類の特徴量を用いたテンプレートについて、 メモリ配置を工夫することで並列計算を行い、高速に物体を検出する検出器である。
詳細なアルゴリズムは、例えば、非特許文献
S.Hinterstoisser,C.Cagniart,S.Iiic,P.Sturm,N.Navab,P.Fua,V.Lepetit Gradient Response Maps for Real-Time Detection of Texture-Less Objects IEEE Transactions on Pattern Analysis and Maschine Intelligence(TPAMI)
に詳細に開示されており、これを援用できるものとする。
例えば、検出部3は、認識対象物の画像情報(対象物画像)の特徴量と、モデルの画像(モデル画像)の特徴量と、を比較して、モデル画像として登録された物体(アイテム)の中から、その認識対象物がどの物体であるかを推定する。
メモリ12は、記憶手段の一具体例である。メモリ12は、例えば、複数の物体の画像をモデル画像として記憶している。
検出部3は、例えば、対象物画像の特徴量と、メモリ12の複数のモデル画像の特徴量と、の相関値を算出し、算出した相関値が所定値以上となるモデル画像の物体を認識対象物の物体候補として推定する。
さらに、検出部3は、例えば、K近傍法(k-nearest neighbor法)を用いて、対象物画像とモデル画像の特徴量の対応付けを行い、さらに、RANSAC(Random Sample Consensus)法を用いて、その幾何学的な構成に基づいて、推定した物体候補の位置姿勢候補を算出する。なお、上記物体の推定方法及び位置姿勢の算出方法は一例であり、これに限定されない。
検出部3は、LineMode検出器であるが、これに限定されず、例えば、PnP検出器、SHOT検出器、Bayse検出器、HOG(Histograms of Oriented Gradients)検出器、SURF(Speeded Up Robust Features)検出器であってもよい。
PnP検出器は、SIFT(Scale-Invariant Feature Transform)又はA−KAZE(Accelerated KAZE)特徴量を用いた検出器である。
SIFTについては、例えば、非特許文献
David G.Lowe,”Distinctive image features from scale-invariant keypoints, ” International Journal of Computer Vision, 60, 2 (2004), pp.91-110
に詳細に開示されており、これを援用できるものとする。
A−KAZEについては、例えば、非特許文献
Fast Explicit Diffusion for Accelerrated Features in Nonlinear Scale Spaces Pablo F. Alcantarilla, Jesus Nuevo and Adrien Bartoli. In British Machine Vision Conference (BMVC). Bristol, UK. September 2013
に詳細に開示されており、これを援用できるものとする。
SHOT検出器は、SHOT(Signature of Histograms of OrienTations)特徴量を用いた検出器である。
SHOTについては、例えば、非特許文献
Tombari et al. Unique signatures of histograms for local surface description. ECCV 2010
に詳細に開示されており、これを援用できるものとする。
Bayse検出器は、ベイジアンネットワークでローカルパッチを学習したネットワークに基づいて検出を行う検出器である。
検出部3は、検出した物体候補とその位置姿勢候補(以下、物体位置姿勢候補)を第1判定部4に出力する。
本実施形態において、上記検出部3による物体位置姿勢候補の誤検出を抑制するため、検出部3が物体位置姿勢候補を検出した後、さらに、後述の第2判定部7は、検出部3により検出された物体位置姿勢候補を色情報及び距離情報の少なく一方に基づいて判定する。この判定処理では、モデル画像と対象物画像間の、色情報や距離情報の比較をピクセル単位で実施し、一致しているか否かを判定している。
ここで、従来、その判定条件を厳しく設定すれば、上記物体位置姿勢候補の誤検出を容易に抑制できる。しかし、画像情報取得部は、上述の如く、RGB輝度情報や距離情報を取得できるセンサを利用している。特に、RGBの色情報(色味)は不安定であり、距離情報も認識対象物の端点において距離検出のための反射が不安定となる。このため、認識対象物が静的状態であったとしても、センサ計測値は絶えず変化する。したがって、ある時刻フレームによっては、そのセンサ計測値のばらつきによって、厳しく設定した判定条件を満足できず物体位置姿勢候補の未検出となり得る(図12)。このように、誤検出と未検出はトレードオフの関係にあり、問題となる。
これに対し、本実施形態において、第1判定部4は、画像情報取得部2により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、検出部3により検出された物体位置姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値以上となる、物体位置姿勢候補を統合処理部5に出力する。統合処理部5は、第1判定部4から出力される物体位置姿勢候補に基づいて、物体位置姿勢候補同士をまとめる統合処理を行う。トラッキング処理部6は、統合処理部5により統合された物体位置姿勢候補の幾何学形状に基づいて追跡処理を行う。第2判定部7は、画像情報取得部2により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、トラッキング処理部6から出力された物体位置姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値よりも緩い第2判定閾値以上となる、物体位置姿勢を出力する。
これにより、第1判定部4の厳しい第1判定閾値で判定された物体位置姿勢候補は、次回以降に持ち越され、第2判定部7の緩い第2判定閾値で判定され、その結果が統合処理部5で統合され、出力される。したがって、各時刻フレームによって、その判定閾値を満足できず物体位置姿勢の未検出となるような問題を抑制できる。
さらに、第2判定部7の第2判定閾値は緩く緩和され、その背反として誤検出の増加を招く可能性がある。しかし、本実施形態においては、上述のように、緩い第2判定閾値を用いた第2判定部7の前に、トラッキング処理部6が、物体位置姿勢候補の幾何学形状に基づいて追跡処理を行う。これにより、幾何学形状に一貫性のない物体位置姿勢候補を排除できるため、誤検出の増加を抑制できる。すなわち、物体位置姿勢の誤検出及び未検出を同時に抑制できる。
また、本実施形態において、統合処理部5は、フレーム時刻t(tは任意の自然数)において第2判定部7から出力された物体位置姿勢候補と、次回のフレーム時刻t+1において第1判定部4から出力された物体位置姿勢候補と、に基づいて統合処理を行い、該統合処理した物体位置姿勢候補を、フレーム時刻t+1における認識対象物の物体位置姿勢として出力する。
これにより、第1判定部4から出力される物体位置姿勢候補によって、フレーム時刻t+1における新しい検出結果が反映されると共に、第2判定部7から出力される物体位置姿勢候補によって、フレーム時刻tにおける過去の検出結果を活用できる。
上述したような第1及び第2判定部4、7の切り分けを行うことで、上記誤検出と未検出のトレードオフを良好に図り、物体の位置姿勢の誤検出及び未検出を同時に抑制し、高精度な物体認識を実現できる。
第1判定部4は、第1判定手段の一具体例である。第1判定部4は、画像情報取得部2により取得された対象物画像の距離情報及び色情報のうちの少なくとも一方と、検出部3により検出された物体位置姿勢候補と、に基づいて、対象物画像と検出部3により検出された物体位置姿勢候補のモデル画像とを比較する。
第1判定部4は、例えば、レンダリング処理などを行って、上記対象物画像とモデル画像とを比較する。第1判定部4は、このレンダリング処理において、モデル画像上の3次元物体(モデルとして予め登録された3次元物体)を、検出部3により検出された物体位置姿勢候補に基づいて、対象物画像上に投影する。
第1判定部4は、物体位置姿勢候補毎に、そのモデル画像と対象物画像との比較を行う。
第1判定部4は、対象物画像とモデル画像とを比較した結果、検出部3により検出された物体位置姿勢候補の中から、一定以上の信頼度がある物体位置姿勢候補を最終的な結果として出力する。
第1判定部4は、例えば、対象物画像の距離情報と検出部3により検出された物体位置姿勢候補のモデル画像の距離情報とを比較し、その一致度の差分が第1判定閾値以上であるとき、信頼度があると判定する。第1判定閾値は、予めメモリ12などに設定されており、ユーザによって任意に設定変更できるように構成されている。第1判定閾値は、後述の第2判定閾値よりも厳しい値が設定されている。したがって、第1判定部4により判定された物体位置姿勢候補の信頼度は、高くなる。
なお、第1判定部4は、対象物画像の距離情報と検出部3により検出された物体位置姿勢候補のモデル画像の距離情報とを比較し、その不一致度の差分が判定閾値以下であるとき、信頼度があると判定してもよい。
第1判定部4は、例えば、対象物画像の色情報(下記(A)乃至(D)のうちの少なくとも1つ)と物体位置姿勢候補のモデル画像の色情報とを比較し、その一致度の差分が第1判定閾値以上であるとき、その物体位置姿勢候補は一定以上の信頼度があると判定する。
(A)色相
第1判定部4は、色相判定器を用いて、RGB輝度情報を、HSV情報(色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Lightness・Brightness)の三つの成分からなる色空間情報)に変換し、その色相Hを用いて上記比較行う。
(B)RGB
第1判定部4は、RGB判定器を用いて、RGB輝度情報の生値を用いて上記比較を行う。
(C)グレースケール(Gray Scale)
第1判定部4は、Gray_Scale判定器を用いて、RGB輝度情報を、グレースケール情報(白黒情報)に変換し、その変換した値を用いて、上記比較を行う。
(D)CLBP(Color Local Binray Pattern)
なお、上記(A)乃至(D)の色情報は一例であり、これに限定されず、任意の色情報であってもよい。
図3示す如く、第1判定部4は、CLBP判定器を用いて、対象物画像およびモデル画像をカラーチャンネル分離(R画像、G画像、B画像)を行い(2)、各チャンネルのLBP(LBP(R)、LBP(G)、LBP(B))を算出する(3)。そして、第1判定部4は、算出したLBPに基づいて、ヒストグラムを作成し(4)、作成したヒストグラムを用いて上記比較を行う。なお、LBPは、画像の照明変化の変動に強く、LBPをヒストグラム化することで、さらに、上記レンダリングした際の摂動に強くなり、判定精度が向上する。
第1判定部4は、上述の比較を行い、一定以上の信頼度があると判定した最終的な結果(物体位置姿勢候補)を、候補群(new)として、メモリ12の候補群(new)データベース8に出力する。
統合処理部5は、統合手段の一具体例である。統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、後述の候補群(update)データベース9に格納された候補群(update)と、を統合する。これにより、第1判定部4からの候補群(new)によって新しい検出結果が反映されると共に、第2判定部7からの候補群(update)によって過去の検出結果を活用できる。統合処理部5は、物体毎に、位置姿勢候補群の中で、類似するもの同志を同一のものとして統合するクラスタリング処理を行う。統合処理部5は、クラスタリング処理として、例えば、MeanShfit法を用いる。MeanShfit法では、例えば、図4に示す如く、物体Aの位置姿勢候補(1)と物体Aの位置姿勢候補(2)は距離が近く類似している。このため、物体Aの位置姿勢候補(1)及び(2)は、両者の平均となる位置姿勢候補(4)に統合される。なお、物体Aの位置姿勢候補(3)は、類似するものがないため、統合されない。
統合処理部5は、上述のように、統合した物体位置姿勢候補を、候補群(hold)として、メモリ12の候補群(hold)データベース10に出力する。
トラッキング処理部6は、追跡手段の一具体例である。トラッキング処理部6は、メモリ12の候補群(hold)データベース10に格納された候補群(hold)に対してトラッキング処理を行う。トラッキング処理部6は、トラッキング処理において、候補群(hold)の物体位置姿勢候補を物体毎に、追跡(トラッキング)する。
ここで、第2判定部9は、後述の如く、第1判定部4の第1判定閾値(厳しい判定値)よりも大きい第2判定閾値(緩い判定値)を用いて判定を行う。この判定閾値の緩和によって、第2判定部9による誤検出の増加が懸念されるが、本実施形態においては、第2判定部9の判定の前に、以下のトラッキング処理部6によるトラッキング処理を行う。このトラッキング処理では、幾何的な全体形状からトラッキングを行うため、上記誤検出を抑制できる。
トラッキング処理部6は、例えば、物体の幾何形状情報に基づいて物体位置姿勢候補を追跡するICP(Iterative Closest Point)トラッキング(ICPアルゴリズムを用いたトラッキング処理)を行う。
ICPトラッキングとは、例えば、図5に示す如く、物体位置姿勢候補のモデルと認識対象物のポイントクラウドの対応付けを行い、その誤差が小さくなるように最小2乗法を用いて、図6に示す如く、物体位置姿勢候補のモデルと認識対象物間の幾何量(回転及び並進量)を求める手法である。
ここで、ICPトラッキングは、一般に計算コストがかかる処理である。このため、本実施形態においては、事前にICPトラッキングに必要な最近傍点を計算し、この最近傍点を用いてICPトラッキングを行う。最初に上記点の対応付けを行う必要がある。このため、本手法では、例えば、図7に示す如く、モデルに対して3次元ボクセルグリッドを構築し、各グリッドからモデルまでの最近傍点を算出し、各ボクセルに格納する。
各ボクセルには、認識対象物までの最近傍点の情報(最近傍点の座標や最近傍点のIndex)を格納する。ボクセル外のレンジの点は無視する。本実施形態において、最近傍点は、point to plane(点から面)であるが、これに限定されず、point to point(点から点)であってもよい。なお、図7に示す距離X、Y、Zは、ボクセルの1辺当たりのグリッド数と格子の単位(数mm)から決定することができる。
トラッキング処理部6は、上述したICPトラッキングを行い、例えば、求めた幾何量が所定量以上で大きい場合に、幾何形状に一貫性が無いとして、その物体位置姿勢候補を破棄する。したがって、このICPトラッキング処理後に、第2判定部9が緩い第2判定閾値を用いて判定を行った場合でも上述した誤検出を抑制できる。
第2判定部9は、厳しい第1判定閾値の代わりに緩い第2判定閾値を用いて、上記第1判定部4と同一の判定処理を行う。第2判定部9は、第1判定部4と同様に上記比較を行い、その最終的な結果(物体の位置姿勢候補)を、候補群(update)として、メモリ12の候補群(update)データベース9に出力する。
上述したように、一度、厳しい判定閾値の第1判定部4によって判定し検出した物体位置姿勢候補を、次回の時刻フレームに持越し、その時刻フレームで、緩い判定閾値の第2判定部9によって再度判定し検出する。これにより、次回の時刻フレームに持越された物体位置姿勢候補は、その時刻フレームで検出されるため、各時刻フレームにおいて物体位置姿勢が未検出となるのを防止できる。
図8は、各時刻tフレームにおいて、物体認識装置から出力される物体位置姿勢候補を示す図である。
(時刻tフレーム)
時刻t(tは任意の自然数)フレームにおいて、検出部3は、画像情報取得部2からの認識対象物の画像情報に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて判定し、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定し検出する。時刻tフレームにおいて、物体認識装置1は、その第1判定部4により判定された物体位置姿勢候補を出力する(1)。さらに、第1判定部4は、その物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
(時刻t+1フレーム)
上記時刻tフレームの候補群(new)は、候補群(hold)として次回の時刻t+1フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。時刻t+1フレームにおいて、物体認識装置1は、その第2判定部7により判定された物体位置姿勢候補を出力する(2)。さらに、第2判定部7は、その物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
(時刻t+2フレーム)
上記時刻t+1フレームの候補群(update)は、候補群(hold)として、次回の時刻t+2フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。そして、第2判定部7は、その判定した物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
この時刻t+2フレームにおいて、検出部3は、画像情報取得部2からの対象物画像に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。第1判定部4は、判定した物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(update)データベース9に格納された候補群(update)と、を統合する。フレームt+2において、物体認識装置1は、その統合処理部5により統合された物体位置姿勢候補を出力する(3)。
(時刻t+3フレーム)
上記時刻t+2フレームにおいて、統合処理部5により統合された物体位置姿勢候補は、候補群(hold)として、次回の時刻t+3フレームに持ち越され、トラッキング処理部6は、この候補群(hold)の物体位置姿勢候補に対してICPトラッキングを行う。第2判定部7は、トラッキング処理部6によりトラッキング処理された物体位置姿勢候補に対して、緩い第2判定閾値を用いて判定し、トラッキング処理された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。そして、第2判定部7は、その判定した物体位置姿勢候補を、候補群(update)として、メモリ12の候補群(update)データベース9に出力し、該データベース9を更新する。
この時刻t+3フレームにおいて、検出部3は、画像情報取得部2からの対象物画像に基づいて、物体位置姿勢候補を検出する。そして、第1判定部4は、厳しい第1判定閾値を用いて、検出部3により検出された物体位置姿勢候補の中から一定以上の信頼度を有する物体位置姿勢候補を判定する。第1判定部4は、判定した物体位置姿勢候補を、候補群(new)として、メモリ12の候補群(new)データベース8に出力し、該データベース8を更新する。
統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(update)データベース9に格納された候補群(update)と、を統合する。時刻t+3フレームにおいて、物体認識装置1は、その統合処理部5により統合された物体位置姿勢候補を出力する(4)。
以降の時刻フレームにおいては、上記(時刻t+3フレーム)と同様の処理を繰り返す。
図9及び図10は、本実施形態に係る物体認識装置を用いてシミュレーションを行った結果を示す図である。本シミュレーションにおいて、物体19品目から11構成、各構成360°の回転した画像で25枚の画像、近距離及び遠距離の2タイプ、繰返し10回、の条件で、5500画像を用いている。これら画像を用いて、上記第1判定部のみを用いた物体認識装置(LineMod)と、本実施形態に係る物体認識装置(LineMode+ICP)との比較を行っている。
図9に示すように精度(PRECISION)は両者とも約0.8で良好に維持され、誤検出が抑制されていることが分かる。一方で、図10に示す如く、再現率(RECALL)は、上記第1判定部のみを用いた物体認識装置(LineMod)が約0.60に対し、本実施形態に係る物体認識装置(LineMode+ICP)は、約0.68であり、約8%向上し未検出率が抑制されていることがわかる。すなわち、本実施形態に係る物体認識装置によれば、誤検出と未検出のトレードオフが良好に図られ、物体の位置姿勢の誤検出及び未検出を同時に抑制し、高精度な物体認識を実現できることが分かる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記実施形態において、統合処理を行い位置を変更してもよい。図11に示す如く、第2判定部7は、判定した物体位置姿勢候補を、候補群(update)データベース9および候補群(hold)データベース10を介して統合処理部5に出力してもよい。統合処理部5は、メモリ12の候補群(new)データベース8に格納された候補群(new)と、候補群(hold)データベース9に格納された候補群(hold)と、を統合する。
また、本発明は、例えば、図8に示す処理を、CPU11又はGPU(Graphics Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 物体認識装置、2 画像情報取得部、3 検出部、4 第1判定部、5 統合処理部、6 トラッキング処理部、7 第2判定部、8 候補群(new)データベース、9 候補群(update)データベース、10 候補群(hold)データベース

Claims (1)

  1. 認識対象物の画像情報を取得する情報取得手段と、
    複数の物体のモデル画像を記憶する記憶手段と、
    前記情報取得手段により取得された認識対象物の画像情報の特徴量と、前記記憶手段のモデル画像の特徴量と、を比較し、前記認識対象物の物体候補を検出し、該物体候補の位置及び姿勢候補を算出する検出手段と、
    前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記検出手段により検出された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が第1判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第1判定手段と、
    前記第1判定手段から出力される物体候補及び該物体候補の位置及び姿勢候補に基づいて、前記物体候補及び該物体候補の位置及び姿勢候補同士をまとめる統合処理を行う統合手段と、
    前記統合手段により統合された前記物体候補及び該物体候補の位置及び姿勢候補の幾何学形状に基づいて追跡処理を行う追跡手段と、
    前記情報取得手段により取得された認識対象物の画像情報の距離情報および色情報のうちの少なくとも一方と、前記追跡手段から出力された物体候補及び該物体候補の位置及び姿勢候補のモデル画像の距離情報および色情報のうちの少なくとも一方と、の一致度の差分が前記第1判定閾値よりも緩い第2判定閾値以上となる、前記物体候補及び該物体候補の位置及び姿勢候補を出力する第2判定手段と、を備え、
    前記統合手段は、フレーム時刻t(tは任意の自然数)において前記第2判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、次回のフレーム時刻t+1において前記第1判定手段から出力された物体候補及び該物体候補の位置及び姿勢候補と、に基づいて前記統合処理を行い、該統合処理した物体候補及び該物体候補の位置及び姿勢候補を、前記フレーム時刻t+1における前記認識対象物の物体及び該物体の位置及び姿勢として出力する、
    ことを特徴とする物体認識装置。
JP2016071416A 2016-03-31 2016-03-31 物体認識装置 Expired - Fee Related JP6540577B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016071416A JP6540577B2 (ja) 2016-03-31 2016-03-31 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071416A JP6540577B2 (ja) 2016-03-31 2016-03-31 物体認識装置

Publications (2)

Publication Number Publication Date
JP2017182600A JP2017182600A (ja) 2017-10-05
JP6540577B2 true JP6540577B2 (ja) 2019-07-10

Family

ID=60007146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071416A Expired - Fee Related JP6540577B2 (ja) 2016-03-31 2016-03-31 物体認識装置

Country Status (1)

Country Link
JP (1) JP6540577B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6968342B2 (ja) * 2017-12-25 2021-11-17 オムロン株式会社 物体認識処理装置、物体認識処理方法及びプログラム
CN109636854A (zh) * 2018-12-18 2019-04-16 重庆邮电大学 一种基于line-mod模板匹配的增强现实三维跟踪注册方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4686406B2 (ja) * 2006-06-14 2011-05-25 富士フイルム株式会社 撮像装置およびその制御方法
JP5077164B2 (ja) * 2008-09-16 2012-11-21 オムロン株式会社 追跡装置及び追跡方法

Also Published As

Publication number Publication date
JP2017182600A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6528723B2 (ja) 物体認識装置、物体認識方法及びプログラム
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
CN110546651B (zh) 用于识别对象的方法、系统和计算机可读介质
US9665803B2 (en) Image processing apparatus and image processing method
US10748294B2 (en) Method, system, and computer-readable recording medium for image object tracking
US20150213328A1 (en) Object identification apparatus, object identification method, and program
US9679221B2 (en) Object identification apparatus, object identification method, and program
TW201437925A (zh) 物體識別裝置、方法及電腦程式產品
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
JP2018067120A (ja) 指紋処理装置、指紋処理方法、プログラム、指紋処理回路
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
US10528844B2 (en) Method and apparatus for distance measurement
US20220398824A1 (en) Reading system, reading device, reading method, and storage medium
KR20170024303A (ko) 얼굴의 특징점 검출 시스템 및 방법
JP4625949B2 (ja) 物体追跡方法および物体追跡装置ならびにプログラム
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
JP2018124689A (ja) 移動物体検出装置、移動物体検出システム、及び移動物体検出方法
JP6540577B2 (ja) 物体認識装置
JP2018109824A (ja) 電子制御装置、電子制御システムおよび電子制御方法
KR101521136B1 (ko) 얼굴 인식 방법 및 얼굴 인식 장치
JP2014199505A (ja) 画像認識装置、画像認識方法及びプログラム
Chen et al. Method of item recognition based on SIFT and SURF
US20230377188A1 (en) Group specification apparatus, group specification method, and computer-readable recording medium
KR102035245B1 (ko) 타겟 마커 위치 추정 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190527

R151 Written notification of patent or utility model registration

Ref document number: 6540577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees