JP2018072198A - 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム - Google Patents

位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム Download PDF

Info

Publication number
JP2018072198A
JP2018072198A JP2016212896A JP2016212896A JP2018072198A JP 2018072198 A JP2018072198 A JP 2018072198A JP 2016212896 A JP2016212896 A JP 2016212896A JP 2016212896 A JP2016212896 A JP 2016212896A JP 2018072198 A JP2018072198 A JP 2018072198A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
target object
pattern
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212896A
Other languages
English (en)
Inventor
一樹 長村
Kazuki Nagamura
一樹 長村
康 洲鎌
Yasushi Sukama
康 洲鎌
村瀬 太一
Taichi Murase
太一 村瀬
吉武 敏幸
Toshiyuki Yoshitake
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016212896A priority Critical patent/JP2018072198A/ja
Priority to US15/726,466 priority patent/US20180122097A1/en
Publication of JP2018072198A publication Critical patent/JP2018072198A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】対象物体の位置及び姿勢を推定する際の計算コストを低減させる位置姿勢推定装置、位置姿勢推定方法を提供する。【解決手段】対象物体検出部が、検出された点群データから、対象物体を表す点群データを検出するS100。パターン群生成部が、対象物体を表す点群データの位置で、モデルデータの位置及び姿勢の各々を変化させたパターン群を生成するS108。画像変換部が、検出された点群データと、パターン群生成部によって生成されたパターン群の各パターンの点群データとを、距離画像へ変換するS110。画像照合部が、検出された点群データの距離画像と、パターン群の各パターンの点群データの距離画像の各々とを照合するS112。位置姿勢推定部が、画像照合部によって得られた照合結果に基づいて、パターンの点群データの距離画像を選択し、選択された距離画像に対応するパターンに基づいて対象物体の位置及び姿勢を推定するS114。【選択図】図11

Description

開示の技術は、位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラムに関する。
対象物の存在を判定する対象物画像判定装置が知られている。この対象物画像判定装置では、監視画像にて対象物が設置物により隠蔽されずに投影される推定投影領域を、空間内の各位置に対象物モデルを配置して求め、当該位置と推定投影領域とを対応付けた推定投影領域データを予め記憶部に保存する。そして、対象物画像判定装置は、追跡処理では推定投影領域データを参照し、注目対象物の予測位置での推定投影領域を取得する。そして、対象物画像判定装置は、推定投影領域の画像特徴から対象物の像の存在を判定する。
また、対象物の追跡を行う画像処理装置が知られている。この画像処理装置は、追跡開始が判定されたら当該画像フレームのエッジ画像を生成する。そして、画像処理装置は、追跡対象の形状を表すBスプライン曲線の制御点列を、あらかじめ準備した複数の基準形状を表すBスプライン曲線の制御点列の線形和で表現する際に各制御点列にかかる係数のセットの空間にパーティクルを分布させる。画像処理装置は、さらに形状空間ベクトルの空間においてもパーティクルを分布させ、各パーティクルの尤度観測、確率密度分布を取得する。そして、画像処理装置は、確率密度分布によって各パラメータに重み付け平均して得られる曲線を追跡結果として生成する。
特開2012−155595号公報 国際公開第2010/073432号
近年では、対象物体の位置及び姿勢を推定する際に3次元の点群データが用いられることが多い。しかし、3次元点群データを用いて対象物体の位置及び姿勢を推定する場合には、計算コストが増加してしまう。
一つの側面では、開示の技術は、3次元の点群データを用いて対象物体の位置及び姿勢を推定する場合に、計算コストを低減させることが目的である。
一つの実施態様では、3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出する。そして、検出された前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成する。そして、検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換する。そして、検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合する。そして、照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する。
一つの側面として、3次元の点群データを用いて対象物体の位置及び姿勢を推定する場合に、計算コストを低減させることができる、という効果を有する。
本実施形態に係る位置姿勢推定装置の概略ブロック図である。 3次元の点群データの一例を示す図である。 点群データが格納されたテーブルの一例を示す図である。 モデルデータが格納されたテーブルの一例を示す図である。 3次元の点群データであるモデルデータの一例を示す図である。 点群データXから検出された対象物体cの点群データCを説明するための説明図である。 モデルデータをランダムに変化させたパターン群を説明するための説明図である。 距離画像の一例を示す図である。 センサによって検出された点群データの距離画像とパターン群の各パターンの距離画像との照合を説明するための説明図である。 本実施形態に係る位置姿勢推定装置の制御部として機能するコンピュータの概略構成を示すブロック図である。 本実施形態における位置姿勢推定処理の一例を示すフローチャートである。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
[実施形態]
図1に示す位置姿勢推定装置10は、センサ12と、制御部14とを備えている。本実施形態では、位置姿勢推定装置10がパーティクルフィルタを用いて対象物体の位置及び姿勢を推定する場合を例に説明する。また、本実施形態の位置姿勢推定装置10は、対象物体の位置及び姿勢に基づいて、対象物体の追跡を行う。
センサ12は、検出対象範囲における、物体の表面上の各点の3次元位置を示す点群データを検出する。センサ12は、例えば、3次元点群データを検出可能なレーザレーダ、モーションセンサーデバイス等によって実現される。センサ12は、開示の技術の検出部の一例である。
制御部14は、センサ12によって検出された3次元の点群データに含まれる対象物体の位置及び姿勢を推定する。そして、制御部14は、対象物体を追跡する。制御部14は、図1に示すように、情報取得部16と、点群データ記憶部17と、モデルデータ記憶部18と、対象物体検出部20と、パターン群生成部22と、画像変換部24と、画像照合部26と、位置姿勢推定部28とを備える。
情報取得部16は、センサ12によって検出された、3次元の点群データを取得する。図2に、3次元の点群データの一例を示す。図2に示す例では、物体aの点群データA、物体bの点群データB、及び物体cの点群データCを含む点群データXが検出されている。なお、点群データXの各点には3次元位置が付与されている。
点群データ記憶部17には、情報取得部16によって取得された点群データXが時刻と対応付けられて格納される。点群データは各時刻において検出される。点群データXは、例えば、図3に示すようにテーブルの形式で格納される。例えば、図3に示す点群データ「(q1,r1,s1),(q2,r2,s2),…,(qx,rx,sx)」は、「(q1,r1,s1)」、「(q2,r2,s2)」、・・・、「(qx,rx,sx)」の各点が含まれることを表している。また、「(q1,r1,s1)」、「(q2,r2,s2)」、・・・、「(qx,rx,sx)」の各々は、各点の3次元位置座標を示している。
モデルデータ記憶部18には、予め用意された、検出したい対象物体を表す3次元の点群データであるモデルデータが格納されている。モデルデータは、例えば、図4に示すような形式で格納される。図4に示す例では、モデルデータ「(Q1,R1,S1),(Q2,R2,S2),…,(Qx,Rx,Sx)」は、各点の3次元位置座標を示している。モデルデータは、検出したい対象物体に応じて予め用意される。例えば、対象物体として人を設定する場合には、図5に示すように、人物モデルUを予め用意することができる。本実施形態では、モデルデータの一例として、人物モデルUを用いる場合を例に説明する。
対象物体検出部20は、点群データ記憶部17に格納された点群データの各々から最新の点群データを取得する。以下では、対象物体検出部20は、点群データ記憶部17に格納された点群データから、最新の点群データとして上記図2に示した点群データXが取得される場合を例に説明する。
対象物体検出部20は、取得した点群データXから、対象物体を表す点群データを検出する。例えば、対象物体として人を検出する場合、対象物体検出部20は、取得した点群データXとモデルデータ記憶部18に格納されたモデルデータの一例である人物モデルUとに基づいて、点群データXから、対象物体cを表す点群データCを検出する。対象物体検出部20は、パーティクルフィルタにおける観測処理として、対象物体の検出処理を行う。
例えば、対象物体検出部20は、点群データXとモデルデータ記憶部18に格納されたモデルデータである人物モデルUとから、Signature of Histograms of Orientations(SHOT)特徴量を抽出し、3次元特徴マッチングを行う。
SHOT特徴量を用いて3次元特徴マッチングを行う場合には、モデルデータ内の特徴的な部分が予め設定され、特徴的な部分の位置と当該部分における特徴量とがキーポイントとして予め設定される。この場合、対象物体検出部20は、人物モデルUのキーポイントにおける特徴量と、点群データXのキーポイントにおける特徴量との間で、3次元特徴マッチングを行う。そして、対象物体検出部20は、人物モデルUのキーポイントと点群データXのキーポイントとの間の3次元特徴マッチングの結果に基づいて、点群データXのうち人物モデルUに対応する点群データCを特定する。
図6に、人物モデルUと点群データXとの間の3次元特徴マッチング結果の例を示す。図6に示すように、3次元マッチングを行うことにより、上記図2に示す点群データXのうち、人物モデルUに対応する点群データCが対象物体cとして検出される。例えば、対象物体検出部20は、3次元特徴マッチングによって得られる値が、予め定められた閾値以上である点群データの領域を点群データCとして検出する。
次に、対象物体検出部20は、点群データCと人物モデルUとを一致させる。点群データ同士を一致させる手法としては、例えばIterative Closest Point(ICP)を用いることができる。
そして、対象物体検出部20は、点群データCと人物モデルUとの照合結果に応じて、点群データCに人物モデルUを一致させたときの、人物モデルUの位置及び姿勢を検出する。これにより、点群データCに対応する人物モデルUの位置及び姿勢が検出される。
パターン群生成部22は、対象物体検出部20によって検出された対象物体cを表す点群データCの位置で、点群データCに対応する人物モデルUの位置及び姿勢の各々をランダムに変化させた複数のパターンを含むパターン群を生成する。パターン群に含まれる複数のパターンは、パーティクルフィルタにおける複数のパーティクルとして生成される。
図7に、パターン群の一例を示す。パターン群生成部22は、例えば図7に示すように、対象物体cを表す点群データCに一致させた人物モデルUの重心Pを起点として、人物モデルUの位置及び姿勢の各々をランダムに変化させた複数のパターンを生成する。
画像変換部24は、対象物体検出部20によって検出された対象物体cの点群データCと、パターン群生成部22によって生成されたパターン群の各パターンの点群データとを、距離画像へ変換する。距離画像としては、例えば、図8に示すような、センサ12から各画素に対応する点までの距離が遠いほど画素値の値が大きく、センサ12からの距離が近いほど画素値の値が小さくなるような画像が生成される。
例えば、画像変換部24は、以下の式(1)に従って、点群データに含まれる各点を距離画像の各画素へ変換する。

(1)
ここで、上記式(1)の(X,Y,Z)は、点群データに含まれる各点の3次元位置を表す。また、(x’,y’,z’)の(x’,y’)は、距離画像における2次元位置を表し、z’は当該2次元位置における画素値を表す。また、上記式(1)における以下の行列の各要素は内部パラメータを表す。内部パラメータは、予め設定される。
上記式(1)を演算すると、以下の式(2)が導かれる。点群データの各点の3次元位置(X,Y,Z)は、以下の式(2)に従って、距離画像における2次元位置(x’,y’)へ変換され、かつ距離画像における2次元位置(x’,y’)の画素値はz’(=Z)が格納される。

(2)
画像照合部26は、画像変換部24によって得られた、点群データCの距離画像とパターン群の各パターンの点群データの距離画像の各々とを照合する。本実施形態では、点群データCの距離画像と、パターン群の各パターンの点群データの距離画像の各々とを背景差分によって照合する場合を例に説明する。
具体的には、画像照合部26は、図9に示すように、点群データCの距離画像Icとパターン群の各パターンの点群データの距離画像Ipの各々とを背景差分によって照合し、背景差分値の逆数をパーティクルフィルタにおける尤度とする。なお、背景差分とは、距離画像Icの各位置における画素値と距離画像Ipの対応する各位置における画素値との差分を求め、画像全体における差分の総和を背景差分値として算出する方法である。
位置姿勢推定部28は、画像照合部26によって得られた照合結果の一例である尤度に応じて、尤度が予め定められた閾値よりも大きい距離画像Ipsを選択する。位置姿勢推定部28の距離画像の選択は、パーティクルフィルタにおけるリサンプリング処理として行われる。そして、位置姿勢推定部28は、パーティクルフィルタにおける予測処理として、選択された距離画像Ipsのパターンに基づいて、対象物体cの位置及び姿勢を推定する。例えば、位置姿勢推定部28は、選択された複数の距離画像Ipsに対応するパターンの各々が示す位置及び姿勢の平均を、対象物体cの位置及び姿勢を表す値として推定する。
そして、位置姿勢推定部28は、推定された対象物体cの位置及び姿勢を、人物モデルUに反映する。例えば、位置姿勢推定部28は、選択された距離画像Ipsに対応する各パターンの各々が示す位置及び姿勢の平均が、人物モデルUの位置及び姿勢となるように反映する。
対象物体検出部20は、点群データ記憶部17から次時刻の点群データを取得し、取得した点群データから、位置姿勢推定部28によって対象物体cの位置及び姿勢が反映された人物モデルUに基づいて、点群データ内の対象物体cを検出する。
制御部14における、対象物体検出部20、パターン群生成部22、画像変換部24、画像照合部26、及び位置姿勢推定部28の各処理が繰り返されることにより、対象物体cの追跡処理が行われる。
位置姿勢推定装置10の制御部14は、例えば、図10に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、センサ12や表示装置及び入力装置等の入出力装置(図示省略)が接続される入出力interface(I/F)54、及び記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を位置姿勢推定装置10の制御部14として機能させるための位置姿勢推定プログラム60が記憶されている。位置姿勢推定プログラム60は、情報取得プロセス62と、対象物体検出プロセス63と、パターン群生成プロセス64と、画像変換プロセス65と、画像照合プロセス66と、位置姿勢推定プロセス67とを有する。また、記憶部53は、点群データ記憶部17を構成する情報が記憶される点群データ記憶領域68を有する。また、記憶部53は、モデルデータ記憶部18を構成する情報が記憶されるモデルデータ記憶領域69を有する。
CPU51は、位置姿勢推定プログラム60を記憶部53から読み出してメモリ52に展開し、位置姿勢推定プログラム60が有するプロセスを順次実行する。CPU51は、情報取得プロセス62を実行することで、図1に示す情報取得部16として動作する。また、CPU51は、対象物体検出プロセス63を実行することで、図1に示す対象物体検出部20として動作する。また、CPU51は、パターン群生成プロセス64を実行することで、図1に示すパターン群生成部22として動作する。また、CPU51は、画像変換プロセス65を実行することで、図1に示す画像変換部24として動作する。また、CPU51は、画像照合プロセス66を実行することで、図1に示す画像照合部26として動作する。また、CPU51は、位置姿勢推定プロセス67を実行することで、図1に示す位置姿勢推定部28として動作する。また、CPU51は、点群データ記憶領域68から情報を読み出して、点群データ記憶部17をメモリ52に展開する。また、CPU51は、モデルデータ記憶領域69から情報を読み出して、モデルデータ記憶部18をメモリ52に展開する。これにより、位置姿勢推定プログラム60を実行したコンピュータ50が、位置姿勢推定装置10の制御部14として機能することになる。そのため、ソフトウェアである位置姿勢推定プログラム60を実行するプロセッサはハードウェアである。
なお、位置姿勢推定プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、本実施形態に係る位置姿勢推定装置10の作用について説明する。位置姿勢推定装置10において、センサ12が3次元点群データを逐次検出し、情報取得部16はセンサ12によって検出された3次元点群データを取得する。そして、情報取得部16は取得した点群データを点群データ記憶部17に時刻と対応付けて格納する。点群データ記憶部17に点群データが格納されると、位置姿勢推定装置10の制御部14によって、図11に示す位置姿勢推定処理が実行される。以下、各処理について詳述する。
ステップS100において、対象物体検出部20は、点群データ記憶部17に格納された点群データの各々から最新の点群データと、点群データに対応付けられた時刻とを取得する。
ステップS102において、対象物体検出部20は、上記ステップS100で取得された点群データが、初期フレームに対応するデータであるか否かを判定する。例えば、対象物体検出部20は、センサ12における点群データの検出の開始時刻を取得し、上記ステップS100で取得された点群データに対応付けられた時刻と、検出の開始時刻とが一致する場合には、初期フレームに対応するデータであると判定する。上記ステップS100で取得された点群データが、初期フレームに対応するデータである場合には、ステップS104へ進む。一方、上記ステップS100で取得された点群データが、初期フレームに対応するデータでない場合には、ステップS107へ進む。
ステップS104において、対象物体検出部20は、上記ステップS100で取得された点群データと、モデルデータ記憶部18に格納されたモデルデータとから特徴量を抽出し、3次元特徴マッチングを行う。なお、モデルデータ記憶部18に格納されたモデルデータは、前回のステップS116での処理によって、対象物体の位置及び姿勢が反映されている。
ステップS106において、対象物体検出部20は、上記ステップS104で得られた3次元特徴マッチング結果に基づいて、モデルデータに対応する対象物体が存在するか否かを判定する。モデルデータに対応する対象物体が存在する場合には、ステップS107へ進む。一方、モデルデータに対応する対象物体が存在しない場合には、ステップS100へ戻る。例えば、対象物体検出部20は、上記ステップS104の3次元特徴マッチングによって得られる値が、予め定められた閾値以上である場合には、対象物体が存在すると判定する。
ステップS107において、対象物体検出部20は、上記ステップS104で得られた3次元特徴マッチングの値が、予め定められた閾値以上である領域の点群データαを対象物体として検出する。また、対象物体検出部20は、点群データαとモデルデータとの照合結果に応じて、点群データαが表す対象物体の位置及び姿勢を検出する。そして、対象物体検出部20は、点群データαとモデルデータとを一致させる。
ステップS108において、パターン群生成部22は、上記ステップS107で検出された対象物体を表す点群データαの位置で、点群データαに対応するモデルデータの位置及び姿勢の各々をランダムに変化させた複数のパターンを含むパターン群を生成する。
ステップS110において、画像変換部24は、上記ステップS107で検出された対象物体の点群データαと、上記ステップS108で生成されたパターン群の各パターンの点群データとを、距離画像へ変換する。
ステップS112において、画像照合部26は、上記ステップS110で得られた、点群データαの距離画像とパターン群の各パターンの点群データの距離画像の各々とを、背景差分によって照合する。そして、画像照合部26は、点群データαの距離画像とパターン群の各パターンの点群データの距離画像の各々についての背景差分値の逆数を尤度とする。
ステップS114において、位置姿勢推定部28は、上記ステップS112で得られた尤度に応じて、尤度が予め定められた閾値よりも大きい距離画像を選択する。そして、位置姿勢推定部28は、選択された複数の距離画像に対応するパターンの各々が示す位置及び姿勢の平均を、対象物体の位置及び姿勢を表す値として推定する。
ステップS116において、位置姿勢推定部28は、上記ステップS114で推定された、対象物体の位置及び姿勢を、モデルデータ記憶部18に格納されたモデルデータへ反映する。
ステップS118において、位置姿勢推定部28は、対象物体の追跡を終了するか否かを判定する。対象物体の追跡を終了する場合には、位置姿勢推定処理を終了する。対象物体の追跡を終了しない場合には、ステップS100へ戻る。対象物体の追跡を終了するか否かは、例えば、ユーザから入力される情報に応じて決定することができる。
以上説明したように、本実施形態に係る位置姿勢推定装置は、検出された点群データから、対象物体を表す点群データを検出する。そして、位置姿勢推定装置は、検出された対象物体を表す点群データの位置で、位置及び姿勢の各々をランダムに変化させた、対象物体を表す点群データであるモデルデータのパターンを含むパターン群を生成する。そして、位置姿勢推定装置は、検出された点群データと、パターン群の各パターンの点群データとを、距離画像へ変換する。そして、位置姿勢推定装置は、検出された点群データの距離画像と、パターン群の各パターンの点群データの距離画像の各々とを照合する。そして、位置姿勢推定装置は、照合結果に基づいて、パターンの点群データの距離画像を選択し、選択された距離画像に対応するパターンに基づいて対象物体の位置及び姿勢を推定する。これにより、3次元の点群データを用いて対象物体の位置及び姿勢を推定する場合に、3次元の点群データ同士でモデルデータと照合する場合に比べ、計算コストを低減させることができる。
また、パーティクルフィルタにおける尤度計算を3次元の点群データの処理ではなく、距離画像を用いて尤度を計算することにより、計算コストを低減させることができる。そのため、計算量が低減され、処理の高速化が可能となる。具体的には、3次元の情報である3次元の点群データが2次元の情報である距離画像へ変換され、パーティクルフィルタのリサンプリング処理における尤度計算(又は照合処理)が2次元の情報で行われるため、計算コストが低減される。また、3次元の情報が2次元情報へ変換されて扱われるため、パーティクル数が増加した場合であっても処理の高速化が可能となる。
計算コストの概算について以下説明する。
3次元のパーティクルフィルタにおける計算コストは、以下の式(3)に示すように計算される。
(モデルデータに対応する点群データに含まれる点の数[個]×パーティクル数[個]×log(検出された点群データに含まれる点の数[個]))
(3)
上記算出式(3)の各項に、仮の値を代入して計算コストを算出すると、以下のようになる。
10,000[個]×100[個]×log5,000[個](3.69897)=3,698,970
一方、本実施形態における計算コストは、以下の式(4)に示すように計算される。
(距離画像のウィンドウ縦幅[pixel]×距離画像のウィンドウ横幅[pixel]×パーティクル数[個])
(4)
100[pixel]×80[pixel]×100[個]=800,000
上記に示すように、本実施形態の計算コストは、3次元のパーティクルフィルタにおける計算コストの1/4.6となり、計算コストを低減させることができる。
なお、上記では、位置姿勢推定プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記録媒体に記録された形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
次に、上記実施形態の変形例を説明する。
上記実施形態では、位置姿勢推定部28は、画像照合部26によって得られた尤度に応じて、尤度が予め定められた閾値よりも大きい距離画像を選択する場合を例に説明したが、これに限定されるものではない。例えば、画像照合部26によって得られた尤度に応じて、尤度が最も大きい距離画像を選択してもよい。この場合には、位置姿勢推定部28は、尤度が最も大きい距離画像のパターンを、対象物体の位置及び姿勢を表す値として推定する。
また、上記実施形態では、画像照合の一例として背景差分を用いる場合を例に説明したがこれに限定されるものではなく、他の画像照合方法を用いてもよい。例えば、各距離画像から特徴量を抽出し、各特徴量の一致の度合いに応じて、距離画像同士の照合を行っても良い。
また、上記実施形態では、対象物体の位置及び姿勢の推定方法の一例としてパーティクルフィルタを用いる場合を例に説明したが、これに限定されるものではない。例えば、検出された点群データと、モデルデータの点群データを距離画像へ変換して、カルマンフィルタによって対象物体の位置及び姿勢を推定するようにしてもよい。
また、上記実施形態では、対象物の点群データに一致させたモデルデータの位置及び姿勢の各々を、ランダムに変化させた複数のパターンを生成する場合を例に説明したが、これに限定されるものではない。例えば、対象物の点群データに一致させたモデルデータの位置及び姿勢の各々を、予め定められた量だけ変化させて複数のパターンを生成するようにしてもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出する対象物体検出部と、
前記対象物体検出部によって検出された前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成するパターン群生成部と、
前記検出部によって検出された前記点群データと、前記パターン群生成部によって生成された前記パターン群の各パターンの点群データとを、距離画像へ変換する画像変換部と、
前記画像変換部によって得られた、前記検出部によって検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合する画像照合部と、
前記画像照合部によって得られた照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する位置姿勢推定部と、
を含むことを特徴とする位置姿勢推定装置。
(付記2)
前記画像照合部は、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の各パターンの点群データの前記距離画像の各々とを背景差分によって照合する
付記1に記載の位置姿勢推定装置。
(付記3)
前記位置姿勢推定部は、推定された前記対象物体の位置及び姿勢を、前記モデルデータに反映し、
前記対象物体検出部は、前記位置姿勢推定部によって得られた前記モデルデータに基づいて、前記検出部によって検出された前記点群データから、前記対象物体を表す点群データを検出する
付記1又は付記2に記載の位置姿勢推定装置。
(付記4)
前記位置姿勢推定部は、前記画像照合部によって得られた照合結果に基づいて、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の前記距離画像との一致の度合いが、予め定められた閾値よりも大きい前記パターン群の前記距離画像を選択し、選択された前記距離画像のパターンの平均に基づいて前記対象物体の位置及び姿勢を推定する
付記1〜付記3の何れか1項に記載の位置姿勢推定装置。
(付記5)
前記対象物体検出部は、前記検出部によって検出された前記点群データと、対象物体を表す点群データであるモデルデータとの3次元特徴マッチングにより、前記検出部によって検出された前記点群データから、対象物体を表す点群データを検出する
付記1〜付記4の何れか1項に記載の位置姿勢推定装置。
(付記6)
3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出し、
前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成し、
検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換し、
検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合し、
照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する、
処理をコンピュータが実行することを特徴とする位置姿勢推定方法。
(付記7)
前記画像照合部は、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の各パターンの点群データの前記距離画像の各々とを背景差分によって照合する
付記6に記載の位置姿勢推定方法。
(付記8)
前記位置姿勢推定部は、推定された前記対象物体の位置及び姿勢を、前記モデルデータに反映し、
前記対象物体検出部は、前記位置姿勢推定部によって得られた前記モデルデータに基づいて、前記検出部によって検出された前記点群データから、前記対象物体を表す点群データを検出する
付記6又は付記7に記載の位置姿勢推定方法。
(付記9)
前記位置姿勢推定部は、前記画像照合部によって得られた照合結果に基づいて、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の前記距離画像との一致の度合いが、予め定められた閾値よりも大きい前記パターン群の前記距離画像を選択し、選択された前記距離画像のパターンの平均に基づいて前記対象物体の位置及び姿勢を推定する
付記6〜付記8の何れか1項に記載の位置姿勢推定方法。
(付記10)
前記対象物体検出部は、前記検出部によって検出された前記点群データと、対象物体を表す点群データであるモデルデータとの3次元特徴マッチングにより、前記検出部によって検出された前記点群データから、対象物体を表す点群データを検出する
付記6〜付記9の何れか1項に記載の位置姿勢推定方法。
(付記11)
3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出し、
前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成し、
検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換し、
検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合し、
照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する、
処理をコンピュータに実行させることを特徴とする位置姿勢推定プログラム。
(付記12)
前記画像照合部は、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の各パターンの点群データの前記距離画像の各々とを背景差分によって照合する
付記11に記載の位置姿勢推定プログラム。
(付記13)
前記位置姿勢推定部は、推定された前記対象物体の位置及び姿勢を、前記モデルデータに反映し、
前記対象物体検出部は、前記位置姿勢推定部によって得られた前記モデルデータに基づいて、前記検出部によって検出された前記点群データから、前記対象物体を表す点群データを検出する
付記11又は付記12に記載の位置姿勢推定プログラム。
(付記14)
前記位置姿勢推定部は、前記画像照合部によって得られた照合結果に基づいて、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の前記距離画像との一致の度合いが、予め定められた閾値よりも大きい前記パターン群の前記距離画像を選択し、選択された前記距離画像のパターンの平均に基づいて前記対象物体の位置及び姿勢を推定する
付記11〜付記13の何れか1項に記載の位置姿勢推定プログラム。
(付記15)
前記対象物体検出部は、前記検出部によって検出された前記点群データと、対象物体を表す点群データであるモデルデータとの3次元特徴マッチングにより、前記検出部によって検出された前記点群データから、対象物体を表す点群データを検出する
付記11〜付記14の何れか1項に記載の位置姿勢推定プログラム。
(付記16)
3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体を表す点群データを検出し、
検出された前記対象物体を表す点群データの位置で、位置及び姿勢の各々をランダムに変化させた、前記対象物体を表す点群データであるモデルデータのパターンを含むパターン群を生成し、
検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換し、
検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合し、
照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像のパターンに基づいて前記対象物体の位置及び姿勢を推定する、
処理をコンピュータに実行させることを特徴とする位置姿勢推定プログラムを記憶した記憶媒体。
10 位置姿勢推定装置
12 センサ
14 制御部
16 情報取得部
17 点群データ記憶部
18 モデルデータ記憶部
20 対象物体検出部
22 パターン群生成部
24 画像変換部
26 画像照合部
28 位置姿勢推定部
50 コンピュータ
51 CPU
53 記憶部
59 記録媒体
60 位置姿勢推定プログラム

Claims (5)

  1. 3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出する対象物体検出部と、
    前記対象物体検出部によって検出された前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成するパターン群生成部と、
    前記検出部によって検出された前記点群データと、前記パターン群生成部によって生成された前記パターン群の各パターンの点群データとを、距離画像へ変換する画像変換部と、
    前記画像変換部によって得られた、前記検出部によって検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合する画像照合部と、
    前記画像照合部によって得られた照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する位置姿勢推定部と、
    を含むことを特徴とする位置姿勢推定装置。
  2. 前記画像照合部は、前記検出部によって検出された前記点群データの前記距離画像と前記パターン群の各パターンの点群データの前記距離画像の各々とを背景差分によって照合する
    請求項1に記載の位置姿勢推定装置。
  3. 前記位置姿勢推定部は、推定された前記対象物体の位置及び姿勢を、前記モデルデータに反映し、
    前記対象物体検出部は、前記位置姿勢推定部によって得られた前記モデルデータに基づいて、前記検出部によって検出された前記点群データから、前記対象物体を表す点群データを検出する
    請求項1又は請求項2に記載の位置姿勢推定装置。
  4. 3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出し、
    前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成し、
    検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換し、
    検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合し、
    照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する、
    処理をコンピュータが実行することを特徴とする位置姿勢推定方法。
  5. 3次元の点群データを検出する検出部によって検出された前記点群データから、対象物体のモデルデータに基づいて、対象物体を表す点群データを検出し、
    前記対象物体を表す点群データの位置で、前記モデルデータの位置及び姿勢の各々を変化させた複数のパターンの各々を表す複数の点群データを含むパターン群を生成し、
    検出された前記点群データと、生成された前記パターン群の各パターンの点群データとを、距離画像へ変換し、
    検出された前記点群データの前記距離画像と、前記パターン群の各パターンの点群データの前記距離画像の各々とを照合し、
    照合結果に基づいて、前記パターンの点群データの前記距離画像を選択し、選択された前記距離画像に対応するパターンに基づいて前記対象物体の位置及び姿勢を推定する、
    処理をコンピュータに実行させることを特徴とする位置姿勢推定プログラム。
JP2016212896A 2016-10-31 2016-10-31 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム Pending JP2018072198A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016212896A JP2018072198A (ja) 2016-10-31 2016-10-31 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム
US15/726,466 US20180122097A1 (en) 2016-10-31 2017-10-06 Apparatus, method, and non-transitory computer-readable storage medium for storing program for position and orientation estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212896A JP2018072198A (ja) 2016-10-31 2016-10-31 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム

Publications (1)

Publication Number Publication Date
JP2018072198A true JP2018072198A (ja) 2018-05-10

Family

ID=62022478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212896A Pending JP2018072198A (ja) 2016-10-31 2016-10-31 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム

Country Status (2)

Country Link
US (1) US20180122097A1 (ja)
JP (1) JP2018072198A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340766A (zh) * 2020-02-21 2020-06-26 北京市商汤科技开发有限公司 目标对象的检测方法、装置、设备和存储介质
CN113424224A (zh) * 2019-02-25 2021-09-21 索尼集团公司 识别并保留优选点的合并点云的方法
WO2022123919A1 (ja) * 2020-12-11 2022-06-16 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
JP2022539917A (ja) * 2019-06-07 2022-09-13 テルース ユー ケア インコーポレーション 高齢者介護のための歩容動力学、パターン及び異常の非接触識別
JP7424535B1 (ja) 2023-05-31 2024-01-30 トヨタ自動車株式会社 遠隔制御装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3757869A1 (de) * 2019-06-27 2020-12-30 Siemens Aktiengesellschaft Verfahren zur ermittlung und darstellung von potenziellen schadstellen an komponenten von freileitungen
WO2021030973A1 (en) * 2019-08-16 2021-02-25 Abb Schweiz Ag Method and apparatus for determining object location

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113424224A (zh) * 2019-02-25 2021-09-21 索尼集团公司 识别并保留优选点的合并点云的方法
JP2022522279A (ja) * 2019-02-25 2022-04-15 ソニーグループ株式会社 優先点を識別して保持する点群の併合方法
JP7265639B2 (ja) 2019-02-25 2023-04-26 ソニーグループ株式会社 優先点を識別して保持する点群の併合方法
CN113424224B (zh) * 2019-02-25 2023-11-17 索尼集团公司 识别并保留优选点的合并点云的方法
JP2022539917A (ja) * 2019-06-07 2022-09-13 テルース ユー ケア インコーポレーション 高齢者介護のための歩容動力学、パターン及び異常の非接触識別
CN111340766A (zh) * 2020-02-21 2020-06-26 北京市商汤科技开发有限公司 目标对象的检测方法、装置、设备和存储介质
JP2022524262A (ja) * 2020-02-21 2022-05-02 北京市商▲湯▼科技▲開▼▲発▼有限公司 目標対象物の検出方法、目標対象物の検出装置、電子機器、記憶媒体及びコンピュータプログラム
CN111340766B (zh) * 2020-02-21 2024-06-11 北京市商汤科技开发有限公司 目标对象的检测方法、装置、设备和存储介质
WO2022123919A1 (ja) * 2020-12-11 2022-06-16 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
JP7424535B1 (ja) 2023-05-31 2024-01-30 トヨタ自動車株式会社 遠隔制御装置

Also Published As

Publication number Publication date
US20180122097A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
JP2018072198A (ja) 位置姿勢推定装置、位置姿勢推定方法、及び位置姿勢推定プログラム
JP4692773B2 (ja) 物体の姿勢推定及び照合システム、物体の姿勢推定及び照合方法、並びにそのためのプログラム
KR101283262B1 (ko) 영상 처리 방법 및 장치
JP5772821B2 (ja) 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
US8755562B2 (en) Estimation apparatus, control method thereof, and program
JP6245880B2 (ja) 情報処理装置および情報処理手法、プログラム
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP5297727B2 (ja) ロボット装置及び物体の位置姿勢推定方法
CN107851332B (zh) 经由拓扑知晓表面跟踪的一致细分
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
KR101909544B1 (ko) 평면 검출 장치 및 방법
JP2009265732A (ja) 画像処理装置及びその方法
US20120314904A1 (en) Image collation system, image collation method and computer program
JP5192437B2 (ja) 物体領域検出装置、物体領域検出方法および物体領域検出プログラム
JP2010262576A (ja) 対象物検出装置及びプログラム
JP6194880B2 (ja) 情報処理装置、情報処理方法および記録媒体
KR20170011454A (ko) 위조 영상 검출 방법 및 그 장치
US11480661B2 (en) Determining one or more scanner positions in a point cloud
JP6124566B2 (ja) 画像認識方法および画像認識装置
JP6003367B2 (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2007316950A (ja) 画像処理方法及び装置及びプログラム
JP5960642B2 (ja) 3次元情報取得方法及び3次元情報取得装置
JPWO2019142787A1 (ja) 人体部位推定装置、人体部位推定方法、及びプログラム
JP2008003800A (ja) 画像処理装置及び画像処理プログラム