JP7010778B2 - 観測位置推定装置、その推定方法、及びプログラム - Google Patents

観測位置推定装置、その推定方法、及びプログラム Download PDF

Info

Publication number
JP7010778B2
JP7010778B2 JP2018125200A JP2018125200A JP7010778B2 JP 7010778 B2 JP7010778 B2 JP 7010778B2 JP 2018125200 A JP2018125200 A JP 2018125200A JP 2018125200 A JP2018125200 A JP 2018125200A JP 7010778 B2 JP7010778 B2 JP 7010778B2
Authority
JP
Japan
Prior art keywords
observation position
posture
likelihood
estimated
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018125200A
Other languages
English (en)
Other versions
JP2020004260A (ja
Inventor
洋 村瀬
康友 川西
大輔 出口
ビン ニック ムハマド ザリフィ ハシム
雄介 中野
訓成 小堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Toyota Motor Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Tokai National Higher Education and Research System NUC filed Critical Toyota Motor Corp
Priority to JP2018125200A priority Critical patent/JP7010778B2/ja
Priority to CN201910567033.7A priority patent/CN110660100B/zh
Priority to US16/454,735 priority patent/US10909717B2/en
Publication of JP2020004260A publication Critical patent/JP2020004260A/ja
Application granted granted Critical
Publication of JP7010778B2 publication Critical patent/JP7010778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体の観測位置を推定する観測位置推定装置、その推定方法、及びプログラムに関する。
物体の姿勢を推定するために、該物体を複数の観測位置で観測する観測位置推定装置が知られている(例えば、特許文献1参照)。
特開2012-022411号公報
上記観測位置推定装置は、ランダムに設定された複数の観測位置で物体を観測しているため、その観測位置が、物体を観測する上で最適な位置とは限らない。
本発明は、このような問題点を解決するためになされたものであり、物体の最適な観測位置を推定できる観測位置推定装置、その推定方法、及びプログラムを提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
前記第1観測位置において物体の画像を取得する画像取得手段と、
前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
を備える、ことを特徴とする観測位置推定装置
である。
この一態様において、前記位置推定手段は、前記姿勢推定手段により推定された第1尤度マップp(ξ|I)と、前記第2記憶手段に記憶された第2尤度マップp(φ|ξ)と、第3記憶手段に記憶された第3尤度マップp(θ|δ、φ)と、に基づいて、下記式を用いて、前記第2観測位置δ(ハット)を推定してもよい。ただし、ξは前記物体の推定姿勢、Iは前記画像取得手段が前記第1観測位置で取得した物体の画像、φは前記第1観測位置、θは前記物体の姿勢、δは前記第2観測位置、である。
この一態様において、前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出してもよい。
この一態様において、前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段であってもよい。
この一態様において、前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段であってもよい。
この一態様において、前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、であってもよい。
この一態様において、前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定してもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
前記第1観測位置において物体の画像を取得するステップと、
前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
を含む、ことを特徴とする観測位置推定装置の推定方法
であってもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
前記第1観測位置において物体の画像を取得する処理と、
前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム
であってもよい。
本発明は、このような問題点を解決するためになされたものであり、物体の最適な観測位置を推定できる観測位置推定装置、その推定方法、及びプログラムを提供することができる。
本発明の一実施形態に係る観測位置推定装置の概略的なシステム構成を示すブロック図である。 推定姿勢尤度マップの一例を示す図である。 平面上に置かれた取手のあるコップを上方から見た図である。 物体の姿勢の尤度の分布を示す姿勢尤度マップの一例を示す図である。 位置推定精度マップの一例を示す図である。 多視点尤度マップの一例示す図である。 本発明の一実施形態に係る観測位置推定装置の推定方法によるフローの一例を示すフローチャートである。 本発明の実施形態に係る観測位置推定装置が搭載されたロボットの概略的なシステム構成を示すブロック図である。
以下、図面を参照して本発明の実施形態について説明する。
例えば、生活支援ロボットが物を把持して移動するために、未知物体の姿勢を推定することが重要となる。このようなロボットは、カメラ等のセンサによって、物体を複数の観測位置で観測することで、物体の姿勢を高精度に推定することができる。
しかし、ランダムに設定された複数の観測位置で物体を観測する場合、その観測位置が、物体を観測する上で最適な位置とは限らない。例えば、観測位置によっては、その物体を認識し難いため、認識時間がかかり、認識精度が低下する、などの問題が生じ得る。
これに対し、本発明の一実施形態に係る観測位置推定装置は、物体を最初に観測する第1観測位置から、次に物体を観測すべき最適な第2観測位置を推定するものである。これにより、物体の最適な観測位置を推定でき、その最適な観測位置で物体を観測することで、物体の姿勢を高精度に推定することができる。
図1は、本実施形態に係る観測位置推定装置の概略的なシステム構成を示すブロック図である。本実施形態に係る観測位置推定装置1は、画像取得部2と、第1深層学習部3と、第1及び第2統計処理部4、5と、記憶部6と、特徴量抽出部7と、姿勢推定部8と、位置推定部9と、を備えている。
なお、観測位置推定装置1は、例えば、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU、メモリ、及びインターフェイス部は、データバスなどを介して相互に接続されている。
画像取得部2は、画像取得手段の一具体例である。画像取得部2は、第1観測位置において、物体の画像を時系列で取得する。画像取得部2は、例えば、RGBカメラ、赤外カメラなどの距離センサで構成されているが、これに限定されない。画像取得部2は、物体の画像を取得できれば、任意のセンサで構成されてもよい。画像取得部2は、第1観測位置で取得した物体の画像を特徴量抽出部7に出力する。
第1深層学習部3は、第1学習手段の一具体例である。第1及び第2統計処理部4、5は、第2及び第3学習手段の一具体例である。第1深層学習部3は、例えば、CNN(Convolutional Neural Network)、RNN(Recurrent neural Network)などのニューラルネットワークで構成されている。このRNNは、中間層にLSTM(Long Short Term Memory)を有している。
第1深層学習部3、および、第1及び第2統計処理部4、5は、SVM(Support Vector Machine)などの学習器で構成されてもよい。第1深層学習部3、第1及び第2統計処理部4、5、および、記憶部6は一体的に構成されていてもよい。第1深層学習部3は、複数組の物体の画像及び物体の姿勢の学習データを用いて、物体の姿勢毎の特徴量を学習し、その学習結果(姿勢テンプレート)を記憶する。
特徴量抽出部7は、特徴量抽出手段の一具体例である。特徴量抽出部7は、記憶部6に記憶されたフィルタモデルを用いて、画像取得部2により取得された物体の画像から、その物体の画像の特徴量を抽出する。フィルタモデルは、例えば、PCA(Principal Component Analysis)、LDA(Linear Discriminant Analysis)等による次元圧縮のための基底ベクトル、エッジ抽出用の微分フィルタ、離散コサイン変換等に局所フィルタを含む。
特徴量抽出部7は、深層学習部を用いて、画像取得部2により取得された物体の画像からその物体の特徴量を自動抽出してもよい。この場合、深層学習部は、予め、学習データを用いて、認識に有利な特徴量を学習している。特徴量抽出部7は、抽出した物体の画像の特徴量を姿勢推定部8に出力する。
姿勢推定部8は、姿勢推定手段の一具体例である。姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、第1深層学習部3により予め学習された物体の姿勢毎の特徴量(姿勢テンプレート)と、を比較し、物体の姿勢の尤度を算出する。そして、姿勢推定部8は、物体姿勢の3軸(x軸、y軸、z軸)に対する推定姿勢尤度マップを算出する。なお、姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、記憶部6に予め記憶された物体の姿勢毎の特徴量と、を比較し、推定姿勢尤度マップを算出してもよい。
推定姿勢尤度マップは、第1尤度マップの一具体例である。推定姿勢尤度マップは、例えば、物体の推定姿勢(推定角度)ξと、その推定姿勢の尤度p(ξ|I)との関係を示すマップ情報である。Iは、画像取得部2が第1観測位置で取得した物体の画像である。
図2は、推定姿勢尤度マップの一例を示す図である。図2において、横軸は物体の推定姿勢ξであり、縦軸はその推定姿勢の尤度p(ξ|I)である。尤度p(ξ|I)は、物体の画像Iから推定した物体の推定姿勢ξの尤度分布を示す。姿勢推定部8が、例えば回帰分析を行うように構成されている場合、推定姿勢尤度マップは、図2に示す如く、1点でのみ1となり、残りは0となる分布となる。姿勢推定部8は、算出した推定姿勢尤度マップを位置推定部9に出力する。
位置推定部9は、位置推定手段の一具体例である。位置推定部9は、姿勢推定部8により算出された推定姿勢尤度マップに基づいて、画像取得部2の次の第2観測位置を推定する。
ここで、取手のあるコップを物体の一例として説明する。図3は、平面上に置かれた取手のあるコップを上方から見た図である。例えば、図3に示す如く、第1観測位置を、コップを中心として二次元座標系の回転角φとして表すことができる。第2観測位置を、第1観測位置からの画像取得部2の移動量(回転量)δとして表すことができる。コップの姿勢は、原点を中心とした取手の回転角θとして表すことができる。いずれも、反時計方向を正とする。
なお、本実施形態において、第2観測位置は、第1観測位置からの移動量として表現しているが、これに限定されない。例えば、第2観測位置は、第1観測位置φと同様に、回転角φとして表現してもよい。
図4は、物体の姿勢の尤度の分布を示す姿勢尤度マップの一例を示す図である。図4において、横軸は物体の姿勢θであり、縦軸はその姿勢の尤度p(θ|δ、I)である。
位置推定部9は、図4に示す物体の姿勢尤度マップの良否を、評価関数g(・)によって評価することで、次の第2観測位置δ(ハット)を推定する。例えば、位置推定部9は、姿勢尤度マップを、評価関数g(・)によって評価し、姿勢尤度マップの尖度がより大きくなるような、第2観測位置δを少なくとも1つ算出する。これにより、物体の姿勢の尤度がより高くなる最適な第2観測位置を推定できる。そして、推定した第2観測位置で物体を観測することで、物体の姿勢を高精度に推定できる。
評価関数g(・)は、例えば、姿勢尤度マップの分散を算出する関数(1)式、姿勢尤度マップのエントロピーを算出する関数(2)式、などである。これら評価関数を用いることで、姿勢尤度マップの尖度を最適に評価できる。
Figure 0007010778000001
なお、上記評価関数は一例であり、これに限定されず、姿勢尤度マップの尖度が評価できれば任意の関数が適用可能である。
例えば、上記(1)式、又は(2)式の評価関数g(・)の値が、最小のときに、姿勢尤度マップの尖度は最大となる。したがって、位置推定部9は、以下(3)式を用いて、次の第2観測位置δ(ハット)を推定する。下記(3)式においてδの上にハット記号を付したものをδ(ハット)と表記している。
Figure 0007010778000002
位置推定部9は、上記(3)式を用いて、評価関数g(p(θ|δ、I))の値が最小となり、姿勢尤度マップの尖度が最大となるような、第2観測位置δ(ハット)を推定する。
位置推定部9は、上記(3)式を用いて、評価関数g(p(θ|δ、I))の値が閾値以下となるような、第2観測位置δ(ハット)を少なくとも1つ推定してもよい。これにより、物体の姿勢の尤度が高くなる、第2観測位置δを少なくとも1つ推定できる。
なお、上記評価関数の符号が正負で逆になる場合、位置推定部9は、評価関数g(p(θ|δ、I))の値が最大となるような、第2観測位置δ(ハット)を推定してもよい。さらに、位置推定部9は、評価関数の種類に応じて、評価関数g(p(θ|δ、I))の値が閾値以上となるような、第2観測位置δ(ハット)を少なくとも1つ推定してもよい。
ここで、上記(1)式のp(θ|δ、I)は、隠れ変数が導入され、下記(4)式のように、p(θ|δ、φ)と、p(φ|ξ)と、p(ξ|I)と、を乗算し積分した式に変形される。
Figure 0007010778000003
上記(4)式におけるp(ξ|I)は、上述の如く、姿勢推定部8から出力される推定姿勢尤度マップである。推定姿勢尤度マップは第2尤度マップの一具体例である。上記(4)式におけるp(φ|ξ)は、物体の推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を示す位置推定精度マップである。
位置推定精度マップは、同一姿勢の物体の特徴量が姿勢推定部8に入力されたときの姿勢推定部8の推定精度を示すもので、物体の姿勢毎の誤差分布を示すものである。位置推定精度マップは、様々な姿勢の物体、および、同一カテゴリ内の様々な物体に対し、第1観測位置の真値とその尤度のペアとして予め用意される。図5は、位置推定精度マップの一例を示す図である。図5において、横軸は真の第1観測位置φであり、縦軸はその第1観測位置の尤度p(φ|ξ)である。
例えば、(1)の方向からコップを見た場合、取手の位置が特定でき、その姿勢を精度良く推定できるため、第1観測位置の尤度は高くなる。一方で、(2)の方向からコップを見た場合、取手の位置が特定できず、その姿勢を特定し難いため、第1観測位置の尤度は低くなる。
第1統計処理部4は、物体の推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を学習し、位置推定精度マップとして記憶する。 例えば、物体座標系において、第1観測位置φ1iで、既知の画像Iに対して姿勢推定が行われ、推定姿勢ξが得られる。第1統計処理部4は、このようにして得た複数組の第1観測位置φ1iと推定姿勢ξのデータを用いて、第1観測位置φ1iと推定姿勢ξとの対応関係を学習し、確率密度推定を行い、位置推定精度マップを生成する。
上記(4)式におけるp(θ|δ、φ)は、物体を第1観測位置φ及び第2観測位置(移動量)δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を示す多視点尤度マップである。多視点尤度マップは第3尤度マップの一具体例である。多視点尤度マップは、(φ、δ、θ)の3つのクォータニオンの組によって表現されてもよい。
図6は、多視点尤度マップの一例示す図である。図6において、横軸は物体の姿勢θであり、縦軸は、物体を第1観測位置φ及び第2観測位置δで観測したときのその物体の姿勢の尤度p(θ|δ、φ)である。
第2統計処理部5は、物体を第1観測位置φ及び第2観測位置δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を学習し、多視点尤度マップとして記憶する。
例えば、第2統計処理部5は、第1観測位置φ1iで観測した時の真の物体の姿勢θおよび、第2観測位置(移動量)δに基づいて、第2観測位置へ移動後の多視点尤度マップp(θ|δ、φ)を学習する。第2統計処理部5は、p(ξ|φ)とp(ξ|φ+δ)とを、移動量δを考慮して、ずらしながら重ね合わせることで、多視点尤度マップを算出する。
本実施形態において、物体を第1観測位置φから見たとき、画像取得部2を第1観測位置φからどれだけ移動させるか、すなわち、第2観測位置(移動量)δを推定している。まず、第1観測位置φにおける画像Iで物体の姿勢ξを推定し、その推定姿勢ξを推定姿勢尤度マップp(ξ|I)として表現している。ここで、その推定姿勢ξが正しいか分からないため、その推定姿勢がどの程度、正しいかを、位置推定精度マップp(φ|ξ)で表現している。さらに、第1観測位置φと、ある第2観測位置δを与えたときの物体がどの程度正しいかを多視点尤度マップp(θ|δ、φ)で表している。そして、これら尤度マップを乗算し、積分することで、あらゆるパターンを網羅して、物体の姿勢の尤度p(θ|δ、I)を表すことができる。
特に、上記(4)式の変形を行うことで、第1観測位置φを導入している。第1観測位置φが分からないため、尤度として表現し、第1観測位置φに応じて、第2観測位置を設定し、その評価関数の値を評価して、最適な第2観測位置を求めることができる。求めた最適な第2観測位置で物体を観測することで、物体の姿勢を高精度に推定することができる。
本実施形態において、位置推定部9は、上述の如く、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果をパラメータとした評価関数g(・)の値が最小となるように、第2観測位置δ(ハット)を推定する。
これにより、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果は、上述の如く、物体の姿勢θの尤度を示している。したがって、その評価関数g(・)の値が最小、すなわち、物体の姿勢θの尤度分布の尖度が最大となるように、第2観測位置δを推定することで、物体の姿勢を高精度に推定することができる。
例えば、位置推定部9は、姿勢推定部8からの推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、に基づいて、下記(5)式を用いて、第2観測位置δ(ハット)を推定する。
Figure 0007010778000004
位置推定精度マップp(φ|ξ)、及び、多視点尤度マップp(θ|δ、φ)は、予め記憶部6に記憶されていてもよい。この場合、位置推定部9は、姿勢推定部8からの推定姿勢尤度マップp(ξ|I)と、記憶部6に記憶された位置推定精度マップp(φ|ξ)および、多視点尤度マップp(θ|δ、φ)に基づいて、第2観測位置δ(ハット)を推定する。
位置推定部9は、推定された物体の推定姿勢ξと、上記推定した第2観測位置δと、の関係を示す関数f(δ=f(ξ))を算出してもよい。この関数(マップ)fは、推定姿勢ξのときにg(p(θ|δ、φ))を最大または最小する第2観測位置δを算出する。位置推定部9は、物体の推定姿勢ξに基づいて、δ=f(ξ)を計算し、第2観測位置δを算出する。これにより、物体の推定姿勢ξに対して第2観測位置δを容易に推定できる。
次に、本実施形態に係る観測位置推定装置1の推定方法について詳細に説明する。図7は、本実施形態に係る観測位置推定装置の推定方法によるフローの一例を示すフローチャートである。
本実施形態に係る観測位置推定装置1の推定方法において、まず、事前処理として、物体認識における特徴量、位置推定精度マップおよび多視点尤度マップの学習を行う学習工程が実行され、その学習結果を利用して第2観測位置を推定する推定工程が実行される。最初に学習工程について説明する。
<学習工程>
第1深層学習部3は、複数組の物体の画像及び物体の姿勢の学習データを用いて、物体の姿勢毎の特徴量を学習する(ステップS101)。
第1統計処理部4は、推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を学習し、その学習結果を、位置推定精度マップとして記憶する(ステップS102)。
第2統計処理部5は、物体を第1観測位置φ及び第2観測位置δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を学習し、その学習結果を多視点尤度マップとして記憶する(ステップS103)。
<推定工程>
続いて、推定工程について説明する。画像取得部2は、第1観測位置において、物体の画像を取得する(ステップS104)。画像取得部2は、取得した物体の画像を特徴量抽出部7に出力する。
特徴量抽出部7は、記憶部6に記憶されたフィルタモデルを用いて、画像取得部2からの物体の画像から、その物体の画像の特徴量を抽出する(ステップS105)。特徴量抽出部7は、抽出した物体の画像の特徴量を姿勢推定部8に出力する。
姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、第1深層学習部3により予め学習された物体の姿勢毎の特徴量と、を比較し、物体の姿勢の尤度を算出し、推定姿勢尤度マップを算出する(ステップS106)。姿勢推定部8は、算出した推定姿勢尤度マップを位置推定部9に出力する。
位置推定部9は、姿勢推定部8からの推定姿勢尤度マップに基づいて、推定姿勢の尤度の最大値が所定値以上であるか否かを判断する(ステップS107)。なお、所定値は、予め記憶部6などに設定されている。所定値は、例えば、求められるロボットの姿勢の推定精度に基づいて設定される。
位置推定部9は、推定姿勢の尤度の最大値が所定値以上であると判断した場合(ステップS107のYES)、姿勢推定部8からの推定姿勢尤度マップと、第1統計処理部4により学習された位置推定精度マップと、第2統計処理部5により学習された多視点尤度マップと、に基づいて、上記(5)式を用いて、第2観測位置δを推定する(ステップS108)。
位置推定部9は、推定姿勢の尤度の最大値が所定値以上でないと判断した場合(ステップS107のNO)、本処理を終了する。この場合、その第1観測位置では、最適な第2観測位置を推定できないため、物体を観測し易い位置へ画像取得部2を移動させる必要がある。
本実施形態に係る観測位置推定装置1は、例えば、自律移動型のロボットなどに搭載されてもよい。図8は、本実施形態に係る観測位置推定装置1が搭載されたロボットの概略的なシステム構成を示すブロック図である。
画像取得部2は、ロボット10の頭部などに設けられている。ロボット10は、例えば、多関節型のヒューマノイドロボットとして構成されている。ロボット10の各関節部には、サーボモータなどのアクチュエータ11が夫々設けられている。制御部12は、各関節部のアクチュエータ11を制御し各関節部を駆動することで、画像取得部2を所望の位置に移動させることができる。
位置推定部9は、推定した第2観測位置δを制御部12に出力する。制御部12は、位置推定部9からの第2観測位置δに基づいて、各アクチュエータ11を制御して、画像取得部2を第1観測位置φから、位置推定部9により推定された第2観測位置δに移動させる。画像取得部2は、移動した第2観測位置で、物体の画像を取得する。
観測位置推定装置1は、ロボット10に搭載されない構成であってもよい。この場合、観測位置推定装置1は、ロボット10と無線あるいは有線で接続されている。位置推定部9は、推定した第2観測位置δを、例えば、Bluetooth(登録商標)、Wifi(登録商標)などの無線を介して、制御部12に送信する。
以上、本実施形態において、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果をパラメータとした評価関数g(・)の値が最大又は最小となるように、第2観測位置δ(ハット)を推定する。
これにより、その評価関数g(・)の値が最大又は最小、すなわち、物体の姿勢θの尤度分布の尖度が最大となるように、第2観測位置δを推定することで、物体の姿勢を高精度に推定することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他のさまざまな形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本発明は、例えば、図7に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 観測位置推定装置、2 画像取得部、3 第1深層学習部、4 第1統計処理部、5 第2統計処理部、6 記憶部、7 特徴量抽出部、8 姿勢推定部、9 位置推定部

Claims (9)

  1. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
    前記第1観測位置において物体の画像を取得する画像取得手段と、
    前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
    前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
    前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
    前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
    を備える、ことを特徴とする観測位置推定装置。
  2. 請求項1記載の観測位置推定装置であって、
    前記位置推定手段は、前記姿勢推定手段により推定された第1尤度マップp(ξ|I)と、前記第2記憶手段に記憶された第2尤度マップp(φ|ξ)と、第3記憶手段に記憶された第3尤度マップp(θ|δ、φ)と、に基づいて、下記式を用いて、前記第2観測位置δ(ハット)を推定する、
    ことを特徴とする観測位置推定装置。
    Figure 0007010778000005
    ただし、ξは前記物体の推定姿勢、Iは前記画像取得手段が前記第1観測位置で取得した物体の画像、φは前記第1観測位置、θは前記物体の姿勢、δは前記第2観測位置、である。
  3. 請求項1又は2記載の観測位置推定装置であって、
    前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、
    前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出する、
    ことを特徴とする観測位置推定装置。
  4. 請求項1乃至3のうちいずれか1項記載の観測位置推定装置であって、
    前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段である、
    ことを特徴とする観測位置推定装置。
  5. 請求項1乃至4のうちいずれか1項記載の観測位置推定装置であって、
    前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段である、
    ことを特徴とする観測位置推定装置。
  6. 請求項1乃至5のうちいずれか1項記載の観測位置推定装置であって、
    前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、である、
    ことを特徴とする観測位置推定装置。
  7. 請求項1乃至6のうちいずれか1項記載の観測位置推定装置であって、
    前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定する、
    ことを特徴とする観測位置推定装置。
  8. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
    前記第1観測位置において物体の画像を取得するステップと、
    前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
    前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
    該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
    を含む、ことを特徴とする観測位置推定装置の推定方法。
  9. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
    前記第1観測位置において物体の画像を取得する処理と、
    前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
    前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
    該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
    をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム。
JP2018125200A 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム Active JP7010778B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018125200A JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム
CN201910567033.7A CN110660100B (zh) 2018-06-29 2019-06-27 观测位置推荐装置及其推荐方法以及计算机可读介质
US16/454,735 US10909717B2 (en) 2018-06-29 2019-06-27 Viewpoint recommendation apparatus, recommendation method thereof, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018125200A JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020004260A JP2020004260A (ja) 2020-01-09
JP7010778B2 true JP7010778B2 (ja) 2022-01-26

Family

ID=69008235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018125200A Active JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム

Country Status (3)

Country Link
US (1) US10909717B2 (ja)
JP (1) JP7010778B2 (ja)
CN (1) CN110660100B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11375176B2 (en) * 2019-02-05 2022-06-28 Nvidia Corporation Few-shot viewpoint estimation
US12008790B2 (en) * 2019-09-24 2024-06-11 Apple Inc. Encoding three-dimensional data for processing by capsule neural networks
KR102514301B1 (ko) * 2020-02-07 2023-03-27 주식회사 딥아이 이종 센서 융합을 이용한 행동 분석 장치
US11532096B2 (en) * 2020-05-21 2022-12-20 Verizon Connect Development Limited Systems and methods for utilizing a deep learning model to determine vehicle viewpoint estimations
US11710254B2 (en) * 2021-04-07 2023-07-25 Ford Global Technologies, Llc Neural network object detection

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7426292B2 (en) * 2003-08-07 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Method for determining optimal viewpoints for 3D face modeling and face recognition
US20090245691A1 (en) * 2008-03-31 2009-10-01 University Of Southern California Estimating pose of photographic images in 3d earth model using human assistance
EP2395478A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Monocular 3D pose estimation and tracking by detection
JP5631086B2 (ja) 2010-07-12 2014-11-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US9262674B2 (en) * 2010-12-09 2016-02-16 Panasonic Corporation Orientation state estimation device and orientation state estimation method
WO2012155279A2 (en) * 2011-05-13 2012-11-22 Liberovision Ag Silhouette-based pose estimation
JP5804185B2 (ja) * 2012-03-06 2015-11-04 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
JP6042289B2 (ja) * 2013-08-23 2016-12-14 株式会社デンソーアイティーラボラトリ 姿勢推定装置、姿勢推定方法およびプログラム
US20150095360A1 (en) * 2013-09-27 2015-04-02 Qualcomm Incorporated Multiview pruning of feature database for object recognition system
JP6171849B2 (ja) * 2013-10-29 2017-08-02 日産自動車株式会社 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
JP6740033B2 (ja) * 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム
US10940587B2 (en) * 2017-04-28 2021-03-09 Technion Research & Development Foundation Ltd. Data association aware belief space planning and perception
JP7059701B2 (ja) * 2018-03-08 2022-04-26 富士通株式会社 推定装置、推定方法、及び推定プログラム
US10171738B1 (en) * 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
F.Deinzer, 外2名,"Viewpoint selection - a classifier independent learning approach",4th IEEE Southwest Symposium on Image Analysis and Interpretation,米国,IEEE,2000年04月04日
Kai-Chi Chan, 外2名,"Selecting best viewpoint for human-pose estimation",2014 IEEE International Conference on Robotics and Automation (ICRA),米国,IEEE,2014年06月07日,p.4844-4849
高橋友和, 外5名,"複数カメラ入力によるアピアランスベース物体認識のためのカメラ配置決定手法",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2007年08月01日,第J90-D巻, 第8号,p.2182-2190

Also Published As

Publication number Publication date
CN110660100A (zh) 2020-01-07
CN110660100B (zh) 2023-04-14
US20200005480A1 (en) 2020-01-02
JP2020004260A (ja) 2020-01-09
US10909717B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
JP7010778B2 (ja) 観測位置推定装置、その推定方法、及びプログラム
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
TWI638249B (zh) Position control device and position control method
JP5787642B2 (ja) 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP6430986B2 (ja) ロボットを用いた位置決め装置
Motai et al. Hand–eye calibration applied to viewpoint selection for robotic vision
KR20190102250A (ko) 위치 제어 장치 및 위치 제어 방법
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
CN112950667A (zh) 一种视频标注方法、装置、设备及计算机可读存储介质
CN113409384A (zh) 一种目标物体的位姿估计方法和系统、机器人
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
WO2015029287A1 (ja) 特徴点位置推定装置、特徴点位置推定方法および特徴点位置推定プログラム
JP2016091053A (ja) 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム
CN116249607A (zh) 用于机器人抓取三维物体的方法和装置
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
Silveira On intensity-based nonmetric visual servoing
JP6936974B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
CN113878588B (zh) 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5791373B2 (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
Ryan et al. Probabilistic correspondence in video sequences for efficient state estimation and autonomous flight
Kim et al. Mesh modelling of 3D point cloud from UAV images by point classification and geometric constraints
JP2014178967A (ja) 3次元物体認識装置及び3次元物体認識方法
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220113

R150 Certificate of patent or registration of utility model

Ref document number: 7010778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150