JP2020004260A - 観測位置推定装置、その推定方法、及びプログラム - Google Patents

観測位置推定装置、その推定方法、及びプログラム Download PDF

Info

Publication number
JP2020004260A
JP2020004260A JP2018125200A JP2018125200A JP2020004260A JP 2020004260 A JP2020004260 A JP 2020004260A JP 2018125200 A JP2018125200 A JP 2018125200A JP 2018125200 A JP2018125200 A JP 2018125200A JP 2020004260 A JP2020004260 A JP 2020004260A
Authority
JP
Japan
Prior art keywords
observation position
posture
likelihood
estimating
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018125200A
Other languages
English (en)
Other versions
JP7010778B2 (ja
Inventor
村瀬 洋
Hiroshi Murase
洋 村瀬
康友 川西
Yasutomo Kawanishi
康友 川西
大輔 出口
Daisuke Deguchi
大輔 出口
ビン ニック ムハマド ザリフィ ハシム
Mohd Zarifie Bin Hashim Nik
ビン ニック ムハマド ザリフィ ハシム
中野 雄介
Yusuke Nakano
雄介 中野
訓成 小堀
Kuninari Kobori
訓成 小堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Toyota Motor Corp
Original Assignee
Nagoya University NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Toyota Motor Corp filed Critical Nagoya University NUC
Priority to JP2018125200A priority Critical patent/JP7010778B2/ja
Priority to CN201910567033.7A priority patent/CN110660100B/zh
Priority to US16/454,735 priority patent/US10909717B2/en
Publication of JP2020004260A publication Critical patent/JP2020004260A/ja
Application granted granted Critical
Publication of JP7010778B2 publication Critical patent/JP7010778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】物体の最適な観測位置を推定できること。【解決手段】観測位置推定装置は、第1観測位置において物体の画像を取得する画像取得手段と、取得された物体の画像から物体の画像の特徴量を抽出する特徴量抽出手段と、抽出された物体の特徴量に基づいて物体の推定姿勢と推定姿勢の尤度との関係を示す第1尤度マップを算出する姿勢推定手段と、推定された姿勢のときの、真の第1観測位置と第1観測位置の尤度との関係を示す第2尤度マップを記憶する第2記憶手段と、物体を第1観測位置及び第2観測位置で観測したときの、物体の姿勢と姿勢の尤度との関係を示す第3尤度マップを記憶する第3記憶手段と、第1尤度マップと第2尤度マップと第3尤度マップとを乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、第2観測位置を推定する位置推定手段と、を備える。【選択図】図1

Description

本発明は、物体の観測位置を推定する観測位置推定装置、その推定方法、及びプログラムに関する。
物体の姿勢を推定するために、該物体を複数の観測位置で観測する観測位置推定装置が知られている(例えば、特許文献1参照)。
特開2012−022411号公報
上記観測位置推定装置は、ランダムに設定された複数の観測位置で物体を観測しているため、その観測位置が、物体を観測する上で最適な位置とは限らない。
本発明は、このような問題点を解決するためになされたものであり、物体の最適な観測位置を推定できる観測位置推定装置、その推定方法、及びプログラムを提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
前記第1観測位置において物体の画像を取得する画像取得手段と、
前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
を備える、ことを特徴とする観測位置推定装置
である。
この一態様において、前記位置推定手段は、前記姿勢推定手段により推定された第1尤度マップp(ξ|I)と、前記第2記憶手段に記憶された第2尤度マップp(φ|ξ)と、第3記憶手段に記憶された第3尤度マップp(θ|δ、φ)と、に基づいて、下記式を用いて、前記第2観測位置δ(ハット)を推定してもよい。ただし、ξは前記物体の推定姿勢、Iは前記画像取得手段が前記第1観測位置で取得した物体の画像、φは前記第1観測位置、θは前記物体の姿勢、δは前記第2観測位置、である。
この一態様において、前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出してもよい。
この一態様において、前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段であってもよい。
この一態様において、前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段であってもよい。
この一態様において、前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、であってもよい。
この一態様において、前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定してもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
前記第1観測位置において物体の画像を取得するステップと、
前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
を含む、ことを特徴とする観測位置推定装置の推定方法
であってもよい。
上記目的を達成するための本発明の一態様は、
物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
前記第1観測位置において物体の画像を取得する処理と、
前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム
であってもよい。
本発明は、このような問題点を解決するためになされたものであり、物体の最適な観測位置を推定できる観測位置推定装置、その推定方法、及びプログラムを提供することができる。
本発明の一実施形態に係る観測位置推定装置の概略的なシステム構成を示すブロック図である。 推定姿勢尤度マップの一例を示す図である。 平面上に置かれた取手のあるコップを上方から見た図である。 物体の姿勢の尤度の分布を示す姿勢尤度マップの一例を示す図である。 位置推定精度マップの一例を示す図である。 多視点尤度マップの一例示す図である。 本発明の一実施形態に係る観測位置推定装置の推定方法によるフローの一例を示すフローチャートである。 本発明の実施形態に係る観測位置推定装置が搭載されたロボットの概略的なシステム構成を示すブロック図である。
以下、図面を参照して本発明の実施形態について説明する。
例えば、生活支援ロボットが物を把持して移動するために、未知物体の姿勢を推定することが重要となる。このようなロボットは、カメラ等のセンサによって、物体を複数の観測位置で観測することで、物体の姿勢を高精度に推定することができる。
しかし、ランダムに設定された複数の観測位置で物体を観測する場合、その観測位置が、物体を観測する上で最適な位置とは限らない。例えば、観測位置によっては、その物体を認識し難いため、認識時間がかかり、認識精度が低下する、などの問題が生じ得る。
これに対し、本発明の一実施形態に係る観測位置推定装置は、物体を最初に観測する第1観測位置から、次に物体を観測すべき最適な第2観測位置を推定するものである。これにより、物体の最適な観測位置を推定でき、その最適な観測位置で物体を観測することで、物体の姿勢を高精度に推定することができる。
図1は、本実施形態に係る観測位置推定装置の概略的なシステム構成を示すブロック図である。本実施形態に係る観測位置推定装置1は、画像取得部2と、第1深層学習部3と、第1及び第2統計処理部4、5と、記憶部6と、特徴量抽出部7と、姿勢推定部8と、位置推定部9と、を備えている。
なお、観測位置推定装置1は、例えば、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU、メモリ、及びインターフェイス部は、データバスなどを介して相互に接続されている。
画像取得部2は、画像取得手段の一具体例である。画像取得部2は、第1観測位置において、物体の画像を時系列で取得する。画像取得部2は、例えば、RGBカメラ、赤外カメラなどの距離センサで構成されているが、これに限定されない。画像取得部2は、物体の画像を取得できれば、任意のセンサで構成されてもよい。画像取得部2は、第1観測位置で取得した物体の画像を特徴量抽出部7に出力する。
第1深層学習部3は、第1学習手段の一具体例である。第1及び第2統計処理部4、5は、第2及び第3学習手段の一具体例である。第1深層学習部3は、例えば、CNN(Convolutional Neural Network)、RNN(Recurrent neural Network)などのニューラルネットワークで構成されている。このRNNは、中間層にLSTM(Long Short Term Memory)を有している。
第1深層学習部3、および、第1及び第2統計処理部4、5は、SVM(Support Vector Machine)などの学習器で構成されてもよい。第1深層学習部3、第1及び第2統計処理部4、5、および、記憶部6は一体的に構成されていてもよい。第1深層学習部3は、複数組の物体の画像及び物体の姿勢の学習データを用いて、物体の姿勢毎の特徴量を学習し、その学習結果(姿勢テンプレート)を記憶する。
特徴量抽出部7は、特徴量抽出手段の一具体例である。特徴量抽出部7は、記憶部6に記憶されたフィルタモデルを用いて、画像取得部2により取得された物体の画像から、その物体の画像の特徴量を抽出する。フィルタモデルは、例えば、PCA(Principal Component Analysis)、LDA(Linear Discriminant Analysis)等による次元圧縮のための基底ベクトル、エッジ抽出用の微分フィルタ、離散コサイン変換等に局所フィルタを含む。
特徴量抽出部7は、深層学習部を用いて、画像取得部2により取得された物体の画像からその物体の特徴量を自動抽出してもよい。この場合、深層学習部は、予め、学習データを用いて、認識に有利な特徴量を学習している。特徴量抽出部7は、抽出した物体の画像の特徴量を姿勢推定部8に出力する。
姿勢推定部8は、姿勢推定手段の一具体例である。姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、第1深層学習部3により予め学習された物体の姿勢毎の特徴量(姿勢テンプレート)と、を比較し、物体の姿勢の尤度を算出する。そして、姿勢推定部8は、物体姿勢の3軸(x軸、y軸、z軸)に対する推定姿勢尤度マップを算出する。なお、姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、記憶部6に予め記憶された物体の姿勢毎の特徴量と、を比較し、推定姿勢尤度マップを算出してもよい。
推定姿勢尤度マップは、第1尤度マップの一具体例である。推定姿勢尤度マップは、例えば、物体の推定姿勢(推定角度)ξと、その推定姿勢の尤度p(ξ|I)との関係を示すマップ情報である。Iは、画像取得部2が第1観測位置で取得した物体の画像である。
図2は、推定姿勢尤度マップの一例を示す図である。図2において、横軸は物体の推定姿勢ξであり、縦軸はその推定姿勢の尤度p(ξ|I)である。尤度p(ξ|I)は、物体の画像Iから推定した物体の推定姿勢ξの尤度分布を示す。姿勢推定部8が、例えば回帰分析を行うように構成されている場合、推定姿勢尤度マップは、図2に示す如く、1点でのみ1となり、残りは0となる分布となる。姿勢推定部8は、算出した推定姿勢尤度マップを位置推定部9に出力する。
位置推定部9は、位置推定手段の一具体例である。位置推定部9は、姿勢推定部8により算出された推定姿勢尤度マップに基づいて、画像取得部2の次の第2観測位置を推定する。
ここで、取手のあるコップを物体の一例として説明する。図3は、平面上に置かれた取手のあるコップを上方から見た図である。例えば、図3に示す如く、第1観測位置を、コップを中心として二次元座標系の回転角φとして表すことができる。第2観測位置を、第1観測位置からの画像取得部2の移動量(回転量)δとして表すことができる。コップの姿勢は、原点を中心とした取手の回転角θとして表すことができる。いずれも、反時計方向を正とする。
なお、本実施形態において、第2観測位置は、第1観測位置からの移動量として表現しているが、これに限定されない。例えば、第2観測位置は、第1観測位置φと同様に、回転角φとして表現してもよい。
図4は、物体の姿勢の尤度の分布を示す姿勢尤度マップの一例を示す図である。図4において、横軸は物体の姿勢θであり、縦軸はその姿勢の尤度p(θ|δ、I)である。
位置推定部9は、図4に示す物体の姿勢尤度マップの良否を、評価関数g(・)によって評価することで、次の第2観測位置δ(ハット)を推定する。例えば、位置推定部9は、姿勢尤度マップを、評価関数g(・)によって評価し、姿勢尤度マップの尖度がより大きくなるような、第2観測位置δを少なくとも1つ算出する。これにより、物体の姿勢の尤度がより高くなる最適な第2観測位置を推定できる。そして、推定した第2観測位置で物体を観測することで、物体の姿勢を高精度に推定できる。
評価関数g(・)は、例えば、姿勢尤度マップの分散を算出する関数(1)式、姿勢尤度マップのエントロピーを算出する関数(2)式、などである。これら評価関数を用いることで、姿勢尤度マップの尖度を最適に評価できる。
Figure 2020004260
なお、上記評価関数は一例であり、これに限定されず、姿勢尤度マップの尖度が評価できれば任意の関数が適用可能である。
例えば、上記(1)式、又は(2)式の評価関数g(・)の値が、最小のときに、姿勢尤度マップの尖度は最大となる。したがって、位置推定部9は、以下(3)式を用いて、次の第2観測位置δ(ハット)を推定する。下記(3)式においてδの上にハット記号を付したものをδ(ハット)と表記している。
Figure 2020004260
位置推定部9は、上記(3)式を用いて、評価関数g(p(θ|δ、I))の値が最小となり、姿勢尤度マップの尖度が最大となるような、第2観測位置δ(ハット)を推定する。
位置推定部9は、上記(3)式を用いて、評価関数g(p(θ|δ、I))の値が閾値以下となるような、第2観測位置δ(ハット)を少なくとも1つ推定してもよい。これにより、物体の姿勢の尤度が高くなる、第2観測位置δを少なくとも1つ推定できる。
なお、上記評価関数の符号が正負で逆になる場合、位置推定部9は、評価関数g(p(θ|δ、I))の値が最大となるような、第2観測位置δ(ハット)を推定してもよい。さらに、位置推定部9は、評価関数の種類に応じて、評価関数g(p(θ|δ、I))の値が閾値以上となるような、第2観測位置δ(ハット)を少なくとも1つ推定してもよい。
ここで、上記(1)式のp(θ|δ、I)は、隠れ変数が導入され、下記(4)式のように、p(θ|δ、φ)と、p(φ|ξ)と、p(ξ|I)と、を乗算し積分した式に変形される。
Figure 2020004260
上記(4)式におけるp(ξ|I)は、上述の如く、姿勢推定部8から出力される推定姿勢尤度マップである。推定姿勢尤度マップは第2尤度マップの一具体例である。上記(4)式におけるp(φ|ξ)は、物体の推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を示す位置推定精度マップである。
位置推定精度マップは、同一姿勢の物体の特徴量が姿勢推定部8に入力されたときの姿勢推定部8の推定精度を示すもので、物体の姿勢毎の誤差分布を示すものである。位置推定精度マップは、様々な姿勢の物体、および、同一カテゴリ内の様々な物体に対し、第1観測位置の真値とその尤度のペアとして予め用意される。図5は、位置推定精度マップの一例を示す図である。図5において、横軸は真の第1観測位置φであり、縦軸はその第1観測位置の尤度p(φ|ξ)である。
例えば、(1)の方向からコップを見た場合、取手の位置が特定でき、その姿勢を精度良く推定できるため、第1観測位置の尤度は高くなる。一方で、(2)の方向からコップを見た場合、取手の位置が特定できず、その姿勢を特定し難いため、第1観測位置の尤度は低くなる。
第1統計処理部4は、物体の推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を学習し、位置推定精度マップとして記憶する。 例えば、物体座標系において、第1観測位置φ1iで、既知の画像Iに対して姿勢推定が行われ、推定姿勢ξが得られる。第1統計処理部4は、このようにして得た複数組の第1観測位置φ1iと推定姿勢ξのデータを用いて、第1観測位置φ1iと推定姿勢ξとの対応関係を学習し、確率密度推定を行い、位置推定精度マップを生成する。
上記(4)式におけるp(θ|δ、φ)は、物体を第1観測位置φ及び第2観測位置(移動量)δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を示す多視点尤度マップである。多視点尤度マップは第3尤度マップの一具体例である。多視点尤度マップは、(φ、δ、θ)の3つのクォータニオンの組によって表現されてもよい。
図6は、多視点尤度マップの一例示す図である。図6において、横軸は物体の姿勢θであり、縦軸は、物体を第1観測位置φ及び第2観測位置δで観測したときのその物体の姿勢の尤度p(θ|δ、φ)である。
第2統計処理部5は、物体を第1観測位置φ及び第2観測位置δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を学習し、多視点尤度マップとして記憶する。
例えば、第2統計処理部5は、第1観測位置φ1iで観測した時の真の物体の姿勢θおよび、第2観測位置(移動量)δに基づいて、第2観測位置へ移動後の多視点尤度マップp(θ|δ、φ)を学習する。第2統計処理部5は、p(ξ|φ)とp(ξ|φ+δ)とを、移動量δを考慮して、ずらしながら重ね合わせることで、多視点尤度マップを算出する。
本実施形態において、物体を第1観測位置φから見たとき、画像取得部2を第1観測位置φからどれだけ移動させるか、すなわち、第2観測位置(移動量)δを推定している。まず、第1観測位置φにおける画像Iで物体の姿勢ξを推定し、その推定姿勢ξを推定姿勢尤度マップp(ξ|I)として表現している。ここで、その推定姿勢ξが正しいか分からないため、その推定姿勢がどの程度、正しいかを、位置推定精度マップp(φ|ξ)で表現している。さらに、第1観測位置φと、ある第2観測位置δを与えたときの物体がどの程度正しいかを多視点尤度マップp(θ|δ、φ)で表している。そして、これら尤度マップを乗算し、積分することで、あらゆるパターンを網羅して、物体の姿勢の尤度p(θ|δ、I)を表すことができる。
特に、上記(4)式の変形を行うことで、第1観測位置φを導入している。第1観測位置φが分からないため、尤度として表現し、第1観測位置φに応じて、第2観測位置を設定し、その評価関数の値を評価して、最適な第2観測位置を求めることができる。求めた最適な第2観測位置で物体を観測することで、物体の姿勢を高精度に推定することができる。
本実施形態において、位置推定部9は、上述の如く、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果をパラメータとした評価関数g(・)の値が最小となるように、第2観測位置δ(ハット)を推定する。
これにより、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果は、上述の如く、物体の姿勢θの尤度を示している。したがって、その評価関数g(・)の値が最小、すなわち、物体の姿勢θの尤度分布の尖度が最大となるように、第2観測位置δを推定することで、物体の姿勢を高精度に推定することができる。
例えば、位置推定部9は、姿勢推定部8からの推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、に基づいて、下記(5)式を用いて、第2観測位置δ(ハット)を推定する。
Figure 2020004260
位置推定精度マップp(φ|ξ)、及び、多視点尤度マップp(θ|δ、φ)は、予め記憶部6に記憶されていてもよい。この場合、位置推定部9は、姿勢推定部8からの推定姿勢尤度マップp(ξ|I)と、記憶部6に記憶された位置推定精度マップp(φ|ξ)および、多視点尤度マップp(θ|δ、φ)に基づいて、第2観測位置δ(ハット)を推定する。
位置推定部9は、推定された物体の推定姿勢ξと、上記推定した第2観測位置δと、の関係を示す関数f(δ=f(ξ))を算出してもよい。この関数(マップ)fは、推定姿勢ξのときにg(p(θ|δ、φ))を最大または最小する第2観測位置δを算出する。位置推定部9は、物体の推定姿勢ξに基づいて、δ=f(ξ)を計算し、第2観測位置δを算出する。これにより、物体の推定姿勢ξに対して第2観測位置δを容易に推定できる。
次に、本実施形態に係る観測位置推定装置1の推定方法について詳細に説明する。図7は、本実施形態に係る観測位置推定装置の推定方法によるフローの一例を示すフローチャートである。
本実施形態に係る観測位置推定装置1の推定方法において、まず、事前処理として、物体認識における特徴量、位置推定精度マップおよび多視点尤度マップの学習を行う学習工程が実行され、その学習結果を利用して第2観測位置を推定する推定工程が実行される。最初に学習工程について説明する。
<学習工程>
第1深層学習部3は、複数組の物体の画像及び物体の姿勢の学習データを用いて、物体の姿勢毎の特徴量を学習する(ステップS101)。
第1統計処理部4は、推定姿勢ξのときの、真の第1観測位置φと、その第1観測位置の尤度p(φ|ξ)と、の関係を学習し、その学習結果を、位置推定精度マップとして記憶する(ステップS102)。
第2統計処理部5は、物体を第1観測位置φ及び第2観測位置δで観測したときの物体の姿勢θと、その姿勢の尤度p(θ|δ、φ)との関係を学習し、その学習結果を多視点尤度マップとして記憶する(ステップS103)。
<推定工程>
続いて、推定工程について説明する。画像取得部2は、第1観測位置において、物体の画像を取得する(ステップS104)。画像取得部2は、取得した物体の画像を特徴量抽出部7に出力する。
特徴量抽出部7は、記憶部6に記憶されたフィルタモデルを用いて、画像取得部2からの物体の画像から、その物体の画像の特徴量を抽出する(ステップS105)。特徴量抽出部7は、抽出した物体の画像の特徴量を姿勢推定部8に出力する。
姿勢推定部8は、特徴量抽出部7により抽出された物体の特徴量と、第1深層学習部3により予め学習された物体の姿勢毎の特徴量と、を比較し、物体の姿勢の尤度を算出し、推定姿勢尤度マップを算出する(ステップS106)。姿勢推定部8は、算出した推定姿勢尤度マップを位置推定部9に出力する。
位置推定部9は、姿勢推定部8からの推定姿勢尤度マップに基づいて、推定姿勢の尤度の最大値が所定値以上であるか否かを判断する(ステップS107)。なお、所定値は、予め記憶部6などに設定されている。所定値は、例えば、求められるロボットの姿勢の推定精度に基づいて設定される。
位置推定部9は、推定姿勢の尤度の最大値が所定値以上であると判断した場合(ステップS107のYES)、姿勢推定部8からの推定姿勢尤度マップと、第1統計処理部4により学習された位置推定精度マップと、第2統計処理部5により学習された多視点尤度マップと、に基づいて、上記(5)式を用いて、第2観測位置δを推定する(ステップS108)。
位置推定部9は、推定姿勢の尤度の最大値が所定値以上でないと判断した場合(ステップS107のNO)、本処理を終了する。この場合、その第1観測位置では、最適な第2観測位置を推定できないため、物体を観測し易い位置へ画像取得部2を移動させる必要がある。
本実施形態に係る観測位置推定装置1は、例えば、自律移動型のロボットなどに搭載されてもよい。図8は、本実施形態に係る観測位置推定装置1が搭載されたロボットの概略的なシステム構成を示すブロック図である。
画像取得部2は、ロボット10の頭部などに設けられている。ロボット10は、例えば、多関節型のヒューマノイドロボットとして構成されている。ロボット10の各関節部には、サーボモータなどのアクチュエータ11が夫々設けられている。制御部12は、各関節部のアクチュエータ11を制御し各関節部を駆動することで、画像取得部2を所望の位置に移動させることができる。
位置推定部9は、推定した第2観測位置δを制御部12に出力する。制御部12は、位置推定部9からの第2観測位置δに基づいて、各アクチュエータ11を制御して、画像取得部2を第1観測位置φから、位置推定部9により推定された第2観測位置δに移動させる。画像取得部2は、移動した第2観測位置で、物体の画像を取得する。
観測位置推定装置1は、ロボット10に搭載されない構成であってもよい。この場合、観測位置推定装置1は、ロボット10と無線あるいは有線で接続されている。位置推定部9は、推定した第2観測位置δを、例えば、Bluetooth(登録商標)、Wifi(登録商標)などの無線を介して、制御部12に送信する。
以上、本実施形態において、姿勢推定部8により算出された推定姿勢尤度マップp(ξ|I)と、第1統計処理部4により学習された位置推定精度マップp(φ|ξ)と、第2統計処理部5により学習された多視点尤度マップp(θ|δ、φ)と、を乗算し積分した結果をパラメータとした評価関数g(・)の値が最大又は最小となるように、第2観測位置δ(ハット)を推定する。
これにより、その評価関数g(・)の値が最大又は最小、すなわち、物体の姿勢θの尤度分布の尖度が最大となるように、第2観測位置δを推定することで、物体の姿勢を高精度に推定することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他のさまざまな形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本発明は、例えば、図7に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 観測位置推定装置、2 画像取得部、3 第1深層学習部、4 第1統計処理部、5 第2統計処理部、6 記憶部、7 特徴量抽出部、8 姿勢推定部、9 位置推定部

Claims (9)

  1. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置であって、
    前記第1観測位置において物体の画像を取得する画像取得手段と、
    前記画像取得手段により取得された物体の画像から、該物体の画像の特徴量を抽出する特徴量抽出手段と、
    前記特徴量抽出手段により抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する姿勢推定手段と、
    前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップを記憶する第2記憶手段と、
    前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップを記憶する第3記憶手段と、
    前記姿勢推定手段により算出された第1尤度マップと、前記第2記憶手段に記憶された第2尤度マップと、前記第3記憶手段に記憶された第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する位置推定手段と、
    を備える、ことを特徴とする観測位置推定装置。
  2. 請求項1記載の観測位置推定装置であって、
    前記位置推定手段は、前記姿勢推定手段により推定された第1尤度マップp(ξ|I)と、前記第2記憶手段に記憶された第2尤度マップp(φ|ξ)と、第3記憶手段に記憶された第3尤度マップp(θ|δ、φ)と、に基づいて、下記式を用いて、前記第2観測位置δ(ハット)を推定する、
    ことを特徴とする観測位置推定装置。
    Figure 2020004260
    ただし、ξは前記物体の推定姿勢、Iは前記画像取得手段が前記第1観測位置で取得した物体の画像、φは前記第1観測位置、θは前記物体の姿勢、δは前記第2観測位置、である。
  3. 請求項1又は2記載の観測位置推定装置であって、
    前記物体の姿勢毎の特徴量を学習する第1学習手段を更に備え、
    前記姿勢推定手段は、前記特徴量抽出手段により抽出された物体の特徴量と、前記第1学習手段により学習された物体の姿勢毎の特徴量と、を比較して、前記第1尤度マップを算出する、
    ことを特徴とする観測位置推定装置。
  4. 請求項1乃至3のうちいずれか1項記載の観測位置推定装置であって、
    前記第2記憶手段は、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を学習し、前記第2尤度マップとして記憶する第2学習手段である、
    ことを特徴とする観測位置推定装置。
  5. 請求項1乃至4のうちいずれか1項記載の観測位置推定装置であって、
    前記第3記憶手段は、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を学習し、前記第3尤度マップとして記憶する第3学習手段である、
    ことを特徴とする観測位置推定装置。
  6. 請求項1乃至5のうちいずれか1項記載の観測位置推定装置であって、
    前記評価関数は、分布の分散を算出する関数、又は、分布のエントロピーを算出する関数、である、
    ことを特徴とする観測位置推定装置。
  7. 請求項1乃至6のうちいずれか1項記載の観測位置推定装置であって、
    前記位置推定手段は、前記評価関数の値が閾値以上又は閾値以下となるように、前記第2観測位置を少なくとも1つ推定する、
    ことを特徴とする観測位置推定装置。
  8. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置の推定方法であって、
    前記第1観測位置において物体の画像を取得するステップと、
    前記取得された物体の画像から、該物体の画像の特徴量を抽出するステップと、
    前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出するステップと、
    該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定するステップと、
    を含む、ことを特徴とする観測位置推定装置の推定方法。
  9. 物体の姿勢を推定するために、該物体の第1観測位置から、次に該物体を観測すべき第2観測位置を推定する観測位置推定装置のプログラムであって、
    前記第1観測位置において物体の画像を取得する処理と、
    前記取得された物体の画像から、該物体の画像の特徴量を抽出する処理と、
    前記抽出された物体の特徴量に基づいて、前記物体の画像から推定した該物体の推定姿勢と、該推定姿勢の尤度と、の関係を示す第1尤度マップを算出する処理と、
    該算出された第1尤度マップと、前記推定された姿勢のときの、真の前記第1観測位置と、該第1観測位置の尤度と、の関係を示す第2尤度マップと、前記物体を前記第1観測位置及び前記第2観測位置で観測したときの、前記物体の姿勢と、該姿勢の尤度と、の関係を示す第3尤度マップと、を乗算し積分した結果をパラメータとした評価関数の値が最大又は最小となるように、前記第2観測位置を推定する処理と、
    をコンピュータに実行させる、ことを特徴とする観測位置推定装置のプログラム。
JP2018125200A 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム Active JP7010778B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018125200A JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム
CN201910567033.7A CN110660100B (zh) 2018-06-29 2019-06-27 观测位置推荐装置及其推荐方法以及计算机可读介质
US16/454,735 US10909717B2 (en) 2018-06-29 2019-06-27 Viewpoint recommendation apparatus, recommendation method thereof, and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018125200A JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020004260A true JP2020004260A (ja) 2020-01-09
JP7010778B2 JP7010778B2 (ja) 2022-01-26

Family

ID=69008235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018125200A Active JP7010778B2 (ja) 2018-06-29 2018-06-29 観測位置推定装置、その推定方法、及びプログラム

Country Status (3)

Country Link
US (1) US10909717B2 (ja)
JP (1) JP7010778B2 (ja)
CN (1) CN110660100B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100937A (ko) * 2020-02-07 2021-08-18 주식회사 딥아이 이종 센서 융합을 이용한 행동 분석 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11375176B2 (en) * 2019-02-05 2022-06-28 Nvidia Corporation Few-shot viewpoint estimation
US12008790B2 (en) * 2019-09-24 2024-06-11 Apple Inc. Encoding three-dimensional data for processing by capsule neural networks
US11532096B2 (en) * 2020-05-21 2022-12-20 Verizon Connect Development Limited Systems and methods for utilizing a deep learning model to determine vehicle viewpoint estimations
US11710254B2 (en) * 2021-04-07 2023-07-25 Ford Global Technologies, Llc Neural network object detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041343A (ja) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ 姿勢推定装置、姿勢推定方法およびプログラム
JP2018004310A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7426292B2 (en) * 2003-08-07 2008-09-16 Mitsubishi Electric Research Laboratories, Inc. Method for determining optimal viewpoints for 3D face modeling and face recognition
EP2274711A4 (en) * 2008-03-31 2012-12-19 Univ Southern California ESTIMATING THE INSTALLATION OF PHOTOGRAPHIC IMAGES IN A 3D MODEL OF EARTH WITH HUMAN ASSISTANCE
EP2395478A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Monocular 3D pose estimation and tracking by detection
JP5631086B2 (ja) 2010-07-12 2014-11-26 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
CN103221977B (zh) * 2010-12-09 2015-10-14 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
ES2812578T3 (es) * 2011-05-13 2021-03-17 Vizrt Ag Estimación de una postura basada en la silueta
CN104204726B (zh) * 2012-03-06 2017-05-31 日产自动车株式会社 移动物体位置姿态估计装置和移动物体位置姿态估计方法
US20150095360A1 (en) * 2013-09-27 2015-04-02 Qualcomm Incorporated Multiview pruning of feature database for object recognition system
JP6171849B2 (ja) * 2013-10-29 2017-08-02 日産自動車株式会社 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
US10940587B2 (en) * 2017-04-28 2021-03-09 Technion Research & Development Foundation Ltd. Data association aware belief space planning and perception
JP7059701B2 (ja) * 2018-03-08 2022-04-26 富士通株式会社 推定装置、推定方法、及び推定プログラム
US10171738B1 (en) * 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041343A (ja) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ 姿勢推定装置、姿勢推定方法およびプログラム
JP2018004310A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
F.DEINZER, 外2名: ""Viewpoint selection - a classifier independent learning approach"", 4TH IEEE SOUTHWEST SYMPOSIUM ON IMAGE ANALYSIS AND INTERPRETATION, JPN6021050535, 4 April 2000 (2000-04-04), US, ISSN: 0004666458 *
KAI-CHI CHAN, 外2名: ""Selecting best viewpoint for human-pose estimation"", 2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), JPN6021050537, 7 June 2014 (2014-06-07), US, pages 4844 - 4849, ISSN: 0004666457 *
高橋友和, 外5名: ""複数カメラ入力によるアピアランスベース物体認識のためのカメラ配置決定手法"", 電子情報通信学会論文誌, vol. 第J90-D巻, 第8号, JPN6021050538, 1 August 2007 (2007-08-01), JP, pages 2182 - 2190, ISSN: 0004666456 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100937A (ko) * 2020-02-07 2021-08-18 주식회사 딥아이 이종 센서 융합을 이용한 행동 분석 장치
KR102514301B1 (ko) * 2020-02-07 2023-03-27 주식회사 딥아이 이종 센서 융합을 이용한 행동 분석 장치

Also Published As

Publication number Publication date
US20200005480A1 (en) 2020-01-02
US10909717B2 (en) 2021-02-02
JP7010778B2 (ja) 2022-01-26
CN110660100B (zh) 2023-04-14
CN110660100A (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
JP7010778B2 (ja) 観測位置推定装置、その推定方法、及びプログラム
TWI638249B (zh) Position control device and position control method
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP5812599B2 (ja) 情報処理方法及びその装置
Motai et al. Hand–eye calibration applied to viewpoint selection for robotic vision
KR101807513B1 (ko) 3차원 공간에서 영상정보를 이용한 사용자 의도 분석장치 및 분석방법
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP2014028415A (ja) バラ積みされた物品をロボットで取出す装置
JP2008506953A (ja) 機械視覚のための方法及び装置
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2014199584A5 (ja)
JP2015114722A (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
WO2015029287A1 (ja) 特徴点位置推定装置、特徴点位置推定方法および特徴点位置推定プログラム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
CN116249607A (zh) 用于机器人抓取三维物体的方法和装置
WO2011086803A1 (ja) 画像照合システム、画像照合方法、コンピュータプログラム
Silveira On intensity-based nonmetric visual servoing
JP2011203148A (ja) 推定装置、推定方法、及び推定プログラム
JP5300795B2 (ja) 顔表情増幅装置、表情認識装置、顔表情増幅方法、表情認識方法、及びプログラム
KR101732807B1 (ko) 3차원 얼굴 비대칭 분석 장치 및 방법
JP2014178967A (ja) 3次元物体認識装置及び3次元物体認識方法
JP6528445B2 (ja) 自律移動体及び自律移動体の制御システム
JP7074447B2 (ja) モデル推定装置
JP2017162449A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220113

R150 Certificate of patent or registration of utility model

Ref document number: 7010778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150