JP2017191576A - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP2017191576A
JP2017191576A JP2016082352A JP2016082352A JP2017191576A JP 2017191576 A JP2017191576 A JP 2017191576A JP 2016082352 A JP2016082352 A JP 2016082352A JP 2016082352 A JP2016082352 A JP 2016082352A JP 2017191576 A JP2017191576 A JP 2017191576A
Authority
JP
Japan
Prior art keywords
reliability
information processing
processing apparatus
estimation
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016082352A
Other languages
English (en)
Other versions
JP6723061B2 (ja
Inventor
澤田 圭一
Keiichi Sawada
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016082352A priority Critical patent/JP6723061B2/ja
Publication of JP2017191576A publication Critical patent/JP2017191576A/ja
Application granted granted Critical
Publication of JP6723061B2 publication Critical patent/JP6723061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】手指の三次元形状の推定精度を向上させる。【解決手段】多関節物体の三次元形状を推定する情報処理装置であって、多関節物体の画像データを取得する画像取得部と、画像データに対して前段処理を行う前段処理部と、前段処理の結果に対して信頼度を算出する信頼度算出部と、信頼度に基づいて三次元形状の推定条件を決定する推定条件決定部と、推定条件に基づいて前三次元形状を推定する形状推定部とを備える。【選択図】 図4

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。
実写風景を背景として、その上にコンピュータグラフィックス(以下、「CG」と記述)を重畳して提示し、体験者に対して、あたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感(Mixed Reality:MR)の技術がある。このMR技術を用いて臨場感豊かな体験を実現するには、背景となる実写風景の上にただ単純にCGを重畳して表示するだけでは不十分であり、体験者とCGとのインタラクションが重要となる。具体的には、体験者がCGで描画される仮想物体に触ったり、仮想物体を操作すしたりする(しているように体感させる)インタラクションが重要となる。そして、このようなインタラクションを実現するためには、仮想物体を操作する体験者の手指の三次元形状の情報が必要となる。
特許文献1では、ステレオ画像から抽出した手指の輪郭線のマッチング処理によって、手指の三次元形状を推定することが開示されている。また、特許文献2では、事前に学習処理が行われたニューラルネットワークに手指関節の生体信号から抽出した特徴量を入力することで手指の三次元形状(関節間の角度)を推定することが開示されている。
特許第5574852号公報 特許第5252432号公報
しかしながら、特許文献1に記載の技術では、手指の輪郭の三次元位置以外の部分の詳細な形状を推定することはできない。また、特許文献2に記載の技術では、輪郭以外の部分の詳細な三次元形状も推定することができるが、手指関節の生体信号に誤差が含まれるなど学習パターンと大きく異なる特徴量が入力されると、実際とは大きく異なる三次元形状が推定されてしまう場合がある。
本発明は、上記の課題に鑑みてなされたものであり、手指の三次元形状の推定精度を向上させるための技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
多関節物体の三次元形状を推定する情報処理装置であって、
前記多関節物体の画像データを取得する画像取得手段と、
前記画像データに対して前段処理を行う前段処理手段と、
前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
を備えることを特徴とする。
本発明によれば、手指の三次元形状の推定精度を向上させることが可能となる。
本発明の一実施形態に係る情報処理システムの構成例を示す図である。 本発明の一実施形態に係る情報処理装置のハードウェア構成例を示す図である。 本発明の一実施形態に係る情報処理装置の機能構成例を示す図である。 第1の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。 第1の実施形態に係る手指の周辺領域の抽出処理を模式的に示す図である。 第1の実施形態に係る関節の三次元位置の算出処理の例を模式的に示す図である。 第1の実施形態に係る情報処理装置が実施する信頼度算出処理の例を示すフローチャートである。 第1の実施形態に係る情報処理装置が実施する詳細な三次元形状の推定処理を示すフローチャートである。 第1の実施形態に係る情報処理装置が実施する概略的な三次元形状の推定方法を模式的に示す図である。 第1の実施形態に係る情報処理装置が実施する概略的な三次元形状の推定処理を示すフローチャートである。 第2の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。 第2の実施形態に係る情報処理装置が実施する信頼度算出処理の例を示すフローチャートである。 第3の実施形態に係る情報処理装置が実施する関節の三次元位置の算出処理の例を模式的に示す図である。 第4の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。 第5の実施形態に係る手指の部位を模式的に示す図である。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
<情報処理システムの構成>
図1は、本実施形態に係る情報処理システムの構成例を示す図である。情報処理システムは、情報処理装置100、ヘッドマウントディスプレイ101(以下、「HMD」と記述)、距離センサ102を含んで構成される。HMD101は、撮影部103、104と、表示部105、106とを備えており、撮影部103、104の撮影画像を表示部105、106に表示する。距離センサ102は、被写体までの距離を画素値として持つ距離画像を生成する。情報処理装置100は、撮影部103、104による撮影画像と、距離センサ102による距離画像とを取得し、被写体に含まれる手指(多関節物体)の三次元形状を推定する。なお、本発明は、上記のシステム構成に限定されない。例えば、HMD101は必須ではなく、撮影部103、104が手指を撮影するような構成であってもよい。
<情報処理装置のハードウェア構成>
図2は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU201、RAM202、ROM203、HDD204、インタフェース205、システムバス206を含んで構成され、HMD101及び距離センサ102と接続されている。
CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを読み出して実行し、システムバス206を介して後述する各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。
HDD204は、二次記憶装置としての役割を持つ。CPU201は、HDD204からのデータ読み出し、およびHDD204へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。インタフェース205は、HMD101や距離センサ102などの外部装置とのデータのやり取りを行う。なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
<情報処理装置の機能構成>
図3は、本実施形態に係る情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、画像取得部301、前段処理部302、信頼度算出部、推定条件決定部304、形状推定部305を備えている。
画像取得部301は、距離センサ102から距離画像データを取得し、また、撮影部103、104からそれぞれ撮影画像データを取得する。前段処理部302は、距離画像中の手指領域を検出し、手指の周辺領域を抽出し、手指を構成する関節の三次元位置を算出する。信頼度算出部303は、距離画像を用いて、手指を構成する関節の三次元位置の信頼度を算出する。推定条件決定部304は、信頼度算出部303により算出された信頼度に基づいて、形状推定部305による推定条件を決定する。形状推定部305は、推定条件決定部304により決定された推定条件に基づいて、手指の三次元形状を推定する。
<情報処理装置の処理>
図4は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。ステップS401において、画像取得部301が、撮影部103、104からそれぞれ撮影画像を取得する。以下、撮影部103、104から取得した撮影画像をまとめて、「ステレオ画像」と記述することがある。ステップS402において、画像取得部301が、距離センサ102から距離画像を取得する。
ステップS403において、前段処理部302が、ステップS402において取得した距離画像中の手指領域を検出する。手指領域の検出には任意の方法を用いることできる。例えば、距離センサ102の前に手指をかざして利用することを想定し、距離画像の示す距離値が小さい領域を手指領域として検出することができる。また、ステップS401において取得したステレオ画像から、後述する概略的な三次元形状推定方法を用いて手指ポリゴンを推定し、その手指ポリゴンを距離画像に投影することで、距離画像中における手指領域を算出することもできる。ポリゴンの投影処理については、本発明の主眼ではないため、説明を省略する。
ステップS404において、前段処理部302が、ステップS403において検出した手指領域の情報を用いて、手指の周辺領域を抽出する。詳細は後述する。ステップS405において、前段処理部302が、ステップS402において取得した距離画像とステップS404において抽出した手指の周辺領域の情報とを用いて、手指を構成する関節の三次元位置を算出する。詳細は後述する。
ステップS406において、信頼度算出部303が、ステップS402において取得した距離画像を用いて、ステップS405において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。
ステップS407において、推定条件決定部304が、ステップS406において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS408へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
ステップS408において、形状推定部305が、ステップS402において取得した距離画像を用いて、ステップS406において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。ステップS409において、形状推定部305が、ステップS401において取得したステレオ画像から概略的な三次元形状を推定する。詳細は後述する。以上で図4の一連の処理が終了する。
<手指の周辺領域の抽出処理>
ここで、図5は、手指の周辺領域の抽出処理の一例を模式的に示す図である。手指の周辺領域の抽出処理では、図4のステップS403において検出した手指領域501の周辺領域502を抽出する。周辺領域502として例えば、手指領域501に外接する四角形領域を抽出することができる。なお、本発明における手指の周辺領域502の抽出処理はこれに限定されず、任意の抽出処理を行うことができる。例えば、手指領域501の重心を中心とする四角形領域を周辺領域502として抽出してもよい。また、手指の周辺領域は四角形である必要はなく、任意の形状でかまわない。
<手指関節の三次元位置の算出方法>
また、図6は、本実施形態に係る手指関節の三次元位置の算出方法を模式的に示す図である。本実施形態に係る前段処理部302は、公知のニューラルネットワーク技術を用いて手指関節601の三次元位置を算出する。
ニューラルネットワークの入力層の各ノードには、周辺領域502の各画素における距離画像が示す距離値を入力する。この際、入力層のノード数に合わせて、周辺領域502はリサイズする。出力層には、手指関節601の三次元位置が出力される。具体的には、各関節のx座標、y座標、z座標を並べた一次元ベクトルの各要素が、出力層の各ノードに出力される。ここで、関節数をnとすると、出力層のノード数はn×3となる。
なお、本実施形態におけるニューラルネットワークは上記のものに限定されない。例えば、ニューラルネットワークが関節間の角度を出力し、その角度から改めて、手指関節601の三次元位置を算出するようにしてもよい。また、図6に示すニューラルネットワークは中間層が1層となっているが、多層構造のニューラルネットワークを用いてもよい。
また、本実施形態におけるニューラルネットワークは、上記の入出力関係になるよう事前に学習処理が行われているものとする。ニューラルネットワークの学習方法は本発明の主眼ではないため、説明を省略する。
また、ニューラルネットワークの入出力データは、絶対座標値(現実空間のある点を原点とした時の座標値)でも、相対座標値(データ中のある要素を原点とした時の座標値)でも、どちらでもかまわない。ただし、入出力データが絶対的な値か相対的な値かは、事前の学習処理とステップS405における手指を構成する関節の三次元位置の算出処理とで統一する必要がある。
<信頼度の算出処理>
図7は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図7を参照して、本実施形態における信頼度の算出処理の手順を説明する。図7の処理はS406の処理の詳細である。
ステップS701において、信頼度算出部303が、ステップS405において三次元位置を算出した手指関節601から、厚みを持った手指の三次元形状を表す手指ポリゴンを生成する。手指ポリゴンの生成方法は任意であるが、例えば、各関節に対してあらかじめ決められた三次元図形(指であれば円柱、手の平であれば楕円柱など)を当てはめることで、手指ポリゴンを生成することができる。
ここで、各関節に対して当てはめる三次元図形の大きさは、実際の手指の長さや太さに基づいて決めることが望ましい。そのために、手指の長さや太さを外部から入力できるようにしてもよいし、画像取得部301が取得するステレオ画像や距離画像を用いてキャリブレーションするようにしてもよい。
ステップS702において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、距離画像に投影する。ステップS703において、信頼度算出部303が、ステップS402において取得した距離画像とステップS702において投影した手指ポリゴンの距離との差分を算出する。具体的には、距離画像の各画素について、その画素に投影される手指ポリゴンの距離と距離画像が持つ距離を表す画素値との差分を算出する。ここで、差分として任意の尺度を利用することができ、例えば、距離の二乗誤差平均を差分として算出することができる。
ステップS704において、信頼度算出部303が、ステップS703において算出した差分を信頼度に変換する。信頼度として、差分と負の相関を持つ任意の尺度を利用することができ、例えば、差分の逆数を信頼度として算出することができる。以上で図7の一連の処理が終了する。
<詳細な三次元形状の推定処理>
図8は、本実施形態に係る情報処理装置100が実施する詳細な三次元形状の推定処理の手順を示すフローチャートである。図8の処理はS408の処理の詳細である。詳細な三次元形状の推定処理では、公知のモデルフィッティング処理によって手指ポリゴンを高精度化する。モデルフィッティング処理では、まず、信頼度算出部303の処理と同様に、手指ポリゴンを生成し、距離画像と手指ポリゴンの距離との差分を算出する。
そして、その差分が小さくなるように、後述するポリゴンパラメータを変更する。これらの処理を繰り返し行うことで、三次元形状を高精度化する。以下では、図8を参照して、詳細な三次元形状の推定処理の手順を説明する。なお、ステップS701〜S703の各処理は、図7を参照して説明したステップS701〜S703の各処理と同様であるため、説明を省略する。
ステップS801において、形状推定部305が、ステップS703において算出した差分があらかじめ設定されたしきい値以下か否かを判定する。ここで、しきい値として任意の値を用いることができるが、後述する概略的な三次元形状の推定処理では手指の厚み程度の誤差が発生することを考慮し、しきい値を手指の厚み程度(例えば、1cm)にすることが望ましい。このようなしきい値を設定することで、ステップS408で算出される手指の詳細な三次元形状が、ステップS409で算出される手指の概略的な三次元形状よりも高精度になるように調整できる。この判定の結果、差分がしきい値以下である場合は、詳細な三次元形状の推定処理を終了する。一方、差分がしきい値以下でない場合は、ステップS802へ進み、差分がしきい値以下になるまでステップS701〜S802の処理を繰り返す。
ステップS802において、形状推定部305が、ステップS703において算出した差分が小さくなるようにポリゴンパラメータを変更する。ここで、ポリゴンパラメータとは、関節の三次元位置、指の長さ、指の太さ、手のひらの大きさなどを指す。ポリゴンパラメータを変更する方法として公知の最適化手法を用いることができる。なお、本実施形態は詳細な三次元形状の推定にモデルフィッティング処理を用いる方法に限定されない。後述の概略的な三次元形状の推定処理と比べて、より厚みに関する精度(詳細度)の高い任意の方法を用いて、詳細な三次元形状を推定することができる。
以上で図8の一連の処理が終了する。
<概略的な三次元形状の推定処理>
図9は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定方法を模式的に示す図である。また、図10は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定処理の手順を示すフローチャートである。図10の処理はS409の処理の詳細である。以下では、図9と図10を参照して、本実施形態における概略的な三次元形状の推定処理について説明する。
ステップS1001において、形状推定部305が、ステップS401において取得した撮影画像901、902中の手指領域903、904を検出する。抽出処理には任意の方法を用いることができるが、例えば、手指の色をあらかじめ登録しておき、その色の画素を手指領域として検出することができる。
ステップS1002において、形状推定部305が、ステップS1001において検出した手指領域903、904の輪郭を構成する点(以下、「輪郭点」と呼ぶ)を抽出する。輪郭点の抽出方法として任意の方法を用いることができるが、例えば、手指領域903、904と、一定間隔で引かれた水平線(もしくは、エピポーラ線)との交点を、輪郭点として抽出することができる。
ステップS1003において、形状推定部305が、ステップS1002において抽出した輪郭点のマッチング処理によってステレオ画像の対応点を算出する。マッチング処理として任意の方法を用いることができるが、例えば、特許文献1に記載されているように、輪郭点の特徴に基づいたマッチング処理を利用することができる。
ステップS1004において、形状推定部305が、ステップS1003において算出した対応点に対して、公知の三角測量技術を適用することで、輪郭点の距離を算出する。三角測量技術については本発明の主眼ではないため、説明を省略する。
ステップS1005において、形状推定部305が、ステップS1002において検出した輪郭点を繋ぎ合わせることでポリゴン化する。ポリゴン化では、ステップS1004において算出した輪郭点の距離を用い、(二次元ではなく)三次元ポリゴンを生成する。この三次元ポリゴンは、輪郭点を繋いだ厚みを持たないポリゴンである。そのため、実際の手指の詳細な形状は反映されない。しかし、輪郭付近の距離については高精度であり、かつ、輪郭以外の領域についても近似的な距離を持つことになる。また、前述の詳細な三次元形状の算出処理に比べてロバスト性が高い。以上で図10の一連の処理が終了する。
なお、本発明において概略的な三次元形状を算出する方法は、上記の方法に限定されず、任意の方法で概略的な三次元形状を算出することができる。例えば、距離画像の表す距離値をポリゴン化することで概略的な三次元形状として利用してもよい。また、上記では、概略的な三次元形状として、厚みを持たないポリゴンを生成したが、本発明はこれに限定されない。前述のフィッティング処理よりも厚みに関して精度(詳細度)が低い任意の方法で、概略的な三次元形状を生成することができる。
以上述べたように、本実施形態では、まず、ニューラルネットワークを用いて手指関節601の三次元位置を算出し、その後、得られた三次元位置の信頼度を算出する。そして、信頼度に応じて厚み(詳細度)に関する推定条件を切り替える。具体的には、信頼度が高い場合は、モデルフィッティング処理により詳細な(厚みを考慮した)三次元形状を推定し、信頼度が低い場合は、輪郭線のマッチング処理により概略的な(厚みを考慮しない)三次元形状を推定する。
ここで、ニューラルネットワークとモデルフィッティング処理の組み合わせでは、手指の厚みを考慮した三次元形状を算出可能である。しかし、距離画像に誤差が含まれる場合などに、実際と大きく異なる三次元形状が算出されてしまう可能性がある(ロバスト性が低い)。一方、輪郭点のポリゴン化処理は、手指の厚みを考慮できないが、実際と大きく異なる三次元形状が算出される可能性は低い(ロバスト性が高い)。本実施形態では、上記2つの三次元形状推定方法を信頼度に応じて使い分けることで、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。
なお、上記では、信頼度に応じて、2つの推定条件を切り替える例について説明したが、本発明はそれに限定されない。信頼度に応じて、2つ以上の任意の数の推定条件を切り替えることができる。また、上記では、先に信頼度を算出してから、推定条件を切り替える例について説明したが、本発明はそれに限定されない。先に両方の推定条件で推定を行ってから、信頼度に応じてどちらの推定結果を採用するかを決めてもかまわない。また、上記では、関節の三次元位置から信頼度を算出し、その信頼度に応じて推定条件を決定する例について説明したが、本発明はこれに限定されない。関節の三次元位置から直接、推定条件を決定してもかまわない。
本実施形態によれば、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できるため、手指の三次元形状の推定精度を向上させることが可能となる。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、ニューラルネットワークに距離情報を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明した。これに対し、本実施形態では、ニューラルネットワークに手指領域を表すシルエット画像を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明する。このように本実施形態と第1の実施形態は、ニューラルネットワークにシルエット画像を入力する点が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図10に付した符号と同一の符号を付す等して詳細な説明を省略する。
<情報処理装置の処理>
図11は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図11を参照して、本実施形態の処理の手順を説明する。なお、ステップS401、S404、S409の各処理は、第1の実施形態で図4を参照して説明した処理と同様であるため、説明を省略する。
ステップS1101において、前段処理部302が、ステップS401において取得した撮影画像901、902中の手指領域903、904(多関節領域)を検出する。検出方法は、前述の、形状推定部305による検出方法と同様であるため、説明を省略する。
ステップS1102において、前段処理部302が、ステップS1101において検出した手指領域903、904からそれぞれ検出シルエット画像を生成する。検出シルエット画像とは、手指領域として検出された画素の画素値が1、検出されなかった画素の画素値が0となる画像である。
ステップS1103において、前段処理部302が、ステップS1102において生成した検出シルエット画像と、ステップS404において抽出した手指の周辺領域502の情報とを用いて、手指関節601の概略的な三次元位置(相対座標値)を算出する。詳細は後述する。
ステップS1104において、前段処理部302が、ステップS1103において生成した手指関節601の概略的な三次元位置を絶対座標値に変換する。変換方法は任意であるが、例えば、距離センサ102から手指領域903、904の重心における距離を取得し、その距離をオフセットとして加算することで絶対座標値に変換することができる。また、前述の概略的な三次元形状の推定方法によって厚みを持たない手指ポリゴンを生成し、手指領域903、904の重心における手指ポリゴンの距離をオフセットとして加算してもよい。
ステップS1105において、信頼度算出部303が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。
ステップS1106において、推定条件決定部304が、ステップS1105において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1107へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
ステップS1107において、形状推定部305が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。
なお、本実施形態における手指関節601の三次元位置の算出処理では、ニューラルネットワークに検出シルエット画像を入力する。具体的には、入力層の各ノードに、検出シルエット画像の各画素の画素値を入力する。出力層については、第1の実施形態と同様であるため、説明を省略する。なお、本実施形態におけるニューラルネットワークは、検出シルエット画像を入力すると、手指関節の三次元位置を出力するように、事前に学習処理が行われているものとする。また、本実施形態におけるニューラルネットワークには、必ずしも手指領域903と904の両方を入力する必要はなく、片方だけを入力するようにしてもかまわない。
<信頼度の算出処理>
図12は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図12を参照して、本実施形態における信頼度の算出処理の手順を説明する。図12の処理はS1105の処理の詳細である。なお、ステップS701の処理は、第1の実施形態と同様であるため、説明を省略する。
ステップS1201において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、撮影画像901、902に投影する。ステップS1202において、信頼度算出部303が、ステップS1201の投影結果からポリゴンシルエット画像を生成する。ポリゴンシルエット画像とは、手指ポリゴンが投影された画素の画素値が1、投影されなかった画素の画素値が0となる画像である。
ステップS1203において、信頼度算出部303が、ステップS1202で生成したポリゴンシルエット画像と、ステップS1102で生成した検出シルエット画像との差分を算出する。差分の算出方法は第1の実施形態と同様であるため、説明を省略する。
ステップS1204において、信頼度算出部303が、ステップS1203において算出した差分を信頼度に変換する。信頼度への変換方法は第1の実施形態と同様であるため、説明を省略する。
以上述べたように、本実施形態では、ニューラルネットワークに検出シルエット画像を入力することで手指関節601の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える。したがって、距離センサを使わずに、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。
(第3の実施形態)
第1、第2の実施形態では、ニューラルネットワークの出力層の各ノードが手指関節の座標値を出力する場合を例に挙げて説明した。第3の実施形態では、ニューラルネットワークの出力層の各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する場合を例に挙げて説明する。このように本実施形態と第1、第2の実施形態とは、ニューラルネットワークの各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する点が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図12に付した符号と同一の符号を付す等して詳細な説明を省略する。
<手指関節の三次元位置の算出方法>
図13は、本実施形態に係る手指関節601の三次元位置の算出方法を模式的に示す図である。本実施形態における前段処理部302は、ニューラルネットワーク技術を用いて、あらかじめ設定された手指パターン群1301から最も尤もらしい手指パターンを算出する。具体的には、出力層の各ノードが各手指パターンに対応しており、各手指パターンの尤もらしさを出力する。
そして、最も尤もらしさの大きいノードに対応する手指パターンを選択することで、手指関節601の三次元位置を算出する。なお、本実施形態におけるニューラルネットワークは、距離画像や検出シルエット画像を入力すると、手指の実際の形状に最も近い手指パターンに対応するノードの出力値が最も大きくなるように、あらかじめ学習処理が行われているものとする。
本実施形態における信頼度算出部303は、前段処理部302が出力した各手指パターンの尤もらしさから、手指関節601の三次元位置の信頼度を算出する。ここで、ニューラルネットワークが選択した手指パターンの尤もらしさと、他の手指パターンの尤もらしさとの差が大きいほど、ニューラルネットワークが選択した手指パターンは信頼できる。
そこで、手指パターン群1301の尤もらしさの平均値とニューラルネットワークが選択した手指パターンの尤もらしさとの差を、信頼度として算出する。なお、本実施形態における信頼度はこれに限定されない。例えば、ニューラルネットワークが選択した手指パターンの(つまり、最も値の大きい)尤もらしさと、二番目に値の大きい尤もらしさとの差を信頼度として算出してもよい。
以上述べたように、本実施形態では、ニューラルネットワークによって、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出し、その信頼度に応じて処理を切り替える。したがって、ジェスチャ認識などのように推定対象の手指パターンが限定されているケースにおいて、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。
(第4の実施形態)
第1〜第3の実施形態では、前段処理として手指関節の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える場合を例に挙げて説明した。第4の実施形態では、前段処理として撮影画像や距離画像から手指関節を検出し、その手指関節の検出結果の信頼度に応じて処理を切り替える場合を例に挙げて説明する。
このように本実施形態と第1〜第3の実施形態は、撮影画像や距離画像から手指関節を検出する点と、その手指関節の検出結果の信頼度に応じて処理を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付す等して詳細な説明を省略する。
<情報処理装置の処理>
図14は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図14を参照して、本実施形態の処理の手順を説明する。なお、ステップS408、S409の処理は、第1〜第3の実施形態と同様であるため、説明を省略する。
ステップS1401において、画像取得部301が、画像を取得する。本実施形態では、撮影画像と距離画像の少なくともどちらか一方を取得し、その後の処理に利用する。以下では、撮影画像を取得して利用する例について説明するが、本発明はこれに限定されない。
ステップS1402において、前段処理部302が、ステップS1401において取得した画像から、手指関節601を検出する。手指関節の検出には任意の方法を用いることができるが、例えば、学習型の識別器を用いて手指の関節を検出することができる。
ステップS1403において、信頼度算出部303が、ステップS1402において検出した手指関節601の信頼度を算出する。例えば、あらかじめ設定された手指パターンの関節数の平均値と検出された関節数との差を、信頼度として算出することができる。なお、本発明はこれに限定されず、検出された関節数と相関のある任意の値を信頼度として利用してもよい。また、関節の位置関係の尤もらしさを信頼度として算出してもよい。以下では、検出された関節の数を信頼度として用いる例について説明するが、本発明はこれに限定されない。
ステップS1404において、推定条件決定部304が、ステップS1403において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1405へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
ステップS1405において、形状推定部305が、ステップS1402において検出した手指関節601から、関節の三次元位置を算出する。本実施形態では、ニューラルネットワークの入力層に検出した手指関節601の二次元座標を入力する。ニューラルネットワークのその他の処理については第1〜第3の実施形態と同様であるため、説明を省略する。
以上述べたように、本実施形態では、前段処理として撮影画像や距離画像から手指関節601を検出し、その手指関節601の検出結果の信頼度に応じて、ニューラルネットワークによる関節の三次元位置の算出を行うか否かを切り替える。つまり、手指関節601の検出結果の信頼度が低い場合は、関節の三次元位置の算出を行うことなく、概略的な三次元形状の推定に切り替えることができる。
したがって、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定でき、かつ、処理を軽くすることもできる。よって、手指の三次元形状の推定精度を向上させることが可能となる。
(第5の実施形態)
次に、第5の実施形態を説明する。第1〜第4の実施形態では、前段処理の信頼度に応じて、手指全体の厚みに関する推定条件を切り替える場合を例に説明した。第5の実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える場合を例に説明する。
このように本実施形態と第1〜第4の実施形態は、手指の部位ごとに信頼度を算出する点と、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
<手指の部位>
図15は、手指の部位を模式的に示す図である。本実施形態では、図15に示すように、手指を部位1501〜1515に分割する。そして、部位ごとに信頼度を算出する。信頼度の算出方法は第1〜第4の実施形態と同様であるため、説明を省略する。その後、信頼度があらかじめ設定されたしきい値以上の部位については詳細な三次元形状を推定し、そうでない部位については概略的な三次元形状を推定する。
または、あらかじめ詳細な三次元形状と概略的な三次元形状の両方を推定しておき、信頼度がしきい値以上の部位については詳細な三次元形状を当てはめ、そうでない部位については概略的な三次元形状を当てはめるようにしてもよい。なお、部位の分割の方法は任意であり、図15のような分割に限定されない。
以上述べたように、本実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える。したがって、部位によって信頼度が異なる場合においても、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。
[変形例]
以上の各実施形態では、ニューラルネットワークを用いて関節の三次元位置を算出する場合を例に挙げて説明した。しかしながら、算出方法はニューラルネットワークに限らず、本発明は任意の方法で関節の三次元位置を算出できる。例えば、距離画像を主成分分析することで、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出してもよい。その場合、画像取得部301が取得した距離画像を主成分分析した座標と、各手指パターンを投影してできる距離画像を主成分分析した座標との距離を尤もらしさと定義し、信頼度を算出する。
また、以上の各実施形態では、推定対象が手指である場合を例に挙げて説明した。しかしながら、推定対象は手指に限らず、本発明は任意の多関節物体について三次元形状を推定できる。例えば、推定対象が多関節生物の全身であってもかまわない。また、以上の各実施形態では、撮影画像が可視画像であるとして説明したが、本発明はこれに限定されない。例えば、撮影画像が赤外画像でもかまわない。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:情報処理装置、301:画像取得部、302:前段処理部、303:信頼度算出部、304:推定条件決定部、305:形状推定部

Claims (15)

  1. 多関節物体の三次元形状を推定する情報処理装置であって、
    前記多関節物体の画像データを取得する画像取得手段と、
    前記画像データに対して前段処理を行う前段処理手段と、
    前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
    前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
    前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記前段処理は、前記画像データを用いて前記多関節物体の関節の三次元位置を算出する処理であり、
    前記信頼度算出手段は、前記関節の三次元位置の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記前段処理は、前記画像データとニューラルネットワーク技術とを用いて前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記画像データは距離画像のデータであり、
    前記前段処理は、前記距離画像のデータの距離情報をニューラルネットワークに入力することにより前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。
  5. 前記前段処理は、前記画像データから多関節領域を検出して当該多関節領域のシルエット画像を生成し、当該シルエット画像の画素値をニューラルネットワークに入力することにより前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。
  6. 前記前段処理は、前記ニューラルネットワークの出力層の各ノードに対応する多関節物体のパターンの尤もらしさに基づいて、前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。
  7. 前記前段処理は、前記画像データから前記多関節物体の関節を検出する処理であり、
    前記信頼度算出手段は、前記検出された結果の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。
  8. 前記信頼度算出手段は、前記検出された関節の数に基づいて前記信頼度を算出することを特徴とする請求項7に記載の情報処理装置。
  9. 前記信頼度算出手段は、前記検出された関節の位置関係の尤もらしさを前記信頼度として算出することを特徴とする請求項7に記載の情報処理装置。
  10. 前記信頼度算出手段は、前記多関節物体の部位ごとに信頼度を算出し、
    前記推定条件決定手段は、前記部位ごとに推定条件を決定することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記推定条件決定手段は、前記形状推定手段が詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記画像データは、距離画像、可視画像、赤外画像のデータのうちの少なくともいずれか1つを含むことを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 前記多関節物体は手指であることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 多関節物体の三次元形状を推定する情報処理装置の制御方法であって、
    画像取得手段が、前記多関節物体の画像データを取得する画像取得工程と、
    前段処理手段が、前記画像データに対して前段処理を行う前段処理工程と、
    信頼度算出手段が、前記前段処理の結果に対して信頼度を算出する信頼度算出工程と、
    推定条件決定手段が、前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定工程と、
    形状推定手段が、前記推定条件に基づいて前記三次元形状を推定する形状推定工程と、
    を有することを特徴とする情報処理装置の制御方法。
  15. コンピュータを、請求項1乃至13の何れか1項に記載の情報処理装置として機能させるためのプログラム。
JP2016082352A 2016-04-15 2016-04-15 情報処理装置、情報処理装置の制御方法およびプログラム Active JP6723061B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016082352A JP6723061B2 (ja) 2016-04-15 2016-04-15 情報処理装置、情報処理装置の制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082352A JP6723061B2 (ja) 2016-04-15 2016-04-15 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017191576A true JP2017191576A (ja) 2017-10-19
JP6723061B2 JP6723061B2 (ja) 2020-07-15

Family

ID=60086328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082352A Active JP6723061B2 (ja) 2016-04-15 2016-04-15 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6723061B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754419A (zh) * 2017-11-06 2019-05-14 株式会社日立制作所 位置推测系统
CN110032957A (zh) * 2019-03-27 2019-07-19 长春理工大学 一种基于骨骼节点信息的手势空间域匹配方法
JP2020126144A (ja) * 2019-02-05 2020-08-20 ソフトバンク株式会社 システム、サーバ装置及びプログラム
WO2020230335A1 (ja) * 2019-05-16 2020-11-19 日本電信電話株式会社 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム
JP2021002290A (ja) * 2019-06-24 2021-01-07 キヤノン株式会社 画像処理装置およびその制御方法
WO2021075102A1 (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021518022A (ja) * 2018-07-10 2021-07-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 手部キーポイント認識モデルの訓練方法及びその装置、手部キーポイントの認識方法及びその装置、並びにコンピュータプログラム
JP2021524113A (ja) * 2019-01-18 2021-09-09 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 画像処理方法および装置、画像機器、ならびに記憶媒体
JP2021535367A (ja) * 2018-08-16 2021-12-16 タイ ユニオン グループ パブリック カンパニー リミテッド 食品加工における非侵襲的検査のための多視点撮像システム及び方法
JP2022530209A (ja) * 2019-12-12 2022-06-28 テンセント・アメリカ・エルエルシー 深度画像に誘導された敵対的ネットワークに基づく3dハンドポーズ推定
WO2022220049A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム
JP7465469B2 (ja) 2020-05-15 2024-04-11 兵庫県公立大学法人 学習装置、推定装置、学習プログラム、及び推定プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218556A (ja) * 2009-03-17 2010-09-30 Samsung Electronics Co Ltd モーションデータおよび映像データを用いた骨格モデル生成装置、骨格モデル生成方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015167008A (ja) * 2013-07-30 2015-09-24 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010218556A (ja) * 2009-03-17 2010-09-30 Samsung Electronics Co Ltd モーションデータおよび映像データを用いた骨格モデル生成装置、骨格モデル生成方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015167008A (ja) * 2013-07-30 2015-09-24 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
田中 豪、外2名: ""リカレント型ニューラルネットワークを用いた人体のモデルフィッティング手法の提案"", 情報処理学会研究報告, JPN6020009289, 15 October 2009 (2009-10-15), JP, pages 1 - 4, ISSN: 0004231311 *
神原 利彦、菊地 智: ""立体視HMDを用いた仮想ネイルアートシステムの構築"", 第16回日本バーチャルリアリティ学会大会 論文集, JPN6020009293, 20 September 2011 (2011-09-20), JP, pages 590 - 591, ISSN: 0004231313 *
米本 悠、外5名: ""一人称映像からの行動認識のための骨格推定"", 電子情報通信学会技術研究報告, vol. 114, no. 520, JPN6020009288, 12 March 2015 (2015-03-12), JP, pages 105 - 110, ISSN: 0004231310 *
齋藤 真希子、外2名: ""Perceptual Glove: 多視点画像に基づく手形状・姿勢の実時間入力"", レクチャーノート/ソフトウェア学 23 インタラクティブシステムとソフトウェアVII, JPN6020009291, 20 December 1999 (1999-12-20), JP, pages 43 - 48, ISSN: 0004231312 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754419A (zh) * 2017-11-06 2019-05-14 株式会社日立制作所 位置推测系统
CN109754419B (zh) * 2017-11-06 2023-03-10 株式会社日立制作所 位置推测系统
JP7130057B2 (ja) 2018-07-10 2022-09-02 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 手部キーポイント認識モデルの訓練方法及びその装置、手部キーポイントの認識方法及びその装置、並びにコンピュータプログラム
JP2021518022A (ja) * 2018-07-10 2021-07-29 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 手部キーポイント認識モデルの訓練方法及びその装置、手部キーポイントの認識方法及びその装置、並びにコンピュータプログラム
JP2021535367A (ja) * 2018-08-16 2021-12-16 タイ ユニオン グループ パブリック カンパニー リミテッド 食品加工における非侵襲的検査のための多視点撮像システム及び方法
JP7324271B2 (ja) 2018-08-16 2023-08-09 タイ ユニオン グループ パブリック カンパニー リミテッド 食品加工における非侵襲的検査のための多視点撮像システム及び方法
US11538207B2 (en) 2019-01-18 2022-12-27 Beijing Sensetime Technology Development Co., Ltd. Image processing method and apparatus, image device, and storage medium
US11468612B2 (en) 2019-01-18 2022-10-11 Beijing Sensetime Technology Development Co., Ltd. Controlling display of a model based on captured images and determined information
US11741629B2 (en) 2019-01-18 2023-08-29 Beijing Sensetime Technology Development Co., Ltd. Controlling display of model derived from captured image
JP2021524113A (ja) * 2019-01-18 2021-09-09 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 画像処理方法および装置、画像機器、ならびに記憶媒体
JP7061694B2 (ja) 2019-01-18 2022-04-28 北京市商▲湯▼科技▲開▼▲發▼有限公司 画像処理方法および装置、画像機器、ならびに記憶媒体
JP2020126144A (ja) * 2019-02-05 2020-08-20 ソフトバンク株式会社 システム、サーバ装置及びプログラム
CN110032957A (zh) * 2019-03-27 2019-07-19 长春理工大学 一种基于骨骼节点信息的手势空间域匹配方法
CN110032957B (zh) * 2019-03-27 2023-10-17 长春理工大学 一种基于骨骼节点信息的手势空间域匹配方法
JPWO2020230335A1 (ja) * 2019-05-16 2020-11-19
JP7201946B2 (ja) 2019-05-16 2023-01-11 日本電信電話株式会社 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム
WO2020230335A1 (ja) * 2019-05-16 2020-11-19 日本電信電話株式会社 骨格情報判定装置、骨格情報判定方法及びコンピュータプログラム
JP2021002290A (ja) * 2019-06-24 2021-01-07 キヤノン株式会社 画像処理装置およびその制御方法
JP7378232B2 (ja) 2019-06-24 2023-11-13 キヤノン株式会社 画像処理装置およびその制御方法
US20220334674A1 (en) * 2019-10-17 2022-10-20 Sony Group Corporation Information processing apparatus, information processing method, and program
WO2021075102A1 (ja) * 2019-10-17 2021-04-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022530209A (ja) * 2019-12-12 2022-06-28 テンセント・アメリカ・エルエルシー 深度画像に誘導された敵対的ネットワークに基づく3dハンドポーズ推定
JP7242123B2 (ja) 2019-12-12 2023-03-20 テンセント・アメリカ・エルエルシー 深度画像に誘導された敵対的ネットワークに基づく3dハンドポーズ推定
JP7465469B2 (ja) 2020-05-15 2024-04-11 兵庫県公立大学法人 学習装置、推定装置、学習プログラム、及び推定プログラム
WO2022220049A1 (ja) * 2021-04-13 2022-10-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム
JP7434207B2 (ja) 2021-04-13 2024-02-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
JP6723061B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
CN104380338B (zh) 信息处理器以及信息处理方法
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5167248B2 (ja) 深度マップによるヒューマノイド形状のモデル化
JP2011258204A5 (ja)
JP6632208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2009536731A5 (ja)
JP7406875B2 (ja) 情報処理装置およびプログラム
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
CN102713975B (zh) 图像整理系统、图像整理方法和计算机程序
US20220189113A1 (en) Method for generating 3d skeleton using joint-based calibration acquired from multi-view camera
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP7378232B2 (ja) 画像処理装置およびその制御方法
JP2019053603A (ja) 表示制御プログラム、装置、及び方法
US20210327160A1 (en) Authoring device, authoring method, and storage medium storing authoring program
JP5416489B2 (ja) 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
CN115862124B (zh) 视线估计方法、装置、可读存储介质及电子设备
JP2015132544A (ja) 画像処理装置および3次元空間情報取得方法
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN111158489B (zh) 一种基于摄像头的手势交互方法及手势交互系统
JP2019046096A (ja) 情報処理装置及びその方法
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200623

R151 Written notification of patent or utility model registration

Ref document number: 6723061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151