JP6723061B2 - Information processing apparatus, information processing apparatus control method, and program - Google Patents
Information processing apparatus, information processing apparatus control method, and program Download PDFInfo
- Publication number
- JP6723061B2 JP6723061B2 JP2016082352A JP2016082352A JP6723061B2 JP 6723061 B2 JP6723061 B2 JP 6723061B2 JP 2016082352 A JP2016082352 A JP 2016082352A JP 2016082352 A JP2016082352 A JP 2016082352A JP 6723061 B2 JP6723061 B2 JP 6723061B2
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- joint
- information processing
- estimation
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。 The present invention relates to an information processing device, a method of controlling the information processing device, and a program.
実写風景を背景として、その上にコンピュータグラフィックス(以下、「CG」と記述)を重畳して提示し、体験者に対して、あたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感(Mixed Reality:MR)の技術がある。このMR技術を用いて臨場感豊かな体験を実現するには、背景となる実写風景の上にただ単純にCGを重畳して表示するだけでは不十分であり、体験者とCGとのインタラクションが重要となる。具体的には、体験者がCGで描画される仮想物体に触ったり、仮想物体を操作すしたりする(しているように体感させる)インタラクションが重要となる。そして、このようなインタラクションを実現するためには、仮想物体を操作する体験者の手指の三次元形状の情報が必要となる。 Computer graphics (hereinafter referred to as "CG") are superimposed and presented on the background of a live-action scenery to give the experience to the experience person as if a virtual object exists on the spot. There is a Mixed Reality (MR) technology that allows you to do this. In order to realize a highly realistic experience using this MR technology, it is not enough to simply superimpose and display the CG on the live-action scenery that is the background, and the interaction between the experience person and the CG is not sufficient. It becomes important. Specifically, it is important for the user to interact with the virtual object drawn by CG or operate the virtual object (to experience it as if it were doing). Then, in order to realize such an interaction, information on the three-dimensional shape of the finger of the experiencer who operates the virtual object is required.
特許文献1では、ステレオ画像から抽出した手指の輪郭線のマッチング処理によって、手指の三次元形状を推定することが開示されている。また、特許文献2では、事前に学習処理が行われたニューラルネットワークに手指関節の生体信号から抽出した特徴量を入力することで手指の三次元形状(関節間の角度)を推定することが開示されている。 Patent Document 1 discloses that a three-dimensional shape of a finger is estimated by a matching process of contour lines of the finger extracted from a stereo image. Further, Patent Document 2 discloses that a three-dimensional shape (angle between joints) of a finger is estimated by inputting a feature amount extracted from a biosignal of a finger joint to a neural network that has undergone learning processing in advance. Has been done.
しかしながら、特許文献1に記載の技術では、手指の輪郭の三次元位置以外の部分の詳細な形状を推定することはできない。また、特許文献2に記載の技術では、輪郭以外の部分の詳細な三次元形状も推定することができるが、手指関節の生体信号に誤差が含まれるなど学習パターンと大きく異なる特徴量が入力されると、実際とは大きく異なる三次元形状が推定されてしまう場合がある。 However, the technique described in Patent Document 1 cannot estimate the detailed shape of the portion other than the three-dimensional position of the contour of the finger. Further, with the technique described in Patent Document 2, it is possible to estimate a detailed three-dimensional shape of a portion other than the contour, but a feature amount that is significantly different from the learning pattern such as an error is included in the biomedical signal of the finger joint is input. Then, a three-dimensional shape that is very different from the actual one may be estimated.
本発明は、上記の課題に鑑みてなされたものであり、手指の三次元形状の推定精度を向上させるための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for improving the estimation accuracy of the three-dimensional shape of a finger.
上記の目的を達成する本発明に係る情報処理装置は、
多関節物体の三次元形状を推定する情報処理装置であって、
前記多関節物体の画像データを取得する画像取得手段と、
前記画像データに対して前段処理を行う前段処理手段と、
前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
を備え、
前記推定条件決定手段は、前記形状推定手段が詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする。
An information processing apparatus according to the present invention which achieves the above object,
An information processing apparatus for estimating a three-dimensional shape of an articulated object,
Image acquisition means for acquiring image data of the articulated object;
Pre-stage processing means for performing pre-stage processing on the image data,
Reliability calculation means for calculating a reliability for the result of the preceding stage processing,
Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
Equipped with
The estimated condition determining means, characterized that you determine the shape estimation means performs any estimation process estimation processing or schematic three-dimensional shape of the detailed three-dimensional shape as the estimated condition.
本発明によれば、手指の三次元形状の推定精度を向上させることが可能となる。 According to the present invention, it is possible to improve the estimation accuracy of the three-dimensional shape of a finger.
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
(第1の実施形態)
<情報処理システムの構成>
図1は、本実施形態に係る情報処理システムの構成例を示す図である。情報処理システムは、情報処理装置100、ヘッドマウントディスプレイ101(以下、「HMD」と記述)、距離センサ102を含んで構成される。HMD101は、撮影部103、104と、表示部105、106とを備えており、撮影部103、104の撮影画像を表示部105、106に表示する。距離センサ102は、被写体までの距離を画素値として持つ距離画像を生成する。情報処理装置100は、撮影部103、104による撮影画像と、距離センサ102による距離画像とを取得し、被写体に含まれる手指(多関節物体)の三次元形状を推定する。なお、本発明は、上記のシステム構成に限定されない。例えば、HMD101は必須ではなく、撮影部103、104が手指を撮影するような構成であってもよい。
(First embodiment)
<Structure of information processing system>
FIG. 1 is a diagram showing a configuration example of an information processing system according to the present embodiment. The information processing system includes an
<情報処理装置のハードウェア構成>
図2は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU201、RAM202、ROM203、HDD204、インタフェース205、システムバス206を含んで構成され、HMD101及び距離センサ102と接続されている。
<Hardware configuration of information processing device>
FIG. 2 is a diagram showing an example of the hardware configuration of the
CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを読み出して実行し、システムバス206を介して後述する各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。
The
HDD204は、二次記憶装置としての役割を持つ。CPU201は、HDD204からのデータ読み出し、およびHDD204へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。インタフェース205は、HMD101や距離センサ102などの外部装置とのデータのやり取りを行う。なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
The HDD 204 has a role as a secondary storage device. The
<情報処理装置の機能構成>
図3は、本実施形態に係る情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、画像取得部301、前段処理部302、信頼度算出部、推定条件決定部304、形状推定部305を備えている。
<Functional configuration of information processing device>
FIG. 3 is a diagram showing an example of the functional configuration of the
画像取得部301は、距離センサ102から距離画像データを取得し、また、撮影部103、104からそれぞれ撮影画像データを取得する。前段処理部302は、距離画像中の手指領域を検出し、手指の周辺領域を抽出し、手指を構成する関節の三次元位置を算出する。信頼度算出部303は、距離画像を用いて、手指を構成する関節の三次元位置の信頼度を算出する。推定条件決定部304は、信頼度算出部303により算出された信頼度に基づいて、形状推定部305による推定条件を決定する。形状推定部305は、推定条件決定部304により決定された推定条件に基づいて、手指の三次元形状を推定する。
The
<情報処理装置の処理>
図4は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。ステップS401において、画像取得部301が、撮影部103、104からそれぞれ撮影画像を取得する。以下、撮影部103、104から取得した撮影画像をまとめて、「ステレオ画像」と記述することがある。ステップS402において、画像取得部301が、距離センサ102から距離画像を取得する。
<Processing of information processing device>
FIG. 4 is a flowchart showing a procedure of processing executed by the
ステップS403において、前段処理部302が、ステップS402において取得した距離画像中の手指領域を検出する。手指領域の検出には任意の方法を用いることできる。例えば、距離センサ102の前に手指をかざして利用することを想定し、距離画像の示す距離値が小さい領域を手指領域として検出することができる。また、ステップS401において取得したステレオ画像から、後述する概略的な三次元形状推定方法を用いて手指ポリゴンを推定し、その手指ポリゴンを距離画像に投影することで、距離画像中における手指領域を算出することもできる。ポリゴンの投影処理については、本発明の主眼ではないため、説明を省略する。
In step S403, the
ステップS404において、前段処理部302が、ステップS403において検出した手指領域の情報を用いて、手指の周辺領域を抽出する。詳細は後述する。ステップS405において、前段処理部302が、ステップS402において取得した距離画像とステップS404において抽出した手指の周辺領域の情報とを用いて、手指を構成する関節の三次元位置を算出する。詳細は後述する。
In step S404, the
ステップS406において、信頼度算出部303が、ステップS402において取得した距離画像を用いて、ステップS405において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。
In step S406, the
ステップS407において、推定条件決定部304が、ステップS406において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS408へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
In step S407, the estimation
ステップS408において、形状推定部305が、ステップS402において取得した距離画像を用いて、ステップS406において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。ステップS409において、形状推定部305が、ステップS401において取得したステレオ画像から概略的な三次元形状を推定する。詳細は後述する。以上で図4の一連の処理が終了する。
In step S408, the
<手指の周辺領域の抽出処理>
ここで、図5は、手指の周辺領域の抽出処理の一例を模式的に示す図である。手指の周辺領域の抽出処理では、図4のステップS403において検出した手指領域501の周辺領域502を抽出する。周辺領域502として例えば、手指領域501に外接する四角形領域を抽出することができる。なお、本発明における手指の周辺領域502の抽出処理はこれに限定されず、任意の抽出処理を行うことができる。例えば、手指領域501の重心を中心とする四角形領域を周辺領域502として抽出してもよい。また、手指の周辺領域は四角形である必要はなく、任意の形状でかまわない。
<Extraction processing of peripheral area of fingers>
Here, FIG. 5 is a diagram schematically showing an example of the extraction process of the peripheral region of the finger. In the extraction process of the peripheral region of the finger, the
<手指関節の三次元位置の算出方法>
また、図6は、本実施形態に係る手指関節の三次元位置の算出方法を模式的に示す図である。本実施形態に係る前段処理部302は、公知のニューラルネットワーク技術を用いて手指関節601の三次元位置を算出する。
<Calculation method of three-dimensional position of finger joint>
Further, FIG. 6 is a diagram schematically showing a method of calculating the three-dimensional position of the finger joint according to the present embodiment. The
ニューラルネットワークの入力層の各ノードには、周辺領域502の各画素における距離画像が示す距離値を入力する。この際、入力層のノード数に合わせて、周辺領域502はリサイズする。出力層には、手指関節601の三次元位置が出力される。具体的には、各関節のx座標、y座標、z座標を並べた一次元ベクトルの各要素が、出力層の各ノードに出力される。ここで、関節数をnとすると、出力層のノード数はn×3となる。
The distance value indicated by the distance image in each pixel of the
なお、本実施形態におけるニューラルネットワークは上記のものに限定されない。例えば、ニューラルネットワークが関節間の角度を出力し、その角度から改めて、手指関節601の三次元位置を算出するようにしてもよい。また、図6に示すニューラルネットワークは中間層が1層となっているが、多層構造のニューラルネットワークを用いてもよい。 The neural network according to this embodiment is not limited to the above. For example, the neural network may output the angle between the joints and calculate the three-dimensional position of the finger joint 601 again from the angle. Further, the neural network shown in FIG. 6 has one intermediate layer, but a multilayered neural network may be used.
また、本実施形態におけるニューラルネットワークは、上記の入出力関係になるよう事前に学習処理が行われているものとする。ニューラルネットワークの学習方法は本発明の主眼ではないため、説明を省略する。 In addition, the neural network in the present embodiment is assumed to be subjected to learning processing in advance so as to have the above-mentioned input/output relationship. Since the learning method of the neural network is not the main purpose of the present invention, its explanation is omitted.
また、ニューラルネットワークの入出力データは、絶対座標値(現実空間のある点を原点とした時の座標値)でも、相対座標値(データ中のある要素を原点とした時の座標値)でも、どちらでもかまわない。ただし、入出力データが絶対的な値か相対的な値かは、事前の学習処理とステップS405における手指を構成する関節の三次元位置の算出処理とで統一する必要がある。 In addition, the input/output data of the neural network may be either absolute coordinate values (coordinate values when a certain point in the real space is the origin) or relative coordinate values (coordinate values when a certain element in the data is the origin). It doesn't matter which one. However, it is necessary to unify whether the input/output data is an absolute value or a relative value by the learning process in advance and the three-dimensional position calculation process of the joints forming the fingers in step S405.
<信頼度の算出処理>
図7は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図7を参照して、本実施形態における信頼度の算出処理の手順を説明する。図7の処理はS406の処理の詳細である。
<Calculation process of reliability>
FIG. 7 is a flowchart showing a procedure of reliability calculation processing executed by the
ステップS701において、信頼度算出部303が、ステップS405において三次元位置を算出した手指関節601から、厚みを持った手指の三次元形状を表す手指ポリゴンを生成する。手指ポリゴンの生成方法は任意であるが、例えば、各関節に対してあらかじめ決められた三次元図形(指であれば円柱、手の平であれば楕円柱など)を当てはめることで、手指ポリゴンを生成することができる。
In step S701, the
ここで、各関節に対して当てはめる三次元図形の大きさは、実際の手指の長さや太さに基づいて決めることが望ましい。そのために、手指の長さや太さを外部から入力できるようにしてもよいし、画像取得部301が取得するステレオ画像や距離画像を用いてキャリブレーションするようにしてもよい。
Here, it is desirable to determine the size of the three-dimensional figure fitted to each joint based on the actual length and thickness of the finger. Therefore, the length and the thickness of the finger may be input from the outside, or the stereo image or the distance image acquired by the
ステップS702において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、距離画像に投影する。ステップS703において、信頼度算出部303が、ステップS402において取得した距離画像とステップS702において投影した手指ポリゴンの距離との差分を算出する。具体的には、距離画像の各画素について、その画素に投影される手指ポリゴンの距離と距離画像が持つ距離を表す画素値との差分を算出する。ここで、差分として任意の尺度を利用することができ、例えば、距離の二乗誤差平均を差分として算出することができる。
In step S702, the
ステップS704において、信頼度算出部303が、ステップS703において算出した差分を信頼度に変換する。信頼度として、差分と負の相関を持つ任意の尺度を利用することができ、例えば、差分の逆数を信頼度として算出することができる。以上で図7の一連の処理が終了する。
In step S704, the
<詳細な三次元形状の推定処理>
図8は、本実施形態に係る情報処理装置100が実施する詳細な三次元形状の推定処理の手順を示すフローチャートである。図8の処理はS408の処理の詳細である。詳細な三次元形状の推定処理では、公知のモデルフィッティング処理によって手指ポリゴンを高精度化する。モデルフィッティング処理では、まず、信頼度算出部303の処理と同様に、手指ポリゴンを生成し、距離画像と手指ポリゴンの距離との差分を算出する。
<Detailed three-dimensional shape estimation processing>
FIG. 8 is a flowchart showing the procedure of a detailed three-dimensional shape estimation process executed by the
そして、その差分が小さくなるように、後述するポリゴンパラメータを変更する。これらの処理を繰り返し行うことで、三次元形状を高精度化する。以下では、図8を参照して、詳細な三次元形状の推定処理の手順を説明する。なお、ステップS701〜S703の各処理は、図7を参照して説明したステップS701〜S703の各処理と同様であるため、説明を省略する。 Then, the polygon parameters described later are changed so that the difference becomes smaller. By repeating these processes, the three-dimensional shape is made highly accurate. Hereinafter, the procedure of a detailed three-dimensional shape estimation process will be described with reference to FIG. Since each processing of steps S701 to S703 is the same as each processing of steps S701 to S703 described with reference to FIG. 7, description thereof will be omitted.
ステップS801において、形状推定部305が、ステップS703において算出した差分があらかじめ設定されたしきい値以下か否かを判定する。ここで、しきい値として任意の値を用いることができるが、後述する概略的な三次元形状の推定処理では手指の厚み程度の誤差が発生することを考慮し、しきい値を手指の厚み程度(例えば、1cm)にすることが望ましい。このようなしきい値を設定することで、ステップS408で算出される手指の詳細な三次元形状が、ステップS409で算出される手指の概略的な三次元形状よりも高精度になるように調整できる。この判定の結果、差分がしきい値以下である場合は、詳細な三次元形状の推定処理を終了する。一方、差分がしきい値以下でない場合は、ステップS802へ進み、差分がしきい値以下になるまでステップS701〜S802の処理を繰り返す。
In step S801, the
ステップS802において、形状推定部305が、ステップS703において算出した差分が小さくなるようにポリゴンパラメータを変更する。ここで、ポリゴンパラメータとは、関節の三次元位置、指の長さ、指の太さ、手のひらの大きさなどを指す。ポリゴンパラメータを変更する方法として公知の最適化手法を用いることができる。なお、本実施形態は詳細な三次元形状の推定にモデルフィッティング処理を用いる方法に限定されない。後述の概略的な三次元形状の推定処理と比べて、より厚みに関する精度(詳細度)の高い任意の方法を用いて、詳細な三次元形状を推定することができる。
In step S802, the
以上で図8の一連の処理が終了する。 Thus, the series of processing shown in FIG. 8 is completed.
<概略的な三次元形状の推定処理>
図9は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定方法を模式的に示す図である。また、図10は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定処理の手順を示すフローチャートである。図10の処理はS409の処理の詳細である。以下では、図9と図10を参照して、本実施形態における概略的な三次元形状の推定処理について説明する。
<Schematic three-dimensional shape estimation process>
FIG. 9 is a diagram schematically showing a schematic three-dimensional shape estimation method implemented by the
ステップS1001において、形状推定部305が、ステップS401において取得した撮影画像901、902中の手指領域903、904を検出する。抽出処理には任意の方法を用いることができるが、例えば、手指の色をあらかじめ登録しておき、その色の画素を手指領域として検出することができる。
In step S1001, the
ステップS1002において、形状推定部305が、ステップS1001において検出した手指領域903、904の輪郭を構成する点(以下、「輪郭点」と呼ぶ)を抽出する。輪郭点の抽出方法として任意の方法を用いることができるが、例えば、手指領域903、904と、一定間隔で引かれた水平線(もしくは、エピポーラ線)との交点を、輪郭点として抽出することができる。
In step S1002, the
ステップS1003において、形状推定部305が、ステップS1002において抽出した輪郭点のマッチング処理によってステレオ画像の対応点を算出する。マッチング処理として任意の方法を用いることができるが、例えば、特許文献1に記載されているように、輪郭点の特徴に基づいたマッチング処理を利用することができる。
In step S1003, the
ステップS1004において、形状推定部305が、ステップS1003において算出した対応点に対して、公知の三角測量技術を適用することで、輪郭点の距離を算出する。三角測量技術については本発明の主眼ではないため、説明を省略する。
In step S1004, the
ステップS1005において、形状推定部305が、ステップS1002において検出した輪郭点を繋ぎ合わせることでポリゴン化する。ポリゴン化では、ステップS1004において算出した輪郭点の距離を用い、(二次元ではなく)三次元ポリゴンを生成する。この三次元ポリゴンは、輪郭点を繋いだ厚みを持たないポリゴンである。そのため、実際の手指の詳細な形状は反映されない。しかし、輪郭付近の距離については高精度であり、かつ、輪郭以外の領域についても近似的な距離を持つことになる。また、前述の詳細な三次元形状の算出処理に比べてロバスト性が高い。以上で図10の一連の処理が終了する。
In step S1005, the
なお、本発明において概略的な三次元形状を算出する方法は、上記の方法に限定されず、任意の方法で概略的な三次元形状を算出することができる。例えば、距離画像の表す距離値をポリゴン化することで概略的な三次元形状として利用してもよい。また、上記では、概略的な三次元形状として、厚みを持たないポリゴンを生成したが、本発明はこれに限定されない。前述のフィッティング処理よりも厚みに関して精度(詳細度)が低い任意の方法で、概略的な三次元形状を生成することができる。 The method for calculating a schematic three-dimensional shape in the present invention is not limited to the above method, and a schematic three-dimensional shape can be calculated by any method. For example, the distance value represented by the distance image may be polygonized to be used as a rough three-dimensional shape. Further, in the above, a polygon having no thickness is generated as a schematic three-dimensional shape, but the present invention is not limited to this. It is possible to generate a schematic three-dimensional shape by an arbitrary method that is lower in accuracy (detailedness) with respect to the thickness than the fitting processing described above.
以上述べたように、本実施形態では、まず、ニューラルネットワークを用いて手指関節601の三次元位置を算出し、その後、得られた三次元位置の信頼度を算出する。そして、信頼度に応じて厚み(詳細度)に関する推定条件を切り替える。具体的には、信頼度が高い場合は、モデルフィッティング処理により詳細な(厚みを考慮した)三次元形状を推定し、信頼度が低い場合は、輪郭線のマッチング処理により概略的な(厚みを考慮しない)三次元形状を推定する。
As described above, in the present embodiment, first, the neural network is used to calculate the three-dimensional position of the
ここで、ニューラルネットワークとモデルフィッティング処理の組み合わせでは、手指の厚みを考慮した三次元形状を算出可能である。しかし、距離画像に誤差が含まれる場合などに、実際と大きく異なる三次元形状が算出されてしまう可能性がある(ロバスト性が低い)。一方、輪郭点のポリゴン化処理は、手指の厚みを考慮できないが、実際と大きく異なる三次元形状が算出される可能性は低い(ロバスト性が高い)。本実施形態では、上記2つの三次元形状推定方法を信頼度に応じて使い分けることで、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。 Here, with the combination of the neural network and the model fitting process, it is possible to calculate the three-dimensional shape in consideration of the thickness of the finger. However, when the range image includes an error, a three-dimensional shape that is significantly different from the actual one may be calculated (low robustness). On the other hand, in the polygon processing of the contour points, the thickness of the fingers cannot be taken into consideration, but it is unlikely that a three-dimensional shape that is significantly different from the actual one will be calculated (high robustness). In the present embodiment, by properly using the two three-dimensional shape estimation methods described above according to the reliability, it is possible to prevent the estimation of a three-dimensional shape that is significantly different from the actual one, and to make the three-dimensional shape of the finger as detailed as possible. Can be estimated.
なお、上記では、信頼度に応じて、2つの推定条件を切り替える例について説明したが、本発明はそれに限定されない。信頼度に応じて、2つ以上の任意の数の推定条件を切り替えることができる。また、上記では、先に信頼度を算出してから、推定条件を切り替える例について説明したが、本発明はそれに限定されない。先に両方の推定条件で推定を行ってから、信頼度に応じてどちらの推定結果を採用するかを決めてもかまわない。また、上記では、関節の三次元位置から信頼度を算出し、その信頼度に応じて推定条件を決定する例について説明したが、本発明はこれに限定されない。関節の三次元位置から直接、推定条件を決定してもかまわない。 In addition, although the example which switches two estimation conditions according to reliability is demonstrated above, this invention is not limited to it. An arbitrary number of estimation conditions of two or more can be switched according to the reliability. Further, in the above, an example in which the reliability is calculated first and then the estimation condition is switched has been described, but the present invention is not limited thereto. It is also possible to first perform the estimation under both estimation conditions and then decide which estimation result to use depending on the reliability. Moreover, although the example in which the reliability is calculated from the three-dimensional position of the joint and the estimation condition is determined according to the reliability has been described above, the present invention is not limited to this. The estimation condition may be determined directly from the three-dimensional position of the joint.
本実施形態によれば、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できるため、手指の三次元形状の推定精度を向上させることが可能となる。 According to the present embodiment, the estimation accuracy of the three-dimensional shape of the finger is improved because the three-dimensional shape of the finger can be estimated as detailed as possible while suppressing the estimation of the three-dimensional shape that is significantly different from the actual one. It becomes possible.
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、ニューラルネットワークに距離情報を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明した。これに対し、本実施形態では、ニューラルネットワークに手指領域を表すシルエット画像を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明する。このように本実施形態と第1の実施形態は、ニューラルネットワークにシルエット画像を入力する点が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図10に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the three-dimensional position of the finger joint is calculated by inputting the distance information into the neural network has been described as an example. On the other hand, in the present embodiment, a case will be described as an example in which a three-dimensional position of a finger joint is calculated by inputting a silhouette image representing a finger region to the neural network. As described above, the present embodiment and the first embodiment are mainly different in that a silhouette image is input to the neural network. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment will be denoted by the same reference numerals as those in FIGS. 1 to 10, and detailed description thereof will be omitted.
<情報処理装置の処理>
図11は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図11を参照して、本実施形態の処理の手順を説明する。なお、ステップS401、S404、S409の各処理は、第1の実施形態で図4を参照して説明した処理と同様であるため、説明を省略する。
<Processing of information processing device>
FIG. 11 is a flowchart showing a procedure of processing executed by the
ステップS1101において、前段処理部302が、ステップS401において取得した撮影画像901、902中の手指領域903、904(多関節領域)を検出する。検出方法は、前述の、形状推定部305による検出方法と同様であるため、説明を省略する。
In step S1101, the
ステップS1102において、前段処理部302が、ステップS1101において検出した手指領域903、904からそれぞれ検出シルエット画像を生成する。検出シルエット画像とは、手指領域として検出された画素の画素値が1、検出されなかった画素の画素値が0となる画像である。
In step S1102, the
ステップS1103において、前段処理部302が、ステップS1102において生成した検出シルエット画像と、ステップS404において抽出した手指の周辺領域502の情報とを用いて、手指関節601の概略的な三次元位置(相対座標値)を算出する。詳細は後述する。
In step S1103, the
ステップS1104において、前段処理部302が、ステップS1103において生成した手指関節601の概略的な三次元位置を絶対座標値に変換する。変換方法は任意であるが、例えば、距離センサ102から手指領域903、904の重心における距離を取得し、その距離をオフセットとして加算することで絶対座標値に変換することができる。また、前述の概略的な三次元形状の推定方法によって厚みを持たない手指ポリゴンを生成し、手指領域903、904の重心における手指ポリゴンの距離をオフセットとして加算してもよい。
In step S1104, the
ステップS1105において、信頼度算出部303が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。
In step S1105, the
ステップS1106において、推定条件決定部304が、ステップS1105において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1107へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
In step S1106, the estimation
ステップS1107において、形状推定部305が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。
In step S1107, the
なお、本実施形態における手指関節601の三次元位置の算出処理では、ニューラルネットワークに検出シルエット画像を入力する。具体的には、入力層の各ノードに、検出シルエット画像の各画素の画素値を入力する。出力層については、第1の実施形態と同様であるため、説明を省略する。なお、本実施形態におけるニューラルネットワークは、検出シルエット画像を入力すると、手指関節の三次元位置を出力するように、事前に学習処理が行われているものとする。また、本実施形態におけるニューラルネットワークには、必ずしも手指領域903と904の両方を入力する必要はなく、片方だけを入力するようにしてもかまわない。
In the calculation processing of the three-dimensional position of the finger joint 601 in the present embodiment, the detected silhouette image is input to the neural network. Specifically, the pixel value of each pixel of the detected silhouette image is input to each node of the input layer. The output layer is the same as that in the first embodiment, and thus the description is omitted. It is assumed that the neural network according to the present embodiment performs learning processing in advance so that when the detected silhouette image is input, the three-dimensional position of the finger joint is output. Further, it is not always necessary to input both the
<信頼度の算出処理>
図12は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図12を参照して、本実施形態における信頼度の算出処理の手順を説明する。図12の処理はS1105の処理の詳細である。なお、ステップS701の処理は、第1の実施形態と同様であるため、説明を省略する。
<Calculation process of reliability>
FIG. 12 is a flowchart showing a procedure of reliability calculation processing executed by the
ステップS1201において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、撮影画像901、902に投影する。ステップS1202において、信頼度算出部303が、ステップS1201の投影結果からポリゴンシルエット画像を生成する。ポリゴンシルエット画像とは、手指ポリゴンが投影された画素の画素値が1、投影されなかった画素の画素値が0となる画像である。
In step S1201, the
ステップS1203において、信頼度算出部303が、ステップS1202で生成したポリゴンシルエット画像と、ステップS1102で生成した検出シルエット画像との差分を算出する。差分の算出方法は第1の実施形態と同様であるため、説明を省略する。
In step S1203, the
ステップS1204において、信頼度算出部303が、ステップS1203において算出した差分を信頼度に変換する。信頼度への変換方法は第1の実施形態と同様であるため、説明を省略する。
In step S1204, the
以上述べたように、本実施形態では、ニューラルネットワークに検出シルエット画像を入力することで手指関節601の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える。したがって、距離センサを使わずに、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。
As described above, in the present embodiment, the three-dimensional position of the
(第3の実施形態)
第1、第2の実施形態では、ニューラルネットワークの出力層の各ノードが手指関節の座標値を出力する場合を例に挙げて説明した。第3の実施形態では、ニューラルネットワークの出力層の各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する場合を例に挙げて説明する。このように本実施形態と第1、第2の実施形態とは、ニューラルネットワークの各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する点が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図12に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Third Embodiment)
In the first and second embodiments, the case where each node in the output layer of the neural network outputs the coordinate value of the finger joint has been described as an example. In the third embodiment, an example will be described in which each node in the output layer of the neural network outputs the likelihood of a preset finger pattern. As described above, the present embodiment is different from the first and second embodiments mainly in that each node of the neural network outputs the likelihood of a preset finger pattern. Therefore, in the description of the present embodiment, the same parts as those in the first and second embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 12, and the detailed description thereof will be omitted.
<手指関節の三次元位置の算出方法>
図13は、本実施形態に係る手指関節601の三次元位置の算出方法を模式的に示す図である。本実施形態における前段処理部302は、ニューラルネットワーク技術を用いて、あらかじめ設定された手指パターン群1301から最も尤もらしい手指パターンを算出する。具体的には、出力層の各ノードが各手指パターンに対応しており、各手指パターンの尤もらしさを出力する。
<Calculation method of three-dimensional position of finger joint>
FIG. 13 is a diagram schematically showing a method for calculating the three-dimensional position of the finger joint 601 according to this embodiment. The
そして、最も尤もらしさの大きいノードに対応する手指パターンを選択することで、手指関節601の三次元位置を算出する。なお、本実施形態におけるニューラルネットワークは、距離画像や検出シルエット画像を入力すると、手指の実際の形状に最も近い手指パターンに対応するノードの出力値が最も大きくなるように、あらかじめ学習処理が行われているものとする。
Then, the three-dimensional position of the
本実施形態における信頼度算出部303は、前段処理部302が出力した各手指パターンの尤もらしさから、手指関節601の三次元位置の信頼度を算出する。ここで、ニューラルネットワークが選択した手指パターンの尤もらしさと、他の手指パターンの尤もらしさとの差が大きいほど、ニューラルネットワークが選択した手指パターンは信頼できる。
The
そこで、手指パターン群1301の尤もらしさの平均値とニューラルネットワークが選択した手指パターンの尤もらしさとの差を、信頼度として算出する。なお、本実施形態における信頼度はこれに限定されない。例えば、ニューラルネットワークが選択した手指パターンの(つまり、最も値の大きい)尤もらしさと、二番目に値の大きい尤もらしさとの差を信頼度として算出してもよい。
Therefore, the difference between the average likelihood of the
以上述べたように、本実施形態では、ニューラルネットワークによって、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出し、その信頼度に応じて処理を切り替える。したがって、ジェスチャ認識などのように推定対象の手指パターンが限定されているケースにおいて、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 As described above, in the present embodiment, the most probable finger pattern is calculated from the preset finger pattern group by the neural network, and the process is switched according to the reliability thereof. Therefore, in cases such as gesture recognition where the finger pattern to be estimated is limited, it is possible to estimate the most detailed three-dimensional shape of the finger while suppressing the estimation of a three-dimensional shape that is significantly different from the actual one. it can. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.
(第4の実施形態)
第1〜第3の実施形態では、前段処理として手指関節の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える場合を例に挙げて説明した。第4の実施形態では、前段処理として撮影画像や距離画像から手指関節を検出し、その手指関節の検出結果の信頼度に応じて処理を切り替える場合を例に挙げて説明する。
(Fourth Embodiment)
In the first to third embodiments, the case where the three-dimensional position of the finger joint is calculated as the pre-stage process and the process is switched according to the reliability of the three-dimensional position has been described as an example. In the fourth embodiment, a case will be described as an example in which a finger joint is detected from a captured image or a distance image as preprocessing and the processing is switched according to the reliability of the detection result of the finger joint.
このように本実施形態と第1〜第3の実施形態は、撮影画像や距離画像から手指関節を検出する点と、その手指関節の検出結果の信頼度に応じて処理を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付す等して詳細な説明を省略する。 As described above, the present embodiment and the first to third embodiments are mainly different in that a finger joint is detected from a captured image or a distance image and that processing is switched depending on the reliability of the detection result of the finger joint. .. Therefore, in the description of the present embodiment, the same parts as those in the first to third embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 13, and the detailed description thereof will be omitted.
<情報処理装置の処理>
図14は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図14を参照して、本実施形態の処理の手順を説明する。なお、ステップS408、S409の処理は、第1〜第3の実施形態と同様であるため、説明を省略する。
<Processing of information processing device>
FIG. 14 is a flowchart showing a procedure of processing executed by the
ステップS1401において、画像取得部301が、画像を取得する。本実施形態では、撮影画像と距離画像の少なくともどちらか一方を取得し、その後の処理に利用する。以下では、撮影画像を取得して利用する例について説明するが、本発明はこれに限定されない。
In step S1401, the
ステップS1402において、前段処理部302が、ステップS1401において取得した画像から、手指関節601を検出する。手指関節の検出には任意の方法を用いることができるが、例えば、学習型の識別器を用いて手指の関節を検出することができる。
In step S1402, the
ステップS1403において、信頼度算出部303が、ステップS1402において検出した手指関節601の信頼度を算出する。例えば、あらかじめ設定された手指パターンの関節数の平均値と検出された関節数との差を、信頼度として算出することができる。なお、本発明はこれに限定されず、検出された関節数と相関のある任意の値を信頼度として利用してもよい。また、関節の位置関係の尤もらしさを信頼度として算出してもよい。以下では、検出された関節の数を信頼度として用いる例について説明するが、本発明はこれに限定されない。
In step S1403, the
ステップS1404において、推定条件決定部304が、ステップS1403において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1405へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。
In step S1404, the estimation
ステップS1405において、形状推定部305が、ステップS1402において検出した手指関節601から、関節の三次元位置を算出する。本実施形態では、ニューラルネットワークの入力層に検出した手指関節601の二次元座標を入力する。ニューラルネットワークのその他の処理については第1〜第3の実施形態と同様であるため、説明を省略する。
In step S1405, the
以上述べたように、本実施形態では、前段処理として撮影画像や距離画像から手指関節601を検出し、その手指関節601の検出結果の信頼度に応じて、ニューラルネットワークによる関節の三次元位置の算出を行うか否かを切り替える。つまり、手指関節601の検出結果の信頼度が低い場合は、関節の三次元位置の算出を行うことなく、概略的な三次元形状の推定に切り替えることができる。
As described above, in the present embodiment, the
したがって、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定でき、かつ、処理を軽くすることもできる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 Therefore, it is possible to estimate the detailed three-dimensional shape of the finger as much as possible while suppressing the estimation of a three-dimensional shape that is significantly different from the actual one, and it is also possible to reduce the processing. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.
(第5の実施形態)
次に、第5の実施形態を説明する。第1〜第4の実施形態では、前段処理の信頼度に応じて、手指全体の厚みに関する推定条件を切り替える場合を例に説明した。第5の実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える場合を例に説明する。
(Fifth Embodiment)
Next, a fifth embodiment will be described. In the first to fourth embodiments, the case has been described as an example in which the estimation condition regarding the thickness of the entire finger is switched according to the reliability of the former process. In the fifth embodiment, an example will be described in which the reliability is calculated for each part of the finger and the estimation condition regarding the thickness (detail) is switched for each part of the finger according to the reliability.
このように本実施形態と第1〜第4の実施形態は、手指の部位ごとに信頼度を算出する点と、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。 As described above, the present embodiment is different from the first to fourth embodiments mainly in that the reliability is calculated for each finger part and that the estimation condition regarding the thickness (detail) is switched for each finger part. Therefore, in the description of the present embodiment, the same parts as those in the first to fourth embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 14, and the detailed description thereof will be omitted.
<手指の部位>
図15は、手指の部位を模式的に示す図である。本実施形態では、図15に示すように、手指を部位1501〜1515に分割する。そして、部位ごとに信頼度を算出する。信頼度の算出方法は第1〜第4の実施形態と同様であるため、説明を省略する。その後、信頼度があらかじめ設定されたしきい値以上の部位については詳細な三次元形状を推定し、そうでない部位については概略的な三次元形状を推定する。
<Finger part>
FIG. 15: is a figure which shows the site|part of a finger typically. In the present embodiment, as shown in FIG. 15, the finger is divided into
または、あらかじめ詳細な三次元形状と概略的な三次元形状の両方を推定しておき、信頼度がしきい値以上の部位については詳細な三次元形状を当てはめ、そうでない部位については概略的な三次元形状を当てはめるようにしてもよい。なお、部位の分割の方法は任意であり、図15のような分割に限定されない。 Alternatively, both the detailed three-dimensional shape and the rough three-dimensional shape are estimated in advance, and the detailed three-dimensional shape is applied to the portion whose reliability is equal to or higher than the threshold, and the rough three-dimensional shape is applied to the other portions. You may make it fit a three-dimensional shape. The method of dividing the parts is arbitrary and is not limited to the division as shown in FIG.
以上述べたように、本実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える。したがって、部位によって信頼度が異なる場合においても、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 As described above, in the present embodiment, the reliability is calculated for each part of the finger, and the estimation condition regarding the thickness (detail) is switched for each part of the finger according to the reliability. Therefore, even when the reliability differs depending on the part, it is possible to estimate the three-dimensional shape of the finger as detailed as possible while suppressing the estimation of the three-dimensional shape that is significantly different from the actual one. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.
[変形例]
以上の各実施形態では、ニューラルネットワークを用いて関節の三次元位置を算出する場合を例に挙げて説明した。しかしながら、算出方法はニューラルネットワークに限らず、本発明は任意の方法で関節の三次元位置を算出できる。例えば、距離画像を主成分分析することで、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出してもよい。その場合、画像取得部301が取得した距離画像を主成分分析した座標と、各手指パターンを投影してできる距離画像を主成分分析した座標との距離を尤もらしさと定義し、信頼度を算出する。
[Modification]
In the above embodiments, the case where the three-dimensional position of the joint is calculated using the neural network has been described as an example. However, the calculation method is not limited to the neural network, and the present invention can calculate the three-dimensional position of the joint by any method. For example, the most likely finger pattern may be calculated from a preset finger pattern group by performing a principal component analysis on the distance image. In that case, the distance between the coordinate obtained by the principal component analysis of the distance image acquired by the
また、以上の各実施形態では、推定対象が手指である場合を例に挙げて説明した。しかしながら、推定対象は手指に限らず、本発明は任意の多関節物体について三次元形状を推定できる。例えば、推定対象が多関節生物の全身であってもかまわない。また、以上の各実施形態では、撮影画像が可視画像であるとして説明したが、本発明はこれに限定されない。例えば、撮影画像が赤外画像でもかまわない。 Moreover, in each of the above-described embodiments, the case where the estimation target is a finger has been described as an example. However, the estimation target is not limited to the fingers, and the present invention can estimate the three-dimensional shape of any articulated object. For example, the estimation target may be the whole body of an articulated organism. Further, in each of the above embodiments, the captured image is described as a visible image, but the present invention is not limited to this. For example, the captured image may be an infrared image.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100:情報処理装置、301:画像取得部、302:前段処理部、303:信頼度算出部、304:推定条件決定部、305:形状推定部 100: information processing device, 301: image acquisition unit, 302: pre-stage processing unit, 303: reliability calculation unit, 304: estimation condition determination unit, 305: shape estimation unit
Claims (16)
前記多関節物体の画像データを取得する画像取得手段と、
前記画像データに対して前段処理を行う前段処理手段と、
前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
を備え、
前記推定条件決定手段は、前記形状推定手段が詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする情報処理装置。 An information processing apparatus for estimating a three-dimensional shape of an articulated object,
Image acquisition means for acquiring image data of the articulated object;
Pre-stage processing means for performing pre-stage processing on the image data,
Reliability calculation means for calculating a reliability for the result of the preceding stage processing,
Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
Equipped with
The estimated condition determining means, information processing, characterized that you determine the shape estimation means performs any estimation process estimation processing or schematic three-dimensional shape of the detailed three-dimensional shape as the estimated condition apparatus.
前記信頼度算出手段は、前記関節の三次元位置の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。 The pre-stage process is a process of calculating a three-dimensional position of a joint of the multi-joint object using the image data,
The information processing apparatus according to claim 1, wherein the reliability calculation means calculates reliability of a three-dimensional position of the joint.
前記前段処理は、前記距離画像のデータの距離情報をニューラルネットワークに入力することにより前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。 The image data is range image data,
4. The information processing according to claim 3, wherein the pre-stage process is a process of calculating a three-dimensional position of a joint of the multi-joint object by inputting distance information of the data of the distance image into a neural network. apparatus.
前記信頼度算出手段は、前記検出された結果の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。 The pre-stage process is a process of detecting a joint of the multi-joint object from the image data,
The information processing apparatus according to claim 1, wherein the reliability calculation means calculates reliability of the detected result.
前記推定条件決定手段は、前記部位ごとに推定条件を決定することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。 The reliability calculation means calculates reliability for each part of the multi-joint object,
The information processing apparatus according to claim 1, wherein the estimation condition determining unit determines an estimation condition for each of the parts.
前記多関節物体の画像データを取得する画像取得手段と、Image acquisition means for acquiring image data of the articulated object;
前記画像データに対して、前記画像データから前記多関節物体の関節を検出する処理である前段処理を行う前段処理手段と、Pre-processing means for performing pre-processing on the image data, which is processing for detecting a joint of the multi-joint object from the image data;
前記前段処理により検出された関節の数に基づいて、前記前段処理の結果の信頼度を算出する信頼度算出手段と、Reliability calculation means for calculating the reliability of the result of the pre-processing based on the number of joints detected by the pre-processing,
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
を備えることを特徴とする情報処理装置。An information processing apparatus comprising:
画像取得手段が、前記多関節物体の画像データを取得する画像取得工程と、
前段処理手段が、前記画像データに対して前段処理を行う前段処理工程と、
信頼度算出手段が、前記前段処理の結果に対して信頼度を算出する信頼度算出工程と、
推定条件決定手段が、前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定工程と、
形状推定手段が、前記推定条件に基づいて前記三次元形状を推定する形状推定工程と、
を有し、
前記推定条件決定工程では、前記形状推定工程で詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする情報処理装置の制御方法。 A control method of an information processing device for estimating a three-dimensional shape of an articulated object, comprising:
An image acquisition means, an image acquisition step of acquiring image data of the articulated object;
A pre-stage processing means for performing pre-stage processing on the image data,
A reliability calculation step in which the reliability calculation means calculates a reliability with respect to the result of the pre-processing,
Estimating condition determining means, an estimating condition determining step of determining an estimating condition of the three-dimensional shape based on the reliability,
A shape estimating step, in which the shape estimating means estimates the three-dimensional shape based on the estimation condition,
Have a,
In the estimation condition determining step, which of the detailed three-dimensional shape estimation processing and the rough three-dimensional shape estimation processing is to be performed in the shape estimation step is determined as the estimation condition. Control method.
画像取得手段が、前記多関節物体の画像データを取得する画像取得工程と、An image acquisition means, an image acquisition step of acquiring image data of the articulated object;
前段処理手段が、前記画像データに対して、前記画像データから前記多関節物体の関節を検出する処理である前段処理を行う前段処理工程と、A pre-stage processing step in which the pre-stage processing means performs a pre-stage process for the image data, which is a process of detecting a joint of the multi-joint object from the image data;
信頼度算出手段が、前記前段処理により検出された関節の数に基づいて、前記前段処理の結果の信頼度を算出する信頼度算出工程と、A reliability calculation step in which the reliability calculation means calculates the reliability of the result of the pre-processing based on the number of joints detected by the pre-processing;
推定条件決定手段が、前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定工程と、Estimating condition determining means, an estimating condition determining step of determining an estimating condition of the three-dimensional shape based on the reliability,
形状推定手段が、前記推定条件に基づいて前記三次元形状を推定する形状推定工程と、A shape estimating step, in which the shape estimating means estimates the three-dimensional shape based on the estimation condition,
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016082352A JP6723061B2 (en) | 2016-04-15 | 2016-04-15 | Information processing apparatus, information processing apparatus control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016082352A JP6723061B2 (en) | 2016-04-15 | 2016-04-15 | Information processing apparatus, information processing apparatus control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017191576A JP2017191576A (en) | 2017-10-19 |
JP6723061B2 true JP6723061B2 (en) | 2020-07-15 |
Family
ID=60086328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016082352A Active JP6723061B2 (en) | 2016-04-15 | 2016-04-15 | Information processing apparatus, information processing apparatus control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6723061B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019086365A (en) * | 2017-11-06 | 2019-06-06 | 株式会社日立製作所 | Position estimation system |
CN110163048B (en) * | 2018-07-10 | 2023-06-02 | 腾讯科技(深圳)有限公司 | Hand key point recognition model training method, hand key point recognition method and hand key point recognition equipment |
EP3837533A1 (en) * | 2018-08-16 | 2021-06-23 | Thai Union Group Public Company Limited | Multi-view imaging system and methods for non-invasive inspection in food processing |
CN111460870A (en) | 2019-01-18 | 2020-07-28 | 北京市商汤科技开发有限公司 | Target orientation determination method and device, electronic equipment and storage medium |
JP6840365B2 (en) * | 2019-02-05 | 2021-03-10 | ソフトバンク株式会社 | Systems, server devices and programs |
CN110032957B (en) * | 2019-03-27 | 2023-10-17 | 长春理工大学 | Gesture spatial domain matching method based on skeleton node information |
WO2020230335A1 (en) * | 2019-05-16 | 2020-11-19 | 日本電信電話株式会社 | Skeletal information assessment device, skeletal information assessment method, and computer program |
JP7378232B2 (en) * | 2019-06-24 | 2023-11-13 | キヤノン株式会社 | Image processing device and its control method |
JP2021064320A (en) * | 2019-10-17 | 2021-04-22 | ソニー株式会社 | Information processing device, information processing method, and program |
US11209263B2 (en) * | 2019-12-12 | 2021-12-28 | Tencent America LLC | 3D hand pose estimation based on depth-image guided adversarial network 1 |
JP7504614B2 (en) * | 2020-02-17 | 2024-06-24 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7501622B2 (en) | 2020-05-14 | 2024-06-18 | 日本電気株式会社 | IMAGE SELECTION DEVICE, IMAGE SELECTION METHOD, AND PROGRAM |
JP7465469B2 (en) * | 2020-05-15 | 2024-04-11 | 兵庫県公立大学法人 | Learning device, estimation device, learning program, and estimation program |
JP7434207B2 (en) | 2021-04-13 | 2024-02-20 | 株式会社ソニー・インタラクティブエンタテインメント | System, information processing method, and information processing program |
JP2023139534A (en) | 2022-03-22 | 2023-10-04 | キヤノン株式会社 | Gesture recognition apparatus, head-mounted display apparatus, gesture recognition method, program, and storage medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101591779B1 (en) * | 2009-03-17 | 2016-02-05 | 삼성전자주식회사 | Apparatus and method for generating skeleton model using motion data and image data |
JP6433149B2 (en) * | 2013-07-30 | 2018-12-05 | キヤノン株式会社 | Posture estimation apparatus, posture estimation method and program |
-
2016
- 2016-04-15 JP JP2016082352A patent/JP6723061B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017191576A (en) | 2017-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723061B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
JP5167248B2 (en) | Modeling of humanoid shape by depth map | |
JP5931215B2 (en) | Method and apparatus for estimating posture | |
CN104380338B (en) | Information processor and information processing method | |
JP6632208B2 (en) | Information processing apparatus, information processing method, and program | |
JP2009536731A5 (en) | ||
JP2011258204A5 (en) | ||
JP2018119833A (en) | Information processing device, system, estimation method, computer program, and storage medium | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7406875B2 (en) | Information processing equipment and programs | |
US11727637B2 (en) | Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
CN102713975B (en) | Image clearing system, image method for sorting and computer program | |
CN115862124B (en) | Line-of-sight estimation method and device, readable storage medium and electronic equipment | |
CN107949851A (en) | The quick and robust control policy of the endpoint of object in scene | |
JP6347610B2 (en) | Image processing apparatus and three-dimensional spatial information acquisition method | |
JP5518677B2 (en) | Virtual information giving apparatus and virtual information giving program | |
US20210327160A1 (en) | Authoring device, authoring method, and storage medium storing authoring program | |
WO2021098666A1 (en) | Hand gesture detection method and device, and computer storage medium | |
JP5416489B2 (en) | 3D fingertip position detection method, 3D fingertip position detection device, and program | |
JP7029253B2 (en) | Information processing equipment and its method | |
JP6198104B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
JP6890422B2 (en) | Information processing equipment, control methods and programs for information processing equipment | |
KR20090070258A (en) | Procedure for estimating real-time pointing region using 3d geometric information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200313 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200623 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6723061 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |