JP2015219868A - Information processor, information processing method and program - Google Patents
Information processor, information processing method and program Download PDFInfo
- Publication number
- JP2015219868A JP2015219868A JP2014105288A JP2014105288A JP2015219868A JP 2015219868 A JP2015219868 A JP 2015219868A JP 2014105288 A JP2014105288 A JP 2014105288A JP 2014105288 A JP2014105288 A JP 2014105288A JP 2015219868 A JP2015219868 A JP 2015219868A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- evaluation
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像中の変形物体の位置姿勢を推定するための物体形状モデルを作成する技術に関する。 The present invention relates to a technique for creating an object shape model for estimating the position and orientation of a deformed object in an image.
従来、画像情報を利用して、マーカーを用いずに変形物体の位置姿勢推定を行うために、対象となる物体固有のモデルを作成する方法が知られている。例えば、特許文献1では、デプス画像を利用して人体の姿勢推定を行うために、距離画像中において立位や両腕を挙げるポーズなど、特定の姿勢を取っている対象者の身体の各部位のサイズを推定することにより、対象者固有のモデルを作成している。 2. Description of the Related Art Conventionally, a method for creating a model unique to a target object is known in order to estimate the position and orientation of a deformed object without using a marker using image information. For example, in Patent Document 1, in order to estimate the posture of a human body using a depth image, each part of the body of a subject taking a specific posture, such as a pose that stands or stands on both arms in a distance image A model specific to the subject is created by estimating the size of the subject.
しかしながら、特許文献1に記載の方法では、対象者が特定の姿勢をとる必要があり、利便性が低いという課題があった。 However, in the method described in Patent Document 1, there is a problem that the target person needs to take a specific posture and the convenience is low.
本発明は、このような課題に鑑みてなされたもので、対象物体が特定の姿勢を取ることを必要とせずに、対象物体固有のモデルを作成することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to create a model specific to a target object without requiring the target object to take a specific posture.
本発明に係る情報処理装置は、例えば、画像を入力する画像入力手段と、前記画像入力手段で入力された画像に基づいて、前記物体の検出を行う物体検出手段と、前記物体の位置姿勢を推定するための物体形状モデルを保持する保持手段と、前記物体形状モデルに基づいて、前記検出された物体の部位間の関係を評価する部位関係評価手段と、前記部位関係評価手段から得られた評価結果に基づいて、モデルパラメタを算出するかの判断をする判断手段と、前記判断手段による判断の結果に基づいて、前記モデルパラメタを算出するモデルパラメタ算出手段と、前記モデルパラメタ算出手段によって算出されたモデルパラメタに基づいて、前記保持手段に保持される物体形状モデルを更新する更新手段とを備える。 The information processing apparatus according to the present invention includes, for example, an image input unit that inputs an image, an object detection unit that detects the object based on the image input by the image input unit, and a position and orientation of the object. Obtained from holding means for holding an object shape model for estimation, part relation evaluation means for evaluating a relation between parts of the detected object based on the object shape model, and part relation evaluation means Based on the evaluation result, a determination unit that determines whether to calculate a model parameter, a model parameter calculation unit that calculates the model parameter based on a determination result by the determination unit, and a calculation by the model parameter calculation unit Updating means for updating the object shape model held in the holding means based on the model parameter.
本発明によれば、対象物体が特定の姿勢を取ることを必要とせずに、対象物体固有のモデルを作成することができる。 According to the present invention, it is possible to create a model specific to a target object without requiring the target object to take a specific posture.
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図11を用いて説明する。 Prior to describing each embodiment according to the present invention, a hardware configuration in which the information processing apparatus shown in each embodiment is mounted will be described with reference to FIG.
図11は、本実施形態における情報装置のハードウェア構成図である。同図において、CPU1110は、バス1100を介して接続する各デバイスを統括的に制御する。CPU1110は、読み出し専用メモリ(ROM)1120に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM1120に記憶されており、ランダムアクセスメモリ(RAM)1130に一時記憶され、CPU1110によって適宜実行される。また、入力I/F1140は、外部の装置(表示装置や操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F1150は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。
FIG. 11 is a hardware configuration diagram of the information device according to the present embodiment. In the figure, a
これらの各機能部は、CPU1110が、ROM1120に格納されたプログラムをRAM1130に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1110を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
Each of these functional units is realized by the
(第1の実施形態)
本実施形態に係る情報処理装置は、2D画像中の歩行者の各部位の画像上での位置姿勢を算出するための人体モデルを、モデルパラメタの算出に適した状況かどうかを判定し、適している場合にモデルの保存を行う。本提案中の「モデル」とは、複数の部位からなる物体の形状および姿勢を複数のパラメタを用いて表現したものであればどのようなものでもよく、例えば、円柱を連結した関節モデルや、3次元CADモデルなどである。
(First embodiment)
The information processing apparatus according to the present embodiment determines whether or not the human body model for calculating the position and orientation on the image of each part of the pedestrian in the 2D image is suitable for the calculation of the model parameter. If it is, save the model. The “model” in the present proposal may be anything as long as it represents the shape and posture of an object composed of a plurality of parts using a plurality of parameters, for example, a joint model in which cylinders are connected, For example, a three-dimensional CAD model.
以下、図を用いて例を示す。 Hereinafter, an example is shown using figures.
図1の人物110は横向きで歩行動作をしている。人物120は正面を向き立っている。人物110の右下腿を通る中心線は、点線111であり、右上腿を通る中心線は112である。点線111と点線112の交点が膝の関節点に相当する。人物110の下腿の長さは、この交点から右足底面までの距離として算出することができる。また、点113のようにコーナー点を膝の関節点とみなして、コーナー点から右足底面までの距離として算出することもできる。一方で人物120の右上腿の中心線と右下腿の中心線とは点線121に一致し、膝関節点に相当する点を定位することができない。また、コーナー点のような画像特徴もないため、コーナー点を利用して膝関節点の定位を行うこともできない。すなわち、人物120の右脚上腿と右脚下腿のサイズの推定は正確ではないことになる。よって、人物120の右上腿および右下腿のモデルの更新をすることは不適切である。本実施形態に係る情報処理装置は、右上腿と右下腿の相対位置関係の推定結果に基づいて、モデル更新に適切な状況かどうかを判断し、モデルの更新を行う。なお、本実施形態においては、右上腿と右下腿を例として説明を行うが、他の部位に関しても適用可能であることは言うまでもない。ゆえに、それぞれの部位に関して、本実施形態で述べる方法によりモデルパラメタ算出が適切かどうかを判定し、適合した部位のモデルパラメタのみを保存することも可能である。
The
図2に示すように、本実施形態における情報処理装置200は、画像入力部201と、物体検出部202と、姿勢推定部203と、部位関係評価部204と、モデルパラメタ算出部205と、モデルパラメタ記憶部206とから構成される。
As illustrated in FIG. 2, the
画像入力部201は、撮像装置100から順次送出される各フレームの画像(現実空間画像)を受け、後段の画像特徴検出部202に対して転送する。画像入力部201は、撮像装置100の出力がNTSCなどのアナログ出力であればアナログビデオキャプチャボードによって実現される。また撮像装置100の出力がIEEE1394などのデジタル出力であれば、例えばIEEE1394インタフェースボードによって実現される。画像入力部201より入力される画像は、RGB画像であってもグレイスケール画像であってもよい。また実時間で撮影した画像であってもよいし、事前に撮影した画像であってもよい。また、RGB画像であってもグレイスケール画像であってもよい。
The
物体検出部202は、画像入力部201から対象となる物体を画像中から検出する。
The
姿勢推定部203は、画像入力部より得られた画像中の人物の各部位の2次元画像上での位置姿勢を推定する。
The
部位関係評価部204は、姿勢推定部203より得られる情報から部位間の相対関係を評価する。ここで、評価値は、パーツ尤度、相対角度、画像特徴のコーナーネス、特定のパターンとの類似度などのことをいうが、詳しい説明は後述する。
The part
モデルパラメタ算出部205は、部位関係評価部204で得られた評価値に基づいて、モデルパラメタを算出する部位を選択し、それぞれのパラメタの算出を行う。
The model
モデルデータ記憶部206は、姿勢推定部203で用いる人体モデル(物体形状モデル)を保持しておく。
The model
以下では、図7のフローチャートを用いて、本実施形態における情報処理装置200の処理を説明する。
Below, the process of the
(ステップS101)
まず、ステップS101において、画像入力部201より画像を1フレーム入力する。
(Step S101)
First, in step S101, one frame of image is input from the
(ステップS102)
続いて、ステップS102において、物体検出部202によって、ステップS101において入力された画像中に人物がいるかどうかの検出を行う。検出された場合は、ステップS103に進む。検出されなかった場合はステップS101に戻る。検出方法としては、本実施形態では人物が対象であるため、例えば、非特許文献1に記載の方法を用いることができる。もちろん、この方法に限られるものではない。
(Step S102)
Subsequently, in step S102, the
(ステップS103)
続いて、ステップS103において、姿勢推定部203はステップS102において検出された人体の各部位の画像上での位置姿勢を推定する。以下、その推定方法について詳述する。
(Step S103)
Subsequently, in step S103, the
本実施形態において位置姿勢の推定を行うためのモデルは、非特許文献2や非特許文献3に記載のPictorial Structuresモデルとする。図3は、Pictorial Structuresモデルにより、横向きで歩行する人物の各部位の位置姿勢推定を行っている図である。画像301は、横向き歩行の人物110にその各部位に対応するbounding boxを点線で重畳して描画した画像である。画像302は、画像301のbounding boxだけ別途描画した画像である。311は体幹部、312は頭部、313は右上腿、314は右下腿、315は左上腿、316は左下腿にそれぞれ対応するbounding boxである。簡単のため、右腕および左腕に相当する部位を省略したが、それらを含んだモデルに拡張することが可能であることは言うまでもない。
In the present embodiment, the model for estimating the position and orientation is the Pictorial Structure model described in Non-Patent Document 2 or Non-Patent Document 3. FIG. 3 is a diagram in which the position and orientation of each part of a person who walks sideways is estimated using the Pictorial Structures model. The
画像302の各bounding boxは幅と長さのパラメタを有している。姿勢推定が開始された時点では、このパラメタには予め定められた初期値が与えられている。情報処理装置は、対象者が歩行をしている最中に、下腿と上腿の相対配置関係を評価し、それが所定の範囲の配置関係になった場合に、下腿と上腿に対応するbounding boxの幅と長さの更新を行う。
Each bounding box of the
Pictorial Structuresモデルにおいて、入力画像Iを与えた時の各部位の位置姿勢L={li}の事後確率は、以下の式(1)で表される。 In the Pictorial Structures model, the posterior probability of the position and orientation L = {l i } of each part when the input image I is given is expressed by the following equation (1).
ここで、Ψは部位iとjの位置姿勢liとljで定まるパーツ連結スコア、Φは部位iのパーツらしさを評価するパーツ尤度である。Eはパーツ間を連結するエッジの集合である。本実施形態におけるパーツ間の連結は図4に表されているように、体幹部と頭部、右上腿、左上腿がそれぞれ連結し、さらに右上腿と右下腿、左上腿と左下腿とが連結した構造になっている。liは、部位iに対応するbounding boxの中心位置(xi,yi)および回転角θiより構成される。式(1)に表される事後確率P(L|I)が最大となるようなL={li}が求めるパーツの位置姿勢になる。 Here, Ψ is a part connection score determined by the positions and orientations l i and l j of the parts i and j , and Φ is a part likelihood for evaluating the part-likeness of the part i. E is a set of edges connecting the parts. As shown in FIG. 4, the connection between the parts in the present embodiment connects the trunk, the head, the upper right thigh, and the left upper thigh, and the upper right thigh and the right lower thigh, and the left upper thigh and the left lower thigh. It has a structure. l i is composed of the center position (x i , y i ) and the rotation angle θ i of the bounding box corresponding to the part i. L = {l i } that maximizes the posterior probability P (L | I) expressed in the equation (1) is the part position and orientation to be obtained.
図5に2つの隣り合うbounding boxの相対位置姿勢の例を示す。点501は、右上腿に対応するbounding box313に属し、右下腿に接続する関節点であり、点502は右下腿314に対応するbounding box314に属し、右上腿に接続する関節点である。この時、点501および点502の座標はそれぞれ(x34,y34)、(x43,y43)と表記する。また、bounding box313と314のなす角503は、θ34と表記する。
FIG. 5 shows an example of the relative position and orientation of two adjacent bounding boxes. A
パーツ連結スコアΨは、例えば、以下の式で算出される。 The part connection score Ψ is calculated by the following formula, for example.
式(2)において、(xij,yij)は部位iに対応するbounding boxの、部位jに接続する関節点の画像座標であり、θijは部位iと部位jに対応するbounding boxのなす角である。第3項のκおよびμは定数である。 In Expression (2), (x ij , y ij ) is the image coordinates of the joint point of the bounding box corresponding to the part i and connected to the part j, and θ ij is the bounding box corresponding to the part i and the part j. It is an angle to make. In the third term, κ and μ are constants.
また、部位iのパーツ尤度Φ(li)は、例えば、以下のようにして算出される。中心位置(xi,yi)に幅wi、長さhiのbounding boxを角度θi回転させて配置する。bounding box内の画像を切り出し、幅wi’、長さhi’にリサイズをした後、非特許文献3に記載のShape Context特徴量を抽出した特徴ベクトルを用意する。部位iに対応する複数の幅wi’、長さhi’のサンプル画像群をSupport Vector Machineによって予め学習した識別器を用いて、その特徴ベクトルのスコアを算出し、部位iのパーツ尤度Φ(li)とする。 Further, the part likelihood Φ (l i ) of the part i is calculated as follows, for example. A bounding box having a width w i and a length h i is arranged at the center position (x i , y i ) with an angle θ i rotated. After the image in the bounding box is cut out and resized to the width w i ′ and the length h i ′, a feature vector in which the Shape Context feature amount described in Non-Patent Document 3 is extracted is prepared. Using a discriminator that has previously learned a sample image group having a plurality of widths w i ′ and length h i ′ corresponding to the part i using the Support Vector Machine, the score of the feature vector is calculated, and the part likelihood of the part i Let Φ (l i ).
部位iに対応するbounding boxの幅wiおよび長さhiは、処理の開始時には、適当な初期値が与えられているが、後述するように、対象者が歩行をしている最中に更新される。 The width w i and the length h i of the bounding box corresponding to the part i are given appropriate initial values at the start of the process. As will be described later, while the subject is walking, Updated.
(ステップS104)
続いてステップS104において、部位関係評価部204は、右上腿と右下腿の相対位置関係が適切な状態かどうかを評価する。以下、その評価方法について、詳述する。
(Step S104)
Subsequently, in step S104, the part
姿勢推定部203によって、式(1)の事後確率を最大化するL={li}が算出されているとする。まず、部位関係評価部は、対象部位のパーツ尤度Φ(l3)およびΦ(l4)がそれぞれ予め定められた閾値を超えているかどうかを判定する。Φ(l3)およびΦ(l4)がともに閾値を超えている場合、さらに、部位関係評価部204は、対象部位同士の相対角度θ34を評価する。例えば、相対角度θ34が45度以上135度未満である場合、後述のステップS105で、その相対角度は適切であると判定される。相対角度が適切であると判定された場合、ステップS106において、モデルパラメタが算出され、ステップ107において、右上腿と右下腿のbounding boxの幅および高さの保存が行われる。
It is assumed that L = {l i } that maximizes the posterior probability of Expression (1) is calculated by the
また、部位関係評価部204は、対象となる部位を含む画像特徴によって部位関係を評価することもできる。図6を用いて一例を示す。図6の601は、右膝周辺の部分画像である。部分画像を切り出す枠の中心座標は、例えば、姿勢推定部203によって推定された、右上腿に対応するbounding boxの右下腿に接続する関節点の位置座標と、右下腿に対応するbounding boxが右上腿に接続する関節点の位置座標の中点に設定することができる。また、部分画像を切り出す大きさは、例えば、右上腿のbounding boxのサイズに比例した大きさを設定することができる。部分画像601を、以下の式(3)で表される評価値Λで評価する。
Λ=det(A)−k trace2(A) (3)
ここで、Aは以下の式(4)で表される二次モーメント行列である。
In addition, the part
Λ = det (A) −k trace 2 (A) (3)
Here, A is a second moment matrix represented by the following formula (4).
式(4)においてw(u,v)は(u,v)における重みづけ、IxおよびIyは、それぞれ(u,v)におけるx方向およびy方向の輝度勾配の値である。Λの値が定められた範囲にある場合、右上腿のbounding boxの幅wRUおよび長さhRUの保存を行う。同様に右下腿のbounding box幅wRLおよび長さhRLの保存も行う。式(3)の評価値Λは一般に、部分画像内での輝度勾配方向を評価するための画像特徴量である。Λに代わる他の画像特徴量として、例えば、部分画像内での画像モーメントの値や、ヘッセ行列の行列式の値などを用いてもよく、本実施形態には限られない。 In equation (4), w (u, v) is a weight in (u, v), and I x and I y are values of luminance gradients in the x and y directions in (u, v), respectively. When the value of Λ is within the predetermined range, the width w RU and the length h RU of the bounding box of the upper right thigh are stored. Similarly, the bounding box width w RL and length h RL of the right lower leg are also stored. The evaluation value Λ in Expression (3) is generally an image feature amount for evaluating the luminance gradient direction in the partial image. As another image feature amount instead of Λ, for example, an image moment value in a partial image, a determinant value of a Hessian matrix, or the like may be used, and the present invention is not limited to this embodiment.
また、部位関係評価部204は、図6の部分画像601を、特定のパターンと比較することで、評価を行うことも可能である。非特許文献4に記載のように、予め特定の配置関係にある部位を含む部分画像のパターンを学習し、そのパターンと部分画像601との類似度を算出し、評価値としてもよい。その場合には、ステップS106で類似度が予め決められた水準以上の場合にモデルの更新を行う。
Further, the part
(ステップS105)
続いてステップS105において、ステップS104での評価結果を受けて、モデルパラメタの算出が必要であればステップS106に進む。モデルパラメタの算出が必要なければ、ステップS101に戻る。
(Step S105)
Subsequently, in step S105, the evaluation result in step S104 is received, and if calculation of the model parameter is necessary, the process proceeds to step S106. If it is not necessary to calculate the model parameter, the process returns to step S101.
ステップS104の評価結果を受けて、モデルパラメタを算出するかどうかの判断の方法について述べる。モデルパラメタを算出するかどうかの判断手法としては、所定のしきい値を超えた場合にモデルパラメタを算出するという方法がある。評価値としては、上述のように、相対角度、部分画像のコーナーネス、画像のパターンなどさまざまなものが考えられ、また、ここにあげたものに限られるものではない。そのため、ステップS105でのしきい値もその評価値によって変わる。また、モデル更新部205が部位関係評価部204の評価値の現在の評価値と過去の評価値とを比較し、現在の評価値の方が高かった場合にモデルパラメタを算出するという方法なども考えられる。これにより、過去の履歴と比して、部位の長さをより精度よく算出可能な場合にモデルの更新を行うことができる。さらに、評価値として、特定のパターンとの類似度を用いた場合には、特定のパターンとの類似度の過去の履歴を保存しておき、過去の履歴よりも類似度が高い場合にモデルパラメタの算出を行うこともできる。
A method for determining whether to calculate a model parameter in response to the evaluation result in step S104 will be described. As a method for determining whether to calculate a model parameter, there is a method of calculating a model parameter when a predetermined threshold value is exceeded. As described above, various evaluation values such as a relative angle, a cornerness of a partial image, and an image pattern are conceivable as described above, and are not limited to those described here. Therefore, the threshold value in step S105 also varies depending on the evaluation value. In addition, the
(ステップS106)
続いてステップS106において、モデル更新部205は、モデルパラメタを算出する。
(Step S106)
Subsequently, in step S106, the
本実施形態においては、右上腿に対応するbounding boxの幅と長さ、および右下腿に対応するbounding boxの幅と長さを算出する。例えば、右上腿のモデルを更新する場合は次のように行う。右上腿に対応するbounding boxの位置姿勢lRUを固定したまま、幅wRUおよび長さhRUを変化させ、パーツ尤度Φ(lRU)が最大となるような幅wRUおよび長さhRUを算出する。算出した幅wRUおよび長さhRUを右上腿の新たな幅と長さとする。 In the present embodiment, the width and length of the bounding box corresponding to the right upper leg and the width and length of the bounding box corresponding to the right lower leg are calculated. For example, when updating the model of the upper right thigh, the following is performed. While fixing the position and orientation l RU of bounding box corresponding to the upper right thigh, the width w RU and the length h RU changing a part likelihood Φ (l RU) width that is maximum w RU and the length h RU is calculated. The calculated width w RU and length h RU are set as the new width and length of the upper right thigh.
(ステップS107)
続いてステップS107において、モデル更新部205はステップS106において算出されたモデルパラメタを用いて、モデルパラメタを保存する。モデルパラメタを保存した後、ステップS101に戻る。
(Step S107)
Subsequently, in step S107, the
より具体的には、例えば、ステップS106において新たに算出したパラメタの値とモデル記憶部206に保存されている値とを入れ替える処理が行われる。また、モデル更新部205は、過去の評価値の履歴と対応するモデルパラメタの値を用いることもできる。例えば、過去4回分の更新の際の評価値(パターンの類似度)をαt−1、αt−2、αt−3、αt−4とし、新たに評価値αtを得たとする。またそれぞれの更新時にパーツ尤度Φ(lRU)が最大となるモデルパラメタをpt、pt−1、pt−2、pt−3、pt−4、ただし、p=(wRU,hRU)とする。この時、パラメタの値は、以下の式のpに更新される。これにより、過去の履歴に依存せず、より精度が高い場合の情報のみ更新に利用できるという効果がある。モデル更新部205が、部位関係評価部204の評価値に応じた重みを付与して、モデルの更新を行うことにより、算出した部位パラメタの信頼度に応じたモデルの更新が可能になるという効果を示している。
More specifically, for example, a process of replacing the parameter value newly calculated in step S106 with the value stored in the
本明細書の「部位に関するパラメタ」および「部位パラメタ」とは、物体の部位の形状を規定するパラメタであればどのようなものでもよく、例えば、線分の長さ、円柱の長さや径、楕円体の各軸の長さ、直方体の各辺の長さなどのことである。 As used herein, the “parameter relating to the part” and the “part parameter” may be any parameters that define the shape of the part of the object, for example, the length of a line segment, the length or diameter of a cylinder, It is the length of each axis of the ellipsoid, the length of each side of the rectangular parallelepiped, and the like.
以上のように、本実施形態では、右上腿と右下腿の相対位置姿勢を評価することで、部位の長さを精度よく算出するのに適したタイミングかどうかを判定することができる。 As described above, in the present embodiment, it is possible to determine whether or not the timing is suitable for accurately calculating the length of the region by evaluating the relative position and posture of the upper right thigh and the right lower thigh.
(第2の実施形態)
本実施形態に係る情報処理装置は、距離画像とRGB画像とを入力とする画像中の人物の姿勢を推定するためのモデルを、対象人物の姿勢推定を行っている最中に更新していく。
(Second Embodiment)
The information processing apparatus according to the present embodiment updates a model for estimating the posture of a person in an image that receives a distance image and an RGB image while the posture of the target person is being estimated. .
本実施形態にかかる情報処理装置は、第1の実施形態における情報処理装置と同様の構成をとる。 The information processing apparatus according to the present embodiment has the same configuration as that of the information processing apparatus according to the first embodiment.
画像入力部201より入力される画像は、距離画像データおよびRGBデータとする。距離画像データはステレオ、パターン光投影、レンジスキャンなどいかなる距離画像取得の方法によって得られたデータでもよい。また、それらの距離画像は実時間で撮影した画像であってもよいし、事前に撮影した画像であってもよい。入力される距離画像は、例えば、320×240ピクセルのサイズであり、各画素には撮像装置からの距離が格納されている。RGBデータは、距離画像データと同様またはそれ以上の解像度であり、距離画像と対応が取れるように補正を施されているものとする。
The image input from the
物体検出部202は、画像入力部201から得られた距離画像中の人物の候補を抽出する。
The
姿勢推定部203は、距離画像と図8の人体モデルを用いて、物体検出部によって得られた距離画像中の人体候補領域における人体の姿勢を逐次的に推定する。
The
モデル更新部205は、部位関係評価部204における評価に応じて、姿勢推定部203で用いる人体を円柱で近似したモデルのパラメタを更新する。モデル記憶部206は、姿勢推定部203で用いる人体モデルを保存しておく。
The
以下では、図9のフローチャートを用いて、本実施形態における情報処理装置200の処理を説明する。
Below, the process of the
(ステップS201)
まず、ステップS201において、画像入力部201は、画像を1フレーム入力する。
(Step S201)
First, in step S201, the
(ステップS202)
続いて、ステップS202において、物体検出部202は、ステップS201において入力された画像中に人物がいるかどうかの検出を行う。検出された場合は、ステップS203に進む。検出されなかった場合はステップS201に戻る。
(Step S202)
Subsequently, in step S202, the
まず、物体検出部202は、画像入力部201より入力された距離画像中の動体を検出する。動体の検出は背景差分およびフレーム間差分により行われる。次に、検出された動体領域に対応するRGB画像中の領域に対して、非特許文献5に記載の方法などによって、人体の向きを特定し、さらに予め学習された回帰関数により、各部位の3次元位置姿勢の推定を行う。これらの検出された位置と推定された姿勢を以て、対象の人体の初期位置および初期姿勢とする。また、前フレームにおいて、人体の位置姿勢が算出されている場合、それを初期位置および初期姿勢とすることができる。
First, the
(ステップS203)
続いて、ステップS203において、前フレームにおいて位置姿勢を推定した結果があるかどうか確認する。結果があれば、ステップS205に進む。結果がなければステップS204に進む。
(Step S203)
Subsequently, in step S203, it is confirmed whether there is a result of estimating the position and orientation in the previous frame. If there is a result, the process proceeds to step S205. If there is no result, the process proceeds to step S204.
(ステップS204)
ステップS204において、姿勢推定部203によって、ステップS202において検出された人体の初期姿勢を推定する。ステップS204の実行の後、ステップS201に戻る。
(Step S204)
In step S204, the
(ステップS205)
ステップS205において、姿勢推定部203は、現在の人体モデルおよび、前フレームに得られた位置姿勢推定結果を用いて、現在の人体の位置姿勢を推定する。
(Step S205)
In step S205, the
人体のモデルは、Pictorial Structuresモデルを3次元に拡張したものを用いる。部位は、トルソ711、頭部712、右上腕713、右前腕714、左上腕715、左前腕716、右上腿717、右下腿718、左上腿719、左下腿720よりなる。各部位のモデルは円柱メッシュで構成されており、半径、高さをパラメタとして持つ。各円柱は、回転と平行移動が可能である。部位iの位置姿勢liの要素は、位置(xi,yi,zi)および回転(αi,βi,γi)である。
As the human body model, a three-dimensional extension of the Pictorial Structures model is used. The parts include a
まず、姿勢推定部203は、物体検出部202の処理により得られた初期姿勢をとったモデルを、デプス画像中の人体候補領域である点群データの中心軸とモデルのトルソ部位の中心軸とが一致するようにモデルを点群データの座標空間中に配置する。
First, the
各部位の位置姿勢は式(1)の事後確率を最大化するL={li}を求めることによって得られる。ただし、パーツ連結スコアΨは、以下の式(6)のように、3次元に拡張されている。 The position and orientation of each part can be obtained by obtaining L = {l i } that maximizes the posterior probability of Expression (1). However, the part connection score Ψ is expanded in three dimensions as in the following formula (6).
ここで、φijは、部位iに対応する円筒の中心軸と部位jに対応する円筒の中心軸とがなす角度である。また、パーツ尤度Φ(li)は、以下の式(7)を用いて算出される。 Here, φ ij is an angle formed by the central axis of the cylinder corresponding to the part i and the central axis of the cylinder corresponding to the part j. Further, the part likelihood Φ (l i ) is calculated using the following equation (7).
ここで、mi(k)は、部位iに対応するモデルの円柱メッシュのk番目の点、pkは距離画像から得られる3次元空間中の点座標である。平行移動ベクトルti、回転行列Riは部位iの位置(xi,yi,zi)と姿勢(αi,βi,γi)に対応する。 Here, m i (k) is the k-th point of the cylindrical mesh of the model corresponding to the part i, and pk is the point coordinates in the three-dimensional space obtained from the distance image. The translation vector t i and the rotation matrix R i correspond to the position (x i , y i , z i ) and posture (α i , β i , γ i ) of the part i .
部位関係評価部204は、実施形態1の場合と同様にして、姿勢推定部203によって得られた各部位の相対位置姿勢を評価する。例えば、右上腿と右下腿に関する評価値が適当であった場合、後述するモデルパラメタ算出部205が右上腿と右下腿それぞれのモデルパラメタを算出する。
The part
(ステップS206)
続いて、ステップS206において、部位関係評価部204は、右上腿と右下腿の相対位置関係が適切な状態かどうかを評価する。
(Step S206)
Subsequently, in step S206, the part
また、部位関係評価部204は、右上腿と右下腿を含む局所の距離画像の画像特徴を評価する場合もある。例えば、右膝に相当する局所領域の距離画像を切り出し、距離値を輝度値とみなして式(3)によってコーナーネスを評価し、コーナーネスが一定値以上の場合、右上腿および右下腿のモデルパラメタを算出する。この時、膝が伸びきった状態では、局所画像中の物体は直線状となり、距離画像の勾配の二次モーメント行列を元にしたコーナーネスの指標は低くなる。
In addition, the part
また別の方法としては、右膝に相当する局所領域の距離画像のパターンを予め学習しておき、パターンが合致した場合に、右上腿および右下腿のモデルパラメタの算出をする方法が考えられる。まず、予め、膝関節角度が90°の場合の膝の3次元曲面を作成しておく。3次元曲面は例えば、CGキャラクタから作成することもできるし、実際の人体の該当部分の距離画像を撮像した後、距離画像の点群を近似する曲面を算出することによっても得られる。右上腿の下端と右下腿の上端を含む領域において、膝関節角度が90°の場合の膝の3次元曲面のフィッティングを行い、フィッティング後の誤差が閾値よりも低い場合に、右上腿と右下腿のモデルパラメタの保存を行う。同様に右上腕と右前腕に関しても、肘関節角度が90°の場合の肘の3次元曲面をフィッティングし、フィッティング後の誤差が閾値よりも低い場合に、右上腿と右下腿のモデルパラメタの保存を行うこともできる。 As another method, a method of learning a pattern of a distance image of a local region corresponding to the right knee in advance and calculating model parameters of the upper right thigh and the right lower thigh when the patterns match can be considered. First, a three-dimensional curved surface of the knee when the knee joint angle is 90 ° is created in advance. For example, a three-dimensional curved surface can be created from a CG character, or can be obtained by taking a distance image of a corresponding part of an actual human body and then calculating a curved surface that approximates a point group of the distance image. In the area including the lower end of the upper right thigh and the upper end of the right lower thigh, when fitting the 3D curved surface of the knee when the knee joint angle is 90 ° and the error after fitting is lower than the threshold, the upper right thigh and the right lower thigh Save model parameters of. Similarly, for the upper right arm and the right forearm, fitting the 3D curved surface of the elbow when the elbow joint angle is 90 °, and storing the model parameters of the upper right thigh and right lower leg when the error after fitting is lower than the threshold Can also be done.
(ステップS207)
続いて、ステップS207において、ステップS206での評価結果を受けて、モデルパラメタの算出が必要であればステップS208に進む。モデルパラメタの算出が必要なければ、ステップS201に戻る。
(Step S207)
Subsequently, in step S207, the evaluation result in step S206 is received, and if calculation of the model parameter is necessary, the process proceeds to step S208. If calculation of the model parameter is not necessary, the process returns to step S201.
(ステップS208)
続いてステップS208において、モデルパラメタ算出部205は右上腿に対応する円柱モデルの半径と長さ、および右下腿に対応する円柱モデルの半径と長さを算出する。
(Step S208)
Subsequently, in step S208, the model
例えば、右上腿のモデルであれば、その位置姿勢のパラメタを固定した状態で、半径および長さの異なる複数の円柱モデルに対して式(7)で表されるパーツ尤度を計算し、最もパーツ尤度が大きくなるような半径と長さを持った円柱を新たなモデルとして採用する。 For example, in the case of the model of the upper right thigh, the part likelihood represented by the equation (7) is calculated for a plurality of cylindrical models having different radii and lengths with the position and orientation parameters being fixed, A cylinder with a radius and length that increases the likelihood of parts is adopted as a new model.
(ステップS209)
続いてステップS209において、モデルパラメタ算出部205はステップS208において算出されたモデルパラメタを用いて、モデルパラメタ記憶部206に保存されているモデルを更新する。モデルを更新した後、ステップS201に戻る。
(Step S209)
Subsequently, in step S209, the model
以上のように、第2の実施形態では、距離画像とRGB画像(二次元画像)を用いて3次元の人体位置姿勢推定を行った場合においても、実施形態1において説明をした効果と同様の効果を得られることを示している。 As described above, in the second embodiment, even when a three-dimensional human body position / posture is estimated using a distance image and an RGB image (two-dimensional image), the same effect as described in the first embodiment is used. It shows that an effect can be obtained.
(第3の実施形態)
第1の実施形態、および第2の実施形態では人体を対象としたが、本発明にかかる情報処理装置は人体以外の物体も対象とすることが可能である。本実施形態では、馬や犬等の四足歩行の動物を対象とする。これらの動物は、部位の構成や、部位同士の連結関係は共通であるが、各部位の長さ等のパラメタは、種類により大きくばらつきがある。そのため、物体検出部において、対象物体の種別を判別し、判別結果に応じたモデルを用いて対象物体の姿勢推定とモデルパラメタの保存を行う。本実施形態においても、実施形態1および実施形態2と同様、右上腿および右下腿のモデルパラメタの保存を行うとする。
(Third embodiment)
Although the first embodiment and the second embodiment are directed to the human body, the information processing apparatus according to the present invention can also target objects other than the human body. In the present embodiment, a quadruped walking animal such as a horse or a dog is targeted. Although these animals have the same part configuration and connection relationship between the parts, parameters such as the length of each part vary greatly depending on the type. Therefore, in the object detection unit, the type of the target object is determined, and the posture of the target object is estimated and the model parameters are stored using a model corresponding to the determination result. Also in this embodiment, it is assumed that the model parameters of the upper right thigh and the right lower thigh are stored as in the first and second embodiments.
本実施形態は、第2の実施形態と同様の構成により実現される。以下では、実施形態2と差異のあるモジュールに関してのみ、その内容を記す。 The present embodiment is realized by the same configuration as the second embodiment. Hereinafter, only the modules different from those of the second embodiment will be described.
本実施形態における物体検出部202は、対象となる動物の検出を行う。対象動物は例えば、馬、犬、猫とする。また、それぞれの動物においても種別ごとにモデルが異なるものとする。
The
モデル記憶部206には、対象となる動物やその種別に応じたモデルがそれぞれ保存されている。モデルの各部位は、半径と長さをパラメタとする円柱によって表現されている。
The
以下では、図10のフローチャートを用いて、本実施形態における情報処理装置200の処理を説明する。
Below, the process of the
(ステップS301)
まず、ステップS301において、画像入力部201は、画像を1フレーム入力する。
(Step S301)
First, in step S301, the
(ステップS302)
続いて、ステップS302において、物体検出部202は、ステップS301において入力された画像中に対象となる物体が存在するかどうかの検出を行う。検出された場合は、ステップS303に進む。検出されなかった場合はステップS301に戻る。
(Step S302)
Subsequently, in step S302, the
物体検出部202は、まず、第2の実施形態と同様に、動体抽出を行い、画像入力部201より入力された距離画像から対象動物の候補領域を抽出する。次に、抽出された候補領域に対応するRGB画像の部分画像を抽出する。次に、抽出した部分画像がどの動物のどの種別に適合するかを判定する。判定には、予め、各クラスを異なる種別に割り当てた多クラスの検出器によって対象の種別を判定する。さらに、実施形態2と同様に、対象の向きと画像座標上の各部位の位置を算出し、それらを元に、対象の初期位置姿勢を算出する。
The
(ステップS303)
続いて、ステップS303において、前フレームにおいて位置姿勢を推定した結果があるかどうか確認する。結果があれば、ステップS305に進む。結果がなければステップS304に進む。
(Step S303)
Subsequently, in step S303, it is confirmed whether there is a result of estimating the position and orientation in the previous frame. If there is a result, the process proceeds to step S305. If there is no result, the process proceeds to step S304.
(ステップS304)
ステップS304において、姿勢推定部203は、ステップS302において検出された物体の初期姿勢を推定し、モデル記憶部206より、当該物体に対応する3次元姿勢推定のためのモデルを選択する。ステップS304の実行の後、ステップS301に戻る。
(Step S304)
In step S304, the
姿勢推定部203は実施形態2と同様にして対象の姿勢を推定する。対象の姿勢推定に用いるモデルは、物体検出部202による種別の判定に対応したモデルをモデル記憶部206から選択して使用する。
The
(ステップS305)
ステップS305において、姿勢推定部203は、現在の物体モデルおよび、前フレームに得られた位置姿勢推定結果を用いて、現在の物体の位置姿勢を推定する。
(Step S305)
In step S305, the
(ステップS306)
続いて、ステップS306において、部位関係評価部204は、右上腿と右下腿の相対位置関係が適切な状態かどうかを評価する。
(Step S306)
Subsequently, in step S306, the part
(ステップS307)
続いて、ステップS307において、ステップS306での評価結果を受けて、モデルパラメタの算出が必要であればステップS308に進む。モデルパラメタの算出が必要なければ、ステップS301に戻る。
(Step S307)
Subsequently, in step S307, the evaluation result in step S306 is received, and if calculation of the model parameter is necessary, the process proceeds to step S308. If calculation of the model parameter is not necessary, the process returns to step S301.
(ステップS308)
続いてステップS308において、モデルパラメタ算出部205は右上腿に対応する円柱モデルの半径と長さ、および右下腿に対応する円柱モデルの半径と長さを算出する。
(Step S308)
Subsequently, in step S308, the model
(ステップS309)
続いてステップS309において、モデルパラメタ算出部205はステップS308において得られたモデルパラメタを用いて、モデルパラメタ記憶部206に保存されている対応する物体のモデルパラメタを保存する。モデルパラメタを保存した後、ステップS301に戻る。
(Step S309)
Subsequently, in step S309, the model
以上のように、第3の実施形態では、馬、犬、猫等の人体以外の物体に本発明を適用した。このように、一つ以上の部位からなる変形物体であれば、第1の実施形態や第2の実施形態で示したのと同様の方法が適用可能である。 As described above, in the third embodiment, the present invention is applied to objects other than the human body such as horses, dogs, and cats. Thus, if it is a deformed object consisting of one or more parts, the same method as shown in the first embodiment or the second embodiment can be applied.
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
200 情報処理装置
201 画像入力部
202 物体検出部
203 姿勢推定部
204 部位関係評価部
205 モデル更新部
206 モデル記憶部
DESCRIPTION OF
Claims (11)
前記画像入力手段で入力された画像に基づいて、前記物体の検出を行う物体検出手段と、
前記物体の位置姿勢を推定するための物体形状モデルを保持する保持手段と、
前記物体形状モデルに基づいて、前記検出された物体の部位間の関係を評価する部位関係評価手段と、
前記部位関係評価手段から得られた評価結果に基づいて、モデルパラメタを算出するかの判断をする判断手段と、
前記判断手段による判断の結果に基づいて、前記モデルパラメタを算出するモデルパラメタ算出手段と、
前記モデルパラメタ算出手段によって算出されたモデルパラメタに基づいて、前記保持手段に保持される物体形状モデルを更新する更新手段とを備えることを特徴とする情報処理装置。 An image input means for inputting an image;
Object detection means for detecting the object based on the image input by the image input means;
Holding means for holding an object shape model for estimating the position and orientation of the object;
A part relation evaluation unit that evaluates a relation between parts of the detected object based on the object shape model;
Based on the evaluation result obtained from the part relationship evaluation means, a determination means for determining whether to calculate a model parameter;
Model parameter calculation means for calculating the model parameter based on the result of the determination by the determination means;
An information processing apparatus comprising: an updating unit that updates an object shape model held by the holding unit based on the model parameter calculated by the model parameter calculating unit.
前記入力された画像に基づいて、前記物体の検出を行う物体検出工程と、
保持手段に保持される前記物体の位置姿勢を推定するための物体形状モデルに基づいて、前記検出された物体の部位間の関係を評価する部位関係評価工程と、
前記部位関係評価手段から得られた評価結果に基づいて、モデルパラメタを算出するかの判断をする判断工程と、
前記判断工程における判断の結果に基づいて、前記モデルパラメタを算出するモデルパラメタ算出工程と、
前記モデルパラメタ算出工程で算出されたモデルパラメタに基づいて、前記保持手段に保持される物体形状モデルを更新する更新工程とを備えることを特徴とする情報処理方法。 An image input process for inputting an image;
An object detection step of detecting the object based on the input image;
A part relation evaluation step for evaluating a relation between parts of the detected object based on an object shape model for estimating a position and orientation of the object held by a holding unit;
A determination step of determining whether to calculate a model parameter based on the evaluation result obtained from the part relationship evaluation means;
Based on the determination result in the determination step, a model parameter calculation step for calculating the model parameter;
An information processing method comprising: an updating step of updating an object shape model held in the holding unit based on the model parameter calculated in the model parameter calculating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014105288A JP2015219868A (en) | 2014-05-21 | 2014-05-21 | Information processor, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014105288A JP2015219868A (en) | 2014-05-21 | 2014-05-21 | Information processor, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015219868A true JP2015219868A (en) | 2015-12-07 |
Family
ID=54779149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014105288A Pending JP2015219868A (en) | 2014-05-21 | 2014-05-21 | Information processor, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015219868A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020009378A (en) * | 2018-07-12 | 2020-01-16 | 医療法人社団皓有会 | Monitoring device |
JP2021006993A (en) * | 2019-06-18 | 2021-01-21 | ジーイー・プレシジョン・ヘルスケア・エルエルシー | Method and system for automatically setting scanning range |
JP7362453B2 (en) | 2019-11-28 | 2023-10-17 | 株式会社日立製作所 | Model creation device and model creation method |
JP7378223B2 (en) | 2018-08-07 | 2023-11-13 | キヤノン株式会社 | Detection device and its control method |
WO2024009503A1 (en) * | 2022-07-08 | 2024-01-11 | 富士通株式会社 | Posture estimation program, device, and method |
-
2014
- 2014-05-21 JP JP2014105288A patent/JP2015219868A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020009378A (en) * | 2018-07-12 | 2020-01-16 | 医療法人社団皓有会 | Monitoring device |
JP7378223B2 (en) | 2018-08-07 | 2023-11-13 | キヤノン株式会社 | Detection device and its control method |
JP2021006993A (en) * | 2019-06-18 | 2021-01-21 | ジーイー・プレシジョン・ヘルスケア・エルエルシー | Method and system for automatically setting scanning range |
JP7102463B2 (en) | 2019-06-18 | 2022-07-19 | ジーイー・プレシジョン・ヘルスケア・エルエルシー | Methods and systems for automatically setting the scan range |
JP7362453B2 (en) | 2019-11-28 | 2023-10-17 | 株式会社日立製作所 | Model creation device and model creation method |
WO2024009503A1 (en) * | 2022-07-08 | 2024-01-11 | 富士通株式会社 | Posture estimation program, device, and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108475439B (en) | Three-dimensional model generation system, three-dimensional model generation method, and recording medium | |
JP6433149B2 (en) | Posture estimation apparatus, posture estimation method and program | |
KR101833364B1 (en) | Method and system for constructing personalized avatars using a parameterized deformable mesh | |
CN110998659B (en) | Image processing system, image processing method, and program | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
JP5931215B2 (en) | Method and apparatus for estimating posture | |
JP5480667B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program | |
KR20200021626A (en) | Method and device to train object detection model | |
US9665803B2 (en) | Image processing apparatus and image processing method | |
JP7438320B2 (en) | Alignment of cross-modal sensor data | |
JP2007310707A (en) | Apparatus and method for estimating posture | |
CN109472820B (en) | Monocular RGB-D camera real-time face reconstruction method and device | |
JP2012042396A (en) | Position attitude measurement device, position attitude measurement method, and program | |
JP2014522058A (en) | Modeling, fitting, and tracking of 3D objects | |
JP2008506953A5 (en) | ||
JP2015219868A (en) | Information processor, information processing method and program | |
JP2022519194A (en) | Depth estimation | |
WO2013145615A1 (en) | Site estimation device, site estimation method, and site estimation program | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
WO2018087933A1 (en) | Information processing device, information processing method, and program | |
CN109740659B (en) | Image matching method and device, electronic equipment and storage medium | |
JP2017120672A5 (en) | Image processing apparatus, image processing system, and image processing method | |
JP6020439B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
JP2006215743A (en) | Image processing apparatus and image processing method |