JP4878330B2 - Method and apparatus for acquiring joint structure of object - Google Patents

Method and apparatus for acquiring joint structure of object Download PDF

Info

Publication number
JP4878330B2
JP4878330B2 JP2007124023A JP2007124023A JP4878330B2 JP 4878330 B2 JP4878330 B2 JP 4878330B2 JP 2007124023 A JP2007124023 A JP 2007124023A JP 2007124023 A JP2007124023 A JP 2007124023A JP 4878330 B2 JP4878330 B2 JP 4878330B2
Authority
JP
Japan
Prior art keywords
joint
virtual
acquiring
joints
joint structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007124023A
Other languages
Japanese (ja)
Other versions
JP2008282110A (en
Inventor
仁彦 中村
克 山根
大輔 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2007124023A priority Critical patent/JP4878330B2/en
Publication of JP2008282110A publication Critical patent/JP2008282110A/en
Application granted granted Critical
Publication of JP4878330B2 publication Critical patent/JP4878330B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations

Description

本発明は、人間や他の生物等の対象物の関節構造を取得する方法及び装置に関するものである。 The present invention relates to a method and apparatus for acquiring a joint structure of an object such as a human being or other living things.

人体の運動計測、モデル推定は、ロボティクス、コンピュータビジョン、身体運動科学なの幅広い分野で盛んに扱われている研究対象である。 Human motion measurement and model estimation are research subjects that are actively used in a wide range of fields such as robotics, computer vision, and body motion science.

運動計測の分野ではモーションキャプチャが一般的に用いられている。再帰反射性のマーカを用いた光学式モーションキャプチャは精度の高い計測、リアルタイムでの計測が可能である。ただし、光学式モーションキャプチャは点の座標を計測する技術であるので、人体の姿勢や形状を求めたい場合は関節モデルを用いて逆運動学計算が必要となる。 Motion capture is generally used in the field of motion measurement. Optical motion capture using retro-reflective markers enables high-precision measurement and real-time measurement. However, since optical motion capture is a technique for measuring the coordinates of a point, inverse kinematic calculation using a joint model is required to obtain the posture and shape of a human body.

一方、物体の3次元形状を必要とするような用途においては、マーカを用いないモーションキャプチャが利用される。このようなモーションキャプチャは視体積交差法(非特許文献1)を用いた方法が一般的である。Iiyamaら(非特許文献2)は全方位にカメラを配置し、物体の下面を含む物体全周の3次元形状の計測を可能とした。また、従来の視体積交差法はボクセルデータを扱う場合が多く、計算量が多いという欠点もある。 On the other hand, in applications that require a three-dimensional shape of an object, motion capture that does not use a marker is used. For such motion capture, a method using the visual volume intersection method (Non-patent Document 1) is generally used. Iiyama et al. (Non-Patent Document 2) arranged cameras in all directions to enable measurement of the three-dimensional shape of the entire circumference of the object including the lower surface of the object. In addition, the conventional visual volume intersection method often deals with voxel data, and has a drawback that the calculation amount is large.

また、3次元形状を細線化し人体の関節モデル推定、姿勢推定などを行っている研究もある。Chi-Weiら(非特許文献3)はマーカレスモーションキャプチャのデータから関節モデルの推定を行った。従来のマーカレスモーションキャプチャを用いた姿勢推定やモデル推定では細線化を行うことが多かった。しかし、細線化することにより表現できる関節は球面関節からロール軸まわりの自由度を取り除いた二自由度の関節である。一般的な球面関節を表すためには細線化処理のみでは不完全である。 In addition, there are studies that thin the three-dimensional shape and estimate the joint model and posture of the human body. Chi-Wei et al. (Non-Patent Document 3) estimated a joint model from markerless motion capture data. In conventional posture estimation and model estimation using markerless motion capture, thinning is often performed. However, the joint that can be expressed by thinning is a two-degree-of-freedom joint obtained by removing the degree of freedom around the roll axis from the spherical joint. In order to represent a general spherical joint, only the thinning process is incomplete.

また、3次元形状マッチングの位相幾何情報をグラフで表現したリーブグラフ(Reeb Graph)を用いる方法(非特許文献4)が研究されている。リーブグラフとは、曲面または物体上で定義される連続関数μの値によって曲面をいくつかに区切り、各部の接続関係をグラフで表したものである。リーブグラフを用いることで3次元形状データから位相幾何情報や骨格情報といった特徴的な情報を得ることが可能であり、また、情報量の観点から見ると、情報の圧縮、計算コストの軽減などに恩恵をもたらしている。Hiragaら(非特許文献5)、Tungら(非特許文献6)は多解像度のリーブグラフを用いて、3次元形状の類似度を求めることにより、形状のマッチングを行った。また、宮本ら(非特許文献7)はリーブグラフを用いて人体の姿勢推定を行っている。
W.N.Martin and J.K. Aggarwal. Volumetric Descriptions of Objects from MultipleViews. IEEE Trans. on Pattern Analysis and MachineIntelligence, Vol. 5, No. 2, 1983. Masaaki Iiyama, Yoshinari Kameda, and Michihiko Mino. 4π measurement system: acomplete volume reconstruction system for freely-moving objects. MultisensorFusion and Integration for Intelligent Systems, MFI2003. Proceedings of IEEEInternational Conference on, pp. 119.124, 2003. Chi-Wei Chu, Odest Chadwicke Jenkins, and Maja J Mataric. Markerless KinematicModel and Motion Capture from Volume Sequences. In Proceedings of IEEE ComputerVision and Pattern Recognition (CVPR 2003), June 2003. G.Reeb. On thesingular Points of a Completely Integrable Pfaff Form or of a NumericalFunction. Comptes Randus Acad. Sciences Paris, Vol. 222, pp. 847.849, 1946. Masaki Hilaga,Yoshihisa Shinagawa, Taku Kohmura, and Tosiyuki L. Kunii. Topology Matching forFully Automatic Similarity Estimation of 3D Shapes. SIGGRAPH 2001 ConferenceProceedings L.A., CA, U.S.A., pp. 203.212, August 2001. T. TUNG and F.SCHMITT. THE AUGMENTED MULTIRESOLUTION REEB GRAPH APPROACH FOR CONTENT-BASEDRETRIEVAL OF 3D SHAPES. International Journal of Shape Modeling, Vol. 11, No.1, pp. 91.120, 2005. 宮本新, 鷲見和彦, 松山隆司. 骨格線モデルと円筒多関節モデルを併用した人体の姿勢推定. 情報処理学会研究報告(CVIM), Vol. 2006, No. 51, 2006.
In addition, a method using a Reeb Graph (non-patent document 4) in which topological information of three-dimensional shape matching is expressed in a graph has been studied. The leave graph is a graph in which a curved surface is divided into several parts by the value of a continuous function μ defined on the curved surface or an object, and the connection relation of each part is represented by a graph. It is possible to obtain characteristic information such as topological information and skeletal information from 3D shape data by using a leave graph, and from the viewpoint of the amount of information, it is possible to compress information and reduce calculation costs. Has brought benefits. Hiraga et al. (Non-Patent Document 5) and Tung et al. (Non-Patent Document 6) performed shape matching by determining the similarity of three-dimensional shapes using a multi-resolution leave graph. Miyamoto et al. (Non-Patent Document 7) perform posture estimation of a human body using a leave graph.
WNMartin and JK Aggarwal.Volumetric Descriptions of Objects from MultipleViews.IEEE Trans.on Pattern Analysis and MachineIntelligence, Vol. 5, No. 2, 1983. Masaaki Iiyama, Yoshinari Kameda, and Michihiko Mino. 4π measurement system: acomplete volume reconstruction system for freely-moving objects.MultisensorFusion and Integration for Intelligent Systems, MFI2003.Proceedings of IEEE International Conference on, pp. 119.124, 2003. Chi-Wei Chu, Odest Chadwicke Jenkins, and Maja J Mataric.Markerless KinematicModel and Motion Capture from Volume Sequences.In Proceedings of IEEE ComputerVision and Pattern Recognition (CVPR 2003), June 2003. G.Reeb.On thesingular Points of a Completely Integrable Pfaff Form or of a Numerical Function.Comptes Randus Acad.Sciences Paris, Vol. 222, pp. 847.849, 1946. Masaki Hilaga, Yoshihisa Shinagawa, Taku Kohmura, and Tosiyuki L. Kunii. Topology Matching forFully Automatic Similarity Estimation of 3D Shapes. SIGGRAPH 2001 ConferenceProceedings LA, CA, USA, pp. 203.212, August 2001. T. TUNG and F. SCHMITT. THE AUGMENTED MULTIRESOLUTION REEB GRAPH APPROACH FOR CONTENT-BASEDRETRIEVAL OF 3D SHAPES.International Journal of Shape Modeling, Vol. 11, No.1, pp. 91.120, 2005. Shin Miyamoto, Kazuhiko Sumi, Takashi Matsuyama. Posture Estimation of Human Body Using Skeletal Line Model and Cylindrical Articulated Model. IPSJ SIG Notes, Vol. 2006, No. 51, 2006.

本発明は、対象物に関する事前知識なしで、対象物の関節構造を取得することにある。本発明の他の目的は、球面関節を含む関節構造のモデル化を行うことにある。 The present invention is to acquire the joint structure of an object without prior knowledge about the object. Another object of the present invention is to model a joint structure including a spherical joint.

本発明が採用した対象物の関節構造の取得方法は、視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得するステップと、リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得するステップと、対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定するステップと、実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得するステップと、からなる。 The method for acquiring a joint structure of an object adopted by the present invention uses a view volume intersection method to acquire a three-dimensional shape of an object from images obtained from a plurality of cameras, and a leave graph. The average geodesic distance μ is defined on the surface of the three-dimensional shape of the obtained object, the contour line of the value of μ is obtained, and virtual joints that are candidate joints are arranged based on the contour lines, and the object The step of acquiring a virtual joint model and a step of estimating a virtual joint with a lot of movement as an actual joint by comparing corresponding virtual joints among a plurality of virtual joint models acquired based on different postures of the object And a step of acquiring a joint model of an object excluding joints other than virtual joints estimated as actual joints.

本発明が採用した対象物の関節構造の取得装置は、視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得する手段と、リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得する手段と、対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定する手段と、実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得する手段と、からなる。 The apparatus for acquiring a joint structure of an object adopted by the present invention uses a view volume intersection method, a means for acquiring a three-dimensional shape of an object from images obtained from a plurality of cameras, and a leave graph. The average geodesic distance μ is defined on the surface of the three-dimensional shape of the obtained object, the contour line of the value of μ is obtained, and virtual joints that are candidate joints are arranged based on the contour lines, and the object A means for acquiring a virtual joint model of a subject and a means for estimating a virtual joint with a lot of movement as an actual joint by comparing corresponding virtual joints between a plurality of virtual joint models acquired based on different postures of the object And means for obtaining a joint model of an object excluding joints other than virtual joints estimated as actual joints.

一つの好ましい態様では、前記3次元形状を取得するステップにおいて、前記対象物の3次元形状はポリゴンメッシュとして表現され、前記仮想関節モデルを取得するステップにおいて、ポリゴンの表面上に平均測地距離μを定義する。本発明において前記3次元形状をボクセルデータで表現することも可能であるが、μ関数の計算量等を考慮すると、ポリゴンメッシュが有利である。一つの好ましい態様では、対象物視体積をポリゴンメッシュで表現する;視体積ポリゴンメッシュを凸ポリゴンメッシュに変換する;各カメラから得られた凸ポリゴンメッシュ同士の交差処理を行う;を備えている、一つの好ましい態様では、前記交差処理は、交差処理における凸ポリゴンメッシュのポリゴンの切り取り時にポリゴンを再構築してポリゴン数を減らすことを含む。一つの好ましい態様では、前記交差処理は、全ての交差処理が終わった後に、あるいは、さらにそれに加えて、1回の交差処理が終わった後毎に、凸ポリゴンメッシュの結合を行うことを含む。 In one preferred aspect, in the step of acquiring the three-dimensional shape, the three-dimensional shape of the object is expressed as a polygon mesh, and in the step of acquiring the virtual joint model, an average geodetic distance μ is set on the surface of the polygon. Define. In the present invention, the three-dimensional shape can be expressed by voxel data, but a polygon mesh is advantageous in consideration of the amount of calculation of the μ function. In one preferred aspect, the object visual volume is represented by a polygon mesh; the visual volume polygon mesh is converted into a convex polygon mesh; and the intersection processing of the convex polygon meshes obtained from each camera is performed. In one preferred embodiment, the intersection process includes reducing the number of polygons by reconstructing the polygon when cutting out the polygons of the convex polygon mesh in the intersection process. In one preferred embodiment, the intersection processing includes combining the convex polygon meshes after all the intersection processing is completed, or in addition, after each intersection processing is completed.

仮想関節モデルは、姿勢に依存しない関数である平均測地距離μに基づいて得られたリーブグラフの抽象的なノード一つに対して、一つの仮想関節を置くことで得られる。一つの態様では、μが最小となる部分をリーブグラフ(仮想関節モデル)のルートとし、μが増える方向を子関節とする。仮想関節モデルは、ノードを構成する仮想関節と、仮想関節を接続するエッジと、からなるグラフ構造を備えることができる。この場合、親関節の方向は、親関節と子関節を接続するエッジの方向となる。一つの好ましい態様では、各等高線の重心に関節の候補となる仮想関節を配置する。その他の態様としては、等高線上のいずれかの点を仮想関節の位置とすることもできる。一つの好ましい態様では、前記3次元状の表面に対象物のテクスチャ情報を与える手段を含む。ポリゴンデータにテクスチャを貼り付けること自体は当業者において公知である。 The virtual joint model is obtained by placing one virtual joint on one abstract node of the leave graph obtained based on the average geodesic distance μ, which is a function independent of posture. In one embodiment, the part where μ is minimum is the root of the leave graph (virtual joint model), and the direction in which μ increases is the child joint. The virtual joint model can have a graph structure composed of virtual joints constituting nodes and edges connecting the virtual joints. In this case, the direction of the parent joint is the direction of the edge connecting the parent joint and the child joint. In one preferred embodiment, a virtual joint that is a candidate for a joint is arranged at the center of gravity of each contour line. As another aspect, any point on the contour line can be set as the position of the virtual joint. In a preferred aspect, the apparatus includes means for giving texture information of an object to the three-dimensional surface. It is well known to those skilled in the art to attach a texture to polygon data.

前記仮想関節モデルの取得において、一つの好ましい態様では、得られた仮想関節モデルを、当該対象物の既知の関節の位相構造に基づいて修正することを含む。より具体的な態様では、前記修正は、関節構造におけるループを構成する枝のいずれかを切り離すことを含む。他の態様では、前記修正は、ループの切断後あるいはそれ以外の場合に、短い枝を落とすことを含む。 In obtaining the virtual joint model, in one preferred embodiment, the obtained virtual joint model includes correcting the obtained virtual joint model based on a phase structure of a known joint of the object. In a more specific aspect, the modification includes severing any of the branches that make up the loop in the joint structure. In another aspect, the modification includes dropping a short branch after a loop break or otherwise.

一つの好ましい態様では、動きの多い仮想関節を実際の関節と推定することは、それぞれの仮想関節に関して、各仮想関節モデル間での関節の動きの分散を求め、得られた分散に基づいて動きが多い仮想関節を決定する。一つの好ましい態様では、前記関節の動きの分散は、仮想関節の関節角の分散である。一つの好ましい態様では、前記関節角は、仮想関節を接続する隣り合う2本の線分(エッジ)間の角度である。一つの好ましい態様では、前記関節の動きの分散は、仮想関節を接続する隣り合う2本の線分(エッジ)の内積の分散である。一つの好ましい態様では、動きの分散が閾値を越えた仮想関節を実際の関節であると推定する。一つの好ましい態様では、実際の関節の個数Nが与えられた場合に、動きの分散の大きい順にN個の仮想関節を選択して実際の関節であると推定する。 In one preferred aspect, estimating a virtual joint with a lot of motion as an actual joint is obtained by obtaining a joint motion variance among the virtual joint models for each virtual joint and performing a motion based on the obtained variance. Determine the virtual joints with many. In one preferred embodiment, the joint motion dispersion is a joint angle dispersion of a virtual joint. In one preferable aspect, the joint angle is an angle between two adjacent line segments (edges) connecting the virtual joints. In one preferable aspect, the joint motion variance is a variance of inner products of two adjacent line segments (edges) connecting the virtual joint. In one preferred embodiment, a virtual joint whose motion variance exceeds a threshold is estimated as an actual joint. In one preferred embodiment, when the number N of actual joints is given, N virtual joints are selected in descending order of motion variance and estimated as actual joints.

最終的に得られる対象物の関節モデルは、リンク機構モデルであり、関節に固定された座標系が必要となる。したがって、変化の大きい仮想関節を残し、リンク機構モデルを作成するためには、残された仮想関節にローカル座標系を設定する必要がある。リンク機構モデルにおける「関節角」はローカル座標系の相対姿勢として計算される。したがって、本発明に係る対象物の関節構造の取得において、仮想関節から実際の関節を推定する前あるいは後において、3軸を備えた仮想関節のローカル座標系を設定する。 The joint model of the object finally obtained is a link mechanism model, and a coordinate system fixed to the joint is required. Therefore, in order to leave a virtual joint with a large change and create a link mechanism model, it is necessary to set a local coordinate system for the remaining virtual joint. The “joint angle” in the link mechanism model is calculated as a relative posture of the local coordinate system. Therefore, in acquiring the joint structure of the object according to the present invention, the local coordinate system of the virtual joint having three axes is set before or after the actual joint is estimated from the virtual joint.

一つの好ましい態様において、前記仮想関節のローカル座標系の設定は、等高線の座標を主成分分析し、得られた3つの固有ベクトルを仮想関節のローカル座標とする。より具体的な態様では、前記主成分分析において、第3主成分の軸を、等高線平面の法線;第1主成分の軸を、等高線平面に投影した等高線の外接矩形の長軸方向;第2主成分の軸を、等高線平面に投影した等高線の外接矩形の短軸方向;とする。 In one preferable aspect, the setting of the local coordinate system of the virtual joint is performed by principal component analysis of the coordinates of the contour line, and the obtained three eigenvectors are set as the local coordinates of the virtual joint. In a more specific aspect, in the principal component analysis, the axis of the third principal component is the normal of the contour plane; the major axis direction of the circumscribed rectangle of the contour line in which the axis of the first principal component is projected onto the contour plane; The axis of the two principal components is defined as the minor axis direction of the circumscribed rectangle of the contour line projected onto the contour plane.

一つの好ましい態様では、仮想関節のローカル座標系を設定する時に、対象物のテクスチャ情報を用いる。対象物の断面が円に近く、長軸と短軸の区別がはっきりしない場合は、テクスチャを使って円筒の軸回りの回転を識別する。より具体的な一つの好ましい態様では、対象物のテクスチャ情報を用いて、等高線の重心からテクスチャ情報に向かう一つの軸をテクスチャ軸として特定し、当該テクスチャ軸を等高線平面内の一つの軸に置き換えて用いる。等高線平面内で延出するテクスチャ軸は、等高線平面に投影した等高線に基づいて設定しても、あるいは、等高線上の点とテクスチャとの関係から求めた軸を等高線平面上に投影することで設定してもよい。また、等高線平面の法線方向の軸を、親関節の方向で置き換えてもよい(この場合は、3軸が互いに直交するように修正が必要である)。 In one preferred embodiment, texture information of the object is used when setting the local coordinate system of the virtual joint. If the cross section of the object is close to a circle and the distinction between the major and minor axes is not clear, texture is used to identify the rotation around the cylinder axis. In a more specific preferred embodiment, using the texture information of the object, one axis from the centroid of the contour line to the texture information is specified as the texture axis, and the texture axis is replaced with one axis in the contour plane. Use. The texture axis extending in the contour plane can be set based on the contour line projected onto the contour plane, or it can be set by projecting the axis obtained from the relationship between the point on the contour line and the texture onto the contour plane. May be. Further, the normal axis of the contour plane may be replaced with the direction of the parent joint (in this case, correction is necessary so that the three axes are orthogonal to each other).

「仮想関節から実際の関節を推定すること」における「関節角」の計算には、ローカル座標系の設定は必須ではない。しかしながら、実際の関節を推定する前にローカル座標系を設定することで、関節角の計算方法の選択の幅を広げることができる。例えば、以下のような方法が取り得る。親関節のローカル座標系に対する相対姿勢を計算し、そのオイラー角のいずれかの成分を用いる。同様に相対姿勢を計算し、その等価回転角 (座標変換をある軸回りの1回の回転で表現したときの回転角) を用いる。また、ひねり回転のみをする仮想関節があったと仮定すると、仮想関節を結ぶ線の角度は変わらないので、動きの多い仮想関節を実際の関節と推定することにおいて、テクスチャ情報を用いて、ひねり角を考慮することができる。 The setting of the local coordinate system is not essential for the calculation of “joint angle” in “estimating an actual joint from a virtual joint”. However, by setting the local coordinate system before estimating the actual joint, the range of selection of the joint angle calculation method can be expanded. For example, the following methods can be taken. The relative posture of the parent joint with respect to the local coordinate system is calculated, and any component of the Euler angle is used. Similarly, the relative orientation is calculated and the equivalent rotation angle (rotation angle when the coordinate transformation is expressed by one rotation around a certain axis) is used. In addition, assuming that there is a virtual joint that only twists and turns, the angle of the line connecting the virtual joints does not change, so in estimating a virtual joint with many movements as an actual joint, using the texture information, the twist angle Can be considered.

本発明では、視体積交差法を用いたマーカレスモーションキャプチャにより得られた3次元形状(ポリゴンデータ)から、リーブグラフを用いて仮想的な関節を配置し、複数の姿勢(フレーム)のデータを比較することにより、不要な仮想関節を除去することで対象物の関節構造を推定する。本発明によれば、複数台のカメラから得られた画像を用いることで、形状データから対象物の関節構造を取得することができるため、関節構造の事前知識なしに、関節モデルを推定することが出来るという利点がある。このことにより、通常関節を定義することのない対象(軟体動物など)の関節モデルを推定することも可能である。 In the present invention, virtual joints are arranged using a leave graph from a three-dimensional shape (polygon data) obtained by markerless motion capture using the visual volume intersection method, and data of a plurality of postures (frames) are obtained. By comparing, unnecessary virtual joints are removed to estimate the joint structure of the object. According to the present invention, it is possible to acquire a joint structure of an object from shape data by using images obtained from a plurality of cameras, and therefore to estimate a joint model without prior knowledge of the joint structure There is an advantage that can be. This makes it possible to estimate a joint model of a target (such as a mollusk) that does not normally define a joint.

また、手先と体が触れた等の理由により誤った骨格情報が得られることがある。このような場合は、対象物の位相情報が事前に分っていれば、骨格情報の修正を行い精度の高いモデル推定が行える。このように事前知識を利用する場合も位相情報(トポロジー)のみであり、円筒の数・長さ・直径に関する知識を使用する必要がない。 In addition, incorrect skeleton information may be obtained due to the touch of the hand and the body. In such a case, if the phase information of the object is known in advance, the skeleton information is corrected and a highly accurate model estimation can be performed. The prior knowledge is also used only for phase information (topology), and it is not necessary to use knowledge about the number, length, and diameter of the cylinder.

本発明では、対象物の関節モデルの各関節に3軸からなるローカル座標系を設定することで、球面関節のモデル化が可能となる。本発明では等高線の長短軸またはテクスチャ軸により関節のひねりを考慮している。 In the present invention, a spherical joint can be modeled by setting a local coordinate system having three axes for each joint of the joint model of the object. In the present invention, the twist of the joint is taken into account by the long and short axes of the contour lines or the texture axis.

[A]本発明の概要
本発明の実施形態に係る対象物の関節構造の取得装置は、視体積交差法を用いて、複数台のカメラから得られた画像から、ポリゴンメッシュからなる対象物の3次元形状を取得する手段と、リーブグラフを用いて、得られたポリゴンの表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線の重心に関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得する手段と、対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定する手段と、実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得する手段と、からなる。そして、対象物の関節構造の取得装置のハードウエアは、被験者を撮影する複数のカメラと、一つ又は複数のコンピュータ装置と、から構成される。コンピュータ装置は、演算処理部、入力部、出力部、表示部、記憶部を備えており、所定のコンピュータプログラムに従ってコンピュータの機能が実行される。具体的には、本発明における計算には、画像処理、視体積ポリゴン交差処理、μの計算、関節角の計算、ローカル座標系の設定、テクスチャの設定等があるが、これらの計算はコンピュータによって実行され得る。
[A] Outline of the Present Invention An apparatus for acquiring a joint structure of an object according to an embodiment of the present invention uses a visual volume intersection method to obtain an object composed of polygon meshes from images obtained from a plurality of cameras. Using means for obtaining a three-dimensional shape and a leave graph, an average geodetic distance μ is defined on the surface of the obtained polygon, a contour line with a value of μ is obtained, and a joint candidate is added to the center of gravity of each contour line. By comparing the virtual joint model between a plurality of virtual joint models acquired based on different postures of the target object and a means for acquiring the virtual joint model of the target object by arranging the virtual joints to be virtual It comprises means for estimating a joint as an actual joint, and means for obtaining a joint model of an object excluding joints other than virtual joints estimated as actual joints. And the hardware of the acquisition apparatus of the joint structure of a target object is comprised from the some camera which image | photographs a test subject, and one or several computer apparatus. The computer device includes an arithmetic processing unit, an input unit, an output unit, a display unit, and a storage unit, and the functions of the computer are executed according to a predetermined computer program. Specifically, the calculation in the present invention includes image processing, visual volume polygon intersection processing, μ calculation, joint angle calculation, local coordinate system setting, texture setting, and the like. Can be executed.

本発明の概要は図1〜図4に示してある。視体積交差法による3次元形状の取得の概要について説明する。まず、対象物を複数のカメラで撮影する(図1)。カメラ画像とカメラパラメータを用い、視体積交差法によりポリゴンメッシュからなる3次元形状を取得する(図2左図)。より具体的には、視体積交差法の3次元形状の手順は、カメラ画像から対象物領域を取得する;カメラパラメータを用いて対象物視体積を取得する;各カメラの視体積の交差部分を抽出することにより3次元形状を取得する、ことからなる。そして、ポリゴンのテクスチャ情報を取得する(図2右図)。 An overview of the present invention is shown in FIGS. An outline of acquisition of a three-dimensional shape by the visual volume intersection method will be described. First, an object is photographed with a plurality of cameras (FIG. 1). Using a camera image and camera parameters, a three-dimensional shape composed of a polygon mesh is obtained by the visual volume intersection method (left figure in FIG. 2). More specifically, the three-dimensional shape procedure of the visual volume intersection method obtains an object region from a camera image; obtains an object visual volume using camera parameters; The three-dimensional shape is obtained by extraction. Then, polygon texture information is acquired (right diagram in FIG. 2).

次に、リーブグラフを用いた関節推定の概要について説明する。まず、3次元形状上に関数μを定義する。関数μは姿勢に依存しない関数である。図3左図に、異なる姿勢におけるμ値を濃淡で示す。次に、μの等高線を取得し、等高線の重心に仮想関節を配置して仮想関節モデルを取得する(図3)。仮想関節とは、関節の候補となるものである。最後に、複数フレーム(異なる姿勢)の仮想関節モデルを比較し、不要な仮想関節を除去することにより関節位置を推定する(図4)。 Next, an outline of joint estimation using a leave graph will be described. First, a function μ is defined on a three-dimensional shape. The function μ is a function that does not depend on the posture. In the left figure of FIG. 3, μ values in different postures are shown by shading. Next, a contour line of μ is obtained, and a virtual joint model is obtained by arranging a virtual joint at the center of gravity of the contour line (FIG. 3). A virtual joint is a candidate for a joint. Finally, virtual joint models of a plurality of frames (different postures) are compared, and joint positions are estimated by removing unnecessary virtual joints (FIG. 4).

本手法の手順を以下に例示する。これらのステップの順序は記載の順序に限定されるものではなく、部分的に順序が入れ替わってもよい。
step 1:複数台のカラーカメラを用い対象物の画像をキャプチャする;
step 2:画像中の対象物を抽出する;
step 3:画像中の対象物領域とカメラの外部・内部パラメータを用いて、対象物が存在し得る3次元の領域(視体積ポリゴンメッシュ)を求める;
step 4:視体積ポリゴンメッシュを凸ポリゴンメッシュに分割する;
step 5:各カメラから得られた視体積ポリゴンメッシュの交差(積)を取り3次元形状を得る;
step 6:3次元形状にテクスチャ情報を与える;
step 7:得られた凸ポリゴンメッシュを結合し、ポリゴンの連結情報を得る;
step 8:3次元形状上のポリゴンの関数μを求める;
step 9:μに基づくリーブグラフによるトポロジーの計算;
step 10:μの値の等高線を取り、リーブグラフのノードに対応する仮想関節を、等高線の重心に置く;
step 11:仮想関節のローカル座標系を求める;
step 12:複数の仮想関節モデルを比較することで不要な仮想関節を除去して対象物の関節モデルを取得する;
からなる。
以下に、本発明の実施形態について詳細に説明する。
The procedure of this method is illustrated below. The order of these steps is not limited to the order described, and the order may be partially changed.
step 1: Capture images of objects using multiple color cameras;
step 2: Extract objects in the image;
step 3: Using the object region in the image and the external and internal parameters of the camera, obtain a three-dimensional region (view volume polygon mesh) where the object can exist;
step 4: Divide the visual volume polygon mesh into convex polygon meshes;
step 5: Obtain the three-dimensional shape by intersecting (product) the viewing volume polygon meshes obtained from each camera;
step 6: Give texture information to the 3D shape;
step 7: Combine the obtained convex polygon meshes to obtain polygon connection information;
step 8: find the function μ of the polygon on the 3D shape;
step 9: Topology calculation by Reeve graph based on μ;
step 10: Take a contour line with a value of μ and place the virtual joint corresponding to the node of the leave graph at the center of gravity of the contour line;
step 11: Find the local coordinate system of the virtual joint;
step 12: By removing a plurality of virtual joint models, unnecessary virtual joints are removed to obtain a joint model of the target object;
Consists of.
Hereinafter, embodiments of the present invention will be described in detail.

[B]視体積交差法による3次元形状の取得
視体積交差法とは、カメラ画像の物体領域を3次元に変換した視体積を求め,複数カメラの視体積の交差部分を求め3次元形状を得る手法である。以下の手順で3次元形状を取得する。まず、カメラ画像から対象物体の投影領域を取得する。カメラのレンズの中心と投影領域上の任意の点を結ぶ半直線の集合からなる錐体状の開空間を視体積と呼ぶ。換言すると、対象物視体積とは、カメラ画像中の対象物領域を3次元空間に変換したもので、カメラ位置を頂点とした多角形錘となる。対象物体は必ずこの視体積に内接して存在する。視体積はカメラ毎に存在し、全てのカメラの視体積の交差(積)を取ることにより対象物体の3次元表面形状を得る。
[B] Acquisition of three-dimensional shape by visual volume intersection method The visual volume intersection method is to obtain a visual volume obtained by converting an object region of a camera image into three dimensions, and to obtain a three-dimensional shape by obtaining intersections of the visual volumes of a plurality of cameras It is a technique to obtain. A three-dimensional shape is acquired by the following procedure. First, the projection area of the target object is acquired from the camera image. A cone-shaped open space consisting of a set of half lines connecting the center of the camera lens and an arbitrary point on the projection area is called a viewing volume. In other words, the object visual volume is obtained by converting the object area in the camera image into a three-dimensional space, and is a polygonal weight having the camera position as the apex. The target object is always inscribed in this visual volume. The viewing volume exists for each camera, and the three-dimensional surface shape of the target object is obtained by taking the intersection (product) of the viewing volumes of all the cameras.

[B−1]画像中の対象物体領域の抽出
図5に示すように、対象物領域の抽出方法は、背景差分と特徴色抽出を二重に行うことで、物体領域を抽出する。まず、対象物体が含まれない背景画像を用意する。対象物体を含む画像と背景画像の対応するピクセルに注目し、値の差がある閾値を超えたら、そのピクセルは対象物体の一部であると判断する。ただし、上記の様な方法では物体の影まで抽出してしまう。そこで、背景差分に加え、対象物の色情報を利用して物体領域を抽出する。最後に、上記の方法で得られた領域の輪郭を取り、多角形近似を行う。尚、画像中の対象物体領域の抽出については、画像処理において用いられる他の手段を採用し得ることは当業者に理解される。
[B-1] Extraction of Target Object Region in Image As shown in FIG. 5, the object region extraction method extracts an object region by performing background difference and feature color extraction twice. First, a background image that does not include the target object is prepared. Paying attention to the corresponding pixel in the image including the target object and the background image, and if the difference in value exceeds a certain threshold, it is determined that the pixel is a part of the target object. However, the above method extracts even the shadow of the object. Therefore, in addition to the background difference, the object region is extracted using the color information of the object. Finally, the outline of the region obtained by the above method is taken and polygon approximation is performed. It should be understood by those skilled in the art that other means used in image processing can be employed for extracting the target object region in the image.

[B−2]視体積ポリゴンメッシュの取得
カメラのキャリブレーションを行うことにより、カメラの位置、姿勢の外部パラメータと焦点距離、ひずみ係数等の内部パラメータを求める。これらの値を用いることによって、画像中の1点からその点が存在し得る3次元上の半直線を求めることが出来る。ただし、半直線の始点はカメラの絶対位置となっている。
[B-2] Obtaining a Visual Volume Polygon Mesh By calibrating the camera, external parameters of the camera position and orientation and internal parameters such as focal length and distortion coefficient are obtained. By using these values, it is possible to obtain a three-dimensional half line on which a point can exist from one point in the image. However, the starting point of the half line is the absolute position of the camera.

物体投影領域の境界線に沿って、この半直線を求めることで多角形錘体の視体積を得る。図6に視体積の様子を示す。まず、視体積をポリゴンメッシュで表現する。ポリゴンメッシュとは、ポリゴン(多角形)の集合であり、3次元表面形状を表現するために用いられる。また、ポリゴンメッシュはポリゴン同士の連結情報を持つ。ポリゴンメッシュは、ボクセルと比較し計算量が少ないという利点を備えている。本実施形態では、3角形のポリゴンに基づいて説明する。4角形以上のポリゴンは3角形のポリゴンに分割できるため、3角形以外のポリゴンを用いることも可能である。 By obtaining this half line along the boundary line of the object projection area, the viewing volume of the polygonal pyramid is obtained. FIG. 6 shows the view volume. First, the visual volume is expressed by a polygon mesh. A polygon mesh is a set of polygons (polygons) and is used to express a three-dimensional surface shape. Further, the polygon mesh has connection information between polygons. Polygon meshes have the advantage that the amount of calculation is small compared to voxels. In the present embodiment, description will be made based on a triangular polygon. Since polygons of quadrangular or higher can be divided into triangular polygons, polygons other than triangular can be used.

[B−3]ポリゴンメッシュの交差処理
まず、視体積のポリゴンメッシュを凸ポリゴンメッシュに分割する。凸ポリゴンメッシュとは、隣接する二つポリゴンのなす角が180度以下であるポリゴンのみで構成されるポリゴンメッシュである。次に凸ポリゴン同士の積演算を行い、結果の集合が視体積の積となる。視体積A とB の交差の場合、式(1)のようになる。ただし、ai,bj はA をB を構成する凸ポリゴンメッシュである。
また、ポリゴンメッシュの辺に、その辺を構成する二つのポリゴンの情報を持たせる。これにより、ポリゴンの連結情報を得ることが出来る。
[B-3] Polygon mesh intersection process First, a polygonal mesh with a visual volume is divided into convex polygon meshes. A convex polygon mesh is a polygon mesh composed only of polygons whose angle between two adjacent polygons is 180 degrees or less. Next, the product operation of the convex polygons is performed, and the set of results becomes the product of the viewing volume. In the case of the intersection of the viewing volumes A and B, the equation (1) is obtained. Here, ai and bj are convex polygon meshes that constitute A and B.
Further, information on two polygons constituting the side is given to the side of the polygon mesh. Thereby, polygon connection information can be obtained.

次に、凸ポリゴンメッシュの交差処理について説明する。ポリゴンには外内の区別があり、法線ベクトルを定義することで、外側、内側を表現する。凸ポリゴンメッシュの交差処理を行うには、まず、凸ポリゴンメッシュ中の一つのポリゴンTiに注目する。そのポリゴンTiから、他のポリゴンTjの外側にある部分を切り取る。全てのTjに関して、切り取り処理を行う。その様子を示したのが図7の上図である。更に、全てのTiに同様の処理を行い、残った部分の集合が、交差処理の結果となる。二つの凸ポリゴンメッシュ(3角錐)の交差処理の例を図7の下図に示す。凸ポリゴンメッシュ同士の交差処理の後に、凸ポリゴンメッシュの結合を行う。凸ポリゴンメッシュの結合処理は、最終的に得られるポリゴンメッシュの内部に入ってしまうポリゴンを削除することで、複数のポリゴンメッシュを結合する処理である。 Next, the intersection process of the convex polygon mesh will be described. Polygons have a distinction between outside and inside. By defining normal vectors, the outside and inside are expressed. In order to perform the intersection processing of the convex polygon mesh, first, attention is paid to one polygon Ti in the convex polygon mesh. A portion outside the other polygon Tj is cut out from the polygon Ti. Cut processing is performed for all Tj. This is shown in the upper part of FIG. Further, the same processing is performed on all Ti, and the set of remaining portions is the result of the intersection processing. An example of the intersection processing of two convex polygon meshes (triangular pyramids) is shown in the lower diagram of FIG. After the intersection processing of the convex polygon meshes, the convex polygon meshes are combined. The process of combining convex polygon meshes is a process of combining a plurality of polygon meshes by deleting polygons that enter the interior of the finally obtained polygon mesh.

[B−4]3次元形状データのテクスチャの取得
最後に、得られた3次元形状データにテクスチャを貼る。ポリゴンの法線方向に最も近いカメラの画素値を用いて、それぞれのポリゴンにテクスチャを貼る。ただし、上記の方法で求めた際、カメラとポリゴンの間に他のポリゴンが存在する場合は別のカメラの画像を用いる。
[B-4] Obtaining Texture of 3D Shape Data Finally, a texture is pasted on the obtained 3D shape data. A texture is attached to each polygon using the pixel value of the camera closest to the normal direction of the polygon. However, when another polygon exists between the camera and the polygon when the above method is used, an image from another camera is used.

カメラCからポリゴンPが見えるための条件は以下のとおりである(図8参照)。まず、一つ目に、PがCの視野内にあること;二つ目に、Pの法線がCの方向を向いていること;最後がPとCの間に他のポリゴンが存在しないこと、である。二つ目の条件はPからCのベクトルPCとPの法線ベクトルの内積が正になることが条件となる。最後は、線分PCと他の全てのポリゴンとの接触判定を行うことで判断する。以上の条件を満たす場合、Cの画像中のテクスチャ情報をPに与える。 Conditions for viewing the polygon P from the camera C are as follows (see FIG. 8). First, P must be in the field of view of C; second, P's normal should be in the direction of C; and finally, no other polygon exists between P and C That is. The second condition is that the inner product of the P to C vector PC and the P normal vector is positive. Finally, the determination is made by performing contact determination between the line segment PC and all other polygons. If the above conditions are satisfied, texture information in the C image is given to P.

次に、ポリゴンメッシュの交差処理を行う際のポリゴン数の削減方法を述べる。本手法ではポリゴンを3角形として表現しているため、交差処理でポリゴンが切り取られる際に3角形分割が行われる。このため、交差処理を繰り返していくうちにポリゴン数が必要以上に多くなる。そこで、ポリゴンを切り取る際にポリゴン再構築を行うことでポリゴン数を減らす。図9は、3角形を徐々に切り取っていく流れを示したものであるが、ポリゴン再構築法では3角形分割を一度解除し、切り取った後に新たに3角形分割を行うことによりポリゴン数を減らしている。もう一つのポリゴン数の削減方法として、凸ポリゴンメッシュの結合を全ての交差処理が終わった後のみではなく、一回の交差処理が終わった後に凸ポリゴンメッシュの結合を行う。この処理では、結合しても凸状態を維持できるもののみ結合する。図10において、左が結合して凸状態を維持できる例で、右が結合したら凸ではなくなってしまう例である。 Next, a method for reducing the number of polygons when performing a polygon mesh intersection process will be described. In this method, since the polygon is expressed as a triangle, the triangle is divided when the polygon is cut out by the intersection process. For this reason, the number of polygons increases more than necessary while the intersection process is repeated. Therefore, the number of polygons is reduced by performing polygon reconstruction when cutting the polygons. FIG. 9 shows the flow of gradually cutting a triangle. However, in the polygon reconstruction method, the number of polygons is reduced by canceling the triangle division once and performing a new triangle division after cutting. ing. As another method for reducing the number of polygons, the convex polygon meshes are joined not only after all the intersection processes have been completed, but also after a single intersection process has been completed. In this process, only those that can maintain the convex state even if they are combined are combined. FIG. 10 is an example in which the left side can be combined to maintain the convex state, and the right side is an example in which the convex shape is lost.

[C]リーブグラフを用いた仮想関節の配置
リーブグラフとは3次元形状の表面に関数μを定義し、そのμ値から求めた3次元形状の位相情報のことである。リーブグラフを用いることで、物体表面上で定義される連続関数μの値によって物体をいくつかに区切り、各部の接続関係をグラフで表すことができる。本手法ではリーブグラフを用いて3次元形状の関節位置を推定する。リーブグラフは狭義には得られたグラフを指すと考えられるが、本明細書においては、リーブグラフは、μ値からそのグラフを得る方法を含んだ広義で用いる。リーブグラフは、ポリゴン上のμ値の分布からトポロジーを得る際に用いる。仮想関節の配置のステップは、より具体的には、μの計算;リーブグラフによるトポロジーの計算;μの等高線に基づく仮想関節の配置;の3ステップからなる。リーブグラフは、複数のノードとノードを連結するエッジから形成されており、計算されたμ値からリーブグラフを取得すること自体は公知であって、例えば、非特許文献6に記載されている。リーブグラフにおけるノードはトポロジーを表現するだけの抽象的なものであり、物理的な点ではない。これに対して、本発明における仮想関節は、リーグラフのノードに対応するものであるが、μの等高線に基づく位置の属性を備えている点において、「仮想関節モデル」と「リーブグラフ」は等価ではない。リーブグラフを用いた仮想関節配置の手順は以下のとおりである。まず、平均測地距離μを定義する。次に、μを連続関数へと変換する。次に、μの値の等高線を取得し、リーブグラフのノードに対応する仮想関節を、等高線の重心に配置する。
[C] Arrangement of virtual joints using a leave graph A leave graph is a three-dimensional shape phase information obtained from a μ value defined on the surface of a three-dimensional shape. By using a leave graph, the object can be divided into several parts by the value of the continuous function μ defined on the object surface, and the connection relation of each part can be represented by a graph. In this method, a joint position of a three-dimensional shape is estimated using a leave graph. Although a leave graph is considered to refer to a graph obtained in a narrow sense, in this specification, a leave graph is used in a broad sense including a method of obtaining the graph from μ values. The leave graph is used to obtain the topology from the μ value distribution on the polygon. More specifically, the virtual joint placement step includes three steps: calculation of μ; calculation of topology using a leave graph; placement of virtual joints based on contour lines of μ. The leave graph is formed from a plurality of nodes and edges connecting the nodes. It is known to obtain a leave graph from the calculated μ value, and is described in Non-Patent Document 6, for example. A node in a leave graph is an abstract thing that only represents the topology, not a physical point. On the other hand, the virtual joint in the present invention corresponds to the node of the Ree graph, but the “virtual joint model” and the “Leave graph” are equivalent in that the attribute of the position based on the contour line of μ is provided. is not. The procedure for virtual joint placement using a leave graph is as follows. First, the average geodesic distance μ is defined. Next, μ is converted into a continuous function. Next, the contour line of the value of μ is acquired, and the virtual joint corresponding to the node of the leave graph is arranged at the center of gravity of the contour line.

[C−1]平均測地距離μの定義
関数μはポリゴンTの関数である。μを式(2)のように定義する。ただし、Tiはポリゴン、a(Tj)はポリゴンTjの面積、g(Ti,Tj)はポリゴンTiからポリゴンTjまで連結情報に従って表面を辿ったときの最短距離(最短測地距離)である。gはダイキストラ法により計算することができる。
このように定義したμ(Ti)は、あるポリゴンTiから他の全てポリゴンへの最短距離の平均を表す関数である。μは体の中心に近いほど値は小さくなり、先端ほど大きい値となる。また、表面を辿った距離を基にしているため、μは姿勢に依存しない関数となる。
[C-1] The definition function μ of the average geodesic distance μ is a function of the polygon T. μ is defined as shown in Equation (2). Here, Ti is a polygon, a (Tj) is the area of the polygon Tj, and g (Ti, Tj) is the shortest distance (shortest geodetic distance) when tracing the surface from the polygon Ti to the polygon Tj according to the connection information. g can be calculated by the Dijkstra method.
Μ (Ti) defined in this way is a function that represents the average of the shortest distances from one polygon Ti to all other polygons. The value of μ decreases as it approaches the center of the body, and increases as it approaches the tip. In addition, since μ is based on the distance along the surface, μ is a function independent of the posture.

等高線を定義するためμは表面上で連続な関数であることが必要である。上記の定義ではポリゴンごとにμを設定していたためμは表面上で離散的な値となる。そこで、頂点にμを定義し、ポリゴン内のμは頂点のμを線形補間することにより求める。こうすることにより、表面上で連続な関数となる。頂点vにおけるμの値の取り方は下の式に示すようになる。
頂点vにおけるμの値は、Ti(vを含むポリゴン)のμの値の平均となる。線形補間の仕方は下の式に示すようになり、ポリゴン内の点p(s,t)におけるμの値は、各頂点のμの値と媒介変数stを用いて表せる。
s,tはポリゴン中の媒介変数、va,vb,vcはポリゴンの各頂点、である。
In order to define the contour line, μ needs to be a continuous function on the surface. In the above definition, μ is set for each polygon, so μ is a discrete value on the surface. Therefore, μ is defined at the vertex, and μ in the polygon is obtained by linear interpolation of μ at the vertex. This makes it a continuous function on the surface. The method of taking the value of μ at the vertex v is as shown in the following equation.
The value of μ at the vertex v is the average of the values of μ of Ti (polygon including v). The method of linear interpolation is as shown in the following equation, and the value of μ at the point p (s, t) in the polygon can be expressed using the value of μ at each vertex and the parameter st.
s, t are parameters in the polygon, and va, vb, vc are the vertices of the polygon.

[C−2]仮想関節の配置
次に、μの等高線を取得する。等高線は、μの値が等しい点を結んだものとなり、必ず閉じた曲線になる。ここで、次の二つの条件を満たす等高線CPを、等高線Cの親等高線とする。一つ目はCの任意の一点からCpの任意の一点まで表面上を辿った際に、他の等高線を横切らない経路が存在することである。二つ目はμ(C)=μ(Cp)+dとなることである。ただし、dは等高線間隔である。そして、等高線の重心に仮想関節を配置する。また、等高線の親子関係を仮想関節の親子関係とする。dは、適当な数の仮想関節が設定されるように予め決定される値であり、具体的なdの値は、当業者において適宜設定され得る。
[C-2] Arrangement of Virtual Joint Next, a contour line of μ is acquired. The contour lines connect points with equal values of μ, and are always closed curves. Here, the contour line CP satisfying the following two conditions is set as a parent contour of the contour line C. The first is that there is a path that does not cross other contour lines when tracing on the surface from an arbitrary point of C to an arbitrary point of Cp. The second is that μ (C) = μ (Cp) + d. Where d is the contour line interval. Then, a virtual joint is arranged at the center of gravity of the contour line. Further, the parent-child relationship of the contour lines is set as the parent-child relationship of the virtual joint. d is a value determined in advance so that an appropriate number of virtual joints are set, and a specific value of d can be appropriately set by those skilled in the art.

また、後の関節角計算において、基準となる関節 (親関節) がどちら側にあるかがすべてのフレームで同じでないと関節角が不安定になる。一つの実施態様では、μが最小となる部分をリーブグラフ(仮想関節モデル)のルートとし、μが増える方向を子関節とすることで親子関係がフレーム毎に変わるのを防いでいる。図12に示すように、体の中心に近い側(μが小さい)にルートがあり、ルーとから末端に向かって子関節が順次形成される。 In later joint angle calculations, if the reference joint (parent joint) is on the same side for all frames, the joint angle becomes unstable. In one embodiment, the portion where μ is minimum is used as the root of a leave graph (virtual joint model), and the direction in which μ is increased is used as a child joint, thereby preventing the parent-child relationship from changing from frame to frame. As shown in FIG. 12, there is a route on the side close to the center of the body (μ is small), and child joints are sequentially formed from the root toward the end.

[D]仮想関節のローカル座標系の設定
次に、仮想関節のローカル座標系の設定方法について説明する。仮想関節のローカル座標系を、等高線を構成する点を主成分分析することにより求める。主成分分析の結果として3つの固有ベクトルが求まるが、その3つの軸を仮想関節のローカル座標系として用いる。
Piは等高線要素線分の中点の座標、liは等高線要素線分の長さである。これにより、球面関節を表現することができる。3つの軸を図11に示す。それぞれの主成分(3つの軸)は以下の様な意味付けが出来る。
[D] Setting of Local Coordinate System of Virtual Joint Next, a method of setting the local coordinate system of the virtual joint will be described. The local coordinate system of the virtual joint is obtained by principal component analysis of points constituting the contour line. Three eigenvectors are obtained as a result of the principal component analysis, and the three axes are used as the local coordinate system of the virtual joint.
Pi is the coordinate of the midpoint of the contour line segment, and li is the length of the contour line segment. Thereby, a spherical joint can be expressed. The three axes are shown in FIG. Each main component (three axes) can be given the following meaning.

第3主成分:固有値λ3 が最小となる主成分である。第3主成分の固有ベクトルxは等高線平面の法線ベクトルを表現している。等高線平面とは、その平面に投影したときに等高線の形状を最も損失の少ない状態で表せる平面のことである。 Third principal component: a principal component having a minimum eigenvalue λ3. The eigenvector x of the third principal component represents a normal vector of the contour plane. The contour plane is a plane that can represent the contour line shape with the least loss when projected onto the plane.

第一主成分:固有値λ1 が最大となる主成分である。第一主成分の固有ベクトルyは等高線平面に射影した等高線を最小外接矩形の長軸方向を表現している。 First principal component: The principal component having the maximum eigenvalue λ1. The eigenvector y of the first principal component represents the major axis direction of the minimum circumscribed rectangle of the contour line projected onto the contour plane.

第二主成分:第二主成分の固有ベクトルzは等高線平面に射影した等高線を最小外接矩形の短軸方向を表現している。 Second principal component: The eigenvector z of the second principal component represents the minor axis direction of the minimum circumscribed rectangle of the contour line projected onto the contour plane.

最後に、テクスチャを用いた座標軸の設定について説明する。上述のように、第一主成分、第二主成分の固有ベクトルは等高線平面に投影した等高線を囲む最小矩形の長軸方向、短軸方向を表すが、等高線が円形に近い場合、主成分分析の第一主成分と第二主成分は近い値になる。第一主成分と第二主成分の軸の長軸方向、短軸方向は意味を持たないものとなる。このような場合はテクスチャの情報を用いて、上記二軸に変わる軸を定義する。等高線のテクスチャから特徴色を抽出し、等高線の重心から特徴色の方向をテクスチャ軸と定め、第一主成分の固有ベクトル(長軸方向)の代わりに用いる。 Finally, setting of coordinate axes using texture will be described. As described above, the eigenvectors of the first principal component and the second principal component represent the major axis direction and the minor axis direction of the smallest rectangle surrounding the contour line projected on the contour plane, but when the contour line is close to a circle, the principal component analysis The first principal component and the second principal component are close to each other. The major axis direction and the minor axis direction of the axes of the first main component and the second main component are meaningless. In such a case, an axis that changes to the two axes is defined using texture information. A feature color is extracted from the texture of the contour line, the direction of the feature color is defined as the texture axis from the center of gravity of the contour line, and is used instead of the eigenvector (major axis direction) of the first principal component.

後述する実験例では、テクスチャとして、x軸に概ね沿って延出する帯状の模様が用いられているが、各仮想関節のy, z軸が特定の方向を向いている必要はなく、各々の仮想関節のy、z軸を決定できさえすれば、テクスチャを構成する模様は限定されない。すなわち、等高線の重心から等高線に向かう一つの軸が特定できることがテクスチャに要求される条件である。したがって、同じパターンが円周方向に繰り返すような模様であるような限られた場合を除いて、殆どの模様をテクスチャ情報として用いることができる。 In the experimental example to be described later, a band-like pattern extending substantially along the x-axis is used as the texture. However, the y and z axes of each virtual joint do not have to be in a specific direction. The pattern constituting the texture is not limited as long as the y and z axes of the virtual joint can be determined. That is, it is a condition required for the texture that one axis from the center of gravity of the contour line to the contour line can be specified. Therefore, most patterns can be used as texture information except in a limited case where the same pattern is a pattern that repeats in the circumferential direction.

[E]位相情報修正
体の一部が他の部分に触れていたりすると、リーブグラフにより実際とは異なった位相情報が得られる。対象物の位相情報が既知である場合は、情報を与えることにより位相情報の修正を行うことが可能であり、推定精度を向上させることが出来る。逆に、位相情報が未知の場合は、フレーム間での仮想関節の対応付けが難しい場合がある。
[E] When a part of the phase information correcting body touches another part, phase information different from the actual one can be obtained by the leave graph. When the phase information of the target is known, it is possible to correct the phase information by providing the information, and the estimation accuracy can be improved. Conversely, when the phase information is unknown, it may be difficult to associate virtual joints between frames.

位相情報のループの修正について具体的に説明する。例えば、手が腰に触れていた場合は、関節構造がループすることになる。このような場合はループを構成する枝のうち一つを切る。ループを構成する枝のうち、切り離した後に、既知な位相情報、または、他のフレームの位相情報と一致する枝を切る。 The phase information loop correction will be specifically described. For example, if the hand touches the waist, the joint structure will loop. In such a case, one of the branches constituting the loop is cut. After the branches constituting the loop are cut, the branches that match the known phase information or the phase information of other frames are cut.

図12にループ部分の削除を示す。リーブグラフがループを持つ場合、ループを構成する枝のうち、切り離した後の位相情報が手本と一致する枝を選択して切り離す。図12の上側に手本及びリーブグラフがループを持つ場合を示す。ループは枝A、枝B、枝C、枝Dから形成されており、図12の下側に、枝Aを切り離したもの、枝Bを切り離したもの、枝Cを切り離したもの、枝Dを切り離したもの、をそれぞれ示す。手本と一致するのは、枝Cを切り離したものであることから、枝Cが選択されて切り離される。 FIG. 12 shows the deletion of the loop portion. When the leave graph has a loop, a branch having phase information that matches the model is selected and separated from the branches constituting the loop. The case where a model and a leave graph have a loop on the upper side of FIG. 12 is shown. The loop is formed of a branch A, a branch B, a branch C, and a branch D. On the lower side of FIG. 12, a branch A is cut, a branch B is cut, a branch C is cut, and a branch D is cut. Each is shown separated. Since the branch coincides with the model because the branch C is cut off, the branch C is selected and cut off.

実際には、3次元形状を切り分けるわけではなく、切り口でのポリゴンの連結情報を削除する。その3次元形状に対してμを再計算する。再計算されたμに基づいて仮想関節モデルを構築して、他のフレームの仮想関節モデルと比較して分散を計算する。 Actually, the three-dimensional shape is not cut, but the polygon connection information at the cut end is deleted. Recalculate μ for the three-dimensional shape. Based on the recalculated μ, a virtual joint model is constructed, and the variance is calculated in comparison with the virtual joint models of other frames.

[F]関節モデル推定
全てのフレームでの位相情報がそろったら、不要な仮想関節を除去し、関節構造を求める。
[F] Joint model estimation When phase information is obtained in all frames, unnecessary virtual joints are removed to obtain joint structures.

不要な仮想関節の除去について説明する。μは姿勢に非依存な関数であるため、位相情報が一致していれば、複数フレーム間での仮想関節の対応付けは容易に出来る。複数フレームの仮想関節モデルを比較することで、複数フレーム間での仮想関節の対応付けを行う。対応付けが完了したら、それぞれの仮想関節に関して、フレーム間での仮想関節の動きの分散を求める。得られた分散に基づいて実際の関節であると推定される仮想関節を選択し、不要な仮想関節を除去する。 The removal of unnecessary virtual joints will be described. Since μ is a posture-independent function, as long as the phase information matches, virtual joints can be easily associated between a plurality of frames. By comparing the virtual joint models of a plurality of frames, the virtual joints are associated between the plurality of frames. When the association is completed, for each virtual joint, the distribution of the motion of the virtual joint between frames is obtained. A virtual joint estimated to be an actual joint is selected based on the obtained dispersion, and unnecessary virtual joints are removed.

具体的な態様例では、対応している仮想関節同士で関節角の分散を求め、分散が大きい仮想関節を実際の関節であると推定する。一つの態様では、分散の閾値を設定し、その閾値以上である仮想関節を実際の関節であると推定する。また、他の態様では、関節の数がN個であると与えられた場合は分散の大きい順にN個の仮想関節を選び実際の関節であると推定する。関節角の計算については当業者において幾つかの手法が考えられる。代表的には、仮想関節を結ぶ線分の間の角度を関節角とする。その他、オイラー角、等価回転角などを利用することも可能である。 In a specific example, joint angle dispersion is calculated between corresponding virtual joints, and a virtual joint having a large dispersion is estimated to be an actual joint. In one aspect, a dispersion threshold is set, and a virtual joint that is equal to or greater than the threshold is estimated to be an actual joint. In another aspect, when the number of joints is given as N, N virtual joints are selected in descending order of variance and are estimated as actual joints. Several methods are conceivable by those skilled in the art for calculating the joint angle. Typically, an angle between line segments connecting virtual joints is a joint angle. In addition, Euler angles, equivalent rotation angles, and the like can be used.

[G]人間の関節構造推定
人間を対象物として、関節構造推定を行った。実験条件は次のとおりである。被験者は、人間である。図13に示すように、背景と区別するために赤の衣服を着衣、また、テクスチャ情報(テクスチャ軸)を利用するために両腕、両脚、胴に青のラインを付けた。図14に示すように、カメラは、8台のカラーカメラ(解像度1628pixel×1236pixel)である。図14において、カメラ横の数字はカメラの高さを示している。
[G] Human joint structure estimation Joint structure estimation was performed using a human as an object. The experimental conditions are as follows. The test subject is a human. As shown in FIG. 13, a red garment was worn to distinguish it from the background, and blue lines were attached to both arms, legs, and torso to use texture information (texture axis). As shown in FIG. 14, the camera is eight color cameras (resolution: 1628 pixels × 1236 pixels). In FIG. 14, the numbers beside the camera indicate the height of the camera.

図15に、画像処理の結果を示す。左上が背景画像、右上が背景と対象物の画像、左下が得られた対象物領域、右下が対象物領域の輪郭を3角形分割したものである。 FIG. 15 shows the result of image processing. The upper left is the background image, the upper right is the background and the object image, the lower left is the object area obtained, and the lower right is the triangle of the outline of the object area.

図16に、3次元形状の取得、μの分布、μの等高線と仮想関節を求めた結果を示す。左が3次元形状、中央がμの分布、右がμの等高線と仮想関節を表したものである。中央図において、μの分布は濃淡で表されている。右図において、白点(ノード)は仮想関節、白線(エッジ)は関節の親子関係を示している。 FIG. 16 shows the results of obtaining a three-dimensional shape, μ distribution, μ contour lines, and virtual joints. The left is a three-dimensional shape, the center is a μ distribution, and the right is a μ contour and a virtual joint. In the center diagram, the μ distribution is represented by shading. In the right figure, white points (nodes) indicate virtual joints, and white lines (edges) indicate parent-child relationships of joints.

図17に複数の姿勢(複数フレーム)での仮想関節の動きの分散を示す。このグラフは左足に関するグラフで、横軸はつま先からの距離、横軸はつま先からの距離、縦軸は仮想関節を接続する隣り合う2本の線分の内積を表したものである。仮想関節を接続する隣り合う2本の線分の内積は、実質的には、仮想関節の関節角を代表する値として扱うことができる。図17からは、膝と足首で分散が大きい事が読み取れる。 FIG. 17 shows the distribution of the motion of the virtual joint in a plurality of postures (a plurality of frames). This graph relates to the left foot. The horizontal axis represents the distance from the toe, the horizontal axis represents the distance from the toe, and the vertical axis represents the inner product of two adjacent line segments connecting the virtual joints. The inner product of two adjacent line segments connecting the virtual joints can be practically treated as a value representing the joint angle of the virtual joint. From FIG. 17, it can be read that the variance is large between the knee and the ankle.

以上のとおり、複数台のカメラからの画像を用いて、視体積交差法により、テクスチャ情報を持った3次元表面形状を取得する方法を提案した。リーブグラフを用いて取得した複数の姿勢の仮想関節モデルを比較することにより、実際の関節位置を推定する方法を提案した。リーブグラフを用いて仮想関節を配置し、等高線の形状とテクスチャ情報によるローカル座標系の設定方法を提案し、球面関節のモデル化を可能とした。 As described above, a method for obtaining a three-dimensional surface shape having texture information by the visual volume intersection method using images from a plurality of cameras has been proposed. We proposed a method to estimate the actual joint position by comparing virtual joint models of multiple postures obtained using a leave graph. A virtual joint was placed using a reeve graph, and a local coordinate system setting method based on contour line shape and texture information was proposed to enable modeling of spherical joints.

本発明は、CG、生体シミュレーションにおいて人間などの生物をリンク構造としてモデル化することに利用可能である。現状のモーションキャプチャシステムでは、関節構造を予め仮定しているので、動物などを対象とする場合も何らかの方法で関節構造を決定する必要がある。また、軟体動物のように明確な関節構造が無い生物の計測は困難である。人間のように関節構造がある程度既知な場合でも、関節間の距離には個人差があり、正確なモデルを構築するためには別途計測が必要となる。これらのことから、本発明は、CG、生体シミュレーションにおける利用価値は高いと判断できる。必要なハードウエアは高解像度のカメラのみであり、その他のデータ処理・計算はソフトウエアで実現されるため、実用化の可能性は高い。 The present invention can be used to model a living organism such as a human being as a link structure in CG and biological simulation. In the current motion capture system, since the joint structure is assumed in advance, it is necessary to determine the joint structure by some method even when targeting an animal or the like. In addition, it is difficult to measure organisms that do not have a clear joint structure, such as mollusks. Even if the joint structure is known to some extent like a human being, there are individual differences in the distance between the joints, and separate measurement is required to construct an accurate model. From these things, it can be judged that this invention has the high utility value in CG and biological simulation. The necessary hardware is only a high-resolution camera, and other data processing / calculation is realized by software, so the possibility of practical use is high.

複数のカメラによる対象物の撮影を示す図である。It is a figure which shows imaging | photography of the target object with a some camera. 左図は、ポリゴンメッシュからなる対象物の3次元形状を示し、右図は、ポリゴンのテクスチャ情報の取得を示す。The left figure shows the three-dimensional shape of the object consisting of a polygon mesh, and the right figure shows the acquisition of polygon texture information. μの等高線を取得し、等高線の重心に仮想関節を配置する。Acquire a contour line of μ and place a virtual joint at the center of gravity of the contour line. 複数フレームの仮想関節モデルを比較し、不要な仮想関節を除去することにより関節位置を推定する。The virtual joint models of a plurality of frames are compared, and the joint position is estimated by removing unnecessary virtual joints. 対象物領域の抽出方法を示す図である。It is a figure which shows the extraction method of a target object area | region. 視体積の様子を示す。The appearance volume is shown. 凸ポリゴンメッシュの交差処理を説明する図である。It is a figure explaining the intersection process of a convex polygon mesh. カメラCからポリゴンPが見えるための条件を説明する図である。FIG. 5 is a diagram for explaining conditions for viewing a polygon P from a camera C. 3角形を徐々に切り取っていく流れを示した図である。It is the figure which showed the flow which cuts off a triangle gradually. 左が結合して凸状態を維持できる例で、右が結合したら凸ではなくなってしまう例である。This is an example in which the left side can be joined to maintain the convex state, and the right side is not convex when the right side is joined. 球面関節を表現することができる3つの軸を示す。Three axes that can represent a spherical joint are shown. ループ部分の削除を示す。Indicates deletion of the loop part. 実験に用いた対象物を示す。The object used in the experiment is shown. 実験装置におけるカメラの配置を示す。The arrangement of cameras in the experimental apparatus is shown. 画像処理の結果を示す。左上が背景画像、右上が背景と対象物の画像、左下が得られた対象物領域、右下が対象物領域の輪郭を3角形分割したものである。The result of image processing is shown. The upper left is the background image, the upper right is the background and the object image, the lower left is the object area obtained, and the lower right is the triangle of the outline of the object area. 左が3次元形状、中央がμの分布、右がμの等高線と仮想関節を表したものである。The left is a three-dimensional shape, the center is a μ distribution, and the right is a μ contour and a virtual joint. 複数の姿勢での仮想関節の動きのばらつきのグラフである。横軸はつま先からの距離、縦軸は仮想関節を接続する隣り合う2本の線分の内積を表したものである。It is a graph of the dispersion | variation in the motion of the virtual joint in a several attitude | position. The horizontal axis represents the distance from the toe, and the vertical axis represents the inner product of two adjacent line segments connecting the virtual joint.

Claims (40)

視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得するステップと、
リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得するステップと、
対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定するステップと、
実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得するステップと、
からなる、対象物の関節構造の取得方法。
Obtaining a three-dimensional shape of an object from images obtained from a plurality of cameras using a view volume intersection method;
Using a leave graph, define the average geodesic distance μ on the surface of the three-dimensional shape of the obtained object, acquire contour lines of the value of μ, and select virtual joints that are candidate joints based on each contour line Placing to obtain a virtual joint model of the object;
Estimating a virtual joint with a lot of movement as an actual joint by comparing corresponding virtual joints between a plurality of virtual joint models acquired based on different postures of the object;
Obtaining a joint model of an object excluding joints other than virtual joints estimated as real joints;
A method for obtaining a joint structure of an object.
前記3次元形状を取得するステップにおいて、前記対象物の3次元形状はポリゴンメッシュとして表現され、
前記仮想関節モデルを取得するステップにおいて、ポリゴンの表面上に平均測地距離μを定義する、
請求項1に記載の対象物の関節構造の取得方法。
In the step of acquiring the three-dimensional shape, the three-dimensional shape of the object is expressed as a polygon mesh,
In the step of acquiring the virtual joint model, an average geodesic distance μ is defined on the surface of the polygon.
The method for acquiring a joint structure of an object according to claim 1.
前記3次元形状を取得するステップは、
対象物視体積をポリゴンメッシュで表現するステップと、
視体積ポリゴンメッシュを凸ポリゴンメッシュに変換するステップと、
各カメラから得られた凸ポリゴンメッシュ同士の交差処理を行うステップと、
を備えている、請求項2に記載の対象物の関節構造の取得方法。
The step of acquiring the three-dimensional shape includes
Expressing the object visual volume with a polygon mesh;
Converting the view volume polygon mesh to a convex polygon mesh;
A step of performing intersection processing between convex polygon meshes obtained from each camera;
The method for acquiring a joint structure of an object according to claim 2.
前記交差処理ステップは、交差処理ステップにおける凸ポリゴンメッシュのポリゴンの切り取り時にポリゴンを再構築してポリゴン数を減らすことを含む、請求項3に記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to claim 3, wherein the intersection processing step includes reconstructing polygons to reduce the number of polygons when cutting out polygons of the convex polygon mesh in the intersection processing step. 前記交差処理ステップは、全ての交差処理が終わった後、あるいは、さらにそれに加えて、1回の交差処理が終わった後毎に、凸ポリゴンメッシュの結合を行うことを含む請求項3,4いずれかに記載の対象物の関節構造の取得方法。   5. The method according to claim 3, wherein the intersection processing step includes combining the convex polygon meshes after all the intersection processing is completed, or in addition to it, after each one intersection processing is completed. A method for obtaining a joint structure of an object according to claim 1. 前記仮想関節モデルを取得するステップにおいて、各等高線の重心に関節の候補となる仮想関節を配置する、請求項1乃至5いずれかに記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to claim 1, wherein in the step of acquiring the virtual joint model, a virtual joint that is a candidate for a joint is arranged at the center of gravity of each contour line. 前記仮想関節モデルを取得するステップは、得られた仮想関節モデルを、当該対象物の既知の関節の位相構造に基づいて修正するステップを備えている、請求項1乃至6いずれかに記載の対象物の関節構造の取得方法。   The target according to claim 1, wherein the step of acquiring the virtual joint model includes a step of correcting the obtained virtual joint model based on a phase structure of a known joint of the target object. How to get the joint structure of an object. 前記仮想関節モデルを修正するステップは、関節構造におけるループを構成する枝のいずれかを切り離すことを含む、請求項7に記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to claim 7, wherein the step of correcting the virtual joint model includes cutting off any of branches constituting a loop in the joint structure. 動きの多い仮想関節を実際の関節と推定するステップは、それぞれの仮想関節に関して、各仮想関節モデル間での関節の動きの分散を求め、得られた分散に基づいて動きが多い仮想関節を決定する、請求項1乃至8いずれかに記載の対象物の関節構造の取得方法。   The step of estimating a virtual joint with a lot of motion as an actual joint is to determine the variance of joint motion among the virtual joint models for each virtual joint and determine a virtual joint with a lot of motion based on the obtained variance The method for acquiring a joint structure of an object according to any one of claims 1 to 8. 前記関節の動きの分散は、仮想関節の関節角の分散である、請求項9に記載の対象物の関節構造の取得方法。   The joint structure acquisition method according to claim 9, wherein the joint motion variance is variance of joint angles of virtual joints. 前記関節角は、仮想関節を接続する隣り合う2本の線分間の角度である、請求項10に記載の対象物の関節構造の取得方法。   The method according to claim 10, wherein the joint angle is an angle between two adjacent line segments connecting virtual joints. 前記関節の動きの分散は、仮想関節を接続する隣り合う2本の線分の内積の分散である、請求項9に記載の対象物の関節構造の取得方法。   10. The method for acquiring a joint structure of an object according to claim 9, wherein the joint motion variance is variance of inner products of two adjacent line segments connecting virtual joints. 分散が閾値を越えた仮想関節を実際の関節であると推定する、請求項9乃至12いずれかに記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to any one of claims 9 to 12, wherein a virtual joint whose variance exceeds a threshold value is estimated to be an actual joint. 実際の関節の個数Nが与えられた場合に、分散の大きい順にN個の仮想関節を選択して実際の関節であると推定する、請求項9乃至12いずれかに記載の対象物の関節構造の取得方法。   The joint structure of an object according to any one of claims 9 to 12, wherein when an actual number N of joints is given, N virtual joints are selected in descending order of variance and are estimated to be actual joints. How to get 前記仮想関節モデルは、ノードを構成する仮想関節と、仮想関節を接続するエッジと、からなるグラフ構造を備えている、請求項1乃至14いずれかに記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to claim 1, wherein the virtual joint model includes a graph structure including virtual joints constituting nodes and edges connecting the virtual joints. 仮想関節から実際の関節を推定する前あるいは後において、3軸を備えた仮想関節のローカル座標系を設定する、請求項1乃至15いずれかに記載の対象物の関節構造の取得方法。   The method for acquiring a joint structure of an object according to claim 1, wherein a local coordinate system of a virtual joint having three axes is set before or after an actual joint is estimated from the virtual joint. 前記仮想関節のローカル座標系の設定は、等高線の座標を主成分分析し、得られた3つの固有ベクトルを仮想関節のローカル座標とする、請求項16に記載の対象物の関節構造の取得方法。   17. The method for acquiring a joint structure of an object according to claim 16, wherein the setting of the local coordinate system of the virtual joint is performed by performing principal component analysis on the coordinates of contour lines and using the obtained three eigenvectors as local coordinates of the virtual joint. 仮想関節のローカル座標系を設定する時に、対象物のテクスチャ情報を用いる、請求項16、17いずれかに記載の対象物の関節構造の取得方法。   18. The method for acquiring a joint structure of an object according to claim 16, wherein texture information of the object is used when setting a local coordinate system of the virtual joint. 対象物のテクスチャ情報を用いて、等高線の重心からテクスチャ情報に向かう一つの軸をテクスチャ軸として特定し、当該テクスチャ軸を等高線平面内の一つの軸に置き換えて用いる、請求項18に記載の対象物の関節構造の取得方法。   19. The object according to claim 18, wherein the texture information of the object is used to identify one axis from the centroid of the contour line to the texture information as a texture axis, and the texture axis is replaced with one axis in the contour plane. How to get the joint structure of an object. 前記3次元状の表面に対象物のテクスチャ情報を与えるステップを含む、請求項1乃至19いずれかに記載の対象物の関節構造の推定方法。   The method for estimating a joint structure of an object according to any one of claims 1 to 19, comprising a step of providing texture information of the object on the three-dimensional surface. 視体積交差法を用いて、複数台のカメラから得られた画像から対象物の3次元形状を取得する手段と、
リーブグラフを用いて、得られた対象物の3次元形状の表面上に平均測地距離μを定義し、μの値の等高線を取得して、各等高線に基づいて関節の候補となる仮想関節を配置して対象物の仮想関節モデルを取得する手段と、
対象物の異なる姿勢に基づいて取得した複数の仮想関節モデル間における対応する仮想関節を比較することで、動きの多い仮想関節を実際の関節と推定する手段と、
実際の関節と推定された仮想関節以外の関節を除いて対象物の関節モデルを取得する手段と、
からなる、対象物の関節構造の取得装置。
Means for obtaining a three-dimensional shape of an object from images obtained from a plurality of cameras using a view volume intersection method;
Using a leave graph, define the average geodesic distance μ on the surface of the three-dimensional shape of the obtained object, acquire contour lines of the value of μ, and select virtual joints that are candidate joints based on each contour line Means for placing and obtaining a virtual joint model of the object;
Means for estimating a virtual joint with a lot of movement as an actual joint by comparing corresponding virtual joints between a plurality of virtual joint models acquired based on different postures of the object;
Means for obtaining a joint model of an object excluding joints other than virtual joints estimated as actual joints;
An apparatus for acquiring a joint structure of an object.
前記3次元形状を取得する手段において、前記対象物の3次元形状はポリゴンメッシュとして表現され、
前記仮想関節モデルを取得する手段において、ポリゴンの表面上に平均測地距離μを定義する、
請求項21に記載の対象物の関節構造の取得装置。
In the means for obtaining the three-dimensional shape, the three-dimensional shape of the object is expressed as a polygon mesh,
In the means for acquiring the virtual joint model, an average geodesic distance μ is defined on the surface of the polygon.
The apparatus for acquiring a joint structure of an object according to claim 21.
前記3次元形状を取得する手段は、
対象物視体積をポリゴンメッシュで表現する手段と、
視体積ポリゴンメッシュを凸ポリゴンメッシュに変換する手段と、
各カメラから得られた凸ポリゴンメッシュ同士の交差処理を行う手段と、
を備えている、請求項22に記載の対象物の関節構造の取得装置。
The means for acquiring the three-dimensional shape is:
Means for expressing the object visual volume with a polygon mesh;
Means for converting a visual volume polygon mesh into a convex polygon mesh;
Means for performing intersection processing between convex polygon meshes obtained from each camera;
The apparatus for acquiring a joint structure of an object according to claim 22.
前記交差処理手段は、交差処理における凸ポリゴンメッシュのポリゴンの切り取り時にポリゴンを再構築してポリゴン数を減らすことを含む、請求項23に記載の対象物の関節構造の取得方法。   24. The method for obtaining a joint structure of an object according to claim 23, wherein the intersection processing means includes reducing the number of polygons by reconstructing polygons when cutting out polygons of a convex polygon mesh in the intersection processing. 前記交差処理手段は、全ての交差処理が終わった後、あるいは、さらにそれに加えて、1回の交差処理が終わった後毎に、凸ポリゴンメッシュの結合を行うことを含む請求項23,24いずれかに記載の対象物の関節構造の取得装置。   25. Any one of claims 23 and 24, wherein the intersection processing means includes combining convex polygon meshes after all the intersection processes are completed, or in addition, after each intersection process is completed. An apparatus for acquiring a joint structure of an object according to claim 1. 前記仮想関節モデルを取得する手段において、各等高線の重心に関節の候補となる仮想関節を配置する、請求項21乃至25いずれかに記載の対象物の関節構造の取得装置。   26. The apparatus for acquiring a joint structure of an object according to claim 21, wherein in the means for acquiring the virtual joint model, a virtual joint that is a candidate for a joint is arranged at the center of gravity of each contour line. 前記仮想関節モデルを取得する手段は、得られた仮想関節モデルを、当該対象物の既知の関節の位相構造に基づいて修正する手段を備えている、請求項21乃至26いずれかに記載の対象物の関節構造の取得装置。   27. A target according to any one of claims 21 to 26, wherein the means for obtaining the virtual joint model comprises means for correcting the obtained virtual joint model based on a known joint phase structure of the object. An apparatus for acquiring the joint structure of an object. 前記仮想関節モデルを修正する手段は、関節構造におけるループを構成する枝のいずれかを切り離すことを含む、請求項27に記載の対象物の関節構造の取得装置。   28. The apparatus for acquiring a joint structure of an object according to claim 27, wherein the means for correcting the virtual joint model includes cutting off any one of branches constituting a loop in the joint structure. 動きの多い仮想関節を実際の関節と推定する手段は、それぞれの仮想関節に関して、各仮想関節モデル間での関節の動きの分散を求め、得られた分散に基づいて動きが多い仮想関節を決定する、請求項21乃至28いずれかに記載の対象物の関節構造の取得装置。   The means for estimating a virtual joint with a lot of motion as an actual joint calculates the joint motion variance among the virtual joint models for each virtual joint, and determines a virtual joint with a lot of motion based on the obtained variance. The apparatus for acquiring a joint structure of an object according to any one of claims 21 to 28. 前記関節の動きの分散は、仮想関節の関節角の分散である、請求項29に記載の対象物の関節構造の取得装置。   30. The apparatus for acquiring a joint structure of an object according to claim 29, wherein the joint motion variance is a variance of a joint angle of a virtual joint. 前記関節角は、仮想関節を接続する隣り合う2本の線分間の角度である、請求項30に記載の対象物の関節構造の取得装置。   The said joint angle is an acquisition apparatus of the joint structure of the target object of Claim 30 which is an angle of two adjacent line segments which connect a virtual joint. 前記関節の動きの分散は、仮想関節を接続する隣り合う2本の線分の内積の分散である、請求項30に記載の対象物の関節構造の取得装置。   The joint structure acquisition device according to claim 30, wherein the joint motion variance is variance of inner products of two adjacent line segments connecting virtual joints. 分散が閾値を越えた仮想関節を実際の関節であると推定する、請求項30乃至32いずれかに記載の対象物の関節構造の取得装置。   The apparatus for acquiring a joint structure of an object according to any one of claims 30 to 32, wherein a virtual joint whose variance exceeds a threshold value is estimated to be an actual joint. 実際の関節の個数Nが与えられた場合に、分散の大きい順にN個の仮想関節を選択して実際の関節であると推定する、請求項30乃至32いずれかに記載の対象物の関節構造の取得装置。   33. The joint structure of an object according to any one of claims 30 to 32, wherein when the actual number of joints N is given, N virtual joints are selected in descending order of estimation and are estimated to be actual joints. Acquisition device. 前記仮想関節モデルは、ノードを構成する仮想関節と、仮想関節を接続するエッジと、からなるグラフ構造を備えている、請求項21乃至34いずれかに記載の対象物の関節構造の取得装置。   The apparatus for acquiring a joint structure of an object according to any one of claims 21 to 34, wherein the virtual joint model includes a graph structure including virtual joints constituting nodes and edges connecting the virtual joints. 3軸を備えた仮想関節のローカル座標系を設定する手段を備えている、請求項21乃至35いずれかに記載の対象物の関節構造の取得装置。   36. The apparatus for obtaining a joint structure of an object according to any one of claims 21 to 35, comprising means for setting a local coordinate system of a virtual joint having three axes. 前記仮想関節のローカル座標系の設定手段は、等高線の座標を主成分分析し、得られた3つの固有ベクトルを仮想関節のローカル座標とする、請求項36に記載の対象物の関節構造の取得装置。   37. The apparatus for acquiring a joint structure of an object according to claim 36, wherein the setting unit of the local coordinate system of the virtual joint performs principal component analysis on the coordinates of the contour line and uses the obtained three eigenvectors as local coordinates of the virtual joint. . 仮想関節のローカル座標系の設定手段は、対象物のテクスチャ情報を用いる、請求項36,37いずれかに記載の対象物の関節構造の取得装置。   38. The apparatus for acquiring a joint structure of an object according to claim 36 or 37, wherein the setting means of the local coordinate system of the virtual joint uses texture information of the object. 仮想関節のローカル座標系の設定手段は、対象物のテクスチャ情報を用いて、等高線の重心からテクスチャ情報に向かう一つの軸をテクスチャ軸として特定し、当該テクスチャ軸を等高線平面内の一つの軸に置き換えて用いる、請求項39に記載の対象物の関節構造の取得装置。   The setting means of the local coordinate system of the virtual joint uses the texture information of the target object to specify one axis from the center of gravity of the contour line to the texture information as a texture axis, and the texture axis is set as one axis in the contour plane. 40. The apparatus for acquiring a joint structure of an object according to claim 39, which is used as a replacement. 前記3次元状の表面に対象物のテクスチャ情報を与える手段を含む、請求項21乃至39いずれかに記載の対象物の関節構造の推定装置。   40. The apparatus for estimating a joint structure of an object according to any one of claims 21 to 39, comprising means for providing texture information of the object on the three-dimensional surface.
JP2007124023A 2007-05-09 2007-05-09 Method and apparatus for acquiring joint structure of object Expired - Fee Related JP4878330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007124023A JP4878330B2 (en) 2007-05-09 2007-05-09 Method and apparatus for acquiring joint structure of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007124023A JP4878330B2 (en) 2007-05-09 2007-05-09 Method and apparatus for acquiring joint structure of object

Publications (2)

Publication Number Publication Date
JP2008282110A JP2008282110A (en) 2008-11-20
JP4878330B2 true JP4878330B2 (en) 2012-02-15

Family

ID=40142893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007124023A Expired - Fee Related JP4878330B2 (en) 2007-05-09 2007-05-09 Method and apparatus for acquiring joint structure of object

Country Status (1)

Country Link
JP (1) JP4878330B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101506926B1 (en) 2008-12-04 2015-03-30 삼성전자주식회사 Method and appratus for estimating depth, and method and apparatus for converting 2d video to 3d video
KR101591779B1 (en) 2009-03-17 2016-02-05 삼성전자주식회사 Apparatus and method for generating skeleton model using motion data and image data
EP2521094B1 (en) 2009-12-28 2018-02-14 Panasonic Intellectual Property Management Co., Ltd. Articulated region detection device and method for same
CN102426709B (en) * 2011-08-19 2013-12-25 北京航空航天大学 Real-time motion synthesis method based on fast inverse kinematics
JP2014068714A (en) * 2012-09-28 2014-04-21 Kitasato Institute Joint angle measuring system
KR101555863B1 (en) 2014-02-27 2015-09-30 계명대학교 산학협력단 Device and method for taekwondo poomsae readout and education
KR101620556B1 (en) 2014-02-27 2016-05-12 주식회사 에스원 Method for Biometric Detection
JP7089238B2 (en) * 2018-11-08 2022-06-22 日本電信電話株式会社 Center of gravity position estimation device, center of gravity position estimation method, program
JP7382743B2 (en) 2019-06-17 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント robot system
JP7141610B1 (en) 2022-01-31 2022-09-26 株式会社ワコール Program, device and method for statistically analyzing posture based on skeleton from skin model
JP7067709B1 (en) 2022-02-28 2022-05-16 株式会社ワコール Programs, devices and methods for statistically analyzing skeleton-based body length from skin models

Also Published As

Publication number Publication date
JP2008282110A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP4878330B2 (en) Method and apparatus for acquiring joint structure of object
Wang et al. From laser-scanned data to feature human model: a system based on fuzzy logic concept
CN106164978B (en) The method and system of personalized materialization is constructed using deformable mesh is parameterized
JP6302132B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN109427007B (en) Virtual fitting method based on multiple visual angles
JP5931215B2 (en) Method and apparatus for estimating posture
Boisvert et al. Three-dimensional human shape inference from silhouettes: reconstruction and validation
US20090232353A1 (en) Method and system for markerless motion capture using multiple cameras
JP6290153B2 (en) Method and system for generating a three-dimensional model of an object
WO2007102537A1 (en) Posture estimating device and method
JP2009536731A (en) Modeling of humanoid shape by depth map
Mortara et al. From geometric to semantic human body models
Buxton et al. Reconstruction and interpretation of 3D whole body surface images
Pan et al. Automatic rigging for animation characters with 3D silhouette
JP4170096B2 (en) Image processing apparatus for evaluating the suitability of a 3D mesh model mapped on a 3D surface of an object
Bang et al. Estimating garment patterns from static scan data
KR20190069750A (en) Enhancement of augmented reality using posit algorithm and 2d to 3d transform technique
Ju et al. Individualising Human Animation Models.
WO2023133125A1 (en) System and method for mapping the skin
JP2017122993A (en) Image processor, image processing method and program
CN115471632A (en) Real human body model reconstruction method, device, equipment and medium based on 3D scanning
Chen et al. Optimizing human model reconstruction from RGB-D images based on skin detection
JP6545847B2 (en) Image processing apparatus, image processing method and program
Rosenhahn et al. A silhouette based human motion tracking system
JPH0273471A (en) Estimating method for three-dimensional form

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111125

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees