JP2915846B2 - 3D video creation device - Google Patents
3D video creation deviceInfo
- Publication number
- JP2915846B2 JP2915846B2 JP16972696A JP16972696A JP2915846B2 JP 2915846 B2 JP2915846 B2 JP 2915846B2 JP 16972696 A JP16972696 A JP 16972696A JP 16972696 A JP16972696 A JP 16972696A JP 2915846 B2 JP2915846 B2 JP 2915846B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- model
- person
- torso
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Processing Or Creating Images (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータグラ
フィックス技術を用いて仮想空間に3次元映像を作成す
る3次元映像作成装置に関するものである。[0001] 1. Field of the Invention [0002] The present invention relates to a three-dimensional image creating apparatus for creating a three-dimensional image in a virtual space using computer graphics technology.
【0002】[0002]
【従来の技術】近年、人とコンピュータ、あるいは人と
人との間の高度な情報伝達手段として、仮想現実感、仮
想環境といった技術が注目され、ヒューマンインタフェ
ースやマルチメディア、映像通信などの分野で急速に研
究が進められている。2. Description of the Related Art In recent years, technologies such as virtual reality and virtual environment have been attracting attention as advanced information transmission means between people and computers, or between people, and have been used in fields such as human interfaces, multimedia, and video communication. Research is progressing rapidly.
【0003】ここで、遠隔地にいる人々が恰も一堂に会
するかのような感覚で会議や協調作業を行なうことがで
きる映像通信システム(以下「臨場感通信会議システ
ム」ともいう。)の開発も行なわれており、人体の動き
の3次元情報を高精度で検出し、人物の姿勢を推定して
3次元人物CG(Computer Graphics )モデルを実時間
で生成する技術が進展中である。[0003] Here, the development of a video communication system (hereinafter, also referred to as a "realistic communication conference system") capable of performing a conference or a cooperative operation with a feeling that people in remote places are as if they are together. A technique for detecting three-dimensional information of the movement of a human body with high accuracy, estimating a posture of a person, and generating a three-dimensional person CG (Computer Graphics) model in real time is being developed.
【0004】図10は、既に考案されている臨場感通信
会議システムにおける3次元人物像を生成するための3
次元映像作成装置の全体構成を示す図である。FIG. 10 shows a three-dimensional image for generating a three-dimensional person image in a realistic communication conference system that has already been devised.
FIG. 1 is a diagram illustrating an overall configuration of a two-dimensional image creation device.
【0005】図10に示されるように、この3次元映像
作成装置は、人体の各パーツ11に対応する3次元モデ
ルを生成するモデリング部10と、実空間1における人
物2の実時間による動きを検出する検出部3と、実時間
による人物像の合成を行なう再現部20とから構成され
る。[0005] As shown in FIG. 10, the three-dimensional image creating apparatus includes a modeling unit 10 for generating a three-dimensional model corresponding to each part 11 of a human body, and a real-time movement of a person 2 in a real space 1. It comprises a detecting section 3 for detecting and a reproducing section 20 for synthesizing a human image in real time.
【0006】ここで、モデリング部10は、人体の各パ
ーツ11の形状を記憶する形状入力部13と、形状入力
部13に記憶された人体の各パーツの形状に基づいてそ
のパーツ毎に3次元ワイヤフレームモデルを作成するモ
デル生成部15と、人体の各パーツの映像を入力する映
像入力部17と、映像入力部17に入力された映像に基
づいて人体表面の色彩情報を獲得するカラーテクスチャ
記憶部19とを含む。Here, the modeling unit 10 includes a shape input unit 13 for storing the shape of each part 11 of the human body, and a three-dimensional model for each part based on the shape of each part of the human body stored in the shape input unit 13. A model generation unit 15 for creating a wire frame model; a video input unit 17 for inputting an image of each part of the human body; and a color texture storage for acquiring color information on the human body surface based on the video input to the video input unit 17 Unit 19.
【0007】また、検出部3は、人物2の胴体の回転移
動を検出する胴体回転移動検出部4と、人物2の頭部の
回転移動を検出する頭部回転移動検出部5と、人物2の
指の動きを検出する指の動き検出部7と、人物2の腕の
回転移動を検出する腕回転移動検出部9とを含む。The detecting section 3 includes a torso rotational movement detecting section 4 for detecting the rotational movement of the torso of the person 2, a head rotational movement detecting section 5 for detecting the rotational movement of the head of the person 2, 1 includes a finger movement detection unit 7 that detects the movement of the finger of the person 2 and an arm rotation movement detection unit 9 that detects the rotation movement of the arm of the person 2.
【0008】また、再現部20は、モデル生成部15で
生成された3次元ワイヤフレームモデルを検出部3で得
られた情報に基づいて人物2の動きに対応するよう変形
するモデル変形部21と、変形された3次元ワイヤフレ
ームモデルにカラーテクスチャ記憶部19で得られた色
彩情報に基づいて色彩を付するテクスチャマッピング部
23と、ディスプレイ29に3次元仮想空間31を生成
するためのデータを供給する仮想空間生成部25と、3
次元ワイヤフレームモデルからなる人物像33と上記仮
想空間31とを合成しディスプレイ29上に3次元映像
を表示させる合成部27とを含む。The reproducing unit 20 includes a model deforming unit 21 that deforms the three-dimensional wire frame model generated by the model generating unit 15 so as to correspond to the movement of the person 2 based on the information obtained by the detecting unit 3. Supplies the deformed three-dimensional wireframe model with a texture mapping unit 23 for applying a color based on the color information obtained by the color texture storage unit 19, and data for generating a three-dimensional virtual space 31 to a display 29. Virtual space generation unit 25 and 3
It includes a combining unit 27 that combines a human image 33 composed of a three-dimensional wireframe model with the virtual space 31 and displays a three-dimensional video on a display 29.
【0009】以上のようにして、会議参加者の3次元人
物モデルが通信会議に先立って受信側に送られ、会議中
は送信側の参加者の動き情報を実時間で検出して受信側
に送り、受信側では検出された動きに応じて上記3次元
人物モデルを変形し、カラーテクスチャをマッピング
し、受け手の参加者35の視点に合わせて人物像33を
仮想の会議室の情景中に合成して、ディスプレイ29に
表示する。As described above, the three-dimensional model of the conference participant is transmitted to the receiving side prior to the communication conference, and during the conference, the motion information of the transmitting participant is detected in real time and transmitted to the receiving side. At the sending and receiving sides, the three-dimensional person model is transformed according to the detected movement, color texture is mapped, and a person image 33 is synthesized in the virtual conference room scene according to the viewpoint of the receiver participant 35. Then, it is displayed on the display 29.
【0010】[0010]
【発明が解決しようとする課題】しかしながら、上記の
臨場感通信会議システムにおける3次元人物像の作成
は、会議に出席する人物の上半身動作のみに対応するも
のであり、下肢の運動を含む全身動作に対応した3次元
人物像は作成されていなかった。However, the creation of a three-dimensional person image in the above-mentioned immersive communication conference system corresponds only to the upper body movement of the person attending the conference, and the whole body movement including the movement of the lower limbs. Has not been created.
【0011】さらに、モデリングに関して人間の胴体を
剛体のパーツとして3次元モデル化していたため、人物
の胴体のひねりや屈曲を伴う動作を再構成した3次元映
像が不自然となる問題が生じていた。In addition, since a three-dimensional model of a human torso is used as a rigid body for modeling, a problem has arisen in that a three-dimensional image reconstructing a motion involving twisting and bending of a human torso becomes unnatural.
【0012】本願発明は、これらの問題を解消するため
になされたもので、実際の人物の姿勢により近く、か
つ、全身を模した3次元全身像を作成する3次元映像作
成装置を提供することを目的とする。The present invention has been made in order to solve these problems, and provides a three-dimensional image creating apparatus which creates a three-dimensional whole-body image closer to the actual posture of a person and imitating the whole body. With the goal.
【0013】[0013]
【0014】[0014]
【課題を解決するための手段】 本発明 に係る3次元映像
作成装置は、臨場感通信会議システムにおいて人物像を
仮想空間に作成する3次元映像作成装置であって、人物
像として3次元ワイヤフレームモデルを生成するモデル
生成手段と、人物に装着され、その装着された人物の部
位の位置および回転角度の検出を行なうセンサと、胴体
像決定手段と、上肢像決定手段と、下肢像決定手段と、
像合成手段とを備えるものである。ここで、胴体像決定
手段は、モデル生成手段で生成された3次元ワイヤフレ
ームモデルのうちその胴体部分を複数の領域に分割し、
領域同士の接合面を構成する各点の座標をセンサにおい
て得られたデータに基づきフリーフォームデフォーメー
ション手法を用いて計算することによって胴体部分の像
を決定する。また、上肢像決定手段は、人物の上肢の運
動エネルギを定義してセンサにおいて得られたデータに
基づき運動エネルギが最小になるよう3次元ワイヤフレ
ームモデルのうちの上肢部分の像を決定する。また、下
肢像決定手段は、センサにおいて得られるデータと、所
定の拘束条件に基づいて、人物の着座から起立に至る下
肢の動作に対応する3次元ワイヤフレームモデルのうち
の下肢部分の像を決定する。また、像合成手段は、胴体
像決定手段と、上肢像決定手段、および下肢像決定手段
においてそれぞれ決定された像を合成して、仮想空間に
人物像を作成する。 A three-dimensional image creating apparatus according to the present invention is a three-dimensional image creating apparatus for creating a person image in a virtual space in a real-life communication conference system. Model generation means for generating a model, mounted on a person, a sensor for detecting the position and rotation angle of the part of the mounted person, a torso image determination means, an upper limb image determination means, a lower limb image determination means ,
Image combining means. Here, the torso image determining means divides the torso portion of the three-dimensional wire frame model generated by the model generating means into a plurality of regions,
The image of the torso portion is determined by calculating the coordinates of each point constituting the joint surface between the regions by using a freeform deformation method based on the data obtained by the sensor. The upper limb image determining means defines the kinetic energy of the upper limb of the person and determines an image of the upper limb portion of the three-dimensional wireframe model based on data obtained by the sensor so as to minimize the kinetic energy. The lower limb image determining means determines an image of the lower limb portion of the three-dimensional wire frame model corresponding to the motion of the lower limb from the sitting to the standing of the person based on the data obtained by the sensor and a predetermined constraint condition. I do. The image combining means combines the images determined by the torso image determining means, the upper limb image determining means, and the lower limb image determining means to create a human image in the virtual space.
【0015】[0015]
【発明の実施の形態】以下、この発明の実施の形態を図
面を参照して詳しく説明する。なお、図中同一符号は同
一または相当部分を示す。Embodiments of the present invention will be described below in detail with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts.
【0016】図1は、本発明の実施の形態に係る3次元
映像作成装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a three-dimensional image creating apparatus according to an embodiment of the present invention.
【0017】図1に示されるように、この3次元映像作
成装置は、人間の胸、頭および両手に装着された4個の
センサ37と、それぞれのセンサ37からその位置を示
す3次元座標およびX軸,Y軸,Z軸の3軸の周りの回
転角度のデータを取込み記憶するデータ入力部39と、
頭、腕などの人体の各パーツの形状を入力する形状入力
部13と、形状入力部13に入力されたデータに基づい
て3次元ワイヤフレームモデルを生成するモデル生成部
15と、モデル生成部15で生成された胴体部分の3次
元ワイヤフレームモデルをデータ入力部39に入力され
たデータに基づいて変形する胴体像決定部41と、モデ
ル生成部15で生成された上肢部分の3次元ワイヤフレ
ームモデルをデータ入力部39に入力されたデータに基
づいて変形する上肢像決定部47と、モデル生成部15
で生成された下肢部分の3次元ワイヤフレームモデルを
データ入力部39に入力されたデータに基づいて変形す
る下肢像決定部53と、胴体像決定部41、上肢像決定
部47、下肢像決定部53でそれぞれ決定された3次元
像を合成し、ディスプレイに映し出される仮想空間の中
に実際の人物を模した3次元人物像を生成する像合成部
59とを備える。As shown in FIG. 1, the three-dimensional image creating apparatus includes four sensors 37 mounted on the human chest, head, and both hands, three-dimensional coordinates indicating the position of each sensor 37, and A data input unit 39 for taking in and storing data of rotation angles around three axes of X-axis, Y-axis, and Z-axis;
A shape input unit 13 for inputting a shape of each part of a human body such as a head and an arm, a model generation unit 15 for generating a three-dimensional wireframe model based on data input to the shape input unit 13, and a model generation unit 15 And a torso image determining unit 41 for transforming the three-dimensional wireframe model of the torso part generated based on the data input to the data input unit 39, and the three-dimensional wireframe model of the upper limb part generated by the model generating unit 15. Upper limb image determining unit 47 that deforms the image based on the data input to the data input unit 39, and the model generating unit 15
The lower limb image determining unit 53 that deforms the three-dimensional wireframe model of the lower limb portion generated in the above based on the data input to the data input unit 39, the torso image determining unit 41, the upper limb image determining unit 47, and the lower limb image determining unit An image synthesizing section 59 is provided for synthesizing the three-dimensional images determined in 53 and generating a three-dimensional human image imitating a real person in a virtual space projected on a display.
【0018】以下に、上記各部分に関し詳しく説明す
る。なお、上記データ入力部39、モデル生成部15、
胴体像決定部41、上肢像決定部47、下肢像決定部5
3と、像合成部59は、例えば、SGI社製のグラフィ
ックス・ワークステーション(Onyx, Reality Engine2
)に備えられる。Hereinafter, each of the above parts will be described in detail. The data input unit 39, the model generation unit 15,
Torso image determination unit 41, upper limb image determination unit 47, lower limb image determination unit 5
3 and the image synthesizing unit 59 are, for example, a graphics workstation (Onyx, Reality Engine 2) manufactured by SGI.
).
【0019】人物の3次元モデルは、頭や胴体、手とい
った人体の各パーツ11毎にモデル生成部15で3次元
ワイヤフレームモデルを作成し、これらを人体の構造に
基づいて接続することにより生成する。ここで、形状入
力部13における人体の各パーツ11の3次元情報の獲
得においては、Cyberware社製カラー3次元デ
ィジタイザを用い、測定対象の周囲を回転しながら線状
のレーザ光を照射し、その変形を計測することにより測
定対象の3次元形状情報を入力するとともに、測定対象
表面の色彩情報(カラーテクスチャ)も併せて獲得す
る。そして、得られた3次元情報は、モデル生成部15
において精度に応じた大小の三角形(三角パッチ)に変
換され、3次元ワイヤフレームモデルが作成される。さ
らに、モデル生成部15においては、カラーテクスチャ
を対応する場所の三角パッチにマッピングすることによ
り、人体の各パーツ11の3次元モデルが作成される。A three-dimensional model of a person is created by creating a three-dimensional wire frame model in the model creating unit 15 for each part 11 of the human body such as a head, a torso, and a hand, and connecting these based on the structure of the human body. I do. Here, in the acquisition of the three-dimensional information of each part 11 of the human body in the shape input unit 13, a linear laser light is irradiated while rotating around the measurement object using a color three-dimensional digitizer manufactured by Cyberware. The three-dimensional shape information of the measurement target is input by measuring the deformation, and the color information (color texture) of the measurement target surface is also acquired. Then, the obtained three-dimensional information is stored in the model generation unit 15.
Are converted into large and small triangles (triangular patches) according to the accuracy, and a three-dimensional wireframe model is created. Further, the model generation unit 15 creates a three-dimensional model of each part 11 of the human body by mapping the color texture to a triangular patch at a corresponding location.
【0020】次に、胴体像決定部41においてなされる
胴体像の決定について説明する。モデル生成部15で作
成された胴体の3次元ワイヤフレームモデルは、図2に
示されるように、変位量計算部43において、胸部と腰
部の領域に応じて鉛直方向に2分割され、さらに、その
各領域をそれぞれ3分割することにより計6個のセグメ
ントに領域分けされる。Next, the determination of the torso image performed by the torso image determining unit 41 will be described. As shown in FIG. 2, the three-dimensional wireframe model of the torso created by the model generation unit 15 is vertically divided into two parts in the displacement amount calculation unit 43 according to the region of the chest and the waist, as shown in FIG. By dividing each region into three, each region is divided into a total of six segments.
【0021】ここで、人物の自然な胴体の屈曲動作を再
構成するためには、隣り合う上記セグメントの接合面で
の連続性が要求される。そこで、この要求を満たすため
にフリーフォームデフォーメーション(Free Form Defo
rmation )手法(以下、「FFD手法」とも記す。)を
モデル生成部15で生成された胴体の3次元ワイヤフレ
ームモデルの変形に適用する。すなわち、変位量計算部
43は、特に人物の胸に装着されたセンサ37によって
得られた変位量(座標、回転角度)に応じて、モデル生
成部15で作成された胴体の3次元ワイヤフレームモデ
ルを構成する各頂点の変位量を自動的に計算し、胴体像
変形部45は、変位量計算部43における上記計算の結
果に基づいて頂点を駆動することにより胴体の3次元ワ
イヤフレームモデルの変形を行なう。Here, in order to reconstruct the natural torso bending motion of a person, continuity at the joining surface of the adjacent segments is required. Therefore, in order to satisfy this demand, Free Form Defo
rmation) method (hereinafter, also referred to as “FFD method”) is applied to the deformation of the three-dimensional wireframe model of the body generated by the model generation unit 15. That is, the displacement amount calculation unit 43 performs the three-dimensional wireframe model of the torso created by the model generation unit 15 in accordance with the displacement amount (coordinates and rotation angles) obtained by the sensor 37 mounted on the chest of the person. Is automatically calculated, and the torso image deformation unit 45 drives the vertices based on the result of the above calculation in the displacement amount calculation unit 43, thereby deforming the three-dimensional wireframe model of the torso. Perform
【0022】ここで、胴体の3次元ワイヤフレームモデ
ルの変形において、隣接するセグメントとの接合面に位
置するワイヤフレームモデルの頂点に関しては、FFD
手法を用いて変位量を計算することにより、隣り合うセ
グメントとの連続性を保持しつつ、滑らかな3次元形状
の変形を可能にする。Here, in the deformation of the three-dimensional wireframe model of the body, the vertices of the wireframe model located at the joint surface with the adjacent segment are FFD.
By calculating the displacement amount by using the technique, it is possible to smoothly deform the three-dimensional shape while maintaining the continuity with the adjacent segments.
【0023】具体的には、胸部および腰部を構成する3
次元ワイヤフレームモデルに対して、図3に示すように
各セグメントの接合面の中心に制御点Cn(Cnx,C
ny,Cnz),(n=0〜3)を設定する。3次元ワ
イヤフレームモデルの頂点P(pX ,pY ,pZ )の変
形のための重みをt(t=0〜1)とすると、FFD手
法による変化後の3次元座標P′はMore specifically, 3 which constitutes the chest and waist
As shown in FIG. 3, the control point Cn (Cnx, Cnx
ny, Cnz) and (n = 0 to 3). Assuming that the weight for deformation of the vertex P (p x , p y , p z ) of the three-dimensional wire frame model is t (t = 0 to 1), the three-dimensional coordinate P ′ after the change by the FFD method is
【0024】[0024]
【数1】 (Equation 1)
【0025】で表わされる。得られた座標値P′に同次
変換行列を乗算することにより、3次元空間中のワイヤ
フレームモデルの頂点の座標が求められる。## EQU2 ## By multiplying the obtained coordinate value P 'by the homogeneous transformation matrix, the coordinates of the vertex of the wire frame model in the three-dimensional space are obtained.
【0026】次に、人物の全身の構造を記述する方法に
ついて説明する。人物の全身の骨格構造は、図4に示す
ように1または3の自由度を有する回転関節と、実際の
人物と同じ長さを有するリンクにより、3次元座標値お
よび26個の回転関節を有する計29自由度のリンク機
構として定義できる。このリンクモデルでは、1つのリ
ンクに対して1つの座標系を割当て、リンク座標系(n
−1)からリンク座標系nへのX,Y,Z軸の回転角度
をα,β,γとし、リンクの長さをdとすると、座標変
換を表わす同次変換行列RnはNext, a method for describing the structure of the whole body of a person will be described. The skeletal structure of the whole body of the person has three-dimensional coordinate values and 26 revolute joints, as shown in FIG. 4, by a revolute joint having one or three degrees of freedom and a link having the same length as the actual person. It can be defined as a link mechanism having a total of 29 degrees of freedom. In this link model, one coordinate system is assigned to one link, and the link coordinate system (n
Assuming that the rotation angles of the X, Y, and Z axes from -1) to the link coordinate system n are α, β, γ, and the length of the link is d, the homogeneous transformation matrix Rn representing the coordinate transformation is
【0027】[0027]
【数2】 (Equation 2)
【0028】となる。ここで、SとCはsin関数とc
os関数を表わす。さらに、基準座標系およびリンク座
標系nにおけるリンク先端の位置ベクトルをX0 ,Xn
とすると X0 =R1 R2 …RnXn となり、行列Rnを用いることにより、リンクモデルの
幾何学的構造を記述できる。## EQU1 ## Where S and C are the sin function and c
Represents the os function. Further, the position vectors of the link tip in the reference coordinate system and the link coordinate system n are represented by X 0 , Xn
X 0 = R 1 R 2 ... RnXn, and the geometric structure of the link model can be described by using the matrix Rn.
【0029】なお、本実施の形態においては、実時間で
人物全身の姿勢を推定するため、図4に示されるよう
に、3次元座標および3軸回転角度の計6自由度が検出
可能な磁気センサ61,63,65,67を装着するこ
とにより、全身動作の検出を行なう。この際、ユーザの
センサ装着の負担を考慮すると、センサ数を最少にする
ことが望ましいが、限られたセンサ情報からすべての関
節回転角度を正確に検出することは困難である。In this embodiment, in order to estimate the posture of the whole body in real time, as shown in FIG. 4, a magnetic field capable of detecting a total of six degrees of freedom of three-dimensional coordinates and three-axis rotation angles is detected. By mounting the sensors 61, 63, 65 and 67, the whole body operation is detected. At this time, it is desirable to minimize the number of sensors in consideration of the burden of the user wearing the sensors, but it is difficult to accurately detect all joint rotation angles from limited sensor information.
【0030】よって、胸、頭および両手にそれぞれ磁気
センサ61,63,65,67を装着し、4個のセンサ
より得られる3次元座標、3軸回転角度の計24個のデ
ータから後述の拘束条件を用いることにより、全身の姿
勢に関する29自由度の推定を行なう。また、データグ
ローブを装着することにより、指の動きの検出を行な
う。Therefore, the magnetic sensors 61, 63, 65, and 67 are mounted on the chest, head, and both hands, respectively, and the three-dimensional coordinates and the three-axis rotation angles obtained from the four sensors are used to obtain a constraint described later from a total of 24 data. By using the condition, 29 degrees of freedom regarding the posture of the whole body are estimated. In addition, the movement of the finger is detected by wearing the data glove.
【0031】ここで、より具体的には、Polhemu
s社製の磁気センサ(FASTRAK )が用いられる。Here, more specifically, Polhemu
A magnetic sensor (FASTRAK) manufactured by s Corporation is used.
【0032】次に、上肢像決定部47においてなされる
上肢像の決定について説明する。上記の図4に示すリン
クモデルにおいては、胸の位置を基準座標としており、
胸に装着した磁気センサ63のデータより胴体の位置お
よび3軸回転角度、頭に装着した磁気センサ61のデー
タより頭の3軸回転角度が一意に求まる。Next, the determination of the upper limb image performed by the upper limb image determination section 47 will be described. In the link model shown in FIG. 4 described above, the position of the chest is used as the reference coordinates,
The position of the torso and the three-axis rotation angle are uniquely determined from the data of the magnetic sensor 63 mounted on the chest, and the three-axis rotation angle of the head is determined from the data of the magnetic sensor 61 mounted on the head.
【0033】それに対して、上肢像の決定において、上
肢関節角度推定部49は、図4に示される肩の位置を基
準座標とし、胸の3軸回転角度(α2,β2,γ2)と
リンクモデルの肩のリンク長lS を用いることにより、
肩の3次元座標を算出する。On the other hand, in determining the upper limb image, the upper limb joint angle estimating unit 49 uses the shoulder position shown in FIG. 4 as a reference coordinate, the three-axis rotation angles (α2, β2, γ2) of the chest and the link model. By using the shoulder link length l S of
The three-dimensional coordinates of the shoulder are calculated.
【0034】なお、上記リンクモデルは、モデル生成部
15で作成された3次元ワイヤフレームモデルに基づい
て上肢関節角度推定部49で想定されるモデルである。The link model is a model assumed by the upper limb joint angle estimating unit 49 based on the three-dimensional wire frame model created by the model generating unit 15.
【0035】しかし、上肢(ここでは、片方の腕を意味
する。)は、図5に示すように、7自由度を有するリン
ク機構としてモデル化されているため、手に装着した磁
気センサ65から得られる6次元データ(3次元座標、
3軸回転角度)より、これら7個の関節角度を推定する
ことは、自由度が1つ不足しているため、解が一意に求
まらない。そこで、この問題を解決するため、拘束条件
として上肢の運動エネルギを定義し、そのエネルギを最
少とする解により関節角度を一意に決定する。However, since the upper limb (here, one arm means) is modeled as a link mechanism having seven degrees of freedom, as shown in FIG. 6-dimensional data obtained (3-dimensional coordinates,
Estimating these seven joint angles from the (three-axis rotation angles) does not have a single degree of freedom, so a solution cannot be uniquely obtained. Therefore, in order to solve this problem, the kinetic energy of the upper limb is defined as a constraint condition, and the joint angle is uniquely determined by a solution that minimizes the energy.
【0036】具体的には、図5において、センサ65よ
り得られる手の位置ベクトルをX=(pX ,pY ,
pZ ,rX ,rY ,rZ )とし、上肢の姿勢を表わす関
節角度ベルをΘ=(θ1,…,θ7)とすると、Xから
Θを求めることは、自由度が1つ不足しているため、解
が無限に存在するいわゆる不良設定問題となる。そこ
で、各関節を回転角度に比例して反発力を生じる回転バ
ネ、リンクを質量を有する円柱としてモデル化し、上肢
モデルの運動エネルギを定義する。冗長な関節の回転角
度θ3を一定の範囲内で変化させるとともに運動エネル
ギを逐次計算し、前述の範囲内で運動エネルギが最少と
なった回転角度の値を最適値として、関節角度ベクトル
Θを一意に決定する。More specifically, in FIG. 5, the hand position vector obtained from the sensor 65 is represented by X = (p X , p Y ,
p and Z, r X, r Y, and r Z), joint angle bell to theta = (.theta.1 representing the attitude of the upper limbs, ..., when .theta.7), to seek from X theta is insufficient one degree of freedom Therefore, it is a so-called bad setting problem in which the solution exists infinitely. Thus, each joint is modeled as a rotary spring that generates a repulsive force in proportion to the rotation angle, and the link is modeled as a cylinder having mass, and the kinetic energy of the upper limb model is defined. The rotation angle θ3 of the redundant joint is changed within a certain range and the kinetic energy is sequentially calculated, and the value of the rotation angle at which the kinetic energy is minimized within the aforementioned range is set as an optimum value, and the joint angle vector Θ is uniquely determined. To decide.
【0037】上肢の運動エネルギ評価関数はThe limb kinetic energy evaluation function is
【0038】[0038]
【数3】 (Equation 3)
【0039】で定義され、この第1項は重力によるポテ
ンシャル、第2項はストレス、第3項は摩擦、第4項は
加速度の各エネルギを表わす。Where the first term represents potential due to gravity, the second term represents stress, the third term represents friction, and the fourth term represents acceleration energy.
【0040】第1項のポテンシャルエネルギPは肘の高
さのみに依存するので、次式で定義される。Since the potential energy P of the first term depends only on the height of the elbow, it is defined by the following equation.
【0041】[0041]
【数4】 (Equation 4)
【0042】この式において、gは重力加速度、m1,
m2はそれぞれ上腕および下腕の質量、PEYは肘の高さ
を表わす。In this equation, g is the gravitational acceleration, m1,
m2 is the mass of each upper arm and lower arm, the P EY represents the height of the elbow.
【0043】第2項のストレスエネルギに関しては、7
個の関節を回転バネによってモデル化し、関節の回転角
度θn(n=1〜7)に対してしきい値(θ′n,θ″
n)を設けることにより、次式で定義される。Regarding the stress energy of the second term, 7
Each joint is modeled by a rotary spring, and a threshold (θ′n, θ ″) is determined with respect to the rotational angle θn (n = 1 to 7) of the joint.
By providing n), it is defined by the following equation.
【0044】[0044]
【数5】 (Equation 5)
【0045】この式において、関節の回転角度θnがし
きい値を超えている場合、/θnはθnとしきい値との
差分値となり、それ以外の場合は0となる。また、Kn
は回転バネのバネ定数を表わす。In this equation, when the rotation angle θn of the joint exceeds the threshold value, / θn becomes the difference value between θn and the threshold value, and otherwise becomes 0. Also, Kn
Represents the spring constant of the rotary spring.
【0046】第3項の摩擦エネルギは次式で定義され
る。The friction energy of the third term is defined by the following equation.
【0047】[0047]
【数6】 (Equation 6)
【0048】この式において、μnは摩擦係数、Nnは
抗力、Δθnは単位時間における角度変位を表わす。In this equation, μn represents a friction coefficient, Nn represents a drag, and Δθn represents an angular displacement per unit time.
【0049】第4項の加速度によるエネルギは肘の移動
により定義され、次式で表わされる。The energy due to the acceleration of the fourth term is defined by the movement of the elbow and is expressed by the following equation.
【0050】[0050]
【数7】 (Equation 7)
【0051】この式において、PE は肘の位置ベクト
ル、ΔPE は単位時間における肘の座標の変位、(m1
+m2)/2は慣性質量を表わす。In this equation, P E is the position vector of the elbow, ΔP E is the displacement of the coordinates of the elbow in unit time, (m1
+ M2) / 2 represents the inertial mass.
【0052】そして、以上のようにして上肢関節角度推
定部49で決められたパラメータに基づいて、上肢像変
形部51は、モデル生成部15で作成された上肢の3次
元ワイヤフレームモデルを変形する。Then, based on the parameters determined by the upper limb joint angle estimating section 49 as described above, the upper limb image deforming section 51 deforms the three-dimensional wire frame model of the upper limb created by the model generating section 15. .
【0053】次に、下肢像決定部53においてなされる
下肢像の決定について説明する。下肢関節角度推定部5
5は、図4に示された胸の磁気センサ63から得られる
3軸回転角度データ(α2,β2,γ2)と胴体のリン
ク長ltを用い、腰の3次元座標Phを求める。そし
て、下肢の運動を伴う全身動作は、着座から起立に至る
遷移運動のみであり、図6に示されるように、両脚は3
自由度(腰、膝および足首)を有するリンク機構として
モデル化されているので、これらの関節角度は、算出さ
れた腰の3次元座標Phと以下に記す3つの拘束条件を
用いることにより推定される。1)両足は床に固定され
ている。2)腰、膝および足首の関節回転角度は、それ
ぞれ左右同一の値をとる。3)腰の軌跡はYZ平面上
(X=0)を移動する。Next, the determination of the lower limb image performed by the lower limb image determining section 53 will be described. Lower limb joint angle estimation unit 5
5 obtains the three-dimensional coordinates Ph of the waist using the three-axis rotation angle data (α2, β2, γ2) obtained from the chest magnetic sensor 63 shown in FIG. 4 and the link length lt of the trunk. Then, the whole body movement accompanied by the movement of the lower limb is only a transition movement from sitting to standing, and as shown in FIG.
Since the joints are modeled as link mechanisms having degrees of freedom (hips, knees, and ankles), these joint angles are estimated by using the calculated three-dimensional coordinates Ph of the hips and the three constraint conditions described below. You. 1) Both feet are fixed on the floor. 2) The joint rotation angles of the hips, knees and ankles have the same left and right values. 3) The locus of the waist moves on the YZ plane (X = 0).
【0054】図4に示される胸に装着した磁気センサ6
3より得られる胸の位置Pcを示すYZ座標(Yc,Z
c)、上記のような計算によって求められた腰の位置P
hを示すYZ座標(Yh,Zh)、および足首の位置P
fを示すYZ座標(Yf,Zf)を用いて長さL1 L2
を計算し、モデルのリンク長l1 〜l3 を用いることに
より、これらの関節角度は幾何学的に計算できる。Magnetic sensor 6 mounted on chest shown in FIG.
YZ coordinates (Yc, Z) indicating the chest position Pc obtained from
c), the waist position P obtained by the above calculation
YZ coordinates (Yh, Zh) indicating h and ankle position P
length L 1 L 2 using YZ coordinates (Yf, Zf) indicating f
, And using the link lengths l 1 to l 3 of the model, these joint angles can be calculated geometrically.
【0055】なお、上記リンクモデルは、モデル生成部
15で作成された3次元ワイヤフレームモデルに基づい
て下肢関節角度推定部55で想定されるモデルである。The link model is a model assumed by the lower limb joint angle estimating unit 55 based on the three-dimensional wire frame model created by the model generating unit 15.
【0056】このようにして下肢関節角度推定部55で
決められたパラメータに基づいて、下肢像変形部57
は、モデル生成部15で作成された下肢の3次元ワイヤ
フレームモデルを変形する。Based on the parameters determined by the lower limb joint angle estimating section 55 in this way, the lower limb image deforming section 57
Transforms the three-dimensional wireframe model of the lower limb created by the model generating unit 15.
【0057】次に、上記の胴体像変形部45、上肢像変
形部51、および下肢像変形部57における3次元ワイ
ヤフレームモデルの変形について述べる。Next, the deformation of the three-dimensional wire frame model in the torso image deforming section 45, the upper limb image deforming section 51, and the lower limb image deforming section 57 will be described.
【0058】上記のように、3次元人物モデルの構造は
同次変換行列により記述できるので、変位量計算部4
3、上肢関節角度推定部49、下肢関節角度推定部55
でそれぞれ計算または推定されたパラメータを用いて、
人体パーツ毎に上記の同次変換行列Rnを計算する。そ
して、この同次変換行列Rnを3次元ワイヤフレームモ
デルを構成する各頂点に乗算することによって、人体パ
ーツに含まれるワイヤフレームモデルの三角パッチが変
形、平行移動される。肘などの関節を含むパーツは形状
の変形に用いる“重み”を有している。図7に示される
ように、関節パーツ69の頂点ベクトルXにおける重み
をaとし、隣接するパーツ71,73の同次変換行列を
それぞれR1 ,R2 とすると、変形後の頂点ベクトル
X′はAs described above, the structure of the three-dimensional person model can be described by a homogeneous transformation matrix.
3. Upper limb joint angle estimator 49, lower limb joint angle estimator 55
Using the parameters calculated or estimated respectively in
The above-mentioned homogeneous transformation matrix Rn is calculated for each human body part. Then, by multiplying each vertex of the three-dimensional wireframe model by the homogeneous transformation matrix Rn, the triangular patch of the wireframe model included in the human body part is deformed and translated. Parts including joints such as elbows have "weight" used for shape deformation. As shown in FIG. 7, assuming that the weight of the vertex vector X of the joint part 69 is a and the homogeneous transformation matrices of the adjacent parts 71 and 73 are R 1 and R 2 respectively, the vertex vector X ′ after deformation is
【0059】[0059]
【数8】 (Equation 8)
【0060】で計算され、関節の動きが再現可能な形で
関節パーツ69の3次元形状を変形する。The three-dimensional shape of the joint part 69 is calculated in such a manner that the movement of the joint can be reproduced.
【0061】たとえば、変位量計算部43においては、
胸の磁気センサ63から得られる3軸回転角度を予備実
験により得られた各セグメントの変形比率に基づいて分
割し、胴体像変形部45は、変位量計算部43で計算さ
れた変位量に基づいて各セグメントの形状を変形する。
また、隣接するセグメントの接合面に位置する頂点に関
しては、上記のようにFFD手法を適用することによ
り、滑らかな屈曲動作が可能な形で胴体パーツの3次元
形状を変形する。For example, in the displacement calculating section 43,
The three-axis rotation angle obtained from the magnetic sensor 63 of the chest is divided based on the deformation ratio of each segment obtained by the preliminary experiment, and the torso image deformation unit 45 performs the calculation based on the displacement calculated by the displacement calculator 43. To change the shape of each segment.
In addition, the three-dimensional shape of the body part is deformed in such a manner that a smooth bending operation can be performed by applying the FFD method as described above with respect to the vertices located at the joining surface of the adjacent segments.
【0062】そして、像合成部59は以上の方式により
変形された3次元像から3次元人物モデルをディスプレ
イ29に映し出される仮想空間31に合成し、実際の人
物の動きを再現する。Then, the image synthesizing unit 59 synthesizes the three-dimensional human model from the three-dimensional image deformed by the above method into the virtual space 31 projected on the display 29, and reproduces the actual motion of the human.
【0063】なお、シミュレーションにより胴体の3軸
回転角度を変化させ、予備実験で予め得られた各セグメ
ントの変形比率に基づいて回転角度データを分配し、胴
体パーツの3次元形状を変形することにより胴体動作の
再構成を行なった実験と、その結果について記す。The three-dimensional rotation angle of the body is changed by simulation, the rotation angle data is distributed based on the deformation ratio of each segment obtained in advance in a preliminary experiment, and the three-dimensional shape of the body part is deformed. An experiment in which the body motion was reconstructed and the results are described.
【0064】まず、上記予備実験の方法としては、胴体
の屈曲動作を被検者の真正面、および真横に設置された
2台のカメラで撮影、ビデオディスクに収録する。次
に、撮影された2方向の画像をグラフィックワークステ
ーション(GWS)に取込み、GWS上で3次元人物コ
ンピュータグラフィックモデルと重ね合わせてディスプ
レイに表示する。さらに胴体パーツの各セグメントの変
形比率を適宜変化させてディスプレイ上の実写画像とコ
ンピュータグラフィック(CG)モデルとの重なり具合
を目視により評価することによって、各セグメントにお
ける胴体の変形比率を求める。なお、各回転軸(X,
Y,Z)に対する6個のセグメントの変形比率の総和
は、それぞれ1と定義している。First, as a method of the preliminary experiment, the bending motion of the body is photographed by two cameras installed in front of and directly beside the subject, and recorded on a video disk. Next, the captured images in two directions are taken into a graphic workstation (GWS), and superimposed on a three-dimensional human computer graphic model on the GWS and displayed on a display. Further, the deformation ratio of each segment of the body part is appropriately changed, and the degree of overlap between the actual image on the display and the computer graphic (CG) model is visually evaluated to determine the deformation ratio of the body in each segment. In addition, each rotation axis (X,
The sum of the deformation ratios of the six segments with respect to (Y, Z) is defined as 1.
【0065】実験結果を以下の表1に示す。The experimental results are shown in Table 1 below.
【0066】[0066]
【表1】 [Table 1]
【0067】セグメントの番号については、図2で示さ
れた胴体セグメントの最上部を1として、1から6の番
号を割当てている。表1より、胴体を前後方向に屈曲さ
せるX軸回転に関しては、各セグメントとも均等な割合
で変形しており、胴体のひねりを表わすY軸回転、およ
び左右方向への曲げを表わすZ軸回転に関しては、腰部
での変形比率が高く、胸部に近づくにつれ比率が低くな
っていることがわかる。With respect to the segment numbers, numbers 1 to 6 are assigned with the top of the trunk segment shown in FIG. From Table 1, with respect to the X-axis rotation for bending the body in the front-rear direction, each segment is deformed at an equal rate, and the Y-axis rotation indicating the twist of the body and the Z-axis rotation indicating the bending in the left-right direction are shown. Indicates that the deformation ratio at the waist is high and the ratio decreases as approaching the chest.
【0068】この予備実験により得られた胴体の部位に
おける変形比率は、胴体パーツのFFDの形状変形に適
用することにより、自然な胴体の動きが再現可能とな
る。By applying the deformation ratio at the body part obtained by this preliminary experiment to the FFD shape deformation of the body part, natural movement of the body can be reproduced.
【0069】具体的には、従来手法による胴体動作の再
構成画像が図8(a)に示されるのに対し、本願発明に
係る上記手法による胴体動作の再構成画像は図8(b)
に示される。Specifically, FIG. 8A shows a reconstructed image of the torso motion according to the conventional method, whereas FIG. 8B shows a reconstructed image of the torso motion according to the method according to the present invention.
Is shown in
【0070】このように、本願発明に係る3次元映像作
成装置によれば、滑らかで自然な胴体の屈曲動作の再構
成が可能であることが確認された。As described above, it has been confirmed that the three-dimensional image creating apparatus according to the present invention can reconstruct a smooth and natural torso bending motion.
【0071】次に、上肢像決定部47の動作を評価する
ために行なった実測値との比較実験とその結果について
記す。実験方式としては、肘に磁気センサを装着するこ
とにより、肘の3次元座標の実測値と本発明に係る上肢
関節角度推定部49で計算された推定値との比較を行な
った。実験結果は図9に示される。ここで、図9
(a),(b),(c)はそれぞれX座標,Y座標,Z
座標に関し、実線は実測値、破線は推定値を示す。ここ
に示されるように、推定値は多少の振動を伴いながらも
実測値と同様の傾向で動きに追従しており、推定誤差は
3cm以内であった。Next, a description will be given of a comparison experiment with an actually measured value for evaluating the operation of the upper limb image determining unit 47 and the result thereof. As an experimental method, by attaching a magnetic sensor to the elbow, a comparison was made between the measured value of the three-dimensional coordinates of the elbow and the estimated value calculated by the upper limb joint angle estimating unit 49 according to the present invention. The experimental results are shown in FIG. Here, FIG.
(A), (b), and (c) show the X coordinate, Y coordinate, and Z coordinate, respectively.
Regarding the coordinates, a solid line indicates an actually measured value, and a broken line indicates an estimated value. As shown here, the estimated value followed the movement with the same tendency as the actually measured value with some vibration, and the estimation error was within 3 cm.
【0072】また、胸、頭および両手に装着した磁気セ
ンサ61,63,65,67から得られる計24個のデ
ータに基づき、会議に出席した人物の着座から起立、お
じぎに至る全身動作の再構成を行なったが、約8フレー
ム/秒の速度で自然な胴体の屈曲動作を含む全身動作の
再構成が可能であることが確認された。Further, based on a total of 24 data obtained from the magnetic sensors 61, 63, 65, and 67 mounted on the chest, head, and both hands, the whole body movement of the person who attended the meeting from sitting to standing up to bowing was re-executed. Although the configuration was performed, it was confirmed that the whole body motion including the natural torso bending motion can be reconstructed at a speed of about 8 frames / second.
【0073】なお、上記説明は人物の動作に関するもの
であるが、本発明は、たとえば、産業用ロボットのアー
ムなどのいくつかの自由度を持って動作する物体につい
て、その3次元映像を作成する場合などにおいても有用
なものである。Although the above description relates to the motion of a person, the present invention creates a three-dimensional image of an object that moves with some degrees of freedom, such as an arm of an industrial robot. It is also useful in such cases.
【0074】[0074]
【0075】[0075]
【発明の効果】 本発明 に係る3次元映像作成装置によれ
ば、臨場感通信会議システムにおいて、人物の滑らかで
自然な胴体の屈曲動作を再現する3次元映像が作成で
き、また、人物の全身動作を再現する3次元映像が作成
できる。According to the three-dimensional image creating apparatus according to the present invention, in a virtual space teleconferencing system, can 3D image is created to reproduce the smooth and natural fuselage bending motion of the person, Systemic person A three-dimensional image that reproduces the operation can be created.
【図1】本発明の実施の形態に係る3次元映像作成装置
の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a three-dimensional image creating apparatus according to an embodiment of the present invention.
【図2】胴体のワイヤフレームモデルを示す図である。FIG. 2 is a diagram illustrating a wireframe model of a trunk.
【図3】胴体パーツへのFFD手法の適用を説明するた
めの図である。FIG. 3 is a diagram for explaining application of the FFD method to a body part.
【図4】人物の骨格モデルを示す図である。FIG. 4 is a diagram showing a skeleton model of a person.
【図5】上肢の骨格モデルを示す図である。FIG. 5 is a diagram showing a skeletal model of an upper limb.
【図6】下肢の骨格モデルを示す図である。FIG. 6 is a diagram showing a skeletal model of a lower limb.
【図7】関節パーツの変形方式を示す図である。FIG. 7 is a diagram showing a deformation method of a joint part.
【図8】胴体動作の再構成の結果を示す図である。FIG. 8 is a diagram showing a result of reconstruction of a torso motion.
【図9】上肢動作の再構成の結果を示すグラフである。FIG. 9 is a graph showing a result of reconstruction of upper limb motion.
【図10】従来の3次元映像作成装置の全体構成を示す
ブロック図である。FIG. 10 is a block diagram showing an overall configuration of a conventional three-dimensional video image creating apparatus.
15 モデル生成部 37 センサ 41 胴体像決定部 43 変位量計算部 45 胴体像変形部 47 上肢像決定部 49 上肢関節角度推定部 51 上肢像変形部 53 下肢像決定部 55 下肢関節角度推定部 57 下肢像変形部 59 像合成部 61,63,65,67 磁気センサ Reference Signs List 15 Model generation unit 37 Sensor 41 Torso image determination unit 43 Displacement amount calculation unit 45 Torso image deformation unit 47 Upper limb image determination unit 49 Upper limb joint angle estimation unit 51 Upper limb image deformation unit 53 Lower limb image determination unit 55 Lower limb joint angle estimation unit 57 Lower limb Image deformation unit 59 Image synthesis unit 61, 63, 65, 67 Magnetic sensor
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岸野 文郎 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール通 信システム研究所内 (56)参考文献 情報処理学会研究報告 Vol96,N o.18,96−CG−79,p31−37,「リ アルタイム・モーションキャプチャの放 送利用」,平成8年2月23日発行 (58)調査した分野(Int.Cl.6,DB名) G06T 15/00 - 17/50 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Fumio Kishino 5 Sanriya, Seiya-cho, Seika-cho, Soraku-gun, Kyoto ATR Communication Systems Research Institute, Inc. (56) References Information Processing Society of Japan Vol. 96 , No .. 18, 96-CG-79, pp. 31-37, "Broadcast use of real-time motion capture", published February 23, 1996. (58) Fields investigated (Int. Cl. 6 , DB name) G06T 15/00-17/50
Claims (1)
を仮想空間に作成する3次元映像作成装置であって、 前記人物像として3次元ワイヤフレームモデルを生成す
るモデル生成手段と、 前記人物に装着され、その装着された前記人物の部位の
位置および回転角度の検出を行なうセンサと、 前記モデル生成手段で生成された前記3次元ワイヤフレ
ームモデルのうちその胴体部分を複数の領域に分割し、
前記領域同士の接合面を構成する各点の座標を前記セン
サにおいて得られたデータに基づきフリーフォームデフ
ォーメーション手法を用いて計算することによって、前
記胴体部分の像を決定する胴体像決定手段と、 前記人物の上肢の運動エネルギを定義して、前記センサ
において得られたデータに基づき前記運動エネルギが最
小になるよう前記3次元ワイヤフレームモデルのうちの
上肢部分の像を決定する上肢像決定手段と、 前記センサにおいて得られるデータと、所定の拘束条件
に基づいて、前記人物の着座から起立に至る下肢の動作
に対応する前記3次元ワイヤフレームモデルのうちの下
肢部分の像を決定する下肢像決定手段と、 前記胴体像決定手段と、前記上肢像決定手段、および前
記下肢像決定手段においてそれぞれ決定された像を合成
して、前記仮想空間に前記人物像を作成する像合成手段
とを備える、3次元映像作成装置。 1. A three-dimensional video creating apparatus for creating a person image in a virtual space in a sensation communication conference system, comprising: a model generating means for generating a three-dimensional wireframe model as the person image; A sensor for detecting a position and a rotation angle of a part of the person attached to the body, and a body part of the three-dimensional wire frame model generated by the model generating unit is divided into a plurality of regions;
A torso image determining means for determining the image of the torso portion by calculating the coordinates of each point constituting the joint surface between the regions by using a freeform deformation method based on data obtained by the sensor, Upper limb image determining means for defining kinetic energy of the upper limb of the person and determining an image of an upper limb portion of the three-dimensional wireframe model based on data obtained by the sensor so that the kinetic energy is minimized; A lower limb image determination for determining an image of a lower limb portion of the three-dimensional wire frame model corresponding to the lower limb movement from the sitting to the standing of the person based on the data obtained by the sensor and a predetermined constraint condition; Means, the torso image determining means, the upper limb image determining means, and the image respectively determined by the lower limb image determining means Synthesized and provided with an image synthesizing means for creating the figures in the virtual space, three-dimensional image creation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16972696A JP2915846B2 (en) | 1996-06-28 | 1996-06-28 | 3D video creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16972696A JP2915846B2 (en) | 1996-06-28 | 1996-06-28 | 3D video creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1021424A JPH1021424A (en) | 1998-01-23 |
JP2915846B2 true JP2915846B2 (en) | 1999-07-05 |
Family
ID=15891720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16972696A Expired - Lifetime JP2915846B2 (en) | 1996-06-28 | 1996-06-28 | 3D video creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2915846B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2351635B (en) * | 1999-01-20 | 2003-03-19 | Canon Kk | Video conferencing apparatus |
JP2005523488A (en) * | 2001-08-14 | 2005-08-04 | パルス エンターテインメント インコーポレイテッド | Automatic 3D modeling system and method |
KR101483713B1 (en) | 2008-06-30 | 2015-01-16 | 삼성전자 주식회사 | Apparatus and Method for capturing a motion of human |
US10415975B2 (en) * | 2014-01-09 | 2019-09-17 | Xsens Holding B.V. | Motion tracking with reduced on-body sensors set |
-
1996
- 1996-06-28 JP JP16972696A patent/JP2915846B2/en not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
情報処理学会研究報告 Vol96,No.18,96−CG−79,p31−37,「リアルタイム・モーションキャプチャの放送利用」,平成8年2月23日発行 |
Also Published As
Publication number | Publication date |
---|---|
JPH1021424A (en) | 1998-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Badler et al. | Real-time control of a virtual human using minimal sensors | |
JPH09330424A (en) | Movement converter for three-dimensional skeleton structure | |
JP3668663B2 (en) | Motion input method and apparatus in virtual space and recording medium recording the motion input program | |
Molet et al. | An animation interface designed for motion capture | |
CN109781104A (en) | Athletic posture determination and localization method, device, computer equipment and medium | |
JP2915846B2 (en) | 3D video creation device | |
JP2739444B2 (en) | Motion generation device using three-dimensional model | |
Ji et al. | Motion trajectory of human arms based on the dual quaternion with motion tracker | |
JP2937834B2 (en) | 3D motion generator | |
Choi et al. | Processing motion capture data to achieve positional accuracy | |
Thalmann et al. | Virtual reality software and technology | |
Csongei et al. | ClonAR: Rapid redesign of real-world objects | |
JPH08221599A (en) | Method for generating and analyzing three-dimensional motion | |
Thalmann et al. | Participant, user-guided and autonomous actors in the virtual life network VLNET | |
Camporesi et al. | Interactive motion modeling and parameterization by direct demonstration | |
JP2945630B2 (en) | 3D video creation device | |
Moeslund et al. | Modelling and estimating the pose of a human arm | |
Molet et al. | An architecture for immersive evaluation of complex human tasks | |
Moeslund et al. | Pose estimation of a human arm using kinematic constraints | |
Santhanam et al. | Simulating 3-D lung dynamics using a programmable graphics processing unit | |
Usta | Comparison of quaternion and euler angle methods for joint angle animation of human figure models | |
Magnenat-Thalmann et al. | Virtual reality software and technology | |
Maxwell | Graphical marionette: a modern-day Pinocchio | |
Akinjala et al. | Animating human movement & gestures on an agent using Microsoft kinect | |
KR102239957B1 (en) | Virtual joint sphere based motion modeling method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19990330 |