JP2003514298A - How to capture motion capture data - Google Patents
How to capture motion capture dataInfo
- Publication number
- JP2003514298A JP2003514298A JP2001536676A JP2001536676A JP2003514298A JP 2003514298 A JP2003514298 A JP 2003514298A JP 2001536676 A JP2001536676 A JP 2001536676A JP 2001536676 A JP2001536676 A JP 2001536676A JP 2003514298 A JP2003514298 A JP 2003514298A
- Authority
- JP
- Japan
- Prior art keywords
- data
- camera
- cameras
- motion
- performer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000008859 change Effects 0.000 claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 11
- 230000009471 action Effects 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/38—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
- G06F7/48—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
- G06F7/544—Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
- G06F7/548—Trigonometric functions; Co-ordinate transformations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】 【課題】動きに応じて変化する座標値のみを抽出し且つ処理することにより減少した量のデータを処理することが可能なモーション・キャプチャ・データの捕捉方法を提供する。 【解決手段】 本発明は、モーション・キャプチャ・データの捕捉方法に関する。この方法においては、動きを示すデータ量を減少させることができ、ゲームキャラクター制作、デジタルアニメーション制作などの映像生産分野において自然な動きを容易に表示することが可能であり、データ付与者の体と接続するケーブルが存在しないので、データ付与者は限界なく行動しかつ動くことができる。異なるカラー値を有する複数のカラーポインタがそれぞれデータ付与者の体の主たる関節部及び先端部のそれぞれに取り付けられる。3つのデジタルカメラ(100,200及び300)または4台以上のカメラを用いて、データ付与者のアクションと動きを撮影する。コンピュータを用いてデジタルカメラにより得られた映像をX、Y及びZ座標値に変換する。体の動きは、カラーポインタの動きに基づいて三次元位置座標値として抽出される。 (57) Abstract: A motion capture data capturing method capable of processing a reduced amount of data by extracting and processing only coordinate values that change according to motion. The present invention relates to a method for capturing motion capture data. In this method, the amount of data indicating movement can be reduced, and natural movements can be easily displayed in video production fields such as game character production and digital animation production. Because there are no connecting cables, the data grantor can act and move without bounds. A plurality of color pointers having different color values are respectively attached to the main joint and the tip of the body of the data giver. Three digital cameras (100, 200 and 300) or four or more cameras are used to capture the action and movement of the data grantor. The image obtained by the digital camera is converted into X, Y and Z coordinate values using a computer. The body movement is extracted as a three-dimensional position coordinate value based on the movement of the color pointer.
Description
【0001】[0001]
本発明は広くモーション・キャプチャ・データの捕捉に関し、詳しくは、人ま
たは動物の動きがカラーマーカを用いて捕獲され、捕獲された動きに基づいて三
次元動きデータが制作されるモーション・キャプチャ・データの捕捉方法に関す
る。The present invention relates generally to capturing motion capture data, and more particularly, to capturing motion of a human or animal using color markers, and generating 3D motion data based on the captured motion. The capture method of.
【0002】[0002]
映画やゲーム産業の発展により三次元のモデリング、表現及びアニメーション
技術が開発され、自然な動きを作り出せる技術に関心が集まっている。With the development of the movie and game industries, three-dimensional modeling, expression, and animation technologies have been developed, and attention has been focused on the technology capable of creating natural movements.
【0003】
このような関心に答えるために、従来、人の動きを直接に捕獲し、捕獲された
動きを数値的に表現し、得られた動きデータをコンピュータに入力して、入力さ
れたデータに基づいてキャラクターなどを動かすモーション・キャプチャ技術が
提案されている。In order to respond to such an interest, conventionally, the movement of a person is directly captured, the captured movement is numerically expressed, the obtained movement data is input to a computer, and the input data is input. A motion capture technology for moving characters based on is proposed.
【0004】
このモーション・キャプチャ技術において最も重要なことは、自然な体の動き
に関するデータを迅速に捕捉することである。The most important thing in this motion capture technique is to quickly capture data about natural body movements.
【0005】
最も一般的なモーション・キャプチャ・システムはマーカないしセンサを人体
に取り付け、カメラによりピックアップされたセンサないしマーカの映像からの
出力データを分析し、この分析された結果によって人体のそれぞれの関節部の位
置及び方向を計測するものである。The most common motion capture system is to attach a marker or a sensor to a human body, analyze output data from an image of the sensor or the marker picked up by a camera, and analyze the output data of each joint of the human body. The position and direction of the section are measured.
【0006】
このような一般的なモーション・キャプチャ・システムは4つの種類に分類で
きる。すなわち、音響式、機械式、磁気式及び光学式である。これらの分類は、
用いられるマーカないしセンサの作動の種類によるものである。このうち、磁気
式と光学式のシステムは現在もっとも広く用いられている。Such a general motion capture system can be classified into four types. That is, acoustic type, mechanical type, magnetic type, and optical type. These classifications are
It depends on the type of operation of the marker or sensor used. Of these, magnetic and optical systems are currently most widely used.
【0007】
上記した種々の種類の公知のモーション・キャプチャ・システムは次の特性と
問題点を有している。The various types of known motion capture systems described above have the following characteristics and problems.
【0008】
音響式モーション・キャプチャ・システムは複数の音響式センサと3つの音響
式受信機を有している。この音響式センサは演者のそれぞれの関節に取り付けら
れて、音響波形を連続的に生成し、音響式受信機は前記の音響式センサから離れ
た位置に取り付けられて、センサにより生成される音響波形を受信する。このモ
ーション・キャプチャ・システムは、受信機がセンサから音響波形を受け取るの
に要する時間を用いて、音響式センサから音響式受信機までの距離を計算する。
三次元空間における各センサの位置は3つの受信機によりそれぞれ計算された値
を用いて三角測量法に基づいて得られる。この音響式システムは、サンプリング
の頻度が低く、同時に利用可能な音響ジェネレイターの数が少ない点が欠点であ
る。また、センサの寸法が大きいので、演者の動きが不自然となる。さらに、こ
の音響式モーション・キャプチャ・システムは、その音響式構成の特性により、
音響反射により顕著に影響される。An acoustic motion capture system has multiple acoustic sensors and three acoustic receivers. The acoustic sensor is attached to each joint of the performer to continuously generate an acoustic waveform, and the acoustic receiver is attached to a position away from the acoustic sensor to generate an acoustic waveform by the sensor. To receive. The motion capture system uses the time it takes for the receiver to receive the acoustic waveform from the sensor to calculate the distance from the acoustic sensor to the acoustic receiver.
The position of each sensor in the three-dimensional space is obtained based on triangulation using the values respectively calculated by the three receivers. This acoustic system suffers from low sampling frequency and a small number of acoustic generators available at the same time. In addition, the large size of the sensor makes the movement of the performer unnatural. In addition, this acoustic motion capture system, due to the characteristics of its acoustic configuration,
It is significantly affected by acoustic reflection.
【0009】
機械式のモーション・キャプチャ・システムはポテンションメータと、演者の
関節の動きを計測するスライダとの組み合わせからなっている。このモーション
・キャプチャ・システムには受信機がないので、環境面での妨害や悪影響のない
絶対測定手段を提供する。従って、音響式タイプのシステムと比べて、この機械
式システムは初期較正を希にしか必要とせず、高価なスタジオ装置を備える必要
がない。さらに、機械式システムは、他のモーション・キャプチャ・システムと
比べても廉価であり、サンプリング頻度が非常に高い。しかし、機械式モーショ
ン・キャプチャ・システムは、演者に機械式ユニットが取り付けられるので、場
合によっては演者の動きが不自然になるという欠点がある。また、機械式システ
ムの測定精度は演者のそれぞれの関節にメカニカルユニットをいかに正確に取り
付けるかに左右される。A mechanical motion capture system consists of a potentiometer in combination with a slider that measures the movement of the performer's joints. Since this motion capture system has no receiver, it provides an absolute measuring means without environmental disturbances or adverse effects. Thus, compared to acoustic type systems, this mechanical system rarely requires initial calibration and does not require expensive studio equipment. Furthermore, mechanical systems are cheaper than other motion capture systems and have a very high sampling frequency. However, the mechanical motion capture system has a drawback that the movement of the performer becomes unnatural because the mechanical unit is attached to the performer. Also, the measurement accuracy of the mechanical system depends on how accurately the mechanical unit is attached to each joint of the performer.
【0010】
磁気式のモーション・キャプチャ・システムは演者のそれぞれの関節に複数の
センサを付けて磁場を検知しようとするものである。演者が磁場ジェネレータの
周りを移動すると、センサが磁場の変化を検知する。そして、この磁場の変化は
、次に、動き測定のため空間値に変換される。センサ、磁場ジェネレータ及びシ
ステム本体はケーブルによりあるいは最近は無線で相互に接続されている。磁気
式のモーション・キャプチャ・システムは、コストが比較的安く、コストと成果
との比率において優れており、リアルタイムの処理が可能である点で有利である
。しかし、センサが有線の場合には、演者は、センサから彼もしくは彼女の体ま
でのケーブルの状態により限られた範囲でのみ移動しなければならない。その結
果、演者は彼もしくは彼女の複雑かつ迅速な動きを自然的に見せることが困難で
ある。ケーブルに代えて無線の送信機を用いる無線システムの場合にも、演者は
自然的に運動することができない。これは、彼もしくは彼女の体に取り付けられ
たトランスミッタの寸法が大きいからである。さらに、演者は、彼もしくは彼女
は磁場の領域内に存在していなければならないので、限られた範囲でしか動くこ
とができない。A magnetic motion capture system attempts to detect a magnetic field by attaching a plurality of sensors to each joint of the performer. As the performer moves around the magnetic field generator, sensors detect changes in the magnetic field. This change in magnetic field is then converted into a spatial value for motion measurement. The sensor, magnetic field generator and system body are interconnected by a cable or, more recently, wirelessly. Magnetic motion capture systems are advantageous in that they are relatively inexpensive, have a good cost-to-performance ratio, and are capable of real-time processing. However, if the sensor is wired, the performer must move only to a limited extent due to the condition of the cable from the sensor to his or her body. As a result, it is difficult for the performer to naturally display his or her complex and rapid movements. Even in the case of wireless systems that use wireless transmitters instead of cables, the performers are not able to exercise naturally. This is due to the large size of the transmitter attached to his or her body. Furthermore, the performer can only move within a limited range, as he or she must be in the area of the magnetic field.
【0011】
光学式のモーション・キャプチャ・システムは演者の主な関節にそれぞれ取り
付けられる赤外線を反射する複数の反射マーカと、それぞれ3〜16個の赤外線
フィルタが取り付けられた複数のカメラを有している。このカメラは反射された
マーカ映像の二次元座標を形成するようになされている。専用プログラムを用い
て、カメラにより捕獲された二次元座標を解析して、解析の結果として、そのコ
ーディネートを三次元の空間座標に変換する。この従来の光学式のモーション・
キャプチャ・システムは、キャラクタの動きの写実的な表現に重きを置いている
ために、その結果として、きわめて大きなデータ量とこれを処理するための高速
コンピュータを必要とする点が欠点である。The optical motion capture system has a plurality of infrared-reflecting reflective markers attached to the main joints of the performer and a plurality of cameras each having 3 to 16 infrared filters attached. There is. The camera is adapted to form the two-dimensional coordinates of the reflected marker image. A special program is used to analyze the two-dimensional coordinates captured by the camera, and as a result of the analysis, the coordinates are converted into three-dimensional spatial coordinates. This traditional optical motion
The disadvantage of capture systems is that they focus on the realistic representation of character movements, and as a result require a very large amount of data and a fast computer to process it.
【0012】[0012]
本発明は前記の問題点に鑑みてなされたものであり、本発明の目的は、動きに
応じて変化する座標値のみを抽出し且つ処理することにより減少した量のデータ
を処理することが可能なモーション・キャプチャ・データの捕捉方法を提供する
ところにある。The present invention has been made in view of the above problems, and an object of the present invention is to process a reduced amount of data by extracting and processing only coordinate values that change according to movement. There is a method for capturing various motion capture data.
【0013】
本発明の他の目的は、モーション・キャプチャのために初期較正を非常に簡単
かつ便利に実行することができるモーション・キャプチャデータの捕捉方法を提
供するところにある。Another object of the present invention is to provide a method for capturing motion capture data, in which initial calibration for motion capture can be performed very easily and conveniently.
【0014】
本発明のさらに他の目的は、処理されるデータ量が少なく、低価格のパーソナ
ルコンピュータ、カムコーダ及びUSBカメラを用いるが、複雑もしくは高価格
の周辺装置を用いる必要がなく、従って、コスト効率のよりよいシステムを実行
することができるモーション・キャプチャ・データの捕捉方法を提供するところ
に有る。Yet another object of the present invention is to use low cost personal computers, camcorders and USB cameras that process a small amount of data, but without the need for complex or expensive peripherals, thus reducing costs. There is a need to provide a method of capturing motion capture data that can implement a more efficient system.
【0015】
本発明の他の目的は、演者と動きデータ処理システムとの間がケーブルにより
接続されておらず、従って、演者の暴力アクションを含む動きを便利に抽出する
ことが可能なモーション・キャプチャ・データの捕捉方法を提供するものである
。Another object of the present invention is that there is no cable connection between the performer and the motion data processing system, and thus the motion capture capable of conveniently extracting the motion including the violent action of the performer. -Provides a method for capturing data.
【0016】
本発明のさらに他の目的は、周辺の照明、電波による妨害などの周辺の環境の
如何に拘わらず、演者の動きを正確に測定できるモーション・キャプチャ・デー
タの捕捉方法を提供するところにある。Still another object of the present invention is to provide a method of capturing motion capture data, which can accurately measure the motion of a performer regardless of the surrounding environment such as ambient lighting and radio wave interference. It is in.
【0017】[0017]
請求項1の発明は、モーション・キャプチャ・データの捕捉方法であって次の
工程を含む方法である。The invention of claim 1 is a method of capturing motion capture data, which includes the following steps.
【0018】
a) 異なるカラー値を有する複数のカラーポインタを演者の主たる体の部分
に取り付ける工程。A) Attaching a plurality of color pointers having different color values to the main body part of the performer.
【0019】 b) カメラ手段により前記演者の動きを撮る工程。[0019] b) a step of taking a picture of the movement of the performer by means of a camera.
【0020】
c) 前記カメラ手段によりピックアップされた映像データを三次元座標値(
X、Y及びZ)に変換し、変換された三次元座標値から、前記演者のそれぞれの
体の部分におけるカラーポインタの位置変化を検出し、さらに、検出された位置
変化から前記カラーポインタの動きに基づいて3次元位置座標値を抽出する工程
。C) The image data picked up by the camera means is converted into a three-dimensional coordinate value (
X, Y, and Z), detecting the position change of the color pointer in each body part of the performer from the converted three-dimensional coordinate value, and further detecting the position change of the color pointer from the detected position change. A step of extracting three-dimensional position coordinate values based on.
【0021】
請求項2の発明は、請求項1に記載のモーション・キャプチャ・データの捕捉
方法であって、前記カメラ手段が少なくとも3台のカメラであって、互いに等間
隔を介して離れて配された等角に構成されたカメラを有し、前記3台のカメラは
前記演者の周りに配されたフロントカメラ、左側カメラ及び右側カメラであり、
前記工程c)が次の工程を含むもの。A second aspect of the present invention is the method of capturing motion capture data according to the first aspect, wherein the camera means is at least three cameras, and the cameras are arranged at equal distances from each other. A plurality of cameras arranged equiangularly, the three cameras being a front camera, a left camera and a right camera arranged around the performer,
The step c) includes the following steps.
【0022】
垂直動き(Z座標)データを前記3台のカメラの全てから捕捉し、前記フ
ロントカメラから水平動き(X座標)データを捕捉し、捕捉された水平方向デー
タ及び前記左右のカメラから得られたデータについて所定の計算アルゴリズムを
実行することにより前後方向の動きデータを捕捉する工程。Vertical movement (Z coordinate) data is captured from all three of the cameras, horizontal movement (X coordinate) data is captured from the front camera, and captured horizontal direction data and left and right cameras are obtained. Capturing forward and backward motion data by performing a predetermined calculation algorithm on the acquired data.
【0023】
前記カメラからの相補データについて平行計算演算法を実行することによ
り前記カメラのそれぞれのデッドゾーンに関するデータを捕捉し、捕捉したデッ
ドゾーン・データに基づいて三次元データを作成する工程。Capturing data for each dead zone of the camera by performing a parallel computing algorithm on complementary data from the camera and creating three-dimensional data based on the captured dead zone data.
【0024】
本発明によれば、コンピュータによる処理可能な形態において人または物体の
動きを記録できるモーション・キャプチャ・システムにおけるモーション・キャ
プチャ・データの捕捉方法を提供することによって、上記の目的及び他の目的を
解決することができる。この方法は様々な技術的な必要条件に基づいている。す
なわち、カラー抽出演算法、カラー位置追跡演算法、異なるカラー値を有する複
数のカラーマーカを用いて演者の動きを追跡する技術、USBカメラにより1秒
間に24〜30フレームの映像を認識するための映像処理技術、抽出された二次
元データを三次元データに変換する技術である。According to the present invention, there is provided a method for capturing motion capture data in a motion capture system capable of recording the movement of a person or an object in a form processable by a computer. The purpose can be solved. This method is based on various technical requirements. That is, a color extraction calculation method, a color position tracking calculation method, a technique of tracking the motion of the performer using a plurality of color markers having different color values, and a USB camera for recognizing 24 to 30 frames of video per second. It is a video processing technology and a technology that converts the extracted 2D data into 3D data.
【0025】
このモーション・キャプチャ技術は、キャラクタの動きを写実的に表現する前
に、キャラクタの動きに関するデータを捕捉する基本的なインターフェース機能
を有している。This motion capture technology has a basic interface function of capturing data relating to the movement of the character before realistically expressing the movement of the character.
【0026】
モーション・キャプチャ技術は一種のインターフェース方法であることからす
ると、本発明は演者の動きに関するデータを容易に捕捉することができる方法を
提案するものである。Given that the motion capture technique is a kind of interface method, the present invention proposes a method that can easily capture data regarding the movement of the performer.
【0027】[0027]
図1と図2に示すように、異なるカラー値を有する複数のカラーポインタがそ
れぞれデータ付与者の体の主たる関節部分と先端部分に取り付けられ、3台また
は4台以上のカメラが等間隔をおいて互いに離れて配されており、このようにし
て、データ付与者のアクションと動きとを撮る。パーソナルコンピュータを用い
て、カメラによりピックアップされた映像データを三次元の座標値(X、Y及び
Z)に変換し、この変換された三次元座標値から、データ付与者のそれぞれの体
の部分におけるカラーポインタの位置変化を検出し、検出された位置変化をモー
ション・キャプチャ・データとして格納する。As shown in FIG. 1 and FIG. 2, a plurality of color pointers having different color values are attached to the main joint part and the tip part of the body of the data grantor, and three or four or more cameras are arranged at equal intervals. And are separated from each other, and in this way, the actions and movements of the data grantor are photographed. Using a personal computer, the video data picked up by the camera is converted into three-dimensional coordinate values (X, Y, and Z), and from the converted three-dimensional coordinate values, the body part of each person of the data grantor is converted. The position change of the color pointer is detected, and the detected position change is stored as motion capture data.
【0028】
コンピュータにより映像信号をカメラからバッファを介して受け取り、この受
け取られた映像信号から、データ付与者の体のそれぞれの部分におけるカラーポ
インタの動きに関する位置座標値のみを抽出する。コンピュータは映像信号の全
て抽出し且つ格納するのではなく、それぞれの体の部分におけるカラーポインタ
の動きに応じて変化する位置座標値のみを抽出し且つ格納するものであるので、
処理されるべきデータ量は減少し、その結果、処理速度の向上となる。The computer receives the video signal from the camera via the buffer, and extracts only the position coordinate value relating to the movement of the color pointer in each part of the body of the data grantor from the received video signal. Since the computer does not extract and store all the video signals but only the position coordinate values that change according to the movement of the color pointer in each body part,
The amount of data to be processed is reduced, resulting in increased processing speed.
【0029】
次に、本発明により、動きを捕獲し且つ捕獲された映像から三次元の動きデー
タを抽出する手順について説明する。Next, a procedure for capturing motion and extracting three-dimensional motion data from the captured image according to the present invention will be described.
【0030】
次の表1は、256色のカラーのうち基本的な13色のカラーを演者の体の主
たる部分に割り当てた一例を示している。The following Table 1 shows an example in which the basic 13 colors of the 256 colors are assigned to the main part of the performer's body.
【0031】[0031]
【表1】
解像度を160画素×120画素に、カラー深度を16ビットに、フレーム数
を30フレーム/秒に設定した。また、Nはカラーポインタの数を表している。[Table 1] The resolution was set to 160 pixels × 120 pixels, the color depth was set to 16 bits, and the number of frames was set to 30 frames / second. N represents the number of color pointers.
【0032】
上記の状態において、カメラは、3原色要素、すなわち、赤、緑及び青要素を
入力された映像から抽出し、これをパーソナルコンピュータ(PC)に転送する
。In the above state, the camera extracts the three primary color components, that is, the red, green and blue components from the input image and transfers them to the personal computer (PC).
【0033】
このとき、カメラからPCに転送されるデータは160画素×120画素×1
6ビット×30フレーム/秒=9216000bits/秒である。なぜなら、これ
は、解像度、カラー深度及びフレーム数)の積として表すことができるからであ
る。この値をバイトに関して計算することにより、得られる結果は115200
0bites/秒である。さらに、これをキロバイトに関して計算することにより、
得られる結果は1152Kbytes/秒である。結論として、1秒間に1152Kb
ytesのデータをカメラからコンピュータに転送することとなる。At this time, the data transferred from the camera to the PC is 160 pixels × 120 pixels × 1
6 bits × 30 frames / second = 9216000 bits / second. Because it can be expressed as the product of resolution, color depth and number of frames). By calculating this value in bytes, the result obtained is 115200.
0 bits / sec. Furthermore, by calculating this in kilobytes,
The result obtained is 1152 Kbytes / sec. In conclusion, 1152Kb per second
The ytes data will be transferred from the camera to the computer.
【0034】
上記のようにして計算されるデータ量が赤、緑及び青の要素の各々と関連して
いるので、3つの要素の全てにつき捕獲されたデータ量は、前記の計算されたデ
ータ量の3倍である。すなわち、1152000×3=3456000bytes/
秒である。これをメガバイトに関して計算すると、結果は、3.456Mbytes/
秒である。最終的に、コンピュータにより処理されるべきデータの総量は、赤、
緑及び青要素の全てにつき捕獲されたデータ量にカラーポインタの数を乗じるこ
とにより得られる。Since the amount of data calculated as described above is associated with each of the red, green and blue elements, the amount of data captured for all three elements is the calculated amount of data described above. Is three times. That is, 1152000 × 3 = 3456000 bytes /
Seconds. Calculating this for megabytes, the result is 3.456Mbytes /
Seconds. Finally, the total amount of data to be processed by the computer is red,
Obtained by multiplying the amount of data captured for all green and blue components by the number of color pointers.
【0035】
すなわち、コンピュータにおいて処理されるべきデータの総量は、N=1であ
る場合には、3.456Mbytes/秒であり、N=10であれば34.56Mbytes
/秒である。That is, the total amount of data to be processed in the computer is 3.456 Mbytes / sec when N = 1 and 34.56 Mbytes when N = 10.
/ Sec.
【0036】
図1から9に示す座標系は、コンピュータ三次元(3D)グラフィック及びア
ニメーション技術において利用可能な絶対座標系である。図1から9に示す座標
系の正面図において、Z軸は上下方向に配されており、X軸は左右方向に配され
ており、Y軸は前後方向に配されている。The coordinate system shown in FIGS. 1-9 is an absolute coordinate system that can be used in computer three-dimensional (3D) graphics and animation techniques. In the front view of the coordinate system shown in FIGS. 1 to 9, the Z-axis is arranged in the vertical direction, the X-axis is arranged in the left-right direction, and the Y-axis is arranged in the front-rear direction.
【0037】
以下において、図面に従って、本発明によるモーション・キャプチャ・データ
の捕捉方法について詳しく説明する。Hereinafter, a method of capturing motion capture data according to the present invention will be described in detail with reference to the drawings.
【0038】
まず、3台または4台以上のカメラがデータ付与者のアクション及び動きを撮
り、得られた映像をそれぞれ関連するコンピュータに転送する。コンピュータは
、関連するカメラから転送された映像から、データ付与者の体の主たる関節部分
及び先端部分にそれぞれ取り付けられた複数のカラーポインタの位置変化を抽出
し、このように抽出された位置変化から2次元の動きデータ座標値を得る。First, three or four or more cameras capture the actions and movements of the data grantor, and transfer the obtained images to their associated computers. The computer extracts the position changes of the plurality of color pointers respectively attached to the main joint part and the tip part of the data grantor's body from the image transferred from the related camera, and from the position changes extracted in this way. Obtain two-dimensional motion data coordinate values.
【0039】
次に、コンピュータは得られた2次元の動きデータ座標値をインターナルネッ
トワークを介してサーバコンピュータに転送する。このサーバコンピュータは、
次に、転送された座標値を、三次元の合成機能エンジンに基づく合成プログラム
により、三次元モーション・キャプチャ・データに変換する。Next, the computer transfers the obtained two-dimensional motion data coordinate value to the server computer via the internal network. This server computer
Next, the transferred coordinate values are converted into three-dimensional motion capture data by a combining program based on a three-dimensional combining function engine.
【0040】
図1は、本発明によるモーション・キャプチャ・データの捕捉方法を実行する
システムの構成を示す。図示するように、3台または4台以上のカメラがデータ
付与者の動きを撮り、その結果得られた映像をそれぞれ関連するコンピュータに
転送する。コンピュータは、それぞれ対応するカメラから転送された映像を前記
の計算方法により処理して、処理された結果をインターナルネットワークを介し
てサーバコンピュータに転送する。このサーバコンピュータは前記のコンピュー
タから転送されたデータに基づいて3次元のモーション・キャプチャ・データを
得る。FIG. 1 shows the configuration of a system for executing the method for capturing motion capture data according to the present invention. As shown, three or four or more cameras capture the motion of the data grantor and transfer the resulting images to their associated computers. The computer processes the images transferred from the corresponding cameras by the above-described calculation method, and transfers the processed results to the server computer via the internal network. This server computer obtains three-dimensional motion capture data based on the data transferred from the computer.
【0041】
図2は、本発明による3次元データを捕捉するためのカメラ構成を示している
。図示するように、3台のカメラ、すなわち、フロントカメラ100、左側カメ
ラ200及び右側カメラ300が物体またはデータ付与者の周りに配設されてい
る。FIG. 2 shows a camera configuration for capturing three-dimensional data according to the present invention. As shown in the figure, three cameras, that is, a front camera 100, a left camera 200, and a right camera 300 are arranged around an object or a data giver.
【0042】
前記の3台のカメラは次のように等角度で配されている。すなわち、これらカ
メラは120°の一定の角度でもって互いに間隔をおいて配されている。この3
台のカメラの視野の交点の周りに所定の範囲でバーチャルエリアが設定される。
これはコンピュータにより座標系として認識される。The above-mentioned three cameras are arranged at equal angles as follows. That is, the cameras are spaced apart from each other at a constant angle of 120 °. This 3
A virtual area is set in a predetermined range around the intersection of the fields of view of the cameras.
This is recognized as a coordinate system by the computer.
【0043】
3台のカメラが図1に示すように配設されている場合には、これらカメラは、
物体の全ての側において、Z座標値を得る。物体のX及びY座標値は、次のよう
にして得られる。すなわち、フロントカメラ100により得られたX座標値の変
化と左右両側のカメラ200及び300により得られた+X,−Y,+Y及び−
Yデータについて適切な計算アルゴリズムを実行することによって得られる。If three cameras are arranged as shown in FIG. 1, these cameras are
Get the Z coordinate values on all sides of the object. The X and Y coordinate values of the object are obtained as follows. That is, a change in the X coordinate value obtained by the front camera 100 and + X, −Y, + Y and − obtained by the cameras 200 and 300 on the left and right sides.
Obtained by running the appropriate calculation algorithm on the Y data.
【0044】
図3は、図2におけるフロントカメラ100によるX及びZ座標値の検出状態
を図示するものである。物体の正面側にあるポインタのすべてのX及びZ位置座
標値がフロントカメラ100により検出され、次に、左右両側のカメラ200及
び300により検出されたデータとの比較のために参照値として与えられる。フ
ロントカメラ100により検出されたX及びZ座標値は、また、他のカメラによ
り検出されたデータの補正のための参照値として与えられる。FIG. 3 illustrates the detection state of the X and Z coordinate values by the front camera 100 in FIG. All X and Z position coordinate values of the pointer on the front side of the object are detected by the front camera 100 and then given as reference values for comparison with the data detected by the left and right cameras 200 and 300. . The X and Z coordinate values detected by the front camera 100 are also provided as reference values for correction of the data detected by other cameras.
【0045】
図4は、図2における左側カメラ200によるX(30°),Y(60°)及
びZ座標値の検出状態を示す概略図である。物体の左側及び後ろ側にあるポイン
タのZ座標値及びX及びY座標値が左側カメラ200を介して検出される。検出
されたX及びY座標値は検出されたZ座標値に基づいて回転させられ、次に、フ
ロントカメラ100及び右側カメラ300により検出されたデータとの比較のた
めに参照値として与えられる。FIG. 4 is a schematic diagram showing a detection state of X (30 °), Y (60 °) and Z coordinate values by the left camera 200 in FIG. The Z coordinate values and the X and Y coordinate values of the pointers on the left side and the back side of the object are detected via the left camera 200. The detected X and Y coordinate values are rotated based on the detected Z coordinate values and then provided as reference values for comparison with the data detected by the front camera 100 and the right camera 300.
【0046】
図5は、図2における右側カメラ300によるY(60°),X(30°)及
びZ座標値の検出状態を示す概略図である。物体の右側及び後ろ側にあるポイン
タのZ座標値及びX及びY座標値が右側カメラ300を介して検出される。検出
されたX及びY座標値は検出されたZ座標値に基づいて回転させられ、次に、フ
ロントカメラ100及び左側カメラ200により検出されたデータとの比較のた
めに参照値として与えられる。FIG. 5 is a schematic diagram showing a detection state of Y (60 °), X (30 °) and Z coordinate values by the right camera 300 in FIG. The Z coordinate values and the X and Y coordinate values of the pointers on the right side and the rear side of the object are detected via the right camera 300. The detected X and Y coordinate values are rotated based on the detected Z coordinate values and then provided as reference values for comparison with the data detected by the front camera 100 and the left camera 200.
【0047】
図6は、その動きを捕獲するべき物体の物体のバーチャルモーションエリア(
X及びY座標系)を示す図である。このバーチャルエリアは、3台のカメラ10
0、200及び300の視野の交点の周りに、一定の範囲で設定されており、物
体のすべての動きがこのバーチャルエリア内に限定されている。各カメラのデッ
ドゾーン(死角)は、他の2台のカメラの交錯する視野を介して検出され、その
正確な座標値が演算の証明と補正により得られる。FIG. 6 shows a virtual motion area of an object of an object whose movement is to be captured (
It is a figure showing (X and Y coordinate system). This virtual area has three cameras 10
A constant range is set around the intersection of the 0, 200 and 300 fields of view, limiting all movement of the object to within this virtual area. The dead zone of each camera is detected through the intersecting field of view of the other two cameras, and the accurate coordinate values are obtained by proof of the calculation and correction.
【0048】 3台のカメラのデッドゾーンは、図7〜図9にそれぞれ示されている。[0048] The dead zones for the three cameras are shown in FIGS. 7-9, respectively.
【0049】
図7のフロントカメラ100のデッドゾーン内に位置するポインタの座標値は
、左右のカメラ200及び300により検出されたデータと比較され且つこの比
較された結果に基づいてフロントカメラ100により検出されたデータを証明し
かつ補正することにより決定される。The coordinate values of the pointer located in the dead zone of the front camera 100 of FIG. 7 are compared with the data detected by the left and right cameras 200 and 300, and detected by the front camera 100 based on the result of the comparison. Determined by proving and correcting the data provided.
【0050】
図8に示す左側カメラ200のデッドゾーン内にあるポインタの座標値は、フ
ロント及び右側のカメラ100及び300により検出されたデータと互いに比較
され且つこの比較された結果に基づいて左側カメラ200により検出されたデー
タを証明しかつ補正することにより決定される。The coordinate values of the pointers in the dead zone of the left camera 200 shown in FIG. 8 are compared with the data detected by the front and right cameras 100 and 300, and the left camera is based on the result of the comparison. Determined by proving and correcting the data detected by 200.
【0051】
図9における右側カメラ300のデッドゾーン内に位置するポインタの座標値
はフロント側及び左側カメラ100及び200により検出されたデータと互いに
比較され且つこの比較された結果に基づいて右側カメラ300により検出された
データを証明しかつ補正することにより決定される。The coordinate values of the pointer located in the dead zone of the right camera 300 in FIG. 9 are compared with the data detected by the front and left cameras 100 and 200, and the right camera 300 is based on the result of the comparison. Is determined by proving and correcting the data detected by.
【0052】[0052]
前記の記載から明らかなように、本発明は演者の動きを表示するカラーポイン
タデータのみを抽出し且つ処理することが可能なモーション・キャプチャ・デー
タの捕捉方法を提供する。従って、処理されるべきデータ量は極めて少なくなり
、その結果、映像全体を処理する場合に比べて処理速度が向上する。さらに、低
価格のパーソナルコンピュータ、カムコーダ及びUSBカメラを用いることによ
り、複雑な高価格の周辺機器を用いる必要がなくなり、その結果、いずれの場所
においてもモーション・キャプチャのための初期較正を非常に簡単かつ便利に行
うことが可能なコスト効率のよりよいシステムを実現することができる。As is apparent from the above description, the present invention provides a method of capturing motion capture data that is capable of extracting and processing only color pointer data that is indicative of a performer's movements. Therefore, the amount of data to be processed is extremely small, and as a result, the processing speed is improved as compared with the case of processing the entire video. In addition, the use of low-cost personal computers, camcorders and USB cameras eliminates the need for complex and expensive peripherals, resulting in very easy initial calibration for motion capture anywhere. Further, it is possible to realize a more cost-effective system that can be conveniently performed.
【0053】
さらに、演者と動きデータ処理システムとの間にはケーブルの接続がなく、無
線の接続のみであり、従って、演者が動きうる領域には限界がなく、そのため、
暴力アクションを含む演者の動きを便利に抽出することが可能である。Furthermore, there is no cable connection between the performer and the motion data processing system, only a wireless connection, so there is no limit to the area in which the performer can move, and therefore
It is possible to conveniently extract the movement of the performer, including the violent action.
【0054】
さらに、本システムの全体的な実行は、ハードウエアに基づく通常の実行の改
良に比べて、単にソフトウエアをバージョンアップすることにより簡単に達成す
ることができる。Furthermore, the overall execution of the system can be easily achieved by simply upgrading the software, compared to the improvement of normal execution based on hardware.
【0055】
さらに、これらの特徴の結果として、本発明はエンターテイメント分野、バー
チャルリアリティ分野及び他の映像制作分野において広く利用することができる
。Further, as a result of these features, the present invention can be widely used in entertainment, virtual reality and other video production fields.
【0056】
上記のところでは、本発明の好ましい実施態様を例示として記載したが、当業
者は、添付の請求の範囲において記載した本発明の範囲及び精神から離れること
なく、本発明につき様々の変更、追加及び代替をなしうることを理解するであろ
う。While the preferred embodiments of the invention have been described above by way of example, those skilled in the art can make various modifications to the invention without departing from the scope and spirit of the invention described in the appended claims. It will be understood that additions and substitutions can be made.
【図1】
本発明によるモーション・キャプチャ・データの捕捉方法を実行するシステム
の構成を示す。FIG. 1 shows the configuration of a system for executing a method for capturing motion capture data according to the present invention.
【図2】 本発明による三次元データの捕捉のためのカメラ構成を示す。[Fig. 2] 3 illustrates a camera configuration for capturing 3D data according to the present invention.
【図3】
図2におけるフロントカメラによるX及びZ座標値の検出状態の概略説明図で
ある。FIG. 3 is a schematic explanatory diagram of a detection state of X and Z coordinate values by the front camera in FIG.
【図4】
図2における左側カメラによるX、Y及びZ座標値の検出状態を示す概略図で
ある。FIG. 4 is a schematic diagram showing a detection state of X, Y, and Z coordinate values by the left camera in FIG.
【図5】
図2における右側カメラによるX、Y及びZ座標値の検出状態を示す概略図で
ある。5 is a schematic diagram showing a detection state of X, Y, and Z coordinate values by the right camera in FIG.
【図6】 動きが捕獲されるべき物体のバーチャルモーション領域を示す。[Figure 6] 3 illustrates a virtual motion region of an object whose movement is to be captured.
【図7】
図2のフロント側のカメラのデッドゾーンを示すとともに、このデッドゾーン
におけるデータの検出状態を示す。FIG. 7 shows a dead zone of the front camera in FIG. 2 and a data detection state in this dead zone.
【図8】
図2の左側のカメラのそれぞれのデッドゾーンを示すとともに、このデッドゾ
ーンにおけるデータの検出状態を示す。FIG. 8 shows respective dead zones of the camera on the left side of FIG. 2 and shows a data detection state in the dead zones.
【図9】
図2の右側のカメラのそれぞれのデッドゾーンを示すとともに、このデッドゾ
ーンにおけるデータの検出状態を示す。FIG. 9 shows respective dead zones of the camera on the right side of FIG. 2 and shows a data detection state in the dead zones.
100 フロント側カメラ 200 左側カメラ 300 右側カメラ 100 front camera 200 Left camera 300 right camera
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,MZ,SD,SL,SZ,TZ,UG ,ZW),EA(AM,AZ,BY,KG,KZ,MD, RU,TJ,TM),AE,AG,AL,AM,AT, AU,AZ,BA,BB,BG,BR,BY,BZ,C A,CH,CN,CR,CU,CZ,DE,DK,DM ,DZ,EE,ES,FI,GB,GD,GE,GH, GM,HR,HU,ID,IL,IN,IS,JP,K E,KG,KP,KZ,LC,LK,LR,LS,LT ,LU,LV,MA,MD,MG,MK,MN,MW, MX,MZ,NO,NZ,PL,PT,RO,RU,S D,SE,SG,SI,SK,SL,TJ,TM,TR ,TT,TZ,UA,UG,US,UZ,VN,YU, ZA,ZW 【要約の続き】 て抽出される。─────────────────────────────────────────────────── ─── Continued front page (81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE), OA (BF, BJ , CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, K E, LS, MW, MZ, SD, SL, SZ, TZ, UG , ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, BZ, C A, CH, CN, CR, CU, CZ, DE, DK, DM , DZ, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, K E, KG, KP, KZ, LC, LK, LR, LS, LT , LU, LV, MA, MD, MG, MK, MN, MW, MX, MZ, NO, NZ, PL, PT, RO, RU, S D, SE, SG, SI, SK, SL, TJ, TM, TR , TT, TZ, UA, UG, US, UZ, VN, YU, ZA, ZW [Continued summary] Extracted.
Claims (2)
に取り付ける工程。 b) カメラ手段により前記演者の動きを撮る工程。 c) 前記カメラ手段によりピックアップされた映像データを三次元座標値(
X、Y及びZ)に変換し、変換された三次元座標値から、前記演者のそれぞれの
体の部分におけるカラーポインタの位置変化を検出し、さらに、検出された位置
変化から前記カラーポインタの動きに基づいて3次元位置座標値を抽出する工程
。1. A method of capturing motion capture data, the method comprising the steps of: a) Attaching multiple color pointers with different color values to the main body part of the performer. b) a step of taking a picture of the movement of the performer by means of camera. c) The image data picked up by the camera means is converted into a three-dimensional coordinate value (
X, Y, and Z), detecting the position change of the color pointer in each body part of the performer from the converted three-dimensional coordinate value, and further detecting the movement of the color pointer from the detected position change A step of extracting three-dimensional position coordinate values based on.
カメラ手段が少なくとも3台のカメラであって、互いに等間隔を介して離れて配
された等角に構成されたカメラを有し、前記3台のカメラは前記演者の周りに配
されたフロントカメラ、左側カメラ及び右側カメラであり、前記工程c)が次の
工程を含むもの。 垂直動き(Z座標)データを前記3台のカメラの全てから捕捉し、前記フ
ロントカメラから水平動き(X座標)データを捕捉し、捕捉された水平方向デー
タ及び前記左右のカメラから得られたデータについて所定の計算アルゴリズムを
実行することにより前後方向の動きデータを捕捉する工程。 前記カメラからの相補データについて平行計算演算法を実行することによ
り前記カメラのそれぞれのデッドゾーンに関するデータを捕捉し、捕捉したデッ
ドゾーン・データに基づいて三次元データを作成する工程。2. The method of capturing motion capture data according to claim 1, wherein the camera means is at least three cameras, and the cameras are equiangularly arranged at equal intervals. A camera having a structure, wherein the three cameras are a front camera, a left camera and a right camera arranged around the performer, and the step c) includes the following steps. Vertical motion (Z coordinate) data is captured from all three cameras, horizontal motion (X coordinate) data is captured from the front camera, captured horizontal data and data obtained from the left and right cameras. Capturing forward and backward motion data by executing a predetermined calculation algorithm for. Capturing data for each dead zone of the camera by performing a parallel computing algorithm on complementary data from the camera and creating three-dimensional data based on the captured dead zone data.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1999/049880 | 1999-11-11 | ||
KR1019990049880A KR100361462B1 (en) | 1999-11-11 | 1999-11-11 | Method for Acquisition of Motion Capture Data |
PCT/KR2000/001158 WO2001035208A1 (en) | 1999-11-11 | 2000-10-17 | Method for acquisition of motion capture data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003514298A true JP2003514298A (en) | 2003-04-15 |
Family
ID=19619529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001536676A Pending JP2003514298A (en) | 1999-11-11 | 2000-10-17 | How to capture motion capture data |
Country Status (6)
Country | Link |
---|---|
JP (1) | JP2003514298A (en) |
KR (1) | KR100361462B1 (en) |
CN (1) | CN1340170A (en) |
AU (1) | AU7967200A (en) |
DE (1) | DE10083785T1 (en) |
WO (1) | WO2001035208A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350578A (en) * | 2005-06-14 | 2006-12-28 | Fuji Xerox Co Ltd | Image analysis device |
JP2011503673A (en) * | 2006-11-01 | 2011-01-27 | ソニー株式会社 | Segment tracking in motion pictures |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100362383B1 (en) * | 1999-12-27 | 2002-11-23 | 한국전자통신연구원 | Post-processing method for motion captured data using 3D interface |
KR20020017576A (en) * | 2000-08-31 | 2002-03-07 | 이준서 | System and method for motion capture using camera image |
KR20020095867A (en) * | 2001-06-16 | 2002-12-28 | 이희만 | A Motion Capture System using Color Wavelength |
KR20030065620A (en) * | 2002-01-30 | 2003-08-09 | 대한민국(전남대학교총장) | apparatus and method for recognizing action of virtual game system |
US6831603B2 (en) | 2002-03-12 | 2004-12-14 | Menache, Llc | Motion tracking system and method |
US8454428B2 (en) | 2002-09-12 | 2013-06-04 | Wms Gaming Inc. | Gaming machine performing real-time 3D rendering of gaming events |
US7009561B2 (en) | 2003-03-11 | 2006-03-07 | Menache, Llp | Radio frequency motion tracking system and method |
US7573480B2 (en) * | 2003-05-01 | 2009-08-11 | Sony Corporation | System and method for capturing facial and body motion |
CN100361070C (en) * | 2004-10-29 | 2008-01-09 | 中国科学院计算技术研究所 | skeleton motion extraction method by means of optical-based motion capture data |
US7580546B2 (en) | 2004-12-09 | 2009-08-25 | Electronics And Telecommunications Research Institute | Marker-free motion capture apparatus and method for correcting tracking error |
KR100763578B1 (en) * | 2005-12-01 | 2007-10-04 | 한국전자통신연구원 | Method for Estimating 3-Dimensional Position of Human's Joint using Sphere Projecting Technique |
US7869646B2 (en) | 2005-12-01 | 2011-01-11 | Electronics And Telecommunications Research Institute | Method for estimating three-dimensional position of human joint using sphere projecting technique |
KR100753965B1 (en) * | 2006-04-07 | 2007-08-31 | (주)아이토닉 | Posture capture system of puppet and method thereof |
CN101581966B (en) * | 2008-05-16 | 2011-03-16 | 英业达股份有限公司 | Method and system for operating personal computer by utilizing action recognition |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US20120253517A1 (en) * | 2009-12-24 | 2012-10-04 | Rottelaillu (House Of Bread) | Necktie Personal-Extender/Environment-Integrator and Method for Super-Augmenting a Persona to manifest a Pan-Environment Super-Cyborg for Global Governance |
CN101982836B (en) * | 2010-10-14 | 2012-02-29 | 西北工业大学 | Mark point identification initializing method based on principal components analysis (PCA) in motion capture system |
CN102622500A (en) * | 2011-01-30 | 2012-08-01 | 德信互动科技(北京)有限公司 | Game achieving system |
KR101465087B1 (en) * | 2012-11-14 | 2014-11-26 | 포항공과대학교 산학협력단 | Analyzing method of trajectory and behavior pattern of a living organism |
CN105118343A (en) * | 2015-09-15 | 2015-12-02 | 北京瑞盖科技有限公司 | Tennis training examination and evaluation system and training method |
KR101968420B1 (en) * | 2017-11-24 | 2019-04-11 | 이화여자대학교 산학협력단 | System and Method for Customized Game Production Based on User Body Motion and Recording Medium thereof |
CN108742841B (en) * | 2018-05-30 | 2020-11-06 | 上海交通大学 | Tool real-time positioning device of multi-position tracker |
CN109186455A (en) * | 2018-09-06 | 2019-01-11 | 安徽师范大学 | A kind of device of view-based access control model measurement dynamic object three-dimensional coordinate |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0656352B2 (en) * | 1987-11-17 | 1994-07-27 | 安全自動車株式会社 | Detecting device |
JP2941412B2 (en) * | 1990-11-26 | 1999-08-25 | 株式会社東芝 | 3D measurement method |
US5546189A (en) * | 1994-05-19 | 1996-08-13 | View Engineering, Inc. | Triangulation-based 3D imaging and processing method and system |
US6041652A (en) * | 1998-07-31 | 2000-03-28 | Litton Systems Inc. | Multisensor rotor flexure mounting |
-
1999
- 1999-11-11 KR KR1019990049880A patent/KR100361462B1/en not_active IP Right Cessation
-
2000
- 2000-10-17 DE DE10083785T patent/DE10083785T1/en not_active Withdrawn
- 2000-10-17 CN CN00803619A patent/CN1340170A/en active Pending
- 2000-10-17 JP JP2001536676A patent/JP2003514298A/en active Pending
- 2000-10-17 WO PCT/KR2000/001158 patent/WO2001035208A1/en active Application Filing
- 2000-10-17 AU AU79672/00A patent/AU7967200A/en not_active Abandoned
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350578A (en) * | 2005-06-14 | 2006-12-28 | Fuji Xerox Co Ltd | Image analysis device |
JP4687265B2 (en) * | 2005-06-14 | 2011-05-25 | 富士ゼロックス株式会社 | Image analyzer |
JP2011503673A (en) * | 2006-11-01 | 2011-01-27 | ソニー株式会社 | Segment tracking in motion pictures |
Also Published As
Publication number | Publication date |
---|---|
KR100361462B1 (en) | 2002-11-21 |
CN1340170A (en) | 2002-03-13 |
AU7967200A (en) | 2001-06-06 |
WO2001035208A1 (en) | 2001-05-17 |
KR20000017755A (en) | 2000-04-06 |
DE10083785T1 (en) | 2001-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003514298A (en) | How to capture motion capture data | |
State et al. | Superior augmented reality registration by integrating landmark tracking and magnetic tracking | |
JP2021105887A (en) | Three-dimensional pose obtaining method and device | |
CN111353355B (en) | Motion tracking system and method | |
CN102171726B (en) | Information processing device, information processing method, program, and information storage medium | |
JP2008176509A (en) | Information processing device and method | |
CN104252712A (en) | Image generating apparatus and image generating method | |
JP2017187861A (en) | Information processor and control method thereof | |
CN206021358U (en) | A kind of image objects device and its robot | |
CN109242887A (en) | A kind of real-time body's upper limks movements method for catching based on multiple-camera and IMU | |
CN113239797A (en) | Human body action recognition method, device and system | |
JP2008015573A (en) | Image processor, image processing method and image monitoring system | |
KR20020017576A (en) | System and method for motion capture using camera image | |
CN114722913A (en) | Attitude detection method and apparatus, electronic device, and computer-readable storage medium | |
CN114627186A (en) | Distance measuring method and distance measuring device | |
KR20020028578A (en) | Method of displaying and evaluating motion data using in motion game apparatus | |
KR102097033B1 (en) | System for estimating motion by sensing interaction of point body | |
EP1071045A1 (en) | Device and process for displaying an image on a screen according to a perspective that depends on the user's position | |
KR102475470B1 (en) | System of obtaining athletics video utilizing drone and method of obtainig athletics video utilizing drone | |
KR101850134B1 (en) | Method and apparatus for generating 3d motion model | |
CN115223240A (en) | Motion real-time counting method and system based on dynamic time warping algorithm | |
CN106408633A (en) | Object imaging method | |
CN2655339Y (en) | Apparatus for acquiring football sports trace when simulating football shooting at goal | |
CN112416124A (en) | Dance posture feedback method and device | |
JP2000321044A (en) | Motion capturing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040106 |