JP4761670B2 - Moving stereo model generation apparatus and method - Google Patents

Moving stereo model generation apparatus and method Download PDF

Info

Publication number
JP4761670B2
JP4761670B2 JP2001255670A JP2001255670A JP4761670B2 JP 4761670 B2 JP4761670 B2 JP 4761670B2 JP 2001255670 A JP2001255670 A JP 2001255670A JP 2001255670 A JP2001255670 A JP 2001255670A JP 4761670 B2 JP4761670 B2 JP 4761670B2
Authority
JP
Japan
Prior art keywords
data
dimensional
motion
skeleton
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001255670A
Other languages
Japanese (ja)
Other versions
JP2003061936A (en
Inventor
幸則 松本
恒太 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001255670A priority Critical patent/JP4761670B2/en
Publication of JP2003061936A publication Critical patent/JP2003061936A/en
Application granted granted Critical
Publication of JP4761670B2 publication Critical patent/JP4761670B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は動立体モデル作成装置及び方法、特に動く対象物についての複数枚の画像データから対象物の動き立体モデル(三次元モデル)を生成する三次元モデリング技術に関する。
【0002】
【従来の技術】
従来より、動きデータを獲得する方法として、モーションキャプチャシステムが実用化されており、映画製作などに応用されている。これは、主に人の動きデータを獲得することを目的とし、人の関節にマーカあるいはセンサをつけ、人の動きに応じてその位置を検出することで、人の骨格の動きデータを得るものである。
【0003】
より具体的には、モーションキャプチャシステムは2種類に分けられ、磁気センサを用いるもの、および光学的手法によるものが存在する。磁気センサを用いるものは、関節に磁気センサを取り付け、空間内の磁場に基づいて各センサは自身の位置を得る。人間の動きにしたがって、各センサの位置が変わり、これが関節の動きデータとして獲得されるものである。但し、この手法では、各センサにケーブルを接続する必要があり、これが人の動きを不自由にするという問題がある。また、磁場を乱す環境では正確に動きデータが得られないと言う問題もある。
【0004】
一方、光学式では、たとえばLEDを関節にマーカとして取り付ける。これを複数のカメラにて観測し、三角測量原理で各LEDの位置を検出する。但し、この手法では、データ入力空間を暗めにしなければならず、また、リアルタイムでの動きデータ獲得は難しいと言う問題がある。
【0005】
さらに、磁気式あるいは光学式のいずれの方法においても、動きデータのみ獲得するものであり、動いている物体(人)自体の三次元形状データを得るものではない。
【0006】
【発明が解決しようとする課題】
これに対し、CMU(カーネギーメロン大学)では、複数カメラを配置した空間内で人が動作し、ステレオ法によって対象物体(人)の動き付き三次元データを得る方法を発表している。
【0007】
しかしながら、この方法でも、動き付き三次元データは得られるものの、
(1)受動的ステレオ法に基づいているため、対象物に十分なテクスチャ情報がない場合、きわめて精度の悪い形状データとなる
(2)三次元データの羅列を得ているため、獲得データ量はきわめて多大となるという問題を有しており、実際の応用分野に適切なデータを提供しているとは言えない。
【0008】
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる装置及び方法を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明は、三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成装置であって、動きのある前記三次元物体に対してパタン光を照射する照射手段と、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するパタン光受光手段と、前記三次元物体を撮影することにより前記色彩データを取得する撮影手段と、同時刻に取得された前記三次元形状データと前記色彩データとを合成する処理手段とを有し、前記パタン光は、前記撮影手段の感度波長以外の波長を有することを特徴とする。
【0010】
本装置において、前記パタン光は、ランダムパタン光であることが好適である。また、本装置において、前記パタン光は、近赤外波長であることが好適である。また、本装置において、さらに、合成された前記三次元形状データから骨格データを生成する手段と、前記骨格データの動きから前記骨格データを複数の剛体グループに区分する手段と、前記剛体グループ毎に運動パラメータを算出する手段とを有することができる。
【0011】
ここで、前記三次元形状データであるボクセルデータは連続した時間にわたって取得され、前記骨格データを生成する手段は、ある時刻に取得された前記ボクセルデータの細線化処理を少なくとも複数時刻にわたって実行することにより前記骨格データを生成することが好適である。
【0012】
また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさが略同一である骨格要素を同一剛体グループに属するとして区分することができる。
【0013】
また、前記剛体グループに区分する手段は、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。
【0014】
また、本装置において、さらに、前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段とを有することが好適である。
【0015】
ここで、前記骨格データ及び剛体グループ毎の運動パラメータと、異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段とを有することもできる。
【0016】
また、本発明は、三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成方法を提供する。この方法は、動きのある前記三次元物体に対してパタン光を照射するステップと、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するステップと、前記三次元物体を撮影することにより前記色彩データを取得するステップと、同時刻に取得された前記三次元形状データと前記色彩データとを合成するステップとを有し、前記パタン光は可視光波長以外の波長を有することを特徴とする。
【0017】
本方法において、前記パタン光は、ランダムパタン光であることが好適である。また、本方法において、前記パタン光は、近赤外波長であることが好適である。また、本方法において、さらに、合成された前記三次元形状データから骨格データを生成するステップと、前記骨格データの動きから前記骨格データを複数の剛体部分に区分するステップと、前記剛体部分毎に運動パラメータを算出するステップとを有することが好適である。
【0018】
ここで、前記骨格データを生成するステップは、ある時刻に取得された前記ボクセルデータを少なくとも複数時刻にわたって細線化するステップを含むことができる。
【0019】
また、前記剛体部分に区分するステップでは、前記骨格データの動きの方向及び大きさに基づき区分することができる。
【0020】
また、前記剛体部分に区分するステップでは、前記骨格データの動きの方向及び大きさを前記細線化処理後の一部の連続したボクセル座標の1次関数として記述し、この1次関数記述との誤差が一定値以下となる連続したボクセルを同一剛体グループに属するとして区分することもできる。
【0021】
また、本方法において、さらに、前記骨格データ及び剛体部分毎の運動パラメータを前記三次元形状データ及び色彩データとは分離してコンピュータのメモリに記憶するステップとを有することができる。
【0022】
本方法において、さらに、前記骨格データ及び剛体部分毎の運動パラメータと、予め前記メモリに記憶された異なる対象物について得られた前記三次元形状データ及び色彩データとを合成するステップとを有することもできる。
【0023】
【発明の実施の形態】
以下、図面に基づき本発明の実施形態について説明する。
【0024】
<第1実施形態>
まず、本実施形態の基本概念について説明する。対象物体の表面色彩に左右されず精度良く三次元動画データを入力するためには、受動的手法ではなく、能動的手法が有効である。すなわち、何らかのパタン光を対象物に照射し、これを観測することで対象物の形状を得る方法である。ここで使用されるパタンとして、スリット光などの構造化光やランダム光などが代表的である。
【0025】
いま、全周囲の動きつき三次元データを獲得することを前提にした場合、一方向だけでなく、複数の方向から同時にパタンを照射する必要がある。ここで、スリット光などの構造化光はパタンそのものに意味があるため、これを複数方向から同時に同じ対象物に照射すると互いのパタン光が干渉しあい、その結果、誤った形状データをえることになる。
【0026】
一方、ランダム光の場合、パタンそのものには意味をもたない。したがって、複数方向からの同時照射を行っても問題ない。ただし、入力カメラは複数必要であり、これらでステレオ法を適用すればよい。
【0027】
加えて、対象物体に対し全方向からの色彩(テクスチャ)データを獲得するためには、複数方向からカラーカメラにて対象物を撮影する必要がある。また、このテクスチャデータ獲得は、上記の三次元データ入力と同時に行わなければならないが、上記のパタン光はカラーカメラで撮影される画像には写るべきではない。なぜなら、このパタン光は本来の対象物の持つ色彩以外の不要な情報を与えるためである。
【0028】
以上のことから、下記のものから構成される入力ユニットを用いることが好適となる。
【0029】
(a)可視光以外、例えば近赤外線によるランダムパタン照射プロジェクタ
(b)近赤外カメラアレイ
(c)カラーカメラ
そして、このユニットを対象物に対して複数配置することにより、対象物全周囲の動きつき三次元データ入力が可能となる。
【0030】
図1には、本実施形態の動立体モデル生成装置の構成が示されている。図1(A)は動立体モデル作成装置の入力ユニットであり、図1(B)は動立体モデル生成装置の全体構成図である。
【0031】
入力ユニット10は、近赤外線によるランダムパタンを照射するプロジェクタ10a、プロジェクタ10aから照射され対象物で反射されたランダムパタンを受光する近赤外カメラアレイ10b及び対象物の色彩テクスチャを取得するためのカラーカメラ10cから構成される。
【0032】
そして、このような入力ユニットを複数、例えば図1(B)に示されるように入力ユニット10、12、14、16と4つ、対象物(例えば人)の周囲に配置し、それぞれのユニット内の近赤外カメラアレイ10bで得られた近赤外画像及びカラーカメラ10cで得られたカラー画像を処理用コンピュータ18に供給する。なお、各ユニット内の近赤外カメラアレイ10b及びカラーカメラ10cの相対的位置関係は既知で固定であり、また、各ユニット間の相対的位置関係も予め正確に算出しておく。さらに、配置された全ユニット間にて近赤外カメラアレイ10bは相互に同期することが望ましく、カラーカメラ10cも同期することが望ましい。
【0033】
図2には、図1におけるコンピュータ18の構成ブロック図が示されている。入出力インターフェースI/F、CPU、ROM、画像メモリ、三次元形状データベース及び骨格データベースを有して構成される。
【0034】
近赤外カメラ及びカラーカメラで得られた画像データはインターフェースI/Fからコンピュータ18に取り込まれ、画像メモリに記憶される。
【0035】
CPUは、画像メモリに記憶された画像データから後述する処理を実行して三次元形状データ及び色彩データを取得し、三次元形状データベースに登録する。本実施形態では、動きのある三次元物体をモデリングするため、三次元形状データベースには時間的に連続した三次元形状データが記憶される。ある時刻における三次元形状データをフレームと言うことができる。また、CPUは三次元形状データベースに記憶された三次元形状データ及び色彩データから骨格データ及びその動きデータを分離抽出し、骨格データベースに登録する。
【0036】
ROMは、後述するモデリング処理を実行するための処理プログラムを格納し、CPUはこのROMに記憶されたプログラムを読み出し順次実行することで動きのある三次元物体をモデリングする。なお、この実施例ではプログラムをROMに格納しているが、この他ハードディスク、CD−ROMなど他の記憶媒体に格納されていてもよい。
【0037】
以上の装置によってある時刻に入力された対象物の画像データの処理の流れを示すと以下の通りである。
【0038】
(1)部分奥行きデータの獲得
(2)全三次元データの計算
(3)テクスチャ付き三次元データの獲得
これらの処理について順次説明する。
【0039】
<部分奥行きデータの獲得>
部分奥行きデータの獲得とは、各ユニットにおいて獲得される部分的三次元データを獲得することである。ここでは、対象物に対し、近赤外線プロジェクタ10aからランダムパタンが照射されている。この画像を近赤外線カメラアレイ10bにて撮影したものが入力画像になる。良く知られたマルチベースラインステレオなどの方法により、対象物のうち、全カメラの共通視野部分についてはカメラアレイ10bからの距離データ(奥行きデータ)を求めることができる。
【0040】
マルチベースラインステレオの原理は以下のとおりである。今、図3に示されるように対象物100の周囲に3つのカメラA、B、Cを配置し、それぞれのカメラで得られた画像が画像102(カメラAの画像)、画像104(カメラBの画像)、画像106(カメラCの画像)であるとする。カメラAの画像102における点aの対応点として、カメラBの画像104における対応点候補は図4に示されるようにb1、b2、b3のように複数存在する。これらの対応点候補それぞれに応じて奥行きがz1、z2、z3と計算される。この段階ではどれが正しい奥行き候補かは特定できない。しかしながら、3つ以上のカメラを用いた場合、これらの複数候補から絞込みを行うことができる。たとえば、図5のようにカメラCが存在した場合、CにおいてもカメラAの画像102の点aに対応する対応点候補が複数存在し、それぞれの奥行きが存在する。しかし、これらの候補のうち、正しい対応点候補については奥行き値が一致するはずである。すなわち、複数カメラを用いて対応点候補を得た後、これらのなかで奥行きが一致するもの(図中Q)を最終的に真の対応点とし、その点の奥行き値を最終的な奥行きデータとする。但し、これらの奥行きデータは、この時点では各ユニットから見た部分的な情報に過ぎない。次に、これらを統合する必要がある。
【0041】
<全三次元データの計算>
入力ユニットが図1(B)に示されるように4つの入力ユニット10、12、14、16から構成されている場合、4つのユニットの視野に共通な空間が存在する。そして、対象物はこの共通空間に存在すると仮定することができる。さもなければ、対象物の少なくとも一部分についてデータが獲得できなくなるからである。そして、この共通空間をボクセル空間、すなわち微小な立方体の集合で表現する。
【0042】
上述した部分奥行きデータの獲得処理により、各ユニット毎に部分奥行きデータが算出される。各ユニットからの奥行きデータをDz、ボクセル空間の各ボクセルとユニット間の距離をDvとすると、これらの部分奥行きデータは以下の処理により統合される。
【0043】
(1)図6に示されるように、各ユニットについて、かつ、全ボクセルについてDv>Dzであれば、そのボクセルに1点を加える。つまり、全ボクセルのうち、奥行きデータ以遠にあるボクセルについて1点を加える。4つのユニットについて行うことで、各ボクセルは0〜4のいずれかの値をとることになる。ちなみに、0は奥行きデータより手前に位置するボクセルであり、物体の外に対応するボクセルである。
【0044】
(2)4点を獲得したボクセルのみを抽出し、これらを対象物に対応したボクセルとみなす。
【0045】
なお、入力ユニットをn個用いた場合には、ステップ(2)にてn点を獲得したボクセルを抽出すればよい。また、nが大きい場合、ステップ(2)にて(n−1)点、さらにより一般的には(n−m)点(n>m)を獲得したボクセルを抽出してもよい。
【0046】
以上の処理により対象物に相当するボクセルを抽出し、ボクセル空間で表現されたデータをポリゴン表現に変換する。
【0047】
<テクスチャつき三次元データの獲得>
各ポリゴンに対し、割り当てる色彩データ(テクスチャデータ)を、同じ時刻にカラーカメラ10cによって撮影した画像を参照して獲得する。
【0048】
以上の3つの処理をすべての時刻に関して行うことで、精度の良い三次元動画像データを求めることができる。
【0049】
そして、算出された三次元動画像データは三次元形状データベースに登録され、必要に応じてCPUがこれを読み出し、出力装置20に出力することができる。
【0050】
<第2実施形態>
上述した第1実施形態では、三次元画像データの羅列を求めていた。しかし、この羅列から、さらに動きデータと形状データを分離することにより、三次元動画像データをきわめて少ないデータ量で表現可能となる、また、動きデータのみを取り出し別の形状データに適用可能になる、等の利点が発生する。
【0051】
そこで、本実施形態では、動きデータと形状データを分離する方法について説明する。なお、装置の構成は図1及び図2と同様であり、すべての画像は1/30秒毎に同期して撮影され、これら同時刻に撮影された画像を同一時刻フレームと呼ぶことにする。同時刻フレームの情報を使って、各フレームでの三次元データ(形状+色彩)を求めることになる。
【0052】
処理の流れは以下の通りである。
【0053】
(1)各フレームでの骨格データ生成
(2)フレーム間での骨格データ比較
(3)最終骨格データ生成
以下、これらの処理について順次説明する。
【0054】
<各フレーム間での骨格データ生成>
第1実施形態で述べたように、各フレームでの三次元形状データについては、一旦ボクセルデータとして表現される。ここで、画像処理分野で良く知られた細線化処理を行う。細線化処理については、例えば、「コンピュータ画像処理入門」(田村秀行著、日本工業技術センタ編)に記載されている。細線化とは、与えられた図形から線幅を狭めて幅1の中心線を抽出する操作であり、「画像中の境界点の中から消去可能要素でありかつ線の端点ではない画素をすべて消去する」アルゴリズムを基本とする。この基本アルゴリズムを画像全体の画素に施す1回の操作とし、これを消去される画素がなくなるまで反復することで実行することができる。
【0055】
なお、一般に細線化処理はピクセル空間で表現された二次元画像を対象に行われるが、これを三次元画像すなわちボクセル空間に拡張することは容易である。この細線化処理の結果が、対象物、例えば人間の骨格に相当する。
【0056】
図7には、細線化処理された対象物(人)が模式的に示されている。図7(A)はボクセルデータを二次元的に表現したものであり、図7(B)はこのボクセルデータを細線化処理したものである。図7(B)の実線は、単位ボクセルが連結したものである。
【0057】
<フレーム間での骨格データ比較>
ここでは、細線化処理の結果得られた点列の位置を、連続したフレーム間で比較し、点列の動きを求める。
【0058】
具体的には、以下の処理となる。
【0059】
(1)点列の特徴点(端点、分岐点)を求める。
【0060】
(2)隣接フレームで近傍の特徴点の対応づけを行う。
【0061】
(3)特徴点間の点列について、対応づけを行う。
【0062】
ここでは、対象物の動きは連続しており、また、その動きは撮影時間間隔に対し十分緩やかであると仮定している。したがって、隣接フレーム間において、上記特徴点は十分に近傍に存在するという前提となっている。(1)での点列の特徴点は、前フレームにおける各特徴点の近傍について、次フレームでの対応点を探索すれば良い。これが(2)の処理になる。そして、特徴点の間に挟まれた点列について、それぞれ対応づけをする。
【0063】
ここで、特徴点間の距離は、本来同じであるが、画像処理誤差などから必ずしも実際には一致しない。このため、ほぼ平均的に割り当てるなどの方法を用いることが好適である。
【0064】
<最終骨格データ生成>
ここでは、すべての点のフレーム間対応関係に基づき、それぞれのフレーム間での移動ベクトルを計算する。そして、点のグルーピングを行う。具体的には隣接点において移動ベクトルが同じ方向であり、かつ大きさがほぼ等しいものについては同じグループであるとする。そして、さらに同じグループのものは剛体運動となるという制約を満たすかどうかの判定を行う。これは、例えば、腕を曲げるという動きをした場合において、下腕と上腕とで各々の骨格に属する点列は同じ剛体運動を行うが、別骨格のものは異なる剛体運動をすることに相当する。したがって、グループピングとは、点列を複数の剛体グループに分離すると表現することもできる。最後に、これらグループ分けされた点列について、剛体運動パラメータ(並進と回転)を決定する。
【0065】
以上のようにして、自動的に骨格とその動きデータを抽出することができる。
【0066】
そして、抽出された骨格と動きデータは図2における骨格データベースに登録される。得られた骨格データと動きデータは、CGなどで生成された類似骨格を持つ別のデータに適用し、同様の動きをつけることができるため、極めて有用となる。
【0067】
また、骨格データベースに登録されている骨格と動きデータを読み出し、分離された形状データを他の対象物についての形状データに置き換えて合成することで、コンピュータ上で任意の形状を有する対象物に同じような動きをさせることも可能となる。すなわち、骨格と動きデータをΦ、形状データをΨとした場合、元の動立体モデルはΦ+Ψであるが、Ψの代わりに予め三次元形状データベースに登録されている他の対象物についての三次元形状データΩを用いてΦ+Ωを生成することで、Ωの形状にΦの動きをさせることができる。
【0068】
以上では、自動的に骨格データを求める方法について述べたが、あるフレームにおいて、手動で骨格を割り当て、以後、これを基本に骨格の動きを追跡して動きデータを得ても良い。
【0069】
【発明の効果】
以上説明したように、本発明によれば、対象物体の表面色彩に影響されることなく、高精度に対象物の動立体モデル(三次元動画像データ)を取得することができる。
【図面の簡単な説明】
【図1】 実施形態の構成図である。
【図2】 図1におけるコンピュータの構成図である。
【図3】 ステレオ法の原理説明図(その1)である。
【図4】 ステレオ法の原理説明図(その2)である。
【図5】 ステレオ法の原理説明図(その3)である。
【図6】 三次元データの計算処理を示す説明図である。
【図7】 細線化処理説明図である。
【符号の説明】
10、12、14、16 入力ユニット、18 コンピュータ、20 出力装置。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus and method for creating a moving 3D model, and more particularly to a 3D modeling technique for generating a moving 3D model (3D model) of an object from a plurality of image data of a moving object.
[0002]
[Prior art]
Conventionally, a motion capture system has been put to practical use as a method for acquiring motion data and applied to movie production and the like. This is mainly for the purpose of acquiring human motion data. By attaching markers or sensors to human joints and detecting their positions according to human motion, human skeleton motion data is obtained. It is.
[0003]
More specifically, there are two types of motion capture systems, one using a magnetic sensor and the other using an optical technique. In the case of using a magnetic sensor, a magnetic sensor is attached to a joint, and each sensor obtains its position based on a magnetic field in space. The position of each sensor changes according to human movement, and this is acquired as joint movement data. However, in this method, it is necessary to connect a cable to each sensor, and this causes a problem that the movement of a person becomes inconvenient. In addition, there is a problem that accurate motion data cannot be obtained in an environment where the magnetic field is disturbed.
[0004]
On the other hand, in the optical type, for example, an LED is attached to a joint as a marker. This is observed with a plurality of cameras, and the position of each LED is detected by the triangulation principle. However, this method has a problem that the data input space must be darkened, and it is difficult to acquire motion data in real time.
[0005]
Furthermore, in either the magnetic method or the optical method, only motion data is acquired, and three-dimensional shape data of the moving object (person) itself is not acquired.
[0006]
[Problems to be solved by the invention]
On the other hand, CMU (Carnegie Mellon University) has announced a method in which a person operates in a space in which a plurality of cameras are arranged and three-dimensional data with movement of a target object (person) is obtained by a stereo method.
[0007]
However, even with this method, although 3D data with motion can be obtained,
(1) Since it is based on the passive stereo method, the shape data is extremely inaccurate when there is not enough texture information on the object. (2) Since the list of 3D data is obtained, the amount of acquired data is It has the problem of becoming extremely large, and it cannot be said that it provides data suitable for actual application fields.
[0008]
The present invention has been made in view of the above-described problems of the prior art, and the object thereof is a moving object model (three-dimensional moving image data) with high accuracy without being affected by the surface color of the object. It is an object of the present invention to provide an apparatus and a method capable of obtaining the above.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a dynamic solid model generation apparatus for generating three-dimensional shape data, color data, and motion data of a three-dimensional object. Irradiating means for irradiating the three-dimensional object, pattern light receiving means for acquiring the three-dimensional shape data and motion data by sequentially receiving the pattern light reflected from the three-dimensional object, and photographing the three-dimensional object Photographing means for obtaining color data, and processing means for combining the color data and the three-dimensional shape data obtained at the same time, and the pattern light has a wavelength other than the sensitivity wavelength of the photographing means. It is characterized by having.
[0010]
In this apparatus, it is preferable that the pattern light is random pattern light. In the present apparatus, it is preferable that the pattern light has a near infrared wavelength. Further, in the present apparatus, means for generating skeleton data from the synthesized three-dimensional shape data, means for dividing the skeleton data into a plurality of rigid body groups from the movement of the skeleton data, and for each rigid body group Means for calculating the motion parameter.
[0011]
Here, the voxel data that is the three-dimensional shape data is acquired over a continuous time, and the means for generating the skeleton data executes the thinning process of the voxel data acquired at a certain time over at least a plurality of times. It is preferable to generate the skeleton data by
[0012]
Further, the means for classifying the rigid body groups can classify the skeleton elements having substantially the same movement direction and size of the skeleton data as belonging to the same rigid body group.
[0013]
Further, the means for dividing into the rigid body group describes the motion direction and size of the skeleton data as a linear function of a part of the continuous voxel coordinates after the thinning process, and the linear function description It is also possible to classify consecutive voxels whose errors are below a certain value as belonging to the same rigid body group.
[0014]
The apparatus preferably further includes means for storing the skeleton data and the motion parameters for each rigid body group separately from the three-dimensional shape data and the color data.
[0015]
Here, it is also possible to have means for synthesizing the skeletal data and the motion parameters for each rigid body group with the three-dimensional shape data and color data obtained for different objects.
[0016]
The present invention also provides a dynamic solid model generation method for generating three-dimensional shape data, color data, and motion data of a three-dimensional object. In this method, the step of irradiating the three-dimensional object in motion with pattern light and the step of acquiring the three-dimensional shape data and the movement data by sequentially receiving the pattern light reflected from the three-dimensional object And acquiring the color data by photographing the three-dimensional object, and synthesizing the three-dimensional shape data and the color data acquired at the same time, and the pattern light is visible It has a wavelength other than the light wavelength.
[0017]
In the present method, the pattern light is preferably random pattern light. In the present method, it is preferable that the pattern light has a near infrared wavelength. Further, in the method, the step of generating skeleton data from the synthesized three-dimensional shape data, the step of dividing the skeleton data into a plurality of rigid body parts from the movement of the skeleton data, and for each rigid body part Preferably, calculating a motion parameter.
[0018]
Here, the step of generating the skeleton data may include a step of thinning the voxel data acquired at a certain time over at least a plurality of times.
[0019]
In the step of dividing into the rigid body portions, the division can be made based on the direction and magnitude of the movement of the skeleton data.
[0020]
Further, in the step of segmenting into the rigid body portions, the motion direction and size of the skeleton data are described as a linear function of a part of continuous voxel coordinates after the thinning process, and the linear function description It is also possible to classify consecutive voxels whose errors are below a certain value as belonging to the same rigid body group.
[0021]
The method may further include the step of storing the skeletal data and the motion parameters for each rigid body part in a computer memory separately from the three-dimensional shape data and the color data.
[0022]
The method may further include a step of synthesizing the skeletal data and the motion parameters for each rigid body part with the three-dimensional shape data and color data obtained for different objects stored in the memory in advance. it can.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0024]
<First Embodiment>
First, the basic concept of this embodiment will be described. In order to input 3D moving image data with high accuracy regardless of the surface color of the target object, an active method is effective instead of a passive method. That is, it is a method of obtaining the shape of an object by irradiating the object with some pattern light and observing the pattern light. Typical patterns used here include structured light such as slit light, random light, and the like.
[0025]
Now, when it is assumed that three-dimensional data with movement of the entire circumference is acquired, it is necessary to irradiate a pattern simultaneously from a plurality of directions, not just one direction. Here, since structured light such as slit light is meaningful in the pattern itself, if the same object is irradiated simultaneously from multiple directions, the pattern light will interfere with each other, resulting in incorrect shape data. Become.
[0026]
On the other hand, in the case of random light, the pattern itself has no meaning. Therefore, there is no problem even if simultaneous irradiation from a plurality of directions is performed. However, a plurality of input cameras are required, and the stereo method may be applied with these.
[0027]
In addition, in order to acquire color (texture) data from all directions for the target object, it is necessary to photograph the target object from a plurality of directions with a color camera. The texture data acquisition must be performed simultaneously with the input of the three-dimensional data. However, the pattern light should not be reflected in an image photographed by a color camera. This is because this pattern light gives unnecessary information other than the color of the original object.
[0028]
From the above, it is preferable to use an input unit composed of the following.
[0029]
(A) Other than visible light, for example, a random pattern irradiation projector using near infrared rays, (b) a near infrared camera array, (c) a color camera, and a plurality of units arranged on the object to move around the entire object. It is possible to input 3D data.
[0030]
FIG. 1 shows the configuration of the dynamic three-dimensional model generation device of the present embodiment. FIG. 1A is an input unit of the dynamic stereoscopic model creation apparatus, and FIG. 1B is an overall configuration diagram of the dynamic stereoscopic model generation apparatus.
[0031]
The input unit 10 includes a projector 10a that emits a random pattern of near infrared rays, a near infrared camera array 10b that receives a random pattern irradiated from the projector 10a and reflected by the subject, and a color for acquiring a color texture of the subject. It consists of a camera 10c.
[0032]
A plurality of such input units, for example, four input units 10, 12, 14, 16 as shown in FIG. 1B, are arranged around the object (for example, a person), The near-infrared image obtained by the near-infrared camera array 10b and the color image obtained by the color camera 10c are supplied to the processing computer 18. The relative positional relationship between the near-infrared camera array 10b and the color camera 10c in each unit is known and fixed, and the relative positional relationship between the units is accurately calculated in advance. Further, it is desirable that the near-infrared camera array 10b is synchronized with each other among all the units arranged, and it is desirable that the color camera 10c is also synchronized.
[0033]
FIG. 2 is a block diagram showing the configuration of the computer 18 in FIG. It has an input / output interface I / F, CPU, ROM, image memory, three-dimensional shape database, and skeleton database.
[0034]
Image data obtained by the near-infrared camera and the color camera is taken into the computer 18 from the interface I / F and stored in the image memory.
[0035]
The CPU executes processing to be described later from the image data stored in the image memory, acquires three-dimensional shape data and color data, and registers them in the three-dimensional shape database. In this embodiment, in order to model a moving three-dimensional object, the three-dimensional shape database stores temporally continuous three-dimensional shape data. Three-dimensional shape data at a certain time can be called a frame. Further, the CPU separates and extracts the skeleton data and its motion data from the three-dimensional shape data and the color data stored in the three-dimensional shape database, and registers them in the skeleton database.
[0036]
The ROM stores a processing program for executing a modeling process, which will be described later, and the CPU reads a program stored in the ROM and executes it sequentially to model a moving three-dimensional object. In this embodiment, the program is stored in the ROM, but may be stored in another storage medium such as a hard disk or a CD-ROM.
[0037]
The flow of processing of image data of an object input at a certain time by the above apparatus is as follows.
[0038]
(1) Acquisition of partial depth data (2) Calculation of all three-dimensional data (3) Acquisition of textured three-dimensional data These processes will be sequentially described.
[0039]
<Acquisition of partial depth data>
Acquisition of partial depth data refers to acquiring partial three-dimensional data acquired in each unit. Here, the object is irradiated with a random pattern from the near-infrared projector 10a. An image obtained by photographing this image with the near-infrared camera array 10b becomes an input image. By using a well-known method such as multi-baseline stereo, distance data (depth data) from the camera array 10b can be obtained for the common visual field portion of all the cameras in the object.
[0040]
The principle of multi-baseline stereo is as follows. Now, as shown in FIG. 3, three cameras A, B, and C are arranged around the object 100, and images obtained by the respective cameras are an image 102 (an image of camera A) and an image 104 (a camera B). ) And image 106 (camera C image). As corresponding points of the point a in the image 102 of the camera A, there are a plurality of corresponding point candidates in the image 104 of the camera B, as shown in FIG. 4, b1, b2, and b3. The depth is calculated as z1, z2, and z3 according to each of these corresponding point candidates. At this stage, it is not possible to specify which is a correct depth candidate. However, when three or more cameras are used, it is possible to narrow down from these multiple candidates. For example, when the camera C exists as shown in FIG. 5, a plurality of corresponding point candidates corresponding to the point a of the image 102 of the camera A exist in C, and the respective depths exist. However, among these candidates, the correct corresponding point candidates should have the same depth value. That is, after obtaining corresponding point candidates using a plurality of cameras, those having the same depth (Q in the figure) are finally regarded as true corresponding points, and the depth value of that point is the final depth data. And However, these depth data are only partial information viewed from each unit at this point. Next, these need to be integrated.
[0041]
<Calculation of all three-dimensional data>
When the input unit is composed of four input units 10, 12, 14, and 16 as shown in FIG. 1B, a common space exists in the field of view of the four units. And it can be assumed that the object exists in this common space. Otherwise, data cannot be acquired for at least a part of the object. This common space is expressed by a voxel space, that is, a set of minute cubes.
[0042]
The partial depth data is calculated for each unit by the partial depth data acquisition process described above. If the depth data from each unit is Dz and the distance between each voxel in the voxel space and the unit is Dv, these partial depth data are integrated by the following processing.
[0043]
(1) As shown in FIG. 6, if Dv> Dz for each unit and for all voxels, one point is added to that voxel. That is, one point is added to the voxels farther than the depth data among all the voxels. By performing for four units, each voxel takes one of the values 0-4. Incidentally, 0 is a voxel located in front of the depth data, and corresponds to the outside of the object.
[0044]
(2) Only voxels that have acquired 4 points are extracted, and these are regarded as voxels corresponding to the object.
[0045]
When n input units are used, the voxel that has acquired n points in step (2) may be extracted. If n is large, voxels that have acquired (n-1) points, more generally (nm) points (n> m) in step (2) may be extracted.
[0046]
Through the above processing, voxels corresponding to the object are extracted, and data expressed in the voxel space is converted into a polygon representation.
[0047]
<Acquisition of textured 3D data>
Color data (texture data) to be assigned to each polygon is acquired with reference to images taken by the color camera 10c at the same time.
[0048]
By performing the above three processes for all times, accurate three-dimensional moving image data can be obtained.
[0049]
The calculated three-dimensional moving image data is registered in the three-dimensional shape database, and the CPU can read it and output it to the output device 20 as necessary.
[0050]
Second Embodiment
In the first embodiment described above, a list of 3D image data is obtained. However, by further separating motion data and shape data from this list, it is possible to express 3D moving image data with a very small amount of data, and it is possible to extract only motion data and apply it to other shape data. , Etc. are generated.
[0051]
Therefore, in this embodiment, a method for separating motion data and shape data will be described. The configuration of the apparatus is the same as in FIG. 1 and FIG. 2, and all images are taken in synchronization every 1/30 seconds, and these images taken at the same time are called the same time frame. Using the information of the same time frame, three-dimensional data (shape + color) in each frame is obtained.
[0052]
The flow of processing is as follows.
[0053]
(1) Generation of skeleton data in each frame (2) Comparison of skeleton data between frames (3) Generation of final skeleton data Hereinafter, these processes will be sequentially described.
[0054]
<Generation of skeleton data between frames>
As described in the first embodiment, the three-dimensional shape data in each frame is once expressed as voxel data. Here, a thinning process well known in the image processing field is performed. The thinning process is described, for example, in “Introduction to Computer Image Processing” (Hideyuki Tamura, edited by Japan Industrial Technology Center). Thinning is an operation of narrowing the line width from a given figure and extracting the center line of width 1. “Throughout the boundary points in the image, all the pixels that are erasable and are not the end points of the line Based on the “erase” algorithm. This basic algorithm can be executed as a single operation that is performed on the pixels of the entire image, and is repeated until there are no more pixels to be erased.
[0055]
In general, the thinning process is performed on a two-dimensional image expressed in a pixel space, but it is easy to extend this to a three-dimensional image, that is, a voxel space. The result of the thinning process corresponds to an object, for example, a human skeleton.
[0056]
FIG. 7 schematically shows an object (person) that has been thinned. FIG. 7A is a two-dimensional representation of voxel data, and FIG. 7B is a thinning process of this voxel data. The solid line in FIG. 7B is a connection of unit voxels.
[0057]
<Comparison of skeleton data between frames>
Here, the position of the point sequence obtained as a result of the thinning process is compared between consecutive frames to obtain the motion of the point sequence.
[0058]
Specifically, the following processing is performed.
[0059]
(1) Find feature points (end points, branch points) of a point sequence.
[0060]
(2) Corresponding neighboring feature points in adjacent frames.
[0061]
(3) The point sequence between the feature points is associated.
[0062]
Here, it is assumed that the movement of the object is continuous and that the movement is sufficiently slow with respect to the shooting time interval. Therefore, it is assumed that the feature points are sufficiently close between adjacent frames. For the feature points of the point sequence in (1), a corresponding point in the next frame may be searched for in the vicinity of each feature point in the previous frame. This is the process (2). Each point sequence sandwiched between feature points is associated with each other.
[0063]
Here, the distance between the feature points is essentially the same, but does not always match due to an image processing error or the like. For this reason, it is preferable to use a method such as assigning almost average.
[0064]
<Final skeleton data generation>
Here, the movement vector between each frame is calculated based on the inter-frame correspondence of all points. Then, point grouping is performed. Specifically, it is assumed that the movement vectors in the adjacent points have the same direction and have substantially the same size are in the same group. Further, it is determined whether or not the same group of members satisfies the constraint that the body motion is rigid. For example, when the arm is bent, the point sequences belonging to the skeletons of the lower arm and the upper arm perform the same rigid body motion, but those of different skeletons correspond to different rigid body motions. . Therefore, grouping can also be expressed as separating a point sequence into a plurality of rigid body groups. Finally, rigid body motion parameters (translation and rotation) are determined for these grouped point sequences.
[0065]
As described above, the skeleton and its motion data can be automatically extracted.
[0066]
The extracted skeleton and motion data are registered in the skeleton database in FIG. The obtained skeleton data and motion data are extremely useful because they can be applied to other data having a similar skeleton generated by CG or the like and given the same motion.
[0067]
Also, by reading out the skeleton and motion data registered in the skeleton database, and replacing the separated shape data with the shape data for other objects, it is the same as the object having an arbitrary shape on the computer. It is also possible to make such a movement. In other words, if the skeleton and motion data are Φ and the shape data is Ψ, the original dynamic solid model is Φ + Ψ, but instead of Ψ, three-dimensional information about other objects registered in advance in the three-dimensional shape database By generating Φ + Ω using the shape data Ω, Φ can be moved to the shape of Ω.
[0068]
In the above, the method for automatically obtaining the skeleton data has been described. However, the skeleton may be manually assigned in a certain frame, and the movement data may be obtained by tracking the movement of the skeleton based on this.
[0069]
【The invention's effect】
As described above, according to the present invention, it is possible to acquire a moving three-dimensional model (three-dimensional moving image data) of a target object with high accuracy without being affected by the surface color of the target object.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an embodiment.
FIG. 2 is a configuration diagram of a computer in FIG. 1;
FIG. 3 is a diagram for explaining the principle of a stereo method (No. 1).
FIG. 4 is a diagram for explaining the principle of a stereo method (No. 2).
FIG. 5 is a diagram for explaining the principle of a stereo method (No. 3).
FIG. 6 is an explanatory diagram showing calculation processing of three-dimensional data.
FIG. 7 is an explanatory diagram of thinning processing.
[Explanation of symbols]
10, 12, 14, 16 input unit, 18 computer, 20 output device.

Claims (4)

三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成装置であって、前記三次元物体を撮影することにより前記色彩データを取得する撮影手段と、動きのある前記三次元物体に対して前記撮影手段の感度波長以外の波長を有するパタン光を照射する照射手段と、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するパタン光受光手段と、同時刻に取得された前記三次元形状データと前記色彩データとを合成する処理手段と、を有する動立体モデル生成装置において、
合成された前記三次元形状データから骨格データを生成する手段と、
前記骨格データの動きの方向及び大きさから略同一である骨格要素を同一剛体グループに属するとして複数の剛体グループに区分する手段と、
前記剛体グループ毎に運動パラメータを算出する手段と、
を有することを特徴とする動立体モデル生成装置。
A moving and solid model generating device for generating three-dimensional shape data, color data, and motion data of a three-dimensional object, the photographing means for obtaining the color data by photographing the three-dimensional object, and the tertiary having motion Irradiation means for irradiating the original object with pattern light having a wavelength other than the sensitivity wavelength of the imaging means; and sequentially receiving the pattern light reflected from the three-dimensional object, the three-dimensional shape data and motion data are obtained. In a dynamic three-dimensional model generation device comprising: a pattern light receiving unit to acquire; and a processing unit that combines the three-dimensional shape data acquired at the same time with the color data .
Means for generating skeleton data from the synthesized three-dimensional shape data;
Means for dividing a skeleton element that is substantially the same from the direction and size of movement of the skeleton data into a plurality of rigid body groups as belonging to the same rigid body group;
Means for calculating a motion parameter for each rigid body group;
A dynamic three-dimensional model generation apparatus characterized by comprising:
請求項1に記載の装置において、
前記骨格データ及び剛体グループ毎の運動パラメータを前記三次元形状データ及び色彩データとは別に記憶する手段を有することを特徴とする動立体モデル生成装置。
The apparatus of claim 1.
An apparatus for generating a dynamic solid model, comprising means for storing the skeletal data and motion parameters for each rigid group separately from the three-dimensional shape data and color data .
請求項2記載の装置において、
前記骨格データ及び剛体グループ毎の運動パラメータと異なる対象物について得られた前記三次元形状データ及び色彩データとを合成する手段を有することを特徴とする動立体モデル生成装置。
The apparatus of claim 2.
A dynamic three-dimensional model generation apparatus comprising means for synthesizing the skeleton data and the motion parameters for each rigid body group with the three-dimensional shape data and color data obtained for a different object .
三次元物体の三次元形状データ及び色彩データ並びに動きデータを生成する動立体モデル生成方法であって、前記三次元物体を撮影することにより前記色彩データを取得するステップと、動きのある前記三次元物体に対して可視光波長以外の波長を有するパタン光を照射するステップと、前記三次元物体から反射した前記パタン光を順次受光することにより前記三次元形状データ及び動きデータを取得するステップと、同時刻に取得された前記三次元形状データと前記色彩データとを合成するステップと、を有する動立体モデル作成方法において、
合成された前記三次元形状データから骨格データを生成するステップと、
前記骨格データの動きの方向及び大きさから略同一である骨格要素を同一剛体グループに属するとして複数の剛体グループに区分するステップと、
前記剛体部分毎に運動パラメータを算出するステップと、
を有することを特徴とする動立体モデル生成方法。
A moving solid model generation method for generating three-dimensional shape data, color data, and motion data of a three-dimensional object, the step of acquiring the color data by photographing the three-dimensional object, and the three-dimensional motion Irradiating an object with pattern light having a wavelength other than a visible light wavelength ; obtaining the three-dimensional shape data and motion data by sequentially receiving the pattern light reflected from the three-dimensional object ; Combining the three-dimensional shape data and the color data acquired at the same time ,
Generating skeleton data from the synthesized three-dimensional shape data;
Dividing a skeleton element that is substantially the same from the direction and size of the movement of the skeleton data into a plurality of rigid body groups as belonging to the same rigid body group;
Calculating a motion parameter for each rigid body part;
A dynamic three-dimensional model generation method characterized by comprising:
JP2001255670A 2001-08-27 2001-08-27 Moving stereo model generation apparatus and method Expired - Fee Related JP4761670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001255670A JP4761670B2 (en) 2001-08-27 2001-08-27 Moving stereo model generation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001255670A JP4761670B2 (en) 2001-08-27 2001-08-27 Moving stereo model generation apparatus and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011053245A Division JP2011149952A (en) 2011-03-10 2011-03-10 Model input device and model generation system

Publications (2)

Publication Number Publication Date
JP2003061936A JP2003061936A (en) 2003-03-04
JP4761670B2 true JP4761670B2 (en) 2011-08-31

Family

ID=19083599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001255670A Expired - Fee Related JP4761670B2 (en) 2001-08-27 2001-08-27 Moving stereo model generation apparatus and method

Country Status (1)

Country Link
JP (1) JP4761670B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104949632A (en) * 2015-07-07 2015-09-30 北京博维恒信科技发展有限公司 Three-dimensional scanning system for object surface shape

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SI21521A (en) * 2003-06-12 2004-12-31 Univerza V Ljubljani Device for assessing the shape and dimension of 3d objects
JP2006214735A (en) * 2005-02-01 2006-08-17 Viewplus Inc Compound stereo vision device
US7515734B2 (en) * 2006-03-27 2009-04-07 Eyecue Vision Technologies Ltd. Device, system and method for determining compliance with a positioning instruction by a figure in an image
EP2064676B1 (en) * 2006-09-21 2011-09-07 Thomson Licensing A method and system for three-dimensional model acquisition
US11007070B2 (en) 2008-11-09 2021-05-18 3D Systems, Inc. Modular custom braces, casts and devices and methods for designing and fabricating
JP5440363B2 (en) * 2010-04-27 2014-03-12 カシオ計算機株式会社 Information processing apparatus and method, and program
WO2011137596A1 (en) * 2010-05-07 2011-11-10 深圳泰山在线科技有限公司 Structured-light measuring method and system
JP5644468B2 (en) * 2010-12-20 2014-12-24 株式会社ニコン IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP2011149952A (en) * 2011-03-10 2011-08-04 Sanyo Electric Co Ltd Model input device and model generation system
JP6041127B2 (en) * 2011-08-29 2016-12-07 国立大学法人北海道大学 Columnar object extraction method, columnar object extraction program, and columnar object extraction device
GB2529730B (en) 2013-06-28 2020-04-15 Intel Corp MEMS scanning mirror light pattern generation
US9467680B2 (en) 2013-12-12 2016-10-11 Intel Corporation Calibration of a three-dimensional acquisition system
US10852131B2 (en) 2015-08-19 2020-12-01 Sony Corporation Information processing apparatus and information processing method
US10659764B2 (en) 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
JP2019060709A (en) * 2017-09-26 2019-04-18 株式会社フリックフィット Three-dimensional shape measuring device
CN111727426A (en) 2018-02-20 2020-09-29 松下知识产权经营株式会社 Three-dimensional data distribution device and three-dimensional data distribution method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6198236A (en) * 1984-10-19 1986-05-16 三菱電機株式会社 Identification of person
JPH06209923A (en) * 1993-01-13 1994-08-02 Terumo Corp Physique measuring device
JP2670663B2 (en) * 1994-08-05 1997-10-29 株式会社エイ・ティ・アール通信システム研究所 Real-time image recognition and synthesis device
JPH10149445A (en) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho Device for visualizing physical operation analysis
JPH11175692A (en) * 1997-12-05 1999-07-02 Hitachi Denshi Ltd Collector of data on joint motion
JP3045490B2 (en) * 1997-12-24 2000-05-29 アニマ株式会社 Dynamic shape measurement device
JPH11219422A (en) * 1998-02-02 1999-08-10 Hitachi Ltd Personal identification communication method by face
JPH11326057A (en) * 1998-05-20 1999-11-26 Kao Corp Measuring method and device for three-dimensional object
JP2001082940A (en) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd Apparatus and method for generating three-dimensional model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104949632A (en) * 2015-07-07 2015-09-30 北京博维恒信科技发展有限公司 Three-dimensional scanning system for object surface shape

Also Published As

Publication number Publication date
JP2003061936A (en) 2003-03-04

Similar Documents

Publication Publication Date Title
JP4761670B2 (en) Moving stereo model generation apparatus and method
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
Pan et al. ProFORMA: Probabilistic Feature-based On-line Rapid Model Acquisition.
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
US8698899B2 (en) Motion capture system and method for three-dimensional reconfiguring of characteristic point in motion capture system
CN106997605B (en) A method of foot type video is acquired by smart phone and sensing data obtains three-dimensional foot type
CN111063021A (en) Method and device for establishing three-dimensional reconstruction model of space moving target
GB2315124A (en) Real time tracking of camera pose
US20020164067A1 (en) Nearest neighbor edge selection from feature tracking
Santos et al. 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera
WO2010004466A1 (en) Three dimensional mesh modeling
He Generation of human body models
De Aguiar et al. Marker-less 3D feature tracking for mesh-based human motion capture
JP2011149952A (en) Model input device and model generation system
D'Apuzzo et al. Least squares matching tracking algorithm for human body modeling
JP2009048305A (en) Shape analysis program and shape analysis apparatus
KR102075079B1 (en) Motion tracking apparatus with hybrid cameras and method there
JPH0273471A (en) Estimating method for three-dimensional form
JP2002008014A (en) Method and device for extracting three-dimensional shape, and recording medium
Pan et al. Rapid 3D modelling from live video
Amplianitis et al. Calibration of a multiple stereo and rgb-d camera system for 3d human tracking
Wang et al. Markerless body motion capturing for 3d character animation based on multi-view cameras
Fazakas et al. 3D reconstruction system for autonomous robot navigation
JPH1040385A (en) Object shape restoring device and its method
Remondino et al. Markerless motion capture from single or multi-camera video sequence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110310

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees