JP2009081853A - 撮像システム及び方法 - Google Patents
撮像システム及び方法 Download PDFInfo
- Publication number
- JP2009081853A JP2009081853A JP2008240104A JP2008240104A JP2009081853A JP 2009081853 A JP2009081853 A JP 2009081853A JP 2008240104 A JP2008240104 A JP 2008240104A JP 2008240104 A JP2008240104 A JP 2008240104A JP 2009081853 A JP2009081853 A JP 2009081853A
- Authority
- JP
- Japan
- Prior art keywords
- imaging system
- light sources
- data
- depth map
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000005855 radiation Effects 0.000 claims abstract description 15
- 239000004744 fabric Substances 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 10
- 239000000463 material Substances 0.000 claims description 6
- 230000001678 irradiating effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 229920002334 Spandex Polymers 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004759 spandex Substances 0.000 description 2
- 241001633663 Iris pseudacorus Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000001981 hip bone Anatomy 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000004260 weight control Methods 0.000 description 1
- 239000002759 woven fabric Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/586—Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
【課題】動く三次元物体を撮像するための撮像システム及び方法を提供すること。
【解決手段】動く三次元物体を撮像するための撮像システムにおいて、該システムは、3つの異なる角度から前記物体を照射する少なくとも3つの光源と、前記物体から反射された前記3つの光源からの放射を集めるように備えられたビデオカメラと、前記三次元物体の深度マップを生成するように構成された画像プロセッサと、を備える。前記光源の各々は、異なる周波数の放射を発する。前記画像プロセッサは、前記3つの異なる光源からの反射信号を識別するように構成されている。
【選択図】 図1
【解決手段】動く三次元物体を撮像するための撮像システムにおいて、該システムは、3つの異なる角度から前記物体を照射する少なくとも3つの光源と、前記物体から反射された前記3つの光源からの放射を集めるように備えられたビデオカメラと、前記三次元物体の深度マップを生成するように構成された画像プロセッサと、を備える。前記光源の各々は、異なる周波数の放射を発する。前記画像プロセッサは、前記3つの異なる光源からの反射信号を識別するように構成されている。
【選択図】 図1
Description
本発明は、3D画像作成用のデータを集めて表示するために用いられる撮像システムの技術分野に関する。本発明は、また、複雑な物体(complex objects)の2D及び3Dアニメーション用のデータの生成に用いられても良い。
3D画像作成の分野は、概ね、3Dフィルム製作のためにデータを取得するのにかかる時間により束縛されてきた。これまで、3D映画は、一般に、本格的な記録形式ではなく、目新しいものとして理解されてきた。いま、3D画像生成は、CG画像生成に用いられる重要なツールであると思われている。
3D画像データ作成の一つの確立された方法は、物体の写真を複数の異なる照射方向から撮影するフォトメトリック・ステレオ(例えば、非特許文献1を参照)である。各々の照射方向について、一つの写真が撮影される。したがって、これは、動く物体の映像をリアルタイムに取得するために用いることのできる技術ではない。
非特許文献2は、表面法線を計算するためにカラーを用いることについて述べている。しかしながら、リアルタイムでの3Dビデオの記録の問題を扱うためにカラーが用いられうるという認識はなかった。
R Woodham "photometric method for determining surface orientation from multiple images" Optical Eng. Number 1, pages 139-144 1980 A, Petrov "Light Color and Shape" Cognitive Processes and their Simulation, pages 350-358, 1987
R Woodham "photometric method for determining surface orientation from multiple images" Optical Eng. Number 1, pages 139-144 1980 A, Petrov "Light Color and Shape" Cognitive Processes and their Simulation, pages 350-358, 1987
本発明は、上述の問題を扱い、第1の態様では、動く三次元物体を撮像するための撮像システムにおいて、3つの異なる角度から前記物体を照射する少なくとも3つの光源と、前記物体から反射された前記3つの光源からの放射を集めるように備えられたビデオカメラと、前記三次元物体の深度マップ(depth map)を生成するように構成された画像プロセッサとを含み、前記光源の各々は、複数の周波数(UV放射、IR放射線などを含む)のうちで異なる周波数の放射を発し、前記画像プロセッサは、前記3つの異なる光源からの反射信号を識別するように構成されたシステムを提供する。
更に、本技術は、布、衣類、編物又は織物、シーツなどのような、複雑な物体のためのデータの記録に適用可能である。
動く物体からのデータを記録する場合に、自己遮蔽が発生し、これがデータに影響を与えるであろう。したがって、好ましくは、前記プロセッサは、前記物体が動くときに生じる影の位置を判定するように構成されている。前記影の位置は、前記光源の各々から測定された前記信号の強度が急に変化する位置を特定することによって、判定される。
好ましい実施形態において、前記プロセッサは、前記物体の表面法線の位置を判定する前に、前記影の位置を判定するように構成されている。
好ましい実施形態において、その装置は、キャリブレーションデータを記憶するように構成されたメモリを更に含み、前記キャリブレーションデータは、前記物体と同じ表面特性を持つサンプルからのデータを含み、該サンプルの表面の方向を示す情報とともに記憶されたものである。そして、前記プロセッサは、前記キャリブレーションデータを用いて、集められた前記放射から、前記物体のための深度マップを判定するように構成されても良い。
上記は、キャリブレーションボードと該キャリブレーションボードを搭載するように構成された搭載部とを用いることにより達せされても良い。前記キャリブレーションボードは、前記物体と同じ表面特性を持つ表面部分を有し、搭載するための前記搭載部は、前記キャリブレーションボードの表面の方向を判定するように構成された判定部を含む。
データを集める装置はスタンドアローンであることが可能であるが、前記深度マップから三次元動画像を表示するように構成された表示部を更に含む3D画像生成装置の一部に組み込まれても良い。
前記システムは、また、2D又は3Dアニメーションに用いられても良い。この場合、前記システムは、生成された前記深度マップを移動させるように構成された移動部を含む。
前記システムは、また、前記深度マップにパターンを適用するように構成された適用部を更に含んでも良い。前記適用部は、前記深度マップのフレームから前記物体の3Dテンプレートを形成し、前記フレームの前記物体上のパターンの位置を判定し、前記パターンを持つ前記テンプレートを、その後のフレーム群に適合するよう変形させるように構成されている。前記テンプレートは、該テンプレートの変形が、元の取得された(captured)前記データのフレーム間オプティカルフローに適合する必要があるという制約を用いて変形されても良い。好ましくは、前記テンプレートは、前記変形が前記データに許されるのと同じくらいの剛性であるという更なる制約を用いて変形される。
第2の態様では、本発明は、動く三次元物体を撮像するための方法において、3つの異なる角度から、それぞれ異なる周波数の放射を発する少なくとも3つの光源を用いて、前記物体を照射する工程と、ビデオカメラを用いて、前記物体から反射された前記3つの光源からの放射を集める工程と、前記3つの異なる光源からの反射信号を識別する工程と、前記ビデオカメラの出力から、前記三次元物体の深度マップを生成する工程を含む方法を提供する。
前記方法は、布又は他の柔軟性のある素材の映像化に適用しても良い。
本発明は、これから、以下の非限定的な実施形態を参照して説明される。
図1は、物体1の撮像に用いられる、本発明の実施形態に係るシステムの概略図である。この物体は、3つの異なる光源3,5,7により照射される。
この特定の例において、第1の光源3は、赤色(R)光源であり、第2の光源5は、緑色(G)光源であり、第3の光源7は、青色(B)光源である。
本実施形態において、システムは、データに影響する背景放射を最小限に抑えるために、屋内又は暗い屋外のどちらかに備えられる。3つの光源3,5,7は、横方向には物体1の周囲に配置され、垂直方向には床面の高さから物体1の高さの間のレベルに置かれる。
3つの光源3,5,7の間の角距離は、物体1に関する回転面で約30度である。より大きな角距離は、方向依存性のある色変化をよりはっきりさせることができる。しかしながら、光源が遠く離れすぎると、物体1のくぼんだ形状を識別することがより難しくなる。それは、そのような形状による影が、物体1のより大きい部分に広がり、データ解析をより難しくするからである。より好ましい配置において、物体1の各々の部分は、3つの光源3,5,7の全てにより照射される。
第2の光源5の垂直下方にあるカメラ9は、3つの光源3,5,7により照射されながら動く物体を記録するために用いられる。
システムを校正するために、図2に示されるタイプのキャリブレーションボードが用いられても良い。キャリブレーションボード21は、四角の布23と、複数の円のパターン25とを含む。ボード21が動くことにより、カメラ9と光源3,5,7との間のホモグラフィーを算出することができる。ホモグラフィーを計算することは、カメラに対して複数の光源方向を計算することを意味する。一旦、これが完了すると、ズームとフォーカスは、色又は光源方向に影響しないので、撮影の間、それらを変えることが可能になる。布23は、また、色と方向との間の関連性を測定することを可能にする。
形状を判定するために、まず、撮像される物体の表面上の全ての点について、面の法線方向を判定する必要がある。本実施形態は、3つの光源3,5,7が、どの表面点上においても、その表面点の方向に依存する色キューを生じさせることを、仮定している。
したがって、表面色(ベクトル)Iと方向(ベクトル)nとの間に次の1対1マッピングMが存在する。
I=M(n) または n=M−1(I)
Mを決定するために、フォトメトリック・ステレオ技術は、上記表面がランバート面であり、上記カメラのセンサ応答が線形であることを、仮定している。
I=M(n) または n=M−1(I)
Mを決定するために、フォトメトリック・ステレオ技術は、上記表面がランバート面であり、上記カメラのセンサ応答が線形であることを、仮定している。
ここで、(ベクトル)Iは、画像上で観測されたRGBカラーであり、(ベクトル)bは、環境光を示す定数ベクトルであり、(ベクトル)nは、表面位置における単位法線であり、Lは、3×3の行列である。この行列において、いずれの列も、光源に向けられ且つ物体のアルベド倍した光源強度により基準化された(scaled)、3Dベクトルを表す。物体のアルベドは、入射光に対して反射された割合である。
この例を単純化するために、複数の色割合が一定であると仮定する。すなわち、R/BとB/Gとの間の割当量は、画像上の各々のピクセルについて同一であるものとすべきである。これは、スケール係数までの3×4の行列[LTb]を推定することによって、色と表面方向との間のマッピングが決定されることを可能にする。
多くの実際的な状況では、カメラの応答は非線形であり、また、表面はランバート反射体ではないであろうから、マッピングを計算するのはより難しいであろう。しかしながら、マッピングを測定するために図2に示されるタイプのキャリブレーションツールを用いることが可能である。撮像されることになっている物体の表面の材料が、キャリブレーションボード21の四角23に設置されれば、キャリブレーションシーケンスの一部として、各々の可能な表面法線について画像信号を測定することが可能になる。したがって、非線形条件と完全なランバート反射率特性を持たない表面とを考慮に入れても、表面法線niと材料の明度Iiとの対応は決定可能である。
さまざまの既知のボード方向について画像が取得される最初のキャリブレーションルーティンからの結果は、すべての可能なボード方向について実行される必要はない。それは、すべての方向に適したデータを決定するために、最近隣補間が使用可能だからである。3×4の行列にキャリブレーションデータを提供するために、4つの方向だけからデータを取得することは可能である。良好なキャリブレーションデータは、50前後の方向から獲得される。しかしながら、キャリブレーションデータは、容易に集めれるので、何千もの方向からデータを取得することもあり得る。
非ランバート反射体と非線形の応答関数を持つカメラのための複雑なマッピングを決定するために、キャリブレーションボードを用いる技術が使用可能であっても、なお、物体のアルベドが一定の色度を持つと仮定する必要がある。これが仮定されなければ、マッピングMは、不可逆になり、同一の表面色について、いくつかの有効な表面方向が存在し得るであろう。
物体は、また、撮影の間それ自体を影にしても良い。図3のAは、図1のシステムを用いて取得する、スパンデックスボディースーツを着用しているダンサーの画像である。図3のAは、赤色光源からの画像データを示し、図3のBは、緑色光源からの画像データを示し、図3のCは、青色光源からの画像データを示している。この特定の例において、赤色光源は、ダンサーの右手側にあり、緑色光源は、ダンサーの前方にあり、青色光源はダンサーの左手側にある。表示されたポーズにおいて、ダンサーは、右側にターンする。図3のCにおいて、左足に起因する右足上の影が、より顕著である。
影がない場合、1つのチャネル、すなわち、赤、緑又は青のいずれか、からの反射された照射は、滑らかに変化すると予想されるであろう。急な変化は、エッジの存在を示しており、これらエッジは、ラプラスフィルタを用いることによって各々のチャネルについて判定される。一つのチャネル当り実行されるこの解析からの結果は、図3のDに示される。
エッジピクセルであると判定されたピクセルは、次いで更に、勾配方向(gradient orientation)を判定するために解析される。ピクセルは、基本方位(cardinal directions)の各々(すなわち、北、南、東、西、北西、南西、北東、南東)に沿って解析される。勾配の大きさが閾値τ以下に落ちるピクセルは、破棄される。勾配方向が一致する隣接ピクセルは、結合されたコンポーネントにグループ化される。
物体の境界エッジと影との間の相違を判定するために、そのアルゴリズムを用いることができるであろう。これは、図3のEに示されている。図3のEにおいて、3つのチャネル(RGB)すべてが反射信号強度における急な変化を示す場合、物体の境界エッジが生じる。
上記から、ルックアップシャドウマスクを決定することが可能である。
そして、まず上記の技術を用いて影の位置を判定し、次いで3つの光源すべてからの良好な信号が存在する場合すなわち影が存在しない場合におけるピクセルのすべてについて法線を推定することによって、表面が再構築されても良い。法線は、前述のように推定される。
もし2つの光源からの信号のみが使用可能ならば、なお、データは処理可能である。ただし、一定のアルベド、すなわち、一定の色度及び一定の輝度、が仮定される必要がある。
一旦、表面法線の2Dグリッドが作成されれば、各々の法線フレームは、2Dポワソンソルバー又は同種のものを用いて統合される。例えば、逐次過剰緩和ソルバー(SOR)が、各々のフレームの深度マップ又は表面メッシュの映像を作成するために用いられる。
各々のフレームの表面メッシュの生成は、ポワソンソルバーのための境界条件として用いられるシャドウマークの境界条件に制約される。輪郭のフレーム間コヒーレンシーは、また、境界条件とみなされる。
その技術の的確さを検証するために、マクベス・カラーチャートが用いられた。そのチャートは、有色の光源の各々により順番に照射された。
その技術は、カラー光源中の不純物、例えば、青色光及び緑色光に少量延びた赤色光、を補正することが、見出された。また、その技術は、最近のビデオカメラにしばしば用いられるカラーバランス機能を補正した。
図4のAは、3つのRGB光源すべてにより照射された、図3のダンサーを示し、図4のBは、再校正された画像を示す。ダンサーは、完全にはランバート材料ではないスパンデックスを着用している。再構築物上には、シーム31及びダンサーの寛骨33のような細部を見ることが出来る。したがって、図4のBに示されるタイプの動画像は、図4のAにおいて取得されたデータからリアルタイムに作成することが可能である。
図5は、従来方法と本発明の実施形態との結果を比較したものである。
図5のA,B,Cは、フォトメトリック・ステレオの技術を用いて個別に取得された3つのフレームを示す。フォトメトリック・ステレオにおいて、個別の画像は、デジタルスチルカメラを用いて取得される。次いで、3つの画像からのデータは、既知の方法(例えば、R Woodham “photometric method for determining surface orientation from multiple images” Optical Eng. Number 1, pages 139-144 1980を参照)に従ってDの3D画像を形成するために処理される。
これは、図5のEに示されるようにジャケットを照射するために、図1に示されるように3つの異なる色の光源が用いられる本発明の方法と比較することが可能である。図1の装置を用いて生成された3D画像は、図5のFに示される。
図5のDとFの画像は類似しているが、Fの画像のみがリアルタイムの3Dビデオ構築におけるフレームとして用いることが可能である。これまでにわれわれは、3D画像の品質に影響を及ぼす問題、すなわち、カメラ自身に備わる単色光源の不純物及びカラーバランス機能について検討した。しかしながら、バウンディング・ボックス・ダイアゴナルを用いて計算される、図5のDとFの3D画像の間の誤差は、1.4%だけであった。
図6は、複雑な布地の材料の再構築物を示す。図6のAは、複雑なテクスチャーパターンを持つジャンパーを着用しているモデルを示す。そのモデルは、図1を参照して説明された通り、3つの光源を用いて照射される。
図6のBは、図6のAのモデルについて、図3を参照して説明された通りに生成された画像を示す。ニットのジャンパーの複雑な表面のテクスチャーが、生成された画像においてはっきりと見られる。
衣類は、しばしば、テクスチャーに加えて又は代えて、表面上の色に備わるパターンをしぼませる。
図7のAは、図1を参照して説明された装置を用いて取得された、ダンスをするモデルの一連の画像((i)−(vii))である。ダンスをするモデルは、図6のA及びBにおいて再構築されたのと同じジャンパーを着用している。しかしながら、図7は、一実施形態に係る方法が、カラーパターンが布にどのように適用できるかを示すために利用可能であることを、図示するために用いられる。
図7に示される結果において、カラービデオカメラは、1280×720の解像度をもって用いられた。計算時間は、深度マップの再生についてはフレーム当たり20秒のオーダーであり、パターンの重ね合わせについてはフレーム当たり更に20秒であった。計算は、2GbのRAMを備えた持った2.8GHzのペンティアム(登録商標)4 プロセッサを用いて実行された。
図7のBは、図7のAのダンサーから生成された一連の3D画像を示す。
図7Bの画像は、それぞれ、すぐ上に示された図7のAのフレーム((i)−(vii))に対応する。フレーム((i)−(vii))は、一連のフレームから選択されたフレームである。
フレーム(i)−フレーム番号0
フレーム(ii)−フレーム番号250
フレーム(iii)−フレーム番号340
フレーム(iv)−フレーム番号380
フレーム(v)−フレーム番号427
フレーム(vi)−フレーム番号463
フレーム(vii)−フレーム番号508
ダンサー上にカラーパターンを重ね合わせる第1の方法において、単語ICCV 07及び緑色と黄色の旗である画像は、上述したように深度マップを用いて生成される。
フレーム(i)−フレーム番号0
フレーム(ii)−フレーム番号250
フレーム(iii)−フレーム番号340
フレーム(iv)−フレーム番号380
フレーム(v)−フレーム番号427
フレーム(vi)−フレーム番号463
フレーム(vii)−フレーム番号508
ダンサー上にカラーパターンを重ね合わせる第1の方法において、単語ICCV 07及び緑色と黄色の旗である画像は、上述したように深度マップを用いて生成される。
これは、フレーム(i)から(iii)について功を奏するのが見られるが、しかしながら、フレーム(iv)において、ダンサーが下へ移動しているのにもかかわらず、旗とパターンの両方が同一の垂直レベルでとどまっている。フレーム(iv)において、旗が、ダンサーのジャンパーとともに、よく変形するように見える。しかしながら、ダンサーが下へ移動しているのにもかかわらず、パターンが同一の垂直レベルでとどまっている。したがって、パターンは、ダンサーのジャンパーに比べて上方へ移動しているように見える。この問題は、フレーム(v)から(vii)において継続する。
図7のCは、ジャンパー上にパターンを重ね合わせるための強化された一つの方法の結果を示す。ここで、シーケンスの第1の深度マップ(i)は、それに続く全ての深度マップに適合するように変形されるテンプレートとして用いられる。
これは、zk(u,v)をフレームtにおける深度マップとすることによって、行われる。変形可能なテンプレートは、フレーム0における深度マップに対応して設定され、そのテンプレートは、次式の頂点と1セットのエッジεとを持つ三角形メッシュである。
図7のCで生成された画像は、テンプレートの変形が、元のビデオシーケンスのフレーム間2Dオプティカルフローに適合する必要があるという制約を用いて生成された。
まず、フレーム間オプティカルフローは、法線マップの映像を用いるコンピュータである。次いで、標準オプティカルフローアルゴリズムが用いられる(例えば、M Black and P Anadan “The robust estimation of multiple motions: parametric and piecewise smooth flow fields” Computer Vision and Image Understanding, volume 63(1), pages 75 to 104, January 1996参照)。それのために、フレームtにおけるどのピクセル位置(u,v)も、フレームt+1におけるそのピクセルの移動(ベクトル)dt(u,v)を予測する。(ut,vt)は、フレーム0において(u0,v0)であるピクセルのフレームtにおける位置を意味するとする。(ut,vt)は、次の式を用いて、dt(u,v)を移動させることによって、推定することができる。ここで、j=1……….tである。
上記の処理の結果は、図7のCに見られる。ここで、パターンは、ジャンパーとともに変形し、また、ジャンパーと比較して同一の位置にとどまることを、認めることができる。しかしながら、ジャンパーの上端を見ると、伸張及び他の幾何学的な不自然な結果の発生が始まろうとしているのを、認めることができる。これはフレーム(ii)から見られ、また、フレーム(viii)までにジャンパーの全体の上端が変形されているのが見られる。これらの不自然な結果は、画像ノイズ又は遮蔽によるオプティカルフローにおける誤差に起因する。
この問題に対処するために、画像へ剛性をもたらすように、さらなる制約が付け加えられる。テンプレートメッシュの変形を公式化するために、隣接する頂点に適用される変形は、できるだけ類似した状態に保たれる必要がある。これは、次のエネルギー項ERを加えることにより達成される。
ここで、N(i)は、隣接する頂点iのセットであり、αは、メッシュの剛性の程度を示すパラメータである。この計算の結果は、図7のDに示される。ここでは、フレームの進行につれて、パターンが、移動し、ダンサーのジャンパーとともに変形するのを見ることができ、また、ジャンパーにおいて人工物が見られる。示された実験において、パターンは、500を越えるフレームについてジャンパーを追跡した。
図8は、図6及び7(図7のフレーム(iv))のダンサーの3D画像の異なる角度からの5つのビューを示す。画像は、カラーパターンなしで示されている。ジャンパーの細部は、5つのビューすべてにおいて認めることが可能である。メッシュは、およそ180,000の頂点を含んでいる。
図6,7,8を参照して説明されたデータは、布と、複雑なテクスチャーパターン及び複雑なカラーパターンの両方を持つ布とのモデリングについて、本発明の一実施形態をどのように用いることが可能であるかを示す。
図9は、アニメーション用の布のモデリングについて、本発明の一実施形態をどのように用いることが可能であるかを示す。図9において、図6及び7の動くメッシュは、関節でつながったスケルトンに接続されている。
スキニングアルゴリズムは、コンピューター・アニメーションの技術において良く知られている。図9の特徴を生成するために、スムーズ・スキニング・アルゴリズムが用いられる。それにおいて、頂点(ベクトル)vkは、それぞれ、一つ以上のスケルトンの関節に接続され、各々の関節へのリンクjは、wi,kにより重み付けされる。重みは、各々の関節の動きが頂点の変形にどのくらい影響を及ぼすかを制御する。
まず、固定されたスケルトンを、固定されたドレスの距離パターンに揃え、また、メッシュの頂点の各々について、スケルトン上の最近隣のセットに揃えることによって、メッシュがスケルトンに接続される。(The mesh was attached to the skeleton by first aligning a depth pattern of the fixed dress with a fixed skeleton and for each mesh vertex a set of nearest neighbours on the skeleton.)重みは、これらの距離に反比例するようにセットされる。次いで、スケルトンは、公に利用可能なmocapデータ(Carnegie−mellon mocap database http://mocap.cs.cmu.edu)を用いて映像化される(animated)。メッシュは、取得された布シーケンスのうちの1つを再生することによって映像化される。
Claims (20)
- 動く三次元物体を撮像するための撮像システムにおいて、
3つの異なる角度から前記物体を照射する少なくとも3つの光源と、
前記物体から反射された前記3つの光源からの放射を集めるように備えられたビデオカメラと、
前記三次元物体の深度マップを生成するように構成された画像プロセッサと、
を備え、
前記光源の各々は、異なる周波数の放射を発し、前記画像プロセッサは、前記3つの異なる光源からの反射信号を識別するように構成されていることを特徴とするシステム。 - 前記撮像システムは、キャリブレーションデータを記憶するように構成されたメモリを更に備え、
前記キャリブレーションデータは、前記物体と同じ表面特性を持つサンプルからのデータを含み、該サンプルの表面の方向を示す情報とともに記憶されていることを特徴とする請求項1に記載の撮像システム。 - 前記プロセッサは、前記キャリブレーションデータを用いて、集められた前記放射から前記物体に対する複数の表面法線を判定するように構成されていることを特徴とする請求項2に記載の撮像システム。
- 前記撮像システムは、キャリブレーションボードと該キャリブレーションボードを搭載するように構成された搭載部とを更に備え、
前記キャリブレーションボードは、前記物体と同じ表面特性を持つ表面部分を有し、搭載するための前記搭載部は、前記キャリブレーションボードの表面の方向を判定する判定部を含むことを特徴とする請求項2又は請求項3に記載の撮像システム。 - 前記プロセッサは、前記物体が動くときに生じる影の位置を判定するように構成されていることを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像システム。
- 前記影の位置は、前記光源の各々から測定された前記信号の強度が急に変化する位置を特定することによって判定されることを特徴とする請求項5に記載の撮像システム。
- 前記プロセッサは、前記物体の表面法線の位置を判定する前に、前記影の位置を判定するように構成されていることを特徴とする請求項5又は請求項6に記載の撮像システム。
- 前記物体は非剛性材料を含むことを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像システム。
- 前記物体は布であることを特徴とする請求項1乃至請求項8のいずれか1項に記載の撮像システム。
- 請求項1乃至請求項9のいずれか1項に記載の撮像システムと、前記深度マップから三次元動画像を表示するように構成された表示部と、
を有することを特徴とする三次元画像を生成するための生成システム。 - 請求項1乃至請求項9のいずれか1項に記載の撮像システムと、
生成された前記深度マップを移動させる移動部と、
を有することを特徴とするアニメーションデータを生成するための生成システム。 - 前記生成システムは、前記深度マップにパターンを適用するように構成された適用部を更に含み、
前記適用部は、前記深度マップのフレームから前記物体の3Dテンプレートを形成し、前記フレームの前記物体上のパターンの位置を判定し、前記パターンを持つ前記テンプレートを、その後のフレーム群に適合するよう変形させるように構成されていることを特徴とする請求項10又は請求項11に記載の撮像システム。 - 前記テンプレートは、該テンプレートの変形が、元の取得された前記データのフレーム間オプティカルフローに適合する必要があるという制約を用いて変形されることを特徴とする請求項12に記載の撮像システム。
- 前記テンプレートは、前記変形が前記データに許されるのと同じくらいの剛性であるという更なる制約を用いて変形されることを特徴とする請求項13に記載の撮像システム。
- 動く三次元物体を撮像するための方法において、
3つの異なる角度から、それぞれ異なる周波数の放射を発する少なくとも3つの光源を用いて、前記物体を照射する工程と、
ビデオカメラを用いて、前記物体から反射された前記3つの光源からの放射を集める工程と、
前記3つの異なる光源からの反射信号を識別する工程と、
前記ビデオカメラの出力から、前記三次元物体の深度マップを生成する工程と、
を含む方法。 - 前記方法は、キャリブレーションデータを記憶する工程を更に含み、
前記キャリブレーションデータは、前記物体と同じ表面特性を持つサンプルからのデータを含み、該データは、該サンプルの表面の方向を示す情報とともに記憶されるものであることを特徴とする請求項15に記載の方法。 - 前記方法は、前記物体が動くときに生じる影の位置を判定する工程を含むことを特徴とする請求項15又は請求項16に記載の方法。
- 前記影の位置は、各々の前記光源から測定された前記信号の強度が急に変化する位置を特定することによって、判定されることを特徴とする請求項17に記載の方法。
- 前記物体の表面法線の位置を判定する前に、前記影の位置が判定されることを特徴とする請求項17又は請求項18に記載の方法。
- 請求項15乃至請求項19のいずれか1項に記載の方法に従って布を撮像する工程と、
前記生成された深度マップを映像化する工程と、
を含むことを特徴とする布を映像化する方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0718316.3A GB2452944B8 (en) | 2007-09-19 | 2007-09-19 | An imaging system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009081853A true JP2009081853A (ja) | 2009-04-16 |
Family
ID=38670193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008240104A Abandoned JP2009081853A (ja) | 2007-09-19 | 2008-09-19 | 撮像システム及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090073259A1 (ja) |
JP (1) | JP2009081853A (ja) |
GB (1) | GB2452944B8 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215100A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215102A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215101A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215099A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2012248183A (ja) * | 2011-05-09 | 2012-12-13 | Toshiba Corp | 3d表面形状をキャプチャーするための方法およびシステム |
JP2021018529A (ja) * | 2019-07-18 | 2021-02-15 | 株式会社ミマキエンジニアリング | 立体データ生成装置、立体データ生成方法、及び造形システム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11157977B1 (en) * | 2007-10-26 | 2021-10-26 | Zazzle Inc. | Sales system using apparel modeling system and method |
US8217993B2 (en) * | 2009-03-20 | 2012-07-10 | Cranial Technologies, Inc. | Three-dimensional image capture system for subjects |
US8922547B2 (en) * | 2010-12-22 | 2014-12-30 | Electronics And Telecommunications Research Institute | 3D model shape transformation method and apparatus |
US9888225B2 (en) | 2011-02-04 | 2018-02-06 | Koninklijke Philips N.V. | Method of recording an image and obtaining 3D information from the image, camera system |
MA41117A (fr) | 2014-12-05 | 2017-10-10 | Myfiziq Ltd | Imagerie d'un corps |
EP3460753A1 (en) * | 2017-09-21 | 2019-03-27 | Infaimon, SL | Photometric stereo system and method for inspecting objects with a one-shot camera and a computer program |
GB201715876D0 (en) * | 2017-09-29 | 2017-11-15 | Univ Strathclyde | Wireless optical communication and imaging systems and methods |
TWI680436B (zh) * | 2018-12-07 | 2019-12-21 | 財團法人工業技術研究院 | 深度相機校正裝置及其方法 |
GB2586157B (en) * | 2019-08-08 | 2022-01-12 | Toshiba Kk | System and method for performing 3D imaging of an object |
CN111340949B (zh) * | 2020-05-21 | 2020-09-18 | 超参数科技(深圳)有限公司 | 3d虚拟环境的建模方法、计算机设备及存储介质 |
FR3133095B1 (fr) * | 2022-02-25 | 2024-02-23 | Psa Automobiles Sa | Procédé de calcul de surfaces tridimensionnelles pour véhicule équipé d’un système d’aide à la conduite |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19511534C2 (de) * | 1995-03-29 | 1998-01-22 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zur Erfassung von 3D-Fehlstellen bei der automatischen Inspektion von Oberflächen mit Hilfe farbtüchtiger Bildauswertungssysteme |
EP1126412B1 (en) * | 2000-02-16 | 2013-01-30 | FUJIFILM Corporation | Image capturing apparatus and distance measuring method |
US6850872B1 (en) * | 2000-08-30 | 2005-02-01 | Microsoft Corporation | Facial image processing methods and systems |
US6842532B2 (en) * | 2001-02-08 | 2005-01-11 | The Hong Kong Polytechnic University | Three dimensional measurement, evaluation and grading system for fabric/textile structure/garment appearance |
US7019826B2 (en) * | 2003-03-20 | 2006-03-28 | Agilent Technologies, Inc. | Optical inspection system, apparatus and method for reconstructing three-dimensional images for printed circuit board and electronics manufacturing inspection |
-
2007
- 2007-09-19 GB GB0718316.3A patent/GB2452944B8/en active Active
-
2008
- 2008-09-19 JP JP2008240104A patent/JP2009081853A/ja not_active Abandoned
- 2008-09-19 US US12/233,967 patent/US20090073259A1/en not_active Abandoned
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011215100A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215102A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215101A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2011215099A (ja) * | 2010-04-02 | 2011-10-27 | Seiko Epson Corp | 光学式位置検出装置 |
JP2012248183A (ja) * | 2011-05-09 | 2012-12-13 | Toshiba Corp | 3d表面形状をキャプチャーするための方法およびシステム |
US10097813B2 (en) | 2011-05-09 | 2018-10-09 | Kabushiki Kaisha Toshiba | Methods and systems for capturing 3D surface geometry |
JP2021018529A (ja) * | 2019-07-18 | 2021-02-15 | 株式会社ミマキエンジニアリング | 立体データ生成装置、立体データ生成方法、及び造形システム |
Also Published As
Publication number | Publication date |
---|---|
GB2452944A8 (en) | 2016-09-14 |
GB2452944A (en) | 2009-03-25 |
GB2452944B8 (en) | 2016-09-14 |
GB2452944B (en) | 2010-08-11 |
GB0718316D0 (en) | 2007-10-31 |
US20090073259A1 (en) | 2009-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009081853A (ja) | 撮像システム及び方法 | |
JP4401727B2 (ja) | 画像表示装置及び方法 | |
CN104335005B (zh) | 3d扫描以及定位系统 | |
JP5586594B2 (ja) | イメージングシステム及び方法 | |
JP6238521B2 (ja) | 3次元計測装置およびその制御方法 | |
JP6344050B2 (ja) | 画像処理システム、画像処理装置、プログラム | |
US20100328308A1 (en) | Three Dimensional Mesh Modeling | |
CN112016570B (zh) | 用于背景板同步旋转采集中的三维模型生成方法 | |
JP2010520565A (ja) | 三次元の物体を追跡記録するシステム及び方法 | |
JP2004046772A (ja) | 画像処理方法、画像処理システム、及び画像処理装置 | |
JP2006249618A (ja) | 仮想試着装置 | |
JP2009017480A (ja) | カメラキャリブレーション装置およびそのプログラム | |
KR100834157B1 (ko) | 영상 합성을 위한 조명환경 재구성 방법 및 프로그램이기록된 기록매체 | |
JP3637226B2 (ja) | 動き検出方法、動き検出装置及び記録媒体 | |
CN110458964B (zh) | 一种现实环境动态光照的实时计算方法 | |
JP4761670B2 (ja) | 動立体モデル生成装置及び方法 | |
CN111340959B (zh) | 一种基于直方图匹配的三维模型无缝纹理贴图方法 | |
JP2004318612A (ja) | 画像合成方法、装置、およびプログラム、ならびに立体モデルのレンダリング方法、装置、およびプログラム | |
JP2015233266A (ja) | 画像処理システム、情報処理装置、プログラム | |
JP4193342B2 (ja) | 3次元データ生成装置 | |
CN106235486B (zh) | 基于三维人体扫描仪的个性化制衣方法 | |
TWI501193B (zh) | Computer graphics using AR technology. Image processing systems and methods | |
CN104732586A (zh) | 一种三维人体动态形体和三维运动光流快速重建方法 | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
JP2015206654A (ja) | 情報処理装置、情報処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20100125 |