JP5346398B2 - 実在環境内においてデジタルモデルを視覚化する方法及び装置 - Google Patents

実在環境内においてデジタルモデルを視覚化する方法及び装置 Download PDF

Info

Publication number
JP5346398B2
JP5346398B2 JP2012092230A JP2012092230A JP5346398B2 JP 5346398 B2 JP5346398 B2 JP 5346398B2 JP 2012092230 A JP2012092230 A JP 2012092230A JP 2012092230 A JP2012092230 A JP 2012092230A JP 5346398 B2 JP5346398 B2 JP 5346398B2
Authority
JP
Japan
Prior art keywords
real
video stream
virtual object
dimensional
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012092230A
Other languages
English (en)
Other versions
JP2012168967A (ja
Inventor
ルフェブル,バランティン
ベディー,ジャン−マリー
Original Assignee
トタル イメルシオン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0552478A external-priority patent/FR2889760A1/fr
Priority claimed from FR0552473A external-priority patent/FR2889758A1/fr
Application filed by トタル イメルシオン filed Critical トタル イメルシオン
Publication of JP2012168967A publication Critical patent/JP2012168967A/ja
Application granted granted Critical
Publication of JP5346398B2 publication Critical patent/JP5346398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Description

本発明は、デジタルモデルの視覚化に関するものであり、更に詳しくは、実在環境内においてデジタルモデルを視覚化する方法及び装置に関するものである。
製品の開発コスト及び時間を抑制するべく、これらの製品のモックアップの分析は、実在世界から仮想的世界に向かって進展している。実在モックアップを視覚化するには、そのモックアップを製造する必要がある。コスト及びサイズの理由から、モックアップは、一般に、最終製品よりも小さいサイズで製造されている。しかしながら、このモックアップが、製品の実在表現をうまく処理することができると共に実在環境内に配置可能であるという利点を具備している場合には、この縮尺の違いにより、評価が困難となる。更には、機能強化の追加が、それぞれの実在モックアップにおける深刻且つ予測不能な遅延及びコストの原因となっている。例えば、車両の実在モックアップにおいてヘッドランプの設計を変更する場合は、ヘッドランプの製造と、その後のこのヘッドランプの実在モックアップ内への挿入が必要である。現在、産業界においては、多数の製品を、まずは、コンピュータ上において設計及びモデル化している。その製造の前の段階においては、製品は、仮想的であって、デジタルモックアップの形態で視覚化可能である。デジタルモックアップは、一般的に、ポリゴン、テクスチャ、及び材料に関する情報を有する三次元(3D)表現である。デジタルモックアップの使用は、多数の利点を提供している。具体的には、変更ごとに、新しいモックアップの製造を強いるということがなく、この結果、設計時間及びコストが低減される。モックアップの表現は、しばしば、没入型の部屋を形成するビデオプロジェクタ及びスクリーンの使用を通じて実現されている。
製品を視覚化するべく生成された合成画像は、可能な限り現実に近づいてはいるものの、その製品は、その実在環境から抽出されており、従って、これを競合製品などの実在オブジェクト又はその環境にリンクされた製品と比較することは困難である。従って、デジタルモデルの視覚化を最適化するニーズが存在している。
本発明は、前述の問題点の中の少なくとも1つを解決している。
三次元仮想オブジェクトを実在環境内においてリアルタイムで視覚化する方法を提供することが、本発明の1つの目的であり、この方法は、少なくとも1つのビデオストリームを受信する段階と、少なくとも1つの受信したビデオストリーム内に三次元仮想オブジェクトの二次元表現をリアルタイムで挿入し、三次元仮想オブジェクトの二次元表現が挿入された少なくとも1つの受信したビデオストリームを有する少なくとも1つの増強されたビデオストリームを生成する段階と、少なくとも1つの増強されたビデオストリームを伝送する段階と、を有している。
実在環境内において仮想オブジェクトを視覚化することにより、その実在環境内においてオブジェクトを評価しつつ、同時に遅延及びコストを低減可能である。又、実在環境内において仮想オブジェクトを視覚化することにより、そのオブジェクトのいくつかの変形の分析も円滑に実行されることになる。
特定の一実施例においては、本発明による方法は、仮想オブジェクト上における実在環境の反射を動的に判定するべく第2のタイプのビデオストリームを受信する段階を有している。この結果、仮想オブジェクトの表現上における実在環境の動きを動的に管理することにより、リアリズムが増強される。具体的には、この第2のタイプのビデオストリームは、仮想オブジェクトの環境テクスチャを変更可能である。
更には、特定の一実施例によれば、仮想オブジェクトは、デジタルモックアップであってよい。実在環境内においてデジタルモックアップを視覚化することにより、その実在環境内においてそのモックアップを評価しつつ、同時に遅延及びコストを低減可能である。又、実在環境内においてデジタルモックアップを視覚化することにより、そのモックアップのいくつかの変形の分析も円滑に実行されることになる。
本発明の特定の一態様においては、仮想オブジェクトは、実在環境内に存在する実在モックアップの仮想的な増強である。実在モックアップ上において仮想的な増強を視覚化することにより、これらの増強のいくつかの変形を研究しつつ、同時に遅延及びコストを低減可能である。
更には、特定の一実施例によれば、本発明による方法は、増強されたビデオストリーム内において、ビデオストリームと関連付けられた少なくとも1つのデータストリームを受信する段階を有しており、このデータストリームは、関連付けられたビデオストリームの供給源の動きの特徴を示しており、このデータストリームに従って、三次元仮想オブジェクトの二次元表現を、受信したビデオストリーム内にリアルタイムで挿入している。この実施例においては、ビデオカメラは、移動可能であり、この結果、動的に変更可能な視角において、実在環境内において仮想オブジェクトを視覚化可能である。
更には、特定の一実施例によれば、仮想オブジェクトをアニメーション化することにより、そのリアリズムを増強すると共に、オブジェクトの分析の可能性を向上させている。
特定の一実施例によれば、本発明による方法は、受信したビデオストリーム内に二次元仮想オブジェクトをリアルタイムで挿入することにより、この分析対象の仮想オブジェクトを別の仮想オブジェクトと比較する段階を有している。具体的には、この二次元オブジェクトは、実在人物の表現であってよい。
特定の一実施例によれば、実在環境は、少なくとも1つの実在オブジェクトを有しており、本発明による方法は、実在オブジェクトの複数の特徴ポイントをその実在オブジェクトの仮想モデルの対応したポイントとマッチングさせることにより、実在オブジェクトと仮想オブジェクトの間の空間的リンクを生成する段階を有している。具体的には、本発明による方法は、ビデオストリームの供給源を検出することにより、仮想オブジェクトの視角を判定する段階を有することができる。又、本発明による方法は、実在オブジェクトに従って仮想オブジェクトを拡大縮小する段階を有することも可能である。
実在環境内において三次元仮想オブジェクトをリアルタイムで視覚化する装置を提供することが、本発明の別の目的であり、この装置は、前述の方法のそれぞれの段階を実行するべく適合された手段を有している。
更には、前述の方法のそれぞれの段階を、コンピュータに実行させるための命令を有するコンピュータプログラムを提供することが、本発明の1つの目的である。
本発明のその他の利点、目的、及び特徴については、非制限的な例として付与されている添付の図面を参照した以下の詳細な説明を参照することにより、明らかとなるであろう。
本発明の装置の概略図である。 実在環境内におけるデジタルモデルの視覚化への人物の挿入を示している。
本発明による方法及び装置によれば、ショールームと呼ばれる実在環境内においてモデルを視覚化するべく、デジタルモデルの画像と、このモデルによって表された製品の環境の実在画像をリアルタイムでミキシング可能である。生成されたビデオストリームは、デジタルモデルの追加対象であるショールームを撮影しているビデオカメラなどの供給源からのビデオストリームを有している。以下の説明においては、このビデオストリームを、増強されたビデオストリームと呼び、このストリームの画像を、増強されたショールームと呼ぶこととする。
説明の第1の部分においては、実在環境内においてデジタルモックアップを視覚化するための本発明による方法及び装置を示している。第2の部分においては、この方法及びこれらの装置を使用することにより、実在モックアップに追加された仮想的な増強を視覚化する方法を示している。
図1は、本発明による装置100の一例を概略的に示している。この例においては、ショールームは、高解像度ビデオカメラ105−1と、標準的な解像度を具備した4つのビデオカメラ110−1〜110−4によって撮影している。高解像度カメラは、例えば、1920ピクセル×1080ラインなどのHD規格によって規定された解像度の中の1つを具備可能である。標準的なビデオカメラは、768ピクセル×576ラインをリアルタイムで取得するPAL品質を有することができる。運動キャプチャ装置、即ち、運動センサをそれぞれのビデオカメラと関連付け可能である。この例においては、運動センサ115−1がビデオカメラ105−1と関連付けられており、運動センサ120−1〜120−4が、それぞれ、ビデオカメラ110−1〜110−4と関連付けられている。
それぞれの運動センサは、関連付けられているビデオカメラに装着されている。運動センサは、関連付けられているビデオカメラの可能な運動特性に従って選択されている。例えば、運動センサは、3つの自由度(水平回転、垂直回転、及びズーム)を具備したビデオカメラ用のアジマス/エレベーション/ズームタイプのものか、又は、6つの自由度(x、y、及びz軸との関係における変位、水平回転、垂直回転、及び傾斜)を具備したビデオカメラ用のx/y/z/パン/チルト/ロールタイプであってよい。
ビデオカメラは、ショールーム、即ち、デジタルモックアップが表示される空間を撮影している。ショールームは、例えば、オブジェクト125−1及び125−2などの実在オブジェクトを有することができる。参照符号130は、デジタルモックアップの場所を表している。
ビデオカメラをショールーム内に設置する前に、ビデオカメラ105−1及び110−1〜1104の光学歪み及び視野を算出している。
ビデオカメラ及び運動センサは、コンピュータに接続されている。ビデオカメラは、好ましくは、コンピュータのビデオ取得カードに接続されており、運動センサは、コンピュータの通信ポートに接続されている。図1の例においては、高解像度カメラ105−1及び運動センサ115−1は、第1コンピュータ135−1に接続されており、カメラ110−1〜110−4及び運動センサ120−1〜120−4は、第2コンピュータ135−2に接続されている。尚、これらのコンピュータは、標準的なパーソナルコンピュータ(PC)である。
それぞれのパーソナルコンピュータ135−1又は135−2は、好ましくは、個別のイーサネット(登録商標)ポート140−1及び140−2を具備しており、この結果、これらのパーソナルコンピュータは、互いに情報を交換可能である。又、それぞれのパーソナルコンピュータは、ビデオ取得カード及び通信ポート(図示されてはいない)をも有している。この例においては、パーソナルコンピュータ135−1は、高解像度取得カード145−1を含んでいる。現時点においては、マザーボードに伴う帯域幅制限に起因し、パーソナルコンピュータには、1枚の高解像度取得カードしか挿入することができない。将来においては、同一のパーソナルコンピュータ内において、いくつかの高解像度取得カード又は1つの高解像度取得カード及びいくつかの標準的な取得カードを使用可能となり、従って、パーソナルコンピュータ135−1及び135−2を単一のパーソナルコンピュータによって置換可能となろう。パーソナルコンピュータ135−2は、参照符号145−2を共有している4枚の標準的な取得カードを有している。ビデオカメラ110−1〜110−4と取得カード145−2の間の接続は、コンポジットビデオ又はSVideo接続であってよい。高解像度又は標準的な取得カードは、PCIバスを介してパーソナルコンピュータに接続可能である。
パーソナルコンピュータ135−1及び135−2のそれぞれは、例えば、VGAタイプの出力を有するATI X800、ATI 1800XL、又はNVidia 7900GTXカードなどの、例えば、3Dアクセラレーションを有するグラフィックカードのような個別のグラフィックカード150−1及び150−2を有している。これらのグラフィックカードの出力は、モニタ(図示されてはいない)及び/又はビデオプロジェクタに接続可能である。この例においては、パーソナルコンピュータ135−1のグラフィックカード150−1の出力は、ビデオプロジェクタ155−1に接続されており、パーソナルコンピュータ135−2のグラフィックカード150−2の出力は、ビデオプロジェクタ155−2に接続されている。パーソナルコンピュータ135−1及び135−2によって生成されたビデオストリーム、即ち、増強されたビデオストリームは、1つ又は複数の投影スクリーン160上において同時に表示可能である。或いは、この代わりに、単一の増強されたビデオストリームを表示することも可能である。同様に、4つのビデオカメラ110−1〜110−4からパーソナルコンピュータ135−2によって生成された4つのビデオストリームも、同時に又は非同時に視覚化可能である。ビデオストリームの数と視覚化のサイズは、ユーザーによって選択されている。
パーソナルコンピュータ135−1及び135−2の基本的な役割は、ショールームを表すビデオストリームを取得することと、これにビデオカメラの位置に従ってデジタルモックアップを追加することと、増強されたビデオストリームをリアルタイムでプロジェクタに伝送することである。ビデオカメラからのビデオストリームを増強するべく、パーソナルコンピュータは、3Dオブジェクトをビデオストリーム内にリアルタイムで挿入することによってリアリティを増強するアプリケーション用に設計されたトータル・イマージョン(Total Immersion)社のD’FUSIONソフトウェアを使用可能である。
増強されたビデオストリームの画像の分解能は、理想的には、これらを表示するべく使用されるビデオプロジェクタの固有分解能に対応している。増強されたビデオストリームの画像の分解能は、双一次フィルタリングなどのグラフィックカードに提供されている高品質テクスチャリサイジング法を使用することにより、これらの画像の表示に使用されるビデオプロジェクタの固有分解能に適合させるべく、変更可能である。
デジタルモックアップは、好ましくは、既製のCAD(コンピュータ援用設計)ソフトウェア又はモデリングソフトウェアを使用して生成されている。このファイルを、例えば、DirectXフォーマットなどのD’FUSIONソフトウェアの内部フォーマットに変換している。マスキングの問題を克服するべく、増強されたショールーム内に存在することを要する実在オブジェクトのデジタルモデルをインポートすることも、同様に可能である。この結果、実在要素によってビデオカメラの位置の関数として部分的又は全体的にマスキングされるように、デジタルモデルを視覚化可能である。シーンをレンダリングする時点において、実在ショールーム内に表示される仮想オブジェクトのデジタルモデルと、ショールーム内に存在する実在オブジェクト(例えば、125−1及び125−2)に対応したデジタルモデルは、判明している。実在オブジェクトに対応したデジタルモデルは、画像内において可視状態にはないが、これらは、グラフィックカード上における深さ(Zバッファ)情報との関連において貢献している。この貢献により、仮想オブジェクトを実在オブジェクトによって部分的又は全体的にマスキング可能である。必要に応じてアニメーション化された、テクスチャが付与されたデジタルモックアップの3Dモデルと、ショールーム内に存在する実在オブジェクトの3Dモデルは、好ましくは、例えば、パーソナルコンピュータ135−1及び135−2のディスク上に保存されている。デジタルモックアップのアニメーションは、回転、並進、スケールの変更、及び/又はワイヤメッシュ表示タイプのものであってよい。デジタルモックアップは、好ましくは、増強されたビデオストリームの画像の表示に使用されるビデオプロジェクタの固有分解能を具備している。
本装置をセットアップする際には、実在オブジェクトを、好ましくは、ショールーム内のデジタルモックアップの場所に設置する。この実在オブジェクトのサイズは、好ましくは、デジタルモックアップのサイズに類似しており、実在世界において仮想オブジェクトを更に正確に表示するべく、既定では、この実在オブジェクトのプロポーションは、デジタルモックアップのプロポーションに類似している。この実在オブジェクトは、予め、モデル化されており、これを表す関連CADファイルを使用して本装置を較正している。この実在オブジェクトは、例えば、理想的には低膨張係数を具備した材料から製造された立方体又は平行六面体である。それぞれのビデオカメラの検出ツールを使用することにより、デジタルモックアップの場所に設置された実在オブジェクトの特徴ポイントを実在オブジェクトのデジタルモデルの対応したポイントとマッチングさせている。これにより、実在オブジェクトにリンクされた絶対基準フレーム内において位置及び向き(x/y/z/ロール/ピッチ/ノーズダイブ)を取得可能である。この結果、すべてのビデオカメラが同一の絶対基準フレーム内に配置される。
D’FUSIONソフトウェアは、好ましくは、このデジタルモックアップをそれぞれのビデオカメラからの画像内にリアルタイムで統合している。このソフトウェアは、起動の際に、いくつかのデジタルモックアップを読み込み可能である。次いで、読み込んだものの中から、1つのデジタルモックアップの表示を順次選択可能である。選択したデジタルモックアップについて、例えば、テクスチャや色などの材料、位置、及び/又は向きを変更可能である。例えば、自動車のデジタルモックアップのドアの開閉などのアニメーションを表示することも、同様に可能である。
デジタルモックアップ内における環境の反射を管理するべく、静的環境テクスチャを生成することも可能である。
ショールーム(壁、床、及び天井)をモデル化した後に、180°のビデオカメラパラメータを有する標準モデラを使用して環境テクスチャを算出する方法(球体又は立方体環境マッピング)と、
ショールーム内のデジタルモックアップの意図する場所に反射球体を配設して写真を撮影し、この写真を球体環境マップとして使用する方法、という2つの方法を使用可能である。
この静的環境テクスチャは、初期化又は設置フェーズにおいて判定している。このテクスチャを、ショールームにリンクされたイベントとは無関係に、デジタルモックアップに適用するのである。特に、ショールーム内に存在する動いている実在オブジェクト又は人物は、デジタルモックアップ上に生成された反射に影響を及ぼすことにならない。
この問題を軽減するために、本発明による方法及び装置は、デジタルモデルに適用される反射を動的に管理するべく適合されている。ビデオカメラをショールーム内のデジタルモックアップの場所(130)に設置する。このビデオカメラは、好ましくは、床に固定されており、上方を狙っている、即ち、上方を撮影している。これには、魚眼レンズが装着されている。このビデオカメラからのビデオストリームをパーソナルコンピュータ135−1及び135−2に伝送している。これを使用し、リアルタイムで環境テクスチャを更新している。この結果、例えば、デジタルモックアップ内において反射された自分自身を観察すると共に、移動の際、又はデジタルモックアップに近接したオブジェクトのコンテンツ又は位置が変化した場合に、反射の変化を観察可能である。
デジタルモックアップとの関係において、且つ、従って、デジタルモックアップのスケールが実在オブジェクトのスケールに適合されている場合には、実在オブジェクトとの関係において、1:1のスケールで、増強されたショールーム内に人物を表示可能である。増強されたショールーム内に人物を挿入する方法は、好ましくは、前方及び背後から人物を写真撮影する段階と、これらの写真から人物をクリッピングする段階と、から構成されている。写真を変更して、例えば、緑の背景などの均一色の背景上に人物の画像を得ることにより、写真をクリッピング可能である。この画像の使用の際には、D’FUSIONソフトウェアは、ピクセルシェーダ機能を使用することにより、例えば、緑などの背景色ではないピクセルのみを表示する。或いは、この代わりに、使用するグラフィックカードによるそれぞれのピクセルごとの表示/非表示の判定を実現するアルファ情報、即ち、グレースケール符号化された情報を含む別のビットマップと共に、人物の写真をD’FUSIONソフトウェアに送信する。この写真を使用して3Dオブジェクトにテクスチャを付与するが、この3Dオブジェクトは、例えば、単純な矩形であってよい。この3Dオブジェクトを、増強されたショールーム内において、ビデオカメラの角度に応じて、前面から又は背後から、増強されたショールームの画像の生成に使用されるビデオストリームを生成するビデオカメラの光学軸に垂直の状態において、リアルタイムで配置する。図2は、この方法を示している。参照符号200−1及び200−2は、それぞれ、前面及び背後から撮影された人物の写真のクリッピング結果を示している。右側のシーンは、車のデジタルモックアップの前面(左側)及び背後(右側)に表示された同一人物の写真と共に、車205のデジタルモックアップを有する増強されたショールームを示している。クリッピングされた写真200−1と関連付けられた3Dオブジェクトは、その位置に応じて、デジタルモックアップによってマスキングされているか、又は、デジタルモックアップをマスキングしている。
増強されたショールームを視覚化する際には、例えば、パーソナルコンピュータ135−1及び135−2のキーボードを使用することにより、1つのビデオカメラの視界から別のものに切り換え可能である。ビデオカメラが移動可能であり、且つ、動力が付与されている場合には、例えば、パーソナルコンピュータ135−1〜135−2に接続されたマウス、キーボード、又はジョイスティックなどの別のポインティング装置を使用することにより、それらの動き、それらの向き、及び/又はそれらのズームファクタを制御することも可能である。増強されたショールームに仮想光源を追加することも可能であり、且つ、これらをリアルタイムで調節することにより、これらをショールームの実在照明と調和させることができる。ショールーム内に存在する実在オブジェクトの3Dモデルを使用することにより、ショールーム内におけるそれらのオブジェクトの位置に応じてデジタルモックアップをマスキングする。
又、本発明による方法及び装置は、増強されたリアリティを使用することにより、実在モックアップに仮想的な増強を追加し、且つ、従って、可能な試験の数を増大させつつ、同時に、コスト及び遅延を低減している。図1を参照すれば、実在オブジェクト125−1及び125−2は、ユーザーが仮想的な増強の追加を所望する実在モックアップの2つの部分を表現可能である。当然のことながら、本発明による方法及び装置の特性を変更することなしに、1つ又は複数の実在オブジェクト上に、又はこれらのそばに、仮想的な増強を配置可能である。
実在モックアップのデジタルモデルは、好ましくは、既製のCADソフトウェア又はモデラを利用して生成され、且つ、例えば、DirectXフォーマットなどのD’FUSIONソフトウェアの内部フォーマットにインポートされる。この3Dデジタルモデルは、好ましくは、使用するパーソナルコンピュータのハードディスク上に保存されている(このモデルのテクスチャは不要である)。又、実在モックアップに追加される仮想的な増強のデジタルモデルも、CADソフトウェアを利用して生成し、D’FUSIONソフトウェアの内部フォーマットにインポートし、且つ、ハードディスク上に保存可能である。これらの仮想的な増強は、好ましくは、これらの仮想的な増強を内蔵した増強されたビデオストリームからの画像の表示に使用されるビデオプロジェクタの固有分解能を有している。前述のデジタルモックアップと同様に、仮想的な増強をアニメーション化することも可能である(回転、並進、スケールの変更、及び/又はワイヤメッシュ表示)。
ビデオカメラの正確な位置は、実在モックアップの特徴ポイントをデジタルモデルの対応したポイントとマッチングさせることによって判定している。反射は、デジタルモックアップの視覚化と同様の方法において管理している。
仮想的な増強を表示する際には、これらのそれぞれを選択し、これらを表示するか又はこれらを消失させ、これらの位置を変更し、これらの向きを変更すると共に/又は、これらのテクスチャを変更可能である。
本発明は、実在環境、即ち、ショールーム内においてデジタルモックアップを視覚化しており、或いは、実在モックアップの仮想的な増強を視覚化している。デジタルモックアップ又は仮想的な増強上におけるショールームによって生成された反射の動的な管理以外に、本発明の新規な特徴は、
いくつかの環境マップを合成することにより、デジタルモックアップ又は仮想的な増強上における外部世界の反射の動的な管理を、それらの反射の静的な管理と合成可能であり(それぞれのマップの影響の程度は、例えば、0〜1の間で変化するパラメータによって付与可能である)、
いくつかのビデオカメラを使用することにより、異なる角度からデジタルモックアップ又は仮想的な増強を視覚化可能であり、
ショールーム内においてデジタルモックアップ又は仮想的な増強を視覚化するべく使用されるビデオカメラは、固定又は移動可能であってよいと共に、これらの焦点距離は、可変であってよく、
増強された画像、即ち、実在オブジェクト及び仮想オブジェクトから構成された画像をリアルタイムで表示しており、即ち、デジタルモックアップ又は仮想的な増強を有するショールームの視覚化が、ショールームの撮影と同時に実行されており、
デジタルモックアップ又は仮想的な増強をリアルタイムでアニメーション化可能であり、
ショールーム内におけるデジタルモックアップ又は仮想的な増強の位置とこれらの向きをリアルタイムで変更可能であり、
ショールームは、実在オブジェクト、具体的には、モックアップと比較される実在オブジェクトを有することが可能であり、それぞれのビデオカメラからの観察状態に応じて、デジタルモックアップ又は仮想的な強化を実在オブジェクトによって部分的に又は全体的にマスキング可能であり、
ショールーム内における実在オブジェクトの位置と、これらの向きをリアルタイムで変更可能であり、
ショールームは、物理的な人物を有することが可能であり、
本発明による装置をビデオ会議システムに接続することにより、コンポジット画像を別の場所にリアルタイムで伝送可能であり、
本発明による装置は、高解像度カメラを使用可能である、という利点を具備している。
画像処理及び増強されたリアリティの分野における熟練者であれば、当然のことながら、特定の要件を満足させるべく、以上の説明を変更することにより、自身の要件を満足させることが可能である。
105−1 高解像度ビデオカメラ
110−1〜110−4 ビデオカメラ
130 デジタルモックアップの場所
125−1,125−2 オブジェクト
135−1 第1コンピュータ
135−2 第2コンピュータ
155−1,155−2 ビデオプロジェクタ
160 スクリーン

Claims (14)

  1. 実在環境内において三次元仮想オブジェクトをリアルタイムで視覚化する方法において、
    少なくとも1つのビデオストリームを受信する段階と、
    前記少なくとも1つの受信したビデオストリーム内に前記三次元仮想オブジェクトの二次元表現をリアルタイムで挿入し、前記三次元仮想オブジェクトの前記二次元表現が挿入された前記少なくとも1つの受信したビデオストリームを有する少なくとも1つの増強されたビデオストリームを生成する段階と、
    第2のタイプのビデオストリームを受信し、前記少なくとも1つのビデオストリームは、少なくとも1つの第1のタイプのビデオストリームであり、前記第2のタイプのビデオストリームにより、前記三次元仮想オブジェクト内における前記実在環境の反射の動的な判定が可能である段階と、
    これらそれぞれの影響の程度に応じて環境マップを合成することにより、前記反射の前記動的な管理を、これらの反射の静的な管理と合成する段階、及び
    前記少なくとも1つの増強されたビデオストリームを伝送する段階とを有し、
    前記少なくとも1つのビデオストリームは、前記仮想オブジェクトとは異なる少なくとも1つの実在オブジェクトの表現を備えており、更に、少なくとも1つの実在オブジェクトに関係する三次元モデルの関数及び少なくとも1つの実在オブジェクトの位置の関数である少なくとも1つの実在オブジェクトによって、前記仮想オブジェクトの一部をマスキングすることを備えていることを特徴とする方法。
  2. それぞれの環境マップの影響の程度は、0と1の間で変化するパラメータによって付与されることを特徴とする請求項1に記載の方法。
  3. 前記第2のタイプのビデオストリームは、前記三次元仮想オブジェクトの環境テクスチャを変更することを特徴とする請求項1に記載の方法。
  4. 前記仮想オブジェクトは、デジタルモックアップであることを特徴とする請求項1から3のいずれか1項に記載の方法。
  5. 前記仮想オブジェクトは、前記実在環境内に存在する実在モックアップの仮想的な増強であることを特徴とする請求項1から3のいずれか1項に記載の方法。
  6. 前記第1のタイプの少なくとも1つのビデオストリームと関連付けられた少なくとも1つのデータストリームを受信する段階を更に有しており、前記少なくとも1つのデータストリームは、前記関連付けられたビデオストリームの供給源の動きの特徴を示しており、前記三次元仮想オブジェクトの前記二次元表現は、前記少なくとも1つのデータストリームに従って、前記少なくとも1つの受信したビデオストリーム内にリアルタイムで挿入されることを特徴とする請求項1から5のいずれか1項に記載の方法。
  7. 前記三次元仮想オブジェクトは、アニメーション化されることを特徴とする請求項1から6のいずれか1項に記載の方法。
  8. 前記少なくとも1つの受信したビデオストリーム内に前記三次元仮想オブジェクトの二次元表現をリアルタイムで挿入する前記段階は、前記少なくとも1つの受信したビデオストリーム内に二次元仮想オブジェクトをリアルタイムで挿入する段階を更に有することを特徴とする請求項1から7のいずれか1項に記載の方法。
  9. 前記二次元仮想オブジェクトは、実在人物の表現であることを特徴とする請求項8に記載の方法。
  10. 前記実在環境は、少なくとも1つの実在オブジェクトを有しており、この場合に、前記方法は、前記実在オブジェクトの複数の特徴ポイントを前記実在オブジェクトの仮想モデルの対応したポイントとマッチングさせる段階を更に有することを特徴とする請求項1から9のいずれか1項に記載の方法。
  11. 前記少なくとも1つの受信したビデオストリームの供給源を検出する段階を更に有することを特徴とする請求項10に記載の方法。
  12. 前記少なくとも1つの実在オブジェクトに従って前記三次元仮想オブジェクトをスケーリングする段階を更に有することを特徴とする請求項10又は11に記載の方法。
  13. 請求項1から12のいずれか1項に記載の方法のそれぞれの段階を実行するべく適合された手段を有する装置。
  14. 請求項1から12のいずれか1項に記載の方法のそれぞれの段階を、コンピュータに実行させるためのコンピュータプログラム。
JP2012092230A 2005-08-09 2012-04-13 実在環境内においてデジタルモデルを視覚化する方法及び装置 Active JP5346398B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0552478A FR2889760A1 (fr) 2005-08-09 2005-08-09 Systeme permettant d'ajouter des elements virtuels a une maquette reelle
FR0552473A FR2889758A1 (fr) 2005-08-09 2005-08-09 Systeme permettant de visualiser une maquette numerique integree dans un lieu reel
FR0552473 2005-08-09
FR0552478 2005-08-09

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008525602A Division JP5038307B2 (ja) 2005-08-09 2006-08-09 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012168967A JP2012168967A (ja) 2012-09-06
JP5346398B2 true JP5346398B2 (ja) 2013-11-20

Family

ID=37636102

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008525602A Active JP5038307B2 (ja) 2005-08-09 2006-08-09 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム
JP2012092230A Active JP5346398B2 (ja) 2005-08-09 2012-04-13 実在環境内においてデジタルモデルを視覚化する方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008525602A Active JP5038307B2 (ja) 2005-08-09 2006-08-09 実在環境内においてデジタルモデルを視覚化する方法、装置、及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US8797352B2 (ja)
EP (1) EP1913559B1 (ja)
JP (2) JP5038307B2 (ja)
WO (1) WO2007017598A2 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
EP1929430A4 (en) 2005-08-29 2011-06-29 Evryx Technologies Inc INTERACTIVITY OF MOBILITY RECOGNITION
FR2911211B1 (fr) * 2007-01-05 2009-06-12 Total Immersion Sa Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images
US9041722B2 (en) * 2007-11-16 2015-05-26 Sportvision, Inc. Updating background texture for virtual viewpoint animations
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8436891B2 (en) * 2009-09-16 2013-05-07 Disney Enterprises, Inc. Hyperlinked 3D video inserts for interactive television
EP2512394A4 (en) 2009-12-17 2015-07-22 Headway Ltd LEARNING AND REPEATING PROCESS AND DEVICE FOR PHYSIOTHERAPEUTIC APPLICATIONS
US9514654B2 (en) 2010-07-13 2016-12-06 Alive Studios, Llc Method and system for presenting interactive, three-dimensional learning tools
JP5690135B2 (ja) * 2010-12-29 2015-03-25 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
USD648796S1 (en) 2011-01-31 2011-11-15 Logical Choice Technologies, Inc. Educational card
USD675648S1 (en) 2011-01-31 2013-02-05 Logical Choice Technologies, Inc. Display screen with animated avatar
USD647968S1 (en) 2011-01-31 2011-11-01 Logical Choice Technologies, Inc. Educational card
USD648390S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
USD654538S1 (en) 2011-01-31 2012-02-21 Logical Choice Technologies, Inc. Educational card
USD648391S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
GB201102794D0 (en) * 2011-02-17 2011-03-30 Metail Ltd Online retail system
US9586141B2 (en) 2011-09-08 2017-03-07 Paofit Holdings Pte. Ltd. System and method for visualizing synthetic objects within real-world video clip
EP2620917B1 (en) 2012-01-30 2019-08-28 Harman Becker Automotive Systems GmbH Viewing system and method for displaying an environment of a vehicle
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
WO2015140815A1 (en) * 2014-03-15 2015-09-24 Vats Nitin Real-time customization of a 3d model representing a real product
DE102014208048A1 (de) 2014-04-29 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur Personalisierung eines Ausstellungsraums
DE102014208352A1 (de) 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Instruieren eines Teilnehmers eines Fahrertrainings
US9659381B2 (en) * 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
US9857939B2 (en) * 2015-02-27 2018-01-02 Accenture Global Services Limited Three-dimensional virtualization
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US9858706B2 (en) 2015-09-22 2018-01-02 Facebook, Inc. Systems and methods for content streaming
US10096130B2 (en) * 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
CN105139784B (zh) * 2015-10-22 2018-06-08 深圳市中视典数字科技有限公司 三维场景互动展示装置及方法
DE102015014041B3 (de) * 2015-10-30 2017-02-09 Audi Ag Virtual-Reality-System und Verfahren zum Betreiben eines Virtual-Reality-Systems
EP3236336B1 (en) * 2016-04-21 2019-03-27 Nokia Technologies Oy Virtual reality causal summary content
DE102016119639A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen
DE102016119640A1 (de) * 2016-10-14 2018-04-19 Uniqfeed Ag System zur Erzeugung angereicherter Bilder
DE102016119637A1 (de) 2016-10-14 2018-04-19 Uniqfeed Ag Fernsehübertragungssystem zur Erzeugung angereicherter Bilder
US10888777B2 (en) * 2018-10-01 2021-01-12 International Business Machines Corporation Deep learning from real world and digital exemplars
US11189061B2 (en) 2019-06-25 2021-11-30 Universal City Studios Llc Systems and methods for virtual feature development
CN110992474B (zh) * 2019-12-13 2023-10-31 四川中绳矩阵技术发展有限公司 一种时域技术的实现方法
US11710280B1 (en) * 2020-08-14 2023-07-25 United Services Automobile Association (Usaa) Local physical environment modeling in extended reality environments
CN114859744B (zh) * 2022-05-07 2023-06-06 内蒙古云科数据服务股份有限公司 一种基于大数据的智能应用可视化控制方法及系统

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3249955B2 (ja) * 1999-09-09 2002-01-28 株式会社ナムコ 画像生成システム及び情報記憶媒体
JP3372234B2 (ja) * 2000-01-28 2003-01-27 株式会社スクウェア 反射画像表示方法、ゲーム装置及び記録媒体
US6803928B2 (en) * 2000-06-06 2004-10-12 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Extended virtual table: an optical extension for table-like projection systems
US20020094189A1 (en) * 2000-07-26 2002-07-18 Nassir Navab Method and system for E-commerce video editing
US20020105480A1 (en) * 2001-01-19 2002-08-08 Transvision, Inc. Three-dimensional large screen display
US6822648B2 (en) * 2001-04-17 2004-11-23 Information Decision Technologies, Llc Method for occlusion of movable objects and people in augmented reality scenes
US20040135744A1 (en) * 2001-08-10 2004-07-15 Oliver Bimber Virtual showcases
JP4856335B2 (ja) * 2001-09-17 2012-01-18 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、及びゲーム装置
JP2005063004A (ja) * 2003-08-08 2005-03-10 Canon Inc 複合現実感システム
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
US20080211813A1 (en) * 2004-10-13 2008-09-04 Siemens Aktiengesellschaft Device and Method for Light and Shade Simulation in an Augmented-Reality System
FR2911211B1 (fr) * 2007-01-05 2009-06-12 Total Immersion Sa Procede et dispositifs pour inserer en temps reel des objets virtuels dans un flux d'images a partir de donnees issues de la scene reelle representee par ces images
US20080263460A1 (en) * 2007-04-20 2008-10-23 Utbk, Inc. Methods and Systems to Connect People for Virtual Meeting in Virtual Reality
KR101001617B1 (ko) * 2007-12-17 2010-12-17 한국전자통신연구원 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images

Also Published As

Publication number Publication date
JP2012168967A (ja) 2012-09-06
WO2007017598A3 (fr) 2007-04-12
JP2009505192A (ja) 2009-02-05
EP1913559A2 (fr) 2008-04-23
WO2007017598A2 (fr) 2007-02-15
US8797352B2 (en) 2014-08-05
US20100277468A1 (en) 2010-11-04
EP1913559B1 (fr) 2016-10-19
JP5038307B2 (ja) 2012-10-03

Similar Documents

Publication Publication Date Title
JP5346398B2 (ja) 実在環境内においてデジタルモデルを視覚化する方法及び装置
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
AU2018233733B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
JP7007348B2 (ja) 画像処理装置
US20120120113A1 (en) Method and apparatus for visualizing 2D product images integrated in a real-world environment
RU2433487C2 (ru) Способ проецирования изображения на поверхности реальных объектов
GB2256567A (en) Modelling system for imaging three-dimensional models
JP2003099799A (ja) 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法
EP2147412A1 (en) 3d object scanning using video camera and tv monitor
JP2007299062A (ja) 情報処理方法、情報処理装置
JP2001126085A (ja) 画像生成システム、画像表示システム、画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体および画像生成方法
Fukamizu et al. Elamorph projection: Deformation of 3d shape by dynamic projection mapping
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
Felinto et al. Production framework for full panoramic scenes with photorealistic augmented reality
Trapp et al. Colonia 3D communication of virtual 3D reconstructions in public spaces
Santos et al. Display and rendering technologies for virtual and mixed reality design review
WO2023223958A1 (ja) 三次元再構成方法、及び三次元再構成システム
JP2022093262A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
Liu et al. Research on Real-Time Graphics Drawings Technology in Virtual Scene
Kim et al. Tangible Telemeeting System with Tangible Video Avatar and Large Display
Abad et al. Integrating synthetic objects into real scenes
Bailey et al. Introduction to computer graphics
Zink Kinect Programming with Direct3D 11
JP2004152047A (ja) 画像分割合成方法およびシステム、そのためのプログラムおよび記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130816

R150 Certificate of patent or registration of utility model

Ref document number: 5346398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250