JP5878511B2 - 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法 - Google Patents

3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法 Download PDF

Info

Publication number
JP5878511B2
JP5878511B2 JP2013237392A JP2013237392A JP5878511B2 JP 5878511 B2 JP5878511 B2 JP 5878511B2 JP 2013237392 A JP2013237392 A JP 2013237392A JP 2013237392 A JP2013237392 A JP 2013237392A JP 5878511 B2 JP5878511 B2 JP 5878511B2
Authority
JP
Japan
Prior art keywords
image file
mesh
matching
photographed image
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013237392A
Other languages
English (en)
Other versions
JP2015097060A (ja
Inventor
ウェイミン ワン,ダグラス
ウェイミン ワン,ダグラス
ライ,ペンチェン
Original Assignee
萬里科技股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 萬里科技股▲ふん▼有限公司 filed Critical 萬里科技股▲ふん▼有限公司
Priority to JP2013237392A priority Critical patent/JP5878511B2/ja
Publication of JP2015097060A publication Critical patent/JP2015097060A/ja
Application granted granted Critical
Publication of JP5878511B2 publication Critical patent/JP5878511B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は3D画像表現(photographic presentation)の領域に係り、それは仮想現実(virtual reality)技術により、高品質の撮影画像(photo image)を表現し、それはさらに3Dモデリングテクノロジー(3D modeling technology)の長所を採用して物理測量(physical measurement)或いは制御に用いられる幾何データ(geometry data)を提供し、並びに拡張現実アプリケーション(augmented reality application)に使用可能で、それはまたリアルタイムアプリケーション(real time application)に用いられる立体表示システム(stereoscopic display system)へも援用できる。
仮想現実は一組の撮影画像を使用することで、異なる視角(view angle)から見た実体オブジェクト(solid object)を表現する。それは表現アプリケーションに用いられる高品質撮影画像を提供する。しかし、フォトフレームの数量は有限であり、視角は不連続な撮影位置の数量に制限されるため、不順調な動画(non-smooth animation)を形成する。且つ撮影画像も幾何データを包含しない。それらは表現時には正確に配列不能で、並びにどのような物理関係アプリケーション(physical related application)にも用いることができず、すなわち測量或いはコントロールに用いることはできない。
3Dモデリングは、もう一種の実体オブジェクトを表現する方法である。それは幾何情報を有し、拡張現実等を含む物理アプリケーションに用いられ得る。しかし、正確な幾何データを得て高品質表現に用いてテクスチャマッピング技術(texture mapping technique)と併せて表現するには、幾何データをキャプチャし大量のテクスチャ画像を保存しなければならない。且つ、低性能のパーソナル演算装置(personal computing device)によりリアルタイムのフォトリアリスティックレンダリング(photo-realistic rendering)を実行するのは容易ではない。
これにより、商業的に応用して高い画像品質を発生し、フォトリアリスティックな仮想現実を表現する必要があり、並びに現実応用を物理拡張し、幾何情報を納入する必要があり、特に、デスクトップパソコン(desktop personal computer,desktop PC)或いはタブレットPC及びスマートフォン(smart phone)等のモバイルデバイス(mobile device)ではそうである。高品質のビュー体験(viewing experience)と物理情報を併せて提供するための一種類の方式としては、仮想現実と3Dモデリングの2種類の異なる方法の長所を結合し、随所で得られる演算装置により、経済的な解決方法を提供すると共に品質の要求に合致させることができる。本発明はこれらの目標を達成し、並びに既存の演算装置と機械システムにより実施できるものとする。
本発明の一種の実施態様(aspect)は、一組のフォトフレーム(photo frame)と一組の幾何情報を結合させる一種の方法、及び、一台の演算装置のビューウインドウ(viewing window)下の一つの3D空間(3D space)中に、2D画像(2D photo)を表現する一種のシステム化方式であり、また3D表現空間下で、イメージフレーム(image frame)の関係パラメータ(parameter)と実体オブジェクトのビュー変換(viewing transformation)の間の数学関係を記述する。
本発明のもう一種の実施態様は、一つのコンピュータコントロール機械システム(computer-control mechanical system)を包含し、異なる視角で自動的に撮影画像をキャプチャする一種のシステムを記載し、また各種の光学走査ハードウエア(optical scanning hardware)或いはシルエット(silhouette)或いは参照点(referencing mat)或いは参照線(referencing stripe)で3D幾何データを獲得する撮影カメラ(photo taking camera)を基準とする一種の3D幾何データ走査サブシステム(3D geometry data scanning subsystem)を記載する。
本発明のもう一種の実施態様は、本発明を実施するのに用いられるソフトウエアシステム(software system)とクライアント側ビュー装置(client viewing device)を記載し、そのうち、ソフトウエアシステムは、一つのワークステーション(workstation)、一つの保存システム(storage system)、及び遠隔サーバー(remote server)で構成され、また2Dフォトフレームと走査により得た3D幾何データを整合して手動で或いは自動的に一組の制御パラメータを生成する一種のソフトウエアプログラム(software program)を記載し、さらに、画像と幾何データをダウンロードし、及び、フォトリアリスティックな実体オブジェクトを閲覧、測量及び制御するのに用いられる一種のソフトウエアプログラムを記載している。
本発明のもう一種の実施態様は、立体表示の実施と機能の制御に用いられるハードウエアとソフトウエアシステムの一種の延伸アプリケーションを記載する。
本発明は異なる視角で撮影されたオブジェクトの撮影画像集と撮影画像の各フレームに対応する幾何パラメータセットを用いて3Dモデルデータを結合する方法であり、それは、演算装置がリアルタイムに高品質で、リアルな3D画像を表現するのに用いられる。本発明はさらに、物理アプリケーションに用いられる3D幾何データを提供し、それは自動或いは手動の撮影システムと同一ハードウエアシステムで、或いは独立した3D幾何走査システムより同じオブジェクトについて導入した3D幾何データを、手動、半自動或いは自動ソフトウエアツールでこれら情報を整合して全体ファイルパケットとなし、その後、3D環境の閲覧プログラムで表現する。本発明はまた、立体システムに援用され、並びにリアルタイムの物理操作制御能力、高品質、迫真の視覚効果を提供する。
3Dモデリングデータで、3D空間中にあって仮想現実画像を表現する状況を示す(リアルオブジェクト、ビューウインドウ、高解析度画像及び3Dメッシュ及び閲覧者との間の関係を示す)。 一種の3D仮想現実システムの具体的実施例を示す( 機械画像と3Dデータキャプチャシステム、整合用コンピュータ、データとプログラムサーバー及びクライアント側ビュー装置)。 データキャプチャ、整合及びビューシステムのブロック図である(キャプチャデータの処理、保存が必要なデータ、整合用プログラム及びビュープログラム)。 撮影画像キャプチャシステムを示す(画像キャプチャ用の機械システムと画像ファイルを生成する動作フロー)。 撮影カメラ或いは3Dスキャナで3Dモデリングデータをキャプチャする方法を示す(撮影カメラ或いは3Dスキャナの機械システムと3D幾何データを生成する動作フロー)。 3Dデータ嵌め込みシステム図である(2D画像に対して一枚ずつ3D幾何データを嵌め込み、画像上で6個の自由度の変数を指定し、及び、自動処理を実行するのに必要な参考フォトフレームを製作する)。 比の調整、位置調整及び回転によるフォトフレームパラメータの調整を示す(各フォトフレームに対して6個の変数或いはその対応データを調整するユーザーインタフェースを用い、三つの主要な調整ステップを実施する必要がある)。 全てのフォトフレームに用いられる自動パラメータ生成法を示す(各フォトフレームに対して6個の変数或いはその対応データを調整するユーザーインタフェースを用い、三つの主要な調整ステップを実施する必要がある)。 画像製作、3Dデータとデータ図製作に用いられるファイルシステム及びビュープログラムのフローチャートである(生成されるデータファイルと対応する画像製作と幾何データファイル、及びダウンロードした画像とデータを表現するビュープログラムフローチャートである。 3Dでの表現と制御のビュープログラムである(エンドユーザー用ビュープログラムの機能と制御、及び、高解析度表現に用いられるデータソース構造と順調操作に用いられる変形技術)。 立体システムへの援用を示す(同じシステムを使用して二組の対応する撮影画像を撮影し、そのフォトフレームに立体表示と制御の規範を組み合わせる)。
本発明の上述の特徴と長所をより明確にご理解いただくために、以下に複数の実施例を挙げ、並びに添付の図面を組み合わせて、以下のように詳細に説明する。
図1は、2D撮影画像108を、投射の方式で、2Dビューウインドウ106上にマッピングする方法100を示している。
一つの実体オブジェクト102の6個の自由度(degrees of freedom)に対して、マトリックス変換(matrix transformation)を使用することで、2D撮影画像108と3Dメッシュ110を組み合わせる。ここで、実体オブジェクトが一つのマグカップ(mug)である場合を例として説明する。しかし、その他の図示されていない実施例においては、たとえば、一足の靴(shoe)、一つの電球(light bulb)等の任意のその他の実体オブジェクトに置換可能である。一つの3Dスキャナ(3D scanner)より生成した幾何パラメータは、一つの3Dメッシュ110を構築できる。
閲覧者104は、インタラクティブの方式で、画像を閲覧及び制御できる。2D画像は、比率sを利用し拡縮でき、スクリーン座標(x,y)を介して水平移動でき、並びにω角にさらに(θ,ψ)角を加えて回転でき、各行、列の位置上の全体のフォトフレームはいずれもこれらのパラメータにより表示され得る。
図2に示されるのは、機械コントロール(mechanical control)、画像処理 (image processing)及びデータ整合(data composition)に用いられるコンピュータシステム126と一つの具体的実施例120を表示する。画像キャプチャシステム(photo capture system)121は、制御される回転プラットフォーム(rotating platform)122と複数のアーム(arm) 124で構成され、それはレンズを利用して拡縮してψ方向上で移動し傾斜制御を受けるカメラ123を有し、異なる位置(θ,ψ)にあって実体オブジェクト102に対して画像を撮影する。
ここでは、3D幾何データをキャプチャするのに用いられる一つの3D走査サブシステム128(ハードウエア或いはソフトウエア強化型)を包含し、それは一つの3Dメッシュ110(図1に表示される)を構築できる。もし2D撮影画像108(図1に表示される)のシルエットを利用する撮影測量技術(photogrammetry)を、3Dモデリングに用いるならば、すなわち、走査サブシステム128はカメラ123に置換できる。
コンピュータシステム126は2D撮影画像108と3Dメッシュ110を整合し、並びにインターネットネットワーク(Internet network)130を介してそれらを一つの遠隔サーバーとインターネットネットワーク130に接続されたネットワーク保存システム(network strage system)134に発送する。
コンピュータ、タブレットPC、スマートフォン等の、閲覧と制御のソフトウエアを具えた一台の、インターネットに接続されたクライアント側装置132 (Internet connected client device)132を使用して、インタラクティブ方式で、2D撮影画像108と3Dメッシュ110を閲覧及び制御する。
図3には一つのブロック図140が表示され、データがいかにキャプチャ、処理及び保存され、その後、クライアント側の閲覧者に運用されるかを表現している。
ブロック142中、2D撮影画像は、各ビュー位置で一枚ずつキャプチャされ、並びに前もって処理され、選択的に画像背景(image background)が排除されるか、圧縮されて、階層式画像解析度(hierarchical pixel resolution)、透明度情報(transparency information)を有するJPEG形式とされ、その後、さらにブロック144中に示されるように、さらに一つの2D撮影画像ファイル中に保存される。
ブロック146中において、3D幾何データは、(これに限定されるわけではないが)たとえば、一種の3Dモデリングデータ走査法(3D modeling data scan)で、異なるビュー位置で走査される。ただし、フィルタリング処理(filtering process)により信頼できるデータ(reliable data)が得られた後、それらはグローバル座標システム(global coordinates system)で、さらに一組のメッシュポイント(mesh point)へと整合され、ブロック148中に示されるように実体オブジェクトファイル(solid object file)或いはいわゆる3Dメッシュとされる。
ブロック150中、一つの整合システム(composing system)が、2D撮影画像ファイルと実体オブジェクトファイルを処理し、高画像品質、フォトリアリスティックな仮想現実表現(photo-realistic virtual reality presentation)と物理拡張現実アプリケーション(physical augmented reality application)のために、3Dメッシュの3D幾何パラメータに、2D画像ファイル中の2D撮影画像の対応する2D撮影画像パラメータを組み合わせ、その後、2D撮影画像ファイルと3Dメッシュのマッチングを達成する。整合結果はブロック152中に示されるように、一つのアプリケーション及びデータフォルダ(application and data folder)の一つのファイル構造(file structure)に保存され得て、異なる解析度レベル(resolution level)、実体オブジェクトファイル及びデータ図に撮影画像が保存され、対応するパラメータは、これに限定されるわけではないが、たとえば、xmlファイル構造として保存される。
ブロック154中に示されるように、一種のビュープログラムは、一つのクライアント側装置で運用され、パラメータマッチングをデコードしエンドユーザー(end user)に対してインタラクティブ方式で高品質の撮影画像を表現し、並びに拡張現実等の特定アプリケーションのために、さらに一つの3Dメッシュの制御と測量を提供する。
図4は、一種の2D画像キャプチャシステム160が撮影した一つのコンピュータ制御回転機械(computer controlled rotating mechanics)162中に位置する一つの実体オブジェクトの撮影画像である。
実体オブジェクトは一つの固定回転軸(rotation axis)を有する実体オブジェクトの周囲を、水平及び垂直に移動する少なくとも一つのカメラで、異なる視角から見える。本実施例中、実体オブジェクトは、たとえば異なる視角(たとえば、下方、右下方、右方、右上方及び上方)を有する5個の異なるカメラが、コンピュータ制御回転機械162の回転により実体オブジェクトに対して8個の異なる水平方位(たとえば、0°、45°、90°、135°、180°、225°、270°及び315°)にあって最高の許容解析度で画像を撮影し、40個の異なる画像ファイルを形成し、その後、一つの特定命名規則(specific naming convention)164で、一枚ずつこれらの画像ファイルを保存する。しかし、その他の図示されていない実施例中、実体オブジェクトに対して、比較的少ない或いはより多い画像を撮影してもよい。
注意すべきことは以下のとおりである。画像ファイルは予め処理されてもよく、それにより不必要な背景画像の排除、透明度情報添加、或いはファイル変換による比較的低い解析度の文層(hierarchical lower resolution)及び一つの単一ルートディレクトリ(root directory)の下に保存し、後日の整合と閲覧処理に供する。
図5は実体オブジェクト幾何データを得るために用いられる一種の3D幾何データキャプチャシステム180を示す。実際には、それは一つの単独のシステムとされるか或いは図4中に示される画像キャプチャシステムの一つのサブシステムとされてもよい。
3D幾何データキャプチャシステム180は、一定波長の可視光学カメラ(certain wavelength of visible optics camera)、レーザービーム(laser beam)、或いは不可視赤外光と反射光キャプチャシステム(invisible infrared and reflection capturing system)により、ブロック182に示されるように、各オブジェクトの幾何上の深さデータ(depth data)を取得するか、或いは簡単に2D撮影画像108のシルエットをキャプチャする。
3D幾何データは、測量処理され得て、それにより信頼できない雑音データ(unreliable noise data)が除去され、たとえば、ブロック184に示されるように、信頼できない雑音データ(unreliable noise data)をフィルタリングする演算プロセス(computing routine)が実行され、その後、さらに統計上、より正確なデータで、3Dグローバル座標システム中の最終ノード位置(node position)が算出され、たとえば、ブロック186に示されるように、幾何データの統計演算(statistically compute geometry data)のプロセスが実行される。
続いて、ブロック188に示されるように、幾何データは、一組のグローバルデータセット(global data set) と比較と合併され、並びにブロック190に示されるように、結果を標準実体オブジェクトファイル(standard solid object file)中に保存する。
多くのキーポジションからの重複測量とデータ演算に伴い、実体オブジェクトに対して全ての必要な幾何データとパラメータが取得され、複数の3D幾何パラメータより一組の最終3Dメッシュ192が構築され得る。
図6には一つのパラメータマッチングシステム200が示され、それは、2D撮影画像と3D幾何データをマッチングするのに用いられる。
撮影画像は、各視角の各フォトフレーム202中に保存され、これにより、3Dメッシュ204の3D幾何パラメータと2D撮影画像/フォトフレーム202の対応2D撮影画像パラメータをマッチングさせなければならず、それにより同じ表現空間(presentation space)でフォトフレーム202と3Dメッシュ204を見ることができるようになる。
周知のとおり、どのような実体オブジェクトでも、6個の自由度により表示できる。これにより、3D空間中の一つの参考点(reference point)(x,y,z)とオブジェクトの方位角(θ,ψ,ω)により、一枚の撮影画像と3D幾何データの間の関連を表示できる(correlated relation)。
これにより、各フォトフレーム202に一組の6個のパラメータを指定し、並びにそれらをひとまとめにして、将来の表現と制御機能に用いられるようにする必要がある。たとえば、この実施例では、フォトフレーム202は、Framei,j.jpgと命名され得て、並びにM行とN列を包含し、且つその参考点206は、(xi,j,yi,j,zi,j)と表示される。こうして、3D幾何データの6個のパラメータは、(x0,0,y0,0,z0,0,θ0,0,ψ0,0,ω0,0)と表示され得て、フォトフレーム202の6個のパラメータはすなわち、(xi,j,yi,j,zi,j,θi,j,ψi,j,ωi,j)と表示され得て、そのうち、i=1,2...Mとされ、並びにj=1,2...Nとされる。
図7にはこれらパラメータと各一枚のフォトフレームのマッチングに用いられる一つのパラメータマッチングソフトウエアプログラム(parameters matching software program)220が示されている。
パラメータマッチングソフトウエアプログラム220はオリジナル2D撮影画像と3Dメッシュの幾何パラメータをダウンロードし、及び整合後のデータを保存する機能222を有する。
パラメータマッチングソフトウエアプログラム220は、フォトフレーム選択機能230中に表現される任意の一枚の2Dフォトフレーム中の撮影画像224と3Dメッシュ226によりユーザーとインタラクティブとなる。
一台のコンピュータスクリーン上のマウスカーソル(mouse cursor)はただ二個の自由度で移動できるだけであり、ユーザーは手動でパラメータマッチングを実行することができる。マウスカーソルは実体オブジェクト主軸(solid object body axis)236を制御するのに用いられ、実体オブジェクト主軸236の尖端(tip)を移動させることで、θ及び又はψの値を制御でき、実体オブジェクト主軸236を方向238に回すことで、ωの値を制御できる。
続いて、スクリーン上の参考点234を移動させることで、x或いはyの値を制御でき、その後、マウスホイール(mouse wheel)を使用することで、3Dメッシュのサイズをコントロールし、これはオブジェクトに対して比率を調整することと同じである、これによりzの投射位置を調整する。注意すべきことは以下のとおりである。この実施例中、手動で2D撮影画像224と3Dメッシュ226をマッチングするためには、6個のパラメータ(x,y,z,θ,ψ,ω)はいずれも調整され得ることである。しかし、ここに記載されないその他の実施例中、必要時でなければ、6個全てのパラメータを必ずしも調整する必要はない。
ここでさらに、パラメータマッチングを助ける自動演算マッチング処理機能(auto computing matching process)228が提供される。それはさらに単一フォトフレーム或いは複数のフォトフレームに対してパラメータマッチングをプログラム化し、並びに図8において詳しく説明される。
注意すべきことは以下のとおりである。全てのキャプチャ処理を実行する時、手動マッチング処理機能232は、さらに、自動演算マッチング処理機能228の直接演算へと置換できる。一つの2D撮影画像ファイルと一つの3Dメッシュの自動マッチングは、一つの3D幾何走査機構(3D geometry scan mechanism)が2D撮影画像と3Dメッシュの間のパラメータ関係を提供できる時、2D撮影画像のパラメータと3Dメッシュの3D幾何パラメータをプログラムにより自動マッチングする。
図8には各フォトフレームの全ての視角と自動マッチングするパラメータを生成するために開発された一種の演算メカニズム(computation scheme)240を表示する。
四元数技術(Quaternion technology)を応用することで、参考点と主軸を表示する任意の3Dベクトル(vector)vを計算することができ、一つの回転ユニット軸(rotating unit axis)nの周りをある回転角度(rotating angle) θ回転させた後に、3D空間中の新ベクトルrを取得できる。
こうして、パラメータを使用して同一列の2枚のフォトフレーム中の任意の1枚と既知の回転角度を使用して回転ユニット軸nを計算できる。一旦回転ユニット軸nを算出すれば、同一列242の各フォトフレーム中の任意のその他の参考点と主軸を計算し、並びにこれにより自動的にそのパラメータをマッチングできる。
同じ演算は、垂直方向上の、単一行254の、ただし異なる列252のフォトフレームに対して実行できる。同じ処理を重複して行なうことで、全てのフォトフレームに対して計算を完成できる。
理論上、ただ手動で3枚のフォトフレームをマッチングさせれば、水平と垂直方向上の回転ユニット軸を計算することができ、並びにパラメータマッチングを探し出すための労働資源を極めて節約できる。しかし、実務上、カメラの回転軌跡(rotating tragectory)は一つの正円経路(perfect circular path)上に位置しない可能性があり、並びに傾斜角度(tilting angle)とズームレンズ(zoom lens)は、一つの非線形の方式(non-linearway)で撮影画像を投射し得るため、5枚或いは7枚等の、さらに多くの手動マッチングするフォトフレームにより、一つのより信頼できるデータを取得する必要がある。ここではさらに、マッチング演算を閲覧する一種の視覚調整を提供し、これにより微調整(fine adjustment)を実行できるようにする。
図9はインターネットワーバー(Internet server)下に構築される一種のファイルシステム260を表示し、それはエンドユーザーに対して、そのクライアント側装置にあって3D幾何データを付加した高解析度撮影画像を見るための、一種のビューメカニズム(viewing mechanism)を提供する。
ビュープログラム、リアルタイム且つ高解析度の画像データ、幾何データ、付加データ(accessory data)及びその表現するデータ図は、全てが一つのルートディレクトリ262下に保存され得て、これによりクロスドメインアクセス(cross domain access)の問題が確実に発生しないものとされる。
ブロック264に示されるように、エンドユーザーがアクセスするビュープログラムを介して、全ての必要なプログラムルーチン(program routine)をダウンロードでき、ここではいわゆるビュワー"Viewer"と称され、その後、さらにブロック266に示されるように、リアルタイム画像と3Dメッシュの幾何データが自動的に取得される。続いて、ブロック268に示されるように、高解析度画像と3Dメッシュを見るのに用いられるインタラクティブ操作を実行でき、ブロック269に示されるように、高解析度画像を取得できる。このほか、拡張現実アプリケーションに基づき、さらにブロック270に示される機能操作を、たとえば、必要な3D測量(ブロック272中に示されるとおり)或いは3D制御機能(ブロック274中に示されるとおり)に用いる。
上述のプログラムは、3D操作環境(たとえば、OpenGL 或いは WebGL或いはその他の3D環境)を有する一つのクライアント側装置において実施可能である。
図10は、図9中に記載された機能を実施して開発される一種のクライアント側ビュープログラム280を表示する。
ビュープログラム280は、Windows(登録商標)プラットフォームコンピュータシステム126(図2に表示される)に用いられる一種のWebGLサポート且つHTML5応用ブラウザのビュープログラム(WebGL−enabled browser-based HTML5 viewing program)とされ、たとえば、一台のデスクトップパソコン、一台のモバイル装置或いは任意の操作ウインドウ282を表現できる任意の装置とされるか、或いは、モバイル装置をサポートするOpenGL ESのネイティブプログラム(native program)とされる。
プログラムは操作ボタン(operational button)286を有し、インタラクティブ方式で閲覧中の撮影画像の拡縮、移動及び回転機能を達成でき、それは一つのスライダーコントローラ(slider controller)を有し、高品質の撮影画像を見ることができるか或いは3Dモデルのワイヤフレーム(wire frame)をチェックでき、ひいては一種の異なる透明度の方式で、上述の両者を併せて見ることができる。
3D空間中に表現される2D撮影画像の順調度はまた、0<△θ<θincrementの角度及び又は0<△ψ<ψの角度により2D撮影画像284の角変形(angular morphing)を達成できる。
このほか、アプリケーションに基づき機能ボタン288を提供し、それにより測量とアプリケーション制御、及び任意のその他の必要な機能を達成できる。
図11はこのシステムがさらに援用できる一つの立体システム300を表示し、人の目の感知能力(human being's eyes perception)に応じて、フォトリアリスティックな感覚でオブジェクトを見ることができる。
ビューウインドウを二つに区画し、左目302と右目304に対してそれぞれ左側立体画像(stereogram)306と右側立体画像308を提供できる。
同じオブジェクト310の異なる視角の状況を考慮して、二組の画像とパラメータマッチングを取得する。それらは独立して左側セット312と右側セット314と設定される。この実施例では、左側セット312と右側セット314は、たとえば、FrameLi,j.jpgとFrameRi,j.jpgと命名され、並びにその参考点316と318は、それぞれ(xi,j,yi,j,zi,j)Lと(xi,j,yi,j,zi,j)Rと表示される。こうして、左側セット312と右側セット314に対応する3D幾何データの6個のパラメータは、それぞれ(x0,0,y0,0,z0,0,θ0,0,ψ0,0,ω0,0)Lと(x0,0,y0,0,z0,0,θ0,0,ψ0,0,ω0,0)Rと表示され得て、左側セット312と右側セット314の6個のパラメータは、すなわち、(xi,j,yi,j,zi,j,θi,j,ψi,j,ωi,j)Lと(xi,j,yi,j,zi,j,θi,j,ψi,j,ωi,j)Rと表示され得て、そのうち、i=1,2...Mとされ、並びに、j=1,2...Nとされる。
しかし、単一組の2D撮影画像の同一列の、ただし異なる行の画像も使用できる。これは、視角と距離のシミュレート上、あまり正確にはならないが、一般の閲覧者に対しては十分な深さ感(depth feeling)を提供できる。
ビューウインドウはまた、テレビジョン、ムービースクリーン(movie screen)或いはさらにはビューグラス(view glasses)を具えた新式の装着式ガジェット(new wearable gadget)に応用できる。
以上は本発明の好ましい実施例の説明に過ぎず、並びに本発明を限定するものではなく、本発明に提示の精神より逸脱せずに完成されるその他の同等の効果の修飾或いは置換は、いずれも本発明の権利請求範囲内に属する。
100 方法
102 実体オブジェクト
104 閲覧者
106 ビューウインドウ
108、224、284 撮影画像
110、192、204、226 3Dメッシュ
120 具体的実施例
121 画像キャプチャシステム
122 回転プラットフォーム
123 カメラ
124 アーム
126 コンピュータシステム
128 走査サブシステム
130 インターネットネットワーク
132 クライアント側装置
134 ネットワーク保存システム
140 ブロック図
142、144、146、148、150、152、154、182、184、186、188、190、264、266、268、269、270、272、274 ブロック160 2D画像キャプチャシステム
162 コンピュータ制御回転機械
164 特定命名規則
180 3D幾何データキャプチャシステム
200 パラメータマッチングシステム
202 フォトフレーム
220 パラメータマッチングソフトウエアプログラム
222、228、230、232 機能
236 実体オブジェクト主軸
234、316、318 参考点
238 方向
240 演算メカニズム
242、252 列
254 行
260 ファイルシステム
262 ルートディレクトリ
280 ビュープログラム
282 操作ウインドウ
286 操作ボタン
288 機能ボタン
300 立体システム
302 左目
304 右目
306 左側立体画像
308 右側立体画像
310 オブジェクト
312 左側セット
314 右側セット

Claims (8)

  1. 一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、それは一つの実体オブジェクトの6個の自由度に対してマトリックス変換を使用し、該マトリックス変換は、手動方式或いは自動方式で実行され、該手動方式は、手動で該実体オブジェクトの主軸の尖端を移動して、θ値を制御するステップ、手動で該尖端を移動して、ψ値を制御するステップ、手動で該主軸を回転させて、ω値を制御するステップ、及び、 該3Dメッシュのサイズに対して比率調整し、該2D撮影画像ファイル中より選定した2D撮影画像とパラメータマッチングし、該2D撮影画像ファイル全体の該2D撮影画像パラメータのマッチングを終えるまでこれを行うステップ、
    以上のステップのうち、少なくとも、一つのステップを包含し、該2D撮影画像ファイル中の、少なくとも3枚の2D撮影画像は、計算の補助の下で、手動で該主軸の水平と垂直方向上で選出されることで該手動方式が実行され、そのうち、該3Dメッシュの3D幾何パラメータは画像品質、フォトリアリスティック現実表現及び物理拡張現実アプリケーションのために、該2D撮影画像ファイルの2D撮影画像パラメータと組み合わされることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  2. 請求項1記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該2D撮影画像ファイル中の2D撮影画像は選択的に以下のうちの少なくとも一つのステップで処理され、すなわち、
    その画像背景の除去ステップ、
    圧縮して階層画像解析度、透明度情報を有するJPEG形式となすステップ、
    2D撮影画像ファイル中への保存ステップ、以上を特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  3. 請求項1記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該3D幾何パラメータは、一定波長の可視光学カメラ、レーザービーム、或いは不可視赤外光と反射光キャプチャシステムにより生成するか、或いは、該2D撮影画像ファイル中の2D撮影画像のシルエット或いは該実体オブジェクトの各オブジェクトの幾何的深さデータより取得されることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  4. 請求項1記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該自動方式は、一つの3D幾何走査機構にあって、該2D撮影画像ファイル中の2D撮影画像と該3Dメッシュの間のパラメータ関係が提供される状況で、プログラム化されて該2D撮影画像パラメータと該3D幾何パラメータが自動マッチングされることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  5. 請求項1記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該画像品質、フォトリアリスティック現実表現は、インターネットサーバー下に構築したファイルシステムであり、エンドユーザーに対して撮影画像と3Dメッシュを見るビューメカニズムを提供するのに用いられ、並びに該物理拡張現実アプリケーションは、3D測量或いは3D制御機能とされることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  6. 請求項5記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該撮影画像と該3Dメッシュは、異なる透明度の方式で併せて閲覧されることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  7. 請求項5記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該画像品質、フォトリアリスティック現実表現は、さらに、それぞれ左目と右目に用いられる左側立体画像と右側立体画像を具えたビューウインドウを具えた立体システムに援用されることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
  8. 請求項5記載の一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法において、該画像品質、フォトリアリスティック現実表現は、該2D撮影画像の、θ方向とψ方向の少なくともそのうちの一つの角変化により、さらに3D空間中で該2D撮影画像ファイル中の2D撮影画像の流暢度を表現するのに援用されることを特徴とする、一つの2D撮影画像ファイルと一つの3Dメッシュをマッチングする方法。
JP2013237392A 2013-11-15 2013-11-15 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法 Expired - Fee Related JP5878511B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013237392A JP5878511B2 (ja) 2013-11-15 2013-11-15 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013237392A JP5878511B2 (ja) 2013-11-15 2013-11-15 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法

Publications (2)

Publication Number Publication Date
JP2015097060A JP2015097060A (ja) 2015-05-21
JP5878511B2 true JP5878511B2 (ja) 2016-03-08

Family

ID=53374318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013237392A Expired - Fee Related JP5878511B2 (ja) 2013-11-15 2013-11-15 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法

Country Status (1)

Country Link
JP (1) JP5878511B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7101331B2 (ja) * 2016-11-22 2022-07-15 サン電子株式会社 管理装置及び管理システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3030485B2 (ja) * 1994-03-17 2000-04-10 富士通株式会社 3次元形状抽出方法及び装置
JP2002015310A (ja) * 2000-06-30 2002-01-18 Minolta Co Ltd 点群に面をフィッティングする方法およびモデリング装置

Also Published As

Publication number Publication date
JP2015097060A (ja) 2015-05-21

Similar Documents

Publication Publication Date Title
US9286718B2 (en) Method using 3D geometry data for virtual reality image presentation and control in 3D space
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10652522B2 (en) Varying display content based on viewpoint
JP6643357B2 (ja) 全球状取込方法
US10127722B2 (en) Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
JP2023036602A (ja) 拡張された仮想現実
US6760020B1 (en) Image processing apparatus for displaying three-dimensional image
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
CN110568923A (zh) 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质
WO2017128887A1 (zh) 全景图像的校正3d显示方法和系统及装置
KR101588935B1 (ko) 가상현실 이미지 프레젠테이션 및 3d 공간 내에서의 컨트롤을 위한 3d 기하학 데이터의 이용방법
KR102612529B1 (ko) 신규 뷰 합성을 위한 신경 블렌딩
US9025007B1 (en) Configuring stereo cameras
WO2024022070A1 (zh) 画面显示方法、装置、设备及介质
JP5878511B2 (ja) 3d空間中で3d幾何データを仮想現実画像の表現と制御に用いる方法
TWI603288B (zh) 在3d空間中將3d幾何數據用於虛擬實境圖像的呈現和控制的方法
Belhi et al. An integrated framework for the interaction and 3D visualization of cultural heritage
GB2518673A (en) A method using 3D geometry data for virtual reality presentation and control in 3D space
Tschirschwitz et al. Interactive 3D visualisation of architectural models and point clouds using low-cost-systems
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
CN104574497B (zh) 一种配对一个2d摄影图像文件和一个3d网格的方法
JP6601392B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP7119853B2 (ja) 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム
JP2018151793A (ja) プログラム、情報処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160128

R150 Certificate of patent or registration of utility model

Ref document number: 5878511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees