JP2015521419A - コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム - Google Patents
コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム Download PDFInfo
- Publication number
- JP2015521419A JP2015521419A JP2015510876A JP2015510876A JP2015521419A JP 2015521419 A JP2015521419 A JP 2015521419A JP 2015510876 A JP2015510876 A JP 2015510876A JP 2015510876 A JP2015510876 A JP 2015510876A JP 2015521419 A JP2015521419 A JP 2015521419A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- real
- tracking
- time
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000002156 mixing Methods 0.000 title claims abstract description 8
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 5
- 238000000034 method Methods 0.000 claims abstract description 82
- 238000004422 calculation algorithm Methods 0.000 claims description 60
- 238000004458 analytical method Methods 0.000 claims description 42
- 230000003190 augmentative effect Effects 0.000 claims description 24
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000013519 translation Methods 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 22
- 238000004519 manufacturing process Methods 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 19
- 239000011521 glass Substances 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 11
- 239000003550 marker Substances 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 239000002131 composite material Substances 0.000 claims description 7
- 238000003780 insertion Methods 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 claims description 7
- 230000037431 insertion Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims description 2
- 238000010223 real-time analysis Methods 0.000 claims description 2
- 238000010845 search algorithm Methods 0.000 claims description 2
- 230000003068 static effect Effects 0.000 claims description 2
- 238000012800 visualization Methods 0.000 claims description 2
- 239000013307 optical fiber Substances 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 36
- 238000013459 approach Methods 0.000 description 24
- 239000011159 matrix material Substances 0.000 description 23
- 101150096752 NCAM1 gene Proteins 0.000 description 16
- 239000013598 vector Substances 0.000 description 13
- 238000011084 recovery Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 240000006055 Dacrydium cupressinum Species 0.000 description 1
- 235000018782 Dacrydium cupressinum Nutrition 0.000 description 1
- 241000086550 Dinosauria Species 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011985 exploratory data analysis Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013432 robust analysis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Of Solid Wastes (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Cultivation Of Plants (AREA)
Abstract
Description
(a)フィルムカメラのボディは、3次元に移動可能であり、フィルムカメラ内もしくはフィルムカメラに直接的または間接的に取り付けられたセンサが、フィルムカメラの3次元位置及び3次元向きを定義する、あるいはフィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
(c)結果として得られるコンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、フィルムカメラからの映像フィードに混合または映像フィードと合成される。
・ユニットが、1つまたは2つのウィットネスカメラを含む。
・ユニットが、映像出力の各画素の深度を取得する3次元範囲センサを含む。
・ユニットが、6自由度または9自由度のセンサを含む。
・ユニットが、異なるサイズで固定可能な切り替え可能なハンガーと、フィルムカメラ及び棒の構造を使用する。
・ユニットが、他の形のセンサを含むように伸長可能である。
・ユニットが、複合的シーンを解析可能な解析装置を形成可能であり、追跡するまたは該シーンの追跡を回復するコンピュータに、解析した3次元シーンを定義するデータを無線送信する。
・フィルムカメラが、カメラズーム、フォーカス、及びアイリスを読み取る従来のエンコーダを有する。
(a)フィルムカメラのボディは、3次元に移動可能であり、フィルムカメラ内もしくはフィルムカメラに直接的または間接的に取り付けられたセンサが、フィルムカメラの3次元位置及び3次元向きを定義する、あるいはフィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
(c)結果として得られるコンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、フィルムカメラからの映像フィードに混合または映像フィードと合成される。
・スタジオカメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・クレーン取付カメラのリアルタイム追跡
・ドリー取付カメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・中継放送(OB:Outside Broadcast)のリアルタイム追跡
・2次元ポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・3次元立体視コンテンツ用のポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・ネイティブ3次元立体視コンテンツのリアルタイムデータ(追跡データを含む)の使用
・3次元グラフィックス挿入
・スタジオ内への、またはセットプロダクト・プレイスメントにおける3次元グラフィックス挿入
・OB用の3次元グラフィックス挿入
・他のスポンサー提供画像用の3次元グラフィックス挿入
・観察者位置固有の3次元グラフィックス挿入
・観察者固有の3次元グラフィックス挿入
・時間固有の3次元グラフィックス挿入
・曇天風景書き込み用の3次元グラフィックス挿入
・グリーンスクリーン置換用の3次元グラフィックス挿入
・博物館、及び文化、歴史又は自然遺産の解析センターにおける学習を補助する教育的コンテンツの3次元グラフィックス挿入
・シーン内のオブジェクトの絶対的または相対的サイズの計測
の1以上を可能ならしめる。
−標準範囲を有する全てのカメラ
−限定的な光ファイバ接続を必要とするカメラ
−RF/無線接続を必要とするカメラ
のうちの1つである。
・フィルム/テレビ(非ライブ)
・コマーシャル(非ライブ)
・ライブコマーシャル
・放送(非スポーツ)
・OB放送
・スタジオベーススポーツ
・OBベーススポーツ
・テレビプロダクト・プレイスメントのライブ
・インターネット利用(非ライブ)
・インターネットライブ
・地域ベースインターネットライブ
・インターネットプロダクト・プレイスメントのライブ
・博物館/文化遺産コンテンツ
・博物館/遺産広告
・建築
・ゲーム
のうちの1つのマーケットに配備される。
プリプロダクション及びプロダクションにおける視覚的効果:Ncamは、撮影処理(プロダクション)の間、プリビズ(プリプロダクション)とVFX(ポストプロダクション)との差を埋める補助をしようとする。Ncamは、撮影中、リアルタイムにカメラ内にVFXにフレームアップを所望する者への解決策を提示する。プリビズ処理からの頻繁な事前生成されたコンテンツの使用し、Ncamはこれらのプリビズアセット、標準的な3次元モデル及びアニメーションを、ライブアクションフィルムプレート上にリアルタイムに合成可能にする。
Ncamの技術は、放送空間を用いるリアルタイムの仮想広告に好適に役立つ。カメラ内の実際の物理的なプロダクトとは対照的に、ポストプロダクション中の撮影後にプロダクトが挿入されるデジタルプロダクト配置は、より一般的になってきている。しかしながら、デジタルプロダクト配置ライブを拡張する能力を用いることで、我々は様々な可能性を開くことができる。例えば、スポーツフィールドや連続ドラマ(soap opera)における缶飲料のブランドロゴを含みうる。これは、撮影環境の照明に基づいて写実的なCG画像をリアルタイムに描画する能力が重要になる。
Ncamの技術とホログラフィックディスプレイ及び(Google Glass等の)眼鏡とを合成することで、完全没入型のゲーム体験を提供し得る。現実世界と仮想世界及びキャラクタとをブレンドする。可能性は幾分尽きない。
Ncamの技術は、博物館及び遺産領域への幅広い範囲の潜在的な応用を提供する。
Ncam技術は、該応用に完璧に適している。仮想カメラは、本質的には完全なCG3次元環境を見せるLCD画面である。操作者がLCD画面を移動した場合、動作に関してまるで物理的なカメラのように振る舞う。該LCDカメラは、XYZ並進及び回転において追跡され、リアルタイムにCGエンジンからの完全なCG環境を示す。現在、様々なVCS(仮想カメラシステム)ソリューションが利用可能であるが、それらは全て技術の面で制約を有している。それらが動作するであろう空間及び環境において制限され、セットアップに時間を要する傾向にあり、そして高価である。NcamベースのVCSはタブレット型を採り得、これにより処理はLCD画面と局所的に組み合わされて計算されるだろう。CG演算は、要求に応じて、リモートPCから、もしくは場合によってはローカルで取得されうる。該アイデアは、以前にそのようなツールへのアクセスを持つことができなかった、フィルム内の多くの部分への、使いやすさと価格の観点を通じて、オープンアクセスを可能にすることである。このことは、デザイナ、建築家、VFX、ゲーム会社、CG及びアニメーションハウス等にとって非常に有用である。
あなたが動画を撮影し、その大部分をブルスクリーン/グリーンスクリーン上において撮影する場合を想像する。フィルムメーカやディレクタとして、自分はどのようにいずれのアングルを計画する、または撮影をすることが最良であろうか?すべての後、自分は少量の物理的なセットと数名の俳優を用意するかもしれないが、いずれのカメラアングルが最良かの自分の想像とは異なる多少のアイデアを自身が有しており、カメラをいずれにセットアップすべきかを全クルーに説明し、効果的なレンズの選択をさせることなどできない。現在、我々は、他の位置よりも良好となることを実現するためのみに、セット上の位置にフィルムカメラ及び全ての周辺器具を移動し、Ncamをセットアップし、見てみる。これらの決定を迅速かつ効果的に行うため方法は、我々が軽量の携帯型システムを有している場合のみである。これがNcamVSSである。
・動画ディレクタのための仮想キャラクタ及び環境のリアルタイムフレーミングツールを提供すること
・現実映像と直接的に結合された仮想オブジェクトの写実的な結果をリアルタイムに表示すること
・セット上撮影と動画ポストプロダクション用に、フィルムカメラの位置の正確な推測(カメラ追跡と呼ばれる)を提供すること
・現実のオブジェクト(及び/または俳優)と仮想環境(3次元オブジェクト、キャラクタ等)との間の遮蔽を扱う、現実シーンの3次元幾何モデルへの近似を提供すること
である。
技術は、ストリーム出力されるべきデータの種類に応じた、2つの異なる可能なハードウェア構成を有している。
・ウィットネスカメラと呼ばれる、選択された方式(単眼視または立体視)に応じて1つまたは2つであるハイスピードカメラ(少なくとも100fps)
・各ウィットネスカメラは180度の魚眼レンズが搭載される
・ジャイロスコープ、磁気計及び加速度計を含む9自由度センサ(または磁気計が使用できない場合は6自由度)
・画素の深度を取得する3次元範囲センサ
を共通して有する。
1.無線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、フィルムカメラの並進(translation)及び回転(rotation)(RT)と、エンコーダからのズーム(zoom)、フォーカス(focus)及びアイリス(iris)(ZFI)とを、外部の描画ワークステーションに無線ストリーム出力する。
(b)外部のコンテンツ生成ワークステーション。この機器は一般に、最終的な合成のために、3次元のコンピュータ生成されたアニメーション及び関連するCGコンテンツを提供するコンピュータグラフィックスソフトウェアを実行する。またそれは、外部の描画ワークステーション(1−1c)にアニメーションデータをストリーム出力する。
(c)一方で組み込みコンピュータ(1−1a)からのデータを受信し、他方でコンテンツ生成ワークステーション(1−1b)からのアニメーションデータを取り扱う外部描画ワークステーション。該描画ワークステーションは、1−1bからの3次元環境を表示するために1−1aからのフィルムカメラRT+ZFIを使用し、フィルムカメラからの現実の映像フロー内に結果を混合する。またそれは、フィルムカメラのアイピースまたは制御モニタに最終的な合成結果を無線ストリームにて返送する。
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、限定的な光ファイバケーブルを用いて、外部の描画ワークステーションにフィルムカメラ並進回転(RT)及びエンコーダデータ(ZFI)をストリーム出力する。
(b)構成1−1bと同様
(c)最終的な合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成1−1cと同様
1.無線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。該ユニットにおいて実際の処理は実行されない。それは外部の追跡ワークステーションに全てのセンサデータを無線ストリーム出力することのみ行う。2つのウィットネスカメラの映像フロー、1つの9自由度データ、1つの範囲センサデータがストリーム出力される。データの送料は、毎秒142MB(ウィットネスカメラが毎秒63MB、範囲センサが毎秒74MB、9自由度センサが毎秒4.4MBを要求する)よりも大きい最小帯域を要求する。
(b)組み込まれた追跡コンピュータからデータを受信する外部の追跡ワークステーション。該ユニットは、フィルムカメラの回転及び並進行列を算出するために、全てのセンサデータを処理する。それは外部の描画ワークステーション(2−1d)にカメラRT+ZFIをストリーム出力する。
(c)外部のコンテンツ生成ワークステーション。該機器は一般に、最終的な合成のために3次元のコンピュータ生成されたアニメーション及び関連するCGコンテンツを提供するために、コンピュータグラフィックスソフトウェアを実行する。またそれは、外部の描画ワークステーション(2−1d)にアニメーションデータをストリーム出力する。
(d)一方で組み込みコンピュータ(2−1b)からのデータを受信し、他方でコンテンツ生成ワークステーション(2−1c)からのアニメーションデータを取り扱う外部の描画ワークステーション。描画ワークステーションは、2−1cからの3次元仮想環境を表示するために、2−1bからのフィルムカメラRT+ZFIを使用し、フィルムカメラからの現実の映像フロー内に結果を混合する。またそれは、フィルムカメラのアイピースまたは制御モニタに、最終的な合成結果を無線ストリームにて返送する。
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、限定的な光ファイバケーブルまたは複数のCat−6 RJ45ケーブルを用いて、外部の描画ワークステーション(2−2c)にフィルムカメラ並進及び回転(RT)をストリーム出力する。この場合も同様に、エンコーダがズーム、フォーカス及びアイリス(ZFI)のために用いられる。
(b)構成2−1cと同様
(c)最終的な合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成2−1dと同様
(a)単一のカメラ追跡デバイス(カメラバー)は、フィルムカメラに取り付けられ、ブレイクアウト・ボックスに接続される。
(b)組み込まれた追跡デバイスからのデータを受信する外部の追跡ワークステーション。該ユニットは、フィルムカメラの回転及び並進行列を算出するために全てのセンサデータを処理する。この場合も同様に、エンコーダがズーム、フォーカス及びアイリス(ZFI)のために用いられる。それは描画ワークステーション2−3dにカメラRT+ZFIをストリーム出力する。
(c)構成2−1cと同様
(d)最終の合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成2−1dと同様
いくつかの新たな科学的手法及びソフトウェアが、正確な追跡結果及びリアルタイム拡張現実[19]を実現するために生成される。これらの手法は、次のセクションに説明される。
〈プロセス概要〉
技術において使用される単眼視技術は、一方がユーザインタラクションを必要とし、他方が完全に自動化されている点を除いて実際に技術的にはほぼ同一である、2つの異なるパスで成り立っている。
通常は人物のいかなるインタラクションも必要としない。
ここに説明される技術は、複数のセンサフュージョン技術(セクション2.3参照)に基づく拡張現実フレームワークである。
(2.1.3.1 初期化ステップ)
2つのフレームを取得するために、第1のステップは、ユーザにデバイスを用いて、物理的に/手動で水平移動させることである。アルゴリズムは、FASTER[17]と呼ばれるコーナー検出手法を使用することにより、画像内の自然のマーカ(即ち特徴点)を自動的に検出する。ポイントのペア間の対応を発見するために、マッチングが適用される。1つの画像について、全ての検出された点は3次元平面からピクチャへの正確なホモグラフィが演算可能なように、同一の3次元平面に残しておく必要がある。このことは、該3次元平面に係るカメラの回転及び並進を与える。第2のピクチャは同一の原理に従っており、我々は現在のピクチャについてカメラの第2の位置及び並進を取得する。これにより、1つのカメラから他のカメラまでの並進の演算、及び第1の3次元ポイントクラウドを取得することが可能になる。
と示すことができ、ここで
・RはMLがMRに関して回転される回転行列である。
・
は、点Mが属する平面の法線ベクトルである。
・Dは、Ax+By+Cz+D=0のような平面との距離である。
そして、
である。
・解1:
そして、
であり、ここで、λ1、λ2及びλ3は式2の行列Hの固有値であり、λ1、λ2、λ3のようにソートされ、λ1≠λ2≠λ3が成立する。
・解2:
そして
であり、ここで、λ1、λ2及びλ3は式2の行列Hの固有値であり、λ1、λ2、λ3のようにソートされ、λ1≠λ2≠λ3が成立する。
単眼視調査の間、ワールドが正確な形状及び次元を含む現実のオブジェクトの既存知識またはホモグラフィを演算するための2つのビューの間に使用される距離を必要とするため、該ワールドの正確な原点、スケール及び向きを演算することは不可能である。なお、最後のケースにおいて、これはどのようにしてもワールドの原点または向きを与えることはない。多くのシステムは、この部分を考慮していない。それらはしばしば、ビデオ内で視認可能な3次元オブジェクトの次元を入力することにより、手動でスケーリングを行うようユーザに問い合わせる。他のオブションでは、撮影中に特定のモデリング/アニメーションソフトウェアにおいて3次元仮想キャラクタをスケーリングし、現実世界と適切に調整することをユーザにさせる。しかしながら、それが小さくとも、いかなるスケール誤差も最終的な合成の品質において劇的な影響を有しており、これが(以下の)我々の技術において慎重に達成される理由である。不良のスケーリングの最も一般的に観察された結果の1つは、仮想オブジェクトではなく、完全に地面に取り付けられた状態にもかかわらず、該地面状を仮想オブジェクトがスライドしているような感覚をユーザに与えることである。
調査は、調査デバイスを用いてユーザがシーンを移動することを必要とする。システムは、それが既に学習したものである信頼性に従って、新たなポイントを常に演算し、新たな候補として追加するために、ウィットネスカメラが既存のセットから十分なポイントを見る方法により、調査は常に構築される。
・キー位置。キー位置はウィットネスカメラが見るものの、4つの異なる解像度におけるスナップショットを含む。ピラミッドの低いレベルではウィットネルカメラのオリジナル解像度(我々のケースでは640×480)である。また、該キー位置は、追跡が誤った場合にカメラ位置を回復するためのアルゴリズムにより使用される。
・キー位置の画像ごとにおいてFASTER[17]により推定された2次元特徴点のセット。FASTERは、主たる特徴がコーナー検出アルゴリズムである、非常によく知られたアルゴリズムである。また、追跡が失われた場合に十分に高速な回復が保障されるように、キーポイントごとに付与されたORB記述子を有している(セクション2.1.4.4参照)。
・前のステップにより検出された全ての特徴点を中心とするパッチ(16×16の2次元テクスチャ)のセット。新たなポイントの検出の間、単一のビューからその深度を計算し始める方法はない。これが、パッチが有用であることである。エピポーラ探索(図2、ポイントクラウドビルダーの矩形参照)が、可能な限り近い2つのキー位置について、2つのパッチ間の対応を発見することにより、キー位置の4つの画像に対して適用できる。双方のビューにおいてポイント(即ちパッチ)が検出されると、3次元の特徴点が演算可能である。3次元の特徴点セットはマップと呼ばれる。また2つのキー位置A及びBの間のこの探索が、ピラミッドA及びBの同一のレベルだけでなくBのピラミッドのサブレベルを検討することにより達成される(図4参照)と理解することも重要である。
(2.1.4.1 幾何学的なカメラキャリブレーション)
カメラキャリブレーションは、いくつかの到達点を有する。1つのケースでは、画像がセンサ上にどのように生成されたかを記述するための数学的関係を与える。別のケースでは、3次元ポイントとカメラのイメージプレーンへのこれらの投影との間の変換行列を演算する。
ここで開発された大域的システムは、対象のフィルムカメラに直接的に取り付けられた追跡デバイスを配置する必要がある。ウィットネスカメラの位置及び向きは、事前に記述した追跡技術を用いて推定される。しかしながら、フィルム及びウィットネスカメラの双方に同一のパターンを使用することによりスケールの問題は存在する。実際、我々のウィットネスカメラは180度のレンズを用いる場合、キャリブレーションパターンのサークル形状は、ウィットネスカメラビューにおいて非常に小さく現れる傾向にあり、検出が困難となっている。
追跡プロセスからの解析の分離は、システムがセットにおいてどのように用いられているかを記述する唯一の実用的な手法である。実際、追跡プロセスは図2において説明された追跡と異なるものではなく、解析の間使用される。しかしながら、それは、明確な理由のためにタッチスクリーンを有さない点を除いて、調査デバイスに非常に近い単純な装置(図6参照)を用いる。
現実のセットにおいてカメラ追跡が行われている間、視覚的追跡が失われる多くの状況が生じうる。これは例えば、人がウィットネスカメラの前にいる場合や、オブジェクトによってバーが単純に隠れた場合にしばしば生じる。我々が視覚的追跡を失う全てのケースについて、3つの異なる回復スレッドが同時に開始され、最初に回復が得られた1つが採用される。
大域的追跡プロセスの間、例えばディレクタや撮影監督はシーン内のキャラクタ/オブジェクトにズームまたはフォーカスすることを決定するかもしれない。我々の技術は、Arriにより提案されたようないくつかの標準的なエンコーダを統合するだけでなく、リアルタイムにズーム、フォーカス、アイリス値を取得するために任意の他のエンコーダを取り扱うことを可能にする。このことは、セットにおける動的なズーム及び被写界深度を可能にする。
純粋な光学ベースのマーカレス技術の全ては、多くの状況で追跡に失敗しうる。最も一般的なケースは、ウィットネスカメラの現在のビュー内に、自然のマーカが十分に存在しなくなってしまうことである。例えば、ユーザがレンズを手で隠さないように注意を払っているような理想的な状況では、これはめったに生じない。実際のセットでは、カメラクルーはレンズの変更やカメラ用具の変更、レンズの相似、他の撮影場所への移動等を必要とするため、たやすくこのような状況は頻繁に発生する。標準なマーカベースまたはマーカレス(オプティカルフローベース)の技術において、このことは、カメラの位置及び回転の良好な推定の発見をすることを、追跡システムにできないようにする。
9自由度センサ(IMU)から2つのウィットネスカメラ(C)のうちの1つへの回転を演算する変換RIMU→Cを考える。RIMUはその局所基底において基地であり、Rcも我々の局所基底において既知である。Rc=RIMU→C・RIMUについてRIMU→Cを解くことが目標である。
と記すことができる。
と推測することが可能である。ここで、
の関係が成り立つ。
で示される軸角度
に、tr(Rc)が
のような行列のトレースであることを用いることで、変換することができる。
を示すことができる。
ここで、IMUとウィットネスカメラとの数学的関係を有しているため、全てのセンサの最良を抽出し、フィルムカメラの回転及び並進を演算するために、拡張カルマンフィルタを全ての計測結果に投入することが可能である。
拡張カルマンフィルタ(EKF)は、航空宇宙及びロボティクスの研究分野において、複数の異なるセンサからの様々なデータを結合するための、非常によく知られた技術である。これは、推定誤差を演算し、2つのフェーズ、即ち予測及び補正を適用することにより、ノイズの乗った計測結果から非線形系のパラメータを推定するために本質的に用いられる。予測フェーズにおいて、以前のタイムステップにおいて推定されたパラメータ及び誤差を用いて、カルマンフィルタはあるタイムステップの新たなパラメータと関連する誤差とを演算する。補正フェーズは、新たなノイズ測定を使用して該予測を更新する。これらの新たな測定は、予測されたパラメータ及び誤差から、新たに推定されたパラメータ及び誤差を演算することを可能にする。誤差がある閾値より大きい場合、パラメータは補正される。
を考慮すると、
になるベクトル
の新たな状態を予測するために、アルゴリズムは我々の移動方程式の現在の物理モデルを提供する。そして補正フェーズは、タイムステップt+Δtにおける新たな状態ベクトル
を生成する。
ここで、hは我々の観測に係る状態方程式であり、Xtは大域基底における並進、回転、並進速度、角速度であり、fは状態ベクトルの更新関数である。またBはシステムにおける大域的なノイズである。
一方で、我々がマーカレス視覚的追跡(即ち、ここではウィットネスカメラ)からの計測結果をhwitnessとし、他方でIMUからの計測結果をhIMUとして考えた場合、我々はhが観測可能な2つの種類hwitness及びhIMUより構成されるといえる。定義によれば、hは自明な関数であり、その一般的な形式は、Ywitness(t)=X(t)及びYIMU(t)=X(t)と識別することにより得られる。計測を送信するセンサの種類に応じて、我々は2つの異なるバージョンのhを記述しており、視覚的追跡ケースにおける式11は
として書き換えることができる。
、及び角速度(Ω,in rad・s-1)についての視覚的追跡の観測可能な
である。
となる。
についてのIMUの観測可能な値である。9自由度センサを用いて計算可能な並進または速度は全くない。
ここで
は、タイムステップt+Δtにおける予測された状態ベクトルであり、
はタイムステップtにおいて推定された状態ベクトルである。
として定義される。
予測ステップは、カルマンフィルタの定義を用いて
として書かれる。ここで、
・
はタイムステップt+Δtにおける予測誤差の共分散行列
・Ptはタイムステップtにおける誤差の共分散行列
・Aは、
がfのヤコビアン行列であり、階差
の総和として算出されるような遷移行列
・Qは状態ベクトルのノイズの12×12の行分散行列である。並進状態ベクトルのノイズは発見的に1e-2であり、回転状態ベクトルのノイズは1e-3である。
カルマン定義に従って、我々のケースの補正は
として書かれる。ここで、
・Iは恒等行列
・K(t+Δt)はタイムステップt+Δtにおけるカルマンゲイン
・Hは関数hのヤコビアン行列であり、それ自体は現在の選択されているセンサに応じてhwitnessまたはhIMUとなる。
我々のケースでは、ヤコビアンは階差
の総和として演算される。
・U(t+Δt)は現在選択されているセンサ(ウィットネスカメラまたはIMU)のノイズ計測結果の共分散行列である。該値は、計測の品質(信頼値)に応じて変わる。視覚的追跡のケースでは、追跡誤差εに依存し:
となる。
ノイズ誤差は全てのセンサについてメーカにより直接提供されるため、IMUについてU(t+Δt)を決定することは容易である。先の式は、これらの誤差により直接置換される。
・P(t+Δt)はタイムステップt+Δtにおける誤差の共分散行列
・V及びΩは、速度ベクトル
及び角速度Ωそれぞれの行列表現
・また式20のJwitness|IMUは、センサの種類に従って
と書かれる。
・y(t+Δt)は選択されたセンサにより与えられる現在の計測結果である。y(t+Δt).(α∈{R,T,V,Ω})は、並進、回転、速度、角速度それぞれの計測結果である。J(α∈{R,T,V,Ω})はカルマンイノベーションとして知られる。
リアルタイム3次元再構成は、我々のカメラバーに統合された3次元範囲センサを用いて達成される。該範囲センサは、パターン投影型デバイス(例えばMicrosoft Kinect, Asus Xtion)や(例えば高度な科学的コンセプトのTigerEyeのような)Flash Lidarとして知られるTOF(time-of-flight)方式カメラであってよい。両技術は制限を有し、我々の技術は、現在は短い範囲のセンサにAsus Xtionのみを使用している。従来通り、キャリブレーションのステップは、ウィットネスカメラに相対してAsus Xtionの位置を知ることが必要である。ラインナップを我々はウィットネスからフィルムのラインナップに対して、全く同様の技術を単純に使用する(セクション2.1.4.2参照)。範囲センサがグレースケールカメラを有する場合、我々のキャリブレーションパターンが双方のカメラ、即ち範囲センサのカメラ及び我々のウィットネスカメラのうちの1つ、において検出されるように使用することができる。該プロセスは、非常に簡単であり、2.1.4.2と同様である。
単眼視アプローチを用いる上述した技術は、実際には現実の状況において十分に効率的ではない。ワールドのスケール、向き、及び位置を演算するために登録されて用いられる既知の現実のオブジェクトが必要な場合、あなたが該オブジェクトを登録(検出)しようとする際に、多くの人があなたのパス上に常に存在するような動画においては使用しにくい。しかしながら、単眼視アプローチの主な制約は、シーンの解析をするために必要な事実である。ホモグラフィは、システムの初期化に使用されなければならないため、技術者が解析を開始するためにセットに来なければならないことを意味する。実際には、このようなオペレーションは、セットで作業する人間が直前まで場所を離れないため、達成されることはまれである。
カメラ追跡に組み込まれた立体視技術は、上述した単眼視アプローチを含む任意の他の技術に比較して、大きな進歩である。実際、2つの事前キャリブレーションされたウィットネスカメラの使用はいくつもの利点をもたらした。まず1つが即時解析である。単眼視アプローチにおいて説明した技術とは異なり、シーンについて事前の解析は必要ない。2つのウィットネスカメラ間の正確な距離が完全に判明しており、これらが内部のジェンロック(genlock)ハードウェア能力を用いて同調するため、我々はバーを動かすことなく即時にポイントクラウドを得ることができる。ポイントの3次元再構成が2つのウィットネスカメラを用いた立体視理論により実現されるため、パラグラフで説明したホモグラフィはもはや使用されない。第2の主な点は、手動のスケーリングが必要ないことである。2つのビデオストリームの取得中、エピポーラ幾何学により推定された3次元ポイントの投影と、現在の映像において検出された2次元の特徴点との間の画素誤差の総和を最小化するために、我々はレーベンバーグ・マーカート最小化方式を実行する。
即時解析を使用する場合、単眼視アプローチで検出されたような登録オブジェクトを使用することが不可能である新たな問題が生じる。該制限の主な理由は、カメラバーがフィルムカメラに直接取り付けられており、登録オブジェクトを学習するために該カメラを順次移動させるようカメラクルーに頼むことが不可能であるという事実からくる。これが、シーンに追加される任意の物理的なオブジェクトを必要としない第2の自動登録を追加した理由である。しかしながら、ポイントクラウドを用いる2つの異なるインタラクション、即ち地面の基準として使用する予定の点がいずれであるかをシステムに伝えるためのポイント選択、及びシーンに相対してCGコンテンツを適切に順応させるためにY(垂直方向)軸周りの手動回転をユーザに行わせる必要がある。
追跡処理は、セクション2.1.4.3の単眼視アプローチについて説明したものとはわずかに異なる。3次元特徴点のスケール及び深度が常に正しいことを保証するエピポーラ幾何学を使用することにより、全ての新たな点が生成される。このことは、我々のシステムが開始されると、ライトスピードで正確な即時解析により既に追跡されている。
〈2.6.1 カメラ/ウィットネス遅延問題〉
フィルムカメラとウィットネスカメラとが異なるスピードで実行される場合、フレーム取得プロセスにおいて異なる遅延が生じうる。適切に現実世界を拡張するために、フィルムカメラは、実際に演算するために強制的にはるかに高い遅延を生じる。
我々がカメラ追跡動作を行うと、我々のソフトウェアは例えばAutodesk MotionBuilderのような様々なCGコンテンツ生成ソフトウェアからのデータを受信しうる。これらのデータは、現実の背景または前景(グリーンステージの場合)に合成されるように、直接的に統合され、我々のソフトウェア内で描画される(追跡及び描画ワークステーションが統合されている場合。図1参照)。
参考文献
[1] Herbert Bay, Tinne Tuytelaars, and Luc Van Gool. Surf: speeded up robust features. In Proceedings of the 9th European conference on Computer Vision - Volume Part I, ECCV'06, pages 404-417, Berlin, Heidelberg, 2006. SpringerVerlag.
[2] Michael Calonder, Vincent Lepetit , Christoph Strecha, and Pascal Fua. Brief: binary robust independent elementary features. In Proceedings of the 11th European conference on Computer vision: Part IV, ECCV'lO, pages 778-792, Berlin, Heidelberg, 2010. Springer-Verlag.
[3] Frederic Devernay and Olivier Faugeras. Straight lines have to be straight. In SPIE7 volume 2567, 2001.
[4] Martin A. Fischler and Robert C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM , 24(6):381-395, 1981.
[ 5] Chris Harris and Mike Stephens. A combined corner and edge detector. In In Proc. of Fourth Alve y Vision Conference, pages 147-151, 1988.
[6] D.C. Hoaglin, F. Mosteller, and J.W. Tukey. Understanding Robust and Exploratory Data Analysis. Wiley series in probability and mathematical statistics: applied probability and statistics. John Wiley and Sons, 1983.
[7] Rudolph Emil Kalman. A new approach to linear filtering and prediction problems. Transactions of the ASM E-Journal of Basic Engineering, 82(Series D):35-45, 1960.
[8] Georg Klein and David Murray. Parallel tracking and mapping for small ar workspaces. In Proceedings of the 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, ISMAR '07, pages 1-10, Washington, DC, USA, 2007. IEEE Computer Society.
[9] J. J. Leonard and Durrant H. Whyte. Mobile robot localization by tracking geometric beacons. IEEE Transactions on Robotics and Automation, 7(3), 1991.
[10] K . Levenberg. A method for the solution of certain problems in least squares.Quart. Appl. Math, 2:164-168, 1944.
[11] David G. Lowe. Object recognition from local scale-invariant features. In Proceedings of the International Conference on Computer Vision- Volume 2 - Volume 2, ICCV '99, pages 1150-, Washington, DC, USA, 1999. IEEE Computer Society.
[12] D. Marquardt. An algorithm for least-squares estimation of nonlinear parameters. SIAM J. Appl. Math, 11:431-441, 1963.
[13] Christopher Mei, Gabe Sibley, Mark Cummins, Paul Newman, and Ian Reid. Rslam: A system for large-scale mapping in constant-time using stereo. Int. J. Comput. Vision, 94(2):198-214, September 2011.
[14] Gary Hosler Meisters. Polygons have ears. Amer. Math. Monthl y, 82:648-651, 1975.
[15] J. J. More'. The Levenberg-Marquardt algorithm: implementation and theory,pages 105-116. Lecture Notes in Mathematics 630. SPRINGER, 1977.
[16] Edward Rosten and Tom Drummond. Machine learning for high-speed corner detection. In Proceedings of the 9th European conference on Computer Vision- Volume Part I, ECCV'06, pages 430-443, Berlin, Heidelberg, 2006. SpringerVerlag.
[17] Edward Rosten, Reid Porter, and Tom Drummond. Faster and better: A machine learning approach to corner detection. IEEE Trans. Pattern Analysis and M achine Intelligence, 32:105-119, 2010.
[18] . Ethan Rublee, Vincent Rabaud, Kurt Konolige, and Gary Bradski. Orb: An efficient alternative to sift or surf. In Proceedings of the 2011 International Conference on Computer Vision, ICCV '11, pages 2564-2571, Washington, DC, USA, 2011. IEEE Computer Society.
[19] Ivan E. Sutherland. A head-mounted three dimensional display. In Proceedings of the December 9-11, 1968, fall joint computer conference, part I, AFIPS '68 (Fall, part I), pages 757-764, New York, NY, USA, 1968. ACM.
[20] Roger Y. Tsai and Reimer K. Lenz . A new technique for fully autonomous and efficient 3d robotics hand-eye calibration. In Proceedings of the 4th international symposium on Robotics Research, pages 287-297, Cambridge, MA, USA, 1988. MIT Press.
[21] J.K. Ulhmann. Algorithms for multiple target tracking. American Scientist,80(2):128-141, 1992.
Claims (60)
- テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステムであって、
(a)
前記フィルムカメラのボディは、3次元に移動可能であり、
前記フィルムカメラ内もしくは前記フィルムカメラに直接的または間接的に取り付けられたセンサが、前記フィルムカメラの3次元位置及び3次元向きを定義する、あるいは前記フィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)前記リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するために前記システムにより自動的に用いられ、
(c)結果として得られる前記コンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、前記フィルムカメラからの前記映像フィードに混合または前記映像フィードと合成される
ことを特徴とするシステム。 - 前記コンピュータ生成された3次元オブジェクトは、前記フィルムカメラからのリアルタイム映像にリアルタイムに混合または該リアルタイム映像とリアルタイムに合成されることを特徴とする請求項1に記載のシステム。
- 前記フィルムカメラのズーム、フォーカス及び絞りのリアルタイム設定が、従来のエンコーダを用いることも含んで計測され、3次元シーン内に所望の位置及び向きで前記3次元オブジェクトが正確に描画されるように、前記リアルタイム位置データとともに用いられることを特徴とする請求項1または2に記載のシステム。
- 前記センサが、加速度計及びジャイロ(6自由度センサ)を含むことを特徴とする請求項1乃至3のいずれか1項に記載のシステム。
- 前記センサが、3次元の並進加速度を計測する3軸の加速度計、3次元の角速度を計測する3軸のジャイロ、及び3次元の絶対方位を計測する磁気計を含み、9自由度のセンサを構成することを特徴とする請求項1乃至4のいずれか1項に記載のシステム。
- 前記センサが、パターン投影型(structured light)カメラまたはTOF(time-of-flight)方式カメラのような3次元範囲センサを含むことを特徴とする請求項1乃至5のいずれか1項に記載のシステム。
- 前記3次元範囲センサは、前記カメラからの映像出力の各画素の深度を取得することを特徴とする請求項6に記載のシステム。
- エッジの深度は、前記フィルムカメラの高解像度映像フィード上に前記3次元範囲センサの深度を再投影することにより精緻化されることを特徴とする請求項7に記載のシステム。
- 前記センサが、前記フィルムカメラに確実に固定可能なユニット内に形成されることを特徴とする請求項1乃至8のいずれか1項に記載のシステム。
- 前記ユニットが、1つまたは2つのウィットネスカメラを含むことを特徴とする請求項9に記載のシステム。
- 前記ユニットが、映像出力の各画素の深度を取得する3次元範囲センサを含むことを特徴とする請求項9に記載のシステム。
- 前記ユニットが、複合的シーンを解析可能な解析装置を形成可能であり、追跡するまたは該シーンの追跡を回復するコンピュータに、解析した3次元シーンを定義するデータを無線送信することを特徴とする請求項9に記載のシステム。
- 180度魚眼レンズであってもよいレンズが装着された、単一のウィットネスカメラ(単眼視ケース)または2つのウィットネスカメラ(立体視ケース)を含むことを特徴とする請求項1乃至12のいずれか1項に記載のシステム。
- 前記ウィットネスカメラは前記フィルムカメラからオフセットされ、
該オフセットが、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズム(blob image algorithm)を用いて認識される、第1及び第2のサークル群を含むキャリブレーションチャートを用いて取得される
ことを特徴とする請求項13に記載のシステム。 - 前記フィルムカメラのレンズは、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズムを用いて認識される、いくつかのサークルを含むキャリブレーションチャートを用いて光学的歪みについてキャリブレーションされることを特徴とする請求項1乃至14のいずれか1項に記載のシステム。
- 前記フィルムカメラの3次元位置及び向きは、一部分において、前記センサからの前記リアルタイム3次元位置データとウィットネスカメラがシーンを解析し、プロセッサにおいて実行されているソフトウェアが、該シーンに手動でまたは人工的に追加されていない、該シーン内の自然のマーカ(特徴点)を検出したオプティカルフローとを用いることにより生成された現実世界の3次元マップを参照して決定されることを特徴とする請求項1乃至15のいずれか1項に記載のシステム。
- 追跡されるシーンを純粋に解析する別のステージなしで前記システムを完全に初期化(「即時解析」と呼ばれる)可能にする1つまたは2つの(少なくとも100fpsの)ハイスピードウィットネスカメラを利用するが、該カメラが映像を取得するために用いられる間、解析は連続的に行われることを特徴とする請求項1乃至16のいずれか1項に記載のシステム。
- 前記2つのハイスピードウィットネスカメラは、前記カメラシステムが完全に動いていない場合でさえも、画像を処理し、即時の3次元ポイントクラウドを生成する(前記2つのカメラ間の距離の知識及びエピポーラ幾何学を用いて、前記シーン内の多くのポイントを3次元空間内のそれらの位置に関連付けることを含む)ことをソフトウェアに可能にする立体視システムを形成することを特徴とする請求項17に記載のシステム。
- 前記3次元ポイントクラウドにおける各画素の深度は、各立体視ウィットネスカメラから得られた対応する2Dテクスチャパッチと、エピポーラ線探索アルゴリズムとを用いて得られることを特徴とする請求項17に記載のシステム。
- ウィットネスカメラシステムからのオプティカルフローとハードウェアセンサからの前記リアルタイム位置データとを組み合わせるフュージョンアルゴリズムを実行することを特徴とする請求項1乃至19のいずれか1項に記載のシステム。
- 前記フュージョンアルゴリズムは、加速度計、ジャイロスコープ、磁気計、3次元範囲センサを含みうるあらゆる前記センサからの出力を統合し、再キャリブレーションし、前記カメラの位置及び向きを決定するための、拡張カルマンフィルタ予測/補正技術に基づくことを特徴とする請求項20に記載のシステム。
- 拡張カルマンフィルタフュージョンアルゴリズムは、各センサからのデータをどのようにマージするかを決定する場合に、各センサからの前記出力に関連付けられた信頼性レベルデータを使用することを特徴とする請求項21に記載のシステム。
- 1つのウィットネスカメラまたは前記ウィットネスカメラにより生成されたキーフレームは、視覚的追跡処理の一部であり、かつウィットネスカメラ映像フィードの4つの異なる解像度レベルにおいて演算されるリアルタイム画像であることを特徴とする請求項1乃至22のいずれか1項に記載のシステム。
- (a)仮想フィギュア、オブジェクト及び環境に係る3次元のコンピュータ生成されたアニメーションを提供するコンテンツ生成コンピュータ、及び
(b)(前記コンテンツ生成コンピュータと分離されていてもされていなくてもよい)描画コンピュータを有し、
前記フィルムカメラの3次元位置を定義する前記リアルタイム位置データは、前記フィルムカメラからの前記映像フィードにリアルタイムに挿入及び混合可能な、生成される、コンピュータ生成された3次元オブジェクトを、該映像フィードにおいて観賞される前記シーンの自然な部分を形成させるように、前記コンテンツ生成コンピュータ及び前記描画コンピュータのいずれかまたは双方により使用される
ことを特徴とする請求項1乃至23のいずれか1項に記載のシステム。 - 前記コンピュータ生成された3次元オブジェクトは、前記シーン内のいずれの位置にも移動可能で、前記コンテンツ生成コンピュータにより決定された方式の形状及び外観に変更可能なアニメーションであることを特徴とする請求項1乃至24のいずれか1項に記載のシステム。
- 前記コンピュータ生成された3次元オブジェクトは、前記シーンに混合された場合に、現実的な方式で移動(走る、踊る、歩く、戦う、飛ぶ、ジャンプするを含む)人間または生物のアニメーションされたフィギュアであることを特徴とする請求項1乃至25のいずれか1項に記載のシステム。
- 前記カメラ位置または追跡データは、ポストプロダクションCGIを促進するために、さらにポストプロダクションの使用が可能にされることを特徴とする請求項1乃至26のいずれか1項に記載のシステム。
- 3次元範囲センサが、再構成された3次元ポイントに関連付けられた深度計測の精度を高めるために、または該再構成された3次元ポイントを却下するために用いられることを特徴とする請求項1乃至27のいずれか1項に記載のシステム。
- 前記3次元範囲センサは、動的な遮蔽を可能にし、かつグリーンステージの最終使用を抑圧するためのリアルタイムの深度入力に用いられることを特徴とする請求項28に記載のシステム。
- 検出されたパターンのコーナーが3次元ポイントクラウド(即ち、ワールド)の原点として扱われるように、前記シーン内に配置された、既知のパターンで覆われた既知のサイズのプレートのような、小さなカメラ登録オブジェクトを使用することを特徴とする請求項1乃至29のいずれか1項に記載のシステム。
- 前記カメラ登録オブジェクトは、真の垂直線上に配置され、ブロブ画像認識アルゴリズムを用いて認識された、既知のサイズの少なくとも2つの球を含むことを特徴とする請求項30に記載のシステム。
- 磁北を示す磁気計と、
重力方向(即ち、真の垂直線を与える)を示す加速度計と、
前記システムが上方/下方にチルトされる、左または右にパンされている、または光軸について回転されている場合に通知するジャイロと、
開始位置からの3次元の並進を推測可能にする3軸加速度計と、を有する
ことを特徴とする請求項1乃至31のいずれか1項に記載のシステム。 - 追跡ロスを多分に低減し、追跡精度を上昇させる(より多くの視差が生成され、推定されたカメラ位置がより正確になる)ために、ソフトウェアが前記3次元マップ内に均一に分布されたポイントクラウドを生成することを試みることを特徴とする請求項1乃至32のいずれか1項に記載のシステム。
- カメラ追跡システムが、前記フィルムカメラに無線で接続され、前記3次元ポイントクラウドを生成する場合にセットの周囲を高速に移動可能であることを特徴とする請求項1乃至33のいずれか1項に記載のシステム。
- カメラ追跡システムであって、ディレクタ/カメラマンが前記フィルムカメラに取り付けられた該カメラ追跡システムを追跡し、パンし、チルトした際に、3次元シーンのリアルタイム解析(単眼視ケース)または即時解析(立体視ケース)と、前記フィルムカメラの追跡とを組み合わせるカメラ追跡システムを提供することを特徴とする請求項1乃至34のいずれか1項に記載のシステム。
- 全ての態様のフィルムカメラの、回転、並進、フォーカス、アイリス、焦点距離を含む追跡を完全に自動化し、混合される3次元の前記コンピュータ生成されたコンテンツの拡大縮小、位置決め及び向きを自動化することを特徴とする請求項1乃至35のいずれか1項に記載のシステム。
- シーンを定義する、より完全なポイントクラウドを生成するために、該シーンの継続的な解析をリアルタイムに可能にすることを特徴とする請求項1乃至36のいずれか1項に記載のシステム。
- 追跡の復帰を容易にするために、前記シーンにおいて検出された特徴点に、ORBを使用することを含む、回転不変量記述子を付与することを特徴とする請求項1乃至37のいずれか1項に記載のシステム。
- 事前に正確に計算されたまたは確認された位置を用いて前記フィルムカメラの次の位置を予測するために、前記センサにより提供された情報に関連付けられた等速モデルを使用することを特徴とする請求項1乃至38のいずれか1項に記載のシステム。
- 現在のフレームに3次元ポイントクラウドを再投影し、ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、新たな3次元ポイントクラウドにおいて投影されたポイントとのマッチングポイントマッチングアルゴリズムに可能にするために、前記予測を使用することを特徴とする請求項39に記載のシステム。
- 前記ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、前記新たな3次元ポイントクラウドにおいて投影されたポイントとの間の誤差を最小化するために、カメラ追跡にレーベンバーグ・マーカート最小化方式(Levenberg-Marquardt minimization scheme)を使用することを特徴とする請求項40に記載のシステム。
- ユーザは、3次元ガーベジマッティングマスクのような3次元マスクを定義するために、前記カメラ追跡システムにより生成された3次元ポイントクラウドを使用可能であることを特徴とする請求項1乃至41のいずれか1項に記載のシステム。
- 前記3次元オブジェクトは、静的オブジェクト、動的アニメーション、仮想ワールド、仮想人物、仮想建造物、仮想風景、仮想フィルムセット、及びアニメーションデータベースのあらゆるデータを含むことを特徴とする請求項1乃至42のいずれか1項に記載のシステム。
- 前記フィルムカメラ及びウィットネスカメラは、フレーム取得遅延を、発光したLEDに関連付けられた光強度曲線を比較することによるような、変調された光源を用いる方式でキャリブレーションされることを特徴とする請求項1乃至43のいずれか1項に記載のシステム。
- 前記フィルムカメラは、クレーンカメラ、固定カメラ、手持ちカメラ、ドリー取付カメラ、三脚取付カメラ、スマートフォン、拡張現実眼鏡のいずれかであることを特徴とする請求項1乃至44のいずれか1項に記載のシステム。
- コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成する方法であって、
前記フィルムカメラのボディが、3次元に移動可能であり、
前記カメラ内または前記カメラに取り付けられたセンサが、前記カメラの3次元位置または3次元向きを定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する
ことを特徴とする方法。 - テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとを混合または合成する方法であって、
(a)
前記フィルムカメラのボディは、3次元に移動可能であり、
前記フィルムカメラ内もしくは前記フィルムカメラに直接的または間接的に取り付けられたセンサが、前記フィルムカメラの3次元位置及び3次元向きを定義する、あるいは前記フィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)前記リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
(c)結果として得られる前記コンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、前記フィルムカメラからの前記映像フィードに混合または前記映像フィードと合成される
ことを特徴とする方法。 - カメラ内のコンピュータ生成されたプリプロダクション3次元アセット、一般的なプリビジュアライゼーションまたは視覚効果アセットを、該カメラにより取得されたライブアクションフィルムプレートまたは映像イメージ上に、ディレクタ(または撮影監督)がリアルタイムにフレームアップ可能にするために用いられ、
前記ディレクタに、該ディレクタにより観られる映像に自動的に混合された前記コンピュータ生成された3次元アセットを用いて、可能なカメラアングルの探索及び移動をリアルタイムに探索可能にする
ことを特徴とする上記定義された方法またはシステム。 - ポストプロダクション処理用のマッチムーブデータを提供するために、前記リアルタイム位置データは記録され、タイムコードスタンプがなされることを特徴とする上記定義された方法またはシステム。
- 仮想オブジェクトまたは画像を、放送映像ストリーム上に挿入可能にするために用いられることを特徴とする上記定義された方法またはシステム。
- ・スタジオカメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・クレーン取付カメラのリアルタイム追跡
・ドリー取付カメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・中継放送(OB:Outside Broadcast)のリアルタイム追跡
・2次元ポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・3次元立体視コンテンツ用のポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・ネイティブ3次元立体視コンテンツのリアルタイムデータ(追跡データを含む)の使用
・3次元グラフィックス挿入
・スタジオ内への、またはセットプロダクト・プレイスメントにおける3次元グラフィックス挿入
・OB用の3次元グラフィックス挿入
・他のスポンサー提供画像用の3次元グラフィックス挿入
・観察者位置固有の3次元グラフィックス挿入
・観察者固有の3次元グラフィックス挿入
・時間固有の3次元グラフィックス挿入
・曇天風景書き込み用の3次元グラフィックス挿入
・グリーンスクリーン置換用の3次元グラフィックス挿入
・博物館、及び文化、歴史又は自然遺産の解析センターにおける学習を補助する教育的コンテンツの3次元グラフィックス挿入
・シーン内のオブジェクトの絶対的または相対的サイズの計測
の1以上を可能ならしめることを特徴とする上記定義された方法またはシステム。 - 前記フィルムカメラは
・標準範囲を有する全てのカメラ
・限定的な光ファイバ接続を必要とするカメラ
・RF/無線接続を必要とするカメラ
のうちの1つであることを特徴とする上記定義された方法またはシステム。 - ・フィルム/テレビ(非ライブ)
・コマーシャル(非ライブ)
・ライブコマーシャル
・放送(非スポーツ)
・OB放送
・スタジオベーススポーツ
・OBベーススポーツ
・テレビプロダクト・プレイスメントのライブ
・インターネット利用(非ライブ)
・インターネットライブ
・地域ベースインターネットライブ
・インターネットプロダクト・プレイスメントのライブ
・博物館/文化遺産コンテンツ
・博物館/遺産広告
・建築
・ゲーム
のうちの1つのマーケットに配備されることを特徴とする上記定義された方法またはシステム。 - スマートフォンを含むあらゆる表示装置及び拡張現実眼鏡に拡張現実画像を表示可能にするために用いられ、
拡張現実画像の外観が、自動的に前記リアルタイム位置データに応じて変更される
ことを特徴とする上記定義された方法またはシステム。 - リアルタイムにコンピュータ生成された3次元オブジェクトが、カメラからの映像フィードと混合され、
前記カメラのボディは3次元において移動可能であり、
前記カメラ内または前記カメラに取り付けられたセンサが、前記カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供することを特徴とするフィルム、動画、テレビ番組またはビデオゲーム。 - 従来のカメラに取り付けられるよう構成されたシーンを解析及び追跡する装置であって、
前記カメラのボディは、3次元に移動可能であり、
前記シーンを解析及び追跡する装置内のハードウェアセンサが、前記カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する
ことを特徴とする装置。 - 3次元の参照フレームに対するカメラの3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、前記カメラ内または前記カメラに取り付けられたセンサを有することを特徴とする手持ちまたは携帯型カメラ。
- 立体視ウィットネスカメラシステムを含むまたは該システムに取り付けられたフィルムカメラであって、
前記ウィットネスカメラシステムが、
広角(180度を含む)の立体視画像を生成し、
該画像を処理し、該カメラシステムが追跡/移動されることなく即時の3次元ポイントクラウドを生成することをソフトウェアに可能にする
ことを特徴とするフィルムカメラ。 - フィルムカメラに取り付けるためのカメラ追跡システムであって、
立体視画像を生成し、該画像を処理し、該カメラシステムが移動されることなく、即座の3次元ポイントクラウドを生成して前記フィルムカメラのリアルタイム追跡(位置、向き、ズーム、フォーカス及びアイリス)を提供することをソフトウェアに可能にするウィットネスカメラを有する
ことを特徴とするシステム。 - 3次元の参照フレームに対する眼鏡の3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、前記眼鏡内または前記眼鏡に取り付けられたセンサを有することを特徴とする拡張現実眼鏡。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1208088.3 | 2012-05-09 | ||
GBGB1208088.3A GB201208088D0 (en) | 2012-05-09 | 2012-05-09 | Ncam |
PCT/GB2013/051205 WO2013167901A1 (en) | 2012-05-09 | 2013-05-09 | A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015521419A true JP2015521419A (ja) | 2015-07-27 |
Family
ID=46396728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015510876A Pending JP2015521419A (ja) | 2012-05-09 | 2013-05-09 | コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム |
Country Status (20)
Country | Link |
---|---|
US (4) | US9600936B2 (ja) |
EP (1) | EP2847991B1 (ja) |
JP (1) | JP2015521419A (ja) |
KR (1) | KR20150013709A (ja) |
CN (1) | CN104322052B (ja) |
AU (1) | AU2013257788B2 (ja) |
CA (1) | CA2872797A1 (ja) |
DK (1) | DK2847991T3 (ja) |
ES (1) | ES2951587T3 (ja) |
FI (1) | FI2847991T3 (ja) |
GB (3) | GB201208088D0 (ja) |
HK (1) | HK1206517A1 (ja) |
HR (1) | HRP20230832T1 (ja) |
HU (1) | HUE062417T2 (ja) |
IN (1) | IN2014DN10462A (ja) |
PL (1) | PL2847991T3 (ja) |
PT (1) | PT2847991T (ja) |
RS (1) | RS64401B1 (ja) |
SG (2) | SG10201600233SA (ja) |
WO (1) | WO2013167901A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10748341B2 (en) | 2017-12-18 | 2020-08-18 | GungHo Online Entertainment, Inc. | Terminal device, system, program and method for compositing a real-space image of a player into a virtual space |
Families Citing this family (166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2984057B1 (fr) | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US11659138B1 (en) | 2013-06-26 | 2023-05-23 | Touchcast, Inc. | System and method for interactive video conferencing |
US9787945B2 (en) | 2013-06-26 | 2017-10-10 | Touchcast LLC | System and method for interactive video conferencing |
US10356363B2 (en) | 2013-06-26 | 2019-07-16 | Touchcast LLC | System and method for interactive video conferencing |
US10075676B2 (en) | 2013-06-26 | 2018-09-11 | Touchcast LLC | Intelligent virtual assistant system and method |
US10523899B2 (en) | 2013-06-26 | 2019-12-31 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US11405587B1 (en) | 2013-06-26 | 2022-08-02 | Touchcast LLC | System and method for interactive video conferencing |
US10757365B2 (en) | 2013-06-26 | 2020-08-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US9852764B2 (en) | 2013-06-26 | 2017-12-26 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US10297284B2 (en) | 2013-06-26 | 2019-05-21 | Touchcast LLC | Audio/visual synching system and method |
US11488363B2 (en) | 2019-03-15 | 2022-11-01 | Touchcast, Inc. | Augmented reality conferencing system and method |
US10084849B1 (en) | 2013-07-10 | 2018-09-25 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
EP3041217B1 (en) * | 2013-09-06 | 2021-03-31 | Sony Corporation | Imaging device, method and program |
US20150103183A1 (en) * | 2013-10-10 | 2015-04-16 | Nvidia Corporation | Method and apparatus for device orientation tracking using a visual gyroscope |
US10074216B2 (en) * | 2013-11-13 | 2018-09-11 | Sony Corporation | Information processing to display information based on position of the real object in the image |
US9773313B1 (en) * | 2014-01-03 | 2017-09-26 | Google Inc. | Image registration with device data |
KR101678389B1 (ko) * | 2014-02-28 | 2016-11-22 | 엔트릭스 주식회사 | 클라우드 스트리밍 기반의 영상데이터 제공 방법, 이를 위한 장치 및 시스템 |
GB201404990D0 (en) * | 2014-03-20 | 2014-05-07 | Appeartome Ltd | Augmented reality apparatus and method |
WO2015155628A1 (en) * | 2014-04-07 | 2015-10-15 | Eyeways Systems Ltd. | Apparatus and method for image-based positioning, orientation and situational awareness |
US20150289338A1 (en) | 2014-04-08 | 2015-10-08 | Revolution Display, Inc. | Automatic chroma key background generator with incident key lighting |
DE102014006732B4 (de) * | 2014-05-08 | 2016-12-15 | Audi Ag | Bildüberlagerung von virtuellen Objekten in ein Kamerabild |
US10255251B2 (en) | 2014-06-26 | 2019-04-09 | Touchcast LLC | System and method for providing and interacting with coordinated presentations |
US20150381972A1 (en) * | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
EP3176756A4 (en) * | 2014-07-28 | 2017-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Augmented reality display system, terminal device and augmented reality display method |
WO2016019146A1 (en) * | 2014-07-30 | 2016-02-04 | Touchcast, Llc | System and method for providing and interacting with coordinated presentations |
US20160061581A1 (en) * | 2014-08-26 | 2016-03-03 | Lusee, Llc | Scale estimating method using smart device |
DE102014013678B3 (de) * | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US9609200B2 (en) | 2014-09-24 | 2017-03-28 | Panavision International, L.P. | Distance measurement device for motion picture camera focus applications |
GB2533788A (en) * | 2014-12-30 | 2016-07-06 | Nokia Technologies Oy | Method for determining the position of a portable device |
US10284794B1 (en) | 2015-01-07 | 2019-05-07 | Car360 Inc. | Three-dimensional stabilized 360-degree composite image capture |
US9779512B2 (en) * | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
JP6511283B2 (ja) * | 2015-02-12 | 2019-05-15 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
CN104883514B (zh) * | 2015-05-11 | 2018-11-23 | 北京金山安全软件有限公司 | 一种视频处理方法及装置 |
US10110822B2 (en) | 2015-06-09 | 2018-10-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera |
RU2601169C1 (ru) * | 2015-06-11 | 2016-10-27 | Виталий Витальевич Аверьянов | Способ и устройство для взаимодействия с виртуальными объектами |
US9836895B1 (en) | 2015-06-19 | 2017-12-05 | Waymo Llc | Simulating virtual objects |
US9721350B2 (en) | 2015-06-26 | 2017-08-01 | Getalert Ltd. | Methods circuits devices systems and associated computer executable code for video feed processing |
US11002856B2 (en) * | 2015-08-07 | 2021-05-11 | King Abdullah University Of Science And Technology | Doppler time-of-flight imaging |
KR101729165B1 (ko) | 2015-09-03 | 2017-04-21 | 주식회사 쓰리디지뷰아시아 | 타임 슬라이스 영상용 오차교정 유닛 |
KR101729164B1 (ko) * | 2015-09-03 | 2017-04-24 | 주식회사 쓰리디지뷰아시아 | 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법 |
US10404962B2 (en) * | 2015-09-24 | 2019-09-03 | Intel Corporation | Drift correction for camera tracking |
JP6723720B2 (ja) * | 2015-10-20 | 2020-07-15 | キヤノン株式会社 | 表示システム、情報処理方法及びプログラム |
DE102015223003A1 (de) * | 2015-11-20 | 2017-05-24 | Bitmanagement Software GmbH | Vorrichtung und Verfahren zur Überlagerung zumindest eines Teils eines Objekts mit einer virtuellen Oberfläche |
KR20170096468A (ko) * | 2016-02-16 | 2017-08-24 | 한국전자통신연구원 | 자동 음장 제어 방법 및 자동 음장 제어 장치 및 상기 자동 음장 제어 장치가 제어하는 출력 장치 |
US9883097B2 (en) * | 2016-06-03 | 2018-01-30 | Google Inc. | Optical flow based auto focus |
US10254546B2 (en) * | 2016-06-06 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optically augmenting electromagnetic tracking in mixed reality |
US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
NO20161132A1 (en) * | 2016-07-07 | 2017-10-30 | Real Training As | Training system |
US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
IT201600086875A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
IT201600086859A1 (it) * | 2016-08-24 | 2018-02-24 | Osram Gmbh | Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti |
WO2018048704A1 (en) * | 2016-09-06 | 2018-03-15 | Carnegie Mellon University | Gaussian mixture model based approximation of continuous belief distributions |
CN106231292B (zh) * | 2016-09-07 | 2017-08-25 | 深圳超多维科技有限公司 | 一种立体虚拟现实直播方法、装置及设备 |
TWI612795B (zh) | 2016-09-13 | 2018-01-21 | 財團法人工業技術研究院 | 場景掃描方法及系統 |
JP2019534606A (ja) * | 2016-09-19 | 2019-11-28 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | ライトフィールドデータを使用して場面を表す点群を再構築するための方法および装置 |
CN107945198B (zh) * | 2016-10-13 | 2021-02-23 | 北京百度网讯科技有限公司 | 用于标注点云数据的方法和装置 |
DE102016119637A1 (de) * | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | Fernsehübertragungssystem zur Erzeugung angereicherter Bilder |
CN107038758B (zh) * | 2016-10-14 | 2020-07-17 | 北京联合大学 | 一种基于orb算子的增强现实三维注册方法 |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
WO2018089040A1 (en) * | 2016-11-14 | 2018-05-17 | Lightcraft Technology Llc | Spectator virtual reality system |
CN106507091A (zh) * | 2016-11-14 | 2017-03-15 | 墨宝股份有限公司 | 一种利用3d动漫拍摄制作真人主题秀影片的方法 |
KR20180075732A (ko) | 2016-12-26 | 2018-07-05 | 엘지디스플레이 주식회사 | 헤드 마운티드 디스플레이 및 그 제어 방법 |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10553036B1 (en) * | 2017-01-10 | 2020-02-04 | Lucasfilm Entertainment Company Ltd. | Manipulating objects within an immersive environment |
US20190394509A1 (en) * | 2017-01-19 | 2019-12-26 | Sony Interactive Entertainment Inc. | Image delivery apparatus |
CN106846442B (zh) * | 2017-03-06 | 2019-07-02 | 西安电子科技大学 | 基于Unity3D的三维虚拟人群场景生成方法 |
US10192111B2 (en) | 2017-03-10 | 2019-01-29 | At&T Intellectual Property I, L.P. | Structure from motion for drone videos |
JP6969121B2 (ja) * | 2017-03-17 | 2021-11-24 | 株式会社リコー | 撮像システム、画像処理装置および画像処理プログラム |
CN107330911B (zh) * | 2017-05-08 | 2022-01-11 | 上海交通大学 | 基于相交约束的纯旋转运动判定方法 |
US10339714B2 (en) | 2017-05-09 | 2019-07-02 | A9.Com, Inc. | Markerless image analysis for augmented reality |
CN110869980B (zh) | 2017-05-18 | 2024-01-09 | 交互数字Vc控股公司 | 将内容分发和呈现为球形视频和3d资产组合 |
CN111033572B (zh) * | 2017-06-02 | 2023-09-05 | 苹果公司 | 用于检测用作虚拟衬底的平面和/或四叉树的方法和设备 |
KR102662201B1 (ko) * | 2017-06-28 | 2024-04-30 | 매직 립, 인코포레이티드 | 콘볼루셔널 이미지 변환을 사용하여 동시 로컬화 및 맵핑을 수행하기 위한 방법 및 시스템 |
JP7000050B2 (ja) * | 2017-06-29 | 2022-01-19 | キヤノン株式会社 | 撮像制御装置及びその制御方法 |
CN107463757B (zh) * | 2017-08-22 | 2020-07-28 | 中国有色金属长沙勘察设计研究院有限公司 | 一种基于断面结构与转向角度约束的断面插值方法 |
US20200218279A1 (en) * | 2017-08-30 | 2020-07-09 | Qualcomm Incorporated | Robust Navigation of a Robotic Vehicle |
US10257436B1 (en) * | 2017-10-11 | 2019-04-09 | Adobe Systems Incorporated | Method for using deep learning for facilitating real-time view switching and video editing on computing devices |
US10497122B2 (en) | 2017-10-11 | 2019-12-03 | Adobe Inc. | Image crop suggestion and evaluation using deep-learning |
US10516830B2 (en) | 2017-10-11 | 2019-12-24 | Adobe Inc. | Guided image composition on mobile devices |
WO2019080047A1 (zh) * | 2017-10-26 | 2019-05-02 | 腾讯科技(深圳)有限公司 | 增强现实图像的实现方法、装置、终端设备和存储介质 |
US11146775B2 (en) * | 2017-11-07 | 2021-10-12 | Symbol Technologies, Llc | Methods and apparatus for dimensioning an object using proximate devices |
US10643320B2 (en) | 2017-11-15 | 2020-05-05 | Toyota Research Institute, Inc. | Adversarial learning of photorealistic post-processing of simulation with privileged information |
US10528684B1 (en) * | 2017-12-04 | 2020-01-07 | Synopsys, Inc. | TCAD design template for fast prototyping of 2D and 3D CMOS image sensors |
CN108257206B (zh) * | 2017-12-06 | 2021-04-13 | 石化盈科信息技术有限责任公司 | 信息展板展示方法和装置 |
CN109931923B (zh) * | 2017-12-15 | 2023-07-07 | 阿里巴巴集团控股有限公司 | 一种导航引导图的生成方法和装置 |
KR102166372B1 (ko) * | 2017-12-20 | 2020-10-15 | 주식회사 고영테크놀러지 | 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법 |
US10510145B2 (en) * | 2017-12-27 | 2019-12-17 | Industrial Technology Research Institute | Medical image comparison method and system thereof |
CN108419090A (zh) * | 2017-12-27 | 2018-08-17 | 广东鸿威国际会展集团有限公司 | 三维直播流展示系统和方法 |
CN108289220B (zh) | 2018-01-15 | 2020-11-27 | 深圳市奥拓电子股份有限公司 | 虚拟图像处理方法、图像处理系统及存储介质 |
CN108280882B (zh) * | 2018-01-24 | 2021-12-31 | 北京德火新媒体技术有限公司 | 一种在虚拟显示空间植入ar前景物品位置的方法及系统 |
CA3031276A1 (en) | 2018-02-08 | 2019-08-08 | Ascension Technology Corporation | Compensating for distortion in an electromagnetic tracking system |
CN108447116A (zh) * | 2018-02-13 | 2018-08-24 | 中国传媒大学 | 基于视觉slam的三维场景重建方法和装置 |
CN108540731A (zh) * | 2018-04-17 | 2018-09-14 | 北京艾沃次世代文化传媒有限公司 | 实拍摄影机与虚拟场景实时同步显示方法 |
CN108259780A (zh) * | 2018-04-17 | 2018-07-06 | 北京艾沃次世代文化传媒有限公司 | 用于虚拟片场抗干扰特效视频同步显示方法 |
CN108551557B (zh) * | 2018-04-20 | 2022-02-08 | 北京艾沃次世代文化传媒有限公司 | 后期前置数字虚拟片场系统 |
KR102567947B1 (ko) * | 2018-05-03 | 2023-08-17 | 한국전자통신연구원 | G-code를 이용한 3D 프린팅 관리 방법 및 장치 |
US10818093B2 (en) | 2018-05-25 | 2020-10-27 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10984600B2 (en) | 2018-05-25 | 2021-04-20 | Tiff's Treats Holdings, Inc. | Apparatus, method, and system for presentation of multimedia content including augmented reality content |
US10475248B1 (en) | 2018-06-08 | 2019-11-12 | Microsoft Technology Licensing, Llc | Real-time compositing in mixed reality |
CN110148178B (zh) * | 2018-06-19 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 相机定位方法、装置、终端及存储介质 |
CN108921791A (zh) * | 2018-07-03 | 2018-11-30 | 苏州中科启慧软件技术有限公司 | 基于自适应重要性学习的轻量级图像超分辨率改进方法 |
US10580218B1 (en) * | 2018-07-12 | 2020-03-03 | Facebook, Inc. | Augmented-reality image processing |
CN109064536B (zh) * | 2018-07-27 | 2022-12-06 | 电子科技大学 | 一种基于双目结构光的书页三维重建方法 |
US10893299B2 (en) | 2018-07-31 | 2021-01-12 | Intel Corporation | Surface normal vector processing mechanism |
US10762394B2 (en) | 2018-07-31 | 2020-09-01 | Intel Corporation | System and method for 3D blob classification and transmission |
US10887574B2 (en) | 2018-07-31 | 2021-01-05 | Intel Corporation | Selective packing of patches for immersive video |
US11212506B2 (en) * | 2018-07-31 | 2021-12-28 | Intel Corporation | Reduced rendering of six-degree of freedom video |
US11178373B2 (en) | 2018-07-31 | 2021-11-16 | Intel Corporation | Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments |
CN109089100B (zh) * | 2018-08-13 | 2020-10-23 | 西安理工大学 | 一种双目立体视频的合成方法 |
CN109168034B (zh) * | 2018-08-28 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 商品信息显示方法、装置、电子设备和可读存储介质 |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
DE102019127349A1 (de) | 2018-10-10 | 2020-04-16 | Intel Corporation | Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen |
US11057631B2 (en) | 2018-10-10 | 2021-07-06 | Intel Corporation | Point cloud coding standard conformance definition in computing environments |
CN109509261B (zh) * | 2018-11-26 | 2023-07-25 | 端美科技(中山)有限公司 | 一种增强现实的方法、装置及计算机存储介质 |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US11092966B2 (en) * | 2018-12-14 | 2021-08-17 | The Boeing Company | Building an artificial-intelligence system for an autonomous vehicle |
WO2020131037A1 (en) * | 2018-12-18 | 2020-06-25 | Rovi Guides, Inc. | Systems and methods for automated tracking on a handheld device using a remote camera |
JP7478740B2 (ja) | 2018-12-19 | 2024-05-07 | アニペン カンパニー リミテッド | アニメーションシーケンスを生成する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
US20200210676A1 (en) | 2018-12-27 | 2020-07-02 | Simplex Mapping Solutions Sb Ltd. | Compact interval sweeping imaging system and method |
US11972589B2 (en) * | 2019-01-09 | 2024-04-30 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
CN109816764B (zh) * | 2019-02-02 | 2021-06-25 | 深圳市商汤科技有限公司 | 图像生成方法及装置、电子设备和存储介质 |
GB2581792B (en) * | 2019-02-25 | 2023-01-04 | Mo Sys Engineering Ltd | Lens calibration system |
CN109859256B (zh) * | 2019-03-13 | 2023-03-31 | 大连理工大学 | 一种基于自动对应点匹配的三维点云配准方法 |
US11212514B2 (en) * | 2019-03-25 | 2021-12-28 | Light Field Lab, Inc. | Light field display system for cinemas |
CN109842811B (zh) * | 2019-04-03 | 2021-01-19 | 腾讯科技(深圳)有限公司 | 一种在视频中植入推送信息的方法、装置及电子设备 |
WO2020219865A1 (en) * | 2019-04-24 | 2020-10-29 | Matthew Walker | System and method for real-time camera tracking to form a composite image |
CN110123453B (zh) * | 2019-05-31 | 2021-07-23 | 东北大学 | 一种基于无标记增强现实的手术导航系统 |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
CN110446020A (zh) * | 2019-08-03 | 2019-11-12 | 魏越 | 沉浸式堪景方法、装置、存储介质及设备 |
GB2586831A (en) * | 2019-09-05 | 2021-03-10 | Wolf In Motion Ltd | Three-Dimensional Content Generation using real-time video compositing |
KR102196032B1 (ko) * | 2019-10-21 | 2020-12-29 | 한국과학기술원 | 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템 |
EP4051463A4 (en) * | 2019-10-29 | 2023-11-08 | ABB Schweiz AG | ROBOTIC CALIBRATION AND TUNING SYSTEM AND METHOD |
CN111222401B (zh) * | 2019-11-14 | 2023-08-22 | 北京华捷艾米科技有限公司 | 一种手部关键点三维坐标的识别方法及装置 |
CN111008305B (zh) * | 2019-11-29 | 2023-06-23 | 百度在线网络技术(北京)有限公司 | 一种视觉搜索方法、装置以及电子设备 |
CN110931121A (zh) * | 2019-11-29 | 2020-03-27 | 重庆邮电大学 | 一种基于Hololens的远程手术指导装置及操作方法 |
US12106427B2 (en) | 2019-12-13 | 2024-10-01 | Sony Group Corporation | Rendering back plates |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
CN111080629B (zh) * | 2019-12-20 | 2021-10-22 | 河北工业大学 | 一种图像拼接篡改的检测方法 |
KR20220119664A (ko) | 2019-12-20 | 2022-08-30 | 나이앤틱, 인크. | 3d 라인 정션을 통한 위치 판정 및 매핑 |
US11748844B2 (en) | 2020-01-08 | 2023-09-05 | Carvana, LLC | Systems and methods for generating a virtual display of an item |
US20210245047A1 (en) | 2020-02-10 | 2021-08-12 | Intel Corporation | Continuum architecture for cloud gaming |
EP4107605A1 (en) * | 2020-02-20 | 2022-12-28 | Arti D2 Ltd. | Apparatus and methods for publishing video content |
CN111461981B (zh) * | 2020-03-30 | 2023-09-01 | 北京百度网讯科技有限公司 | 点云拼接算法的误差估计方法和装置 |
IL275163B (en) * | 2020-06-04 | 2022-07-01 | Elbit Systems Ltd | System and method for displaying scene information |
US11043041B1 (en) | 2020-07-10 | 2021-06-22 | Mindshow Inc. | Systems and methods configured to facilitate animation |
US11514674B2 (en) * | 2020-09-04 | 2022-11-29 | Zillow, Inc. | Automated analysis of image contents to determine the acquisition location of the image |
CN112367514B (zh) * | 2020-10-30 | 2022-12-09 | 京东方科技集团股份有限公司 | 三维场景构建方法、装置、系统和存储介质 |
CN112767412B (zh) * | 2020-12-31 | 2024-04-12 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆部件级分割方法、装置以及电子设备 |
WO2022225145A1 (ko) * | 2021-04-21 | 2022-10-27 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
US11887251B2 (en) | 2021-04-23 | 2024-01-30 | Lucasfilm Entertainment Company Ltd. | System and techniques for patch color correction for an immersive content production system |
US11762481B2 (en) * | 2021-04-23 | 2023-09-19 | Lucasfilm Entertainment Company Ltd. | Light capture device |
US11978154B2 (en) | 2021-04-23 | 2024-05-07 | Lucasfilm Entertainment Company Ltd. | System and techniques for lighting adjustment for an immersive content production system |
CN113286163B (zh) * | 2021-05-21 | 2022-07-08 | 成都威爱新经济技术研究院有限公司 | 一种用于虚拟拍摄直播的时间戳误差标定方法及系统 |
CN113240782B (zh) * | 2021-05-26 | 2024-03-22 | 完美世界(北京)软件科技发展有限公司 | 基于虚拟角色的流媒体生成方法及装置 |
EP4348375A4 (en) * | 2021-06-03 | 2024-04-10 | Elbit Systems Ltd. | SYSTEM AND METHOD FOR PROVIDING SCENE INFORMATION |
CN115543065A (zh) | 2021-06-29 | 2022-12-30 | 富联国基(上海)电子有限公司 | 一种扩增实境环境中物件的展示方法与系统 |
TWI771086B (zh) * | 2021-06-29 | 2022-07-11 | 新加坡商鴻運科股份有限公司 | 一種擴增實境環境中物件的展示方法與系統 |
CN113345022B (zh) * | 2021-07-05 | 2023-02-17 | 湖南快乐阳光互动娱乐传媒有限公司 | 动态三维广告植入方法、装置、电子设备及存储介质 |
CN113627983A (zh) * | 2021-08-10 | 2021-11-09 | 广州六六网络科技有限公司 | 一种基于视频创意的网络广告推广方法及系统 |
US20230230152A1 (en) * | 2022-01-14 | 2023-07-20 | Shopify Inc. | Systems and methods for generating customized augmented reality video |
US11948257B2 (en) * | 2022-05-09 | 2024-04-02 | Rovi Guides, Inc. | Systems and methods for augmented reality video generation |
KR102453561B1 (ko) * | 2022-07-08 | 2022-10-14 | 이엑스 주식회사 | 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법 |
EP4369700A1 (en) * | 2022-11-08 | 2024-05-15 | Hexagon Geosystems Services AG | Method and system for tracking camera poses |
WO2024190223A1 (en) * | 2023-03-15 | 2024-09-19 | Sony Group Corporation | Cinema camera tracking using an ir tracking camera and calibration for virtual production |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222116A (ja) * | 1999-01-29 | 2000-08-11 | Sony Corp | 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置 |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
US20070248283A1 (en) * | 2006-04-21 | 2007-10-25 | Mack Newton E | Method and apparatus for a wide area virtual scene preview system |
JP2009139995A (ja) * | 2007-12-03 | 2009-06-25 | National Institute Of Information & Communication Technology | ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム |
JP2012068861A (ja) * | 2010-09-22 | 2012-04-05 | Casio Comput Co Ltd | Ar処理装置、ar処理方法及びプログラム |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69225156T2 (de) * | 1991-02-01 | 1998-11-05 | Canon Kk | Konvertierer für Kamera mit auswechselbaren Linsen |
US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
US6373489B1 (en) * | 1999-01-12 | 2002-04-16 | Schlumberger Technology Corporation | Scalable visualization for interactive geometry modeling |
US7084867B1 (en) * | 1999-04-02 | 2006-08-01 | Massachusetts Institute Of Technology | Haptic interface system for collision detection and applications therefore |
US6563105B2 (en) * | 1999-06-08 | 2003-05-13 | University Of Washington | Image acquisition with depth enhancement |
DE10044032A1 (de) * | 2000-09-06 | 2002-03-14 | Deutsche Telekom Ag | 3-D Sehen |
JP4878083B2 (ja) * | 2001-03-13 | 2012-02-15 | キヤノン株式会社 | 画像合成装置及び方法、プログラム |
US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
US20030202120A1 (en) * | 2002-04-05 | 2003-10-30 | Mack Newton Eliot | Virtual lighting system |
US7138963B2 (en) * | 2002-07-18 | 2006-11-21 | Metamersion, Llc | Method for automatically tracking objects in augmented reality |
US7002551B2 (en) * | 2002-09-25 | 2006-02-21 | Hrl Laboratories, Llc | Optical see-through augmented reality modified-scale display |
JP4235522B2 (ja) * | 2003-09-25 | 2009-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US7391424B2 (en) | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
JP4227561B2 (ja) * | 2004-06-03 | 2009-02-18 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US7671893B2 (en) * | 2004-07-27 | 2010-03-02 | Microsoft Corp. | System and method for interactive multi-view video |
US20060244831A1 (en) * | 2005-04-28 | 2006-11-02 | Kraft Clifford H | System and method for supplying and receiving a custom image |
US7840042B2 (en) * | 2006-01-20 | 2010-11-23 | 3M Innovative Properties Company | Superposition for visualization of three-dimensional data acquisition |
JP4810295B2 (ja) * | 2006-05-02 | 2011-11-09 | キヤノン株式会社 | 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体 |
US7558771B2 (en) * | 2006-06-07 | 2009-07-07 | Gm Global Technology Operations, Inc. | System and method for selection of prediction tools |
WO2008033856A1 (en) * | 2006-09-11 | 2008-03-20 | 3Ality Digital, Llc | 3d augmentation of traditional photography |
JP2008219788A (ja) | 2007-03-07 | 2008-09-18 | Toshiba Corp | 立体画像表示装置、方法およびプログラム |
US8274530B2 (en) * | 2007-03-12 | 2012-09-25 | Conversion Works, Inc. | Systems and methods for filling occluded information for 2-D to 3-D conversion |
JP4689639B2 (ja) * | 2007-04-25 | 2011-05-25 | キヤノン株式会社 | 画像処理システム |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
CN101464999B (zh) * | 2007-12-19 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | 三维色阶比对系统及方法 |
GB2456802A (en) * | 2008-01-24 | 2009-07-29 | Areograph Ltd | Image capture and motion picture generation using both motion camera and scene scanning imaging systems |
US8401276B1 (en) * | 2008-05-20 | 2013-03-19 | University Of Southern California | 3-D reconstruction and registration |
EP2297705B1 (fr) * | 2008-06-30 | 2012-08-15 | Thomson Licensing | Procede de composition temps reel d'une video |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
WO2010029040A2 (en) * | 2008-09-11 | 2010-03-18 | University Of Malta | Method and apparatus for generating and transmitting synchronized video data |
CN102246121B (zh) * | 2008-12-25 | 2016-01-13 | 松下知识产权经营株式会社 | 信息显示装置和信息显示方法 |
WO2010087751A1 (en) * | 2009-01-27 | 2010-08-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Depth and video co-processing |
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US8494225B2 (en) * | 2010-02-19 | 2013-07-23 | Julian L. Center | Navigation method and aparatus |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20110222757A1 (en) * | 2010-03-10 | 2011-09-15 | Gbo 3D Technology Pte. Ltd. | Systems and methods for 2D image and spatial data capture for 3D stereo imaging |
KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
US8553989B1 (en) * | 2010-04-27 | 2013-10-08 | Hrl Laboratories, Llc | Three-dimensional (3D) object recognition system using region of interest geometric features |
US9699438B2 (en) | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
US8600194B2 (en) * | 2011-05-17 | 2013-12-03 | Apple Inc. | Positional sensor-assisted image registration for panoramic photography |
US9325960B2 (en) * | 2011-11-07 | 2016-04-26 | Autodesk, Inc. | Maintenance of three dimensional stereoscopic effect through compensation for parallax setting |
WO2013086076A1 (en) | 2011-12-06 | 2013-06-13 | Telecommunication Systems, Inc. | Unattended authentication in a secondary authentication service for wireless carriers |
FR2984057B1 (fr) * | 2011-12-13 | 2014-01-03 | Solidanim | Systeme de tournage de film video |
US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
US20130215229A1 (en) * | 2012-02-16 | 2013-08-22 | Crytek Gmbh | Real-time compositing of live recording-based and computer graphics-based media streams |
US8633970B1 (en) * | 2012-08-30 | 2014-01-21 | Google Inc. | Augmented reality with earth data |
-
2012
- 2012-05-09 GB GBGB1208088.3A patent/GB201208088D0/en not_active Ceased
-
2013
- 2013-05-09 PL PL13726815.7T patent/PL2847991T3/pl unknown
- 2013-05-09 EP EP13726815.7A patent/EP2847991B1/en active Active
- 2013-05-09 RS RS20230594A patent/RS64401B1/sr unknown
- 2013-05-09 GB GB1521863.9A patent/GB2535596B/en active Active
- 2013-05-09 US US14/399,632 patent/US9600936B2/en active Active
- 2013-05-09 SG SG10201600233SA patent/SG10201600233SA/en unknown
- 2013-05-09 GB GB1308377.9A patent/GB2503563B/en active Active
- 2013-05-09 AU AU2013257788A patent/AU2013257788B2/en active Active
- 2013-05-09 HU HUE13726815A patent/HUE062417T2/hu unknown
- 2013-05-09 DK DK13726815.7T patent/DK2847991T3/da active
- 2013-05-09 KR KR1020147034271A patent/KR20150013709A/ko not_active Application Discontinuation
- 2013-05-09 CA CA2872797A patent/CA2872797A1/en not_active Abandoned
- 2013-05-09 SG SG11201407093UA patent/SG11201407093UA/en unknown
- 2013-05-09 HR HRP20230832TT patent/HRP20230832T1/hr unknown
- 2013-05-09 WO PCT/GB2013/051205 patent/WO2013167901A1/en active Application Filing
- 2013-05-09 FI FIEP13726815.7T patent/FI2847991T3/fi active
- 2013-05-09 JP JP2015510876A patent/JP2015521419A/ja active Pending
- 2013-05-09 PT PT137268157T patent/PT2847991T/pt unknown
- 2013-05-09 CN CN201380024596.2A patent/CN104322052B/zh active Active
- 2013-05-09 ES ES13726815T patent/ES2951587T3/es active Active
- 2013-05-09 IN IN10462DEN2014 patent/IN2014DN10462A/en unknown
-
2015
- 2015-07-21 HK HK15106965.1A patent/HK1206517A1/xx unknown
- 2015-08-19 US US14/830,494 patent/US11182960B2/en active Active
-
2021
- 2021-11-22 US US17/532,066 patent/US11721076B2/en active Active
-
2023
- 2023-08-07 US US18/230,721 patent/US20230386148A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222116A (ja) * | 1999-01-29 | 2000-08-11 | Sony Corp | 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置 |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
US20070248283A1 (en) * | 2006-04-21 | 2007-10-25 | Mack Newton E | Method and apparatus for a wide area virtual scene preview system |
JP2009139995A (ja) * | 2007-12-03 | 2009-06-25 | National Institute Of Information & Communication Technology | ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム |
JP2012068861A (ja) * | 2010-09-22 | 2012-04-05 | Casio Comput Co Ltd | Ar処理装置、ar処理方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
藤井博文 外4名: "拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ", 信学技報, vol. 99, no. 574, JPN6015050664, 20 January 2000 (2000-01-20), JP, pages 1 - 8, ISSN: 0003219319 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10748341B2 (en) | 2017-12-18 | 2020-08-18 | GungHo Online Entertainment, Inc. | Terminal device, system, program and method for compositing a real-space image of a player into a virtual space |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230386148A1 (en) | System for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera | |
US11721067B2 (en) | System and method for virtual modeling of indoor scenes from imagery | |
Hedman et al. | Instant 3d photography | |
US9495761B2 (en) | Environment mapping with automatic motion model selection | |
Wagner et al. | Real-time panoramic mapping and tracking on mobile phones | |
Rander et al. | Virtualized reality: Constructing time-varying virtual worlds from real world events | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
Oskiper et al. | Augmented reality binoculars | |
Baker et al. | Splat: Spherical localization and tracking in large spaces | |
Wientapper et al. | Reconstruction and accurate alignment of feature maps for augmented reality | |
Kaur et al. | Computer vision and sensor fusion for efficient hybrid tracking in augmented reality systems | |
Laskar et al. | Robust loop closures for scene reconstruction by combining odometry and visual correspondences | |
Kumar et al. | 3D manipulation of motion imagery | |
Garau et al. | Unsupervised continuous camera network pose estimation through human mesh recovery | |
Azzari et al. | Markerless augmented reality using image mosaics | |
Shi et al. | A Review and Comparison on Video Stabilization Alorithms | |
BR112014027853B1 (pt) | Sistema e método sem marcadores para mixagem ou composição em tempo real de objetos 3d gerados em computador e um sinal de vídeo de uma câmera de vídeo | |
Naweed et al. | Enhancement of 3D capture of room-sized dynamic scenes with Pan-Tilt-Zoom cameras | |
Wang | Hybrid panoramic visual SLAM and point cloud color mapping | |
Simões | Augmented reality applied to the industry | |
Tan | Virtual imaging in sports broadcasting: an overview | |
Kim et al. | Robust relocalization and its evaluation for online environment map construction | |
Ventura | Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality | |
Li et al. | Camera tracking in virtual studio | |
Lieberknecht | Contributions to Real-time Visual Tracking and Live Environment Modeling for Augmented Reality Applications: Design and Implementation of New Methods and Evaluations on Real Image-based Ground Truth Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160617 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161209 |