JP2015521419A - コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム - Google Patents

コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム Download PDF

Info

Publication number
JP2015521419A
JP2015521419A JP2015510876A JP2015510876A JP2015521419A JP 2015521419 A JP2015521419 A JP 2015521419A JP 2015510876 A JP2015510876 A JP 2015510876A JP 2015510876 A JP2015510876 A JP 2015510876A JP 2015521419 A JP2015521419 A JP 2015521419A
Authority
JP
Japan
Prior art keywords
camera
real
tracking
time
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015510876A
Other languages
English (en)
Inventor
サムエル ボワバン,
サムエル ボワバン,
ブリス ミシュー,
ブリス ミシュー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ncam Technologies Ltd
Original Assignee
Ncam Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ncam Technologies Ltd filed Critical Ncam Technologies Ltd
Publication of JP2015521419A publication Critical patent/JP2015521419A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Of Solid Wastes (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cultivation Of Plants (AREA)

Abstract

コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成する方法であって、前記フィルムカメラのボディが、3次元に移動可能であり、前記カメラ内または前記カメラに取り付けられたセンサが、前記カメラの3次元位置または3次元向きを定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する方法。

Description

テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとを混合または合成するシステム。
過去20年以上、本分野では多数の研究や広告活動が存在しており、参照は、アメリカンフットボールのようなスポーツイベントについて、観戦者がピッチ上に重畳されて見えるような仮想的なファーストダウンラインを追加するテレビ観賞拡張を開発しているSportvision社のような企業からの映像挿入や拡張現実システムによりなされうる。本分野のシステムを開発する他の起用にはPVI社を含む。既存システムの1つの共通特徴は、現実世界のいずれの部分をカメラが指しているかを決定するために、該カメラからの映像フィードにおける特徴の解析を主に頼りにしており、シーン内の何処を指しているかが判明した場合に、(仮想ファーストダウンラインのような)コンピュータ生成されたオブジェクトを、該オブジェクトの位置及び向きがシーン内の自然なパーツとして現れるようにする方式で映像フィード上に追加または合成可能なように、システムは該シーンの3次元マップをより速く構築する。該方式のオプティカルフローを純粋に依存する不都合の1つに、このようなシステムは信頼性に欠けることがある。
他のシステムは、純粋にマーカベースのアプローチ(例えばLightcraft Technologies)に依存する。これらは、システムにより検出されるように、セットに物理的なマーカ(1m×1mの大きさ)をオペレータに配置することを要求する。動画プロダクションのために動作する可能性が極めて低いステージのセットアップのために、数時間または数日を必要とし、非常に非効率的である。また、物理的なマーカが常にシステムの視野内に留まらなければならないという多くの制約を有していた。また、科学的な参考が、添付資料1として引用される論文によりなされるだろう。
本発明の1つの態様は、テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステムであって、
(a)フィルムカメラのボディは、3次元に移動可能であり、フィルムカメラ内もしくはフィルムカメラに直接的または間接的に取り付けられたセンサが、フィルムカメラの3次元位置及び3次元向きを定義する、あるいはフィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
(c)結果として得られるコンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、フィルムカメラからの映像フィードに混合または映像フィードと合成される。
オプションの特徴として以下があり、このうちのいくつかまたは全てを互いに組み合わせることができる。
・コンピュータ生成された3次元オブジェクトは、フィルムカメラからのリアルタイム映像にリアルタイムに混合または該リアルタイム映像とリアルタイムに合成される。
・フィルムカメラのズーム、フォーカス及び絞りのリアルタイム設定が計測され、3次元シーン内に所望の位置及び向きで3次元オブジェクトが正確に描画されるように、リアルタイム位置データとともに用いられる。
・センサが、加速度計及びジャイロ(6自由度センサ)を含む。
・センサが、3次元の並進加速度を計測する3軸の加速度計、3次元の角速度を計測する3軸のジャイロ、及び3次元の絶対方位を計測する磁気計を含み、9自由度のセンサを構成する。
・センサが、パターン投影型(structured light)カメラまたはTOF(time-of-flight)方式カメラのような3次元範囲センサを含む。
・3次元範囲センサは、カメラからの映像出力の各画素の深度を取得する。
・エッジの深度は、フィルムカメラの高解像度映像フィード上に3次元範囲センサの深度を再投影することにより精緻化される。
・センサが、フィルムカメラに確実に固定可能なユニット内に形成される:
・ユニットが、1つまたは2つのウィットネスカメラを含む。
・ユニットが、映像出力の各画素の深度を取得する3次元範囲センサを含む。
・ユニットが、6自由度または9自由度のセンサを含む。
・ユニットが、異なるサイズで固定可能な切り替え可能なハンガーと、フィルムカメラ及び棒の構造を使用する。
・ユニットが、他の形のセンサを含むように伸長可能である。
・ユニットが、複合的シーンを解析可能な解析装置を形成可能であり、追跡するまたは該シーンの追跡を回復するコンピュータに、解析した3次元シーンを定義するデータを無線送信する。
・フィルムカメラが、カメラズーム、フォーカス、及びアイリスを読み取る従来のエンコーダを有する。
・システムが、180度魚眼レンズであってもよいレンズが装着された、単一のウィットネスカメラ(単眼視ケース)または2つのウィットネスカメラ(立体視ケース)を含む。
・ウィットネスカメラはフィルムカメラからオフセットされ、該オフセットが、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズム(blob image algorithm)を用いて認識される、第1及び第2のサークル群を含むキャリブレーションチャートを用いて取得される。
・フィルムカメラのレンズは、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズムを用いて認識される、いくつかのサークルを含むキャリブレーションチャートを用いて光学的歪みについてキャリブレーションされる。
・フィルムカメラが、クレーンカメラ、固定カメラ、手持ちカメラ、ドリー取付カメラ、三脚取付カメラ、スマートフォン、拡張現実眼鏡のいずれかである。
・フィルムカメラの3次元位置及び向きは、一部分において、センサからのリアルタイム3次元位置データとウィットネスカメラがシーンを解析し、プロセッサにおいて実行されているソフトウェアが、該シーンに手動でまたは人工的に追加されていない、該シーン内の自然のマーカ(特徴点)を検出したオプティカルフローとを用いることにより生成された現実世界の3次元マップを参照して決定される。
・システムが、追跡されるシーンを純粋に解析する別のステージなしでシステムを完全に初期化(「即時解析」と呼ばれる)可能にする1つまたは2つの(少なくとも100fpsの)ハイスピードウィットネスカメラを利用するが、該カメラが映像を取得するために用いられる間、解析は連続的に行われる。
・立体視システムが、カメラシステムが完全に動いていない場合でさえも、画像を処理し、即時の3次元ポイントクラウドを生成する(2つのカメラ間の距離の知識及びエピポーラ幾何学を用いて、シーン内の多くのポイントを3次元空間内のそれらの位置に関連付けることを含む)ことをソフトウェアに可能にする。
・3次元ポイントクラウドにおける各画素の深度は、各立体視ウィットネスカメラから得られた対応する2Dテクスチャパッチと、エピポーラ線探索アルゴリズムとを用いて得られる。
・ウィットネスカメラシステムからのオプティカルフローとハードウェアセンサからのリアルタイム位置データとを組み合わせるフュージョンアルゴリズムを実行する。
・フュージョンアルゴリズムは、加速度計、ジャイロスコープ、磁気計、3次元範囲センサを含みうるあらゆるセンサからの出力を統合し、再キャリブレーションし、カメラの位置及び向きを決定するための、拡張カルマンフィルタ予測/補正技術に基づく。
EKFフュージョンアルゴリズムは、各センサからのデータをどのようにマージするかを決定する場合に、各センサからの出力に関連付けられた信頼性レベルデータを使用する。
・ウィットネスカメラシステムにより生成されたキーフレームは、視覚的追跡処理の一部であり、かつウィットネスカメラ映像フィードの4つの異なる解像度レベルにおいて演算されるリアルタイム画像である。
・システムが、(a)仮想フィギュア、オブジェクト及び環境に係る3次元のコンピュータ生成されたアニメーションを提供するコンテンツ生成コンピュータ、及び(b)(コンテンツ生成コンピュータと分離されていてもされていなくてもよい)描画コンピュータを有し、フィルムカメラの3次元位置を定義するリアルタイム位置データは、フィルムカメラからの映像フィードにリアルタイムに挿入及び混合可能な、生成される、コンピュータ生成された3次元オブジェクトを、該映像フィードにおいて観賞されるシーンの自然な部分を形成させるように、コンテンツ生成コンピュータ及び描画コンピュータのいずれかまたは双方により使用される。
・コンピュータ生成された3次元オブジェクトは、シーン内のいずれの位置にも移動可能で、コンテンツ生成コンピュータにより決定された方式の形状及び外観に変更可能なアニメーションである。
・コンピュータ生成された3次元オブジェクトは、シーンに混合された場合に、現実的な方式で移動(走る、踊る、歩く、戦う、飛ぶ、ジャンプするを含む)人間または生物のアニメーションされたフィギュアである。
・カメラ位置または追跡データは、ポストプロダクションCGIを促進するために、さらにポストプロダクションの使用が可能にされる。
・3次元範囲センサが、再構成された3次元ポイントに関連付けられた深度計測の精度を高めるために、または該再構成された3次元ポイントを却下するために用いられる。
・3次元範囲センサは、動的な遮蔽を可能にし、かつグリーンステージの最終使用を抑圧するためのリアルタイムの深度入力に用いられる。
・システムが、検出されたパターンのコーナーが3次元ポイントクラウド(即ち、ワールド)の原点として扱われるように、シーン内に配置された、既知のパターンで覆われた既知のサイズのプレートのような、小さなカメラ登録オブジェクトを使用する。
・カメラ登録オブジェクトは、真の垂直線上に配置され、ブロブ画像認識アルゴリズムを用いて認識された、既知のサイズの少なくとも2つの球を含む。
・システムが、磁北を示す磁気計と、重力方向(即ち、真の垂直線を与える)を示す加速度計と、システムが上方/下方にチルトされる、左または右にパンされている、または光軸について回転されている場合に通知するジャイロと、開始位置からの3次元の並進を推測可能にする3軸加速度計と、を有する。
追跡ロスを多分に低減し、追跡精度を上昇させる(より多くの視差が生成され、推定されたカメラ位置がより正確になる)ために、ソフトウェアが3次元マップ内に均一に分布されたポイントクラウドを生成することを試みる。
・カメラ追跡システムが、カメラシステムに無線で接続され、3次元ポイントクラウドを生成する場合にセットの周囲を高速に移動可能である−以前のウィットネスカメラシステムとは異なり、セット内でケーブルを引きずる必要がない。
・カメラ追跡システムであって、ディレクタ/カメラマンがフィルムカメラに取り付けられた該カメラ追跡システムを追跡し、パンし、チルトした際に、3次元シーンのリアルタイム解析(単眼視ケース)または即時解析(立体視ケース)と、フィルムカメラの追跡とを組み合わせるカメラ追跡システムを提供する。
・システムが、全ての態様のフィルムカメラの、回転、並進、フォーカス、アイリス、焦点距離を含む追跡を完全に自動化し、混合される3次元のコンピュータ生成されたコンテンツの拡大縮小、位置決め及び向きを自動化する。
・システムが、シーンを定義する、より完全なポイントクラウドを生成するために、該シーンの継続的な解析をリアルタイムに可能にする。
・システムが、追跡の復帰を容易にするために、シーンにおいて検出された特徴点に、ORBを使用することを含む、回転不変量記述子を付与する。
・システムが、事前に正確に計算されたまたは確認された位置を用いてフィルムカメラの次の位置を予測するために、センサにより提供された情報に関連付けられた等速モデルを使用する。それが、現在のフレームに3次元ポイントクラウドを再投影し、ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、新たな3次元ポイントクラウドにおいて投影されたポイントとのマッチングポイントマッチングアルゴリズムに可能にするために、予測を使用する。
・システムが、ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、新たな3次元ポイントクラウドにおいて投影されたポイントとの間の誤差を最小化するために、カメラ追跡にレーベンバーグ・マーカート最小化方式(Levenberg-Marquardt minimization scheme)を使用する。
ユーザは、3次元ガーベジマッティングマスクのような3次元マスクを定義するために、カメラ追跡システムにより生成された3次元ポイントクラウドを使用可能である。
・3次元オブジェクトは、静的オブジェクト、動的アニメーション、仮想ワールド、仮想人物、仮想建造物、仮想風景、仮想フィルムセット、及びアニメーションデータベースのあらゆるデータを含む。
・フィルムカメラ及びウィットネスカメラは、フレーム取得遅延を、発光したLEDに関連付けられた光強度曲線を比較することによるような、変調された光源を用いる方式でキャリブレーションされる。
他のコンセプト:上に定義したいずれの特徴または以下に定義する他のコンセプトを各々組み合わせることが可能である。
コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成する方法であって、フィルムカメラのボディが、3次元に移動可能であり、カメラ内またはカメラに取り付けられたセンサが、カメラの3次元位置または3次元向きを定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する。
テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとを混合または合成する方法であって、
(a)フィルムカメラのボディは、3次元に移動可能であり、フィルムカメラ内もしくはフィルムカメラに直接的または間接的に取り付けられたセンサが、フィルムカメラの3次元位置及び3次元向きを定義する、あるいはフィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
(b)リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
(c)結果として得られるコンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、フィルムカメラからの映像フィードに混合または映像フィードと合成される。
上に定義した方法またはシステムであって、カメラ内のコンピュータ生成されたプリプロダクション3次元アセット、一般的なプリビジュアライゼーションまたは視覚効果アセットを、該カメラにより取得されたライブアクションフィルムプレートまたは映像イメージ上に、ディレクタ(または撮影監督)がリアルタイムにフレームアップ可能にするために用いられ、ディレクタに、該ディレクタにより観られる映像に自動的に混合されたコンピュータ生成された3次元アセットを用いて、可能なカメラアングルの探索及び移動をリアルタイムに探索可能にする。
上に定義した方法またはシステムであって、ポストプロダクション処理用のマッチムーブデータを提供するために、リアルタイム位置データは記録され、タイムコードスタンプがなされる。
上に定義した方法またはシステムであって、仮想オブジェクトまたは画像を、放送映像ストリーム上に挿入可能にするために用いられる。
上に定義した方法またはシステムであって、
・スタジオカメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・クレーン取付カメラのリアルタイム追跡
・ドリー取付カメラのリアルタイム追跡
・固定カメラのリアルタイム追跡
・中継放送(OB:Outside Broadcast)のリアルタイム追跡
・2次元ポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・3次元立体視コンテンツ用のポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
・ネイティブ3次元立体視コンテンツのリアルタイムデータ(追跡データを含む)の使用
・3次元グラフィックス挿入
・スタジオ内への、またはセットプロダクト・プレイスメントにおける3次元グラフィックス挿入
・OB用の3次元グラフィックス挿入
・他のスポンサー提供画像用の3次元グラフィックス挿入
・観察者位置固有の3次元グラフィックス挿入
・観察者固有の3次元グラフィックス挿入
・時間固有の3次元グラフィックス挿入
・曇天風景書き込み用の3次元グラフィックス挿入
・グリーンスクリーン置換用の3次元グラフィックス挿入
・博物館、及び文化、歴史又は自然遺産の解析センターにおける学習を補助する教育的コンテンツの3次元グラフィックス挿入
・シーン内のオブジェクトの絶対的または相対的サイズの計測
の1以上を可能ならしめる。
上に定義した方法またはシステムであって、フィルムカメラは
−標準範囲を有する全てのカメラ
−限定的な光ファイバ接続を必要とするカメラ
−RF/無線接続を必要とするカメラ
のうちの1つである。
上に定義した方法またはシステムであって、
・フィルム/テレビ(非ライブ)
・コマーシャル(非ライブ)
・ライブコマーシャル
・放送(非スポーツ)
・OB放送
・スタジオベーススポーツ
・OBベーススポーツ
・テレビプロダクト・プレイスメントのライブ
・インターネット利用(非ライブ)
・インターネットライブ
・地域ベースインターネットライブ
・インターネットプロダクト・プレイスメントのライブ
・博物館/文化遺産コンテンツ
・博物館/遺産広告
・建築
・ゲーム
のうちの1つのマーケットに配備される。
上に定義した方法またはシステムであって、スマートフォンを含むあらゆる表示装置及び拡張現実眼鏡に拡張現実画像を表示可能にするために用いられ、拡張現実画像の外観が、自動的にリアルタイム位置データに応じて変更される。
フィルム、動画、テレビ番組、またはビデオゲームであって、リアルタイムにコンピュータ生成された3次元オブジェクトが、カメラからの映像フィードと混合され、カメラのボディは3次元において移動可能であり、カメラ内またはカメラに取り付けられたセンサが、カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する。
従来のカメラに取り付けられるよう構成されたシーンを解析及び追跡する装置であって、カメラのボディは、3次元に移動可能であり、シーンを解析及び追跡する装置内のハードウェアセンサが、カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する。
手持ちまたは携帯用カメラであって、3次元の参照フレームに対するカメラの3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、カメラ内またはカメラに取り付けられたセンサを有する。
立体視ウィットネスカメラシステムを含むまたは該システムに取り付けられたフィルムカメラであって、ウィットネスカメラシステムが、広角(180度を含む)の立体視画像を生成し、該画像を処理し、該カメラシステムが追跡/移動されることなく即時の3次元ポイントクラウドを生成することをソフトウェアに可能にする。
フィルムカメラに取り付けるためのカメラ追跡システムであって、立体視画像を生成し、該画像を処理し、該カメラシステムが移動されることなく、即座の3次元ポイントクラウドを生成してフィルムカメラのリアルタイム追跡(位置、向き、ズーム、フォーカス及びアイリス)を提供することをソフトウェアに可能にするウィットネスカメラを有する。
拡張現実眼鏡であって、3次元の参照フレームに対する眼鏡の3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、眼鏡内または眼鏡に取り付けられたセンサを有する。
本実装システムは、Ncamと呼ばれる。Ncamの様々な応用は以下を含む。
〈フィルム、テレビ及びコマーシャルにおける視覚的効果〉
プリプロダクション及びプロダクションにおける視覚的効果:Ncamは、撮影処理(プロダクション)の間、プリビズ(プリプロダクション)とVFX(ポストプロダクション)との差を埋める補助をしようとする。Ncamは、撮影中、リアルタイムにカメラ内にVFXにフレームアップを所望する者への解決策を提示する。プリビズ処理からの頻繁な事前生成されたコンテンツの使用し、Ncamはこれらのプリビズアセット、標準的な3次元モデル及びアニメーションを、ライブアクションフィルムプレート上にリアルタイムに合成可能にする。
慎重に生成された及び承認されたプリビズのセットへの導入は、膨大な量の時間を節約可能である。フィルムメーカは、それがグリーンスクリーン上で撮影されている、及び仮想背景に合成または生き物やオブジェクトが前景に重畳されているかによらず、プリビズまたはVFXをフレームアップすることができる。そして、通常の制約なく、可能なカメラアングル及び移動を素早くかつリアルタイムに提示し、プリビズ及びVFXの制御を取り戻すことを可能にする。
同様に、データは記録及びタイムコードがスタンプされ、「一時的な(temp)」最終的なVFXを用いた編集を提供すると同時に、VFX部のカメラマッチムーブデータ(6自由度トラック)を与える。
カメラ内で「一時的な」VFXを撮影することにより、及び該プロセスよりも前にVFXをデザインすることにより、ポストプロダクションプロセスとしてVFXのうちの多くの推測動作を理解することが可能となる。我々は、VFXデザインプロセスを減少させることが可能であり、結果無駄を節約する。
〈仮想広告−ライブ放送〉
Ncamの技術は、放送空間を用いるリアルタイムの仮想広告に好適に役立つ。カメラ内の実際の物理的なプロダクトとは対照的に、ポストプロダクション中の撮影後にプロダクトが挿入されるデジタルプロダクト配置は、より一般的になってきている。しかしながら、デジタルプロダクト配置ライブを拡張する能力を用いることで、我々は様々な可能性を開くことができる。例えば、スポーツフィールドや連続ドラマ(soap opera)における缶飲料のブランドロゴを含みうる。これは、撮影環境の照明に基づいて写実的なCG画像をリアルタイムに描画する能力が重要になる。
〈ホログラフィックゲーム〉
Ncamの技術とホログラフィックディスプレイ及び(Google Glass等の)眼鏡とを合成することで、完全没入型のゲーム体験を提供し得る。現実世界と仮想世界及びキャラクタとをブレンドする。可能性は幾分尽きない。
〈博物館(museum)及び遺産(heritage)〉
Ncamの技術は、博物館及び遺産領域への幅広い範囲の潜在的な応用を提供する。
探索ツールとして、遺跡のような遺産の場所の復元のために、該場所が以前の栄光にあるように見せることは有用である。
博物館において、Ncamは、例えば恐竜の大きさ及び動き、内臓、または骨格構造を示すための教育ツールとして使用されうる。他の例は、完全没入型の3次元空間において、提示されるアニメーション図を効果的に見せることで、内燃機関の動作を提示するためであってもよい。
〈仮想カメラ−VCS〉
Ncam技術は、該応用に完璧に適している。仮想カメラは、本質的には完全なCG3次元環境を見せるLCD画面である。操作者がLCD画面を移動した場合、動作に関してまるで物理的なカメラのように振る舞う。該LCDカメラは、XYZ並進及び回転において追跡され、リアルタイムにCGエンジンからの完全なCG環境を示す。現在、様々なVCS(仮想カメラシステム)ソリューションが利用可能であるが、それらは全て技術の面で制約を有している。それらが動作するであろう空間及び環境において制限され、セットアップに時間を要する傾向にあり、そして高価である。NcamベースのVCSはタブレット型を採り得、これにより処理はLCD画面と局所的に組み合わされて計算されるだろう。CG演算は、要求に応じて、リモートPCから、もしくは場合によってはローカルで取得されうる。該アイデアは、以前にそのようなツールへのアクセスを持つことができなかった、フィルム内の多くの部分への、使いやすさと価格の観点を通じて、オープンアクセスを可能にすることである。このことは、デザイナ、建築家、VFX、ゲーム会社、CG及びアニメーションハウス等にとって非常に有用である。
また、このVCSは潜在的な博物館及び遺産ソリューションへのバックボーンを形成するであろう。
〈仮想スカウトシステム−VSS〉
あなたが動画を撮影し、その大部分をブルスクリーン/グリーンスクリーン上において撮影する場合を想像する。フィルムメーカやディレクタとして、自分はどのようにいずれのアングルを計画する、または撮影をすることが最良であろうか?すべての後、自分は少量の物理的なセットと数名の俳優を用意するかもしれないが、いずれのカメラアングルが最良かの自分の想像とは異なる多少のアイデアを自身が有しており、カメラをいずれにセットアップすべきかを全クルーに説明し、効果的なレンズの選択をさせることなどできない。現在、我々は、他の位置よりも良好となることを実現するためのみに、セット上の位置にフィルムカメラ及び全ての周辺器具を移動し、Ncamをセットアップし、見てみる。これらの決定を迅速かつ効果的に行うため方法は、我々が軽量の携帯型システムを有している場合のみである。これがNcamVSSである。
VSSは今日のNcamであるが、DSLRのような小型カメラに実装される。それは、本質的にはNcamの恩恵を有する電子ビューファインダである。我々は、今日のNcamの全ての要素を、携帯型デバイスのフィルムセットにおいて組み合わせている。また、博物館/遺産だけでなく、建築家が潜在的な投資家に彼らの新しい作品を表示することを希望するようなテレビエピソードのための仮想プロダクションは、該ツールからの大きな恩恵を受けるだろう。
機器構成2.3用のハードウェア説明。なお、ここに描かれたバージョンは、追跡ワークステーションと描画ワークステーションとが結合されたものである。 リアルタイムにフィルムカメラの位置及び回転を取得するグローバル追跡アルゴリズム 我々のシステムのために作成された3D自動レベリング登録オブジェクト。我々のソフトウェアにおいて現実世界の原点、向き及びサイズを自動的に演算するために、該オブジェクトは現実シーンにおいて用いられる。平面(planar)バージョンは、図5の右図に示される。 自然のマーカの検出に用いられる画像ピラミッド(image pyramid)。またこの図はマーカに関連付けられたいくつかの2Dテクスチャパッチを示している。 Ncamにおいて開発され、用いられるキャリブレーションチャート。左:全てのレンズをキャリブレーションするために用いられるキャリブレーションチャート。中央:フィルムカメラとウィットネスカメラとの間で用いられるキャリブレーションチャートまたはフィルムカメラとウィットネスカメラとの間のラインナップコンピューティング。また、左側のチャートはフィルムカメラの焦点距離が十分に短い場合(セットにおいて実験的に決定される)に用いられるチャート。右:登録オブジェクトの平面バージョン。扱いやすく、かつ地平面のいずれの場所にも配置可能。サークルは実際のシーンに仮想オブジェクトを追加する際に、ワールドの向き、スケール、及び原点(0,0,0)を規定する正規直交基底を与える。左上のサークルの中心がワールドの原点である。 異なるハンガーサイズ(15mm及び19mmの棒)を有する、フィルムカメラ上に搭載されるカメラバー 無線解析装置。解析が必要な場合(即ち例えば単眼視ケース(セクション2.1またはより複合的なセット(セクション2.1.3の末尾)参照))、全体追跡プロセスが該解析装置を用いて実現される。解析が完了した場合、全ての追跡データ(ポイントクラウド、キーポイント等)が、即時に追跡を回復し、追跡データ及び最終的な合成結果の両方のストリーム出力を開始する追跡/描画ワークステーションに無線で送信される。 カメラ/コンピュータ・ブレイクアウト・ボックス。なお、ここには複数のRJ45ケーブルを用いるバージョンが示されている。また、これらのブレイクアウト・ボックスの全ては、これらのケーブルが単一の限定的な光ファイバケーブルにより置き換えられる変形例を有する。
本技術は、コンピュータ生成された3次元オブジェクトと、フィルムセット、テレビ放送またはビデオゲームにおける現実のカメラ(本明細書では以下フィルムカメラと呼ばれる)からの現実の映像フィードとをリアルタイムに混合することに関する。本システムの主な目的は、
・動画ディレクタのための仮想キャラクタ及び環境のリアルタイムフレーミングツールを提供すること
・現実映像と直接的に結合された仮想オブジェクトの写実的な結果をリアルタイムに表示すること
・セット上撮影と動画ポストプロダクション用に、フィルムカメラの位置の正確な推測(カメラ追跡と呼ばれる)を提供すること
・現実のオブジェクト(及び/または俳優)と仮想環境(3次元オブジェクト、キャラクタ等)との間の遮蔽を扱う、現実シーンの3次元幾何モデルへの近似を提供すること
である。
ここに記載される技術は、まず第一に強力なセンサフュージョンアルゴリズムであり、これにより、3つ(立体視ケース)または2つ(単眼視ケース)の異なるオプティカルフローから算出された(即ち、物理的なシーンに手動で追加されていない)自然のマーカと、4つの異なるセンサ(ジャイロスコープ、加速度計、磁気計、3次元範囲センサ)の物理的な計測結果とを結合する。また、あらゆる物理的なマーカ、または現実シーンにおいて動作するために直接的に視認可能ないずれの物体を主導で追加する必要ない、完全に非侵襲性システムである。
[1.ハードウェア]
技術は、ストリーム出力されるべきデータの種類に応じた、2つの異なる可能なハードウェア構成を有している。
これらの2つの構成は全て、カメラバー(詳細な模式図は図6を参照)と呼ばれるデバイスと、本質的には全ての異なるケーブルを1つまたはいくつかの独立したハーネス(loom)に結束または分離するブレイクアウト・ボックス(詳細な模式図は図8を参照)である別々の接続ボックスとを搭載する以下のハードウェア
・ウィットネスカメラと呼ばれる、選択された方式(単眼視または立体視)に応じて1つまたは2つであるハイスピードカメラ(少なくとも100fps)
・各ウィットネスカメラは180度の魚眼レンズが搭載される
・ジャイロスコープ、磁気計及び加速度計を含む9自由度センサ(または磁気計が使用できない場合は6自由度)
・画素の深度を取得する3次元範囲センサ
を共通して有する。
全ての構成はカメラバーに加えて、ズーム、フォーカス及びアイリス値を読み取る、フィルムカメラに搭載された標準のレンズエンコーダを有する。また、それらは共通してシーンを解析して認知する無線解析装置(詳細な模式図は図7を参照)を有する。しかしながら、完全に立体視アプローチを採用するケース及びより正確な即時解析(セクション2.5.1を参照)を行うケースでは、該解析装置は不要である。
これらの共通の特徴を除き、2つの構成は以下のように説明される。
《構成1:カメラストリーミング》
1.無線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、フィルムカメラの並進(translation)及び回転(rotation)(RT)と、エンコーダからのズーム(zoom)、フォーカス(focus)及びアイリス(iris)(ZFI)とを、外部の描画ワークステーションに無線ストリーム出力する。
(b)外部のコンテンツ生成ワークステーション。この機器は一般に、最終的な合成のために、3次元のコンピュータ生成されたアニメーション及び関連するCGコンテンツを提供するコンピュータグラフィックスソフトウェアを実行する。またそれは、外部の描画ワークステーション(1−1c)にアニメーションデータをストリーム出力する。
(c)一方で組み込みコンピュータ(1−1a)からのデータを受信し、他方でコンテンツ生成ワークステーション(1−1b)からのアニメーションデータを取り扱う外部描画ワークステーション。該描画ワークステーションは、1−1bからの3次元環境を表示するために1−1aからのフィルムカメラRT+ZFIを使用し、フィルムカメラからの現実の映像フロー内に結果を混合する。またそれは、フィルムカメラのアイピースまたは制御モニタに最終的な合成結果を無線ストリームにて返送する。
2.有線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、限定的な光ファイバケーブルを用いて、外部の描画ワークステーションにフィルムカメラ並進回転(RT)及びエンコーダデータ(ZFI)をストリーム出力する。
(b)構成1−1bと同様
(c)最終的な合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成1−1cと同様
《構成2:全体ストリーミング》
1.無線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。該ユニットにおいて実際の処理は実行されない。それは外部の追跡ワークステーションに全てのセンサデータを無線ストリーム出力することのみ行う。2つのウィットネスカメラの映像フロー、1つの9自由度データ、1つの範囲センサデータがストリーム出力される。データの送料は、毎秒142MB(ウィットネスカメラが毎秒63MB、範囲センサが毎秒74MB、9自由度センサが毎秒4.4MBを要求する)よりも大きい最小帯域を要求する。
(b)組み込まれた追跡コンピュータからデータを受信する外部の追跡ワークステーション。該ユニットは、フィルムカメラの回転及び並進行列を算出するために、全てのセンサデータを処理する。それは外部の描画ワークステーション(2−1d)にカメラRT+ZFIをストリーム出力する。
(c)外部のコンテンツ生成ワークステーション。該機器は一般に、最終的な合成のために3次元のコンピュータ生成されたアニメーション及び関連するCGコンテンツを提供するために、コンピュータグラフィックスソフトウェアを実行する。またそれは、外部の描画ワークステーション(2−1d)にアニメーションデータをストリーム出力する。
(d)一方で組み込みコンピュータ(2−1b)からのデータを受信し、他方でコンテンツ生成ワークステーション(2−1c)からのアニメーションデータを取り扱う外部の描画ワークステーション。描画ワークステーションは、2−1cからの3次元仮想環境を表示するために、2−1bからのフィルムカメラRT+ZFIを使用し、フィルムカメラからの現実の映像フロー内に結果を混合する。またそれは、フィルムカメラのアイピースまたは制御モニタに、最終的な合成結果を無線ストリームにて返送する。
2.有線型組み込みコンピュータ
(a)組み込まれた追跡コンピュータは、フィルムカメラに搭載される。それは、限定的な光ファイバケーブルまたは複数のCat−6 RJ45ケーブルを用いて、外部の描画ワークステーション(2−2c)にフィルムカメラ並進及び回転(RT)をストリーム出力する。この場合も同様に、エンコーダがズーム、フォーカス及びアイリス(ZFI)のために用いられる。
(b)構成2−1cと同様
(c)最終的な合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成2−1dと同様
3.組み込まれないコンピュータ(説明図の図1を参照:他の全てのバージョンにおいて、該コンピュータは容易に抽出されうる)
(a)単一のカメラ追跡デバイス(カメラバー)は、フィルムカメラに取り付けられ、ブレイクアウト・ボックスに接続される。
(b)組み込まれた追跡デバイスからのデータを受信する外部の追跡ワークステーション。該ユニットは、フィルムカメラの回転及び並進行列を算出するために全てのセンサデータを処理する。この場合も同様に、エンコーダがズーム、フォーカス及びアイリス(ZFI)のために用いられる。それは描画ワークステーション2−3dにカメラRT+ZFIをストリーム出力する。
(c)構成2−1cと同様
(d)最終の合成結果がHD−SDIケーブルを介してカメラに返送されることを除いて、構成2−1dと同様
また上記構成に加え、各バージョンは2つの他の変形例を有する。1つは外部の描画ワークステーションと実際に結合されたコンテンツ生成ワークステーションを有し、2つ目の変形例は追跡ワークステーションと結合された外部の描画ワークステーションを有する。
[2.ソフトウェア]
いくつかの新たな科学的手法及びソフトウェアが、正確な追跡結果及びリアルタイム拡張現実[19]を実現するために生成される。これらの手法は、次のセクションに説明される。
《2.1 映像フィードからの単眼視マーカレス追跡》
〈プロセス概要〉
技術において使用される単眼視技術は、一方がユーザインタラクションを必要とし、他方が完全に自動化されている点を除いて実際に技術的にはほぼ同一である、2つの異なるパスで成り立っている。
第1のパスは、解析と呼ばれる。現実シーン及び登録オブジェクトのスキャンのために、セクション1の第2パラグラフにおいて説明したハードウェア(図7を参照)で成り立つデバイスをユーザは利用する。該フェーズの間、ユーザが環境を歩き回りスキャンすることで、システムにより自然のマーカが自動的に認知され、3次元において演算される。解析を開始すると、ワールドのスケール、原点及び向きを自動的に推定するために、ユーザは登録オブジェクト(セクション2.1.3.2参照)を取得する必要がある。このことが達成されると、自然のマーカである最良の3次元ポイントクラウドを構築するために、ユーザは残りのシーンのスキャンを継続することができる(自然のマーカは、人間の眼に見えず、かつ我々のアルゴリズムにより演算される特徴点である)。該解析がより詳細に達成されるほど、最終的な結果は良好となる。解析パートは、全ての中で最も重要なタスクであり、重要性がより高い。
第2のパスは、フィルムカメラ上におかれている追跡デバイスからなされるフィルムカメラ追跡(セクション2.1.4参照)である。前の「ハードウェア」セクションの説明に従い、様々な状況に応じて異なる構成が適用される。本ステップは完全に自動化され、
通常は人物のいかなるインタラクションも必要としない。
〈2.1.2 アルゴリズム概要〉
ここに説明される技術は、複数のセンサフュージョン技術(セクション2.3参照)に基づく拡張現実フレームワークである。
実際、カメラを追跡して仮想オブジェクトを追加するために、通常たった1つのオプティカルフローデータを信用はしない。このような技術は、多くの場合、科学的及び実施上の制限を実証している。例えば、ユーザが追跡に用いられているカメラから隠れると、追跡は失敗し、見失う。それは、カメラが解析していない範囲(セクション2.1.3参照)を指す場合にも全く同じ問題がある。さらに、フィルムカメラが全く動いていない場合でさえも、純粋に視覚的な追跡アルゴリズムにより演算された、検出された自然のマーカの制度に起因して、いくつかの回避できない、わずかなぶれの問題が存在する。データのフィルタリングは該問題を部分的に解決するが、特に非常に長い焦点レンズを使用する場合に、完全に安定した仮想オブジェクトを得ることはできない。我々の技術ではカメラが動いているか否かを知るために他のセンサを使用するため、我々の追跡アルゴリズムはこのような問題を有さない。
SLAM[9]、PTAM[8]、RSLAM[13]等のような標準的なオプティカルフロー技術は、位置及び方向を概算するために、カメラにより取得された映像内に含まれる情報を用いる。1つ目に、見失った場合の追跡のコアが単にキーフレーム探索ではないこと、及び2つ目に、カメラの正確な位置及び方向を演算するために7つの利用可能なセンサ(1つのフィルムカメラ、2つのウィットネスカメラ、ジャイロスコープ、加速度計、磁気計、及び3次元範囲センサ)のデータをすべて使用する点を除いて、我々の技術は視覚的な追跡パート(視覚的追跡と呼ぶ)において同様のアプローチをとる。
センサ、即ちジャイロスコープ、加速度計、磁気計センサ及びウィットネスカメラを統合するために、我々は拡張カルマンフィルタ(EKF、セクション2.3.2参照)[7,21]を使用する。EKF技術は我々のソフトウェアの革新であり、予測/補正アルゴリズムの全体は、各センサの最良値を使用可能なデータ結合手法に基づく。このことは、他の全ての技術が失敗するような単純及び重大なケースに対する比類のない県労政を提供する。実際、センサが追跡を失った場合(実際は、計測結果がもはや信頼できなくなることを意味)、EKFはまだ、他の信頼できるデータ及び残りのセンサを統合することにより位置/方向の推定を取得することができる。それに加え、センサごとに信頼のレベルを有するため、このことが、不正確な情報を用いることをシステムに防止させるよう、統合アルゴリズムに影響を与える。例えば、標準的なジャイロスコープは、動いていない場合であっても方向が変化する傾向にあるドリフトと呼ばれる自然欠陥を有する。時間がたつほどジャイロスコープによる誤差が大きく生じる。ジャイロスコープのドリフト補正は、視覚的追跡を用いることによりなされ、視覚的追跡は誤差が大きくなった場合にジャイロスコープにより補正される。故に、予め正しく推定された値を用いてフィルムカメラの移動を予測し、全てのセンサにより得られた新たな計測結果に従って予測を補正することにより、EKFはフィルムカメラの最良の位置及び回転を理解することができる。
さらに、見失った場合にカメラを配置するために、より単純な光学ベースの追跡技術をキーフレーム(即ちスナップショット)に使用する。カメラによりあなたが指される現在のビューのキーフレームがない場合、回復は失敗する。例えばあなたがカメラを単純に垂直に回転させるケースを解決するために、より堅牢な技術は、SIFT[11]やSURF[1]のような技術をもちろん使用することもできる。実際、これらのシステムの全ては、現在のフレームと最も類似するキーフレームとを比較する場合に、より良好かつ高速なマッチングを得るために、回転及びスケーリングの不変記述子を用いることは非常に興味深い。しかしながら、カメラのある位置からのキーフレームがない場合、あなたのシステムがその位置から復帰することはできない。我々の技術は、全ての技術(なお、我々はキーポイント記述子としてORB[18]を使用する)の最良の結果を用い、見失った追跡を回復するための3つの異なるスレッドを順に実行する。回復プロセスは、確率的かつ確率論的なアプローチに基づく大局的なアルゴリズムに見ることができる。追跡が失われた場合、3次元空間は楕円形アプローチを用いて少なくとも既知の位置の周囲を即時にサンプリングされ、該楕円内の全てのキーフレームが現在のキーフレームと比較される。さらに、残りのセンサ(ジャイロスコープ、加速度計、磁気計、3次元範囲センサ)からの他の全てのデータは、我々のソフトウェアが全ての尤もらしい良好な候補の曖昧性をなくすことが可能なように、探索において結合される。もちろん、いずれのキーフレームも十分に良好な候補たり得ない場合、システムは現在の位置の近似を演算するために、視覚的追跡用とは別の他の全てのセンサを使用する。該技術の明らかな結論は、追跡を失うことなく、ユーザが解析されていない位置にカメラを向けられることである。しかしながら、我々のアルゴリズムは、現在のスナップショットにマッチするキーフレーム(即ち、RTのよりよい近似)を発見するために、3次元空間のサンプリングを決して停止しない。視覚的追跡が回復した場合、自身の情報に加えてカメラの情報(セクション2.3.2の拡張カルマンフィルタを参照)を補正するために、他のすべてのセンサデータは使用され更新される。
我々の技術の最新(即ち標準の)バージョンは、21センチメートルの間隔があいた2つのウィットネスカメラ(図6参照)を用いる、立体視型(セクション2.5参照)である。この技術は、映像フィードにおいて検出された自然のマーカの深度情報を演算するために、あらゆる類似の演算または単一のウィットネスカメラ(セクション2.1.3参照)の手動移動を必要としない。本手法は多くのケースで解析フェーズを廃止することで、我々のメインアルゴリズムを単純化する。単眼視技術のように、カメラ視覚的追跡自体は、画像ピラミッドの4つの異なるレベルにおいてシステムにカメラにおける位置を追跡可能にする完全なサブピクセルアプローチを有し、一方で、技術に基づく他の全てのオプティカルフローは、特徴点を探索する際に、2つの異なる解像度の画像のみで画素アプローチを悪用する。
〈2.1.3 第1フェーズ:解析〉
(2.1.3.1 初期化ステップ)
2つのフレームを取得するために、第1のステップは、ユーザにデバイスを用いて、物理的に/手動で水平移動させることである。アルゴリズムは、FASTER[17]と呼ばれるコーナー検出手法を使用することにより、画像内の自然のマーカ(即ち特徴点)を自動的に検出する。ポイントのペア間の対応を発見するために、マッチングが適用される。1つの画像について、全ての検出された点は3次元平面からピクチャへの正確なホモグラフィが演算可能なように、同一の3次元平面に残しておく必要がある。このことは、該3次元平面に係るカメラの回転及び並進を与える。第2のピクチャは同一の原理に従っており、我々は現在のピクチャについてカメラの第2の位置及び並進を取得する。これにより、1つのカメラから他のカメラまでの並進の演算、及び第1の3次元ポイントクラウドを取得することが可能になる。
カメラにより取得された2つのビュー(左及び右)を考える。各ビューについて、ウィットネスカメラは平面上にある点Mをターゲットにしていた。ML及びMRは、左と右それぞれのビューにおけるMの透視投影である。これは
と示すことができ、ここで
・RはMLがMRに関して回転される回転行列である。

は、点Mが属する平面の法線ベクトルである。
・Dは、Ax+By+Cz+D=0のような平面との距離である。
式1におけるHについての解は次に従う
我々のアルゴリズムは、正確な初期化を行うために4つのコプレーナポイントの最小値が必要である。我々が実際にはそれよりも多くのポイントを有していることは極めてふつうである。これが、我々が全てのホモグラフィについてポイントのセット全体のうちの4つのポイントを使用して、n個の可能なホモグラフィを演算する理由である。そして我々は、実際に可能な最良のホモグラフィを発見し、インライア(inlier)及びアウトライア(outlier)候補のセットを構築するために、RANSAC[4]手法を使用する。アウトライアが却下される一方で、インライアは2つのビューにおける点の投影誤差を最小化するガウス・ニュートン手法により精緻化される。フィルタリングされたポイントセットから演算された最良のホモグラフィを有することで、左及び右のビュー間の回転及び並進行列を推定することが必要である。これは、2つの直交行列U、V及び対角行列γへの特異値分解を使用することによって達成される。ここで、行列HはH=UγVtで表すことが可能であり、
そして、
である。
我々が未定のホモグラフィを扱わない場合、式3は2つの解が可能である:
・解1:
そして、
であり、ここで、λ1、λ2及びλ3は式2の行列Hの固有値であり、λ1、λ2、λ3のようにソートされ、λ1≠λ2≠λ3が成立する。
・解2:
そして
であり、ここで、λ1、λ2及びλ3は式2の行列Hの固有値であり、λ1、λ2、λ3のようにソートされ、λ1≠λ2≠λ3が成立する。
また特徴点のセットに加えて、視点毎にウィットネスカメラが観ているもののスナップショットとして、アルゴリズムは2つのキー位置をキャプチャする。追加のポイントの学習は、常に3つの成分、即ち新たに検出されたポイント、キー位置、及びセクション2.1.3.3で説明されるパッチの合計である。
なお、最後に立体視アプローチの場合には(セクション2.5を参照)、解析フェーズは自動及び即時となる。手動解析は、まだ非常に複雑なケースに使用されるかもしれない(実験的にセットにおいて決定した)が、これは事例のままとする。
(2.1.3.2 3次元ワールドの自動スケール、原点及び向き)
単眼視調査の間、ワールドが正確な形状及び次元を含む現実のオブジェクトの既存知識またはホモグラフィを演算するための2つのビューの間に使用される距離を必要とするため、該ワールドの正確な原点、スケール及び向きを演算することは不可能である。なお、最後のケースにおいて、これはどのようにしてもワールドの原点または向きを与えることはない。多くのシステムは、この部分を考慮していない。それらはしばしば、ビデオ内で視認可能な3次元オブジェクトの次元を入力することにより、手動でスケーリングを行うようユーザに問い合わせる。他のオブションでは、撮影中に特定のモデリング/アニメーションソフトウェアにおいて3次元仮想キャラクタをスケーリングし、現実世界と適切に調整することをユーザにさせる。しかしながら、それが小さくとも、いかなるスケール誤差も最終的な合成の品質において劇的な影響を有しており、これが(以下の)我々の技術において慎重に達成される理由である。不良のスケーリングの最も一般的に観察された結果の1つは、仮想オブジェクトではなく、完全に地面に取り付けられた状態にもかかわらず、該地面状を仮想オブジェクトがスライドしているような感覚をユーザに与えることである。
我々は、解析を行う際にシーン内の所有している登録オブジェクトを配置することを必要とする新たな手法を提案する。該オブジェクトは、非常によく知られている形状を有し、その全ての寸法も知られているため、自動的に検出される。ユーザインタラクションは全く必要ない。
我々の登録オブジェクトは、図3に示されるように基本的には球と脚であるいくつかのパーツにより構成される。球は、我々のシステムにおいてオブジェクトの重要な形状であり、映像を介してパターンを認識するためにブロブ検出アルゴリズムの使用を許容する。投影された球(即ちサークル)の重心が演算され、全ての球の間の寸法及び距離を正確に知ることにより、システムはワールドについての非常に正確なスケールを提供することができる。また我々は、現実のステージ上のある位置から他の位置まで移動する方がより便利である、登録オブジェクトの平面バージョン(図5の右図を参照)を有する。
これが達成されると、現実映像に例えば1.80mの高さの仮想オブジェクトを配置可能であり、その高さを示し、正しく見えることを保証する。他のアプローチでは、タスクの手動的な態様があるため、このような品質が得られない。
自動スケーリングは、実際には調査自体の間に行われるものであるが、調査の開始時に生じるように、初期化ステップとしても考慮することが重要である。演算されたスケールは、実際に3次元の自然のマーカの正確なセットを構築するために、調査の次のステップで使用されている。以下、調査自体の詳細を見る。
(2.1.3.3 調査プロセス及びポイントクラウド構築)
調査は、調査デバイスを用いてユーザがシーンを移動することを必要とする。システムは、それが既に学習したものである信頼性に従って、新たなポイントを常に演算し、新たな候補として追加するために、ウィットネスカメラが既存のセットから十分なポイントを見る方法により、調査は常に構築される。
ウィットネスカメラが移動している間、アルゴリズムは4つの異なるレベルの画像ピラミッド(図4参照)において学習した3つのデータセットからなるマップを作成する:
・キー位置。キー位置はウィットネスカメラが見るものの、4つの異なる解像度におけるスナップショットを含む。ピラミッドの低いレベルではウィットネルカメラのオリジナル解像度(我々のケースでは640×480)である。また、該キー位置は、追跡が誤った場合にカメラ位置を回復するためのアルゴリズムにより使用される。
・キー位置の画像ごとにおいてFASTER[17]により推定された2次元特徴点のセット。FASTERは、主たる特徴がコーナー検出アルゴリズムである、非常によく知られたアルゴリズムである。また、追跡が失われた場合に十分に高速な回復が保障されるように、キーポイントごとに付与されたORB記述子を有している(セクション2.1.4.4参照)。
・前のステップにより検出された全ての特徴点を中心とするパッチ(16×16の2次元テクスチャ)のセット。新たなポイントの検出の間、単一のビューからその深度を計算し始める方法はない。これが、パッチが有用であることである。エピポーラ探索(図2、ポイントクラウドビルダーの矩形参照)が、可能な限り近い2つのキー位置について、2つのパッチ間の対応を発見することにより、キー位置の4つの画像に対して適用できる。双方のビューにおいてポイント(即ちパッチ)が検出されると、3次元の特徴点が演算可能である。3次元の特徴点セットはマップと呼ばれる。また2つのキー位置A及びBの間のこの探索が、ピラミッドA及びBの同一のレベルだけでなくBのピラミッドのサブレベルを検討することにより達成される(図4参照)と理解することも重要である。
マップ構築の間、カメラは解析オペレータの変位に従って移動する。このとき、われわれのソフトウェアはすでに演算された(即ち追跡された)カメラのパラメータのみを知っている。カメラの新たな位置を演算するために、我々は現在のフレームと自然のマーカの3次元ポイントクラウドとを必要とする。一方で、FASTERは画像ピラミッドのいくつかのレベル(現在のレベル及び現在のレベル+1)の2次元マーカのセットを演算子、他方で3次元ポイントクラウドは現在のフレームに再投影される。その観点からポイントが再投影されるようにカメラの位置を我々が知っている場合、この最後のステップのみが達成することができる。しかし、それは、まさに我々が演算しようとしているものである。故に、以前に正確に計算された位置を用いてカメラの次の位置を予測するために、我々のソフトウェアは9自由度センサにより提供される情報に関連付けられる不変の速度モデルを使用する。この予測を使用することで、3次元ポイントクラウドは現在のフレームに再投影可能であり、ポイントマッチングアルゴリズムが、FASTERにより検出された2次元のポイント間及び3次元ポイントクラウドの投影されたポイント間の対応を発見するために適用される。2つのマーカセット間の誤差は、この種の問題の最良の最適化アルゴリズムであると知られている、レーベンバーグ・マーカート[10,12,15]アルゴリズムを用いて最小化される。投影されたポイントの総数で割ったマッチ下ポイントの数が所定の閾値より大きい場合、システムは首尾よくカメラの追跡が可能(追跡が良好)であり、新たなキー位置を追加することができる。3次元ポイントクラウドにおいてマッチが発見されなかった、FASTERにより検出された2次元ポイントは、後のユーザのためにそれらに関連する16×16の2次元テクスチャパッチとともにメモリに格納される。それらは、新たな3次元特徴点(次のパラグラフ参照)を生成するために必要とされるだろう。
新たなキー位置(及び新たな特徴点)が、3つの条件が満たされる場合に追加される。第1は、前のパラグラフで説明したように、追跡が良好である、即ち十分に正確か、見失っていないことである。第2は、大きすぎるデータセットを構築することを避けるために、キー位置が30フレームごと(毎秒1回)に追加されること。第3は、新たなキー位置が、再至近のキー位置から最小で10cmの距離になければならないこと。このことは、安定時にシステムが追加のポイントを学習することを防止する。
これらのテストに全て首尾よく通過している場合、ソフトウェアは新たなスナップショット及び新たな3次元特徴点を追加できる。第1のステップは、新たなフレーム(スナップショット)内に関連する新たな2次元ポイントを検出するために再びFASTERを使用することである。我々はトラックからのマッチしない2次元特徴点のセットを有する場合に、「古い」2次元特徴点セットと新たに演算されたセットとをマッチングすることを試みる。このことは、新たなポイントセットの2次元テクスチャパッチを用いる伝統的なエピポーラ探索によりなされる。「古い」ポイントセットの2次元パッチセットとのマッチングを試みるために、パッチはエピポーララインに沿って移動される。エピポーラ拘束のおかげで、2次元ポイントのマッチングから、3次元ポイントの深度を演算することが可能である。これは実際にはホモグラフィフェーズ(セクション2参照)のマッチングステップと同様である。新たなポイントがマップに追加された場合、局所的バンドル調整が適用される。これらの新たな特徴点を用いてカメラの位置及び回転を精緻化した後、レーベンバーグ・マーカート最小化アルゴリズムが全ての特徴点の3次元位置を精緻化するために用いられる。これはk+1のフレームウィンドウにおいてなされる、即ち、カメラの現在位置及び回転を適切に推定するため(局所的バンドル調整)に、最小化が現在のスナップショットと、kの再至近のものを加えて考慮する。kの値は、実験的に決定される、または最小化アルゴリズムについての所定の誤差閾値に従って適応的に演算される。
また、局所的バンドル調整に加え、大局的バンドル調整が全ての存在するキー位置において適用される。キー位置セットが時間に応じて増大する場合、システムは大域的調整により多くの時間を費やす。新たなキー位置が追加され、我々のソフトウェアが局所的及び/または大域的バンドル調整を行うために十分な時間を有しない場合、新たなキー位置の追加の優先度を放棄するために調整はただキャンセルされる。それらは、新たなキー位置の追加が実行された場合にも再び適用されるだろう。
既存のポイントクラウドがある場合、カメラは追跡可能である。このことは次のセクションで説明する。
〈2.1.4 第2フェーズ:フィルムカメラ追跡〉
(2.1.4.1 幾何学的なカメラキャリブレーション)
カメラキャリブレーションは、いくつかの到達点を有する。1つのケースでは、画像がセンサ上にどのように生成されたかを記述するための数学的関係を与える。別のケースでは、3次元ポイントとカメラのイメージプレーンへのこれらの投影との間の変換行列を演算する。
解析及び追跡プロセスの重要な前提条件は、我々が2つの異なる種類の特性、即ち内因性及び外因性のパラメータを演算する必要があることである。内因性パラメータは、カメラ及びレンズ特性に関しており、これらは物理的に構築される方法に応じて変動する。これらは、画像フォーマット、カメラの光学中心と画像プレーンとの距離、及び主点を包含する。画像フォーマットは、画素間の距離に係る2つのスケールファクタにより構成される。主点は、画像プレーンへの光学中心の投影(理想的には画像の中心)である。それに加え、いくつかのレンズは、それらの光学歪みが追跡のために演算され考慮される必要がある。キャリブレーションプロセスの間、いくつかのサークルパターンを有する平面が、カメラにより連続して取得される(図5参照)。全ての位置について、外因性パラメータ(即ち、カメラの位置及び回転)及び内因性パラメータ(光学歪みを含む)が、全てのスナップショット間の投影誤差を最小化するレーベンバーグ・マーカート最小化アルゴリズムを用いて演算される。
該プロセスは、Devernay及びFaugerasの研究[3]に基づく著名な技術である。
(2.1.4.2 フィルムカメラオフセット)
ここで開発された大域的システムは、対象のフィルムカメラに直接的に取り付けられた追跡デバイスを配置する必要がある。ウィットネスカメラの位置及び向きは、事前に記述した追跡技術を用いて推定される。しかしながら、フィルム及びウィットネスカメラの双方に同一のパターンを使用することによりスケールの問題は存在する。実際、我々のウィットネスカメラは180度のレンズを用いる場合、キャリブレーションパターンのサークル形状は、ウィットネスカメラビューにおいて非常に小さく現れる傾向にあり、検出が困難となっている。
我々は、2つの異なるサイズ及びコントラストのパターンにより構成される、我々のキャリブレーションチャートを作成している。該チャートの一部は、(ウィットネスカメラのために)純粋な白の背景上に純粋な黒のサークルを有する。チャートの別の部分は、(フィルムカメラのために)純粋な黒の背景上に純粋な白のサークルで構成される。ウィットネス及びフィルムカメラについて、双方のパターンを発見するための非常に単純なパターン検出器を用いる。我々は両パターンの正確な相対位置を知っているため、フィルムカメラの位置及び回転は、ウィットネスカメラの演算された位置及び回転を「伝搬する」ことにより認識され、また逆も同様である。実際、両カメラは共に直接的に取り付けられるため、それらの3次元オフセット(R,T)を正確に演算するために、我々はラインナップアルゴリズムを利用できる。我々は、既に説明したサークルパターンに基づいてラインナップアルゴリズムを開発している。正確なサイズ、形状及び位置が既知であるパターンは双方のカメラにより分離して認識されるため、ウィットネスとフィルムカメラ間の自明な数学的関係(回転及び並進)は上昇する。
(2.1.4.3 追跡フェーズ)
追跡プロセスからの解析の分離は、システムがセットにおいてどのように用いられているかを記述する唯一の実用的な手法である。実際、追跡プロセスは図2において説明された追跡と異なるものではなく、解析の間使用される。しかしながら、それは、明確な理由のためにタッチスクリーンを有さない点を除いて、調査デバイスに非常に近い単純な装置(図6参照)を用いる。
図2の視覚的追跡の矩形は、新たなフレームにおいてFASTERにより検出された2次元の自然のマーカと既存の3次元ポイントクラウドとの間でマッチングがどのようであるか認識されることを示す。自然のマーカごとに関連付けられ、双方のデータセットからくる2次元のテクスチャパッチが直線的に比較される。全ての特徴点が処理されると、可能な限り最良のマッチングを発見し、カメラの位置及び向きを演算するために、ガウス・ニュートンアルゴリズムが適用される。このような最小がアルゴリズムは、解に収束するために、通常10回程度の繰り返しを必要とする。最小化するための基準のロバスト性を向上させるために、我々はTukeyの統計的なM推定器(M-Estimator)(最大尤度型推定器)[6]を利用する。また、このことは、収束が外れ値によって崩壊しないことを保証する。
全ての追跡は、カメラの最終パラメータの取得前に、2回、ピラミッドの2つの異なるレベルについてなされる。1回目では、画像ピラミッドの新井レベルにおいてカメラの位置及び向きの近似が演算され、自然のマーカのサブセットが使用されることにより、アルゴリズムの収束が大幅に上昇する。2回目では、最終の正確な結果を得るために、はるかに大きいセット(約20倍大きい)において前回の近似をマージして、同一の演算が実行される。
(2.1.4.4 追跡失敗及び回復)
現実のセットにおいてカメラ追跡が行われている間、視覚的追跡が失われる多くの状況が生じうる。これは例えば、人がウィットネスカメラの前にいる場合や、オブジェクトによってバーが単純に隠れた場合にしばしば生じる。我々が視覚的追跡を失う全てのケースについて、3つの異なる回復スレッドが同時に開始され、最初に回復が得られた1つが採用される。
拡張カルマンフィルタの予測機能(セクション2.3.2参照)を使用することで、まずEKF予測パラメータから探索を開始し、カメラ位置回復を試みることができる。実際、EKFは予測補正アルゴリズムであるため、位置が実際に動く前に、カメラの次の位置がどのようになるかを常に推測するよう試みている。予測が正しかった場合、即時に回復を得ることができる。実施において、ウィットネスカメラが隠された場合及びシステムがIMUを用いて追跡している場合、予測は良好に動作した。しかしながら、ウィットネスカメラが隠れている間にフィルムカメラの顕著な並進があった場合は、しばしば失敗する。
回復の第2のレベルは、非常に異なる。全ての特徴点は、ORB(Oriented FAST and Rotated BRIEF)技術[18]に従って関連付けられた回転不変記述子を有している。Harrisスコア[5]に関連するマルチスケール特性(即ち、画像ピラミッドの異なるレベルにおける。図4参照)を演算するために、それはまず、著名なFAST[16]技術に依存する。記述子の向きは、高度中心を用いて演算される。第2の記述子は、キーポイントのむきに従って回転されるBRIEF記述子[2]を示すrBRIEFである。これら2つの記述子を用いることで、我々の技術は標準的な視覚的追跡技術が失敗した位置から回復することができる。例えば何らかの理由で視覚的追跡が失われた場合を考える。ここでは、見失われている間に、並進とカメラのZ軸周りに90度の回転があったと仮定する。該カメラにより見える現在の画像は、以前に全く学習していないが、我々が追加したキー位置及び以前に学習したキーポイントの方向をまだ指している。しかしながら標準的な回復プロセスは回転不変ではないため、これらのシステムは追跡の回復に失敗する。我々のケースでは、全てのキーポイントに関連付けられた回転不変記述子の使用は、フィルムカメラが以前の位置のどこかに指し示されると、(強引なマッチング技術を用いて)素早く回復可能である。
最後に、3番目の回復スレッドは、より野蛮かつ演算面で激しいものである。楕円体(3次元の楕円体)が最後の既存のカメラ位置の周囲に構築される。該楕円体は、拡張カルマンフィルタではなく演算されたパラメータ共分散で作られたサイズを有する。複数のサンプルが、EKFの誤差の共分散に従って該楕円体の内部に生成される。探索されたカメラ位置及び回転について可能な限り最良のマッチングを発見するために、RANSACアルゴリズムがそのセットに適用される。
《2.2 動的ズーム、フォーカス及びアイリス》
大域的追跡プロセスの間、例えばディレクタや撮影監督はシーン内のキャラクタ/オブジェクトにズームまたはフォーカスすることを決定するかもしれない。我々の技術は、Arriにより提案されたようないくつかの標準的なエンコーダを統合するだけでなく、リアルタイムにズーム、フォーカス、アイリス値を取得するために任意の他のエンコーダを取り扱うことを可能にする。このことは、セットにおける動的なズーム及び被写界深度を可能にする。
《2.3 センサフュージョン技術》
純粋な光学ベースのマーカレス技術の全ては、多くの状況で追跡に失敗しうる。最も一般的なケースは、ウィットネスカメラの現在のビュー内に、自然のマーカが十分に存在しなくなってしまうことである。例えば、ユーザがレンズを手で隠さないように注意を払っているような理想的な状況では、これはめったに生じない。実際のセットでは、カメラクルーはレンズの変更やカメラ用具の変更、レンズの相似、他の撮影場所への移動等を必要とするため、たやすくこのような状況は頻繁に発生する。標準なマーカベースまたはマーカレス(オプティカルフローベース)の技術において、このことは、カメラの位置及び回転の良好な推定の発見をすることを、追跡システムにできないようにする。
我々は、複数のセンサ、即ちウィットネスカメラ、ジャイロスコープ、加速度計、及び磁気計を用いてウィットネスカメラの位置及び回転を自動的に補正するセンサフュージョン手法を生成している。該技術は、我々の技術の核心である。
第1のステップはシステムのキャリブレーション、即ちウィットネスカメラに相対して9自由度のIMUをキャリブレーションすることである。それは、全てのセンサが実際にいくつかの基準において動作するかを確実にするための重要なステップである。9自由度のセンサとウィットネスカメラとの関係は、手と目の技術[20]に近いが、我々の追跡アルゴリズムに適合させるように、我々はいくつかの興味深い科学的貢献を追加している。
〈2.3.1 IMU−ウィットネスカメラキャリブレーション〉
9自由度センサ(IMU)から2つのウィットネスカメラ(C)のうちの1つへの回転を演算する変換RIMU→Cを考える。RIMUはその局所基底において基地であり、Rcも我々の局所基底において既知である。Rc=RIMU→C・RIMUについてRIMU→Cを解くことが目標である。
IMUとカメラとの関係が時間によらず変化しない(これらが双方固定のカメラバーで取り付けられている)場合、RIMU→Cは常に一定となることが保証される。
故に、ti,i[0,n]について
と記すことができる。
我々は以前の式から、
と推測することが可能である。ここで、
の関係が成り立つ。
ジャイロスコープ及び視覚的追跡により得られる回転計測結果は同一であるはずである。故に、RIMUとRcは、異なる基底であるが、同一の回転角度を示すと考えることが論理的である。Log:SO(3)→so(3)として定義される、Algebra Lieの回転行列のログマップを用いることで、行列Rc
で示される軸角度
に、tr(Rc)が
のような行列のトレースであることを用いることで、変換することができる。
我々は、以下の過剰決定方程式系(overdetermined equation system)
を示すことができる。
任意の過剰決定系のように、特異値分解(SVD)S=UσVtを用いて先の矩形行列を解くことができる。ここでUは、固有ベクトルS・Stのm×nの行列、Vは固有ベクトルSt・Sのn×nの行列、及びDはSの順序付けられた特異値のn×nの対角行列である。
方程式の以前の解放は、測定結果からのノイズに支配される。故に、我々は誤差を最小化するために、レーベンバーグ・マーカート最小化方式を適用する:
ここで、IMUとウィットネスカメラとの数学的関係を有しているため、全てのセンサの最良を抽出し、フィルムカメラの回転及び並進を演算するために、拡張カルマンフィルタを全ての計測結果に投入することが可能である。
〈2.3.2 拡張カルマンフィルタ〉
拡張カルマンフィルタ(EKF)は、航空宇宙及びロボティクスの研究分野において、複数の異なるセンサからの様々なデータを結合するための、非常によく知られた技術である。これは、推定誤差を演算し、2つのフェーズ、即ち予測及び補正を適用することにより、ノイズの乗った計測結果から非線形系のパラメータを推定するために本質的に用いられる。予測フェーズにおいて、以前のタイムステップにおいて推定されたパラメータ及び誤差を用いて、カルマンフィルタはあるタイムステップの新たなパラメータと関連する誤差とを演算する。補正フェーズは、新たなノイズ測定を使用して該予測を更新する。これらの新たな測定は、予測されたパラメータ及び誤差から、新たに推定されたパラメータ及び誤差を演算することを可能にする。誤差がある閾値より大きい場合、パラメータは補正される。
ここで、我々のケースでは、3次元回転に関連する複数の計測結果(ジャイロスコープ+ウィットネスカメラ)があり、これらは容易に補間できないため、EKFは非常に特別な手法で開発される。
我々の技術についてのEKFのアイデアは、全ての測定結果(ウィットネスカメラ、ジャイロスコープ、磁気計、加速度計)に信頼値を入力し、最良の信頼スコアを得るセンサを用いて現在の推定位置及び回転を繰り返し補正することである。実際のところ、EKFはこれよりも少し複雑であり、非線形系についての予測・補正アルゴリズムとして数学的に記述されうる。タイムステップtにおける状態ベクトル
を考慮すると、
になるベクトル
の新たな状態を予測するために、アルゴリズムは我々の移動方程式の現在の物理モデルを提供する。そして補正フェーズは、タイムステップt+Δtにおける新たな状態ベクトル
を生成する。
EKFモデルは我々のケースでは以下のように示される:
ここで、hは我々の観測に係る状態方程式であり、Xtは大域基底における並進、回転、並進速度、角速度であり、fは状態ベクトルの更新関数である。またBはシステムにおける大域的なノイズである。
(hの定義)
一方で、我々がマーカレス視覚的追跡(即ち、ここではウィットネスカメラ)からの計測結果をhwitnessとし、他方でIMUからの計測結果をhIMUとして考えた場合、我々はhが観測可能な2つの種類hwitness及びhIMUより構成されるといえる。定義によれば、hは自明な関数であり、その一般的な形式は、Ywitness(t)=X(t)及びYIMU(t)=X(t)と識別することにより得られる。計測を送信するセンサの種類に応じて、我々は2つの異なるバージョンのhを記述しており、視覚的追跡ケースにおける式11は
として書き換えることができる。
witness(t).{α∈T,R,V,Ω}は、タイムステップtにおける、並進(T,in meters)、回転(R,in radians)、速度
、及び角速度(Ω,in rad・s-1)についての視覚的追跡の観測可能な
である。
センサがジャイロスコープである場合、式11は
となる。
IMU.{α∈R,Ω}は、タイムステップtにおける回転(R,in radians)及び角速度
についてのIMUの観測可能な値である。9自由度センサを用いて計算可能な並進または速度は全くない。
(fの定義)
ここで
は、タイムステップt+Δtにおける予測された状態ベクトルであり、
はタイムステップtにおいて推定された状態ベクトルである。
関数fは、状態ベクトルの更新関数であり、
として定義される。
なお、カルマンフィルタの標準の更新関数は、回転行列が補間できないため我々のケースでは使用できず、線形形式A・X+Bで書かれる。
(予測ステップ)
予測ステップは、カルマンフィルタの定義を用いて
として書かれる。ここで、

はタイムステップt+Δtにおける予測誤差の共分散行列
・Ptはタイムステップtにおける誤差の共分散行列
・Aは、
がfのヤコビアン行列であり、階差
の総和として算出されるような遷移行列
・Qは状態ベクトルのノイズの12×12の行分散行列である。並進状態ベクトルのノイズは発見的に1e-2であり、回転状態ベクトルのノイズは1e-3である。
(補正ステップ)
カルマン定義に従って、我々のケースの補正は
として書かれる。ここで、
・Iは恒等行列
・K(t+Δt)はタイムステップt+Δtにおけるカルマンゲイン
・Hは関数hのヤコビアン行列であり、それ自体は現在の選択されているセンサに応じてhwitnessまたはhIMUとなる。
我々のケースでは、ヤコビアンは階差
の総和として演算される。
・U(t+Δt)は現在選択されているセンサ(ウィットネスカメラまたはIMU)のノイズ計測結果の共分散行列である。該値は、計測の品質(信頼値)に応じて変わる。視覚的追跡のケースでは、追跡誤差εに依存し:
となる。
ノイズ誤差は全てのセンサについてメーカにより直接提供されるため、IMUについてU(t+Δt)を決定することは容易である。先の式は、これらの誤差により直接置換される。
・P(t+Δt)はタイムステップt+Δtにおける誤差の共分散行列
・V及びΩは、速度ベクトル
及び角速度Ωそれぞれの行列表現
・また式20のJwitness|IMUは、センサの種類に従って
と書かれる。
・y(t+Δt)は選択されたセンサにより与えられる現在の計測結果である。y(t+Δt).(α∈{R,T,V,Ω})は、並進、回転、速度、角速度それぞれの計測結果である。J(α∈{R,T,V,Ω})はカルマンイノベーションとして知られる。
《2.4 3次元再構成及び深度入力》
リアルタイム3次元再構成は、我々のカメラバーに統合された3次元範囲センサを用いて達成される。該範囲センサは、パターン投影型デバイス(例えばMicrosoft Kinect, Asus Xtion)や(例えば高度な科学的コンセプトのTigerEyeのような)Flash Lidarとして知られるTOF(time-of-flight)方式カメラであってよい。両技術は制限を有し、我々の技術は、現在は短い範囲のセンサにAsus Xtionのみを使用している。従来通り、キャリブレーションのステップは、ウィットネスカメラに相対してAsus Xtionの位置を知ることが必要である。ラインナップを我々はウィットネスからフィルムのラインナップに対して、全く同様の技術を単純に使用する(セクション2.1.4.2参照)。範囲センサがグレースケールカメラを有する場合、我々のキャリブレーションパターンが双方のカメラ、即ち範囲センサのカメラ及び我々のウィットネスカメラのうちの1つ、において検出されるように使用することができる。該プロセスは、非常に簡単であり、2.1.4.2と同様である。
我々の技術では、範囲センサは2つの目的に使用される。一方において、例えばオブジェクトの後ろに離れて生成された不良な特徴点の削除を補助する。範囲センサの深度マップにおいて特徴点の単純な再投影は、特徴点が正しいか否かを教示し得る。立体視追跡の間(セクション2.5参照)、エピポーラ幾何学により生成された全てのポイントは、エピポーララインにより与えられる推定よりも近いか遠いかである。我々は、精度を拡張するまたは単純に却下するために、再構成された3次元ポイントと、範囲センサの深度マップへの再投影された現在の値とを比較する。
範囲センサの2つ目の使用は、深度マップ自体に依存する。深度の最大範囲が12mと与えられる場合、我々は仮想キャラクタ/オブジェクトにより、該範囲のセットに入る全ての人間(俳優)を遮蔽すること、またその逆も可能である。これは、動的遮蔽と呼ばれ、動画や生放送における視覚効果についてのリアリズムのレベルを上昇させる。我々の技術は、フィルムカメラに深度を再投影し、その結果(エッジ強調)を精緻化することにより、範囲センサの分解能を拡張するために、メインフィルムカメラのフィードに使用する(またこのことは、付加的な高解像度のウィットネスカメラを追加することも達成し得る)。このような技術は、リアルタイム深度入力を提供可能であり、特により強力な範囲センサ(Flash Lidar)が使用される場合に、義務的なグリーンスクリーンの使用を低減する。
《2.5 立体視マーカレス技術》
単眼視アプローチを用いる上述した技術は、実際には現実の状況において十分に効率的ではない。ワールドのスケール、向き、及び位置を演算するために登録されて用いられる既知の現実のオブジェクトが必要な場合、あなたが該オブジェクトを登録(検出)しようとする際に、多くの人があなたのパス上に常に存在するような動画においては使用しにくい。しかしながら、単眼視アプローチの主な制約は、シーンの解析をするために必要な事実である。ホモグラフィは、システムの初期化に使用されなければならないため、技術者が解析を開始するためにセットに来なければならないことを意味する。実際には、このようなオペレーションは、セットで作業する人間が直前まで場所を離れないため、達成されることはまれである。
我々は、制約を除外し、即時解析と追跡の、完全にオリジナルの概念を実現する、立体視アプローチを構築した。
〈2.5.1 即時解析〉
カメラ追跡に組み込まれた立体視技術は、上述した単眼視アプローチを含む任意の他の技術に比較して、大きな進歩である。実際、2つの事前キャリブレーションされたウィットネスカメラの使用はいくつもの利点をもたらした。まず1つが即時解析である。単眼視アプローチにおいて説明した技術とは異なり、シーンについて事前の解析は必要ない。2つのウィットネスカメラ間の正確な距離が完全に判明しており、これらが内部のジェンロック(genlock)ハードウェア能力を用いて同調するため、我々はバーを動かすことなく即時にポイントクラウドを得ることができる。ポイントの3次元再構成が2つのウィットネスカメラを用いた立体視理論により実現されるため、パラグラフで説明したホモグラフィはもはや使用されない。第2の主な点は、手動のスケーリングが必要ないことである。2つのビデオストリームの取得中、エピポーラ幾何学により推定された3次元ポイントの投影と、現在の映像において検出された2次元の特徴点との間の画素誤差の総和を最小化するために、我々はレーベンバーグ・マーカート最小化方式を実行する。
〈2.5.2 自動登録〉
即時解析を使用する場合、単眼視アプローチで検出されたような登録オブジェクトを使用することが不可能である新たな問題が生じる。該制限の主な理由は、カメラバーがフィルムカメラに直接取り付けられており、登録オブジェクトを学習するために該カメラを順次移動させるようカメラクルーに頼むことが不可能であるという事実からくる。これが、シーンに追加される任意の物理的なオブジェクトを必要としない第2の自動登録を追加した理由である。しかしながら、ポイントクラウドを用いる2つの異なるインタラクション、即ち地面の基準として使用する予定の点がいずれであるかをシステムに伝えるためのポイント選択、及びシーンに相対してCGコンテンツを適切に順応させるためにY(垂直方向)軸周りの手動回転をユーザに行わせる必要がある。
これら2つの非常に高速かつ単純なユーザインタラクションのみを行わせるために、我々は他の全ての自由度を演算する必要がある:これは完全な垂直のY軸を有する正規直交基底と正確なスケーリングを演算することを意味する。我々の技術は、重力方向、即ちY軸を演算するために、バー内に組み込まれた加速度計を単純に利用する。磁気計は北方向を与え、通常の外積を用いて正規直交基底を演算可能にする近似ベクトルを提供する。
スケーリングは、演算することはより容易である。それは完全に即時で自動であり、いずれのユーザインタラクションも必要としない。ウィットネスカメラ間の距離が正確に判明している場合、3次元に再構成された全てのポイントは正しいスケーリングを直接的に有し、通常の純粋なstructure from motion(SFM)アルゴリズムのように追加のオブジェクトの検出を必要としない。
〈2.5.3 即時追跡〉
追跡処理は、セクション2.1.4.3の単眼視アプローチについて説明したものとはわずかに異なる。3次元特徴点のスケール及び深度が常に正しいことを保証するエピポーラ幾何学を使用することにより、全ての新たな点が生成される。このことは、我々のシステムが開始されると、ライトスピードで正確な即時解析により既に追跡されている。
追跡処理の最大の安定性を保証するために、我々は左及び右のカメラから見える再投影された3次元ポイントの全ての集合を演算する。ポイントクラウドは、特徴マッチング(セクション2.1.4.4参照)のためにORB記述子と組み合わせられた、エピポーラライン上の3次元交点により単純に生成される。特徴マッチング及び大局的最小化方式は、単眼視アプローチにおいて使用されたものと同様である。
即時解析に依存可能にするために、我々はポイントクラウド内に新たなポイントを構築する、高度な変更を行っている。ポイントの立体再構成に加え、我々は、グリッド分散及び特徴点の一貫性の概念を追加している。通常の追跡アルゴリズムの間、2次元特徴検出アルゴリズムが起動され、セクション2.1.3.3及び2.1.4.4で説明したように3次元にポイントが再構成される。しかしながら、これらのポイントの多くは信頼性に欠け(不良な深度、エッジポイント、移動ポイント、陰影のポイント等)、アルゴリズムは高コントラスト領域において多くのポイントの学習を行い、低コントラスト領域において何も学習しない傾向にある。このことは、追跡データにおいて、カメラが揺れたような感覚を与える多くのノイズを生成する。我々が作成したグリッド分散技術は、システムにより学習された自然のマーカが略均一となるように分散することを試みている。まず、多くの特徴点を生成するために、我々は非常に高い閾値を使用することにより開始する。そして、Harrisスコアを使用し、ユーザにより与えられた閾値(例えば16×16のグリッドで、各セルに2つのサンプル)に応じて特徴点の数を低減する(例えば我々は2つの最良のポイントを選択する)。ポイントごとに、どの程度信頼できるかを示すために用いられる品質基準を有する。均一性が十分でない場合、低コントラスト領域であってもポイントが捕捉できることを保証するように、システムはコントラスト閾値を局所的に変更する。我々のアルゴリズムがピクチャに渡って特徴点を分散する事実は、システムが容易に追跡を失うことを防止する。実際、我々のようなグリッド分散技術を使用しない通常の単眼視アプローチは、例えばピクチャの左下部分に多くの追跡点があるかもしれない。そして、俳優がこれらの自然のマーカの全てを隠すような位置に入った場合、追跡は即座に失われるが、我々のケースでは、ピクチャ全体に特徴が分散するため、このようなことは生じない。
《2.6 現実世界の拡張》
〈2.6.1 カメラ/ウィットネス遅延問題〉
フィルムカメラとウィットネスカメラとが異なるスピードで実行される場合、フレーム取得プロセスにおいて異なる遅延が生じうる。適切に現実世界を拡張するために、フィルムカメラは、実際に演算するために強制的にはるかに高い遅延を生じる。
2つのカメラ間の遅延を自動的に演算するために、我々は独自のキャリブレーションデバイスを使用する。1Hzで明滅する小型の太陽光LEDが、双方のカメラの前面に使用される。強度閾値技術により拡張されたブロブ検出アルゴリズムが、双方のカメラのLEDを検出するために開発された。カメラにおけるLED強度の取得から生成された関連する強度曲線が、サンプル間の最良の時間的一貫性を発見するために、最小化アルゴリズムを用いて比較される。これによりいくつかの統計パラメータが最小化され、ミリ秒内の遅延が約10秒前後のキャリブレーションから自動的に抽出される。
〈2.6.2 描画及び拡張現実〉
我々がカメラ追跡動作を行うと、我々のソフトウェアは例えばAutodesk MotionBuilderのような様々なCGコンテンツ生成ソフトウェアからのデータを受信しうる。これらのデータは、現実の背景または前景(グリーンステージの場合)に合成されるように、直接的に統合され、我々のソフトウェア内で描画される(追跡及び描画ワークステーションが統合されている場合。図1参照)。
我々の技術固有の他の興味深い特徴は、3次元ガーベジマッティングである。ガーベジマッティングは確かに我々の発明ではないが、我々のケースでは革新的な手法で実行される。実際、我々の追跡アルゴリズムは(立体視アプローチにより)正確な3次元ポイントクラウドを生成するため、これらのポイントはフィルムカメラ映像に再投影された場合に、3次元及び2次元の再構成をもたらす。我々は、3次元ポイントクラウド内で複数の点をユーザが選択可能な、シンプルなユーザインタフェースを開発した。そして我々は、Ear Triangulation algorithm[14]を用いて、全ての選択されたポイントを三角形にすることにより3次元オブジェクトを生成する。この新たな面生成は、ガーベジマッティングオブジェクトとしてアクティブにされる、即ちフィルムカメラ映像上へのオブジェクトの2次元投影によりおおわれる画素ごとに、3次元コンテンツ生成ワークステーション(図1参照)により生成された3次元仮想環境によって置換されることを意味する。なお、法範囲(即ち少なくとも50m)の深度センサを使用する場合、ガーベジマッティング技術は、我々の深度入力方式が容易に置換するため、不要になる(セクション2.4参照)
[添付資料1]
参考文献
[1] Herbert Bay, Tinne Tuytelaars, and Luc Van Gool. Surf: speeded up robust features. In Proceedings of the 9th European conference on Computer Vision - Volume Part I, ECCV'06, pages 404-417, Berlin, Heidelberg, 2006. SpringerVerlag.
[2] Michael Calonder, Vincent Lepetit , Christoph Strecha, and Pascal Fua. Brief: binary robust independent elementary features. In Proceedings of the 11th European conference on Computer vision: Part IV, ECCV'lO, pages 778-792, Berlin, Heidelberg, 2010. Springer-Verlag.
[3] Frederic Devernay and Olivier Faugeras. Straight lines have to be straight. In SPIE7 volume 2567, 2001.
[4] Martin A. Fischler and Robert C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM , 24(6):381-395, 1981.
[ 5] Chris Harris and Mike Stephens. A combined corner and edge detector. In In Proc. of Fourth Alve y Vision Conference, pages 147-151, 1988.
[6] D.C. Hoaglin, F. Mosteller, and J.W. Tukey. Understanding Robust and Exploratory Data Analysis. Wiley series in probability and mathematical statistics: applied probability and statistics. John Wiley and Sons, 1983.
[7] Rudolph Emil Kalman. A new approach to linear filtering and prediction problems. Transactions of the ASM E-Journal of Basic Engineering, 82(Series D):35-45, 1960.
[8] Georg Klein and David Murray. Parallel tracking and mapping for small ar workspaces. In Proceedings of the 2007 6th IEEE and ACM International Symposium on Mixed and Augmented Reality, ISMAR '07, pages 1-10, Washington, DC, USA, 2007. IEEE Computer Society.
[9] J. J. Leonard and Durrant H. Whyte. Mobile robot localization by tracking geometric beacons. IEEE Transactions on Robotics and Automation, 7(3), 1991.
[10] K . Levenberg. A method for the solution of certain problems in least squares.Quart. Appl. Math, 2:164-168, 1944.
[11] David G. Lowe. Object recognition from local scale-invariant features. In Proceedings of the International Conference on Computer Vision- Volume 2 - Volume 2, ICCV '99, pages 1150-, Washington, DC, USA, 1999. IEEE Computer Society.
[12] D. Marquardt. An algorithm for least-squares estimation of nonlinear parameters. SIAM J. Appl. Math, 11:431-441, 1963.
[13] Christopher Mei, Gabe Sibley, Mark Cummins, Paul Newman, and Ian Reid. Rslam: A system for large-scale mapping in constant-time using stereo. Int. J. Comput. Vision, 94(2):198-214, September 2011.
[14] Gary Hosler Meisters. Polygons have ears. Amer. Math. Monthl y, 82:648-651, 1975.
[15] J. J. More'. The Levenberg-Marquardt algorithm: implementation and theory,pages 105-116. Lecture Notes in Mathematics 630. SPRINGER, 1977.
[16] Edward Rosten and Tom Drummond. Machine learning for high-speed corner detection. In Proceedings of the 9th European conference on Computer Vision- Volume Part I, ECCV'06, pages 430-443, Berlin, Heidelberg, 2006. SpringerVerlag.
[17] Edward Rosten, Reid Porter, and Tom Drummond. Faster and better: A machine learning approach to corner detection. IEEE Trans. Pattern Analysis and M achine Intelligence, 32:105-119, 2010.
[18] . Ethan Rublee, Vincent Rabaud, Kurt Konolige, and Gary Bradski. Orb: An efficient alternative to sift or surf. In Proceedings of the 2011 International Conference on Computer Vision, ICCV '11, pages 2564-2571, Washington, DC, USA, 2011. IEEE Computer Society.
[19] Ivan E. Sutherland. A head-mounted three dimensional display. In Proceedings of the December 9-11, 1968, fall joint computer conference, part I, AFIPS '68 (Fall, part I), pages 757-764, New York, NY, USA, 1968. ACM.
[20] Roger Y. Tsai and Reimer K. Lenz . A new technique for fully autonomous and efficient 3d robotics hand-eye calibration. In Proceedings of the 4th international symposium on Robotics Research, pages 287-297, Cambridge, MA, USA, 1988. MIT Press.
[21] J.K. Ulhmann. Algorithms for multiple target tracking. American Scientist,80(2):128-141, 1992.

Claims (60)

  1. テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステムであって、
    (a)
    前記フィルムカメラのボディは、3次元に移動可能であり、
    前記フィルムカメラ内もしくは前記フィルムカメラに直接的または間接的に取り付けられたセンサが、前記フィルムカメラの3次元位置及び3次元向きを定義する、あるいは前記フィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
    (b)前記リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するために前記システムにより自動的に用いられ、
    (c)結果として得られる前記コンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、前記フィルムカメラからの前記映像フィードに混合または前記映像フィードと合成される
    ことを特徴とするシステム。
  2. 前記コンピュータ生成された3次元オブジェクトは、前記フィルムカメラからのリアルタイム映像にリアルタイムに混合または該リアルタイム映像とリアルタイムに合成されることを特徴とする請求項1に記載のシステム。
  3. 前記フィルムカメラのズーム、フォーカス及び絞りのリアルタイム設定が、従来のエンコーダを用いることも含んで計測され、3次元シーン内に所望の位置及び向きで前記3次元オブジェクトが正確に描画されるように、前記リアルタイム位置データとともに用いられることを特徴とする請求項1または2に記載のシステム。
  4. 前記センサが、加速度計及びジャイロ(6自由度センサ)を含むことを特徴とする請求項1乃至3のいずれか1項に記載のシステム。
  5. 前記センサが、3次元の並進加速度を計測する3軸の加速度計、3次元の角速度を計測する3軸のジャイロ、及び3次元の絶対方位を計測する磁気計を含み、9自由度のセンサを構成することを特徴とする請求項1乃至4のいずれか1項に記載のシステム。
  6. 前記センサが、パターン投影型(structured light)カメラまたはTOF(time-of-flight)方式カメラのような3次元範囲センサを含むことを特徴とする請求項1乃至5のいずれか1項に記載のシステム。
  7. 前記3次元範囲センサは、前記カメラからの映像出力の各画素の深度を取得することを特徴とする請求項6に記載のシステム。
  8. エッジの深度は、前記フィルムカメラの高解像度映像フィード上に前記3次元範囲センサの深度を再投影することにより精緻化されることを特徴とする請求項7に記載のシステム。
  9. 前記センサが、前記フィルムカメラに確実に固定可能なユニット内に形成されることを特徴とする請求項1乃至8のいずれか1項に記載のシステム。
  10. 前記ユニットが、1つまたは2つのウィットネスカメラを含むことを特徴とする請求項9に記載のシステム。
  11. 前記ユニットが、映像出力の各画素の深度を取得する3次元範囲センサを含むことを特徴とする請求項9に記載のシステム。
  12. 前記ユニットが、複合的シーンを解析可能な解析装置を形成可能であり、追跡するまたは該シーンの追跡を回復するコンピュータに、解析した3次元シーンを定義するデータを無線送信することを特徴とする請求項9に記載のシステム。
  13. 180度魚眼レンズであってもよいレンズが装着された、単一のウィットネスカメラ(単眼視ケース)または2つのウィットネスカメラ(立体視ケース)を含むことを特徴とする請求項1乃至12のいずれか1項に記載のシステム。
  14. 前記ウィットネスカメラは前記フィルムカメラからオフセットされ、
    該オフセットが、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズム(blob image algorithm)を用いて認識される、第1及び第2のサークル群を含むキャリブレーションチャートを用いて取得される
    ことを特徴とする請求項13に記載のシステム。
  15. 前記フィルムカメラのレンズは、各々が1以上の他のサークルについての既知の位置内にあってブロブ画像アルゴリズムを用いて認識される、いくつかのサークルを含むキャリブレーションチャートを用いて光学的歪みについてキャリブレーションされることを特徴とする請求項1乃至14のいずれか1項に記載のシステム。
  16. 前記フィルムカメラの3次元位置及び向きは、一部分において、前記センサからの前記リアルタイム3次元位置データとウィットネスカメラがシーンを解析し、プロセッサにおいて実行されているソフトウェアが、該シーンに手動でまたは人工的に追加されていない、該シーン内の自然のマーカ(特徴点)を検出したオプティカルフローとを用いることにより生成された現実世界の3次元マップを参照して決定されることを特徴とする請求項1乃至15のいずれか1項に記載のシステム。
  17. 追跡されるシーンを純粋に解析する別のステージなしで前記システムを完全に初期化(「即時解析」と呼ばれる)可能にする1つまたは2つの(少なくとも100fpsの)ハイスピードウィットネスカメラを利用するが、該カメラが映像を取得するために用いられる間、解析は連続的に行われることを特徴とする請求項1乃至16のいずれか1項に記載のシステム。
  18. 前記2つのハイスピードウィットネスカメラは、前記カメラシステムが完全に動いていない場合でさえも、画像を処理し、即時の3次元ポイントクラウドを生成する(前記2つのカメラ間の距離の知識及びエピポーラ幾何学を用いて、前記シーン内の多くのポイントを3次元空間内のそれらの位置に関連付けることを含む)ことをソフトウェアに可能にする立体視システムを形成することを特徴とする請求項17に記載のシステム。
  19. 前記3次元ポイントクラウドにおける各画素の深度は、各立体視ウィットネスカメラから得られた対応する2Dテクスチャパッチと、エピポーラ線探索アルゴリズムとを用いて得られることを特徴とする請求項17に記載のシステム。
  20. ウィットネスカメラシステムからのオプティカルフローとハードウェアセンサからの前記リアルタイム位置データとを組み合わせるフュージョンアルゴリズムを実行することを特徴とする請求項1乃至19のいずれか1項に記載のシステム。
  21. 前記フュージョンアルゴリズムは、加速度計、ジャイロスコープ、磁気計、3次元範囲センサを含みうるあらゆる前記センサからの出力を統合し、再キャリブレーションし、前記カメラの位置及び向きを決定するための、拡張カルマンフィルタ予測/補正技術に基づくことを特徴とする請求項20に記載のシステム。
  22. 拡張カルマンフィルタフュージョンアルゴリズムは、各センサからのデータをどのようにマージするかを決定する場合に、各センサからの前記出力に関連付けられた信頼性レベルデータを使用することを特徴とする請求項21に記載のシステム。
  23. 1つのウィットネスカメラまたは前記ウィットネスカメラにより生成されたキーフレームは、視覚的追跡処理の一部であり、かつウィットネスカメラ映像フィードの4つの異なる解像度レベルにおいて演算されるリアルタイム画像であることを特徴とする請求項1乃至22のいずれか1項に記載のシステム。
  24. (a)仮想フィギュア、オブジェクト及び環境に係る3次元のコンピュータ生成されたアニメーションを提供するコンテンツ生成コンピュータ、及び
    (b)(前記コンテンツ生成コンピュータと分離されていてもされていなくてもよい)描画コンピュータを有し、
    前記フィルムカメラの3次元位置を定義する前記リアルタイム位置データは、前記フィルムカメラからの前記映像フィードにリアルタイムに挿入及び混合可能な、生成される、コンピュータ生成された3次元オブジェクトを、該映像フィードにおいて観賞される前記シーンの自然な部分を形成させるように、前記コンテンツ生成コンピュータ及び前記描画コンピュータのいずれかまたは双方により使用される
    ことを特徴とする請求項1乃至23のいずれか1項に記載のシステム。
  25. 前記コンピュータ生成された3次元オブジェクトは、前記シーン内のいずれの位置にも移動可能で、前記コンテンツ生成コンピュータにより決定された方式の形状及び外観に変更可能なアニメーションであることを特徴とする請求項1乃至24のいずれか1項に記載のシステム。
  26. 前記コンピュータ生成された3次元オブジェクトは、前記シーンに混合された場合に、現実的な方式で移動(走る、踊る、歩く、戦う、飛ぶ、ジャンプするを含む)人間または生物のアニメーションされたフィギュアであることを特徴とする請求項1乃至25のいずれか1項に記載のシステム。
  27. 前記カメラ位置または追跡データは、ポストプロダクションCGIを促進するために、さらにポストプロダクションの使用が可能にされることを特徴とする請求項1乃至26のいずれか1項に記載のシステム。
  28. 3次元範囲センサが、再構成された3次元ポイントに関連付けられた深度計測の精度を高めるために、または該再構成された3次元ポイントを却下するために用いられることを特徴とする請求項1乃至27のいずれか1項に記載のシステム。
  29. 前記3次元範囲センサは、動的な遮蔽を可能にし、かつグリーンステージの最終使用を抑圧するためのリアルタイムの深度入力に用いられることを特徴とする請求項28に記載のシステム。
  30. 検出されたパターンのコーナーが3次元ポイントクラウド(即ち、ワールド)の原点として扱われるように、前記シーン内に配置された、既知のパターンで覆われた既知のサイズのプレートのような、小さなカメラ登録オブジェクトを使用することを特徴とする請求項1乃至29のいずれか1項に記載のシステム。
  31. 前記カメラ登録オブジェクトは、真の垂直線上に配置され、ブロブ画像認識アルゴリズムを用いて認識された、既知のサイズの少なくとも2つの球を含むことを特徴とする請求項30に記載のシステム。
  32. 磁北を示す磁気計と、
    重力方向(即ち、真の垂直線を与える)を示す加速度計と、
    前記システムが上方/下方にチルトされる、左または右にパンされている、または光軸について回転されている場合に通知するジャイロと、
    開始位置からの3次元の並進を推測可能にする3軸加速度計と、を有する
    ことを特徴とする請求項1乃至31のいずれか1項に記載のシステム。
  33. 追跡ロスを多分に低減し、追跡精度を上昇させる(より多くの視差が生成され、推定されたカメラ位置がより正確になる)ために、ソフトウェアが前記3次元マップ内に均一に分布されたポイントクラウドを生成することを試みることを特徴とする請求項1乃至32のいずれか1項に記載のシステム。
  34. カメラ追跡システムが、前記フィルムカメラに無線で接続され、前記3次元ポイントクラウドを生成する場合にセットの周囲を高速に移動可能であることを特徴とする請求項1乃至33のいずれか1項に記載のシステム。
  35. カメラ追跡システムであって、ディレクタ/カメラマンが前記フィルムカメラに取り付けられた該カメラ追跡システムを追跡し、パンし、チルトした際に、3次元シーンのリアルタイム解析(単眼視ケース)または即時解析(立体視ケース)と、前記フィルムカメラの追跡とを組み合わせるカメラ追跡システムを提供することを特徴とする請求項1乃至34のいずれか1項に記載のシステム。
  36. 全ての態様のフィルムカメラの、回転、並進、フォーカス、アイリス、焦点距離を含む追跡を完全に自動化し、混合される3次元の前記コンピュータ生成されたコンテンツの拡大縮小、位置決め及び向きを自動化することを特徴とする請求項1乃至35のいずれか1項に記載のシステム。
  37. シーンを定義する、より完全なポイントクラウドを生成するために、該シーンの継続的な解析をリアルタイムに可能にすることを特徴とする請求項1乃至36のいずれか1項に記載のシステム。
  38. 追跡の復帰を容易にするために、前記シーンにおいて検出された特徴点に、ORBを使用することを含む、回転不変量記述子を付与することを特徴とする請求項1乃至37のいずれか1項に記載のシステム。
  39. 事前に正確に計算されたまたは確認された位置を用いて前記フィルムカメラの次の位置を予測するために、前記センサにより提供された情報に関連付けられた等速モデルを使用することを特徴とする請求項1乃至38のいずれか1項に記載のシステム。
  40. 現在のフレームに3次元ポイントクラウドを再投影し、ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、新たな3次元ポイントクラウドにおいて投影されたポイントとのマッチングポイントマッチングアルゴリズムに可能にするために、前記予測を使用することを特徴とする請求項39に記載のシステム。
  41. 前記ウィットネスカメラシステムからのリアルタイム映像フィードにおいて識別されたポイントと、前記新たな3次元ポイントクラウドにおいて投影されたポイントとの間の誤差を最小化するために、カメラ追跡にレーベンバーグ・マーカート最小化方式(Levenberg-Marquardt minimization scheme)を使用することを特徴とする請求項40に記載のシステム。
  42. ユーザは、3次元ガーベジマッティングマスクのような3次元マスクを定義するために、前記カメラ追跡システムにより生成された3次元ポイントクラウドを使用可能であることを特徴とする請求項1乃至41のいずれか1項に記載のシステム。
  43. 前記3次元オブジェクトは、静的オブジェクト、動的アニメーション、仮想ワールド、仮想人物、仮想建造物、仮想風景、仮想フィルムセット、及びアニメーションデータベースのあらゆるデータを含むことを特徴とする請求項1乃至42のいずれか1項に記載のシステム。
  44. 前記フィルムカメラ及びウィットネスカメラは、フレーム取得遅延を、発光したLEDに関連付けられた光強度曲線を比較することによるような、変調された光源を用いる方式でキャリブレーションされることを特徴とする請求項1乃至43のいずれか1項に記載のシステム。
  45. 前記フィルムカメラは、クレーンカメラ、固定カメラ、手持ちカメラ、ドリー取付カメラ、三脚取付カメラ、スマートフォン、拡張現実眼鏡のいずれかであることを特徴とする請求項1乃至44のいずれか1項に記載のシステム。
  46. コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成する方法であって、
    前記フィルムカメラのボディが、3次元に移動可能であり、
    前記カメラ内または前記カメラに取り付けられたセンサが、前記カメラの3次元位置または3次元向きを定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する
    ことを特徴とする方法。
  47. テレビ放送、映画またはビデオゲーム用のリアルタイム拡張現実映像を生成するために、コンピュータ生成された3次元オブジェクトとビデオカメラのようなフィルムカメラからの映像フィードとを混合または合成する方法であって、
    (a)
    前記フィルムカメラのボディは、3次元に移動可能であり、
    前記フィルムカメラ内もしくは前記フィルムカメラに直接的または間接的に取り付けられたセンサが、前記フィルムカメラの3次元位置及び3次元向きを定義する、あるいは前記フィルムカメラの該3次元位置及び3次元向きを算出可能にするリアルタイム位置データを提供し、
    (b)前記リアルタイム位置データは、コンピュータ生成された3次元オブジェクトを生成、リコール、描画または変更するためにシステムにより自動的に用いられ、
    (c)結果として得られる前記コンピュータ生成された3次元オブジェクトは、テレビ放送、映画またはビデオゲーム用の拡張現実映像を提供するために、前記フィルムカメラからの前記映像フィードに混合または前記映像フィードと合成される
    ことを特徴とする方法。
  48. カメラ内のコンピュータ生成されたプリプロダクション3次元アセット、一般的なプリビジュアライゼーションまたは視覚効果アセットを、該カメラにより取得されたライブアクションフィルムプレートまたは映像イメージ上に、ディレクタ(または撮影監督)がリアルタイムにフレームアップ可能にするために用いられ、
    前記ディレクタに、該ディレクタにより観られる映像に自動的に混合された前記コンピュータ生成された3次元アセットを用いて、可能なカメラアングルの探索及び移動をリアルタイムに探索可能にする
    ことを特徴とする上記定義された方法またはシステム。
  49. ポストプロダクション処理用のマッチムーブデータを提供するために、前記リアルタイム位置データは記録され、タイムコードスタンプがなされることを特徴とする上記定義された方法またはシステム。
  50. 仮想オブジェクトまたは画像を、放送映像ストリーム上に挿入可能にするために用いられることを特徴とする上記定義された方法またはシステム。
  51. ・スタジオカメラのリアルタイム追跡
    ・固定カメラのリアルタイム追跡
    ・クレーン取付カメラのリアルタイム追跡
    ・ドリー取付カメラのリアルタイム追跡
    ・固定カメラのリアルタイム追跡
    ・中継放送(OB:Outside Broadcast)のリアルタイム追跡
    ・2次元ポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
    ・3次元立体視コンテンツ用のポストプロダクションのリアルタイムデータ(追跡データを含む)の使用
    ・ネイティブ3次元立体視コンテンツのリアルタイムデータ(追跡データを含む)の使用
    ・3次元グラフィックス挿入
    ・スタジオ内への、またはセットプロダクト・プレイスメントにおける3次元グラフィックス挿入
    ・OB用の3次元グラフィックス挿入
    ・他のスポンサー提供画像用の3次元グラフィックス挿入
    ・観察者位置固有の3次元グラフィックス挿入
    ・観察者固有の3次元グラフィックス挿入
    ・時間固有の3次元グラフィックス挿入
    ・曇天風景書き込み用の3次元グラフィックス挿入
    ・グリーンスクリーン置換用の3次元グラフィックス挿入
    ・博物館、及び文化、歴史又は自然遺産の解析センターにおける学習を補助する教育的コンテンツの3次元グラフィックス挿入
    ・シーン内のオブジェクトの絶対的または相対的サイズの計測
    の1以上を可能ならしめることを特徴とする上記定義された方法またはシステム。
  52. 前記フィルムカメラは
    ・標準範囲を有する全てのカメラ
    ・限定的な光ファイバ接続を必要とするカメラ
    ・RF/無線接続を必要とするカメラ
    のうちの1つであることを特徴とする上記定義された方法またはシステム。
  53. ・フィルム/テレビ(非ライブ)
    ・コマーシャル(非ライブ)
    ・ライブコマーシャル
    ・放送(非スポーツ)
    ・OB放送
    ・スタジオベーススポーツ
    ・OBベーススポーツ
    ・テレビプロダクト・プレイスメントのライブ
    ・インターネット利用(非ライブ)
    ・インターネットライブ
    ・地域ベースインターネットライブ
    ・インターネットプロダクト・プレイスメントのライブ
    ・博物館/文化遺産コンテンツ
    ・博物館/遺産広告
    ・建築
    ・ゲーム
    のうちの1つのマーケットに配備されることを特徴とする上記定義された方法またはシステム。
  54. スマートフォンを含むあらゆる表示装置及び拡張現実眼鏡に拡張現実画像を表示可能にするために用いられ、
    拡張現実画像の外観が、自動的に前記リアルタイム位置データに応じて変更される
    ことを特徴とする上記定義された方法またはシステム。
  55. リアルタイムにコンピュータ生成された3次元オブジェクトが、カメラからの映像フィードと混合され、
    前記カメラのボディは3次元において移動可能であり、
    前記カメラ内または前記カメラに取り付けられたセンサが、前記カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供することを特徴とするフィルム、動画、テレビ番組またはビデオゲーム。
  56. 従来のカメラに取り付けられるよう構成されたシーンを解析及び追跡する装置であって、
    前記カメラのボディは、3次元に移動可能であり、
    前記シーンを解析及び追跡する装置内のハードウェアセンサが、前記カメラの3次元位置を定義する、または該3次元位置を算出可能にするリアルタイム位置データを提供する
    ことを特徴とする装置。
  57. 3次元の参照フレームに対するカメラの3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、前記カメラ内または前記カメラに取り付けられたセンサを有することを特徴とする手持ちまたは携帯型カメラ。
  58. 立体視ウィットネスカメラシステムを含むまたは該システムに取り付けられたフィルムカメラであって、
    前記ウィットネスカメラシステムが、
    広角(180度を含む)の立体視画像を生成し、
    該画像を処理し、該カメラシステムが追跡/移動されることなく即時の3次元ポイントクラウドを生成することをソフトウェアに可能にする
    ことを特徴とするフィルムカメラ。
  59. フィルムカメラに取り付けるためのカメラ追跡システムであって、
    立体視画像を生成し、該画像を処理し、該カメラシステムが移動されることなく、即座の3次元ポイントクラウドを生成して前記フィルムカメラのリアルタイム追跡(位置、向き、ズーム、フォーカス及びアイリス)を提供することをソフトウェアに可能にするウィットネスカメラを有する
    ことを特徴とするシステム。
  60. 3次元の参照フレームに対する眼鏡の3次元位置及び3次元向きを定義する、またはオプティカルフローデータのような他のデータを解析するシステムの全体または一部に該3次元位置を算出可能にするリアルタイム位置データを提供する、前記眼鏡内または前記眼鏡に取り付けられたセンサを有することを特徴とする拡張現実眼鏡。
JP2015510876A 2012-05-09 2013-05-09 コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム Pending JP2015521419A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1208088.3 2012-05-09
GBGB1208088.3A GB201208088D0 (en) 2012-05-09 2012-05-09 Ncam
PCT/GB2013/051205 WO2013167901A1 (en) 2012-05-09 2013-05-09 A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera

Publications (1)

Publication Number Publication Date
JP2015521419A true JP2015521419A (ja) 2015-07-27

Family

ID=46396728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015510876A Pending JP2015521419A (ja) 2012-05-09 2013-05-09 コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成するシステム

Country Status (20)

Country Link
US (4) US9600936B2 (ja)
EP (1) EP2847991B1 (ja)
JP (1) JP2015521419A (ja)
KR (1) KR20150013709A (ja)
CN (1) CN104322052B (ja)
AU (1) AU2013257788B2 (ja)
CA (1) CA2872797A1 (ja)
DK (1) DK2847991T3 (ja)
ES (1) ES2951587T3 (ja)
FI (1) FI2847991T3 (ja)
GB (3) GB201208088D0 (ja)
HK (1) HK1206517A1 (ja)
HR (1) HRP20230832T1 (ja)
HU (1) HUE062417T2 (ja)
IN (1) IN2014DN10462A (ja)
PL (1) PL2847991T3 (ja)
PT (1) PT2847991T (ja)
RS (1) RS64401B1 (ja)
SG (2) SG10201600233SA (ja)
WO (1) WO2013167901A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748341B2 (en) 2017-12-18 2020-08-18 GungHo Online Entertainment, Inc. Terminal device, system, program and method for compositing a real-space image of a player into a virtual space

Families Citing this family (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2984057B1 (fr) 2011-12-13 2014-01-03 Solidanim Systeme de tournage de film video
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US11659138B1 (en) 2013-06-26 2023-05-23 Touchcast, Inc. System and method for interactive video conferencing
US9787945B2 (en) 2013-06-26 2017-10-10 Touchcast LLC System and method for interactive video conferencing
US10356363B2 (en) 2013-06-26 2019-07-16 Touchcast LLC System and method for interactive video conferencing
US10075676B2 (en) 2013-06-26 2018-09-11 Touchcast LLC Intelligent virtual assistant system and method
US10523899B2 (en) 2013-06-26 2019-12-31 Touchcast LLC System and method for providing and interacting with coordinated presentations
US11405587B1 (en) 2013-06-26 2022-08-02 Touchcast LLC System and method for interactive video conferencing
US10757365B2 (en) 2013-06-26 2020-08-25 Touchcast LLC System and method for providing and interacting with coordinated presentations
US9852764B2 (en) 2013-06-26 2017-12-26 Touchcast LLC System and method for providing and interacting with coordinated presentations
US10297284B2 (en) 2013-06-26 2019-05-21 Touchcast LLC Audio/visual synching system and method
US11488363B2 (en) 2019-03-15 2022-11-01 Touchcast, Inc. Augmented reality conferencing system and method
US10084849B1 (en) 2013-07-10 2018-09-25 Touchcast LLC System and method for providing and interacting with coordinated presentations
EP3041217B1 (en) * 2013-09-06 2021-03-31 Sony Corporation Imaging device, method and program
US20150103183A1 (en) * 2013-10-10 2015-04-16 Nvidia Corporation Method and apparatus for device orientation tracking using a visual gyroscope
US10074216B2 (en) * 2013-11-13 2018-09-11 Sony Corporation Information processing to display information based on position of the real object in the image
US9773313B1 (en) * 2014-01-03 2017-09-26 Google Inc. Image registration with device data
KR101678389B1 (ko) * 2014-02-28 2016-11-22 엔트릭스 주식회사 클라우드 스트리밍 기반의 영상데이터 제공 방법, 이를 위한 장치 및 시스템
GB201404990D0 (en) * 2014-03-20 2014-05-07 Appeartome Ltd Augmented reality apparatus and method
WO2015155628A1 (en) * 2014-04-07 2015-10-15 Eyeways Systems Ltd. Apparatus and method for image-based positioning, orientation and situational awareness
US20150289338A1 (en) 2014-04-08 2015-10-08 Revolution Display, Inc. Automatic chroma key background generator with incident key lighting
DE102014006732B4 (de) * 2014-05-08 2016-12-15 Audi Ag Bildüberlagerung von virtuellen Objekten in ein Kamerabild
US10255251B2 (en) 2014-06-26 2019-04-09 Touchcast LLC System and method for providing and interacting with coordinated presentations
US20150381972A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Depth estimation using multi-view stereo and a calibrated projector
EP3176756A4 (en) * 2014-07-28 2017-08-09 Panasonic Intellectual Property Management Co., Ltd. Augmented reality display system, terminal device and augmented reality display method
WO2016019146A1 (en) * 2014-07-30 2016-02-04 Touchcast, Llc System and method for providing and interacting with coordinated presentations
US20160061581A1 (en) * 2014-08-26 2016-03-03 Lusee, Llc Scale estimating method using smart device
DE102014013678B3 (de) * 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9609200B2 (en) 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
GB2533788A (en) * 2014-12-30 2016-07-06 Nokia Technologies Oy Method for determining the position of a portable device
US10284794B1 (en) 2015-01-07 2019-05-07 Car360 Inc. Three-dimensional stabilized 360-degree composite image capture
US9779512B2 (en) * 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials
JP6511283B2 (ja) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 物体検知装置
CN104883514B (zh) * 2015-05-11 2018-11-23 北京金山安全软件有限公司 一种视频处理方法及装置
US10110822B2 (en) 2015-06-09 2018-10-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera
RU2601169C1 (ru) * 2015-06-11 2016-10-27 Виталий Витальевич Аверьянов Способ и устройство для взаимодействия с виртуальными объектами
US9836895B1 (en) 2015-06-19 2017-12-05 Waymo Llc Simulating virtual objects
US9721350B2 (en) 2015-06-26 2017-08-01 Getalert Ltd. Methods circuits devices systems and associated computer executable code for video feed processing
US11002856B2 (en) * 2015-08-07 2021-05-11 King Abdullah University Of Science And Technology Doppler time-of-flight imaging
KR101729165B1 (ko) 2015-09-03 2017-04-21 주식회사 쓰리디지뷰아시아 타임 슬라이스 영상용 오차교정 유닛
KR101729164B1 (ko) * 2015-09-03 2017-04-24 주식회사 쓰리디지뷰아시아 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법
US10404962B2 (en) * 2015-09-24 2019-09-03 Intel Corporation Drift correction for camera tracking
JP6723720B2 (ja) * 2015-10-20 2020-07-15 キヤノン株式会社 表示システム、情報処理方法及びプログラム
DE102015223003A1 (de) * 2015-11-20 2017-05-24 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Überlagerung zumindest eines Teils eines Objekts mit einer virtuellen Oberfläche
KR20170096468A (ko) * 2016-02-16 2017-08-24 한국전자통신연구원 자동 음장 제어 방법 및 자동 음장 제어 장치 및 상기 자동 음장 제어 장치가 제어하는 출력 장치
US9883097B2 (en) * 2016-06-03 2018-01-30 Google Inc. Optical flow based auto focus
US10254546B2 (en) * 2016-06-06 2019-04-09 Microsoft Technology Licensing, Llc Optically augmenting electromagnetic tracking in mixed reality
US10249090B2 (en) 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
NO20161132A1 (en) * 2016-07-07 2017-10-30 Real Training As Training system
US20180046874A1 (en) * 2016-08-10 2018-02-15 Usens, Inc. System and method for marker based tracking
IT201600086875A1 (it) * 2016-08-24 2018-02-24 Osram Gmbh Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti
IT201600086859A1 (it) * 2016-08-24 2018-02-24 Osram Gmbh Procedimento per controllare sorgenti di illuminazione, sistema e prodotto informatico corrispondenti
WO2018048704A1 (en) * 2016-09-06 2018-03-15 Carnegie Mellon University Gaussian mixture model based approximation of continuous belief distributions
CN106231292B (zh) * 2016-09-07 2017-08-25 深圳超多维科技有限公司 一种立体虚拟现实直播方法、装置及设备
TWI612795B (zh) 2016-09-13 2018-01-21 財團法人工業技術研究院 場景掃描方法及系統
JP2019534606A (ja) * 2016-09-19 2019-11-28 インターデジタル ヴイシー ホールディングス, インコーポレイテッド ライトフィールドデータを使用して場面を表す点群を再構築するための方法および装置
CN107945198B (zh) * 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
DE102016119637A1 (de) * 2016-10-14 2018-04-19 Uniqfeed Ag Fernsehübertragungssystem zur Erzeugung angereicherter Bilder
CN107038758B (zh) * 2016-10-14 2020-07-17 北京联合大学 一种基于orb算子的增强现实三维注册方法
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
WO2018089040A1 (en) * 2016-11-14 2018-05-17 Lightcraft Technology Llc Spectator virtual reality system
CN106507091A (zh) * 2016-11-14 2017-03-15 墨宝股份有限公司 一种利用3d动漫拍摄制作真人主题秀影片的方法
KR20180075732A (ko) 2016-12-26 2018-07-05 엘지디스플레이 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10553036B1 (en) * 2017-01-10 2020-02-04 Lucasfilm Entertainment Company Ltd. Manipulating objects within an immersive environment
US20190394509A1 (en) * 2017-01-19 2019-12-26 Sony Interactive Entertainment Inc. Image delivery apparatus
CN106846442B (zh) * 2017-03-06 2019-07-02 西安电子科技大学 基于Unity3D的三维虚拟人群场景生成方法
US10192111B2 (en) 2017-03-10 2019-01-29 At&T Intellectual Property I, L.P. Structure from motion for drone videos
JP6969121B2 (ja) * 2017-03-17 2021-11-24 株式会社リコー 撮像システム、画像処理装置および画像処理プログラム
CN107330911B (zh) * 2017-05-08 2022-01-11 上海交通大学 基于相交约束的纯旋转运动判定方法
US10339714B2 (en) 2017-05-09 2019-07-02 A9.Com, Inc. Markerless image analysis for augmented reality
CN110869980B (zh) 2017-05-18 2024-01-09 交互数字Vc控股公司 将内容分发和呈现为球形视频和3d资产组合
CN111033572B (zh) * 2017-06-02 2023-09-05 苹果公司 用于检测用作虚拟衬底的平面和/或四叉树的方法和设备
KR102662201B1 (ko) * 2017-06-28 2024-04-30 매직 립, 인코포레이티드 콘볼루셔널 이미지 변환을 사용하여 동시 로컬화 및 맵핑을 수행하기 위한 방법 및 시스템
JP7000050B2 (ja) * 2017-06-29 2022-01-19 キヤノン株式会社 撮像制御装置及びその制御方法
CN107463757B (zh) * 2017-08-22 2020-07-28 中国有色金属长沙勘察设计研究院有限公司 一种基于断面结构与转向角度约束的断面插值方法
US20200218279A1 (en) * 2017-08-30 2020-07-09 Qualcomm Incorporated Robust Navigation of a Robotic Vehicle
US10257436B1 (en) * 2017-10-11 2019-04-09 Adobe Systems Incorporated Method for using deep learning for facilitating real-time view switching and video editing on computing devices
US10497122B2 (en) 2017-10-11 2019-12-03 Adobe Inc. Image crop suggestion and evaluation using deep-learning
US10516830B2 (en) 2017-10-11 2019-12-24 Adobe Inc. Guided image composition on mobile devices
WO2019080047A1 (zh) * 2017-10-26 2019-05-02 腾讯科技(深圳)有限公司 增强现实图像的实现方法、装置、终端设备和存储介质
US11146775B2 (en) * 2017-11-07 2021-10-12 Symbol Technologies, Llc Methods and apparatus for dimensioning an object using proximate devices
US10643320B2 (en) 2017-11-15 2020-05-05 Toyota Research Institute, Inc. Adversarial learning of photorealistic post-processing of simulation with privileged information
US10528684B1 (en) * 2017-12-04 2020-01-07 Synopsys, Inc. TCAD design template for fast prototyping of 2D and 3D CMOS image sensors
CN108257206B (zh) * 2017-12-06 2021-04-13 石化盈科信息技术有限责任公司 信息展板展示方法和装置
CN109931923B (zh) * 2017-12-15 2023-07-07 阿里巴巴集团控股有限公司 一种导航引导图的生成方法和装置
KR102166372B1 (ko) * 2017-12-20 2020-10-15 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 방법
US10510145B2 (en) * 2017-12-27 2019-12-17 Industrial Technology Research Institute Medical image comparison method and system thereof
CN108419090A (zh) * 2017-12-27 2018-08-17 广东鸿威国际会展集团有限公司 三维直播流展示系统和方法
CN108289220B (zh) 2018-01-15 2020-11-27 深圳市奥拓电子股份有限公司 虚拟图像处理方法、图像处理系统及存储介质
CN108280882B (zh) * 2018-01-24 2021-12-31 北京德火新媒体技术有限公司 一种在虚拟显示空间植入ar前景物品位置的方法及系统
CA3031276A1 (en) 2018-02-08 2019-08-08 Ascension Technology Corporation Compensating for distortion in an electromagnetic tracking system
CN108447116A (zh) * 2018-02-13 2018-08-24 中国传媒大学 基于视觉slam的三维场景重建方法和装置
CN108540731A (zh) * 2018-04-17 2018-09-14 北京艾沃次世代文化传媒有限公司 实拍摄影机与虚拟场景实时同步显示方法
CN108259780A (zh) * 2018-04-17 2018-07-06 北京艾沃次世代文化传媒有限公司 用于虚拟片场抗干扰特效视频同步显示方法
CN108551557B (zh) * 2018-04-20 2022-02-08 北京艾沃次世代文化传媒有限公司 后期前置数字虚拟片场系统
KR102567947B1 (ko) * 2018-05-03 2023-08-17 한국전자통신연구원 G-code를 이용한 3D 프린팅 관리 방법 및 장치
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10475248B1 (en) 2018-06-08 2019-11-12 Microsoft Technology Licensing, Llc Real-time compositing in mixed reality
CN110148178B (zh) * 2018-06-19 2022-02-22 腾讯科技(深圳)有限公司 相机定位方法、装置、终端及存储介质
CN108921791A (zh) * 2018-07-03 2018-11-30 苏州中科启慧软件技术有限公司 基于自适应重要性学习的轻量级图像超分辨率改进方法
US10580218B1 (en) * 2018-07-12 2020-03-03 Facebook, Inc. Augmented-reality image processing
CN109064536B (zh) * 2018-07-27 2022-12-06 电子科技大学 一种基于双目结构光的书页三维重建方法
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US10762394B2 (en) 2018-07-31 2020-09-01 Intel Corporation System and method for 3D blob classification and transmission
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US11212506B2 (en) * 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
CN109089100B (zh) * 2018-08-13 2020-10-23 西安理工大学 一种双目立体视频的合成方法
CN109168034B (zh) * 2018-08-28 2020-04-28 百度在线网络技术(北京)有限公司 商品信息显示方法、装置、电子设备和可读存储介质
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
DE102019127349A1 (de) 2018-10-10 2020-04-16 Intel Corporation Punktwolkencodierungsstandard-konformitätsdefintion in computerumgebungen
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
CN109509261B (zh) * 2018-11-26 2023-07-25 端美科技(中山)有限公司 一种增强现实的方法、装置及计算机存储介质
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US11092966B2 (en) * 2018-12-14 2021-08-17 The Boeing Company Building an artificial-intelligence system for an autonomous vehicle
WO2020131037A1 (en) * 2018-12-18 2020-06-25 Rovi Guides, Inc. Systems and methods for automated tracking on a handheld device using a remote camera
JP7478740B2 (ja) 2018-12-19 2024-05-07 アニペン カンパニー リミテッド アニメーションシーケンスを生成する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
US20200210676A1 (en) 2018-12-27 2020-07-02 Simplex Mapping Solutions Sb Ltd. Compact interval sweeping imaging system and method
US11972589B2 (en) * 2019-01-09 2024-04-30 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device
CN109816764B (zh) * 2019-02-02 2021-06-25 深圳市商汤科技有限公司 图像生成方法及装置、电子设备和存储介质
GB2581792B (en) * 2019-02-25 2023-01-04 Mo Sys Engineering Ltd Lens calibration system
CN109859256B (zh) * 2019-03-13 2023-03-31 大连理工大学 一种基于自动对应点匹配的三维点云配准方法
US11212514B2 (en) * 2019-03-25 2021-12-28 Light Field Lab, Inc. Light field display system for cinemas
CN109842811B (zh) * 2019-04-03 2021-01-19 腾讯科技(深圳)有限公司 一种在视频中植入推送信息的方法、装置及电子设备
WO2020219865A1 (en) * 2019-04-24 2020-10-29 Matthew Walker System and method for real-time camera tracking to form a composite image
CN110123453B (zh) * 2019-05-31 2021-07-23 东北大学 一种基于无标记增强现实的手术导航系统
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
CN110446020A (zh) * 2019-08-03 2019-11-12 魏越 沉浸式堪景方法、装置、存储介质及设备
GB2586831A (en) * 2019-09-05 2021-03-10 Wolf In Motion Ltd Three-Dimensional Content Generation using real-time video compositing
KR102196032B1 (ko) * 2019-10-21 2020-12-29 한국과학기술원 6 자유도 가상현실을 위한 다중 360 이미지 기반의 자유시점 이미지 합성 방법 및 그 시스템
EP4051463A4 (en) * 2019-10-29 2023-11-08 ABB Schweiz AG ROBOTIC CALIBRATION AND TUNING SYSTEM AND METHOD
CN111222401B (zh) * 2019-11-14 2023-08-22 北京华捷艾米科技有限公司 一种手部关键点三维坐标的识别方法及装置
CN111008305B (zh) * 2019-11-29 2023-06-23 百度在线网络技术(北京)有限公司 一种视觉搜索方法、装置以及电子设备
CN110931121A (zh) * 2019-11-29 2020-03-27 重庆邮电大学 一种基于Hololens的远程手术指导装置及操作方法
US12106427B2 (en) 2019-12-13 2024-10-01 Sony Group Corporation Rendering back plates
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
CN111080629B (zh) * 2019-12-20 2021-10-22 河北工业大学 一种图像拼接篡改的检测方法
KR20220119664A (ko) 2019-12-20 2022-08-30 나이앤틱, 인크. 3d 라인 정션을 통한 위치 판정 및 매핑
US11748844B2 (en) 2020-01-08 2023-09-05 Carvana, LLC Systems and methods for generating a virtual display of an item
US20210245047A1 (en) 2020-02-10 2021-08-12 Intel Corporation Continuum architecture for cloud gaming
EP4107605A1 (en) * 2020-02-20 2022-12-28 Arti D2 Ltd. Apparatus and methods for publishing video content
CN111461981B (zh) * 2020-03-30 2023-09-01 北京百度网讯科技有限公司 点云拼接算法的误差估计方法和装置
IL275163B (en) * 2020-06-04 2022-07-01 Elbit Systems Ltd System and method for displaying scene information
US11043041B1 (en) 2020-07-10 2021-06-22 Mindshow Inc. Systems and methods configured to facilitate animation
US11514674B2 (en) * 2020-09-04 2022-11-29 Zillow, Inc. Automated analysis of image contents to determine the acquisition location of the image
CN112367514B (zh) * 2020-10-30 2022-12-09 京东方科技集团股份有限公司 三维场景构建方法、装置、系统和存储介质
CN112767412B (zh) * 2020-12-31 2024-04-12 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
WO2022225145A1 (ko) * 2021-04-21 2022-10-27 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11762481B2 (en) * 2021-04-23 2023-09-19 Lucasfilm Entertainment Company Ltd. Light capture device
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system
CN113286163B (zh) * 2021-05-21 2022-07-08 成都威爱新经济技术研究院有限公司 一种用于虚拟拍摄直播的时间戳误差标定方法及系统
CN113240782B (zh) * 2021-05-26 2024-03-22 完美世界(北京)软件科技发展有限公司 基于虚拟角色的流媒体生成方法及装置
EP4348375A4 (en) * 2021-06-03 2024-04-10 Elbit Systems Ltd. SYSTEM AND METHOD FOR PROVIDING SCENE INFORMATION
CN115543065A (zh) 2021-06-29 2022-12-30 富联国基(上海)电子有限公司 一种扩增实境环境中物件的展示方法与系统
TWI771086B (zh) * 2021-06-29 2022-07-11 新加坡商鴻運科股份有限公司 一種擴增實境環境中物件的展示方法與系統
CN113345022B (zh) * 2021-07-05 2023-02-17 湖南快乐阳光互动娱乐传媒有限公司 动态三维广告植入方法、装置、电子设备及存储介质
CN113627983A (zh) * 2021-08-10 2021-11-09 广州六六网络科技有限公司 一种基于视频创意的网络广告推广方法及系统
US20230230152A1 (en) * 2022-01-14 2023-07-20 Shopify Inc. Systems and methods for generating customized augmented reality video
US11948257B2 (en) * 2022-05-09 2024-04-02 Rovi Guides, Inc. Systems and methods for augmented reality video generation
KR102453561B1 (ko) * 2022-07-08 2022-10-14 이엑스 주식회사 가상 스튜디오의 복합 센서 기반 다중 추적 카메라 시스템의 동작 방법
EP4369700A1 (en) * 2022-11-08 2024-05-15 Hexagon Geosystems Services AG Method and system for tracking camera poses
WO2024190223A1 (en) * 2023-03-15 2024-09-19 Sony Group Corporation Cinema camera tracking using an ir tracking camera and calibration for virtual production

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222116A (ja) * 1999-01-29 2000-08-11 Sony Corp 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
US20070248283A1 (en) * 2006-04-21 2007-10-25 Mack Newton E Method and apparatus for a wide area virtual scene preview system
JP2009139995A (ja) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
JP2012068861A (ja) * 2010-09-22 2012-04-05 Casio Comput Co Ltd Ar処理装置、ar処理方法及びプログラム

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69225156T2 (de) * 1991-02-01 1998-11-05 Canon Kk Konvertierer für Kamera mit auswechselbaren Linsen
US5991085A (en) * 1995-04-21 1999-11-23 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US6373489B1 (en) * 1999-01-12 2002-04-16 Schlumberger Technology Corporation Scalable visualization for interactive geometry modeling
US7084867B1 (en) * 1999-04-02 2006-08-01 Massachusetts Institute Of Technology Haptic interface system for collision detection and applications therefore
US6563105B2 (en) * 1999-06-08 2003-05-13 University Of Washington Image acquisition with depth enhancement
DE10044032A1 (de) * 2000-09-06 2002-03-14 Deutsche Telekom Ag 3-D Sehen
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
US20030076981A1 (en) * 2001-10-18 2003-04-24 Smith Gregory Hugh Method for operating a pre-crash sensing system in a vehicle having a counter-measure system
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
US20030202120A1 (en) * 2002-04-05 2003-10-30 Mack Newton Eliot Virtual lighting system
US7138963B2 (en) * 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
JP4235522B2 (ja) * 2003-09-25 2009-03-11 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US7391424B2 (en) 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US7671893B2 (en) * 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
US20060244831A1 (en) * 2005-04-28 2006-11-02 Kraft Clifford H System and method for supplying and receiving a custom image
US7840042B2 (en) * 2006-01-20 2010-11-23 3M Innovative Properties Company Superposition for visualization of three-dimensional data acquisition
JP4810295B2 (ja) * 2006-05-02 2011-11-09 キヤノン株式会社 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
US7558771B2 (en) * 2006-06-07 2009-07-07 Gm Global Technology Operations, Inc. System and method for selection of prediction tools
WO2008033856A1 (en) * 2006-09-11 2008-03-20 3Ality Digital, Llc 3d augmentation of traditional photography
JP2008219788A (ja) 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
US8274530B2 (en) * 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP4689639B2 (ja) * 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
CN101464999B (zh) * 2007-12-19 2011-01-05 鸿富锦精密工业(深圳)有限公司 三维色阶比对系统及方法
GB2456802A (en) * 2008-01-24 2009-07-29 Areograph Ltd Image capture and motion picture generation using both motion camera and scene scanning imaging systems
US8401276B1 (en) * 2008-05-20 2013-03-19 University Of Southern California 3-D reconstruction and registration
EP2297705B1 (fr) * 2008-06-30 2012-08-15 Thomson Licensing Procede de composition temps reel d'une video
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
WO2010029040A2 (en) * 2008-09-11 2010-03-18 University Of Malta Method and apparatus for generating and transmitting synchronized video data
CN102246121B (zh) * 2008-12-25 2016-01-13 松下知识产权经营株式会社 信息显示装置和信息显示方法
WO2010087751A1 (en) * 2009-01-27 2010-08-05 Telefonaktiebolaget Lm Ericsson (Publ) Depth and video co-processing
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8494225B2 (en) * 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20110222757A1 (en) * 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
KR101335391B1 (ko) * 2010-04-12 2013-12-03 한국전자통신연구원 영상 합성 장치 및 그 방법
US8553989B1 (en) * 2010-04-27 2013-10-08 Hrl Laboratories, Llc Three-dimensional (3D) object recognition system using region of interest geometric features
US9699438B2 (en) 2010-07-02 2017-07-04 Disney Enterprises, Inc. 3D graphic insertion for live action stereoscopic video
US8600194B2 (en) * 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography
US9325960B2 (en) * 2011-11-07 2016-04-26 Autodesk, Inc. Maintenance of three dimensional stereoscopic effect through compensation for parallax setting
WO2013086076A1 (en) 2011-12-06 2013-06-13 Telecommunication Systems, Inc. Unattended authentication in a secondary authentication service for wireless carriers
FR2984057B1 (fr) * 2011-12-13 2014-01-03 Solidanim Systeme de tournage de film video
US9529426B2 (en) * 2012-02-08 2016-12-27 Microsoft Technology Licensing, Llc Head pose tracking using a depth camera
US20130215229A1 (en) * 2012-02-16 2013-08-22 Crytek Gmbh Real-time compositing of live recording-based and computer graphics-based media streams
US8633970B1 (en) * 2012-08-30 2014-01-21 Google Inc. Augmented reality with earth data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222116A (ja) * 1999-01-29 2000-08-11 Sony Corp 表示画像の位置認識方法とその位置認識装置および仮想画像立体合成装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
US20070248283A1 (en) * 2006-04-21 2007-10-25 Mack Newton E Method and apparatus for a wide area virtual scene preview system
JP2009139995A (ja) * 2007-12-03 2009-06-25 National Institute Of Information & Communication Technology ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
JP2012068861A (ja) * 2010-09-22 2012-04-05 Casio Comput Co Ltd Ar処理装置、ar処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤井博文 外4名: "拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ", 信学技報, vol. 99, no. 574, JPN6015050664, 20 January 2000 (2000-01-20), JP, pages 1 - 8, ISSN: 0003219319 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748341B2 (en) 2017-12-18 2020-08-18 GungHo Online Entertainment, Inc. Terminal device, system, program and method for compositing a real-space image of a player into a virtual space

Also Published As

Publication number Publication date
PL2847991T3 (pl) 2023-09-11
AU2013257788A1 (en) 2014-11-20
BR112014027853A2 (pt) 2017-06-27
CA2872797A1 (en) 2013-11-14
AU2013257788B2 (en) 2017-09-14
US9600936B2 (en) 2017-03-21
CN104322052A (zh) 2015-01-28
SG10201600233SA (en) 2016-02-26
WO2013167901A1 (en) 2013-11-14
RS64401B1 (sr) 2023-08-31
HUE062417T2 (hu) 2023-11-28
AU2013257788A2 (en) 2014-12-11
PT2847991T (pt) 2023-08-17
GB201308377D0 (en) 2013-06-19
US20160005234A1 (en) 2016-01-07
GB2503563A (en) 2014-01-01
CN104322052B (zh) 2018-03-20
GB2503563B (en) 2016-03-16
FI2847991T3 (fi) 2023-08-03
US11721076B2 (en) 2023-08-08
GB2535596A (en) 2016-08-24
GB201208088D0 (en) 2012-06-20
SG11201407093UA (en) 2014-11-27
US20220076501A1 (en) 2022-03-10
KR20150013709A (ko) 2015-02-05
ES2951587T3 (es) 2023-10-23
EP2847991B1 (en) 2023-05-03
EP2847991A1 (en) 2015-03-18
US11182960B2 (en) 2021-11-23
HRP20230832T1 (hr) 2023-11-10
DK2847991T3 (da) 2023-08-07
US20230386148A1 (en) 2023-11-30
IN2014DN10462A (ja) 2015-08-21
US20150084951A1 (en) 2015-03-26
GB201521863D0 (en) 2016-01-27
GB2535596B (en) 2016-12-28
HK1206517A1 (en) 2016-01-08

Similar Documents

Publication Publication Date Title
US20230386148A1 (en) System for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
US11721067B2 (en) System and method for virtual modeling of indoor scenes from imagery
Hedman et al. Instant 3d photography
US9495761B2 (en) Environment mapping with automatic motion model selection
Wagner et al. Real-time panoramic mapping and tracking on mobile phones
Rander et al. Virtualized reality: Constructing time-varying virtual worlds from real world events
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
Oskiper et al. Augmented reality binoculars
Baker et al. Splat: Spherical localization and tracking in large spaces
Wientapper et al. Reconstruction and accurate alignment of feature maps for augmented reality
Kaur et al. Computer vision and sensor fusion for efficient hybrid tracking in augmented reality systems
Laskar et al. Robust loop closures for scene reconstruction by combining odometry and visual correspondences
Kumar et al. 3D manipulation of motion imagery
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
Azzari et al. Markerless augmented reality using image mosaics
Shi et al. A Review and Comparison on Video Stabilization Alorithms
BR112014027853B1 (pt) Sistema e método sem marcadores para mixagem ou composição em tempo real de objetos 3d gerados em computador e um sinal de vídeo de uma câmera de vídeo
Naweed et al. Enhancement of 3D capture of room-sized dynamic scenes with Pan-Tilt-Zoom cameras
Wang Hybrid panoramic visual SLAM and point cloud color mapping
Simões Augmented reality applied to the industry
Tan Virtual imaging in sports broadcasting: an overview
Kim et al. Robust relocalization and its evaluation for online environment map construction
Ventura Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality
Li et al. Camera tracking in virtual studio
Lieberknecht Contributions to Real-time Visual Tracking and Live Environment Modeling for Augmented Reality Applications: Design and Implementation of New Methods and Evaluations on Real Image-based Ground Truth Data

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161209