JP2022554408A - カメラ追跡におけるソースのフィルタリング及び平滑化 - Google Patents

カメラ追跡におけるソースのフィルタリング及び平滑化 Download PDF

Info

Publication number
JP2022554408A
JP2022554408A JP2022526779A JP2022526779A JP2022554408A JP 2022554408 A JP2022554408 A JP 2022554408A JP 2022526779 A JP2022526779 A JP 2022526779A JP 2022526779 A JP2022526779 A JP 2022526779A JP 2022554408 A JP2022554408 A JP 2022554408A
Authority
JP
Japan
Prior art keywords
tracking
tracking information
track
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022526779A
Other languages
English (en)
Other versions
JP7467624B2 (ja
Inventor
フィリックス サウアーマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022554408A publication Critical patent/JP2022554408A/ja
Application granted granted Critical
Publication of JP7467624B2 publication Critical patent/JP7467624B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2228Video assist systems used in motion picture production, e.g. video cameras connected to viewfinders of motion picture cameras or related video signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

ビデオ処理は、複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムを使用して、第1の追跡情報を生成するステップであって、第1の追跡情報は、ショット内の複数のフレームに同期されるカメラの6自由度の運動についての情報を含む、ステップと、ビデオシーケンス中に移動するカメラに結合される第2の追跡システムを使用して、第2の追跡情報を生成するステップであって、第2の追跡情報は、ショット内の複数のフレームに同期されるカメラの6自由度の運動についての情報を含む、ステップと、追跡ツールによって、第1の追跡情報のための第1のトラックと第2の追跡情報のための第2のトラックとを含むタイムラインを生成するステップであって、追跡ツールは、第1の追跡システム及び第2の追跡システムに結合されて、第1の追跡情報及び第2の追跡情報を受け取る、ステップと、を含む。【選択図】図1

Description

[0001] 本開示は、ビデオデータの処理に関し、具体的には、カメラ追跡におけるソースのフィルタリング及び平滑化に関する。
[0002] ビデオ制作のための従来のシステムでは、単一のカメラ追跡システムを使用してカメラの空間座標を追跡すると、追跡データが欠落するか又は追跡データに異常が生じた時に、ビデオレンダリング動作の失敗を引き起こす可能性がある。
[0003] 本開示は、ビデオデータの処理を提供する。
[0004] 1つの実装では、ビデオ処理のための方法を開示する。前記方法は、複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムを使用して、第1の追跡情報を生成するステップであって、前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ステップと、前記ビデオシーケンス中に移動する前記カメラに結合される第2の追跡システムを使用して、第2の追跡情報を生成するステップであって、前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ステップと、追跡ツールによって、前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを生成するステップであって、前記追跡ツールは、前記第1の追跡システム及び前記第2の追跡システムに結合されて、前記第1の追跡情報及び前記第2の追跡情報を受け取る、ステップと、を含む。
[0005] 1つの実装では、前記第1の追跡システムは、光学追跡システムである。1つの実装では、前記第2の追跡システムは、ハードウェアエンコードヘッドである。1つの実装では、前記方法は、前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにするステップ、を更に含む。1つの実装では、前記方法は、前記追跡ツールによって、前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させるステップ、を更に含む。1つの実装では、前記方法は、前記追跡ツールによって、前記第1のトラックの前記同期された第1の追跡情報と、前記第2のトラックの前記同期された第2の追跡情報とを使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化するステップ、を更に含む。1つの実装では、前記調整された追跡情報を生成するステップは、キーフレームを使用して、前記第1のトラックの前記同期された第1の追跡情報又は前記第2のトラックの前記同期された第2の追跡情報のうちの1つにバイアスを適用することによって、調整されたタイムラインを生成するステップ、を含む。1つの実装では、前記調整されたタイムラインを生成するステップは、前記タイムラインをリアルタイムで調整するステップを含む。1つの実装では、前記調整されたタイムラインを生成するステップは、前記タイムラインをポストプロダクションで調整するステップを含む。
[0006] 別の実装では、ビデオ処理のためのシステムを開示する。前記システムは、カメラと、前記カメラに接続される第1の追跡システムであって、前記第1の追跡システムは、前記カメラが複数のフレームを含むショットを形成するビデオシーケンス中に移動している時に、前記カメラについての第1の追跡情報を生成し、前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、第1の追跡システムと、第2の追跡システムであって、前記第2の追跡システムは、前記カメラが前記ビデオシーケンス中に移動している時に、前記カメラについての第2の追跡情報を生成し、前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、第2の追跡システムと、前記第1の追跡システム及び前記第2の追跡システムに接続されて、前記第1の追跡情報及び前記第2の追跡情報を受け取り、前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを作成する追跡ツールと、を含む。
[0007] 1つの実装では、前記第1の追跡システムは、光学追跡システムである。1つの実装では、前記第2の追跡システムは、ハードウェアエンコードヘッドである。1つの実装では、前記システムは、前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させるための同期化ツール、を更に含む。1つの実装では、前記システムは、前記同期化ツールから受け取られる、前記同期された第1の追跡情報及び前記同期された第2の追跡情報を使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化するためのトラックマネージャ、を更に含む。1つの実装では、前記システムは、キーフレームを使用して、前記第1のトラックの前記同期された第1の追跡情報又は前記第2のトラックの前記同期された第2の追跡情報のうちの1つにバイアスを適用することによって、調整されたタイムラインを生成するためのバイアス適用部、を更に含む。1つの実装では、前記システムは、前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにするためのミキサ、を更に含む。
[0008] 別の実装では、ビデオを取り込むためのコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体を開示する。前記コンピュータプログラムは実行可能命令を含み、前記実行可能命令は、コンピュータに、複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムから受け取られる追跡データから、第1の追跡情報を生成することであって、前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ことと、前記ビデオシーケンス中に移動する前記カメラに結合される第2の追跡システムから受け取られる追跡データから、第2の追跡情報を生成することであって、前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ことと、前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを生成することと、を行わせる。
[0009] 1つの実装では、前記プログラムは、前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させること、を前記コンピュータに行わせる実行可能命令を更に含む。1つの実装では、前記プログラムは、前記第1のトラックの前記同期された第1の追跡情報と、前記第2のトラックの前記同期された第2の追跡情報とを使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化すること、を前記コンピュータに行わせる実行可能命令を更に含む。1つの実装では、前記プログラムは、前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにすること、を前記コンピュータに行わせる実行可能命令を更に含む。
[0010] 本開示の態様を一例として示す本明細書からは、他の特徴及び利点も明らかになるはずである。
[0011] 添付図面を検討することにより、本開示の詳細をその構造及び動作の両方に関して部分的に収集することができる。
本開示の1つの実装によるビデオレンダリングのための方法のフロー図である。 本開示の1つの実装によるビデオシステムのブロック図である。 本開示の1つの実装による追跡ツールの詳細なブロック図である。 本開示の1つの実装による4つのトラックの位置追跡データのタイムライン図である。 本開示の実装による、コンピュータシステム及びユーザの図である。 本開示の実装による、ビデオ処理アプリケーションをホストするコンピュータシステムを示す機能ブロック図である。
[0018] 上記のように、(ビデオ制作のための従来のシステムにおいて)単一のカメラ追跡システムを使用してカメラの空間座標を追跡すると、追跡データが欠落するか又は追跡データに異常が生じた時に、ビデオレンダリング動作の失敗を引き起こす可能性がある。
[0019] 本開示の特定の実装は、ビデオデータを処理するための新しい技術を実装するための方法及びシステムを提供する。1つの実装では、複数のカメラ追跡システム及びエンコーダを使用して、カメラの空間座標を追跡する。したがって、複数のカメラ追跡システム及び/又はエンコーダを使用することは、追跡精度及び品質を精細化するのを助けることができ、また、万一カメラのうちの1又は2以上が失敗した場合には、冗長性を作成する。
[0020] 以下の説明を読んだ後には、様々な実装及び用途における本開示の実施方法が明らかになるであろう。本明細書では本開示の様々な実装について説明するが、これらの実装は、限定ではなく一例として提示するものにすぎないと理解されたい。したがって、様々な実装についての詳細な説明は、本開示の範囲又は外延を限定するものとして解釈すべきではない。
[0021] 以下の実装で提供する特徴は、以下の項目のうちの1又は2以上を含むことができるが、これらに限定されない。例えば、1つの実装では、複数の追跡データ及び/又はエンコーダセットをツールにして、ツールは、全てのデータストリームを結合して同期させる。ツールは、タイムライン上のそれぞれのサブトラックを含むトラックとして、データセットを提示する。次に、オペレータは、誤ったデータの場合、データのどの部分又はトラックを使用すべきか又は平滑化すべきかを選択することができる。したがって、ツールは、データセットからマスタトラックを作成して、処理されたデータを(例えばfilmbox(FBX)フォーマットで)エクスポートする能力を、オペレータに提供する。
[0022] 図1は、本開示の1つの実装によるビデオレンダリングのための方法100のフロー図である。図1に示す実装では、ステップ110において、複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムによって、第1の追跡情報を生成する。1つの実装では、第1の追跡情報は、ショット内の複数のフレームに同期されるカメラの6自由度の運動についての情報を含む。
[0023] 次に、ステップ120において、ビデオシーケンス中に移動するカメラに結合される第2の追跡システムによって、第2の追跡情報を生成する。1つの実装では、第2の追跡情報は、ショット内の複数のフレームに同期されるカメラの6自由度の運動についての情報を含む。ステップ130において、第1の追跡情報及び第2の追跡情報を受け取り、次に、ステップ140において、追跡ツールによって、第1の追跡情報のための第1のトラックと第2の追跡情報のための第2のトラックとを含むタイムラインを作成する。
[0024] 1つの実装では、カメラは、第1の追跡システム(例えば光学追跡システム)と、第2の追跡システム(例えばハードウェアエンコードヘッド)とを備える。更に、第1の追跡システムは、カメラについての第1の追跡情報を出力し、一方、第2の追跡システムは、カメラについての第2の追跡情報を出力する。1つの実装では、第1の追跡システム及び第2の追跡システムの各々は、カメラの6自由度及びワールドオフセットについての情報を配信する。
[0025] 第1の追跡システム及び第2の追跡システムからの追跡されたデータは、一般に良好であるが、システムのうちの1又は2以上からの入力データは、間欠的に欠落するか又はずれる場合がある。したがって、欠落/ずれは、ビデオシステムが単一の追跡システム又はヘッドからのデータにのみ依拠する場合、別の問題を引き起こす場合がある。したがって、ビデオシステムは、複数の追跡システムを含み、冗長性を提供する。ビデオシステムは、また、追跡ツール(又はソフトウェア)を含み、複数の追跡システムからの複数のデータセットを収集して、カメラデータの複数のトラックを含むタイムラインを生成することを可能にする。
[0026] 1つの実装では、カメラトラックデータのトラックの全てが受け取られると、追跡ツールは、各トラックのカメラトラックデータをタイムコード(又はフレーム毎秒)に同期させる。ここで、ステップ150において、他のトラックからのカメラトラックデータを用いて、受け取られたデータの異常を認識、平滑化、及び補償するか、又は完全に消去することができる。ソフトウェアソリューションを介して、全てのトラック及びサブトラックを自由に混合して、新たなマスタトラックにすることもできる。これにより、キーフレーム又は他の同様の技術を使用して、トラックのいずれか1つにバイアスを適用することもできる。更に、1つの実装では、上記の技術は、ライブ(すなわちリアルタイム)及びポストプロダクションの両方に使用可能である。別の実装では、組み合わせて使用される追跡システムの数に制限がない。代替の実装では、様々な種類の追跡システム又は機構を使用することができる。キャプチャカメラの位置及び回転についての情報をユーザに与える任意のシステムを使用して、追加の追跡情報を提供することができる。
[0027] 図2Aは、本開示の1つの実装によるビデオシステム200のブロック図である。図2Aに示す実装では、ビデオシステム200は、ビデオ制作又はスタジオ環境で使用される。システム200は、被写体及び/又はシーン210の画像取り込みのための1又は2以上のカメラ220、224と、カメラの空間座標(例えば、位置及び向き)を追跡するための1又は2以上のセンサ/トラッカ230、232と、カメラデータ及びセンサデータを処理するためのプロセッサ240とを含む。したがって、1つの実装では、システム200は、2つのカメラトラッカ230、232を使用して、各カメラに対して2つのデータセット、合計で4つのトラックデータセットを作成する。
[0028] 図2Aに示す実装では、トラッカ230、232の各々は、複数のフレームを有するショットを形成するビデオシーケンス中のカメラ220、224の空間座標を追跡する。1つの実装では、カメラの空間座標は、カメラの位置を含む。別の実装では、カメラの空間座標は、カメラの向きを含む。
[0029] 1つの実装では、カメラ220、224の各々は、光学追跡システム及び/又はハードウェアエンコードヘッドを備える。例えば、カメラ220は、光学追跡システム222及び/又はヘッド223を含み、カメラ224は、光学追跡システム226及び/又はヘッド227を含む。1つの実装では、ヘッド223、227は、エンコードヘッド、リモートヘッド、又はクレーンを含む運動制御システムとすることができる。更に、追跡システム222、226及び/又はヘッド223、227は、カメラ220、224の6自由度及びワールドオフセットについての情報を配信する。1つの実装では、システム222、223、226、227からの追跡されたデータは、トラッカ230、232によって取り込まれる及び/又は検知される。
[0030] システム222、223、226、227からの追跡されたデータは、一般に良好であるが、システム222、223、226、227のうちの1つ(例えばシステム222)からの入力データは、間欠的に欠落するか又はずれる場合がある。したがって、欠落/ずれは、ビデオシステム200が単一の追跡システム又はヘッドからのデータにのみ依拠する場合、別の問題を引き起こす場合がある。したがって、ビデオシステム200は、複数の追跡システム222、223、226、227及び複数のトラッカ230、232を含み、冗長性を提供する。ビデオシステム200は、また、プロセッサ240に結合される又はプロセッサ240内にある追跡ツール242(又はソフトウェア)を含み、トラッカ230、232からの複数のデータセットを収集して、カメラデータの複数のトラック及びそれぞれのサブトラックを含むタイムラインにすることを可能にする。
[0031] 1つの実装では、(サブトラックを有する)各トラックは、以下のカメラデータを含む。例えば、第1のトラックデータは、光学追跡システム222からのデータを使用してトラッカ230によって追跡されるカメラ220の空間座標を含む。したがって、第1のトラックデータは、仮想カメラのワールドオフセットからの平行移動を追跡するために使用されるX,Y,Z座標を含む第1のサブトラックと、仮想カメラのローカル回転を追跡するために使用されるピッチ、ヨー及びロール軸を含む第2のサブトラックとを含む。1つの実装では、仮想カメラの原点(すなわち0,0,0)は、物理的レンズのノーダルポイント、又はフィルムプレーンの中心である。別の例では、第2のトラックデータは、光学追跡システム226からのデータを使用してトラッカ230によって追跡されるカメラ224の空間座標を含む。したがって、第2のトラックデータは、仮想カメラのワールドオフセットからの平行移動を追跡するために使用されるX,Y,Z座標を含む第1のサブトラックと、仮想カメラのローカル回転を追跡するために使用されるピッチ、ヨー及びロール軸を含む第2のサブトラックとを含む。以上の説明と同様に、追加のトラックデータを形成することができる。
[0032] 1つの実装では、カメラトラックデータのトラックの全てが受け取られると、追跡ツール242は、各トラックのカメラトラックデータをタイムコード(又はフレーム毎秒)に同期させる。ここで、他のトラックのデータを用いて、誤ったデータを認識、平滑化、及び補償するか、又は完全に消去することができる。ソフトウェアソリューションを介して、全てのトラック及びサブトラックを自由に混合して、新たなマスタトラックにすることもできる。これにより、キーフレーム又は他の同様の技術を使用して、トラックのいずれか1つにバイアスを適用することもできる。更に、1つの実装では、上記の技術は、ライブ(すなわちリアルタイム)及びポストプロダクションの両方に使用可能である。別の実装では、組み合わせて使用されるシステムの数に制限がない。代替の実装では、様々な種類の追跡システム又は機構を使用することができる。キャプチャカメラの位置及び回転についての情報をユーザに与える任意のシステムを使用して、追加の追跡情報を提供することができる。
[0033] 図2Aに示す実装では、プロセッサ240は、カメラ220、224に結合される。1つの実装では、プロセッサ240は、ショット中の各カメラ220又は224のレンズに対応するレンズデータを格納するレンズプロファイルを生成する。1つの実装では、レンズデータをショットのそれぞれのフレームに同期させる。別の実装では、レンズデータをタイムコードに同期させる。
[0034] 1つの実装では、プロセッサ240は、制作中にリアルタイムで、レンズプロファイルを生成して、レンズデータの複数のトラックを取り込む。レンズデータは、(1)アクティブセンサの次元/フィルムプレーン/イメージャの測定、(2)ノーダルポイントまでのイメージプレーン距離、(3)ズーム及びレンズブリージングを考慮するカメラの焦点距離、(4)レンズ歪みプロファイル、(5)画像中心のずれ、(6)レンズ絞り、及び(7)フォーカス距離を含む。
[0035] 1つの実装では、プロセッサ240は、また、カメラキャプチャデータの選択された(単複の)トラックからのカメラ220、224の移動を再トレースして、フレームごとにレンズ及びその特性を模倣して、レンダラ246を通じて被写体及び/又はシーン210のショットを仮想的に複製するためのレンダエンジン244を含む。
[0036] 図2Bは、本開示の1つの実装による追跡ツール242の詳細なブロック図である。図2Bに示す実装では、追跡ツール242は、トラックマネージャ242aと、同期化ツール242bと、バイアス適用部242cと、ミキサ242dとを含む。1つの実装では、同期化ツール242bは、第1の追跡情報及び第2の追跡情報をタイムコードに同期させる。1つの実装では、トラックマネージャ242aは、同期化ツールから受け取られる、同期された第1の追跡情報及び同期された第2の追跡情報を使用して、調整された追跡情報を生成して、第1の追跡情報内の異常データを平滑化する。1つの実装では、バイアス適用部242cは、キーフレームを使用して、第1のトラックの同期された第1の追跡情報又は第2のトラックの同期された第2の追跡情報のうちの1つにバイアスを適用することによって、調整されたタイムラインを生成する。1つの実装では、ミキサ242dは、第1のトラックの第1の追跡情報と、第2のトラックの第2の追跡情報とを混合して、新たなマスタトラックにする。
[0037] 図2Cは、本開示の1つの実装による4つのトラックの位置追跡データのタイムライン図250である。
[0038] 図2Cに示す実装では、タイムライン図250は、例えば、4つの異なる追跡システムからの位置追跡データ260、270、280、290を示す。第1の図は、第1の追跡システム(例えば、カメラ220上に配置される光学追跡システム222)からの第1のトラック位置データ260を示す。第2の図は、第2の追跡システム(例えば、カメラ224上に配置される光学追跡システム226)からの第2のトラック位置データ270を示す。第3の図は、第3の追跡システム(例えば、カメラ220上に配置されるヘッド223)からの第3のトラック位置データ280を示す。第4の図は、第4の追跡システム(例えば、カメラ224上に配置されるヘッド227)からの第4のトラック位置データ290を示す。
[0039] 図2Cに示す実装では、第1の位置追跡データ260は、データ欠落262を含む。したがって、追跡ツール242は、他のトラックからの位置追跡データ270、280、290をレビューして、データ欠落262を、第3又は第4のトラックからの位置追跡データ280、290に置き換えることを決定する。というのは、第2の追跡データ270は、第3又は第4のトラックのデータからずれているからである。
[0040] 図2Cに示す実装では、第2の位置追跡データ270は、データ欠落272を含む。したがって、追跡ツール242は、他のトラックからの位置追跡データ260、280、290をレビューして、データ欠落272を、第1、第3又は第4のトラックからの位置追跡データ260、280、290に置き換えることを決定する。というのは、第1、第3及び第4のトラックからのデータは、一致しているからである。
[0041] 図2Cに示す実装では、第3の位置追跡データ280は、(第1、第2及び第4のトラック上の追跡データからずれる)データずれ282を含む。したがって、追跡ツール242は、他のトラックからの位置追跡データ260、270、290をレビューして、データずれ282を、第1、第2又は第4のトラックからの位置追跡データ260、280又は290に置き換えることを決定する。というのは、第1、第2及び第4のトラックからのデータは、一致しているからである。
[0042] 図3Aは、本開示の実装による、コンピュータシステム300及びユーザ302の図である。ユーザ302は、コンピュータシステム300を使用して、図1の方法100及び図2Aのシステム200に関して図示及び説明されるようなカメラ追跡データの処理及びフィルタリングのためのアプリケーション390を実装する。
[0043] コンピュータシステム300は、図3Bのビデオ処理アプリケーション390を記憶して実行する。更に、コンピュータシステム300は、ソフトウェアプログラム304と通信することができる。ソフトウェアプログラム304は、ビデオ処理アプリケーション390のためのソフトウェアコードを含むことができる。ソフトウェアプログラム304は、以下で更に説明するように、CD、DVD又はストレージドライブなどの外部媒体にロードすることができる。
[0044] 更に、コンピュータシステム300は、ネットワーク380に接続することができる。ネットワーク380は、様々な異なるアーキテクチャ、例えば、クライアント-サーバアーキテクチャ、ピアツーピアネットワークアーキテクチャ、又は他のタイプのアーキテクチャにおいて接続することができる。例えば、ネットワーク380は、ビデオ処理アプリケーション390内で使用されるエンジン及びデータを協調させるサーバ385と通信することができる。また、ネットワークは、異なるタイプのネットワークとすることができる。例えば、ネットワーク380は、インターネット、ローカルエリアネットワーク又はローカルエリアネットワークの任意の変形、ワイドエリアネットワーク、メトロポリタンエリアネットワーク、イントラネット又はエクストラネット、又は無線ネットワークとすることができる。
[0045] 図3Bは、本開示の実装による、ビデオ処理アプリケーション390をホストするコンピュータシステム300を示す機能ブロック図である。コントローラ310はプログラマブルプロセッサであり、コンピュータシステム300及びそのコンポーネントの動作を制御する。コントローラ310は、メモリ320又は内蔵コントローラメモリ(図示せず)から(例えば、コンピュータプログラムの形で)命令をロードして、これらの命令を実行してシステムを制御して、例えば、カメラ追跡データの処理及びフィルタリングを提供する。その実行において、コントローラ310は、ビデオ処理アプリケーション390にソフトウェアシステムを提供して、例えば、追跡データの複数のトラックを収集して使用する。代替的に、このサービスは、コントローラ310又はコンピュータシステム300において別個のハードウェアコンポーネントとして実装することができる。
[0046] メモリ320は、コンピュータシステム300の他のコンポーネントによって使用するためにデータを一時的に記憶する。1つの実装では、メモリ320はRAMとして実装される。別の実装では、メモリ320は、また、フラッシュメモリ及び/又はROMなどの長期又は永久メモリを含む。
[0047] ストレージ330は、コンピュータシステム300の他のコンポーネントによって使用するために、データを一時的に又は長期間にわたって記憶する。例えば、ストレージ330は、ビデオ処理アプリケーション390によって使用されるデータを記憶する。1つの実装では、ストレージ330は、ハードディスクドライブである。
[0048] メディアデバイス340は、リムーバブルメディアを受け入れて、挿入されたメディアに対してデータの読み出し及び/又は書き込みを行う。1つの実装では、例えば、メディアデバイス340は、光ディスクドライブである。
[0049] ユーザインターフェイス350は、コンピュータシステム300のユーザからユーザ入力を受け取ってユーザ302に情報を提示するためのコンポーネントを含む。1つの実装では、ユーザインターフェイス350は、キーボード、マウス、オーディオスピーカ、及びディスプレイを含む。コントローラ310は、ユーザ302からの入力を使用して、コンピュータシステム300の動作を調整する。
[0050] I/Oインターフェイス360は、1又は2以上のI/Oポートを含み、外部記憶又は補足装置(例えば、プリンタ又はPDA)などの対応するI/Oデバイスに接続する。1つの実装では、I/Oインターフェイス360のポートは、USBポート、PCMCIAポート、シリアルポート、及び/又はパラレルポートなどのポートを含む。別の実装では、I/Oインターフェイス360は、外部装置と無線で通信するための無線インターフェイスを含む。
[0051] ネットワークインターフェイス370は、イーサネット接続をサポートするRJ-45又は「Wi-Fi」インターフェイス(802.11を含むが、これに限定されるわけではない)などの有線及び/又は無線ネットワーク接続を含む。
[0052] コンピュータシステム300は、コンピュータシステムに典型的な追加のハードウェア及びソフトウェア(例えば、電力、冷却、オペレーティングシステム)を含むが、これらのコンポーネントは、簡略化のために、図3Bに具体的に示されていない。他の実装では、コンピュータシステムの異なる構成を使用することができる(例えば、異なるバス又はストレージ構成又はマルチプロセッサ構成)。
[0053] 開示した実装についての本明細書の説明は、当業者が本開示を実施又は利用できるように行ったものである。当業者には、これらの実装の多数の修正が容易に明らかになると思われ、また本明細書で定義した原理は、本開示の趣旨又は範囲から逸脱することなく他の実装にも適用することができる。
[0054] 更なる変形及び実装も可能である。例えば、バーチャルプロダクション(例えば仮想現実環境)のためのビデオ制作に加えて、他の視覚効果(VFX)制作又はビデオ制作が、複数の追跡システムを使用することもできる(例えばビデオゲーム開発)。したがって、本開示は、本明細書に示す実装に限定されることを意図するものではなく、本明細書で開示した原理及び新規の特徴と一致する最も広い範囲が与えられるべきである。
[0055] 上記の各実施例の全ての特徴が、本開示の特定の実装において必ずしも必要というわけではない。更に、本明細書で提示した説明及び図面は、本開示が広く意図する主題を表すものであると理解されたい。更に、本開示の範囲は、当業者にとって明らかになり得る他の実装を完全に含み、したがって、本開示の範囲は、添付の特許請求の範囲以外のものによって限定されるものではないと理解されたい。
100 ビデオレンダリングのための方法
110 ビデオシーケンス中に移動するカメラに結合される第1の追跡システムを使用して、第1の追跡情報を生成
120 カメラに結合される第2の追跡システムを使用して、第2の追跡情報を生成
130 第1の追跡情報及び第2の追跡情報を受け取る
140 追跡ツールを使用して、第1の追跡情報のための第1のトラックと第2の追跡情報のための第2のトラックとを含むタイムラインを生成
150 複数の追跡システムから追跡情報を受け取り処理して、追跡情報の異常を認識、平滑化、及び補償
200 ビデオシステム
210 被写体及び/又はシーン
220 カメラ
222 光学追跡システム
223 ヘッド
224 カメラ
226 光学追跡システム
227 ヘッド
230 センサ/トラッカ
232 センサ/トラッカ
240 プロセッサ
242 追跡ツール
242a トラックマネージャ
242b 同期化ツール
242c バイアス適用部
242d ミキサ
244 レンダエンジン
246 レンダラ
250 タイムライン図
260,270,280,290 位置追跡データ
262 データ欠落
272 データ欠落
282 データずれ
300 コンピュータシステム
302 ユーザ
304 ソフトウェアプログラム
310 コントローラ
320 メモリ
330 ストレージ
340 メディアデバイス
350 ユーザインターフェイス
360 I/Oインターフェイス
370 ネットワークインターフェイス
380 ネットワーク
385 サーバ
390 ビデオ処理アプリケーション

Claims (20)

  1. ビデオ処理のための方法であって、
    複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムを使用して、第1の追跡情報を生成するステップであって、
    前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ステップと、
    前記ビデオシーケンス中に移動する前記カメラに結合される第2の追跡システムを使用して、第2の追跡情報を生成するステップであって、
    前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ステップと、
    追跡ツールによって、前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを生成するステップであって、
    前記追跡ツールは、前記第1の追跡システム及び前記第2の追跡システムに結合されて、前記第1の追跡情報及び前記第2の追跡情報を受け取る、ステップと、
    を含むことを特徴とする方法。
  2. 前記第1の追跡システムは、光学追跡システムであることを特徴とする、請求項1に記載の方法。
  3. 前記第2の追跡システムは、ハードウェアエンコードヘッドであることを特徴とする、請求項1に記載の方法。
  4. 前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにするステップ、
    を更に含むことを特徴とする、請求項1に記載の方法。
  5. 前記追跡ツールによって、前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させるステップ、
    を更に含むことを特徴とする、請求項1に記載の方法。
  6. 前記追跡ツールによって、前記第1のトラックの前記同期された第1の追跡情報と、前記第2のトラックの前記同期された第2の追跡情報とを使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化するステップ、
    を更に含むことを特徴とする、請求項5に記載の方法。
  7. 前記調整された追跡情報を生成するステップは、
    キーフレームを使用して、前記第1のトラックの前記同期された第1の追跡情報又は前記第2のトラックの前記同期された第2の追跡情報のうちの1つにバイアスを適用することによって、調整されたタイムラインを生成するステップ、
    を含むことを特徴とする、請求項6に記載の方法。
  8. 前記調整されたタイムラインを生成するステップは、前記タイムラインをリアルタイムで調整するステップを含むことを特徴とする、請求項7に記載の方法。
  9. 前記調整されたタイムラインを生成するステップは、前記タイムラインをポストプロダクションで調整するステップを含むことを特徴とする、請求項7に記載の方法。
  10. ビデオ処理のためのシステムであって、
    カメラと、
    前記カメラに接続される第1の追跡システムであって、前記第1の追跡システムは、前記カメラが複数のフレームを含むショットを形成するビデオシーケンス中に移動している時に、前記カメラについての第1の追跡情報を生成し、前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、第1の追跡システムと、
    第2の追跡システムであって、前記第2の追跡システムは、前記カメラが前記ビデオシーケンス中に移動している時に、前記カメラについての第2の追跡情報を生成し、前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、第2の追跡システムと、
    前記第1の追跡システム及び前記第2の追跡システムに接続されて、前記第1の追跡情報及び前記第2の追跡情報を受け取り、前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを作成する追跡ツールと、
    を含むことを特徴とするシステム。
  11. 前記第1の追跡システムは、光学追跡システムであることを特徴とする、請求項10に記載のシステム。
  12. 前記第2の追跡システムは、ハードウェアエンコードヘッドであることを特徴とする、請求項10に記載のシステム。
  13. 前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させるための同期化ツール、
    を更に含むことを特徴とする、請求項10に記載のシステム。
  14. 前記同期化ツールから受け取られる、前記同期された第1の追跡情報及び前記同期された第2の追跡情報を使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化するためのトラックマネージャ、
    を更に含むことを特徴とする、請求項10に記載のシステム。
  15. キーフレームを使用して、前記第1のトラックの前記同期された第1の追跡情報又は前記第2のトラックの前記同期された第2の追跡情報のうちの1つにバイアスを適用することによって、調整されたタイムラインを生成するためのバイアス適用部、
    を更に含むことを特徴とする、請求項14に記載のシステム。
  16. 前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにするためのミキサ、
    を更に含むことを特徴とする、請求項10に記載のシステム。
  17. ビデオを取り込むためのコンピュータプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記コンピュータプログラムは実行可能命令を含み、前記実行可能命令は、コンピュータに、
    複数のフレームを含むショットを形成するビデオシーケンス中に移動するカメラに結合される第1の追跡システムから受け取られる追跡データから、第1の追跡情報を生成することであって、
    前記第1の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ことと、
    前記ビデオシーケンス中に移動する前記カメラに結合される第2の追跡システムから受け取られる追跡データから、第2の追跡情報を生成することであって、
    前記第2の追跡情報は、前記ショット内の前記複数のフレームに同期される前記カメラの6自由度の運動についての情報を含む、ことと、
    前記第1の追跡情報のための第1のトラックと前記第2の追跡情報のための第2のトラックとを含むタイムラインを生成することと、
    を行わせる、
    ことを特徴とする非一時的コンピュータ可読記憶媒体。
  18. 前記第1の追跡情報及び前記第2の追跡情報をタイムコードに同期させること、
    を前記コンピュータに行わせる実行可能命令を更に含む、
    ことを特徴とする、請求項17に記載の非一時的コンピュータ可読記憶媒体。
  19. 前記第1のトラックの前記同期された第1の追跡情報と、前記第2のトラックの前記同期された第2の追跡情報とを使用して、調整された追跡情報を生成して、前記第1の追跡情報内の異常データを平滑化すること、
    を前記コンピュータに行わせる実行可能命令を更に含む、
    ことを特徴とする、請求項18に記載の非一時的コンピュータ可読記憶媒体。
  20. 前記第1のトラックの前記第1の追跡情報と、前記第2のトラックの前記第2の追跡情報とを混合して、新たなマスタトラックにすること、
    を前記コンピュータに行わせる実行可能命令を更に含む、
    ことを特徴とする、請求項17に記載の非一時的コンピュータ可読記憶媒体。
JP2022526779A 2019-12-13 2020-12-10 カメラ追跡におけるソースのフィルタリング及び平滑化 Active JP7467624B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962947702P 2019-12-13 2019-12-13
US62/947,702 2019-12-13
US16/990,274 2020-08-11
US16/990,274 US11064096B2 (en) 2019-12-13 2020-08-11 Filtering and smoothing sources in camera tracking
PCT/US2020/064248 WO2021119274A1 (en) 2019-12-13 2020-12-10 Filtering and smoothing sources in camera tracking

Publications (2)

Publication Number Publication Date
JP2022554408A true JP2022554408A (ja) 2022-12-28
JP7467624B2 JP7467624B2 (ja) 2024-04-15

Family

ID=76318355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022526779A Active JP7467624B2 (ja) 2019-12-13 2020-12-10 カメラ追跡におけるソースのフィルタリング及び平滑化

Country Status (7)

Country Link
US (1) US11064096B2 (ja)
EP (1) EP4055808A4 (ja)
JP (1) JP7467624B2 (ja)
KR (1) KR102657815B1 (ja)
CN (1) CN114026840A (ja)
CA (1) CA3150223A1 (ja)
WO (1) WO2021119274A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005719A1 (en) * 2017-06-29 2019-01-03 Open Space Labs, Inc. Automated spatial indexing of images based on floorplan features

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
US20080212835A1 (en) * 2007-03-01 2008-09-04 Amon Tavor Object Tracking by 3-Dimensional Modeling
EP2153641B2 (en) 2007-04-13 2021-10-27 Ari M. Presler Digital cinema camera system for recording, editing and visualizing images
JP5698733B2 (ja) * 2009-05-04 2015-04-08 オブロング・インダストリーズ・インコーポレーテッド 三空間入力の検出、表現、および解釈:自由空間、近接、および表面接触モードを組み込むジェスチャ連続体
WO2012103649A1 (en) * 2011-01-31 2012-08-09 Cast Group Of Companies Inc. System and method for providing 3d sound
US9113130B2 (en) * 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
WO2014020364A1 (en) * 2012-07-30 2014-02-06 Zinemath Zrt. System and method for generating a dynamic three-dimensional model
KR102245648B1 (ko) * 2012-09-10 2021-04-29 에이매스, 아이엔씨. 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐
US9674507B2 (en) * 2013-04-30 2017-06-06 Qualcomm Incorporated Monocular visual SLAM with general and panorama camera movements
US10791319B1 (en) * 2013-08-28 2020-09-29 Outward, Inc. Multi-camera 3D content creation
US9189711B2 (en) * 2013-10-28 2015-11-17 Eastman Kodak Company Method for aligning imaging systems
KR101608342B1 (ko) * 2014-02-26 2016-04-04 주식회사 포디월드넷 무인 부스 형태의 체감형 모션 라이딩 시스템과 그의 작동방법
US9607388B2 (en) * 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
US20160140733A1 (en) * 2014-11-13 2016-05-19 Futurewei Technologies, Inc. Method and systems for multi-view high-speed motion capture
US10491711B2 (en) * 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
GB201602877D0 (en) * 2016-02-18 2016-04-06 Landa Corp Ltd System and method for generating videos
CN108605098B (zh) * 2016-05-20 2020-12-11 深圳市大疆创新科技有限公司 用于卷帘快门校正的系统和方法
US10645366B2 (en) * 2016-06-10 2020-05-05 Lucid VR, Inc. Real time re-calibration of stereo cameras
WO2018088061A1 (ja) * 2016-11-08 2018-05-17 ソニー株式会社 画像転送装置、画像転送方法、プログラム、動画像生成システム
US10552014B2 (en) * 2017-01-10 2020-02-04 Cast Group Of Companies Inc. Systems and methods for tracking and interacting with zones in 3D space
US10565802B2 (en) 2017-08-31 2020-02-18 Disney Enterprises, Inc. Collaborative multi-modal mixed-reality system and methods leveraging reconfigurable tangible user interfaces for the production of immersive, cinematic, and interactive content
GB201714289D0 (en) * 2017-09-06 2017-10-18 Simworx Ltd Modelling systems and methods for entertainment rides
US10902676B2 (en) * 2018-03-13 2021-01-26 Canon Kabushiki Kaisha System and method of controlling a virtual camera
JP7425745B2 (ja) * 2018-04-24 2024-01-31 シアヴィジョン・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 自動カメラヘッド
EP3785427A4 (en) * 2018-04-28 2021-05-12 SZ DJI Technology Co., Ltd. MOVEMENT ESTIMATE
US20190356885A1 (en) * 2018-05-16 2019-11-21 360Ai Solutions Llc Camera System Securable Within a Motor Vehicle
US10885657B2 (en) * 2018-10-31 2021-01-05 Disney Enterprises, Inc. Configuration for indicating image capture device position
KR102217414B1 (ko) 2019-12-24 2021-02-19 광운대학교 산학협력단 4d 영화 이펙트 자동 생성장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190005719A1 (en) * 2017-06-29 2019-01-03 Open Space Labs, Inc. Automated spatial indexing of images based on floorplan features

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAMAZAKI K ET AL: "Object Shape Reconstruction and Pose Estimation by a Camera Mounted on a Mobile Robot", PROCEEDINGS OF 2004 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOT AND SYSTEMS, JPN6023020904, 28 September 2004 (2004-09-28), US, pages 4019 - 4025, XP010766317, ISSN: 0005066647, DOI: 10.1109/IROS.2004.1390043 *

Also Published As

Publication number Publication date
WO2021119274A1 (en) 2021-06-17
CA3150223A1 (en) 2021-06-17
KR102657815B1 (ko) 2024-04-17
EP4055808A1 (en) 2022-09-14
US20210185191A1 (en) 2021-06-17
CN114026840A (zh) 2022-02-08
EP4055808A4 (en) 2022-12-28
JP7467624B2 (ja) 2024-04-15
KR20220089710A (ko) 2022-06-28
US11064096B2 (en) 2021-07-13

Similar Documents

Publication Publication Date Title
US8199211B2 (en) Camera direct dailies
JP2022510178A (ja) コースウェア記録方法及び装置、コースウェア再生方法及び装置、インテリジェントインタラクティブタブレット、並びに記憶媒体
US9369694B2 (en) Adjusting stereo images
CN104054023A (zh) 用于与机器人控制的物体映射的3d投影的系统和方法
JP2016095841A (ja) ドローンに搭載されたカメラの目標軌道を生成するための方法および対応するシステム
JP2022554415A (ja) バックプレートのレンダリング
JP2007004578A (ja) 三次元形状取得方法、三次元形状取得装置、及びプログラムの記録媒体
JP7467624B2 (ja) カメラ追跡におけるソースのフィルタリング及び平滑化
JP5044582B2 (ja) 撮影カメラ学習装置及びそのプログラム
GB2549723A (en) A system and method for video editing in a virtual reality enviroment
CN115914718A (zh) 截取引擎渲染内容的虚拟制片视频重映方法及系统
US20210390752A1 (en) Real-time animation motion capture
US20210287433A1 (en) Providing a 2-dimensional dataset from 2-dimensional and 3-dimensional computer vision techniques
KR101741150B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
US20200202571A1 (en) Calibrating volumetric rig with structured light
HanbyulJoo et al. Panoptic studio: A massively multiview system for social interaction capture
Daemen et al. Semi-automatic camera and switcher control for live broadcast
CN111031198A (zh) 一种实时电影生产技术
TWI815693B (zh) 資料處理系統、資料處理方法和電腦可讀儲存媒體
KR101725932B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
KR20180111246A (ko) 콘텐츠 모션데이터 처리방법
Zhang et al. Toward synchronized, interference-free, distributed 3D multi-sensor real-time image capture
Grau et al. DELIVERABLE D5. 1.1 SPECIFICATION OF PLATFORM, ANIMATION MODULES AND INTERFACES
JP2022073647A (ja) 画像処理装置、画像処理方法、およびプログラム
Mehling et al. 360° Video Development and Application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150