JP7282887B2 - 仮想カメラパスを決定するシステム及び方法 - Google Patents

仮想カメラパスを決定するシステム及び方法 Download PDF

Info

Publication number
JP7282887B2
JP7282887B2 JP2021530280A JP2021530280A JP7282887B2 JP 7282887 B2 JP7282887 B2 JP 7282887B2 JP 2021530280 A JP2021530280 A JP 2021530280A JP 2021530280 A JP2021530280 A JP 2021530280A JP 7282887 B2 JP7282887 B2 JP 7282887B2
Authority
JP
Japan
Prior art keywords
path
template
camera
movement path
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021530280A
Other languages
English (en)
Other versions
JP2022510658A (ja
Inventor
バーティ ジャック アラン ブルース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2022510658A publication Critical patent/JP2022510658A/ja
Application granted granted Critical
Publication of JP7282887B2 publication Critical patent/JP7282887B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)

Description

関連出願への言及
本出願は、その全体の開示が参照により本明細書に組み込まれている、2018年12月27日に出願された米国特許出願第16/201812号の出願日の35U.S.C.§119の下での利益を主張するものである。
本発明は、仮想カメラパスを決定するためのシステム及び方法に関し、特に仮想カメラパステンプレートを仮想環境に挿入し、仮想環境から仮想カメラパステンプレートを抽出するためのシステム及び方法に関する。また、本発明は、仮想カメラパスを決定するためのコンピュータ可読媒体及び装置にも関する。
仮想カメラの実時間ナビゲーションは困難であり、技術的な課題を提示し得る。仮想カメラを制御するユーザは、通常、ズーム設定も変更しながら、6自由度で仮想カメラを移動させることができる。一部のアプリケーションでは、ユーザは、対象物を追跡するか、仮想カメラによってキャプチャされたシーン内のイベントに焦点を合わせる必要がある場合もある。対象物は、例えばスポーツ・アプリケーション内のフィールド上で走るプレーヤであってもよい。仮想カメラを制御するユーザは、視覚的に説得力のあるイベントの記録を生成するために、カメラナビゲーションに習熟する必要がある。視覚的に魅力のあるイベントのビデオ録画を作成することに習熟するには、カメラナビゲーション制御システムのトレーニングと知識、及び仮想カメラをどこにいつ配置するかを理解する創造性が必要である。
放送業界、特にスポーツの生放送においては、イベントのリプレイを生成し、可能な限り短時間でリプレイを実現することが典型的な目的である。リプレイを迅速に生成するための要件は、リプレイを生成するタスクを担当するユーザ (オペレータ) に高い要求を課す。その結果、要求された時間内にリプレイタスクを実行するために必要なカメラナビゲーションのスキルを有する個人の数は限られてしまう可能性がある。いくつかの既知のシステムは、既存の仮想カメラパスを使用することによって必要とされるオペレータスキルのレベルを低減しようとする。しかし、シーンとイベントの間の変動のために、既存のカメラパスをシーンに挿入しても、通常、イベントが所望の方法で撮影されることはない。
カメラパスの挿入に関する1つの難点は、カメラパスがイベントを正確かつ美的に撮影するためには、仮想カメラの視野(つまり、仮想カメラの位置、方向、焦点距離)とシーン内の対象物の位置との間の適切な関係が必要になることである。適切な関係により、対象物はカメラの視野内になる。リプレイイベントが同一であることはほとんど無く、各イベントには異なる対象物があり、異なる方向に移動し、異なるアクションを実行し、シーンの異なる部分に存在する。さらに、異なる固有のイベントを撮影するために、異なる仮想カメラパスが生成される。あるイベントを撮影したカメラパスを別のイベントを撮影するために挿入すると、シーンで必要なイベントを撮影できない場合がある。
いくつかの既知の方法は、既存のカメラパスを使用して仮想カメラ記録を生成する効率に対処しようとする。1つの方法は、まずユーザが仮想カメラにポーズを設定し、次にカメラの動作を指定する複数のパラメータを定義することである。パラメータの1つは、カメラの移動タイプ(例えば左右の動き、クレーンの動き)を定義する。指定したカメラの動きのタイプは、最初の仮想カメラの姿勢に対するカメラの動きに影響する。この方法では、ユーザが対象物に対してカメラの姿勢をとることができるが、イベントの進行に伴って対象物が補足されることを保証することに関する制御はほとんどない。
他の公知の方法は、ステージと呼ばれる機構を利用する。ステージは事前に生成された環境であり、事前に設定された色、テクスチャ、ライティング、カメラパス、ドロップゾーンが含まれている。ドロップゾーンは、読み込まれたオブジェクトが配置されるステージ内のどこかに配置される3Dボリュームである。シーンにカメラパスを挿入する代わりに、カメラパスは、ドロップゾーンに挿入されたオブジェクトとその周囲のライティングが最もよく見えるように設定される。ステージを使用する方法は、既存のカメラパス(パスは既に段階的に構成されているため)を迅速に利用するのに効率的であるが、この方法は、ライブイベント放送のコンテキストには適していない。
本発明の目的は、現在の構成の少なくとも1つの欠点を実質的に克服するか又は少なくとも改善することである。
本開示の情報処理装置は、仮想視点の位置の変化パターンと前記仮想視点が向けられる対象位置の第1移動経路とを表す複数の異なるテンプレートの中から、ユーザ入力に基づいてテンプレートを決定する決定手段と、3次元空間におけるシーン内において、ユーザ入力に基づいて仮想視点が向けられる対象位置の第2移動経路を特定する特定手段と、前記決定手段によって決定されたテンプレートに対応する前記第1移動経路上の所定の数の点と前記第2移動経路上の所定の数の点とを一致させて修正させた第1移動経路と、前記決定手段により決定されたテンプレートにより表される仮想視点の位置の変化パターンとに基づいて、前記第2移動経路に対応する仮想視点の位置の変化パターンを設定する設定手段とを有する。
発明の1つ以上の実施形態を、以下の図面を参照して説明する。
競技場内の複数の位置及び方向から仮想カメラの視点を生成するシステムと通信して、競技場のシーンを取り囲むネットワーク化されたビデオカメラのシステムを示す。 仮想カメラのパスを決定する方法のフローチャートである。 カメラパステンプレートの図を示す。 仮想環境でのアクションパスの図を示す。 選択用の複数のカメラパステンプレートを表示する例示的なグラフィカルユーザインターフェースの一例を示す。 仮想環境に挿入されたパステンプレートの一例を示す。 仮想環境の参照による修正後のカメラパステンプレートを示す。 カメラパステンプレートを生成する方法を示す。 抽出されたカメラパスの図を示す。 抽出されたカメラパスの図を示す。 カメラパステンプレートを生成するアプリケーションの図を示す。 記載された構成を実行することができる電子デバイスの概略的なブロック図表現をまとめて示す。 記載された構成を実行することができる電子デバイスの概略的なブロック図表現をまとめて示す。
添付図面のいずれか1つ又は複数において、同一の参照番号を有するステップ及び/又は特徴が参照されている場合、それらのステップ及び/又は特徴は、反対の意図が表示されない限り、本説明の目的のために、同一の機能又は動作を有する。
本構成は、仮想環境に仮想カメラパステンプレートを挿入し、仮想環境から仮想カメラパステンプレートを抽出するアプリケーション及び方法に関する。ここで説明する構成は、コンピュータ生成環境ではなく実際の環境に関連するビデオデータの構成に関するものである。ビデオデータは、仮想カメラを用いて仮想環境を生成するものとして説明することができるが、生成された仮想環境は、実際のイベントのビデオデータを表す。本開示の文脈において、ビデオデータは、1つ以上のビデオフレームを用いて生成された三次元シーンを表すデータに関連し、各フレームは特定の時間に取り込まれる。
上述のように、仮想カメラ制御システムは、時間を節約するために既存の仮想カメラパスを挿入する能力を有するユーザから利益を得る。既存のカメラパスを挿入することで、熟練していないユーザや訓練を受けていないユーザでも、より熟練したユーザによって作成されたカメラパスを利用できる。
しかしながら、単純に既存のカメラパスをシーンに挿入しても、意図した結果が得られない可能性がある。例えば、多くの場合、既存のカメラパスをシーンに挿入すると、パスは既定の位置と方向に従って挿入される。場合によっては、既定の挿入位置と方向がシーンの原点に対応することがある。他の例では、既定の挿入位置と方向は、カメラパスが抽出された元のシーンの元の空間座標に対応できる。どちらの場合も、ユーザはカメラパスのプロパティ(位置、向き、スケール、タイミング)をさらに変換して、新しいシーンのイベントを撮影するためにパスを適応させる必要があり、時間を要する。
さらに、ユーザは、仮想カメラがシーン内を移動する際に必要な対象物を確実に撮影するように、カメラパスのプロパティをさらに調整する必要がある。事実上、既知の技法は、一般に、速度、タイミング、及び対象物の移動に合わせてカメラパスを適応させる方法を考慮していない。カメラパスの空間位置又はプロパティをさらに変換するために要する時間は、各再生記録を生成するための時間を追加し、その結果、カメラパスを挿入することによって得られる時間を短縮する。
ここで説明する構成は、図1に例示するように、スポーツ又は同様のパフォーマンスフィールドの状況において用いることを目的とする。シーン又はアリーナであるフィールド110は、略矩形、楕円形又は円形の競技フィールドの中央に位置し、フィールドがカメラ120A~120Xの1以上のカメラネットワーク(リング)120によって囲まれることを可能とするものである。図1の例においてシーンはフィールド110である。しかし、他の構成では、シーンは音楽ステージ、劇場、公共又は民間の会場であってもよい。図1の例では、フィールドはオブジェクト140などのオブジェクトを含む。オブジェクト140は、人物、ボール、車両、又は性能に関連する任意の構造体であってもよい。通常、シーンにはさまざまなオブジェクトが含まれている。カメラ120A~120Xは、フィールド110上のすべてのポイントが非常に多くのビューポイントから同時に撮影されるように、時間内で同時にフレームを取得するように同期化される。ある変形例では、カメラのリング全体が用いられずに全外周のいくつかのサブセットが用いられる。
カメラ120A~120Xによって撮影されたビデオフレームは、ネットワーク接続1121を介して、プロセッサとも呼ばれる演算ビデオ処理部1105に利用可能にされる前に、カメラの近くで処理及び一時的に記憶される。演算ビデオ処理部1105は、制御装置180からの制御入力を受け取り、制御入力は、フィールド110内の仮想カメラ150に対する位置、向き、ズーム、及び場合によっては他のシミュレートされたカメラ特徴を特定する。演算ビデオ処理部1105の役割は、フィールド110を取り囲むカメラ120A~120Xから利用可能なビデオストリームに基づいて、特定の仮想カメラパースペクティブ190を合成することである。「仮想カメラ」は、物理カメラ間の補間などの方法によって、又はシーンを取り囲む多くのカメラからのデータを使用して構築されたモデル化された三次元シーンから、単に単一の物理カメラの出力ではなくレンダリングすることによって、その機能性が計算上導出されるので、仮想カメラと呼ばれる。
仮想カメラの位置特定入力は、人間の仮想カメラのオペレータによって生成され、ジョイスティック、マウス、又は複数の入力コンポーネントを備えた専用コントローラを含む同様のコントローラなどのユーザインターフェースデバイスによって受け付けられた入力に基づいてもよい。コントローラ180は、いくつかの実施例では、ユーザインターフェース装置を提供することができる。代替的に、仮想カメラの位置は、フィールド110における試合競技の解析に基づいて完全に自動的に生成されてもよい。ハイブリッド制御構成もまた可能であるため、仮想カメラの位置決めについてのある態様は、人間のオペレータ又は自動化アルゴリズムによる他のものによって指示される。ハイブリッドコントローラの例は、コースの位置決めが人間のオペレータによって実行され、安定化及びパスの円滑化を含む精密な位置決めは自動化アルゴリズムによって実行される場合を含む。
演算ビデオ処理部1105は、本技術分野において自由ビューポイント生成のための周知の方法の1つを用いてフレーム合成を実現する。方法の第1のクラスは、シーン110の完全三次元(3D)幾何学形状を再構築するモデルによる方法に関する。第2のクラスは、深度推定を用い、画像及び深度データから自由ビューポイントビデオを生成する深度による方法に関する。第3のクラスは、自由ビューポイントビデオを直接形成するように画像データのある種の補間を用いる画像による方法に関する。3D幾何学形状を生成するのに用いられる技術は、運動による構造、シルエットによる形状、視覚的外郭再構築、焦点合致又はピンボケによる形状、立体による構造、及び深度/差異推定アルゴリズムを含む。画像によるレンダリング方法は、既知の幾何学的配置構成のカメラセットからの画素データのサンプリング、及びこの情報の合成フレームへの組合せに基づく。演算ビデオ処理部は、要求されるフレームのサンプルによるレンダリングに加えて、要求されるサンプリング欠陥を隠すこと及び高品質の視覚的外観のフレーム作成として領域の合成、3Dモデリング、インペインティング又は補間も実行し得る。演算ビデオ処理部1105によって生成された視点ト190からのビデオストリームは、続いて、ビデオストリーム190がともに編集されて放送ビデオを形成可能な制作デスク(図示せず)に提供され得る。
カメラ120A~120Xは、仮想カメラ映像を合成可能なビデオフレームを撮影するのに適した撮像装置であってもよく、接続部1121を介して映像を送信することができる。例えば、カメラ120A~120Xは、デジタルビデオカメラであってもよい。
図11A及び11Bは、組み込まれた構成要素を含む汎用の電子デバイス1101の概略的ブロック図をまとめて形成し、それにより説明する方法が所望のように実践される。電子デバイス1101は、好適には、タブレットなどのビデオ映像を鑑賞及び編集するのに適したデバイスである。電子デバイス1101はまた、例えば、処理リソースが制限された携帯電話、又はポータブルメディアプレーヤであってもよい。それにもかかわらず、説明する方法はまた、デスクトップコンピュータ、サーバコンピュータ、及び非常に大きな処理リソースを有する他のそのようなデバイスなどのよりハイレベルのデバイス上でも実行され得る。
図11Aに示すように、電子デバイス1101は組み込まれたコントローラ1102を備える。したがって、電子デバイス1101は、「組込みデバイス」と称される。本例では、コントローラ1102は、内部ストレージモジュール1109に双方向連結された処理部(プロセッサ)1105を有する。内部ストレージモジュール1109は、図11Bに示すように、不揮発性半導体読み出し専用メモリ(ROM)1160及び半導体ランダムアクセスメモリ(RAM)1170から構成され得る。RAM1170は、揮発性メモリ、不揮発性メモリ、又は揮発性と不揮発性メモリの組合せであってもよい。
電子デバイス1101は、ディスプレイコントローラ1107を含み、それは液晶ディスプレイ(LCD)パネルなどのようなビデオディスプレイ1114に接続される。ディスプレイコントローラ1107は、ディスプレイコントローラ1107が接続される組み込まれたコントローラ1102から受信された命令に従ってビデオディスプレイ1114上にグラフィック画像を表示するように構成される。
電子デバイス1101はまた、キー、キーパッド又は同様の制御装置によって通常構成されるユーザ入力デバイス1113も含む。ある実施例では、ユーザ入力デバイス1113は、タッチスクリーンをまとめて構成するようにディスプレイ1114に物理的に関連付けられたタッチ感知パネルを含み得る。したがって、そのようなタッチスクリーンは、プロンプトの対語としてのグラフィカルユーザインターフェース(GUI)、又はキーパッド-ディスプレイとともに通常用いられるメニュー駆動GUIの一方の形式として動作し得る。音声コマンドのためのマイク(図示せず)又はメニューについてのナビゲーションを容易にするためのジョイスティック/サムホイール、又はゲームパッド(図示せず)などの、他の形式のユーザ入力デバイスも用いられ得る。仮想カメラを制御するためのユーザ入力は、ユーザ入力デバイス1113を介して、通常、電子デバイス1101がタブレットコンピュータの場合にはタッチスクリーン1114を介して受信され得る。
図11Aに示すように、電子デバイス1101は可搬メモリインターフェース1106も備え、それは接続1119を介してプロセッサ1105に連結される。可搬メモリインターフェース1106によって、可搬記憶媒体1125は、データの送信元若しくは宛先として作用するように、又は内部ストレージモジュール1109を補足するように電子デバイス1101に連結されることが可能となる。そのようなインターフェースの例は、ユニバーサルシリアルバス(USB)メモリデバイス、セキュアデジタル(SD)カード、パーソナルコンピュータメモリカード国際協会(PCMIA)カード、光ディスク及び磁気ディスクなどの可搬メモリデバイスとの結合を可能とする。
電子デバイス1101はまた、接続1121を介するコンピュータ又は通信ネットワーク1120への電子デバイス1101の連結を可能とする通信インターフェース1108も有する。接続1121は、有線でも無線であってもよい。例えば、接続1121は無線周波数又は光学的であってもよい。有線接続の例は、イーサネット(登録商標)を含む。さらに、無線接続の例は、Bluetooth(登録商標)タイプのローカル相互接続、Wi-Fi(IEEE802.11ファミリーの規格に基づくプロトコルを含む)、赤外線通信協会(IrDa)などを含む。
通常、電子デバイス1101は、ある特殊機能を実行するように構成される。組み込まれたコントローラ1102は、おそらくさらに特殊な機能の構成要素1110とともにその特殊な機能を実行するように設けられる。例えば、電子デバイス1101はタブレットである場合には、構成要素1110は圧力パッド又はタッチスクリーンに関連する他の機能を示し得る。特殊な機能の構成要素1110は、組み込まれたコントローラ1102に接続される。他の例として、電子デバイス1101は、携帯電話機のハンドセットであってもよい。この実例では、構成要素1110は、セルラ電話機環境における通信に必要とされるそれらの構成要素を示し得る。電子デバイス1101は可搬デバイスであり、特殊な機能の構成要素1110は、ジョイントフォトグラフィックエクスパーツグループ(JPEG)、ムービングピクチャエクスパーツグループ(MPEG)、MPEG-1オーディオレイヤ3(MP3)などを含むタイプの多数のエンコーダ及びデコーダを示し得る。
これ以降で説明する方法は組み込まれたコントローラ1102を用いて実施されてもよく、図6~12及び図14の工程が、組み込まれたコントローラ1102内で実行可能な1以上のソフトウェア・アプリケーションプログラム1133として実施され得る。図11Aの電子デバイス1101は、説明する方法を実施する。特に、図11Bを参照すると、説明する方法のステップは、コントローラ1102内で実行されるソフトウェア1133における命令によって達成される。ソフトウェアの命令は、各々が1以上の特定のタスクを実行するための1以上のコードモジュールとして構成され得る。ソフトウェアはまた、2つの分離した部分に分割されてもよく、第1の部分と対応するコードモジュールは説明する方法を実行し、第2の部分と対応するコードモジュールは第1の部分とユーザの間のユーザインターフェースを管理する。
組み込まれたコントローラ1102のソフトウェア1133は、通常、内部ストレージモジュール1109の不揮発性ROM1160に記憶される。ROM1160に記憶されたソフトウェア1133は、コンピュータ可読媒体から要求された場合に更新可能である。ソフトウェア1133は、プロセッサ1105に読み込まれるとともにそれによって実行可能である。ある実例では、プロセッサ1105は、RAM1170に配置されたソフトウェアの命令を実行し得る。ソフトウェアの命令は、プロセッサ1105によってRAM1170に読み込まれて、ROM1160からRAM1170への1以上のコードモジュールのコピーを開始し得る。代替的に、1以上のコードモジュールについてのソフトウェアの命令は、製造業者によってRAM1170の不揮発性領域に事前にインストールされてもよい。1以上のコードモジュールがRAM1170に配置された後に、プロセッサ1105は1以上のコードモジュールについてのソフトウェアの命令を実行し得る。
アプリケーションプログラム1133は、通常、電子デバイス1101の分配よりも前に、製造業者によってROM1160に事前にインストール及び記憶される。しかしながら、ある実例では、アプリケーションプログラム1133は、1以上のCD-ROM(図示せず)上で符号化されてユーザに供給され、内部ストレージモジュール1109又は可搬記憶媒体1125における記憶よりも前に、図11Aの可搬メモリインターフェース1106を介して読み出され得る。他の代替例では、ソフトウェア・アプリケーションプログラム1133は、プロセッサ1105によってコンピュータ又は通信ネットワーク1120から読み出され、又は他のコンピュータ可読媒体からコントローラ1102若しくは可搬記憶媒体1125に読み込まれ得る。コンピュータ可読記憶媒体とは、実行及び/又は処理のためにコントローラ1102に命令及び/又はデータの提供に際して関与する任意の非一時的タンジブル記憶媒体のことをいう。そのような記憶媒体の例は、それらのデバイスが電子デバイス1101の内部又は外部に有るか否かにかかわらず、フロッピーディスク、磁気テープ、CD-ROM、ハードディスクドライブ、ROM若しくは集積回路、USBメモリ、光磁気ディスク、フラッシュメモリ、又はPCMCIAカードなどのコンピュータ可読カードなどを含む。ソフトウェア、アプリケーションプログラム、命令及び/又はデータの電子デバイス1101への提供の際にも関与し得る一時的又は非タンジブルコンピュータ可読伝送媒体の例は、無線又は赤外線伝送チャネルと、さらに他のコンピュータ又はネットワーク化されたデバイスへのネットワーク接続、並びにウェブサイト上などに記録されたeメールの送信及び情報を含む単数又は複数のインターネットとを含む。それに記録されたそのようなソフトウェア又はコンピュータプログラムを有するコンピュータ可読媒体は、コンピュータプログラム製品である。
上記のアプリケーションプログラム1133の第2の部分と対応するコードモジュールは、1以上のグラフィカルユーザインターフェース(GUI)を実施するように実行されて、図11Aのビデオディスプレイ1114にレンダリングあるいは表現され得る。ユーザ入力デバイス1113(又は、タッチスクリーン)の操作を通じて、電子デバイス1101及びアプリケーションプログラム1133のユーザは、機能上適合可能なようにインターフェースを操作し、制御コマンド及び/又は入力をGUIに関連付けられたアプリケーションに提供し得る。拡声器(図示せず)を介して出力される言語プロンプトを利用するオーディオインターフェース及びマイク(図示せず)を介して入力されるユーザの音声コマンドなどの、他の形式の機能上適合可能なユーザインターフェースも実施され得る。
図11Bは、アプリケーションプログラム1133及び内部ストレージモジュール1109を実行するためのプロセッサ1105を有する組み込まれたコントローラ1102を詳細に示す。内部ストレージモジュール1109は、読み出し専用メモリ(ROM)1160及びランダムアクセスメモリ(RAM)1170を備える。プロセッサ1105は、接続されたメモリ1160及び1170の一方又は双方に記憶されたアプリケーションプログラム1133を実行可能である。電子デバイス1101が最初に電源投入されると、ROM1160にあるシステムプログラムが実行される。ROM1160に恒久的に記憶されたアプリケーションプログラム1133を「ファームウェア」ともいう。プロセッサ1105によるファームウェアの実行によって、プロセッサの管理、メモリの管理、デバイスの管理、ストレージの管理及びユーザインターフェースを含む種々の機能が充足され得る。
プロセッサ1105は、通常、制御部(CU)1151、算術論理演算装置(ALU)1152、デジタル信号プロセッサ(DSP)1153、及び内部バッファ又はキャッシュメモリ1155とともに通常原子データ要素1156、1157を含むレジスタ1154のセットを備えるローカルメモリ又は内部メモリを含む、多数の機能性モジュールを含む。1以上の内部バス1159は、これらの機能性モジュールを相互接続する。通常、プロセッサ1105はまた、接続1161を用いてシステムバス1181を介して外部デバイスと通信するために1以上のインターフェース1158も有する。
アプリケーションプログラム1133は、条件付き分岐及びループ命令を含み得る一連の命令1162から1163を含む。アプリケーションプログラム1133はデータを含んでいてもよく、それはアプリケーションプログラム1133の実行に用いられる。このデータは、命令の一部として、又はROM1160若しくはRAM1170内の別個の位置1164に記憶され得る。
一般的に、プロセッサ1105にはそこで実行される命令のセットが与えられる。命令のこのセットは、具体的なタスクを実行又は電子デバイス1101において生じる具体的なイベントを取り扱うブロックにまとめられる。通常、アプリケーションプログラム1133は、イベントを待ち受け、続いてそのイベントに関連付けられたコードのブロックを実行する。イベントは、プロセッサ1105によって検出されるように、図11Aのユーザ入力デバイス1113を介したユーザからの入力に応じてトリガされ得る。イベントはまた、電子デバイス1101における他のセンサ及びインターフェースに応じてもトリガされ得る。
命令のセットの実行は、読み出されて修正される数値変数を要求し得る。そのような数値変数は、メモリ(RAM)1170に記憶される。開示する方法は、メモリ1170における既知の位置1172、1173に記憶された入力変数1171を用いる。入力変数1171は、メモリ1170における既知の位置1178、1179に記憶された出力変数1177を生成するように処理される。中間変数1174は、メモリ1170の位置1175、1176における追加的メモリ位置に記憶され得る。代替的に、プロセッサ1105のレジスタ1154にのみ存在し得る中間変数もある。
一連の命令の実行は、フェッチ実行サイクルの反復アプリケーションによってプロセッサ1105において実現される。プロセッサ1105の制御部1151はプログラムカウンタといわれるレジスタを維持し、それは実行される次の命令のROM1160又はRAM1170にアドレスを含む。フェッチ実行サイクルの開始時に、プログラムカウンタによってインデックス付けされたメモリアドレスのコンテンツが、制御部1151に読み込まれる。したがって、読み込まれた命令はプロセッサ1105の後続の動作を制御することにより、例えば、データがROM1160からプロセッサのレジスタ1154に読み込まれ、レジスタのコンテンツが他のレジスタのコンテンツと算術的に組み合わされ、レジスタのコンテンツが他のレジスタに記憶された位置に書き込まれるなどとなる。フェッチ実行サイクルの終了時には、プログラムカウンタはシステムプログラムコードにおける次の命令を指し示すように更新される。これは、ちょうど実行された命令に応じて、分岐動作を実現するために、プログラムカウンタに含まれたアドレスを増分すること又は新たなアドレスによるプログラムカウンタを読み込むことを含み得る。
説明した構成において、ユーザは、典型的には、仮想カメラパスの決定に関連する機能を実行し、入力1113を使用して仮想カメラを制御する。あるいは、ユーザは、モジュール1101と同様の方法で動作するコントローラ180を使用して、仮想カメラ150を制御してもよい。
記載された構成のアプローチは、仮想環境のイベントに関連してカメラパスの時間を位置決めし、方向付けし、スケーリングし、調整するためのユーザ要求を単純化することによって、仮想環境にカメラパスを挿入する効率に対処するように動作する。上述したように、挿入されたカメラパスの位置、向き、及びスケールをユーザが調整することは問題である。しかしながら、本明細書に記載の構成を使用する場合、ユーザは、仮想環境を介してアクションパスを構成し、挿入するカメラパステンプレートを選択するだけでよい。一連のステップを通して、アプリケーション1133は、カメラパステンプレートのカメラパスを修正してアクションパスを位置合わせする。
図2は、仮想カメラパスを決定する方法200を示す。方法200は、典型的には、アプリケーション1133の一つ以上のモジュールとして実装され、メモリ1109に格納され、プロセッサ1105の実行下で制御される。
方法200は、決定ステップ201から開始する。ステップ201は、シーンの三次元ビデオデータにおけるアクションパスを決定するために実行される。ステップ201の一実施形態では、モジュール1101は、シーン110のビデオ映像をディスプレイ、例えばディスプレイ1114上に再生する。この実施では、ユーザは仮想環境を介してアクションパスを設定する必要がある。アクションパスは、例えば、入力1113又はタッチスクリーン1114のいずれかを操作することによって、ビデオデータ内の三次元点又は位置のユーザ選択を受信するビデオ映像の表示に関連するグラフィカルユーザインターフェースによって構築することができる。アクションパスは、カメラ120A~120Xで撮像された画像データを用いて合成された仮想環境を通る直線である。アクションパスは、ユーザが仮想カメラ150で記録しようとするイベントの軌跡やタイミングを示す。ユーザは仮想環境における対象物の空間的及び時間的な動きを考慮し、フィールド上でアクションが発生した中心軸を通るアクションパスを構築する。ある構成では、ユーザは、ビデオデータ内に2つ(三次元)の点を定義することによってアクションパスを設定する。
ユーザによって定義された各点は、シーンのビデオデータにおける空間基準点及び時間基準点を特定する。ユーザによって定義される第1の点は、(シーン内の)三次元の空間的な位置及びイベントの開始に関連する時間的な基準をマークする。定義された第2の点は、(シーン内の)三次元の空間的な位置及びユーザの視点から見たイベントの終了に関連する時間的な基準をマークする。ステップ201では、アクションパスを定義するために2つの点を使用することにより、ユーザ側の労力を低減することを要求する。点を定義するタスクを実行するために、ユーザは、空間座標を指定することができるユーザ入力手段と、シーンのタイムラインをナビゲートする手段とを必要とする。ユーザがこれらのタスクを実行するためには、ハードウェア制御又はソフトウェア制御のいずれかが使用され得る。記載された構成では、ユーザは点を定義するために異なるタイプの入力装置を使用できる。例えば、各点は、オブジェクト又はシーン内の位置を示すタッチスクリーン1114の位置を選択することによって、又はゲームパッドなどの入力を使用して位置を選択することによって、グラフィカルユーザインターフェースと対話するユーザによって定義され得る。
ステップ201でアクションパスを定義する別の方法は、ユーザが、記録されるイベントのタイムスパン中に、ビデオデータ内の複数の三次元点を定義することを可能にする。ユーザは、例えば、少なくとも2つの異なる時間値について、シーン内の対象物の位置をマークできる。各ポイント(時間的・空間的位置のマーキング)は、記録されるイベントに参加する重要な対象物の位置に相関する。選択された(定義された)複数のポイントを使用して、アプリケーション1133は、仮想環境を介して対象物の速度特性を決定できる。速度特性は、対象物が通常一定速度で移動しないことを認識するのに役立つ。オブジェクトの速度を決定することは、アプリケーション1133に、オブジェクトが軌道に沿ってどこに位置し、シーン内のどこで仮想カメラが撮影すべきかを指示する。ユーザが複数の点を指定した後、アプリケーション1133は、その複数の点を使用して、すべての点の間で最も適合した線を生成する。生成された最も適合する線がアクションパスになる。記載された構成において、アクションパスは直線を含む。他の実装では、アクションパスは、複数の点の間で三次スプラインを補間することによって生成される曲率を有する開曲線を形成する線を含むことができる。
ステップでアクションパスを定義する別の代替方法は、追跡アルゴリズムを使用することを含む。追跡アルゴリズムは、1つ以上のソースから得られたデータに基づくことができる。供給源は直接的であっても間接的であってもよい。直接的なデータソースには、シーン内の対象物(関心がある物体)によって物理的に装着されたデバイスによって取得されたデータが含まれる。これらのデバイスは通常、全地球測位システム(GPS)又は無線周波数識別(RFID)技術を使用してデータを送信し、環境内の対象物の位置を明らかにする。間接的なデータソースは、ビデオデータを分析する画像ベースのトラッキング方法から得られたデータを含む。例示的な画像ベースの追跡方法は、シーン110を撮影する物理カメラ120A~120Xの映像を分析し、対象となる可能性がある物体を識別するために物体認識を実行する。潜在的な対象物が識別されると、潜在的な対象物の位置が、オブジェクトを含む各物理カメラによって撮影された各フレームに記録される。他の物理カメラからのビューを使用することで、三次元の空間位置がアプリケーション1133の実行によって決定され得る。追跡アルゴリズムがどの対象物を追跡するかを指示された後、環境内で移動するオブジェクトの位置とタイミングを定義する一連の点が生成される。したがって、トラッキングアルゴリズムの実行は、少なくとも2つの異なる時間値について、シーン内の対象物の位置を決定する。アプリケーション11333は、複数の点を使用して、すべての点の間で最も適合する線を生成する。生成された最も適合する線がアクションパスとして使用される。
アクションパスの設定は、環境110内のどのオブジェクト又はエリアを仮想カメラで撮影すべきかについての空間的及び時間的な情報を供給するように動作する。
方法200は、ステップ201から選択ステップ202に続く。ステップ202において、ユーザは、仮想環境に挿入するカメラパステンプレートを選択する。装置1101は、例えば、ビデオ映像を再生するグラフィカルユーザインターフェースを介してユーザ選択を受信することができる。図3は、例示的なカメラパステンプレート300を示す。テンプレートカメラパス300は、関連するテンプレートフォーカスパスに対するテンプレートカメラパスを定義する情報を含む。図3に示すように、カメラパステンプレート300は、仮想カメラパス301及びフォーカスパス302を含む。カメラパス301は、仮想カメラ(150)が移動する経路である。カメラパス301は、一連のカメラ位置値(X、Y、Z)、カメラ方向座標(パン、チルト、ロール、ズーム)、及びカメラ時間座標によって定義される。時間座標値を位置値と組み合わせて、カメラ速度値を得ることができる。カメラパス301上の仮想カメラは、開始位置303と終了位置304とを有する。仮想カメラは、カメラパス301に沿って一定速度で移動する必要はない。
フォーカスパス302は、カメラパス301に関連する線である。フォーカスパスは、始点305と終点306を有する。フォーカスパス302とカメラパス301との関連付けは、カメラパステンプレート300の作成者によって作成される。記載された構成の文脈において、フォーカスパスは、仮想カメラの幾何学的焦点領域を表し、焦点領域は時間とともに移動する。フォーカスパスは、効果的に、座標のセットと、シーン内の対象物(ターゲット)の動きを追跡する最良適合を表す関連方向とを含む。フォーカスパスは、対象物がカメラパスに関連していると予想される位置に相関するように生成される。テンプレートカメラパスは、テンプレートカメラパスに従う仮想カメラがフォーカスパス上の位置を撮影する視野を有するように構成されるという点で、フォーカスパスに関連付けられる。
フォーカスパスは、対象物がフォーカスパスに沿って移動するときのフォーカス領域の速度を定義する速度特性を含むこともできる。フォーカスパスの速度特性は、カメラパスに沿ったカメラパスの速度特性と相関する。例示テンプレート300は、カメラパス301の中心を通るフォーカスパス302を示す。しかしながら、フォーカスパス302は、対象物がシーン内に撮影される可能性が高いカメラパス301に対して、任意の空間的及び時間的関係を有することができる。
方法200は、ステップ202から挿入ステップ203に続く。ステップ203の実行時に、アプリケーション1133は、選択されたカメラパステンプレートを仮想環境に挿入する。最初に、アプリケーション1133はカメラパステンプレートを既定位置に挿入する。既定位置の例としては、仮想環境の原点がある。
方法200は、ステップ203から変換ステップ204に続く。ステップ204は、仮想カメラパスを決定するために、テンプレートフォーカスパスとアクションパスとの間の位置合わせに基づいてテンプレートカメラパスを変換(204)するように効果的に動作する。ステップ204の実行において、アプリケーション1133は、カメラパステンプレート300のフォーカスパス構成要素302を変換して、フォーカスパスを構成されたアクションパスと位置合わせする。アプリケーション1133は、フォーカスパスを変形する際に、フォーカスパス302の始点及び終点がアクションパス301の始点及び終点と一致するように、始点及び終点(305及び306)の位置及び時間値を変更する。したがって、ステップ204の動作は、両方のパス301及び302の位置、向き、スケール及びタイムスパンを整合させる。ステップ204は、さらに、変換された仮想カメラパスからシーンを撮影するビデオフレームを合成(生成)し、撮影されたビデオをディスプレイ1114上に再生する。生成されたビデオは、変換された仮想カメラパスに沿った仮想カメラビューに対応する。
アクションパスへのテンプレートフォーカスパスの整列は、カメラパスを拡大又は縮小するなど、カメラパスを合せるように動作することができる。同様に、アクションパスに対するテンプレートフォーカスパスの位置合わせは、仮想カメラの向きを修正するように動作することができる。アクションパスに速度特性が関連付けられている場合、その調整は、フォーカスパスの速度特性を対応して修正することができる。カメラパス301は、フォーカスパス302に対する修正がカメラパスの位置、向き、及びスケール値に等しく影響するので、フォーカスパス302と固定された関係を有する。
アクションパスが複数の定義された点を利用する方法によって定義される実装において、アクションパスに沿った対象物の速度特性が決定される。また、アプリケーション1133は、アクションパスの速度特性に整合してフォーカスパスの速度特性を修正するように実行することもできる。これに応じて、カメラパスに沿った仮想カメラ150のタイミングが調整される。
アクションパスに合わせてフォーカスパスを修正した結果、カメラパスは、アクションパスを作成するユーザによって最初に指示されたイベントを適切に撮影するように過剰に修正される場合がある。イベントの対象物を撮影するために仮想カメラの向きをより良くするために、アプリケーション1133は、仮想カメラを再配向することによって、カメラの位置とは独立してカメラの向きを修正することができる。カメラを再配向するために、アプリケーション1133は、一連の複数の定義された点を参照し、時間の経過に伴う対象物の位置をマークする。アプリケーション1133が、決定されたフォーカスパスとアクションパスとのマッチングに基づいてカメラパス上のカメラの位置移動を修正する間、仮想カメラの向きは、複数の定義された点(対象物の位置を示す)及び点間の中間位置を撮影するように修正される。
アクションパスが曲線に関連する場合、アプリケーション1133は、フォーカスパスの始点を曲線の始点に、フォーカスパスの終点を曲線の終点に一致させるように実行する。さらに、テンプレートフォーカスパスの中間点は、曲線の中間点に一致する。さらに、又は代替的に、テンプレートフォーカスパスの所定の数の位置又は点を、曲線上の対応する数の点に一致させることができる。
ステップ204の実行後、方法200は終了する。
次に、方法200について、例示的なシナリオを参照して説明する。図4は、仮想環境400の一例を示す。仮想環境400は、ディスプレイ1114上に再現されるシーン110の一部を表す。ステップ201の実行において、ユーザは環境400内にアクションパスを設定する。図4の例では、仮想環境400はサッカーゲームのシーンである。ユーザが撮影しようとするイベント401は、ゴール407に向かってボールをドリブルするプレーヤのイベントである。説明の目的で、プレイヤーの動きの全軌跡を読者に伝えるために、プレイヤーとボールの位置を示すイラスト440が繰り返されている。
イベント401を撮影するために、ユーザはステップ201に従ってアクションパス402を作成する。ユーザは、入力装置(例えば入力1113)を使用して、グラフィカルユーザインターフェース(図示せず)を介して、イベントの開始時点までシーンのタイムラインをナビゲートする。ユーザは、始点403を指定し、イベント401の開始位置をマークする。ユーザは、イベント401の終わりまでタイムラインをナビゲートする。ユーザは、終点404を指定し、イベント401の終了位置をマークする。始点403及び終点404を指定することにより、アクションパス402が定義される。アクションパス402を定義した後、ユーザは、ステップ202の一部として、仮想環境に挿入するカメラパステンプレートを選択する。
図5は、選択用の複数のカメラパステンプレートを有するユーザインターフェースの一例を示す。ユーザには、3つの異なるカメラパステンプレートA501、B502及びC503を示すGUIウィンドウ500が提示される。各テンプレート501、502及び503は、実線で示すフォーカスパスと、破線で示すカメラパスとを含む。本明細書に記載する例では、ユーザは、仮想環境に挿入するテンプレートB502を選択する。
図6は、アプリケーションが選択されたカメラパステンプレート601(テンプレート502に対応)を、仮想環境600(環境400に対応)に挿入するステップ203の動作を示す。 ステップ204は、アプリケーション1133がフォーカスパス602を変換して、ステップ201で設定されたアクションパス603と位置合わせするように実行される。アクションパス603は、アクションパス402に対応する。アプリケーション1133は、選択されたカメラパステンプレート601を既定位置、例えばユーザから受信したインタラクションの最初又は最後の位置で仮想環境600に挿入するように実行する。アプリケーション1133は、ステップ204を実行して、カメラパステンプレート601のフォーカスパス602をアクションパス603に位置合わせするように変換する。フォーカスパス602をアクションパス604と位置合わせするために、アプリケーションは、フォーカスパス602の始点605の位置及び時間値を、アクションパス603の開始点607の位置及び時間値と同じになるように変更する。アプリケーション1133は、フォーカスパス602の終点606の位置及び時刻値を、アクションパス603の終点608の位置及び時刻値と同一にする修正を実行する。
図7は、ステップ204の実行結果及び方法200の対応する結果を示す。図7のシーン700は、図6のシーン600に対応する。変換されたテンプレート701は、ステップ204の実行後のテンプレート601に対応する。アプリケーションがカメラテンプレート601を変形し、フォーカスパス602の値を変更した結果、修正されたカメラパス701が生成され、それによって仮想カメラ150は(イベント401に対応する)イベント702を撮影することができる。
図8は、図2の方法200の一部として使用するためのカメラパステンプレートを生成する方法800を示す。方法800は、典型的には、アプリケーション1133の一つ以上のモジュールとして実装され、メモリ1109に格納され、プロセッサ1105の実行下で制御される。
図9A、図9B、図10及び図11は、方法800のステップの動作の一例を提供する。方法800は、アクセスステップ801で開始する。ステップ804は、カメラパスを定義するカメラ座標へのアクセスを実行する。アプリケーション1133は、ユーザが仮想カメラパスを生成した以前のイベントの履歴データにアクセスすることにより、カメラ座標にアクセスする。カメラ座標は、例えば、イベント又は仮想カメラに関連して記憶され得る。アプリケーション1133は、追加的に又は代替的に、他のソースからカメラ座標にアクセスすることができる。例えば、アプリケーションは、Autodesk 3DS MAXなどのカメラパス・オーサリング・ソフトウェア・アプリケーションによって生成されたカメラ座標にアクセスできる。
図9Aは、例示的な仮想環境900の図である。仮想環境900は、カメラ120A~120Xによって収集された三次元ビデオデータから合成される。仮想環境900は、抽出される既存のカメラパス901を含む。カメラパス901は、経時的な一連のカメラ座標を含む。
方法800は、ステップ801から分離ステップ802に進む。ステップ802の実行において、カメラ座標の一部が抽出(分離)され、カメラパステンプレートのカメラパスとなる。ステップ802は、図2のステップ201でアクションパスを定義するために説明したものと同様の方法を使用することができる。カメラ座標の分離では、ユーザはカメラパスの開始値と終了値を手動で定義できる。あるいは、アプリケーション1133は、カメラパスの開始値及び終了値を定義するために実行することができる。一例では、ユーザは、例えばイベントに関連する点を選択することによって、GUIを使用してカメラパスの開始値及び終了値を手動で定義する。別の例では、アプリケーション1133は、カメラパスが最初に記録されたイベントの分析及びイベントを撮影するカメラ座標の決定に基づいて、カメラパスの始点又は終点を定義することができる。例えば、オブジェクトに関連付けられた追跡データと追跡アルゴリズムを使用して、開始時間と終了時間を決定できる。アプリケーション1133は、追加的に又は代替的に、トレーニングされた分類器を使用して、ゴールを決める、ボールをパスする等のイベントの発生を検出することができる。図9Aにおいて、抽出(分離)されるべきカメラパス901の部分は、始点902及び終点903によって定義される。
方法800は、ステップ802から設定ステップ803に進む。ステップ803の実行において、分離されたカメラパスに関連してフォーカスパスが設定される。ユーザ又はアプリケーション1133は、フォーカスパスを定義する。一例では、ユーザは、仮想カメラの視野のイベント及び動きを観察し、フォーカスパスの位置及び方向を手動で決定する。例えば、ユーザは、ステップ803において、グラフィカルユーザインターフェース(図示せず)を操作して、フォーカスパスの位置及び向きを選択することができる。次いで、ユーザは、図9Bに示すように、フォーカスパスの始点907、続いてフォーカスパスの終点908を指定することによってフォーカスパスを設定する。いくつかの実施例では、ユーザは、始点907と終点908との間にいくつかの点を提供することができる。別の例では、アプリケーション1133は、フォーカスパスの決定を実行する。ある実装例では、ステップ803は、ステップ201に関連して説明した追跡アルゴリズムを実行して、アクションパスを決定する。追跡アルゴリズムは、フォーカスパスとして、又はフォーカスパスを決定するために使用される。
図9Bにおいて、フォーカスパス904は、フォーカスパス907の開始のタイミング値がカメラパス902の開始と同じであるカメラパス905の一部によって撮影されたイベント906に関連して定義される。同様に、フォーカスパス908が終了するタイミングは、カメラパス903の終了と同じである。
方法800は、ステップ803から抽出ステップ804に進む。ステップ804の実行では、カメラパス及びフォーカスパスがカメラパステンプレートとして抽出される。図10は、アプリケーション1133がカメラパス1001及びフォーカスパス1002を一般化されたカメラパステンプレート1000に抽出することを示す。一般化されたカメラテンプレートは、GUIウィンドウ1050の表示に追加されたメモリ1109に格納される。GUIウィンドウ1050は、図5に示されるテンプレート502及び503を含む。
ここで説明する構成は、画像処理の産業、特にビデオ撮影及びリプレイの産業に適用できる。
フォーカスパスを使用すると、関心のある物体を含むビデオを取り込み可能にするように、シーンの複数のパラメータを要約することができる。フォーカスパスをアクションパスに位置合わせすると、カメラパスの変換が改善され、イベントに関連付けられたパラメータやイベントが異なっていてもテンプレートを再利用できる。したがって、記載された構成におけるフォーカスパスの使用は、テンプレートを使用してイベント又は対象物を適切に撮影する可能性を改善する。フォーカスパスをアクションパスと位置合わせすることにより、上述の構成は、仮想カメラを操作するユーザが仮想カメラの構成又は案内の専門家である必要がないという解決策をさらに提供する。さらに、イベントの適切なリプレイを生成するために必要な時間を短縮することができる。
上記では本発明のいくつかの実施形態のみを説明するものであり、それに対して本発明の範囲及び趣旨から逸脱することなく変形及び/又は変更が可能であり、実施形態は例示的なものであり限定的ではない。

Claims (15)

  1. 仮想視点の位置の変化パターンと前記仮想視点が向けられる対象位置の第1移動経路とを表す複数の異なるテンプレートの中から、ユーザ入力に基づいてテンプレートを決定する決定手段と、
    3次元空間におけるシーン内において、ユーザ入力に基づいて仮想視点が向けられる対象位置の第2移動経路を特定する特定手段と、
    前記決定手段によって決定されたテンプレートに対応する前記第1移動経路上の所定の数の点と前記第2移動経路上の所定の数の点とを一致させて修正させた第1移動経路と、前記決定手段により決定されたテンプレートにより表される仮想視点の位置の変化パターンとに基づいて、前記第2移動経路に対応する仮想視点の位置の変化パターンを設定する設定手段と
    を有することを特徴とする情報処理装置。
  2. 前記第2移動経路は、少なくとも2つの異なる時刻における前記シーン内の位置によって決定されることを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2移動経路は、前記シーン内の特定のオブジェクトの移動経路に基づいて決定されることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記仮想視点からの視線方向は、前記特定のオブジェクトに向けられるように設定されることを特徴とする請求項3に記載の情報処理装置。
  5. 前記第2移動経路は、直線または曲線であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記テンプレートは、前記仮想視点からの視線方向の変化パターンをさらに表すことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記第2移動経路は、前記シーンにおける位置と時刻とを有する2つ以上の点によって定義されることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記2以上の点に基づいて特定される速度特性と、前記テンプレートの速度特性とが合うように、前記決定手段により決定されたテンプレートの速度特性が決定されることを特徴とする請求項7に記載の情報処理装置。
  9. 前記仮想視点の位置の変化は、前記テンプレートの前記速度特性に応じて調整されることを特徴とする請求項8に記載の情報処理装置。
  10. 前記第1移動経路に対する修正が前記テンプレートに対応して適用されるように、前記テンプレートと前記第1移動経路とが関連付けられることを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記テンプレートは、複数の異なるテンプレートカメラパスの中からユーザ入力に基づいて選択されることにより決定されることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 前記設定手段により設定された前記仮想視点の位置及び前記仮想視点からの視線方向に基づくビデオデータが生成されることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 前記シーンは、複数の撮影装置により撮影されるイベントにおけるシーンであることを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  14. 仮想視点の位置の変化パターンと前記仮想視点が向けられる対象位置の第1移動経路とを表す複数の異なるテンプレートの中から、ユーザ入力に基づいてテンプレートを決定する決定工程と、
    3次元空間におけるシーン内において、ユーザ入力に基づいて仮想視点が向けられる対象位置の第2移動経路を特定する特定工程と、
    前記決定工程によって決定されたテンプレートに対応する前記第1移動経路上の所定の数の点と前記第2移動経路上の所定の数の点とを一致させて修正させた第1移動経路と、前記決定工程により決定されたテンプレートにより表される仮想視点の位置の変化パターンとに基づいて、前記第2移動経路に対応する仮想視点の位置の変化パターンを設定する設定工程と
    を有することを特徴とする情報処理方法。
  15. コンピュータを、請求項1乃至13のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2021530280A 2018-11-27 2019-07-23 仮想カメラパスを決定するシステム及び方法 Active JP7282887B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/201,812 US10685679B1 (en) 2018-11-27 2018-11-27 System and method of determining a virtual camera path
US16/201,812 2018-11-27
PCT/AU2019/050765 WO2020107058A1 (en) 2018-11-27 2019-07-23 System and method of determining a virtual camera path

Publications (2)

Publication Number Publication Date
JP2022510658A JP2022510658A (ja) 2022-01-27
JP7282887B2 true JP7282887B2 (ja) 2023-05-29

Family

ID=70770341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021530280A Active JP7282887B2 (ja) 2018-11-27 2019-07-23 仮想カメラパスを決定するシステム及び方法

Country Status (3)

Country Link
US (1) US10685679B1 (ja)
JP (1) JP7282887B2 (ja)
WO (1) WO2020107058A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113747138A (zh) * 2021-07-30 2021-12-03 杭州群核信息技术有限公司 虚拟场景的视频生成方法和装置、存储介质及电子设备
JP2023167486A (ja) * 2022-05-12 2023-11-24 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN117395510B (zh) * 2023-12-12 2024-02-06 湖南快乐阳光互动娱乐传媒有限公司 虚拟机位的控制方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107793A (ja) 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018112997A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5977978A (en) 1996-11-13 1999-11-02 Platinum Technology Ip, Inc. Interactive authoring of 3D scenes and movies
US9070402B2 (en) 2006-03-13 2015-06-30 Autodesk, Inc. 3D model presentation system with motion and transitions at each camera view point of interest (POI) with imageless jumps to each POI
US20120098925A1 (en) 2010-10-21 2012-04-26 Charles Dasher Panoramic video with virtual panning capability
US10175345B2 (en) * 2014-10-17 2019-01-08 Voxtel, Inc. Event tracking imager
US9852351B2 (en) * 2014-12-16 2017-12-26 3Ditize Sl 3D rotational presentation generated from 2D static images
US10593048B2 (en) * 2016-01-07 2020-03-17 Rapsodo Pte. Ltd. Object surface matching with a template for flight parameter measurement
JP6672075B2 (ja) 2016-05-25 2020-03-25 キヤノン株式会社 制御装置、制御方法、及び、プログラム
US10351237B2 (en) * 2016-07-28 2019-07-16 Qualcomm Incorporated Systems and methods for utilizing unmanned aerial vehicles to monitor hazards for users
US10970915B2 (en) 2017-01-06 2021-04-06 Canon Kabushiki Kaisha Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107793A (ja) 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2018112997A (ja) 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム

Also Published As

Publication number Publication date
WO2020107058A1 (en) 2020-06-04
US10685679B1 (en) 2020-06-16
JP2022510658A (ja) 2022-01-27
US20200168252A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US10902676B2 (en) System and method of controlling a virtual camera
US11164282B2 (en) Virtual lens simulation for video and photo cropping
US11533438B2 (en) Method to configure a virtual camera path
JP7282887B2 (ja) 仮想カメラパスを決定するシステム及び方法
CN114727022B (zh) 在全向视频中的跟踪感兴趣对象
EP2583449B1 (en) Mobile and server-side computational photography
CN110944727A (zh) 控制虚拟照相机的系统和方法
EP3668093B1 (en) Method, system and apparatus for capture of image data for free viewpoint video
US20130215229A1 (en) Real-time compositing of live recording-based and computer graphics-based media streams
KR102464944B1 (ko) 카메라 워크를 재현하는 방법 및 장치
KR102356448B1 (ko) 이미지 합성 방법 및 그 전자 장치
US20160323507A1 (en) Method and apparatus for generating moving photograph
KR101484844B1 (ko) 실시간 영상에 프라이버시 마스킹 툴을 제공하는 장치 및 방법
JP2019033430A (ja) 動画再生装置およびその制御方法、並びにプログラム
CA2838878A1 (en) Method and apparatus for controlling contents in electronic device
US20200106967A1 (en) System and method of configuring a virtual camera
US9600160B2 (en) Image processing device, image processing method, and program
KR20160053428A (ko) 유저 인터페이스를 통한 카메라 장치의 동작 방법
US10200606B2 (en) Image processing apparatus and control method of the same
KR20190122053A (ko) 객체 영상 트랙킹 스트리밍 시스템 및 이를 이용한 스트리밍 방법
WO2021131991A1 (ja) 映像生成装置、映像生成方法および映像生成プログラム
KR101511868B1 (ko) 다중 카메라 디바이스를 활용한 멀티미디어 촬영 방법 및 그 시스템
Vanherle et al. Automatic Camera Control and Directing with an Ultra-High-Definition Collaborative Recording System
JP2002232782A (ja) 画像処理装置および画像処理方法、並びにプログラム記憶媒体
CN113284044A (zh) 图像生成方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R151 Written notification of patent or utility model registration

Ref document number: 7282887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151