JP7102173B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7102173B2
JP7102173B2 JP2018043458A JP2018043458A JP7102173B2 JP 7102173 B2 JP7102173 B2 JP 7102173B2 JP 2018043458 A JP2018043458 A JP 2018043458A JP 2018043458 A JP2018043458 A JP 2018043458A JP 7102173 B2 JP7102173 B2 JP 7102173B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
viewpoint
information
virtual
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043458A
Other languages
English (en)
Other versions
JP2019159593A (ja
JP2019159593A5 (ja
Inventor
祐矢 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018043458A priority Critical patent/JP7102173B2/ja
Priority to US16/294,195 priority patent/US10997239B2/en
Publication of JP2019159593A publication Critical patent/JP2019159593A/ja
Priority to US17/221,024 priority patent/US11334621B2/en
Publication of JP2019159593A5 publication Critical patent/JP2019159593A5/ja
Application granted granted Critical
Publication of JP7102173B2 publication Critical patent/JP7102173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想視点映像を検索するための情報処理装置、情報処理方法、及びプログラムに関する。
昨今、複数のカメラを異なる位置に設置して複数視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、任意の仮想カメラ(仮想視点)からの映像(仮想視点映像)を生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが可能となり、通常の映像コンテンツと比較してユーザに高臨場感を与えることが可能となる。
複数の映像から所望の映像を検索する場合、撮影日時やシーンといった情報を検索要素とすることができる。特許文献1には、複数のカメラで撮影された映像から、ユーザが指定したシーン(例えば警報検出場面)や時間帯に対応する映像を検索して、検索により得られた映像をユーザに提示する装置が開示されている。
特開2004-145564号公報
上記のような技術によれば、同一のシーンに対して、視点が異なる複数の仮想視点映像が生成される場合がある。そのため、従来のように撮影日時やシーンを指定しても、複数の仮想視点映像の中から所望の仮想視点映像を特定することが難しいケースが予想される。
そこで、本発明は、仮想視点映像の検索に関する利便性を向上させることを目的とする。
本発明による情報処理装置は、複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、該仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得手段と、生成済みの一以上の仮想視点映像であって、取得手段により取得される検索条件に含まれる視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む一以上の仮想視点像を、所定の条件において特定する特定手段と、特定手段により特定された一以上の仮想視点映像を出力する出力手段と、を有し、検索条件は、頻度に関する情報を更に含み、特定手段は、検索される頻度が閾値よりも大きい視点情報に対応する一以上の仮想視点映像を特定する。
本発明によれば、仮想視点映像の検索に関する利便性を向上できる。
実施形態における画像検索システムの構成の一例を示すブロック図である。 実施形態における仮想視点映像データを蓄積する際のデータフォーマットの一例を示す図である。 ユーザが視点情報を入力するためのUI画面の一例を示す図である。 実施形態における仮想視点映像の検索処理を示すフローチャートである。 実施形態における検索処理を説明するための図である。 実施形態における検索処理を説明するための図である。 実施形態における検索処理を説明するための図である。 実施形態における検索処理を説明するための図である。 実施形態における検索処理を説明するための図である。
以下、本発明の実施の形態について詳細に説明する。なお、以下の実施の形態に記載されている構成要素は、本発明の例としての形態を示すものであり、本発明の範囲をそれらのみに限定するものではない。
[第1実施形態]
図1は、第1実施形態における画像検索システムの構成の一例を示すブロック図である。第1実施形態における画像検索システムは、図1に示すように、仮想視点映像を検索する仮想視点映像検索装置(以下、画像検索装置、または単に検索装置と呼ぶ)10を備える。また、画像検索システムは、ユーザが視点情報を入力する視点情報入力部30と、仮想視点映像を示す仮想視点映像データが蓄積される仮想視点映像蓄積部(以下、単に蓄積部と呼ぶ)20とを備える。
検索装置10は、例えば、PC(Personal Computer)、WS(Work Station)、各種サーバなどのコンピュータである。なお、コンピュータは、タブレットPCやスマートフォンであってもよい。検索装置10は、本実施形態の特徴的な処理を行う。検索装置10の処理の詳細については、図4を用いて後述する。
蓄積部20は、1または複数の仮想視点映像データを蓄積する。蓄積部20は、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD)、フラッシュメモリなどのストレージデバイスである。なお、蓄積部20は、単一のデバイスで構成されていてもよいし、複数のデバイスの集合体で構成されていてもよいし、複数種類のデバイスが混在していてもよい。また、蓄積部20は、物理デバイスではなく、ネットワーク上に仮想化されたクラウド上のデバイスで構成されていてもよい。また、蓄積部20に蓄積される仮想視点映像データは、どのような生成手段によって生成されてもよい。さらに、仮想視点映像データは、どのようなデータフォーマットで蓄積部20に蓄積されてもよい。ただし、蓄積部20に蓄積される仮想視点映像データのそれぞれには、視点情報が付与されるものとする。蓄積部20に蓄積される仮想視点映像データのデータフォーマットの詳細については、図2を用いて後述する。
検索装置10と蓄積部20は、ネットワークを介して接続されている。なお、本実施形態では、検索装置10と蓄積部20とを接続するネットワークとしてEthernet(登録商標)を用いることとするが、その他のネットワークを用いてもよい。また、検索装置10と蓄積部20は、同じ筐体内に格納されていてもよい。その場合、検索装置10と蓄積部20は、コンピュータ内の内部バスによって接続されるものとする。
図2は、第1実施形態において蓄積部20に蓄積される仮想視点映像データのデータフォーマットの一例を示す図である。図2に示すように、本実施形態における仮想視点映像データ202は、メタデータ201が付与された状態で蓄積部20に格納される。メタデータ201は、仮想視点パラメータ211と映像付属情報212とを含む。このように、本実施形態では、仮想視点映像データ202に、視点情報として仮想視点パラメータ211が付与されるものとする。なお、データ201,202は互いに関連づけられて蓄積されていればよく、それぞれの配置や順序は図2に示す形態に限定されない。また、メタデータ201内におけるパラメータや情報の配置や順序は図2に示す形態に限定されない。
仮想視点パラメータ211は、姿勢パラメータ221と位置パラメータ222とを含む。仮想視点パラメータ211の詳細については後述する。映像付属情報212は、例えば、撮影時刻情報(以下、単に時刻情報と記す)や、映像の解像度や色空間といった映像データに一般的に付与される、メタデータである。なお、時刻情報は、対象となる仮想視点映像の撮影時刻を示す情報であり、より具体的には、該仮想視点映像の生成元である撮影映像の撮影時刻を示す情報である。なお、撮影時刻は、絶対時刻であってもよいし、撮影開始時刻を0とした相対時刻であってもよい。なお、相対時刻の表現形式として一般的な規格であるタイムコード、またはそれに類するものであってもよい。
ここで、仮想視点パラメータ211について説明する。仮想視点パラメータ211の姿勢パラメータ221は、仮想カメラの姿勢を示すパラメータである。本実施形態では、仮想カメラの姿勢をクォータニオンで表現するものとする。クォータニオンは、以下の式(1)で表現される。
Figure 0007102173000001
式(1)において、セミコロンの左側は実数部を表現していて、x,y,zは虚数部を表現している。クォータニオン表現を用いることによって、任意の方向を軸とする任意の回転を容易に表現することが可能となる。具体的には、以下の手順となる。
まず、回転させたい点Pを以下の式(2)と置く。
Figure 0007102173000002
次に、回転軸の方向を表すベクトルをv=(xv,yv,zv)と表し、回転させたい角度をθと表し、以下の式(3)(4)を用いてこのベクトルvから2つのクォータニオンQ,Rを求める。なお、ベクトルvは正規化されていることとする。
Figure 0007102173000003
Figure 0007102173000004
最後に、以下の式(5)に示すような演算を実行する。
Figure 0007102173000005
この結果、ベクトルvを向いた軸まわりに点Pをθ回転させた点が、座標(x,y,z)として得られる。なお、姿勢パラメータ221の表現方法はこれに限定されず、例えば回転行列表現でもよい。
位置パラメータ222は、仮想カメラの位置を示すパラメータである。世界座標上の原点を(0,0,0)とした3次元座標(x,y,z)であるとする。このように、本実施形態では、位置パラメータ222を3次元ベクトルで表現する。
なお、図2には、仮想視点映像データ202がメタデータ201と連続したデータ領域に格納される例が示されているが、仮想視点映像データ202は、メタデータ201と連続したデータ領域に格納されていなくてもよい。また、仮想視点映像データ202とメタデータ201とは、同一ファイル内に格納されている必要はなく、それぞれが別のファイルに格納されていてもよい。
また、仮想視点映像データ202が動画像、すなわち複数フレームで構成される映像である場合は、フレームの数と同じだけの仮想視点パラメータ211が、仮想視点映像データ202に付与されるものとする。なお、フレームの数に関わらず、代表的な仮想視点パラメータ211を仮想視点映像データ202に付与するようにしてもよい。その場合、仮想視点パラメータ211の代表値の求め方については特に限定しない。例えば、全フレーム分の仮想視点パラメータの平均値や中央値を代表値としてもよい。また例えば、仮想視点映像データを生成したユーザが指定した値を代表値としてもよい。
視点情報入力部30は、視点情報を入力する。視点情報入力部30が入力する視点情報は、仮想視点映像を検索するための情報である。例えば、後述する仮想カメラの位置である。本実施形態における視点情報入力部30は、タッチパネル等の入力手段を有する液晶ディスプレイ等の表示装置で構成されているものとする。視点情報入力部30は、後述する図3に示すようなユーザインターフェース(UI)画面を表示する。そして、ユーザは、UI画面に対してタッチ操作などの入力操作を行うことで視点情報を指定する。視点情報入力部30は、ユーザが指定した視点情報を、図2に示す仮想視点パラメータ211のデータ形式で検索装置10に送付する。なお、視点情報入力部30は、マウスやジョイスティックなどの入力デバイスからの信号を受け付け可能に構成されていてもよい。
図3は、ユーザが視点情報を入力するためのUI画面の一例を示す図である。図3に示すUI画面には、サッカーのグラウンド300を俯瞰した画像(2次元の空間情報)が表示されていて、該2次元の空間情報に対してユーザが視点情報を指定する。
まず、ユーザは、タッチパネルを操作したり、マウスやジョイスティックのような入力デバイスを使用したりして、希望する視点の位置をカーソル(例えばマウスポインタ)で指定する。カーソルは、初期状態ではグラウンド300の中央に位置しているものとする。図3に示す例では、ユーザ操作によってグラウンド300右下の位置301にカーソルが移動されている。
視点の位置を確定すると、次にユーザは、姿勢を指定する。本実施形態では、図3に示す矢印302を回転させることによって姿勢を指定可能である。ここでは、位置301は、(x,y)の2次元で表現されている。また、姿勢すなわち矢印302の方向は最初の状態では右向き(図3における右方向)であり、グラウンド300の長手方向と並行であるとする。図3には、最初の状態から矢印302を反時計回りに90度回転させた姿勢θをユーザが指定したときの状態が示されている。
図3に示すUI画面にてユーザが指定した位置(位置301)及び姿勢(矢印302)は、サッカーの試合の状況に照らし合わせると、図3右側の陣地に攻め入ったチームがセンタリングを上げる場面などに対応する。また、通常の動画像コンテンツを検索する際に時刻情報を指定するように、仮想視点映像コンテンツが複数フレームから構成される動画像データである場合は、目盛り指定部303を使用して時刻指定を行うことができる。ユーザは、目盛り指定部303上のつまみ(黒丸)の位置を指定することで、時刻情報を指定することができる。図3に示す例では、試合開始後15分あたりをユーザが選択していることになる。なお、本実施形態では説明を容易にするため、2次元で表現された画像上で検索が行われる場合を例にしたが、3次元空間のz方向、すなわちグラウンド300の物理空間での高さ方向を検索条件に含めるようにしてもよい。つまり、3次元上の位置や姿勢をユーザが指定可能なようにしてもよい。その場合、ユーザに位置や姿勢を指定させるUIとしては、3次元の画像(空間情報)をユーザに提示し、ユーザに位置や姿勢を指定させるUIが想定される。例えば、各種の3Dシミュレータや3Dゲームで行われているように、対象となる仮想空間(仮想的な3次元空間)上にユーザが存在するものとして、該ユーザが見ている方向を視点情報入力部30の画面上に表示するUIが想定される。このようなUIを用いることで、ユーザは、ジョイスティックなどを操作して、仮想空間上を自由に移動したり、仮想空間上で見たい方向を向いたりすることにより、所望の位置および姿勢を仮想視点パラメータとして容易に指定することが可能となる。
なお、ユーザに位置や姿勢を指定させるUIの表現形式は、上述した例に限定されない。例えば、キーボードを使用して具体的な数値で位置や姿勢を指定可能なUIを採用してもよい。また、上述したマウスやジョイスティック等の操作デバイスを複数組み合わせて位置や姿勢を指定するUIを採用してもよい。さらに、動画再生アプリケーションにおいて動画像コンテンツを検索する際に一般的に採用されている、ハイライトシーンを提示するようなインターフェースを採用してもよい。例えば、図3に示す目盛り指定部303上にカーソルが置かれたときに、該カーソルが置かれた位置に、該位置に対応する時間帯のハイライトシーンを重畳して表示するようにしてもよい。そのような形態によれば、ユーザは、表示されるハイライトシーンを確認しながら、特定のイベントが起こった時間帯を把握することが可能となる。したがって、ユーザは、単純に時間を指定するのではなく、特定のイベントが起こった時間の周辺の時間帯を指定することが可能となる。
また、姿勢パラメータ、位置パラメータ、及び時刻情報の全てのパラメータを指定する必要はなく、いずれかのパラメータのみ、またはいずれか任意のパラメータを組み合わせて指定するようにしてもよい。その他、時刻情報に限らず、映像付属情報212に含まれている他の情報を検索条件として利用してもよい。例えば、色空間や解像度といった映像フォーマットに関する情報を利用してもよい。また例えば、仮想視点映像データの生成時に付与されるカテゴリ情報を示すメタデータを利用してもよい。カテゴリ情報としては、例えばスポーツの種別(サッカーやラグビーなど)を示す情報や、そのサブカテゴリ(コーナーキックやフリーキックやペナルティーキックやゴールシーンなど)を示す情報が想定される。また、一般的にトリックプレーと呼ばれるようなフレームの早回し、スロー再生など、映像編集に関する情報をカテゴリ情報として指定するようにしてもよい。また、仮想視点映像には、あるフレームで静止した状態の被写体(オブジェクト)の周囲を複数フレームかけてぐるりと回転するような停止回転と呼ばれるトリックプレーが存在する。このような仮想視点映像特有の映像編集に関する情報をカテゴリ情報として指定するようにしてもよい。
また、映像に関するパラメータとして画角がある。例えば、あるシーンを同じ視点から撮影した映像であったとしても、特定の選手に注目してズームした望遠の映像と、そのシーンを俯瞰して見た広角の映像とでは映像の見え方が異なる。したがって、仮想視点パラメータ211または映像付属情報212に画角情報を含ませるようにして、検索条件として画角情報をユーザに指定させるようにしてもよい。このとき、「望遠」「広角」といったある程度カテゴライズされた画角情報をユーザに指定させるようにしてもよいし、0~180度内の任意の角度を画角情報としてユーザに指定させるようにしてもよい。なお、ユーザに画角情報を指定させるUIとして、画角情報を直観的に指定できるようなUIを採用してもよい。例えば、先に述べたような仮想的な3次元空間上においてユーザの視野を変更するとこで、該視野に応じた画角情報を仮想視点パラメータとして指定可能なようにしてもよい。
検索装置10と視点情報入力部30とは、ネットワーク接続されているとする。なお、本実施形態では、検索装置10と視点情報入力部30とを接続するネットワークとしてEthernet(登録商標)を用いることとするが、その他のネットワークを用いてもよい。また、検索装置10と視点情報入力部30とは、同じ筐体内に格納されていてもよい。その場合、検索装置10と視点情報入力部30とは、コンピュータ内の内部バスによって接続されるものとする。
次に、検索装置10の構成及び動作を説明する。検索装置10は、図1に示すように、視点情報取得部101、視点情報比較部102、検索結果生成部103、及び検索結果提示部104を有する。視点情報取得部101は、蓄積部20から、蓄積部20に蓄積されている仮想視点映像データに付与されている仮想視点パラメータ211及び映像付属情報212を取得する。視点情報比較部102は、視点情報入力部30から受け取った仮想視点パラメータと、視点情報取得部101から受け取った仮想視点パラメータとを比較する。検索結果生成部103は、視点情報比較部102の比較結果から検索結果を生成する。検索結果提示部104は、検索結果生成部103から受け取った検索結果をユーザに提示する。
ここで、図4を用いて、検索装置10における仮想視点映像の検索処理について説明する。図4は、第1実施形態の検索装置10における仮想視点映像の検索処理を示すフローチャートである。図4に示すフローチャートの一連の処理は、例えば、検索装置10のCPU(不図示)がROM(不図示)に記憶されているプログラムコードをRAM(不図示)に展開し実行することにより行われる。また例えば、図4におけるステップの一部または全部をASICや電子回路等のハードウェアで実現してもよい。
ステップS401(以下、単にS401と表記する。他のステップについても同様に表記する)において、視点情報入力部30が、ユーザが視点情報を入力したかどうかを監視する。視点情報が入力されると(S401のYES)、視点情報入力部30は、入力された視点情報を視点情報比較部102に渡す。なお、ここでは、視点情報とともに時刻情報が入力されるものとする。したがって、視点情報入力部30は、入力された時刻情報も視点情報比較部102に渡す、処理はS402に進む。視点情報が入力されていない場合には(S401のNO)、処理はS401に戻る。
S402において、視点情報取得部101が、蓄積部20から、蓄積部20に蓄積されている仮想視点映像データに付与されている仮想視点パラメータ211及び映像付属情報212を取得する。なお、ここでは、映像付属情報212として少なくとも時刻情報が取得されるものとする。そして、視点情報取得部101は、取得した仮想視点パラメータ211および時刻情報を視点情報比較部102に渡す。
S403において、視点情報比較部102が、視点情報入力部30から受け取った視点情報および時刻情報と、視点情報取得部101から受け取った仮想視点パラメータ211および時刻情報とを比較する。S404において、検索結果生成部103が、視点情報比較部102の比較結果から検索結果を生成する。S405において、検索結果提示部104が、検索結果生成部103から受け取った検索結果を視点情報入力部30の液晶ディスプレイ等に表示する。
次に、具体例を用いて、上述したS403の比較処理、S404の検索結果の生成処理、及びS405の検索結果の提示処理について説明する。図5は、第1実施形態における検索処理を説明するための図である。ここでは、あるサッカーの試合における一シーンについて生成された仮想視点映像A,B,及びCが、蓄積部20に蓄積されているものとする。図5には、上記仮想視点映像A,B,及びCに対応するカメラパスが、矢印線502,503,及び504で模式的に示されている。矢印線の始点はカメラパスの始点(最初のフレーム)を表し、矢印線の先端はカメラパスの終点(最終フレーム)を表す。カメラパスは、仮想視点パラメータを画像のフレーム分連続させて得られるパスであり、仮想視点の経路を示す。なお、先に述べた停止回転のように、同時刻のフレームが複数生成されるような映像編集が行われた場合、画像のフレーム数が実時間のフレーム数と一致しない仮想視点映像データが生成され得る。しかし、そのような仮想視点映像データによって示される仮想視点映像についても、同様にしてカメラパスで表現することができる。白抜き矢印501(以下、仮想視点入力501と記す)は、図3に示すUI画面にてユーザが検索条件として指定した視点情報を模式的に示したものである。
ユーザが指定した検索条件(仮想視点入力501で示される仮想カメラの位置)と、仮想視点映像A,B,及びCそれぞれの位置パラメータ222とが、上記S403の処理において比較される。そして、仮想視点映像Aの位置パラメータ222の平均値が仮想視点入力501と最も近いため、検索結果として仮想視点映像Aが提示される。
なお、位置パラメータ222は3次元ベクトルで表現されるため、位置パラメータ222の平均値は、仮想視点映像の各フレームにおける仮想カメラの位置を示すベクトルの平均値として算出される。ベクトルの各要素は直交した軸の座標値であるため、位置パラメータ222の平均値は、結果として各座標それぞれの平均値になる。また、ある仮想視点映像について算出された平均値とユーザが指定した仮想視点入力501との差(類似度)が予め定められた閾値以下である場合に、該仮想視点映像の情報を検索結果としてユーザに提示するものとする。なお、S403の比較処理に用いる値は平均値に限定されず、位置パラメータ222の中央値や頻度の高い値でもよい。また、S403の比較処理に、位置パラメータ222ではなく、姿勢パラメータ221を使用するようにしてもよいし、位置パラメータ222と姿勢パラメータ221との両方を使用するようにしてもよい。また、S403の比較処理に、時刻情報を追加使用するようにしてもよい。また、位置パラメータ222と姿勢パラメータ221とのどちらか一方のパラメータで検索して得られた結果に対して、他方のパラメータを使用してさらに検索結果を絞り込むようにしてもよい。さらに、検索結果の絞り込みに時刻情報を使用するようにしてもよい。姿勢パラメータ221の類似度は、一般的なベクトルの内積値で判断すればよい。なお、内積値以外の尺度を用いて、姿勢パラメータ221の類似度を判断するようにしてもよい。また、S403の比較処理を行う際の位置パラメータ222や姿勢パラメータ221の閾値を、ユーザが設定できるようにしてもよい。さらに、検索結果として、類似している順に一定の数の仮想視点映像をユーザに提示するようにしてもよい。
以上のように、本実施形態によれば、視点情報を指定することで、ユーザは所望の仮想視点映像の検索を行うことが可能となる。したがって、ユーザは、蓄積部20に蓄積されている仮想視点映像データによって示される仮想視点映像をひとつずつ見ながら所望の仮想視点映像を検索する必要がなくなる。よって、蓄積部20に膨大な量の仮想視点映像データが蓄積されている場合であっても、所望の仮想視点映像を容易に抽出することが可能となる。また、所望の仮想視点映像を検索する際に要する検索時間を低減させることが可能となる。
また、ユーザが自ら所望の仮想視点映像データを生成しようとする場合にも本実施形態は有効である。その理由は、所望の仮想視点映像データが蓄積部20に蓄積されていれば、ユーザは、該所望の仮想視点映像データを蓄積部20から取得することができるからである。したがって、本実施形態によれば、ユーザが所望の仮想視点映像データを生成する手間を省くことができる。
なお、本実施形態では仮想視点映像が動画像である場合を例にして説明したが、本実施形態は、仮想視点映像が1フレームのみで構成されている場合、すなわち仮想視点映像が静止画像である場合にも適用可能である。
また、本実施形態では、仮想視点パラメータ211を用いて所望の仮想視点映像を検索する装置を例にした。しかし、仮想視点パラメータ211を、その他の用途に用いるようにしてもよい。例えば、仮想視点映像の再生装置において、仮想視点映像データに付与された仮想視点パラメータを用いて、仮想視点パラメータから導出される情報を仮想視点映像とともに再生時に表示させるようにしてもよい。
また、S403の比較処理に平均値、中央値、またはその他の代表値のいずれを用いるかをユーザが指定可能であってもよい。例えば、図3に示すUI画面に「平均値検索」ボタンや「中央値検索」ボタン等を設けるようにしてもよい。そして、「平均値検索」ボタンが押下された場合には、S403で平均値を用いた比較処理が行われ、「中央値検索」ボタンが押下された場合には、S403で中央値を用いた比較処理が行われるようにしてもよい。
また、検索結果は、文字情報で提示してもよいし、検索結果を何らかの方法で画像として表示してもよい。例えば、図5に示すような画像(オブジェクトを含む画像上にカメラパスを描画した画像)を検索結果として提示してもよい。また、検索結果として画像を表示する場合には、代表的なフレームを何らかの手段で選択して表示してもよい。例えば、ハイライトとなる時間帯のフレームを繰り返し表示したり、検索条件の合致度がわかりやすいフレームを選択して表示したりするなど、動画再生アプリケーションにおいて一般的に用いられる、静止画像や動画像の検索結果の提示方法を採用してもよい。なお、検索結果の提示方法については上記の表示方法以外であってもよいし、表示以外の提示方法であってもよい。
[第2実施形態]
第2実施形態では、蓄積部20に蓄積された仮想視点映像のカメラパスの一部を参照して、該仮想視点映像が、ユーザが所望する仮想視点映像であるか否かを判断する例を説明する。なお、第2実施形態における画像検索システムの構成及び動作は、第1実施形態の構成及び動作は同様である。ただし、視点情報比較部102および検索結果生成部103の処理が異なる。以下では、第2実施形態における視点情報比較部102および検索結果生成部103の処理について説明する。図6~9は、第2実施形態における検索処理を説明するための図である。なお、図6~8に示す仮想視点映像A、B,及びCは図5に示す仮想視点映像A、B,及びCと同様であるため、各仮想視点映像には同じ符号が付されている。
まず、図6を用いて、仮想視点映像A、B,及びCのカメラパスの始点を参照して、各仮想始点映像が、ユーザが所望する仮想始点映像であるか否かを判断する検索処理を説明する。図6に示す白抜き矢印601(以下、仮想視点入力601と記す)は、図3に示すUI画面にてユーザが検索条件として指定した視点情報を模式的に示したものである。ここでは、ユーザが指定した検索条件(仮想視点入力601で示される仮想カメラの位置及び姿勢)と、各仮想視点映像の最初のフレームの位置パラメータ222及び姿勢パラメータ221とが、上記S403の処理において比較されるものとする。図6には、検索の結果、実線で示される仮想視点映像Bが抽出された様子が示されている。図中における、仮想視点入力601の始点(黒丸)と仮想視点映像Bの始点(黒丸)とを囲う丸枠は、カメラパスの始点を参照して検索が行われたことを表している。このように、仮想視点入力601は図5における仮想視点入力501と異なり、「指定したフレームから開始される仮想視点映像」を検索するための条件として使用される。
次に、図7を用いて、仮想視点映像A、B,及びCのカメラパスの終点を参照して、該仮想始点映像が、ユーザが所望する仮想始点映像であるか否かを判断する検索処理を説明する。図7に示す白抜き矢印701(以下、仮想視点入力701と記す)は、図3に示すUI画面にてユーザが検索条件として指定した視点情報を模式的に示したものである。ここでは、ユーザが指定した検索条件(仮想視点入力701で示される仮想カメラの位置及び姿勢)と、各仮想視点映像の最終フレームの位置パラメータ222及び姿勢パラメータ221とが、上記S403の処理において比較されるものとする。図7には、検索の結果、実線で示される仮想視点映像Aが抽出された様子が示されている。図中における、仮想視点入力701の始点(黒丸)と仮想視点映像Aの終点(黒丸)とを囲う丸枠は、カメラパスの終点を参照して検索が行われたことを表している。これにより、仮想視点映像Aが、検索条件に一致または類似する位置パラメータ及び姿勢パラメータを有するフレームで終了する仮想視点映像であることを、ユーザは認識することができる。このように、仮想視点入力701は図5における仮想視点入力501と異なり、「指定したフレームで終了する仮想視点映像」を検索するための条件として使用される。
図6や図7に示す例のように、仮想視点映像A、B及びCのカメラパスの一部を検索対象とすることで、一部のフレーム(ここでは最初または最後のフレーム)の仮想視点パラメータが検索条件に一致または類似する仮想視点映像を抽出することが可能となる。なお、検索条件との類似度の算出処理や、該類似度を用いた比較処理については第1実施形態と同様にして行えばよい。
次に、図8を用いて、ユーザが検索条件としてカメラパスを指定する例を説明する。図8に示す一点鎖線の矢印線801(以下、カメラパス801と記す)は、図3に示すUI画面にてユーザが検索条件として指定した視点情報を模式的に示したものである。カメラパスの指定方法としては、例えば、視点情報入力部30に対してカメラパス801に対応する視点情報、すなわち連続した視点情報を入力する方法が想定される。また、カメラパスを指定するUIとしては、例えば、サッカーのグラウンドを俯瞰した画像上において、始点から終点までカーソルを移動させて、その軌跡をカメラパスとして指定するUIが想定される。そのようなUIでは、指定したカメラパス上の各位置における座標(x,y)が視点情報(仮想カメラの位置)として視点情報入力部30に入力される。仮想カメラの姿勢については、カメラパスを指定した後に、視点情報入力部30に対して別途入力するようにすればよい。仮想カメラの姿勢の決定方法としては、最も簡便な方法として、固定の場所を注視点として指定する方法が想定される。固定の場所を注視点として指定した場合、仮想カメラがカメラパスにおける各位置においてその注視点を向くように、仮想カメラの姿勢が決定される。
また、より自由度の高いカメラパスの指定を行いたい場合には、仮想カメラの位置と同時に姿勢を入力するようにしてもよい。具体的には、第1実施形態の説明で述べたように、3次元空間上におけるユーザの視点を視点情報として取得するようにしてもよい。例えば、仮想的な3次元空間上で表現されたサッカースタジアムの中で実際に仮想カメラを動かすことによって、仮想カメラの位置と、仮想カメラの方向(姿勢)とを視点情報として取得する方法が想定される。
上記S403の処理では、ユーザが指定したカメラパスと仮想視点映像A,B,及びCのそれぞれのカメラパスとが比較される。図8に示す例では、ユーザが指定したカメラパス801と最も類似するカメラパスを有する仮想視点映像Cが抽出されている。カメラパスは上述したように連続した複数の仮想視点パラメータで構成されている。したがって、図8に示す例では、S403の処理において、ユーザが指定したカメラパス801と仮想視点映像A,B,及びCのカメラパスとの間で、同じ撮影時刻の仮想視点パラメータ同士が比較される。なお、撮影時刻は、絶対時刻であってもよいし、相対時刻であってもよい。また、姿勢パラメータの比較については、位置パラメータの比較と同時に行われてもよいし、位置パラメータで検索して得られた候補を絞り込むために、位置パラメータの比較の後に行うようにしてもよい。なお、連続する仮想視点パラメータで構成されるカメラパスについて、それら仮想視点パラメータの平均値や中央値を代表値として求めて、該代表値を検索処理に用いるようにしてもよい。すなわち、カメラパス801の平均値や中央値と、仮想視点映像A,B,及びCのカメラパスの平均値や中央値とを比較するようにしてもよい。
図8に示す例のように、検索条件としてカメラパスを指定することで、仮想視点パラメータの遷移、すなわち視点の遷移を考慮した仮想視点映像の検索を実現することが可能となる。
最後に、図9を用いて、検索条件を指定せずに検索処理を行う例を説明する。ここでは、特定のシーンについて生成された仮想視点映像データが蓄積部20に蓄積されているものとする。図9には、上記仮想視点映像データによって示される仮想視点映像901~907のカメラパスが模式的に示されている。例えば、図3に示すUI画面上に、不図示の「よく見られている視点」ボタンが設けられていて、該ボタンをユーザが押下することで、検索条件を指定しない設定がなされるものとする。このとき、視点情報入力部30から視点情報取得部101に対して、仮想視点パラメータの頻度による検索の実行指示が送付され、仮想視点映像901~907の仮想視点パラメータの全てが視点情報比較部102によって解析される。
視点情報比較部102は、仮想視点映像901~906それぞれの全フレームに渡る姿勢パラメータ221や位置パラメータ222について頻度を導出し、導出した頻度に基づき仮想視点映像901~906をグルーピングする。このとき、姿勢パラメータ221のみ、または、位置パラメータ222のみ、または両パラメータを使用して頻度を導出してもよい。また、その他のパラメータ、例えば映像付属情報212を使用してグルーピングを行ってもよい。なお、全フレームのパラメータを用いるのではなく、姿勢パラメータ221や位置パラメータ222の平均値や中央値を使用してもよいし、あらかじめ設定されている代表値を使用してもよい。
なお、姿勢パラメータ221や位置パラメータ222を全フレーム分まとめて扱った場合には、姿勢パラメータ221や位置パラメータ222を、各パラメータを要素として有するベクトルのまとまりとして見ることができる。したがって、仮想視点映像のグルーピングには、一般的なベクトルの類似度比較や、クラスタリング、グルーピング、カテゴライズなどに用いられる手法を使用することができる。具体的には、K平均法や、コサイン類似度、相関係数などを使用することが想定される。また、連続した仮想視点パラメータは、ベクトルではなく、値の集合としても捉えることもできる。したがって、集合としての類似度算出やグルーピングの手法を用いて、グルーピングを行うようにしてもよい。例えば、ジャッカード係数やダイス係数などを使用する方法が想定される。
図9に示す楕円の枠910は、検索結果として抽出された仮想視点映像のグループを模式的に表している。図9に示す例では、仮想視点パラメータの頻度による検索の結果、枠910で囲われた仮想視点映像902,903,904,及び905が、頻度が高い仮想視点パラメータが付与された仮想視点映像として抽出されている。このように各仮想視点映像に指定されている仮想視点パラメータの頻度を導出することで、頻度が高い仮想視点パラメータが付与された仮想視点映像を抽出することが可能となる。頻度が高い仮想視点パラメータとは、例えば頻度が所定値以上である仮想視点パラメータである。図9に示すような検索処理によって、特定のシーンについてよく使用される仮想視点パラメータやカメラパスを特定することができ、特定した仮想視点パラメータやカメラパスが設定された仮想視点映像を抽出することが可能となる。
これにより、特定のシーンについて生成された複数の仮想視点映像の中から、よく見られる視点やカメラパスの仮想視点映像を抽出することが可能となる。このようにして抽出される仮想視点映像は、特定のシーンについてそのシーンをわかりやすく表現できる視点やカメラパスで生成された映像や、映像表現として視聴ユーザに強く印象付ける視点やカメラパスで生成された映像であることが想定される。したがって、図9に示すような検索処理は、よく見られている視点やカメラパスの仮想視点映像を検索する際に効果的である。
また、図9に示すような検索処理は、類似した仮想視点映像を検索する際にも効果的である。例えば、検索装置10は、ユーザが指定した仮想視点映像と蓄積部20に蓄積された各仮想視点映像データによって示される仮想視点映像との間で、姿勢パラメータや位置パラメータを比較する。そして、比較の結果に応じて、ユーザが指定した仮想視点映像と蓄積部20に蓄積された各仮想視点映像データによって示される仮想視点映像との類似度をユーザに提示したり、類似度の高い仮想視点映像から順にユーザに提示したりすることが可能となる。
また、図6~9を用いて説明した各検索処理で得られる検索結果の提示については、第1の実施形態で説明した提示方法を用いて行えばよい。
また、上述した各実施形態では、仮想カメラの位置、姿勢、画角を示す情報を仮想視点パラメータに格納する場合を例にした。しかし、仮想視点パラメータにはその他の情報を格納するようにしてもよい。例えば、仮想視点を設定したユーザの識別情報(ユーザ名など)や、仮想視点を設定した日時や、仮想視点映像の生成日時などを仮想視点パラメータに格納するようにしてもよい。また例えば、仮想視点映像のコーデックに関する情報や、仮想視点の移動距離に関する情報を仮想視点パラメータに格納するようにしてもよい。また例えば、仮想視点映像の再生時間に関する情報や、仮想視点映像の再生の制限に関する情報(再生可能ユーザの識別情報、再生可能回数に関する情報等)を仮想視点パラメータに格納するようにしてもよい。これらの情報を仮想視点パラメータに格納することで、記憶装置等に記憶された仮想視点映像データ群の中から、より高度に又はより柔軟に仮想視点映像を検索することが可能となる。また、検索以外にも、例えば、おすすめコンテンツの選定を行ったり、コンテンツリストの並べ替えを行ったり、個別ファイルの確認に使ったり(例えば、いつ仮想視点を設定したかを思い出したいときにプロパティから参照する)することが可能となる。
また、画像検索システムの構成は、図1により示されるものに限らない。例えば、検索装置10と、視点情報入力部30と、蓄積部20とがそれぞれ通信ネットワーク(例えばインターネット)を介して接続されていても良い。例えば、視点情報入力部30(スマートフォン)は、仮想視点映像の検索条件に関するユーザ操作を受け付け、当該ユーザ操作に基づいて仮想視点パラメータを識別し、当該仮想視点パラメータに基づく検索メッセージを検索装置10へ送信できる。そして、検索装置10は、視点情報入力部30からの検索メッセージに基づいて検索処理を実行する。具体的な検索方法は上述の通りである。そして、検索装置10は、検索処理の結果を視点情報入力部30に送ることができる。この場合、仮想視点情報入力部30において、検索の結果が提示される。なお、上述の実施形態では、検索装置10と蓄積部20が別の装置である場合の例を中心に説明したが、これらの機能が1つの装置によって実現されるようにしても良い。このように、図1の構成や機能分担には種々の変形例が存在することに留意されたい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 仮想視点映像検索装置
20 仮想視点映像蓄積部
30 視点情報入力部

Claims (22)

  1. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得手段と、
    生成済みの一以上の仮想視点映像であって、前記取得手段により取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点像を、所定の条件において特定する特定手段と、
    前記特定手段により特定された前記一以上の仮想視点映像を出力する出力手段と、
    を有し、
    前記検索条件は、頻度に関する情報を更に含み、
    前記特定手段は、検索される頻度が閾値よりも大きい視点情報に対応する一以上の仮想視点映像を特定する
    ことを特徴とする情報処理装置。
  2. 前記特定手段は、前記検索条件に含まれる前記視点情報との差が小さい順に、所定の数の仮想視点映像を特定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得手段と、
    生成済みの一以上の仮想視点映像であって、前記取得手段により取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点映像を、所定の条件において特定する特定手段と、
    前記特定手段により特定された前記一以上の仮想視点映像を出力する出力手段と、
    を有し、
    前記特定手段は、前記検索条件に含まれる前記視点情報との差が小さい順に、所定の数の仮想視点映像を特定する
    ことを特徴とする情報処理装置。
  4. 前記仮想視点映像は複数のフレームを有し、
    前記複数のフレームのそれぞれは、前記視点情報が対応付けられる
    ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記特定手段は、前記検索条件に含まれる前記視点情報との差が最も小さい視点情報が対応付けられたフレームを含む仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記特定手段は、前記検索条件に含まれる前記視点情報との差が最も小さい視点情報が対応付けられたフレームを、最後のフレームとして含む仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得手段と、
    生成済みの一以上の仮想視点映像であって、前記取得手段により取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点映像を、所定の条件において特定する特定手段と、
    前記特定手段により特定された前記一以上の仮想視点映像を出力する出力手段と、
    を有し、
    前記仮想視点映像は複数のフレームを有し、
    前記複数のフレームのそれぞれは、前記視点情報が対応付けられ、
    前記特定手段は、前記検索条件に含まれる前記視点情報との差が最も小さい視点情報が対応付けられたフレームを、最後のフレームとして含む仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする情報処理装置。
  8. 前記複数のフレームのそれぞれは、前記撮影装置が撮影を行う時刻に対応する時刻情報が対応付けられる
    ことを特徴とする請求項4乃至7のいずれか1項に記載の情報処理装置。
  9. 前記複数のフレームは、異なる時刻に対応する前記時刻情報が対応付けられたフレームを含む
    ことを特徴とする請求項に記載の情報処理装置。
  10. 前記複数のフレームは、同じ時刻に対応する前記時刻情報が対応付けられたフレームを含む
    ことを特徴とする請求項に記載の情報処理装置。
  11. 前記特定手段は、前記検索条件に含まれる前記視点情報と、前記複数のフレームのそれぞれに対応する前記視点情報の代表値との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする請求項乃至10のいずれか1項に記載の情報処理装置。
  12. 前記代表値は、前記複数のフレームのそれぞれに対応する前記視点情報を表す値の平均値又は中間値である
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 前記特定手段は、前記検索条件に含まれる前記視点情報との差が最も小さい視点情報が対応付けられたフレームを、最初のフレームとして含む仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする請求項に記載の情報処理装置。
  14. 前記出力手段により出力される前記一以上の仮想視点映像を表示する表示手段を有する
    ことを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  15. 前記表示手段は、前記一以上の仮想視点映像に対応する前記視点情報を表す画像を更に表示する
    ことを特徴とする請求項1に記載の情報処理装置。
  16. 前記所定の条件は、所定のシーンに対応する位置以上の仮想視点映像が特定されるという条件を含む
    ことを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  17. 前記所定の条件は、所定の時刻に対応する位置以上の仮想視点映像が特定されるという条件を含む
    ことを特徴とする請求項1乃至1のいずれか1項に記載の情報処理装置。
  18. 前記所定の時刻は、ユーザにより指定される
    ことを特徴とする請求項1に記載の情報処理装置。
  19. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得工程と、
    生成済みの一以上の仮想視点映像であって、前記取得工程において取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点像を、所定の条件において特定する特定工程と、
    前記特定工程において特定された前記一以上の仮想視点映像を出力する出力工程と、
    を有し、
    前記検索条件は、頻度に関する情報を更に含み、
    前記特定工程は、検索される頻度が閾値よりも大きい視点情報に対応する一以上の仮想視点映像を特定する
    ことを特徴とする情報処理方法。
  20. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得工程と、
    生成済みの一以上の仮想視点映像であって、前記取得工程により取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点映像を、所定の条件において特定する特定工程と、
    前記特定工程により特定された前記一以上の仮想視点映像を出力する出力工程と、
    を有し、
    前記特定工程は、前記検索条件に含まれる前記視点情報との差が小さい順に、所定の数の仮想視点映像を特定する
    ことを特徴とする情報処理方法。
  21. 複数の撮影装置が行う撮影により得られる複数の撮影画像に基づいて生成される仮想視点映像に係る仮想視点の位置と、前記仮想視点からの視線方向との少なくとも一方を表す視点情報を含む検索条件を取得する取得工程と、
    生成済みの一以上の仮想視点映像であって、前記取得工程により取得される検索条件に含まれる前記視点情報との差が最も小さい視点情報に対応する仮想視点映像を少なくとも含む前記一以上の仮想視点映像を、所定の条件において特定する特定工程と、
    前記特定工程により特定された前記一以上の仮想視点映像を出力する出力工程と、
    を有し、
    前記仮想視点映像は複数のフレームを有し、
    前記複数のフレームのそれぞれは、前記視点情報が対応付けられ、
    前記特定工程は、前記検索条件に含まれる前記視点情報との差が最も小さい視点情報が対応付けられたフレームを、最後のフレームとして含む仮想視点映像を少なくとも含む一以上の仮想視点映像を特定する
    ことを特徴とする情報処理方法。
  22. コンピュータを、請求項1乃至1のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2018043458A 2018-03-09 2018-03-09 情報処理装置、情報処理方法、及びプログラム Active JP7102173B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018043458A JP7102173B2 (ja) 2018-03-09 2018-03-09 情報処理装置、情報処理方法、及びプログラム
US16/294,195 US10997239B2 (en) 2018-03-09 2019-03-06 Image search system, image search method and storage medium
US17/221,024 US11334621B2 (en) 2018-03-09 2021-04-02 Image search system, image search method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043458A JP7102173B2 (ja) 2018-03-09 2018-03-09 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019159593A JP2019159593A (ja) 2019-09-19
JP2019159593A5 JP2019159593A5 (ja) 2021-04-30
JP7102173B2 true JP7102173B2 (ja) 2022-07-19

Family

ID=67843303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043458A Active JP7102173B2 (ja) 2018-03-09 2018-03-09 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US10997239B2 (ja)
JP (1) JP7102173B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102173B2 (ja) * 2018-03-09 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022169177A (ja) * 2021-04-27 2022-11-09 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2022169176A (ja) * 2021-04-27 2022-11-09 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290798A (ja) 2008-05-30 2009-12-10 Hitachi Ltd 映像検索装置及び映像検索方法
JP2010118019A (ja) 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP2011066574A (ja) 2009-09-16 2011-03-31 Toshiba Corp 映像処理装置、映像表示システム、及び映像表示方法
JP2014041502A (ja) 2012-08-23 2014-03-06 Yahoo Japan Corp 映像配信装置、映像配信方法及び映像配信プログラム
US20170064374A1 (en) 2015-08-26 2017-03-02 Lg Electronics Inc. Mobile terminal and method for controlling the same

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3796704B2 (ja) * 1998-03-26 2006-07-12 中部電力株式会社 ビデオカメラ位置角度測定装置
JP2004145564A (ja) 2002-10-23 2004-05-20 Matsushita Electric Ind Co Ltd 映像検索装置
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
US7773098B2 (en) * 2005-05-11 2010-08-10 Canon Kabushiki Kaisha Virtual reality presentation apparatus and method
JP4777182B2 (ja) * 2006-08-01 2011-09-21 キヤノン株式会社 複合現実感提示装置及びその制御方法、プログラム
JP5248806B2 (ja) * 2007-04-25 2013-07-31 キヤノン株式会社 情報処理装置、情報処理方法
US8867823B2 (en) * 2010-12-03 2014-10-21 National University Corporation Nagoya University Virtual viewpoint image synthesizing method and virtual viewpoint image synthesizing system
EP2902682B1 (en) 2014-02-03 2018-01-31 Parker Hannifin Corporation Pilot-operated valve with floating piston
KR20160034037A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 화면 캡쳐를 위한 방법 및 그 전자 장치
WO2017030193A1 (ja) * 2015-08-20 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10437879B2 (en) * 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
JP6775776B2 (ja) * 2017-03-09 2020-10-28 株式会社岩根研究所 自由視点移動表示装置
JP6948175B2 (ja) 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
JP7102173B2 (ja) * 2018-03-09 2022-07-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290798A (ja) 2008-05-30 2009-12-10 Hitachi Ltd 映像検索装置及び映像検索方法
JP2010118019A (ja) 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
JP2011066574A (ja) 2009-09-16 2011-03-31 Toshiba Corp 映像処理装置、映像表示システム、及び映像表示方法
JP2014041502A (ja) 2012-08-23 2014-03-06 Yahoo Japan Corp 映像配信装置、映像配信方法及び映像配信プログラム
US20170064374A1 (en) 2015-08-26 2017-03-02 Lg Electronics Inc. Mobile terminal and method for controlling the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
糟谷 望 外,サッカーシーンにおける選手視点映像提示のためのリアルタイム選手軌跡獲得手法,画像電子学会誌,日本,画像電子学会,2009年07月25日,第38巻 第4号,pp. 395--403

Also Published As

Publication number Publication date
JP2019159593A (ja) 2019-09-19
US20210224322A1 (en) 2021-07-22
US20190278803A1 (en) 2019-09-12
US10997239B2 (en) 2021-05-04
US11334621B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP7282851B2 (ja) 装置、方法及びプログラム
RU2720356C1 (ru) Устройство управления, способ управления и носитель хранения
US11334621B2 (en) Image search system, image search method and storage medium
US20180047213A1 (en) Method and apparatus for providing augmented reality-based dynamic service
US20160163111A1 (en) Content creation tool
JP5634111B2 (ja) 映像編集装置、映像編集方法及びプログラム
US11734931B2 (en) Information processing apparatus, information processing method, and storage medium
US9268410B2 (en) Image processing device, image processing method, and program
JP2019057836A (ja) 映像処理装置、映像処理方法、コンピュータプログラム、及び記憶媒体
JP7267753B2 (ja) 制御装置、制御方法、及びプログラム
US20200074672A1 (en) Determining a pose of an object from rgb-d images
JP2016046642A (ja) 情報処理システム、情報処理方法及びプログラム
US11106949B2 (en) Action classification based on manipulated object movement
JP2019016862A (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法及びプログラム
JP2008287594A (ja) 特定動作判定装置、リファレンスデータ生成装置、特定動作判定プログラム及びリファレンスデータ生成プログラム
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP5850188B2 (ja) 画像表示システム
Lukosch et al. A novel gesture-based interface for crime scene investigation in mediated reality
TWI570664B (zh) The expansion of real-world information processing methods, the expansion of real processing modules, Data integration method and data integration module
JP2013164667A (ja) 映像検索装置、映像検索方法、および映像検索用プログラム
JP2022171739A (ja) 生成装置、生成方法、及びプログラム
US20200014901A1 (en) Information processing apparatus, control method therefor and computer-readable medium
JP5276609B2 (ja) 画像処理装置及びプログラム
KR102339625B1 (ko) 공간 지도 갱신 장치 및 방법
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R151 Written notification of patent or utility model registration

Ref document number: 7102173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151