JP2021068330A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2021068330A
JP2021068330A JP2019194811A JP2019194811A JP2021068330A JP 2021068330 A JP2021068330 A JP 2021068330A JP 2019194811 A JP2019194811 A JP 2019194811A JP 2019194811 A JP2019194811 A JP 2019194811A JP 2021068330 A JP2021068330 A JP 2021068330A
Authority
JP
Japan
Prior art keywords
information
viewpoint
virtual viewpoint
image
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019194811A
Other languages
English (en)
Other versions
JP7423251B2 (ja
Inventor
零 石川
Rei Ishikawa
零 石川
一弘 松林
Kazuhiro Matsubayashi
一弘 松林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019194811A priority Critical patent/JP7423251B2/ja
Priority to US17/071,890 priority patent/US11468258B2/en
Priority to CN202011126622.0A priority patent/CN112711327A/zh
Publication of JP2021068330A publication Critical patent/JP2021068330A/ja
Application granted granted Critical
Publication of JP7423251B2 publication Critical patent/JP7423251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 仮想視点画像の生成に係る視点情報の利用に関わる利便性を向上させる。【解決手段】 情報処理装置103は、所定のオブジェクトを注目対象とする仮想視点画像を生成するために指定された仮想視点の位置及び向きを示す視点情報と、オブジェクトの位置を示すオブジェクト情報を取得する。そして情報処理装置103は、取得した視点情報とオブジェクト情報とに基づいて視点情報に応じた注目対象のオブジェクトを特定し、特定されたオブジェクトに関する情報を出力する。【選択図】 図3

Description

本発明は、仮想視点の指定に応じて生成される仮想視点画像に関する。
複数の撮影装置(カメラ)を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。例えば、サッカーやバスケットボールなどの競技を撮影した複数の撮影画像に基づいて、ユーザにより設定された視点に応じた仮想視点画像を生成することにより、ユーザは様々な視点から競技を観戦することができる。このような仮想視点画像によれば、視聴者に新しい視聴体験を提供することができる。
仮想視点画像の制作者は、撮影対象となる競技における選手やボール等のオブジェクトの動きに応じて仮想視点の位置と向きを指定することで、対象シーンを迫力ある画像として見せることができるように制作を行う。特許文献1には、操作デバイスやUI画面を操作して仮想視点画像の生成に係る仮想視点を指定することが記載されている。
特許第6482498号公報
一方、仮想視点画像の生成に係る視点情報の利用に関わる利便性を向上させることが求められている。例えば、撮影対象の競技について複数の異なる仮想視点が指定され、それらの仮想視点を示す複数の視点情報がデータベース等に記憶されたとする。ある特定の選手が映っている仮想視点画像を生成可能な視点情報をユーザが探したい場合に、記憶された各視点情報に応じた仮想視点画像を一つひとつ表示して確認することとすると、ユーザの手間が大きくなる。また例えば、ユーザがある視点情報に応じた仮想視点画像を視聴した後、その仮想視点画像に写っている選手を別の視点から見た仮想視点画像を視聴したい場合に、何の手掛かりもなく新たに仮想視点を指定するのは不慣れなユーザにとって難しい。
本発明は上記の課題に鑑みてなされたものであり、仮想視点画像の生成に係る視点情報の利用に関わる利便性を向上させることを目的とする。
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、所定のオブジェクトを注目対象とする仮想視点画像を生成するために指定された仮想視点の位置及び向きを示す視点情報を取得する第1取得手段と、オブジェクトの位置を示すオブジェクト情報を取得する第2取得手段と、前記第1取得手段により取得された視点情報と前記第2取得手段により取得されたオブジェクト情報とに基づいて、前記視点情報に応じた注目対象のオブジェクトを特定する特定手段と、前記特定手段により特定されたオブジェクトに関する情報を出力する出力手段とを有する。
本発明によれば、視点情報に応じた注目対象に関する情報を活用できるため、仮想視点画像の生成に係る視点情報の利用に関わる利便性を向上させることができる。
画像処理システムの構成例を示す図である。 情報処理装置の構成例を示す図である。 注目点の特定に係る情報処理装置の動作の例を示すフローチャートである。 注目点の特定について説明するための図である。 注目点と仮想視点画像の例を示す図である。 注目点を使用した仮想視点の設定に係る情報処理装置の動作の例を示すフローチャートである。 注目点を使用した仮想視点の設定について説明するための図である。 注目点と仮想視点の例を示す図である。 注目点に基づく視点情報の検索に係る情報処理装置103の動作の例を示すフローチャートである。 注目点に基づく視点情報の検索について説明するための図である。
[システム構成]
図1(a)は、画像処理システム10の構成例を示す図である。画像処理システム10は、複数の撮影装置による撮影に基づく複数の画像(複数視点画像)と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。すなわち、画像処理システム10は、静止画及び動画の何れについても処理可能である。以降の説明に於いては、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。
画像処理システム10は、撮影システム101、画像生成装置102、及び情報処理装置103を有する。撮影システム101は、撮影領域内の被写体(オブジェクト)を複数の方向から撮影する複数の撮影装置を有する。撮影領域は、例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数の撮影装置は、このような撮影領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、複数の撮影装置は撮影領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域の周囲の一部にのみ設置されていてもよい。撮影装置の数は限定されないが、例えば撮影領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮影装置が設置される。また、望遠カメラと広角カメラなど機能が異なる撮影装置が設置されていてもよい。撮影システム101は、複数の撮影装置による撮影に基づく複数視点画像を、画像生成装置102へ出力する。
画像生成装置102は、撮影システム101から取得した複数視点画像と、情報処理装置103から取得した視点情報とに基づいて、仮想視点画像を生成する。仮想視点画像は、例えば以下のような方法で生成される。まず、複数の撮影装置によりそれぞれ異なる方向から撮影することで得られた複数視点画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、所定のオブジェクトの三次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の三次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
仮想視点画像の生成に用いられる視点情報は、仮想視点の位置及び向き(視線方向)を示す情報である。具体的には、視点情報は、3次元空間における仮想視点の位置(X軸、Y軸、及びZ軸上の位置)を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットを有する。また、視点情報は複数の時点にそれぞれ対応する複数のパラメータセットを有する。例えば、視点情報は、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、ズーム率や焦点距離など仮想視点に対応する視野の大きさ(画角)を表すパラメータや、時刻を表すパラメータが含まれてもよい。
なお、本実施形態の説明においては、仮想カメラという用語を用いる。仮想カメラとは、撮影領域の周囲に実際に設置された複数の撮影装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮影領域に関連付けられた3次元の仮想空間内に設定された仮想視点から撮影した画像であるとみなすことができる。そして、仮想的な当該撮影における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮影画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
画像生成装置102は、撮影システム101から取得した複数視点画像に基づいて順次仮想視点画像を生成することで、ライブ仮想視点画像を生成することができる。なお、画像処理システム10が生成するライブ仮想視点画像は、撮影システム101および画像生成装置102での処理遅延の影響により、現在時刻よりも所定時間前の撮影領域の状況を表す画像となる。また、画像生成装置102は、撮影システム101から取得した複数視点画像を記憶部に記憶しておくことで、過去の任意時点の撮影領域の状況を表す仮想視点画像(リプレイ仮想視点画像)を生成することもできる。
画像生成装置102により生成された仮想視点画像は、情報処理装置103へ出力され、情報処理装置103が有する表示部116に表示される。ただし、仮想視点画像の出力先はこれに限定されない。例えば、生成された仮想視点画像は、情報処理装置103とは別の表示装置(不図示)に出力されてもよいし、画像生成装置102が有する記憶部又は外部の記憶装置(不図示)へ仮想視点画像が出力されてもよい。また、画像生成装置102は、ライブ仮想視点画像とリプレイ仮想視点画像をそれぞれ異なる出力先へ出力してもよい。また、画像処理システム10が複数の情報処理装置103を有し、それぞれの情報処理装置103が画像生成装置102と接続して通信を行ってもよい。
[ハードウェア構成]
図1(b)は、情報処理装置103のハードウェア構成例を示す。なお、画像生成装置102のハードウェア構成も、以下で説明する情報処理装置103の構成と同様である。情報処理装置103は、CPU111、RAM112、ROM113、通信部114、操作部115、及び表示部116を有する。
CPU111は、RAM112やROM113に格納されているコンピュータプログラムやデータを用いて情報処理装置103の全体を制御する。なお、情報処理装置103がCPU111とは異なる1又は複数の専用のハードウェアを有し、CPU111による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。RAM112は、ROM113から読みだされたコンピュータプログラムや計算の途中結果、及び通信部114を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。
通信部114は、EthernetやUSBなどを用いた通信を行うための通信インターフェースを有し、画像生成装置102などの外部の装置との通信を行う。操作部115は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU111に入力する。表示部116は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置103を操作するためのGUI(Graphical User Interface)などを表示する。なお、本実施形態では操作部115と表示部116が情報処理装置103の内部に存在するものとするが、操作部115と表示部116の少なくとも一方が情報処理装置103の外部に別の装置として存在していてもよい。
図2(b)に、操作部115の一例である、6軸操作が可能なコントローラ211を示す。コントローラ211は、3軸操作が可能なジョイスティック212とジョイスティック213を有する。ジョイスティック212とジョイスティック213の各操作軸には、仮想視点の位置の操作、仮想視点の向きの操作、及び画角の操作などが割り当てられる。例えば、ジョイスティック212を3軸方向に操作することで仮想視点の位置がX軸、Y軸、及びZ軸方向に変化し、ジョイスティック213を3軸方向に操作することで、仮想視点の向きがパン方向及びチルト方向に変化し、仮想視点のズーム率が変化する。
[機能構成]
図2(a)は、情報処理装置103の機能構成の例を示す。入力部204は、操作部115を介して、ユーザによる操作に応じた入力を受け付ける。入力部204が受け付ける入力は、例えば、仮想視点の位置及び向きの変更量を示すパラメータを含む。視点設定部201は、入力部204により受け付けられた入力に基づいて仮想視点の位置及び向きを設定する。送信部202は、視点設定部201により設定された仮想視点の位置及び向きを示す視点情報を、通信部114を介して画像生成装置102へ送信する。
画像生成装置102は、送信部202から送信された視点情報と、撮影システム101により撮影される撮影領域内に位置するオブジェクトの3次元位置及び3次元形状を示すオブジェクト情報とに基づいて、仮想視点画像を生成する。そして情報取得部205は、画像生成装置102により生成された仮想視点画像を取得する。また情報取得部205は、画像生成装置102からオブジェクト情報を取得する。オブジェクト情報は、例えば、撮影システム101が取得した複数視点画像に基づいて3次元空間におけるオブジェクトの位置及び形状を特定することで、画像生成装置102により生成される。なお、情報取得部205が外部から取得する情報はこれらに限定されない。
注目点特定部203は、視点設定部201により設定された仮想視点を示す視点情報と、情報取得部205により取得されたオブジェクト情報とに基づいて、仮想視点に応じた注目点を特定する。本実施形態における注目点とは、仮想視点画像に含まれる注目対象の3次元位置である。具体的には、ある選手などの特定のオブジェクトを注目対象とする仮想視点画像が生成されるように仮想視点が指定された場合、そのオブジェクトの位置が注目点となる。なお、本実施形態では注目対象のオブジェクトが撮影領域内の人物であるものとして説明するが、注目対象のオブジェクトはこれに限らず、例えばボールなどの器具であってもよい。
注目対象のオブジェクトは、例えば、仮想視点画像の中心に位置するオブジェクトや、仮想視点画像の中心に最も近いオブジェクトであってもよい。また例えば、画像生成装置102により生成される仮想視点画像が所定の再生期間の動画である場合には、注目対象のオブジェクトは、再生期間の全体において仮想視点画像に含まれるオブジェクトであってもよい。ただし、注目対象のオブジェクトはこれらに限定されない。なお、仮想視点画像が動画である場合、注目対象のオブジェクトが再生期間中に切り替わってもよい。この場合、注目点特定部203は、切り替え前の注目対象のオブジェクトの位置を切り替え前の時点における注目点として特定し、切り替え後の注目対象のオブジェクトの位置を切り替え後の時点における注目点として特定する。
記憶制御部206は、注目点特定部203により特定された注目点の位置を、ROM113などの記憶部に記憶する。本実施形態では、画像生成装置102により生成される仮想視点画像が動画であり、注目点特定部203により特定される注目点の位置は経時的に変化する。そのため記憶制御部206は、変化する注目点の位置を時系列で記憶する。表示制御部207は、情報取得部205により取得された仮想視点画像を表示部116に表示させる。なお、記憶制御部206が情報を記憶する記憶先は、情報処理装置103が有する記憶部に限らず、例えば情報処理装置103と接続された別の装置が有する記憶部であってもよい。
なお、画像処理システム10の構成及び情報処理装置103の構成は上記の例に限定されない。例えば、図2(a)に示す情報処理装置103の構成要素の一部が、情報処理装置103と通信可能な別の装置に実装されていてもよい。また例えば、画像生成装置102と情報処理装置103とが一体となって構成されていてもよい。
[注目点の特定処理]
図3(a)は、情報処理装置103による注目点を特定するための動作の例を示すフローチャートである。図3(a)に示す処理は、情報処理装置103のCPU111がROM113に格納されたプログラムをRAM112に展開して実行することで実現される。なお、図3(a)に示す処理の少なくとも一部を、CPU111とは異なる1又は複数の専用のハードウェアにより実現してもよい。後述する図6と図9に示すフローチャートの処理も同様である。図3(a)に示す処理は、画像生成装置102と情報処理装置103とが接続され、仮想視点画像の生成に係る仮想視点の指定を行うための指示が情報処理装置103に入力されたタイミングで開始される。ただし、図3(a)に示す処理の開始タイミングはこれに限定されない。なお、図3(a)の処理は、仮想視点画像の動画を構成するフレームごとに実行される。
S301において、視点設定部201は、入力部204が受け付けたユーザ操作に応じた入力に基づいて、仮想視点の位置及び向きを設定する。S302において、送信部202は、S301において設定された仮想視点の位置及び向きを示す視点情報を、通信部114を介して、画像生成装置102へ送信する。すなわち、所定のオブジェクトを注目対象とする仮想視点画像を生成するためにユーザにより仮想視点が指定されると、情報処理装置103は、その仮想視点の位置及び向きを示す視点情報を取得し、画像生成装置102へ送信する。なお、S302において送信される視点情報には、どの時刻の仮想視点画像を生成するための視点情報であるかを示す時刻情報(例えば動画のフレーム番号)も含まれる。
S303において、情報取得部205は、S302において送信された視点情報に含まれる時刻情報が示す時刻におけるオブジェクトの位置を示すオブジェクト情報を、通信部114を介して画像生成装置102から受信する。撮影領域に複数のオブジェクトが存在する場合には、情報取得部205が取得するオブジェクト情報は、複数のオブジェクトの位置を示す。S304において、注目点特定部203は、S301において設定された仮想視点の位置及び向きを示す視点情報と、S303において取得されたオブジェクト情報とに基づいて、撮影領域内の複数のオブジェクトのうち注目対象のオブジェクトを判別する。そして注目点特定部203は、判別された注目対象のオブジェクトの位置を、仮想視点に応じた注目点として特定する。S304の処理の詳細については、図3(b)を用いて後述する。S305において、記憶制御部206は、S304において特定された注目点を示す情報を記憶部に出力する。
S306において、情報取得部205は、S302において送信された視点情報に基づいて生成された仮想視点画像を、通信部114を介して画像生成装置102から受信する。S307において、表示制御部207は、S306において取得された仮想視点画像を表示部116に表示させる。このようにして、表示部116には、操作部115に対して行われたユーザ操作に応じた仮想視点画像が表示される。
なお、本実施形態ではS303〜S305の処理とS306〜S307の処理が並行して行われるものとするが、これに限らず、一方の処理が終了してから他方の処理が行われてもよいし、S306〜S307の処理が行われなくてもよい。また、上記の例では仮想視点画像の動画のフレームごとに図3(a)に示す処理が実行されるものとしたが、これに限定されない。例えば、情報処理装置103は、所定の期間におけるオブジェクトの位置を示すオブジェクト情報を一括で取得してもよい。そして情報処理装置103は、その期間に対応する視点情報とオブジェクト情報とに基づいて、その期間における注目点を特定して記憶してもよい。また情報処理装置103は、所定の期間に対応する視点情報を画像生成装置102に送信し、その期間に対応する仮想視点画像を画像生成装置102から一括で取得してもよい。
次に図3(b)を用いて、S304における処理の詳細を説明する。本実施形態において、注目点特定部203は、仮想視点の位置及び向きに応じた光軸と、オブジェクト情報が示すオブジェクトの位置との位置関係に基づいて、注目対象のオブジェクトを特定する。S311において、注目点特定部203は、視点情報に基づいて仮想カメラの光軸を特定する。仮想カメラの光軸は、仮想視点の位置(仮想カメラの位置)から仮想視点の向きに応じた視線方向に延びる直線であり、例えば以下の3次元のベクトルで表すことができる。
Figure 2021068330
ここで、αは仮想視点の向きのパン角度、βは仮想視点の向きのチルト角度を示す。
仮想視点に対応する仮想カメラの光軸を図4(a)に示す。図4(a)には、X軸401、Y軸402、Z軸403、仮想視点412の位置のX座標404、Y座標405、及びZ座標406が示されている。ベクトル409は、パン角度410及びチルト角度411を有する仮想視点の視線方向に対応する。ベクトル407は仮想視点412の位置を通り且つY軸402に平行なベクトルであり、ベクトル407をXY平面上でα度回転させたベクトルがベクトル408である。また、ベクトル408をXZ平面上でβ度回転させたベクトルがベクトル409であり、このベクトル409が仮想カメラの光軸を表す。
S312において、注目点特定部203は、S303で取得したオブジェクト情報に基づいて、仮想カメラの光軸上にオブジェクトが存在するかを判定する。光軸上にオブジェクトが存在する場合(S312:Yes)はS314に進み、存在しない場合(S312:No)はS313に進む。S313において、注目点特定部203は、オブジェクト情報に基づいて、仮想カメラの光軸からの距離が最も近いオブジェクトを特定する。
図4(b)を用いて、S312の処理について説明する。モデル451は、撮影領域に関連付けられた3次元の仮想空間内におけるオブジェクトの位置及び形状を表す3次元モデルであり、複数視点画像に基づいて画像生成装置102により生成されたオブジェクト情報によって表現される。像面453は、仮想空間に配置されたモデル451と仮想視点452に基づいて生成される仮想視点画像が結像される仮想的な結像面である。光軸454は、仮想視点452と像面453の中心を通る。注目点特定部203は、光軸454上にモデル451が存在するか(光軸454とモデル451とが交差する点455が存在するか)否かを判定し、存在する場合はS314に進み、存在しない場合はS313に進む。交差する点455が存在する場合、点455と仮想視点452との間の距離を、仮想視点452からモデル451に対応するオブジェクトまで距離とする。
図5(b)は、画像生成装置102により生成される仮想視点画像の例を示している。仮想視点画像は、各画素について色情報を表すRGB値を有する。図5(c)は、図5(b)に示す仮想視点画像に対応する仮想視点から仮想空間内のオブジェクトの3次元モデルを見た様子を示している。図5(c)において、3次元モデルが存在する領域は白色、存在しない領域は黒色で表されている。仮想カメラの光軸は仮想視点画像の中央を手前から奥に向けて通る直線であるため、仮想視点画像の中心551にオブジェクトが存在すれば、仮想カメラの光軸上にオブジェクトのモデルが存在し、処理はS314に進む。
図5(d)は、図5(b)と異なる仮想視点画像の例を示している。図5(e)は、図5(d)に示す仮想視点画像に対応する仮想視点から仮想空間内のオブジェクトの3次元モデルを見た様子を示している。図5(e)に示す状況では、仮想カメラの光軸上にオブジェクトのモデルが存在しないため、注目点特定部203は、光軸からの距離が最も近いオブジェクトを特定する。例えば、画像の中心から最も近いオブジェクト553が特定される。なお、光軸から最も近いオブジェクトが複数存在する場合、仮想視点からの距離が一番近いオブジェクトを特定してもよい。
S314において、注目点特定部203は、S312またはS313で特定されたオブジェクト(仮想カメラの光軸上のオブジェクト又は光軸に最も近いオブジェクト)の位置を特定する。そしてS315において、注目点特定部203は、S314において特定されたオブジェクトの位置を、注目点として設定する。例えば、注目点特定部203は、S312又はS313において特定されたオブジェクトと仮想視点との間の距離dを算出する。そして注目点特定部203は、注目点の位置fを以下の式により算出する。
Figure 2021068330
ここでpx、py、pzは、それぞれ仮想視点の位置のX座標404、Y座標405、Z座標406である。
なお、本実施形態では、注目点特定部により特定される注目点は、オブジェクトのモデルを構成する点群のうち光軸に最も近い点であるものとする。ただし、注目点として特定されるオブジェクトの位置はこれに限定されない。例えば、光軸上のオブジェクト又は光軸に近いオブジェクトの重心位置や、オブジェクトの特定の部分(選手の顔部分など)の位置が、注目点として特定されてもよい。また、仮想カメラの光軸上に複数のオブジェクトが存在する場合、注目点特定部203は、それらのオブジェクトのうち仮想視点の位置に最も近いオブジェクトの位置を注目点として特定してもよい。
また、注目点特定部203は、光軸から一定の距離以内にオブジェクトが存在しない場合、対象のフレームにおいて注目点が存在しないと判断してもよい。この場合、S305において記憶制御部206は、そのフレームに対応する注目点を記憶しなくてもよい。あるいは、記憶制御部206は、前のフレームで特定された注目点と同一の注目点を記憶してもよい。
また、注目点特定部203は、仮想視点からS312又はS313において特定されたオブジェクトの位置までの距離と、前のフレームにおける仮想視点から注目点までの距離との差が、閾値以上であるかを判定してもよい。そして注目点特定部203は、この距離の差が閾値以上である場合には、光軸に最も近いオブジェクトとは別のオブジェクトの位置を注目点として特定してもよい。具体的には、仮想視点からオブジェクトまでの距離と前フレームにおける仮想視点から注目点までの距離との差が閾値未満であるオブジェクトの位置を、対象フレームにおける注目点として特定してもよい。このような処理により、注目対象でないオブジェクトが一時的に仮想カメラの光軸上に入ってきた場合にも、注目対象のオブジェクトの位置を注目点として記憶し続けることができる。
以上説明したように、本実施形態に係る情報処理装置103は、所定のオブジェクトを注目対象とする仮想視点画像を生成するために指定された仮想視点の位置及び向きを示す視点情報と、オブジェクトの位置を示すオブジェクト情報を取得する。そして情報処理装置103は、取得した視点情報とオブジェクト情報とに基づいて視点情報に応じた注目対象のオブジェクトを特定し、特定されたオブジェクトに関する情報を出力する。上記のような構成によれば、仮想視点画像の生成に係る仮想視点が指定された場合に、どのオブジェクトを注目対象として仮想視点が指定されたかを判別することができ、さらに注目対象のオブジェクトの位置を特定することができる。これにより、仮想視点画像の生成に係る視点情報の利用に関わる利便性を向上させることができる。
なお、本実施形態では、情報処理装置103が視点情報とオブジェクトの3次元空間における位置及び形状を示すオブジェクト情報とに基づいて注目点を特定する場合を中心に説明するが、注目点の特定方法はこれに限定されない。例えば、S303において情報処理装置103は、S302において送信された視点情報に応じた距離画像を取得してもよい。ここで距離画像とは、仮想視点の位置及び向きに応じた画像であって、各画素値がその画素に対応するオブジェクトと仮想視点との距離を示す画像である。そして情報処理装置103は、S304において、距離画像をオブジェクトの位置を示すオブジェクト情報として用いて上記と同様の計算を行うことにより、注目点を特定してもよい。この方法によれば、情報処理装置103と画像生成装置102との間で通信されるデータ量を削減することができる。また例えば、情報処理装置103は、S306で取得した仮想視点画像を解析することでオブジェクトの位置と仮想視点からオブジェクトまでの距離とを推定し、その推定結果をオブジェクト情報として用いることにより、注目点を特定してもよい。また、注目点の特定には仮想カメラの光軸を用いなくてもよく、例えば注目点特定部203は、仮想視点に応じた視界に含まれる範囲を特定し、その中心から所定距離の範囲に含まれるオブジェクトの位置を注目点として特定してもよい。
ここで図5(a)を用いて、撮影システム101に含まれる1つの撮影装置により撮影された撮影画像と、S301で設定される仮想視点と、S307で表示される仮想視点画像と、S304で特定される注目点との関係の具体例を示す。ブロック501、ブロック511、ブロック521、及びブロック531は、それぞれ、時刻t1における撮影画像、仮想視点の位置と向き、仮想視点画像、及び注目点を示す。撮影画像に写る選手501Aと選手501Bを、仮想視点511Aから見ると、仮想視点画像に含まれる選手画像521Aと選手画像521Bのように見える。仮想視点画像の中心には選手画像521Aが存在し、選手501Aの位置が注目点531Aとなる。注目点531Aは記憶制御部206により記憶される。
ブロック502、ブロック512、ブロック522、及びブロック532は、それぞれ、t1より後の時刻t2における撮影画像、仮想視点の位置と向き、仮想視点画像、及び注目点を示す。撮影画像に写る選手502Aと選手502Bを、仮想視点512Aから見ると、仮想視点画像に含まれる選手画像522Aと選手画像522Bのように見える。仮想視点画像の中心には選手画像522Aが存在し、選手502Aの位置が注目点となる。軌跡532Aは、時刻t1からt2までの注目点の軌跡(各時刻における注目点の集合)を示している。注目点はフレームごとに特定され、記憶制御部206はフレームごとに新しい注目点を追加で記憶する。
ブロック503、ブロック513、ブロック523、及びブロック533は、それぞれ、t2より後の時刻t3における撮影画像、仮想視点の位置と向き、仮想視点画像、及び注目点を示す。軌跡533Aは、時刻t1からt3までの注目点の軌跡を示している。軌跡533Aには、軌跡532Aに含まれる注目点の集合に加えて、時刻t2からt3までの注目点がさらに含まれる。
[注目点を使用した仮想視点の設定処理]
次に、上述した処理により特定された注目点の使用例について説明する。以下に示す例において、情報処理装置103は、図3を用いて説明した方法により特定された注目点の情報と新たなユーザ操作に応じた入力とに基づいて、S307において表示される仮想視点画像とは視点が異なる別の仮想視点画像を表示する。
図6は、注目点の情報を使用して新たに仮想視点を設定し仮想視点画像を表示するための、情報処理装置103の動作の例を示すフローチャートである。図6に示す処理は、図3に示すような処理により注目点が特定された後に、新たな仮想視点画像の生成に係る仮想視点の指定を行うための指示が情報処理装置103に入力されたタイミングで開始される。ただし、図6に示す処理の開始タイミングはこれに限定されない。なお、図6の処理は、仮想視点画像の動画を構成するフレームごとに実行される。
S601において、入力部204は、操作部115を介してユーザ操作に応じた入力を受け付ける。S601において受け付けられる入力には、例えば、表示対象の仮想視点画像の時刻を指定するための入力と、仮想視点の位置を指定するための操作に応じた入力と、使用する注目点を特定するための入力とが含まれる。S602において、視点設定部201は、S601において受け付けられた入力に基づいて、図3に示す処理により記憶部に記憶された注目点の情報、すなわち注目オブジェクトの位置を特定する情報を取得する。具体的には、入力部204により受け付けられた入力が示す仮想視点画像の時刻に対応する注目点の情報が取得される。また、同じ時刻に対応する複数の注目点が記憶されている場合などには、それらのうち1つの注目点を選択するユーザ操作に応じた入力など、使用する注目点を特定するための入力に応じた注目点の情報が取得される。
S603において、視点設定部201は、S601において受け付けられた仮想視点の位置を指定するための入力と、S602において取得された注目点の情報とに基づいて、仮想視点の位置及び向きを設定する。ここで設定される仮想視点は、ユーザ操作に応じた入力に基づいて決まる位置から注目点に向けられた仮想視点となる。すなわち、S601において仮想視点の位置がユーザ操作により指定されると、S602において取得された情報が示す注目点が仮想カメラの光軸上に位置するように仮想視点の向きが自動で決定される。
S604において、送信部202は、S603において設定された仮想視点の位置及び向きを示す視点情報を生成し、通信部114を介して、画像生成装置102へその視点情報を送信する。S605において、情報取得部205は、S604において送信された視点情報に基づいて生成された仮想視点画像を、通信部114を介して画像生成装置102から受信する。S606において、表示制御部207は、S605において取得された仮想視点画像を表示部116に表示させる。このようにして、表示部116には、操作部115に対して行われたユーザ操作により指定された位置から予め特定された注目点を見た様子を示す仮想視点画像が表示される。
なお、本実施形態では図3に示す処理と図6に示す処理とを同じ情報処理装置103が実行するものとして説明した。すなわち、情報処理装置103は、ユーザ操作に応じた入力に基づいて仮想視点を設定する際に、記憶されている注目点の情報を用いるか否かを切り替え可能であるものとした。しかしこれに限らず、情報処理装置103は図3に示す処理と図6に示す処理の何れか一方のみを実行してもよい。例えば、画像処理システム10が複数の情報処理装置103を有し、ある情報処理装置103が図3に示す処理を実行して注目点の情報を記憶し、別の情報処理装置103がその記憶された注目点の情報を用いて図6に示す処理を実行してもよい。
図7を用いて、図6のS603における仮想視点の設定の詳細を説明する。上述したように、仮想視点702は、注目点701を向くように設定される。そして、仮想視点702と注目点701との距離703と、その距離を半径とする球面704上における仮想視点702の位置が、ユーザ操作に基づいて変更可能される。球面704上における仮想視点702の移動方向は、経度方向705と緯度方向706の2方向である。すなわち、ユーザによる仮想視点の操作は、球面704の経度方向705と、緯度方向706と、半径方向との、3軸の操作に限定される。そのため、ユーザは、X軸、Y軸、Z軸、パン、及びチルトの5軸の操作を行う場合と比べて簡単な操作により、注目点を任意の方向から見る仮想視点を設定することができる。なお、仮想視点の操作軸の数及び操作内容は上記の例に限定されない。例えば、3軸のユーザ操作に応じて仮想視点がX軸方向、Y軸方向、及びZ軸方向に移動し、視点設定部201により注目点と仮想視点の位置に基づいて仮想視点の向きが自動で決定されてもよい。
ここで図8を用いて、撮影装置により撮影された撮影画像と、S602で取得される注目点と、S601における仮想視点の指定のための入力と、S603で設定される仮想視点と、S606で表示される仮想視点画像との関係の具体例を示す。図8における撮影領域内のオブジェクトの位置及び撮影画像は図5に示した例と同様である。
ブロック801、ブロック811、ブロック821、ブロック831、及びブロック841は、それぞれ、時刻t1における撮影画像、注目点、ユーザ操作に応じた入力、仮想視点の位置と向き、及び仮想視点画像を示す。視点設定部201は、注目点811Aとユーザ操作に応じた入力とに基づき、仮想視点831Aの位置と方向を決定する。ここでは、注目点811Aを中心に仮想視点の経度方向の位置が時計回りに60度移動する。ブロック841は、移動後の仮想視点831Aに対応する仮想視点画像を示す。
ブロック802、ブロック812、ブロック822、ブロック832、及びブロック842は、それぞれ、時刻t2における撮影画像、注目点、ユーザ操作に応じた入力、仮想視点の位置と向き、及び仮想視点画像を示す。ここでは、仮想視点832Aの位置が注目点812Aから10m遠ざかるように移動する。ブロック842は、移動後の仮想視点832Aからに対応する仮想視点画像を示す。
ブロック803、ブロック813、ブロック823、ブロック833、及びブロック843は、それぞれ、時刻t3における撮影画像、注目点、ユーザ操作に応じた入力、仮想視点の位置と向き、及び仮想視点画像を示す。ここでは、注目点613Aを中心に仮想視点の緯度方以降の位置が上に30度移動する。ブロック843は、移動後の仮想視点833Aに対応する仮想視点画像を示す。
なお、情報処理装置103は、図5(a)のブロック521に示すような、仮想点511Aに対応する仮想視点画像と、図8のブロック841に示すような、仮想視点831Aに対応する仮想視点画像とを、表示部116内の別の領域に同時に表示してもよい。これによりユーザは、最初に指定した仮想視点に対応する仮想視点画像と、注目点の情報をもとに新たに指定した仮想視点に対応する仮想視点画像とを、容易に比較することができる。
上記の例では、仮想カメラの光軸上に注目点が位置するように仮想視点が設定されるものとしたが、視点設定部201による仮想視点の設定方法はこれに限定されない。視点設定部201は、仮想視点に応じた視界(仮想視点画像に写る範囲)に注目点が含まれるように仮想視点の位置及び向きを設定すればよく、注目点が仮想カメラの光軸からずれていてもよい。例えば、視点設定部201は、注目点が仮想視点画像の中心から所定方向に所定量ずれた位置に位置するように、仮想視点を設定してもよい。上記の所定方向と所定量は、入力部204を介してユーザ操作により設定可能であってもよい。
[注目対象に応じた視点情報の検索処理]
次に、視点情報から特定された注目点の使用方法の別の例について説明する。以下に示す例において、情報処理装置103は、仮想視点を示す視点情報とその仮想視点に応じた注目対象のオブジェクトの識別情報とを関連付けて記憶しておき、オブジェクトの指定に基づいて対応する視点情報の検索を行う。
図9(a)は、視点情報と注目対象のオブジェクトの識別情報とを関連付けて記憶するための、情報処理装置103の動作の例を示すフローチャートである。情報処理装置103は、図3(a)に示す処理の代わりに、図9(a)に示す処理を実行する。図9(a)に示す処理における図3(a)に示す処理との違いは、S305の処理の代わりにS1001とS1002の処理が行われる点である。以下ではこの差分について説明する。
S1001において、注目点特定部203は、S304で特定された注目点がどのオブジェクトの位置であるかを判定することで、注目点に対応する注目対象のオブジェクト(注目オブジェクト)を特定する。例えば、注目点特定部203は、撮影領域内の複数のオブジェクトの位置情報を取得し、S304において特定された注目点の位置と最も近い位置のオブジェクトを注目オブジェクトとして特定する。
例えば撮影システム101の撮影対象がサッカーの試合である場合、情報処理装置103は、各選手に装着されたGPSなどの位置センサから各選手の位置情報を取得する。そして情報処理装置103は、注目点に最も近い位置の選手を注目オブジェクトとして特定する。ただしオブジェクトの位置情報の取得方法はこれに限らず、例えば情報処理装置103は、撮影システム101により撮影された画像に対して画像認識処理を行うことにより得られた各選手の位置情報を取得してもよい。また例えば、情報処理装置103は、S303において取得したオブジェクト情報から、各オブジェクトの位置情報を取得してもよい。この場合、情報処理装置103は、S304において注目点の座標を特定せずに、視点情報とオブジェクト情報とに基づいて注目オブジェクトを直接特定してもよい。
S1002において、記憶制御部206は、S301において設定された仮想視点の位置及び向きを示す視点情報と、S1001において特定された注目オブジェクトの識別情報(オブジェクトID)とを、関連付けて記憶部に出力する。オブジェクトの識別情報は、例えばオブジェクトとしての選手の名前や、選手のチーム名と背番号との組み合わせなどである。ただし、識別情報の内容はこれに限定されない。
図9の処理が仮想視点画像のフレームごとに実行されることで、記憶部には、注目オブジェクトの識別情報と、そのオブジェクトを注目対象として設定された仮想視点の経時的な変遷の内容を表す仮想カメラパスを示す視点情報とが、関連付けて記憶される。さらに、上記のフローが同じ情報処理装置103又は異なる情報処理装置103により繰り返し行われることで、記憶部には、複数の仮想カメラパスを示す視点情報と、各仮想カメラパスに対応する注目オブジェクトの識別情報とが記憶される。
なお、図9の例では、情報処理装置103が各フレームに対応する仮想視点を設定しながら視点情報と注目オブジェクトの識別情報とを記憶部に逐次記憶するものとしたが、これに限定されない。例えば、情報処理装置103は、仮想カメラパスを示す視点情報を生成した後に、その仮想カメラパスに対応する注目オブジェクトの識別情報を視点情報と共に記憶部に記憶してもよい。
図9(b)は、オブジェクトの指定に基づいて対応する視点情報の検索を行うための、情報処理装置103の動作の例を示すフローチャートである。図9(b)に示す処理は、図9(a)に示す処理により記憶部にオブジェクトの識別情報と視点情報とが関連付けて記憶された後に、視点情報を検索するための指示が情報処理装置103に入力されたタイミングで開始される。ただし、図9(b)に示す処理の開始タイミングはこれに限定されない。
S1011において、入力部204は、特定のオブジェクトを指定するためのユーザ操作に応じた入力を受け付ける。S1012において、視点設定部201は、記憶部に記憶された視点情報の中から、指定されたオブジェクトの識別情報に関連付けられた視点情報を、S1011において受け付けられた入力に基づいて検索する。例えば、撮影システム101の撮影対象がサッカーの試合である場合に、入力部204は、特定の選手の名前やチーム名及び背番号を指定するユーザ操作に応じた入力を受け付ける。そして視点設定部201は、指定された選手を注目対象として設定された仮想カメラパスを示す視点情報を検索する。
S1013において、視点設定部201は、記憶部に記憶された視点情報のうち検索により取得された視点情報、すなわちユーザ操作により指定されたオブジェクトの識別情報に関連付けられた視点情報を、表示制御部207へ出力する。表示制御部207は、視点設定部201から取得した視点情報に基づいて、S1012における検索の結果を表示部116に表示させる。例えば、表示制御部207は、検索により見つかった視点情報が示す仮想カメラパスを表す画像を、検索結果として表示させる。また例えば、表示制御部207は、検索により見つかった視点情報を画像生成装置102へ送信し、その視点情報に基づいて生成された仮想視点画像を画像生成装置102から受信して表示部116に表示させてもよい。
なお、本実施形態では図9(a)に示す処理と図9(b)に示す処理とを同じ情報処理装置103が実行するものとして説明した。しかしこれに限らず、情報処理装置103は図9(a)に示す処理と図9(b)に示す処理の何れか一方のみを実行してもよい。例えば、画像処理システム10が複数の情報処理装置103を有し、ある情報処理装置103が図9(a)に示す処理を実行して視点情報と注目オブジェクトの識別情報とを記憶し、別の情報処理装置103が図9(b)に示す検索処理を実行してもよい。
ここで図10(a)を用いて、記憶部に記憶された視点情報と、オブジェクトの指定に基づいて検索された視点情報の具体例を示す。記憶部902には、それぞれ異なる仮想カメラパスを示す視点情報1101、視点情報1111、及び視点情報1121が記憶されている。視点情報1101には、ある時刻における仮想視点の位置及び向きを示すパラメータ1102Aと、その仮想視点に応じた注目オブジェクトの識別情報1103Aが含まれる。また視点情報1101には、その後に続く各フレームにおけるパラメータ1102B、パラメータ1102C、及びパラメータ1102Dと、それぞれに対応する注目オブジェクトの識別情報1103B、識別情報1103C、及び識別情報1103Dが含まれる。視点情報1111及び視点情報1121の内容も同様である。
ユーザにより指定されたオブジェクト「player1」を示す情報1131が入力部204を介して入力されると、情報処理装置103は、記憶部902に記憶された視点情報の中から、「player1」の識別情報に関連付けられた視点情報を検索する。そして情報処理装置103は、検索により記憶部から取得された視点情報1101を出力する。
なお、図10の例では、指定されたオブジェクトに対応するパラメータが何れかの視点情報に含まれる場合に、その視点情報を検索条件に適合するものとして出力するものとしている。ただしこれに限らず、情報処理装置103は、視点情報に含まれるパラメータの全てが指定されたオブジェクトに対応する場合に、その視点情報を検索条件に適合するものとして出力するようにしてもよい。この場合、視点情報1101に含まれる識別情報1103Cと識別情報1103Dは指定されたオブジェクトとは異なる「player2」を示すため、視点情報1101は検索条件に適合しないと判定され、出力されない。また、入力部204は、これら2つの判定方法のうちいずれを用いるかを示す情報を、オブジェクトを指定する情報と共に受け付けてもよい。
図10(b)は、情報処理装置103の表示部116に表示される画像の一例を示す。ユーザは、表示された複数のオブジェクトID1151の中から、検索のキーとなるオブジェクトIDを、マウスなどの操作部115を介して指定する。オブジェクトIDが指定されると、そのオブジェクトIDに関連付けられた仮想カメラパスを示す視点情報のIDが、検索結果枠1152に表示される。指定されたオブジェクトIDに対応する仮想カメラパスが複数存在する場合には、検索結果枠1152に複数の視点情報IDが表示される。検索結果枠1152に表示された複数の視点情報IDのうちの1つをユーザが操作部115を介して選択すると、選択された視点情報に対応する仮想視点画像1153が表示される。仮想視点画像1153は、選択された視点情報に基づいて画像生成装置102により生成された画像である。
上記のように、ユーザがオブジェクトを指定すると、情報処理装置103はそのオブジェクトを注目対象として設定された仮想カメラパスを示す視点情報を検索し、その視点情報に基づいて生成された仮想視点画像を表示する。これにより、例えばユーザが試合における特定の選手の動きを確認したいときに、その選手が映っている仮想視点画像を簡単な操作で視聴することができる。
[その他の実施形態]
以上では、画像処理システム10及びその処理の例をせつめいしたが、本発明は上述の実施形態に限られるものではなく、種々の変形が行われてもよい。また、上述の実施形態の一部を適宜組み合わせてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
10 画像処理システム
101 撮影システム
102 画像生成装置
103 情報処理装置

Claims (17)

  1. 所定のオブジェクトを注目対象とする仮想視点画像を生成するために指定された仮想視点の位置及び向きを示す視点情報を取得する第1取得手段と、
    オブジェクトの位置を示すオブジェクト情報を取得する第2取得手段と、
    前記第1取得手段により取得された視点情報と前記第2取得手段により取得されたオブジェクト情報とに基づいて、前記視点情報に応じた注目対象のオブジェクトを特定する特定手段と、
    前記特定手段により特定されたオブジェクトに関する情報を出力する出力手段と、を有することを特徴とする情報処理装置。
  2. 前記視点情報に応じた注目対象のオブジェクトは、前記視点情報に基づいて生成される仮想視点画像の中心に位置するオブジェクトであることを特徴とする請求項1に記載の情報処理装置。
  3. 前記仮想視点画像は所定の再生期間の動画であり、
    前記特定手段は、前記仮想視点画像における注目対象のオブジェクトが前記再生期間中に切り替わる場合には、切り替え前の注目対象のオブジェクト及び切り替え後の注目対象のオブジェクトを特定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記仮想視点画像は所定の再生期間の動画であり、
    前記視点情報に応じた注目対象のオブジェクトは、前記再生期間の全体において前記仮想視点画像に含まれるオブジェクトであることを特徴とする請求項1に記載の情報処理装置。
  5. 前記特定手段は、前記視点情報が示す仮想視点の位置から当該仮想視点の向きに応じた方向に延びる直線と前記オブジェクト情報が示すオブジェクトの位置との位置関係に基づいて前記注目対象のオブジェクトを特定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記仮想視点画像は、複数の撮影装置により撮影領域をそれぞれ異なる方向から撮影することで得られる複数の画像に基づいて生成され、
    前記第1取得手段により取得される視点情報は、前記撮影領域に関連付けられた3次元空間における仮想視点の位置及び向きを示し、
    前記第2取得手段により取得されるオブジェクト情報は、前記3次元空間におけるオブジェクトの位置を示すことを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記オブジェクトは前記撮影領域内の人物であることを特徴とする請求項6に記載の情報処理装置。
  8. 前記第1取得手段により取得される視点情報は、仮想視点の位置、向き、及び、仮想視点に対応する画角を示すことを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記出力手段は、前記特定手段により特定されたオブジェクトの識別情報と前記視点情報とを関連付けて記憶部に出力することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. オブジェクトを指定するための操作に応じた入力を受け付ける受け付け手段と、
    前記記憶部に記憶された視点情報のうち前記操作により指定されたオブジェクトの識別情報に関連付けられた視点情報を、前記受け付け手段により受け付けられた入力に応じて前記記憶部から取得する第3取得手段と、を有することを特徴とする請求項9に記載の情報処理装置。
  11. 前記出力手段は、前記特定手段により特定されたオブジェクトの位置を示す情報を出力することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  12. 仮想視点を指定するための操作に応じた入力を受け付ける受け付け手段と、
    前記受け付け手段により受け付けられた入力に基づいて決まる位置から前記出力手段により出力された情報が示すオブジェクトの位置に向けられた仮想視点の位置及び向きを示す視点情報を生成する生成手段と、を有することを特徴とする請求項11に記載の情報処理装置。
  13. 前記生成手段により生成された視点情報に基づく仮想視点画像を表示部に表示させる表示制御手段を有することを特徴とする請求項12に記載の情報処理装置。
  14. 所定のオブジェクトを注目対象とする仮想視点画像を生成するために指定された仮想視点の位置及び向きを示す視点情報を取得する第1取得工程と、
    オブジェクトの位置を示すオブジェクト情報を取得する第2取得工程と、
    前記第1取得工程において取得された視点情報と前記第2取得工程において取得されたオブジェクト情報とに基づいて、前記視点情報に応じた注目対象のオブジェクトを特定する特定工程と、
    前記特定工程において特定されたオブジェクトに関する情報を出力する出力工程と、を有することを特徴とする情報処理方法。
  15. 前記出力工程は、前記特定工程において特定されたオブジェクトの識別情報と前記視点情報とを関連付けて記憶部に出力することを特徴とする請求項14に記載の情報処理方法。
  16. 前記出力手段は、前記特定手段により特定されたオブジェクトの位置を示す情報を出力し、
    前記情報処理装置は、
    仮想視点を指定するための操作に応じた入力を受け付ける受け付け手段と、
    前記受け付け手段により受け付けられた入力に基づいて決まる位置から前記出力手段により出力された情報が示すオブジェクトの位置に向けられた仮想視点の位置及び向きを示す視点情報を生成する生成手段と、を有することを特徴とする請求項11に記載の情報処理装置。
    法。
  17. コンピュータを、請求項1乃至13の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2019194811A 2019-10-25 2019-10-25 情報処理装置、情報処理方法、及びプログラム Active JP7423251B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019194811A JP7423251B2 (ja) 2019-10-25 2019-10-25 情報処理装置、情報処理方法、及びプログラム
US17/071,890 US11468258B2 (en) 2019-10-25 2020-10-15 Information processing apparatus, information processing method, and storage medium
CN202011126622.0A CN112711327A (zh) 2019-10-25 2020-10-20 信息处理装置、信息处理方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194811A JP7423251B2 (ja) 2019-10-25 2019-10-25 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021068330A true JP2021068330A (ja) 2021-04-30
JP7423251B2 JP7423251B2 (ja) 2024-01-29

Family

ID=75542534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194811A Active JP7423251B2 (ja) 2019-10-25 2019-10-25 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11468258B2 (ja)
JP (1) JP7423251B2 (ja)
CN (1) CN112711327A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN115908162B (zh) * 2022-10-28 2023-07-04 中山职业技术学院 一种基于背景纹理识别的虚拟视点生成方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101795A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 生成装置、生成方法及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
US20170076428A1 (en) * 2015-09-14 2017-03-16 Canon Kabushiki Kaisha Information processing apparatus
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
JP6482498B2 (ja) * 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP6808357B2 (ja) * 2016-05-25 2021-01-06 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP7086522B2 (ja) * 2017-02-28 2022-06-20 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
WO2018225518A1 (ja) * 2017-06-07 2018-12-13 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP7030452B2 (ja) * 2017-08-30 2022-03-07 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システム及びプログラム
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
CN112102499A (zh) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 融合现实系统和方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101795A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 生成装置、生成方法及びプログラム

Also Published As

Publication number Publication date
CN112711327A (zh) 2021-04-27
US20210124965A1 (en) 2021-04-29
JP7423251B2 (ja) 2024-01-29
US11468258B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
CN109889914B (zh) 视频画面推送方法、装置、计算机设备及存储介质
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
JP5137970B2 (ja) ビデオストリームにおいて、マーク無しに、テクスチャー化平面幾何学的オブジェクトをリアルタイムで自動追跡するリアリティ向上方法および装置
JP2019079298A (ja) 情報処理装置、表示制御方法、及び、プログラム
JP2015001760A (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP2020086983A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007133660A (ja) 多視点映像合成装置及び多視点映像合成システム
JP2019125303A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7422468B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2020084951A1 (ja) 画像処理装置および画像処理方法
JP2021013095A (ja) 画像処理装置、表示方法、及び、プログラム
JP7423251B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019106617A (ja) 情報処理装置、情報処理方法及びプログラム
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7207913B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2023057124A (ja) 画像処理装置及び方法、プログラム
EP4333420A1 (en) Information processing device, information processing method, and program
WO2021210403A1 (ja) 画像処理装置、キャリブレーションボード、および、3dモデルデータ生成方法
JP2022182836A (ja) 映像処理装置及びその制御方法及びプログラム
CN113485547A (zh) 一种应用于全息沙盘的交互方法及装置
JP2022110751A (ja) 情報処理装置、情報処理方法及びプログラム
KR101263881B1 (ko) 무인 방송 제어 시스템
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

TRDD Decision of grant or rejection written
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R151 Written notification of patent or utility model registration

Ref document number: 7423251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151