JP2021043922A - 情報処理装置、システム、生成方法、及び、プログラム - Google Patents

情報処理装置、システム、生成方法、及び、プログラム Download PDF

Info

Publication number
JP2021043922A
JP2021043922A JP2019167791A JP2019167791A JP2021043922A JP 2021043922 A JP2021043922 A JP 2021043922A JP 2019167791 A JP2019167791 A JP 2019167791A JP 2019167791 A JP2019167791 A JP 2019167791A JP 2021043922 A JP2021043922 A JP 2021043922A
Authority
JP
Japan
Prior art keywords
information
virtual viewpoint
moving image
imaging target
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019167791A
Other languages
English (en)
Inventor
伊藤 達哉
Tatsuya Ito
達哉 伊藤
零 石川
Rei Ishikawa
零 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019167791A priority Critical patent/JP2021043922A/ja
Publication of JP2021043922A publication Critical patent/JP2021043922A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 撮像対象に関してユーザの希望に沿った仮想視点映像を生成する負荷を軽減する。【解決手段】 情報処理装置300は、仮想視点映像の生成に用いられる複数の撮像装置により撮像された撮像対象の指定に係るユーザ入力に基づいて、撮像対象の位置を特定し、当該特定された位置情報と、あらかじめ生成された第1の仮想視点情報とに基づいて、第2の仮想視点情報を生成する。【選択図】 図3

Description

本発明は、仮想視点映像を生成する技術に関するものである。
複数の撮像装置を異なる位置に配置して多視点で同期して撮像を行い、当該撮像により得られた複数の撮像画像を用いて、撮像領域内における指定された視点(仮想視点)からの見えを表す画像を生成する技術がある。さらに、仮想視点を経時的に変化させることにより生成される複数の画像を組み合わせることで、経時的に変化する仮想視点からの見えを表す動画(以下、仮想視点映像という)を生成することができる。仮想視点映像の生成技術においては、複数の撮像画像をサーバ等の画像処理部に集約し、当該画像処理部において仮想視点に基づくレンダリング等の処理を行うことにより、仮想視点映像が生成される。
特許文献1には、複数の撮像装置が撮像することにより得られる複数の撮像画像に基づいて、仮想視点映像を生成する方法について記載されている。
特開2008−015756号公報
仮想視点映像の生成に用いる仮想視点としては、ユーザによる入力に基づいて指定された仮想視点を用いたり、あらかじめ設定された仮想視点を用いることができる。しかしながら、ユーザの入力に基づく仮想視点を用いる場合、ユーザが、仮想視点映像に対応する仮想視点をすべて指定する必要があり、ユーザの負担が大きい。一方、あらかじめ設定された仮想視点を用いる場合、ユーザの負荷が軽減されるものの、以下の問題がある。すなわち、ユーザが見たいと考える撮像対象(例えば、特定の選手又はゴール前等)が仮想視点映像に表示されない、又は不要な撮像対象が当該仮想視点映像に表示される等、ユーザが所望する仮想視点映像を見ることができない虞がある。
本発明は上記の課題に鑑みてなされたものである。その目的は、撮像対象に関してユーザの希望に沿った仮想視点映像を生成する負荷を軽減することである。
本発明に係る情報処理装置は、経時的に変化する仮想視点からの見えを表す第1の動画の生成に用いられる複数の撮像装置により撮像された撮像対象の指定に係るユーザ入力であって、前記第1の動画が表示手段に表示されている間に行われるユーザ入力に基づいて、当該撮像対象の位置を特定する特定手段と、前記特定手段により特定された前記撮像対象の位置を示す位置情報と前記第1の動画を生成するための第1の仮想視点情報とに基づいて、前記ユーザ入力が行われた後に前記表示手段に表示される第2の動画であって、経時的に変化する仮想視点からの見えを表す第2の動画を生成するための第2の仮想視点情報を生成する情報生成手段とを有することを特徴とする。
本発明によれば、撮像対象に関してユーザの希望に沿った仮想視点映像を生成する負荷を軽減することができる。
撮像システム100を構成する撮像装置1の配置の一例を示す図である。 情報処理装置300を含む画像処理システム10の構成及び情報処理装置300のハードウェア構成を説明するための図である。 情報処理装置300の機能構成を説明するための図である。 情報処理装置300が実行する処理を説明するためのフローチャートである。 更新部303が行う指示情報の更新処理を説明するためのフローチャートである。 情報生成部306が第2の仮想視点情報を生成する処理を説明するためのフローチャートである。 撮像領域における座標系の一例を示す図である。 仮想カメラが撮影対象を撮像する一例を示す図である。 第2の仮想視点情報を生成するために使用される設定情報、指示情報、位置情報、及び、第1の仮想視点情報の一例を示す図である。 第1の仮想視点情報を基準として第2の仮想視点情報が生成される一例を示す図である。 ユーザ11が情報処理装置300を使用する方法の一例を説明するための図である。 ユーザ12が情報処理装置300を使用する方法の一例を説明するための図である。 表示部208に表示される仮想視点映像の一例を示す図である。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、本発明の実施の形態の一例を示すものであり、本発明をそれらのみに限定するものではない。
本実施形態においては、指定された撮像対象と、あらかじめ生成された第1の仮想視点情報とに基づいて、新たな第2の仮想視点情報を生成するための情報処理装置300について説明する。ここで、仮想視点情報とは、仮想視点映像を生成するための仮想視点パラメータセットを複数有し、仮想視点に基づく動画を生成するための情報である。仮想視点とは、複数の撮像装置が撮像対象を撮像することにより得られる複数の撮像画像に基づく仮想視点映像を生成するために指定される視点である。仮想視点パラメータセットは、仮想視点の視点位置、仮想視点からの視線方向、及び、仮想視点映像に対応する画角を示す仮想視点パラメータを含む。すなわち、仮想視点映像は、撮像対象である撮像領域において指定される視点(仮想視点)からの見えを表す複数の画像(フレーム)から構成される動画である。また、複数の仮想視点パラメータセットは、それぞれ、仮想視点映像における各時刻のフレームに対応している。すなわち、一の仮想視点パラメータセットから、仮想視点映像を構成する一枚のフレームが生成される。なお、本実施形態における仮想視点パラメータセットは仮想視点に関する視点位置、視線方向及び画角を示す仮想視点パラメータを含むものとして説明するが、仮想視点パラメータセットに含まれる仮想視点パラメータの種類は上記に限定されない。仮想視点パラメータセットは、視点位置を示す仮想視点パラメータ及び視線方向を示す仮想視点パラメータの少なくともいずれかを含んでいればよい。また、仮想視点パラメータが上記以外の仮想視点パラメータを含む構成であってもよい。
複数の撮像装置は、例えば図1に示す撮像装置1のように、撮像領域を囲むように配置されうる。撮像領域は、例えばサッカーや空手などの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数の撮像装置は、このような撮像領域を囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数の撮像装置は撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、撮像装置の数は図1に示す例に限定されず、例えば撮像領域をサッカーの競技場とする場合には、競技場の周囲に30台程度の撮像装置が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮像装置が設置されていてもよい。また、本実施形態における仮想視点映像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する映像に限定されず、例えば複数の候補からユーザが選択した視点に対応する映像なども仮想視点映像に含まれる。
図2は、本実施形態における情報処理装置300を含む画像処理システム10の構成及び情報処理装置300のハードウェア構成を説明するための図である。図2(a)は、情報処理装置300を含む画像処理システム10の構成を示す図である。画像処理システム10は、撮像システム100、画像処理サーバ200、及び情報処理装置300を含む。撮像システム100は、図1に示すような、複数の撮像装置によって構成されるシステムである。撮像システム100に含まれる複数の撮像装置は、同期して撮像を行い、当該撮像によって得られる複数の撮像画像を、画像処理サーバ200に送信する。
画像処理サーバ200は、撮像システム100から送信された複数の撮像画像と、後述する情報処理装置300から送信される仮想視点情報とに基づいて、仮想視点映像を生成する。画像処理サーバ200は、生成した仮想視点映像を後述する情報処理装置300に送信する。このとき、画像処理サーバ200は、撮像システム100が撮像を行い、撮像画像を送信するごとに順次映像生成の処理を行い、情報処理装置300に送信することが可能である。これにより、情報処理装置300は、撮像システム100による撮像が行われている時刻に対して処理遅延分を考慮した時刻に仮想視点映像を受信することができる。また、画像処理サーバ200は、受信した撮像画像を記憶するためのデータベースを有し、過去に記憶した撮像画像を使用して仮想視点映像を生成することによりリプレイ映像を生成することも可能である。
情報処理装置300は、ユーザによる入力に基づいて仮想視点情報を生成し、生成した仮想視点情報を画像処理サーバ200に送信する。また、情報処理装置300は、送信した仮想視点情報に基づいて生成された仮想視点映像を画像処理サーバ200から取得する。ここで、情報処理装置300のハードウェア構成について説明する。図2(b)は、情報処理装置300のハードウェア構成を説明するための図である。情報処理装置300は、CPU201、RAM202、ROM203、通信部204、及び、入出力部205を有する。
CPU201は、RAM202やROM203に格納されているコンピュータプログラムやデータを用いて情報処理装置300の全体を制御することで、情報処理装置300が有する各機能を実現する。なお、情報処理装置300がCPU201とは異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。RAM202は、ROM203から読み出されるプログラム、CPU201の処理結果、及び通信部204を介して外部から供給されるデータ等を一時記憶する。ROM203は、変更を必要としないプログラムやデータ等を格納する。通信部204は、情報処理装置300の外部の装置との通信に用いられる。例えば、情報処理装置300が外部の装置と有線で接続される場合には、通信用のケーブルが通信部204に接続される。情報処理装置300が外部の装置と無線通信する機能を有する場合には、通信部204はアンテナを備える。情報処理装置300は、通信部204を介して画像処理サーバ200と通信を行う。
入出力部205は、音声入力部206、操作入力部207、及び、表示部208を有する。音声入力部206は、例えばマイク等であり、ユーザによる音声入力を受けて各種の指示をCPU201に入力する。操作入力部207は、例えば、キーボード、マウス、ジョイスティック、及びタッチパネル等で構成され、ユーザによる操作入力を受けて各種の指示をCPU201に入力する。表示部208は、例えば、液晶ディスプレイ、及びLED等で構成され、ユーザが情報処理装置300を操作するためのGUI(Graphical User Interface)、及び、画像処理サーバ200において生成された仮想視点映像等を表示する。CPU201は、音声入力部206、操作入力部207、及び、表示部208のそれぞれを制御する制御部として動作する。
なお、本実施形態においては、音声入力部206、操作入力部207、及び、表示部208が情報処理装置300に含まれる構成としたが、これに限定されない。例えば、音声入力部206、操作入力部207、及び、表示部208のうち少なくともいずれかが情報処理装置300の外部に接続され、通信部204を介して入出力を行う構成であってもよい。
図3は、情報処理装置300の機能構成を説明するための図である。情報処理装置300は、音声判別部301、操作判別部302、指示情報更新部303、条件判別部304、座標変換部305、仮想視点情報生成部306、及び、表示処理部307を有する。また、図3には、図2(b)に示す通信部204、音声入力部206、操作入力部207、及び、表示部208が示されている。以下、図3を用いて各処理部について説明する。
ここで、以降の説明においては仮想視点を表す用語として仮想カメラを用いることとする。仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであり、仮想視点を便宜的に説明するための概念である。すなわち、仮想視点映像は、仮想カメラにより仮想的に撮像された場合の映像である。このとき、仮想視点パラメータセットに含まれる仮想視点に関する視点位置、視線方向及び画角を示す仮想視点パラメータは、それぞれ、仮想カメラの位置、姿勢及び画角を示す仮想的なカメラパラメータ(以下、仮想カメラパラメータという)に対応する。また、仮想視点情報は、仮想視点映像を撮像する仮想カメラの位置、姿勢及び画角の変遷を示す情報である。
本実施形態における仮想カメラパラメータの一例について説明する。仮想カメラの位置を示すパラメータは、3次元座標を用いて表される。すなわち、仮想カメラの位置は、X軸、Y軸、Z軸の直交座標系における3軸のパラメータにより表される。このときの座標系の原点は、撮像領域内における任意の位置に設定することが可能である。また、仮想カメラの姿勢は、パン、チルト、ロールの3軸のパラメータにより表される。また、仮想カメラの画角は、仮想カメラの焦点距離を示す1軸のパラメータである。また、上記の仮想カメラパラメータは、仮想視点映像における時刻を示すパラメータと紐づけられている。すなわち、時刻と対応付けられた複数の仮想カメラパラメータを用いることにより、仮想視点映像における複数の時点のそれぞれに対応するフレームが生成される。なお、仮想カメラパラメータの表し方は上記に限定されるものではない。
音声判別部301は、音声入力部206に入力された音声について解析を行い、あらかじめ用意された指示情報に対応する情報が含まれるか否かを判別する。対応する情報が含まれると判別した場合、音声判別部301は当該音声に含まれる情報に対応する指示情報を指示情報更新部303に送信する。
操作判別部302は、操作入力部207に入力された操作について解析を行い、あらかじめ用意された指示情報に対応する情報を指定するための操作であるか否かを判別する。対応する情報を指定するための操作であると判別した場合、操作判別部302は当該操作により指定される情報に対応する指示情報を指示情報更新部303に送信する。
指示情報とは、撮像システム100により撮像される撮像対象であって、後述する座標変換部305により位置を特定される撮像対象を指定するための情報である。指示情報は、例えば、「選手A」若しくは「ボール」等の動体、及び「ゴール」等の構造物等を示す情報を含みうる。また、指示情報は、例えばサッカーの試合における「ゴール前」及び「センター」等、撮像装置により撮像される所定のイベントに対応する特定の領域を示す情報を含みうる。なお、本実施形態における動体とは、時系列で同じ撮像方向から撮像された場合において動きのある(その絶対位置が変化し得る)物体である。また、本実施形態における構造物とは、時系列で同じ撮像方向から撮像された場合において動きのない(その絶対位置が変化しない、静止している)物体である。指示情報に含まれる情報としては、上記の他に「ゴールキーパー」、「背番号10」、及び「コーナーポスト」等が挙げられる。ユーザは音声入力又は操作入力を行うことにより、上記の例に示すような撮像対象を指定することが可能である。なお、指示情報は、撮像対象を指定するための情報の他にも、仮想カメラパラメータの制御に関わる指示を示す情報を含んでいてもよい。
指示情報更新部303(以降、更新部303と呼ぶ)は、音声判別部301及び操作判別部302から送信される指示情報及び条件判断部304の判断結果に基づき、RAM202に記憶される指示情報の更新を行う。条件判断部304は、指示情報の更新に係る所定の条件に基づく判断を行う処理部である。処理の詳細については後述する。更新部303は、更新時にRAM202に記憶されている指示情報がない場合は、RAM202に新しい指示情報を記憶させる。また、すでにRAM202に記憶されている指示情報がある場合、更新部303は、元々の情報を破棄して新たな指示情報をRAM202に記憶させる。なお、更新部303は、元々の情報を維持して新たな指示情報を追加で記憶させることも可能である。また、更新部303は、すでに記録されている指示情報のうち、不要な指示情報を破棄する処理のみ行うことも可能である。
座標変換部305は、RAM202に記憶されている指示情報を読み出し、当該指示情報が示す撮像対象の位置情報を特定する。具体的には、座標変換部305は、例えば、撮像対象と当該撮像対象の位置を示す座標値とが対応付けられたテーブル等に基づいて、指示情報が示す撮像対象の座標値を特定する。若しくは、座標変換部305は、撮像画像に対する画像解析等により、指示情報が示す撮像対象の座標値を算出する。座標変換部305は、特定した位置情報を仮想視点情報生成部306に送信する。上記の算出方法の他に、他の撮像対象との位置関係に応じて変動する座標値を算出することも可能である。この場合、例えば、「ゴール前」に対応する座標値として、座標算出時のボールとゴールとの位置関係に基づき、ボールの位置に近い方のゴール前の座標値を算出する。このような構成とすることにより、ユーザの希望を推測して仮想視点情報の生成が可能になる。ただし、「ゴール前」に対応する座標値の特定は、ボールの座標値を基準としてもよく、特定の選手や審判などを基準にしてもよい。
仮想視点情報生成部306(以降、情報生成部306と呼ぶ)は、第1の仮想視点情報を基準として、第2の仮想視点情報を生成する。情報生成部305は、座標変換部305から位置情報を取得する。また、情報生成部306は、第2の仮想視点情報をどのように生成するかを示す設定情報、及び、第1の仮想視点情報を取得する。本実施形態における設定情報および第1の仮想視点情報は、RAM202またはROM203にあらかじめ記憶されている。設定情報は、例えば、第2の仮想視点情報の生成方法に関する情報を含む。設定情報は、例えば、指示情報が示す撮像対象が仮想視点映像において表示される表示位置を示す情報と、制御する対象となる仮想カメラパラメータを示す情報とを含みうる。上記の他にも設定情報には種々の情報が含まれる場合がある。設定情報の具体的な内容については後述する。なお、設定情報は、他の装置で生成されてもよいし、情報処理装置300における音声入力部206又は操作入力部207等に対するユーザの入力に基づいて生成されてもよい。
第1の仮想視点情報は、例えばユーザ又は他の装置によってあらかじめ生成される。第1の仮想視点情報としては、例えば、サッカーの試合におけるシュートシーン、あるいは特定の選手やボールを仮想的に撮像した仮想カメラに対応する複数の仮想視点パラメータセットが設定され得る。なお、情報生成部306は、通信部204を介して外部の記憶装置等から第1の仮想視点情報を取得することも可能である。また、情報生成部306が、第1の仮想視点情報を生成する構成であってもよい。情報生成部306は、取得した位置情報及び設定情報に基づいて、第1の仮想視点情報において座標変換部305が位置情報を特定した時点に対応する仮想カメラの位置、姿勢及び画角を示すパラメータを変更することにより、新たに第2の仮想視点情報を生成する。生成した第2の仮想視点情報は、通信部204を介して画像処理サーバ200に送信され、第2の仮想視点情報に基づく仮想視点映像(以下、第2の仮想視点映像ともいう)が生成される。
表示処理部307は、画像処理サーバ200において生成された仮想視点映像を、通信部204を介して取得し、表示部208に表示させる。
図4は、本実施形態における情報処理装置300が実行する処理を説明するためのフローチャートである。以降の説明においては、各処理ステップを単にSと表記する。CPU201がROM203等に記憶されたプログラムを読み出して実行することにより、以下の処理が実行される。ユーザによる音声入力又は操作入力を受け付ける、又は条件判断部304による判断結果に基づいて、処理が開始される。なお、図4に示す処理は、仮想視点映像を構成するフレームごとに行われる。
S401において、更新部303は、仮想視点映像のフレームに対し、音声判別部301及び操作判別部302による指示情報の送信、又は条件判断部304による判断結果に基づき、RAM202に記憶されている指示情報の更新を行う。S401の処理の詳細については後述する。
S402において、更新部303は、すでにRAM202に指示情報があるか否かを判定する。RAM202に指示情報がないと判定された場合、座標変換部305は、情報生成部306に対し、指示情報がないことを通知する。この場合、S403において、情報生成部306は、RAM202又はROM203に保存されている第1の仮想視点情報における仮想カメラの位置、姿勢及び画角を示すパラメータを取得し、画像処理サーバ200に送信する。画像処理サーバ200は第1の仮想視点情報に基づく仮想視点画映像(以下、第1の仮想視点映像ともいう)のフレームを生成し、通信部204を介して表示処理部307に送信する。表示処理部307は受信した仮想視点映像のフレームを表示部208に表示させる。
S402においてRAM112に指示情報があると判定された場合、S404に処理が進む。S404において、情報生成部306は、指示情報に基づいて第2の仮想視点情報を生成する。S404の処理の詳細については後述する。S405において、情報生成部306は、生成した第2の仮想視点情報を画像処理サーバ200に送信する。画像処理サーバ200は、第2の仮想視点映像のフレームを生成し、通信部204を介して情報処理装置300に送信する。情報処理装置300の表示処理部207は受信した仮想視点映像のフレームを表示部208に表示させる。
S406において、情報生成部306は、表示部208に表示されたフレームが仮想視点映像における最終フレームか否かを判定する。最終フレームでないと判定された場合、情報処理装置300は、S401以降の処理を再度実行する。最終フレームであると判定された場合、情報処理装置300は処理を終了する。
図5は、更新部303が行う指示情報の更新処理を説明するためのフローチャートである。図5に示すフローチャートは、図4におけるS401の処理を詳細に表した処理である。
S501において、条件判断部304は、第2の仮想視点情報が生成されてから一定時間経過したか否かを判断する。一定時間以上経過したと判断された場合、S506に処理が進む。一定時間以上経過していないと判断された場合、S502に処理が進む。なお、S401の処理が開始された直後で、第2の仮想視点情報がまだ生成されていない場合も、一定時間以上経過していないと判断されるものとする。S501の処理は、座標変換部305により位置情報が特定された時点から所定の期間は、第1の仮想視点情報における各時点に対応する仮想カメラパラメータの変更を維持するために行われる。これにより、第2の仮想視点情報に対応する仮想カメラが設定されてすぐに第1の仮想視点情報に対応する仮想カメラに切り替わってしまうことを防ぐことができる。
S502において、条件判断部304は、第1の仮想視点情報に対応する仮想カメラパラメータと、第2の仮想視点情報に対応する仮想カメラパラメータとに差異があるかどうかを判定する。差異があると判定された場合、S503へ処理が進む。差異がないと判定された場合、S505へ処理が進む。
S503において、条件判断部304は、第1の仮想視点情報に対応する仮想カメラパラメータと、第2の仮想視点情報に対応する仮想カメラパラメータとの差異量を算出する。本実施形態における差異量は、仮想カメラの位置、姿勢及び画角のそれぞれについて算出される。S504において、条件判断部304は、算出した差異量が基準値以上であるか否かを判定する。このとき、仮想カメラの位置、姿勢及び画角のそれぞれについて基準値が定められ、対応する差異量との比較がなされる。一つでも差異量が基準値以上のものがあると判定された場合、S506へ処理が進む。すべての差異量が基準値よりも小さい場合、S505へ処理が進む。
S505において、条件判断部304は、音声判別部301及び操作判別部302から、第2の仮想視点情報を第1の仮想視点情報に戻す指示を示す指示情報が送信されたか否かを判定する。戻す指示を示す指示情報が送信されたと判定された場合、S506へ処理が進む。戻す指示を示す指示情報が送信されなかったと判定された場合、S507へ処理が進む。
S506において、更新部303はRAM202に記憶されている指示情報のうち、撮像対象を指定するための指示情報を削除する。S507において、条件判断部304は、音声判別部301及び操作判別部302から、撮像対象を指定するための指示情報が送信されたか否かを判定する。撮像対象を指定するための指示情報が送信されたと判定された場合、S508において、更新部303は当該指示情報をRAM202に記憶させ、更新処理が終了する。なお、S508においてRAM202に撮像対象を指定するための指示情報がまだ残っている場合、更新部303は、S507において送信された指示情報で上書きをする。ただし、更新部303は、指示情報を上書きせずに追加でRAM202に記憶させることも可能である。このとき、指示情報を追加で記憶することにより、複数の指示情報に基づいて第2の仮想視点情報が生成されるようにしてもよい。撮像対象を指定するための指示情報が送信されなかったと判定された場合、更新処理が終了する。
なお、更新部303は、S506において撮像対象を指定するための指示情報の削除を行わずに、S402において指示情報がないものとして処理を進める構成であってもよい。この場合、S506において、更新部303はRAM202にすでに記憶されている撮像対象を指定するための指示情報を使用しないことを記憶する。また、S507において指示情報が送信されなかったと判定された場合、S402において、更新部303はRAM202に記憶されている指示情報を使用せず、指示情報がないものとみなしてS403へ処理を進める。
図6は、情報生成部306が第2の仮想視点情報を生成する処理を説明するためのフローチャートである。図6に示すフローチャートは、図4におけるS404の処理を詳細に表した処理である。なお、S404においては、RAM202又はROM203には以下の4つの情報が記憶されている。1つ目は、第2の仮想視点情報をどのように生成するかを示す設定情報である。2つ目は、更新部303により更新された、撮像対象を指定するための指示情報である。3つ目は、撮像領域におけるすべての撮像対象の位置を示す位置情報の一覧である。このとき、撮像対象の位置情報が時刻ごとに異なる場合、一覧には各時刻に対応する位置情報が含まれる。4つ目は、第1の仮想視点情報に対応する仮想カメラの位置、姿勢及び画角を示す仮想カメラパラメータである。
S601において、座標変換部305は、RAM202に記憶された指示情報を取得する。S602において、座標変換部305は、指示情報が示す撮像対象に対応する位置情報を、すべての撮像対象の位置を示す位置情報の一覧から取得する。座標変換部305は、取得した位置情報を、情報生成部306に送信する。S603において、情報生成部306は、RAM202又はROM203に記憶された設定情報を取得する。S604において、情報生成部306は、第1の仮想視点情報に対応する仮想カメラパラメータを取得する。
S605において、情報生成部306は、取得した位置情報及び設定情報に基づいて、第1の仮想視点情報に対応する仮想カメラの位置、姿勢及び画角を示すパラメータのうち少なくともいずれかを変更することにより、新たな仮想カメラパラメータを算出する。S606において、情報生成部306は、算出した仮想カメラパラメータを含む第2の仮想視点情報を生成する。なお、上記の4つの情報に関しては、すべての情報があらかじめRAM202又はROM203に記憶されていなくてもよい。例えば、図4に示す処理が行われている間に、必要に応じて通信部304を介して外部から情報を取得する構成であってもよい。
以上が、本実施形態における情報処理装置300が行う処理である。以下、上記の処理について具体例を用いて説明する。図7は、本実施形態における座標系の一例を示す図である。図7に示す座標系は、フィールドのセンターを原点とし、X軸701、Y軸702及びZ軸703が設定される。仮想カメラの位置は、上記の3軸により表される。また、仮想カメラの姿勢については、X軸701、Y軸702及びZ軸703と並行な各軸に対してパン704、チルト705及びロール706が設定される。
図8は、仮想カメラが撮影対象を撮像する一例を示す図である。図8に示す例においては、時刻に応じて位置が変化する撮像対象として、選手A801、選手B802及びボール803がフィールド上に存在する。また、図8に示す例においては、時刻に応じて位置が変化しない撮像対象として、センター804及びゴール(チームα)805がフィールド上に存在する。仮想カメラ806は、例えばユーザにより位置、姿勢及び画角が指定され、上記の撮像対象を撮像する。
図9は、第2の仮想視点情報を生成するために使用される設定情報、指示情報、位置情報、及び、第1の仮想視点情報の一例を示す図である。また、図10は、第1の仮想視点情報を基準として第2の仮想視点情報が生成される一例を示す図である。図9に示す設定情報901には、「指定された撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」という内容があらかじめ設定されている。指示情報902には、仮想視点映像のフレームに対応付けられた指示情報が含まれている。位置情報903には、各フレームについて、撮像領域における撮像対象それぞれの位置を示す座標値が含まれている。第1の仮想視点情報904には、各フレームに対応する仮想カメラの位置、姿勢及び画角を示す仮想カメラパラメータが含まれている。なお、図10(a)は、第1の仮想視点情報904に対応する仮想カメラの仮想的な撮像時の動作を表す図である。第1の仮想視点情報904は、仮想カメラが選手B802を撮像するようにあらかじめ生成されているものとする。
図9に示す指示情報902においては、1フレーム目には指示情報が存在しない。指示情報が存在しない場合、情報生成部206は、第1の仮想視点情報に含まれる仮想カメラの位置、姿勢及び画角を示すパラメータを取得する。1フレーム目における位置は(xCam1,yCam1,zCam1)、姿勢は(pCam1,tCam1,rCam1)、画角はzoomCam1である。情報生成部306は、上記の値をそのまま第2の仮想視点情報における1フレーム目の位置、姿勢及び画角の値として設定する。
指示情報902においては、2フレーム目には「選手A」という指示情報が存在する。指示情報が存在する場合、図6に示す処理が実行されることとなる。S601において、座標変換部305は、指示情報902から指示情報を取得する。S602において、座標変換部305は、位置情報903を参照し、指示情報が示す撮像対象の位置情報を取得する。位置情報903においては、2フレーム目の「選手A」の座標値は(xA2,yA2,zA2)であるため、座標変換部305は、座標値(xA2,yA2,zA2)を情報生成部306に送信する。S603において、情報生成部306は、設定情報901から「指定された撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」という設定情報を取得する。S604において、情報生成部306は、第1の仮想視点情報904から、2フレーム目に対応する仮想カメラパラメータを取得する。
S605において、情報生成部306は、第2の仮想視点情報に対応する仮想カメラパラメータを生成する処理を行う。設定情報より、仮想カメラの姿勢を変更することが指定されているため、仮想カメラの位置を示すパラメータについては第2の仮想視点情報においても第1の仮想視点情報と同一の値である(xCam2,yCam2,zCam2)が設定される。仮想カメラの姿勢を示すパラメータについては、仮想カメラの光軸が「選手A」の座標値(xA2,yA2,zA2)を通るように値が設定される。これにより、姿勢のパラメータは第1の仮想視点情報の値(pCam2,tCam2,rCam2)とは異なる値(pCam2A,tCam2A,rCam2A)となる。また、仮想カメラの画角を示すパラメータは、第1の仮想視点情報の値と同一の値zoomCam2となる。
以上説明した処理を、指示情報の有無に応じて行うことにより、最終的に図10(b)に示す第2の仮想視点情報が生成される。この結果、仮想カメラが撮像対象を撮像する際の動作は、図10(a)に示すような第1の仮想視点情報に対応する仮想カメラの動作から、図10(c)に示すような第2の仮想視点情報に対応する仮想カメラの動作に変化する。図10(c)における仮想カメラは、2フレーム目から選手Aを撮像するように動作する。
(ユーザによる使用例1)
図11は、ユーザが情報処理装置300を使用する方法の一例を説明するための図である。図11に示す例においては、サッカーの試合における選手A801、選手B802及びボール等が撮像対象に含まれている。図11に示す例においては、「指定された撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」という設定情報があらかじめ設定されているものとする。また、図11におけるブロック1101〜1104は、第1の仮想視点情報に対応する仮想カメラの動作を表す。第1の仮想視点情報に対応する仮想カメラは、サッカーの試合におけるボールを追従して撮像するようにあらかじめ設定されている。また、ブロック1111〜1114は、ブロック1101〜1104に示す仮想カメラが撮像を行うことにより得られた仮想視点映像を見ながら、ユーザ11が情報処理装置300に対し入力を行う様子を表す。また、ブロック1121〜1124は、ユーザ11が入力を行った結果生成される第2の仮想視点情報に対応する仮想カメラの動作を表す。図11に示す各ブロックは、左から右へ時系列順に表されている。以下、ブロックごとに情報処理装置300が行う処理について説明する。
<ブロック1101:入力なし、第1の仮想視点映像のフレーム表示>
S501において、条件判断部304は、第2の仮想視点情報の生成から一定時間経過していないと判定し、S502へ処理を進める。S502において、第1の仮想視点情報と第2の仮想視点情報との仮想カメラパラメータの差異はないため、条件判断部204は指示情報の更新の必要なしと判断し、S505へ処理を進める。S505において、仮想視点情報を戻す指示がないため、更新部303はRAM202に保存されている指示情報を更新することなく、S507に進む。S507において、条件判断部304は、音声判別部301及び操作判別部302から、撮像対象を指定するための指示情報が送信されていないと判定し、S402へ処理を進める。
S402において、更新部303はRAM202に保存されている指示情報が空であることを座標変換部305に通知する。座標変換部305は処理する対象が存在しないため、指示情報が存在しないことを情報生成部306に通知する。S403において、情報生成部306は、RAM202から第1の仮想視点情報に対応する仮想カメラパラメータを取得し、画像処理サーバ200に送信する。また、表示処理部307は、情報生成部306が送信した仮想カメラパラメータに基づいて生成された仮想視点映像のフレームを取得し、表示部208に表示させる。S306において、情報生成部306は、表示部208に表示されたフレームが最終フレームであるか否かを判定する。本ブロック1101においては最終フレームではないため、S401以降の処理が再度行われる。結果として、ブロック1111に示すユーザ11は、ブロック1121に示す仮想カメラが撮像するフレームを視聴する。
<ブロック1102:「選手A」という音声入力あり>
S501からS505までは、ブロック1101と同様の処理が行われ、S507に処理が進む。ここで、ブロック1112に示すように、ユーザ11は表示部208を見ながら、「選手A」を指定するための音声入力を行う。S507において、音声入力部206は「選手A」という音声入力を受け付け、音声判別部301はその入力が指示情報に置き換え可能か否かを判定する。音声判別部301は、「選手A」が指示情報に置き換え可能であると判定し、S508において「選手A」という入力を指示情報としてRAM202に記憶する。S402において、「選手A」という指示情報がRAM202に記憶されているため、S601へ処理を進める。
S601において、座標変換部305はRAM202に保存されている「選手A」という指示情報を取得する。S602において、座標変換部305は撮像対象の位置情報の一覧から、ブロック1102に対応する「選手A」の座標値を取得し、当該座標値を情報生成部206に送信する。S603において、情報生成部306はRAM202から「指定された撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」という設定情報を取得する。S604において、情報生成部306は、RAM202から第1の仮想視点情報に対応する仮想カメラパラメータを取得する。S605において、情報生成部306は、「選手A」の座標値、設定情報及び第1の仮想視点情報に対応する仮想カメラパラメータに基づいて、選手Aを撮像するような仮想カメラの姿勢のパラメータを算出する。S606において、情報生成部306は、算出された仮想カメラの姿勢のパラメータを含む第2の仮想視点情報を生成し、S405へ処理を進める。S405においては、画像処理サーバ200において生成された仮想視点映像のフレームが表示部208に表示される。結果として、ブロック1112に示すユーザ11は、ブロック1122に示すように、選手A801が撮像されたフレームを視聴する。
ここで、第2の仮想視点情報に対応する仮想カメラの画角に含まれる撮像対象のうち、指定された撮像対象を他の撮像対象から識別可能に表示されるようにすることも可能である。例えば、まず、ブロック1121において、ボールが便宜的に指定されたものとして他の撮像対象と識別可能に表示されている。そして、ブロック1122においては、ユーザ入力により指示された撮像対象である選手A801が、他の撮像対象と識別可能に表示されるようにすればよい。識別可能な表示方法としては、指示された撮像対象を所定の色で塗りつぶす、点滅させる、矩形等の図形で囲む、又は撮像対象の輪郭を強調して表示する等、種々の方法が挙げられる。上記のような表示を行うことにより、ユーザ11は、指示通りに仮想カメラパスが変更されたことを容易に認識することができる。また、ユーザ11は、自身が誤って撮像対象を指示した場合でも、早期にその誤りを知ることができ、再度適切な撮像対象を指示することができる。
<ブロック1103:第1の仮想視点情報と第2の仮想視点情報とで基準値未満の仮想カメラパラメータの差異あり>
ブロック1103においては、指示情報はブロック1102の指示情報が維持された状態であるため、RAM202には「選手A」という指示情報が記憶されている。S501において、条件判断部304は、第2の仮想視点情報の生成から一定時間経過していないと判定し、S502へ処理を進める。S502において、第1の仮想視点情報と第2の仮想視点情報との仮想カメラパラメータに差異があるため、条件判断部204はS503へ処理を進める。S503において、条件判断部304は、仮想カメラパラメータの差異量を算出する。このとき条件判断部304は、第1の仮想視点情報と「選手A」という指示情報に基づいて生成される第2の仮想視点情報とで、仮想カメラの位置座標の差、仮想カメラの姿勢の角度の差、及び仮想カメラの焦点距離の差等を算出することにより、差異量を算出する。S504において、条件判断部304は、算出した仮想カメラの位置、姿勢及び画角を示すパラメータそれぞれの差異量が対応する基準値以上であるか否かを判定する。ブロック1103においては、差異量はすべて基準値未満であると判定され、S505に処理が進む。S505において、仮想視点情報を戻す指示がないため、更新部303はRAM202に保存されている指示情報を更新することなく、S507に進む。
S507において、条件判断部304は、音声判別部301及び操作判別部302から、撮像対象を指定するための指示情報が送信されていないと判定し、S402へ処理を進める。S402において、更新部303は、RAM202に「選手A」という指示情報が記憶されていると判定する。S404以降は、ブロック1102と同様の処理が行われる。結果として、ブロック1113に示すユーザ11は、ブロック1123に示すように、選手A801が継続して撮像されたフレームを視聴する。
<ブロック1104:第1の仮想視点情報と第2の仮想視点情報とで基準値以上の仮想カメラパラメータの差異あり>
ブロック1104においては、RAM202には「選手A」という指示情報が記憶されている。S501からS503までは、ブロック1103と同様の処理が行われる。S504において、条件判断部304は、算出した差異量が基準値以上であるか否かを判定する。このとき、ブロック1104に対応する第1の仮想視点情報と、「選手A」という指示情報に基づいて生成される第2の仮想視点情報とで仮想カメラパラメータの差異が大きい。したがって、条件判断部304は、算出した差異量が基準値以上のものがあると判定し、S506へ処理を進める。S506において、更新部303は、RAM202に記憶されている指示情報を削除する。この結果、RAM202に記憶されていた「選手A」という指示情報は削除される。S507において、条件判断部304は、音声判別部301及び操作判別部302から、撮像対象を指定するための指示情報が送信されていないと判定し、S402へ処理を進める。S402において、更新部303はRAM202に保存されている指示情報が空であることを座標変換部305に通知する。S403以降は、ブロック1101と同様の処理が行われる。結果として、ブロック1114に示すユーザ11は、ブロック1124に示すように、ブロック1104が示す第1の仮想視点情報に対応する仮想カメラが撮像するフレームを視聴する。
図13(a)は、上記の例において表示部208に表示される仮想視点映像である。ブロック1131〜1134は、それぞれ図11におけるブロック1121〜1124に対応するフレームである。上記の構成によれば、ブロック1134のように、第1の仮想視点情報と第2の仮想視点情報とで仮想カメラパラメータの差異が大きい場合、第1の仮想視点情報に対応する仮想カメラパラメータの値が採用される。これにより、ユーザ11は所望の選手A801に着目した仮想視点映像を視聴しつつ、仮想カメラの動作に大きな変化が生じやすいシュートシーン等、重要なシーンを逃すことなく視聴することができる。
(ユーザによる使用例2)
図12は、ユーザが情報処理装置300を使用する方法の別の例を説明するための図である。図12に示す例においても、図11に示す例と同様に、サッカーの試合における選手A801、選手B802及びボール等が撮像対象に含まれている。また、第1の仮想視点情報に対応する仮想カメラは、サッカーの試合におけるボールを追従して撮像するようにあらかじめ設定されている。図11に示す例とは異なり、図12に示す例においては、「指定された撮像対象と、第1の仮想視点情報に対応する仮想カメラの撮像対象とが表示画面に含まれるように仮想カメラの位置を制御」という設定情報があらかじめ設定されている。本使用例において、使用例1と処理の内容が異なる部分について詳細に説明し、同様の処理内容については使用例1及び図11を参照するものとする。
<ブロック1201:入力なし、第1の仮想視点映像のフレーム表示>
ブロック1201における処理は、図11におけるブロック1101と同様である。結果として、ブロック1211に示すユーザ12は、ブロック1221に示す仮想カメラが撮像するフレームを視聴する。
<ブロック1202:「選手A」という音声入力あり>
S501からS602までの処理は、図11におけるブロック1102と同様である。S603において、情報生成部306はRAM202から「指定された撮像対象と、第1の仮想視点情報に対応する仮想カメラの撮像対象とが表示画面に含まれるように仮想カメラの位置を制御」という設定情報を取得する。S604において、情報生成部306は、RAM202から第1の仮想視点情報に対応する仮想カメラパラメータを取得する。S605において、情報生成部306は、「選手A」の座標値、設定情報及び第1の仮想視点情報に対応する仮想カメラパラメータに基づいて、仮想カメラの位置のパラメータを算出する。このとき、設定情報より、指定された「選手A」と、第1の仮想視点情報に対応する仮想カメラの撮像対象である「ボール」を画角に含むように仮想カメラの位置のパラメータを算出する。選手Aを撮像するような仮想カメラの姿勢のパラメータを算出する。S606において、情報生成部306は、算出された仮想カメラの位置のパラメータを含む第2の仮想視点情報を生成し、S405へ処理を進める。S405においては、画像処理サーバ200において生成された仮想視点映像のフレームが表示部208に表示される。結果として、ブロック1212に示すユーザ12は、ブロック1222に示すように、選手A801とボールとが撮像されたフレームを視聴する。
<ブロック1203:第1の仮想視点情報と第2の仮想視点情報とで基準値未満の仮想カメラパラメータの差異あり>
ブロック1203における処理は、設定情報が異なる点を除き、図11におけるブロック1103と同様であるため説明を省略する。結果として、ブロック1213に示すユーザ12は、ブロック1223に示すように、選手A801とボールとが継続して撮像されたフレームを視聴する。
<ブロック1204:第2の仮想視点情報を生成してから一定時間経過>
ブロック1204においては、ブロック1222において第2の仮想視点情報が生成されてから一定時間が経過したものとする。S501において、条件判断部304は、第2の仮想視点情報の生成から一定時間経過したと判定し、S506へ処理を進める。S506において、更新部303は、RAM202に記憶されている指示情報を削除する。この結果、RAM202に記憶されていた「選手A」という指示情報は削除される。S507以降は、図11におけるブロック1104と同様の処理が行われる。結果として、ブロック1214に示すユーザ12は、ブロック1224に示すように、ブロック1204が示す第1の仮想視点情報に対応する仮想カメラが撮像するフレームを視聴する。
図13(b)は、使用例2において表示部208に表示される仮想視点映像である。ブロック1231〜1234は、それぞれ図11におけるブロック1221〜1224に対応するフレームである。上記の構成によれば、情報処理装置300は、もとの仮想視点映像において表示されているボールを映したまま、ユーザ12が所望する選手A801を映すような仮想視点映像を生成することができる。これにより、複数のユーザ12が同時に視聴する場合でも、それぞれのユーザ12が視聴したい撮像対象を含む仮想視点映像が視聴できるようになる。また、第2の仮想視点情報の生成から一定時間経過後に第1の仮想視点情報に対応する仮想視点映像に戻すことにより、ユーザ12がもとの仮想視点映像に戻すための入力を行う工程を削減することができる。
なお、上記の使用例1及び使用例2においては、ユーザが音声入力を行う例について説明したが、これに限定されない。例えば、ユーザによるタッチパネル操作、あるいはキーボードやマウス等を用いた操作入力により、撮像対象が指定される構成であってもよい。また、図11及び図12は、指定された撮像対象が第1の仮想視点情報に対応する仮想カメラの画角に含まれていない例について示しているが、このような場合以外にも情報処理装置300は適用可能である。例えば、設定情報が「指定された撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」である場合に、第1の仮想視点映像の端に「選手A」が含まれていても、情報処理装置300は新たな仮想カメラの姿勢を算出する。一方、設定情報が「指定された撮像対象が仮想視点映像に含まれない場合に、当該撮像対象が画面中央に表示されるように仮想カメラの姿勢を制御」である場合に、第1の仮想視点映像の端に「選手A」が含まれているとする。この場合は、新たな仮想カメラパラメータの算出は行われない。設定情報が「指定された撮像対象が仮想視点映像に含まれない場合に、当該撮像対象が仮想視点映像に含まれるように仮想カメラパラメータを変更」であれば、「選手A」が仮想視点映像に含まれない場合は新たな仮想カメラパラメータを算出する。ただし、少なくとも「選手A」が仮想視点映像のどこかに含まれていればよい。このように、設定情報は任意の内容を設定することが可能であり、指定された撮像対象を仮想視点映像の所定の位置に表示させたり、処理を行うか否かの場合分けを判定したりすることが可能である。また、例えば、応援したいチームとは別の選手あるいはゴールが映っている仮想視点映像がある場合に、映さなくてもよい撮像対象が指定される使用例も想定される。この場合は、設定情報を「指定された撮像対象が仮想視点映像に含まれないように仮想カメラパラメータを変更」と設定すればよい。
また、ユーザはS401からS406の処理の過程において、途中で設定情報を変更することが可能である。この場合、例えばユーザは第1の仮想視点映像を見ながら、音声入力部206又は操作入力部207に対して入力を行うことにより、設定情報を変更することができる。さらに、情報処理装置300は上記のような複数種類の設定情報をあらかじめRAM202に記憶しておき、ユーザが任意のタイミングで設定情報を選択することも可能である。この場合、例えば、表示部208には上記のような設定情報を選択するためのUI(ユーザインターフェース)が表示される。また、例えば、「指示情報が示す撮像対象が仮想視点映像において表示される位置」と、「制御する対象となる仮想カメラパラメータ」とのそれぞれを選択するためのUIが表示される構成とすることも可能である。また、指示情報が示す撮像対象を仮想視点映像に「含める」か「含めない」かを選択するためのUIが表示されてもよい。上記の構成により、ユーザは所望する設定情報を容易に選択することが可能となる。
また、上記の実施形態においては、設定情報において指定された仮想カメラパラメータが変更される例について説明した。しかしながら、仮想カメラの位置及び姿勢を制御したために、撮像対象にピントが合わなくなる場合が想定される。したがって、仮想カメラの位置及び姿勢が制御された場合に、撮像対象にピントが合うように仮想カメラの画角が制御されるようにすることにより、より高品質な仮想視点映像が提供されるようになる。この場合、情報生成部306は、設定情報で指定された仮想視点パラメータの他に、仮想カメラの画角を示すパラメータを新たに算出する。
なお、上記の使用例1及び使用例2においては、ユーザが入力を行った時点に対応する仮想カメラパラメータが変更されるものとして説明したが、実際の処理においてはユーザの入力から仮想カメラパラメータの変更までに処理遅延が発生することが想定される。したがって、あらかじめ遅延分を考慮した所定の期間を定めておき、ユーザが入力を行った時点から所定の期間後の仮想カメラパラメータが変更される構成としてもよい。
また、上記の実施形態においては、第2の仮想視点映像のみが表示部208に表示される例について説明したが、これに限定されない。表示部208は、第1の仮想視点映像と共に、新たに生成された第2の仮想視点映像を表示することも可能である。この構成により、ユーザは撮像対象を指定する前の基準となる仮想視点映像と共に、撮像対象を指定した後の仮想視点映像を視聴することができる。このとき、例えば、第1の仮想視点映像は、第2の仮想視点映像よりも小さく、又は大きく表示されるようにしてもよい。このように、表示部208が第1の仮想視点映像と共に第2の仮想視点映像を表示する場合、S501及びS502からS504の処理の少なくともいずれかが行われないようにしてもよい。
また、第2の仮想視点映像のみが表示部208に表示されている間に、第1の仮想視点映像においてシュートシーン等の重要なシーンがある時点で、重要なシーンがあることを通知する表示がされるようにしてもよい。これにより、ユーザは第2の仮想視点映像を見ながら、重要なシーンのときはもとの仮想視点映像に戻すための指示を行うことが可能になる。また上記の通知が表示される際に、もとの仮想視点映像に戻すためのアイコンやメッセージが共に表示されるようにすることにより、ユーザがもとの仮想視点映像に戻すための入力を容易に行うことができるようになる。
また、表示部208に、重要なシーンを表示させるためのGUIが表示されてもよい。このGUIに基づいて、ユーザにより重要なシーンの表示の指示がされると、現在表示部208に表示されている仮想視点映像に関わらず、第1の仮想視点情報に対応する重要なシーンの仮想視点映像が表示部208に表示される。このとき、当該重要なシーンと同じ時点に対応する第2の仮想視点映像が共に表示されるようにしてもよい。また、重要なシーンが強制的に表示される構成とすることも可能である。この場合、第1及び第2の仮想視点情報に含まれる時刻を示すパラメータと、重要なシーンに対応する時刻とが紐づけされて記憶される。また、第2の仮想視点情報に対応する仮想視点映像が表示部208に表示されている間に、重要なシーンに対応する時刻に到達した場合、情報生成部306はS501及びS507における判定に関わらず第1の仮想視点情報の仮想カメラパラメータを採用する。この構成により、重要なシーンが自動で表示部208に表示されるため、ユーザは重要なシーンを逃すことなく視聴することができる。
また、上述の実施形態においては、撮像対象である動体、構造物及び撮像領域における所定の領域が指定される例について説明したが、撮像対象以外が指定された場合について説明する。例えば、ゴールシーンがユーザによって入力された場合、情報生成部306は、ゴールする選手とゴールとの両方が仮想視点映像に含まれるような仮想視点情報を生成する。生成方法の一例について説明する。情報処理装置300はあらかじめゴールシーンに関する設定情報を記憶しておき、ゴールシーンが指定された場合に、「ゴールする選手とゴールとが仮想視点映像に含まれるように仮想カメラパラメータを変更」という設定情報を自動で選択する。情報生成部306は、当該設定情報に基づいて第2の仮想視点情報を生成する。このように、シーン等に合わせて設定情報を用意しておくことにより様々な生成方法を実現することが可能である。
以上、本実施形態における情報処理装置300は、第1の動画(第1の仮想視点映像)の生成に用いられる複数の撮像装置により撮像された撮像対象の指定に係るユーザ入力に基づき、撮像対象の位置を特定する座標変換部305を有する。当該ユーザ入力は、第1の動画が表示部208に表示されている間に行われる。また、当該情報処理装置300は、座標変換部305により特定された位置情報と、あらかじめ生成された第1の仮想視点情報とに基づいて、第2の動画(第2の仮想視点映像)を生成するための仮想視点情報を生成する情報生成部306を有する。当該第2の動画は、ユーザ入力が行われた後に表示部208に表示される。当該情報処理装置300によれば、第1の仮想視点情報を基準とし、指定された撮像対象に応じて、新たな第2の仮想視点情報を容易に生成することができるようになる。これにより、ユーザは仮想視点をすべて指定することなく、所望の仮想視点情報を生成することができるという効果がある。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
300 情報処理装置
305 座標変換部
306 仮想視点情報生成部

Claims (21)

  1. 経時的に変化する仮想視点からの見えを表す第1の動画の生成に用いられる複数の撮像装置により撮像された撮像対象の指定に係るユーザ入力であって、前記第1の動画が表示手段に表示されている間に行われるユーザ入力に基づいて、当該撮像対象の位置を特定する特定手段と、
    前記特定手段により特定された前記撮像対象の位置を示す位置情報と前記第1の動画を生成するための第1の仮想視点情報とに基づいて、前記ユーザ入力が行われた後に前記表示手段に表示される第2の動画であって、経時的に変化する仮想視点からの見えを表す第2の動画を生成するための第2の仮想視点情報を生成する情報生成手段と
    を有することを特徴とする情報処理装置。
  2. 前記第1の仮想視点情報及び前記第2の仮想視点情報は、それぞれ、前記第1の動画及び前記第2の動画に係る仮想視点の視点位置を示すパラメータ及び仮想視点からの視線の方向を示すパラメータの、少なくともいずれかを含むことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の仮想視点情報及び前記第2の仮想視点情報は、それぞれ、前記第1の動画及び前記第2の動画に対応する画角を示すパラメータを更に含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記情報生成手段は、前記位置情報に基づいて、前記第1の仮想視点情報に含まれるパラメータを変更することにより、第2の仮想視点情報を生成することを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記第1の仮想視点情報及び前記第2の仮想視点情報は、それぞれ、前記第1の動画及び前記第2の動画における複数の時点と対応付けられた複数のパラメータを含み、
    前記情報生成手段は、前記第1の仮想視点情報に含まれる複数のパラメータのうち、前記特定手段により撮像対象の位置が特定された時点に対応するパラメータを変更することを特徴とする請求項4に記載の情報処理装置。
  6. 前記情報生成手段は、前記第1の仮想視点情報に含まれる複数のパラメータのうち、前記指定手段により撮像対象の位置が指定された時点から所定の期間における複数の時点に対応する複数のパラメータを変更することを特徴とする請求項5に記載の情報処理装置。
  7. 前記情報生成手段は、前記特定手段により特定された位置における撮像対象が前記第1の動画に含まれない場合、当該撮像対象が第2の動画に含まれるように前記第1の仮想視点情報に含まれるパラメータを変更することを特徴とする請求項4乃至6のいずれか1項に記載の情報処理装置。
  8. 前記情報生成手段は、前記特定手段により特定された位置における撮像対象が前記第1の動画に含まれない場合、当該撮像対象と、前記第1の動画に含まれる撮像対象とが第2の動画に含まれるように、前記第1の仮想視点情報に含まれるパラメータを変更することを特徴とする請求項7に記載の情報処理装置。
  9. 前記情報生成手段は、前記特定手段により特定された位置における撮像対象が第2の動画における所定の位置に表示されるように、前記第1の仮想視点情報に含まれるパラメータを変更することを特徴とする請求項4乃至8のいずれか1項に記載の情報処理装置。
  10. 前記情報生成手段は、第2の仮想視点情報の生成方法に関する情報を含む設定情報にさらに基づいて、第2の仮想視点情報を生成することを特徴とする請求項2乃至9のいずれか1項に記載の情報処理装置。
  11. 前記設定情報は、前記特定手段により位置を特定された撮像対象が第2の動画において表示される表示位置を示す情報と、前記第1の仮想視点情報において変更する対象となるパラメータを示す情報とを含むことを特徴とする請求項10に記載の情報処理装置。
  12. 前記特定手段により位置が特定される撮像対象は、動体及び構造物の少なくともいずれかを含むことを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 前記特定手段により位置が特定される撮像対象は、前記複数の撮像装置により撮像される所定のイベントに対応する特定の領域を含むことを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  14. 前記ユーザ入力は、入力手段に対する音声入力及び操作入力の少なくともいずれかであることを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 前記第1の動画及び前記第2の動画の少なくともいずれかを表示する表示手段を有することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 前記第1の動画と共に前記第2の動画を表示する表示手段を有することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  17. 前記第1の仮想視点情報を取得する第1の取得手段を有し、
    前記情報生成手段は、前記位置情報と、前記第1の取得手段により取得された第1の仮想視点情報とに基づいて、第2の仮想視点情報を生成する
    ことを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。
  18. 前記第2の仮想視点情報を映像生成手段に出力する出力手段を有することを特徴とする請求項1乃至17のいずれか1項に記載の情報処理装置。
  19. 請求項18に記載の情報処理装置と、
    前記出力手段により出力された第2の仮想視点情報を取得する第2の取得手段と、
    前記第2の取得手段により取得された第2の仮想視点情報に基づいて、前記第2の動画を生成する映像生成手段と
    を有する映像生成装置を有することを特徴とするシステム。
  20. 経時的に変化する仮想視点からの見えを表す第1の動画の生成に用いられる複数の撮像装置により撮像された撮像対象の指定に係るユーザ入力であって、前記第1の動画が表示されている間に行われるユーザ入力に基づいて、当該撮像対象の位置を特定する特定工程と、
    前記特定工程において特定された前記撮像対象の位置を示す位置情報と前記第1の動画を生成するための第1の仮想視点情報とに基づいて、前記ユーザ入力が行われた後に表示される第2の動画であって、経時的に変化する仮想視点からの見えを表す第2の動画を生成するための第2の仮想視点情報を生成する情報生成工程と
    を有することを特徴とする仮想視点情報の生成方法。
  21. コンピュータを、請求項1乃至18のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのコンピュータプログラム。
JP2019167791A 2019-09-13 2019-09-13 情報処理装置、システム、生成方法、及び、プログラム Pending JP2021043922A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167791A JP2021043922A (ja) 2019-09-13 2019-09-13 情報処理装置、システム、生成方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167791A JP2021043922A (ja) 2019-09-13 2019-09-13 情報処理装置、システム、生成方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2021043922A true JP2021043922A (ja) 2021-03-18

Family

ID=74862411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167791A Pending JP2021043922A (ja) 2019-09-13 2019-09-13 情報処理装置、システム、生成方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2021043922A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014024475A1 (ja) * 2012-08-10 2014-02-13 パナソニック株式会社 映像提供方法、送信装置および受信装置
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014024475A1 (ja) * 2012-08-10 2014-02-13 パナソニック株式会社 映像提供方法、送信装置および受信装置
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置
JP2015187797A (ja) * 2014-03-27 2015-10-29 シャープ株式会社 画像データ生成装置および画像データ再生装置
WO2018199052A1 (ja) * 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置

Similar Documents

Publication Publication Date Title
JP6918455B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2017119034A1 (ja) 撮影システム、撮影方法およびプログラム
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
JP7301507B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020012748A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
KR20210136858A (ko) 화상표시장치, 제어방법, 및 프로그램
JP2019125303A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019106617A (ja) 情報処理装置、情報処理方法及びプログラム
WO2019244632A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020042665A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP7423251B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024124469A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
JP2021043922A (ja) 情報処理装置、システム、生成方法、及び、プログラム
JP6910405B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022182119A (ja) 画像処理装置およびその制御方法、プログラム
JP2022182836A (ja) 映像処理装置及びその制御方法及びプログラム
JP2020140383A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP2021026435A (ja) 仮想視点映像を生成する装置、システム、方法、及びプログラム
US20230164305A1 (en) Information processing device, information processing method, and program
WO2021199715A1 (ja) 情報処理装置、情報処理方法、プログラム
US20240314454A1 (en) Information processing apparatus, information processing method, and program
JP2013162154A (ja) 撮影装置および撮影システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240625