JP2022188095A - 情報処理装置、情報処理装置の制御方法、及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、及びプログラム Download PDF

Info

Publication number
JP2022188095A
JP2022188095A JP2022148977A JP2022148977A JP2022188095A JP 2022188095 A JP2022188095 A JP 2022188095A JP 2022148977 A JP2022148977 A JP 2022148977A JP 2022148977 A JP2022148977 A JP 2022148977A JP 2022188095 A JP2022188095 A JP 2022188095A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
time
parameter representing
virtual
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022148977A
Other languages
English (en)
Other versions
JP7472217B2 (ja
Inventor
元 河西
Hajime Kawanishi
泰夫 奥谷
Yasuo Okuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022148977A priority Critical patent/JP7472217B2/ja
Publication of JP2022188095A publication Critical patent/JP2022188095A/ja
Application granted granted Critical
Publication of JP7472217B2 publication Critical patent/JP7472217B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】仮想視点の設定に関する利便性を向上する情報処理装置、方法及びプログラムを提供する。【解決手段】方法は、複数の撮影装置により得られる複数画像に基づいて仮想視点画像を生成するための時刻パラメータ、仮想視点位置パラメータ及び視線方向パラメータを含む複数パラメータの取得手段と、取得した複数パラメータに対応する第1オブジェクト或いは第1オブジェクトに対応する変更可能なパラメータを示す第2オブジェクト及び第3オブジェクトのいずれかを表示させる表示制御手段と、を有する。第2オブジェクトは、第1オブジェクトに対応する複数パラメータのうち、仮想視点位置パラメータ及び視線方向パラメータを維持し、時刻パラメータが変更可能であることを示す。第3オブジェクトは、第1オブジェクトに対応する複数パラメータのうち、仮想視点位置パラメータ、視線方向パラメータ及び時刻パラメータが変更可能であることを示す。【選択図】図7

Description

本発明は、情報処理装置、情報処理装置の制御方法、及びプログラムに関する。
近年、複数の撮像装置を異なる位置に設置して、これらの撮像装置により複数の視点から同期して撮影された複数の画像を用いて、仮想的な視点である仮想視点からの画像である仮想視点画像を生成する技術が注目されている。
仮想視点画像の生成及び閲覧は、例えば、複数の撮像装置が撮影した画像をサーバ等に集約し、画像が集約されたサーバ等が、仮想的な視点に基づくレンダリング等の処理を施し、ユーザ端末に仮想視点画像を表示することで実現できる。
このような仮想視点画像を用いたサービスでは、例えば、サッカーやバスケットボールの試合を撮影した画像から、コンテンツ制作者によって迫力のある視点のコンテンツが制作される。また、コンテンツを視聴しているユーザ自身が自由に視点を移動しながら、試合観戦したりすることができるようにもなり、従来撮影されていた画像と比較してユーザにより高い臨場感を与えることができる。
仮想視点画像を生成するためにユーザが仮想的な視点を決定すると労力がかかることがある。この課題に関し、特許文献1には、あるユーザの視点情報を他のユーザに推薦することが開示されている。
特開2014-215828号公報
しかしながら、仮想視点の設定に関する利便性が不十分であることがあった。例えばユーザが、過去のある時刻について設定した仮想的な視点の位置、仮想的な視線、画角等の各条件を再現したいと考えた場合に、操作部を介してインタラクティブに各条件を調整すると労力がかかる。より具体的には、ある時刻(又は期間)に対応する仮想視点画像コンテンツを生成したあと、その編集のために、当該時刻(又は期間)の仮想視点と同様の条件(例えば、仮想的な視点の位置、視線、画角等)にいったん戻したいという要望が生じ得る。このような要望に対し、ユーザが1つ1つの条件を操作部によって調整すると大きな労力を要することになりかねなかった。
本発明の情報処理装置は、複数の撮影装置が撮影することにより得られる複数の画像に基づいて仮想視点画像を生成するための、時刻を表すパラメータと、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、を含む複数のパラメータを取得する取得手段と、取得された前記複数のパラメータに対応する第1のオブジェクトと、前記第1のオブジェクトに対応する複数のパラメータのうちのどれが変更可能であることを示す第2のオブジェクト及び第3のオブジェクトのいずれかと、を表示手段に表示させる表示制御手段と、を有し、前記第2のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータ及び仮想視点からの視線方向を表すパラメータを維持し、時刻を表すパラメータが変更可能であることを示し、前記第3のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、時刻を表すパラメータと、が変更可能であることを示す。
本発明によれば、仮想視点の設定に関する利便性を向上することができる。
画像処理システムのシステム構成等の一例を示す図である。 撮影システムのシステム構成の一例を説明する図である。 入出力部に接続された装置の一例を説明する図である。 カメラビューウィンドウの一例を示す図である。 リプレイウィンドウの一例を示す図である。 情報処理装置の機能構成の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 リプレイウィンドウの一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。
以下に、本発明の実施の形態の一例を、図面に基づいて詳細に説明する。
<実施形態1>
本実施形態では、図1で後述する画像処理システム10の処理について説明する。より具体的には、画像処理システム10が、仮想視点画像の生成に関する条件(仮想的な視点、仮想的な視線等)を記憶し、仮想視点画像コンテンツにおける再生時刻の変更に併せて、記憶した条件を再現する処理について説明する。以下では、仮想視点画像の生成に関する条件を生成条件とする。仮想視点画像とは、複数の視点から撮影された複数の画像を用いて生成される仮想的な視点である仮想視点からの画像である。即ち、仮想視点画像は、仮想視点から仮想的な視線(以下では、仮想視線とする)の方向を、仮想的な画角(以下では、仮想画角とする)で見た画像である。また、仮想視点画像は、仮想視点に配置された仮想的なカメラ(以下では、仮想カメラとする)により、仮想視線の方向を、仮想画角で撮影された画像とみなすことができる。また、仮想視点画像コンテンツとは、複数の視点から撮影された複数の動画像を用いて生成される仮想的な視点である仮想視点からの動画像である。
生成条件は、例えば、仮想視点、仮想視線、仮想画角、描画対象に対応する時刻(例えば、仮想視点画像コンテンツにおけるその仮想視点画像の再生時刻、描画対象の状況における実際の時刻等)に関する条件である。描画対象に対応する時刻に関する条件は、時刻条件の一例である。描画対象に対応する時刻とは、仮想視点画像に描画される対象となる状況がどの時刻の状況であるかを示す時刻であり、例えば、その状況の実際の時刻、仮想視点画像コンテンツにおけるその状況が描画された仮想視点画像の再生時刻等である。また、生成条件は、例えば、その仮想視点画像に施された加工(例えば、モノクロ加工、エフェクト追加加工等)に関する条件がある。
この処理により、画像処理システム10は、過去に決定した生成条件を、ユーザが操作部を操作することで再現する場合よりも、簡易に再現できる。
従来の仮想視点画像コンテンツの提供において、ユーザは、仮想視点・仮想視線(仮想カメラの位置・姿勢)を自由に操作することができる。ここで、例えば、既に一度視聴した再生時刻において、前回と同じ仮想カメラの位置・姿勢から視聴したい場合、ユーザは、前回と同様の操作を行って、仮想カメラの位置・姿勢を再現する必要があり、操作が煩雑であった。
そこで、本実施形態では、仮想視点画像の生成が行われた時刻と生成条件(例えば、仮
想カメラの位置・姿勢等)を示す情報とを紐付けて記憶し、予め定められた処理の実行の際に、記憶された情報が示す条件を適用する処理について説明する。これにより、ユーザが煩雑な操作を行うことなく、目標の再生時刻で、過去に設定された条件を再現することができる。選択された条件のみを再現するようにする処理についても説明する。
図1(a)は、仮想視点画像を生成するシステムである画像処理システム10のシステム構成の一例を示す図である。
画像処理システム10は、撮影システム101、生成サーバ102、情報処理装置103を含む。生成サーバ102は、撮影システム101、情報処理装置103それぞれとネットワークを介して相互に通信可能に接続されている。
撮影システム101は、異なる位置にそれぞれ配置された複数のカメラを含み、複数のカメラを介してそれぞれ異なる複数の視点からの複数の画像を同期して撮影する。撮影システム101は、複数の視点から同期して撮影された複数の画像を、生成サーバ102に送信する。
図2は、撮影システム101のシステム構成の一例を示す図である。撮影システム101は、複数のカメラ401、撮影制御装置403、表示装置404、入力装置405を含む。図2の例では、撮影システム101は、撮影制御装置403を介して、被写体402を取り囲むように配置された複数のカメラ401を制御し、撮影を行う。
カメラ401は、他のカメラ401とタイミングを同期して、撮影を行うことができるネットワークカメラ、監視カメラ等の撮影装置である。
撮影制御装置403と複数のカメラ401とは、デイジーチェーン型に接続されているが、スター型に接続されていてもよい。撮影制御装置403は、複数のカメラ401を制御し、複数のカメラ401により撮影された画像を受信し、受信した画像を生成サーバ102に送信するパーソナルコンピュータ(PC)、サーバ装置等の情報処理装置である。
表示装置404は、モニタ等の表示装置である。入力装置405は、マウス、キーボード等の入力装置である。
生成サーバ102は、撮影システム101によりそれぞれ異なる複数の視点から同期して撮影された複数の画像に基づいて、仮想視点から見た(仮想カメラにより撮影された)仮想視点画像を生成するPC、サーバ装置等の情報処理装置である。仮想カメラは、撮影空間内を自由に動ける仮想的なカメラである。仮想カメラの位置・姿勢は、情報処理装置103により決定される仮想カメラのカメラパラメータによって表現される。以下では、仮想カメラのカメラパラメータを仮想カメラパラメータとする。
生成サーバ102は、撮影システムから受信した複数の画像から順次、仮想視点画像を生成する。特に断りがない限り、以降の説明において画像とは、動画像と静止画像との両方を含む概念を示すとする。すなわち、画像処理システム10は、静止画像及び動画像の何れについても処理可能である。
情報処理装置103は、PC、サーバ装置、タブレット装置等の情報処理装置である。情報処理装置103は、仮想カメラに関する条件(仮想視点、仮想視線、仮想画角等の条件)を制御し、仮想カメラパラメータを決定する。また、情報処理装置103は、仮想視点画像コンテンツにおけるどの再生時刻の仮想視点画像を生成するかを示す時刻を決定する。
仮想カメラパラメータは、三次元的な位置(3軸)、姿勢(3軸)によって表される。情報処理装置103は、決定した仮想カメラパラメータと時刻とを生成サーバ102へ送信する。次に、生成サーバ102は、受信した仮想カメラパラメータと時刻とに基づいて、仮想視点画像を生成し、情報処理装置103へ送信する。情報処理装置103は、受信した仮想視点画像を、図4で後述するカメラビュー301へ表示することでユーザに提示する。
図1(b)は、情報処理装置103のハードウェア構成の一例を示す図である。情報処理装置103は、CPU111、Random Access Memory(RAM)112、Read Only Memory(ROM)113、通信部114、入出力部115を含む。各要素は、システムバスを介して相互に通信可能に接続されている。
CPU111は、RAM112やROM113に格納されているプログラムやデータを用いて情報処理装置103の全体を制御する中央演算装置である。RAM112は、ROM113から読みだされたコンピュータプログラムや計算の途中結果のデータ、通信部114を介して外部から供給されるデータ等を一時的に記憶する記憶領域やCPU111のワークエリアとして機能する記憶装置である。ROM113は、変更を必要としない各種プログラムやデータ、仮想視点画像、カメラ401により撮影された画像、生成条件、再現条件等を記憶する記憶装置である。ROM113は、記憶部の一例である。
通信部114は、EthernetやUSB等の外部の装置との通信に用いられるインターフェースである。CPU111は、通信部114を介して、生成サーバ102との通信を行う。入出力部115は、キーボード、マウス等の入力装置やモニタ等の出力装置との接続に用いられるインターフェースである。CPU111は、入出力部115を介して、ユーザからの入力を受け付ける。入出力部115は、例えば、接触式センサ、マウス、キーボード、リモコン等の入力装置と接続される。また、入出力部115は、モニタ、タッチパネルの表示部等の出力装置と接続される。本実施形態では、入出力部115は、図3で後述する表示装置201、コントローラ202、203と接続されることとする。
CPU111が、ROM113等に記憶されたプログラムにしたがって処理を実行することで、図6で後述する機能、図7、9で後述するフローチャートの処理等が実現される。
本実施形態では、生成サーバ102のハードウェア構成は、図1(b)に示す情報処理装置103のハードウェア構成と同様であるとする。また、撮影制御装置403のハードウェア構成についても、図1(b)に示す情報処理装置103のハードウェア構成と同様であるとする。
生成サーバ102のCPUが、生成サーバ102のROM等に記憶されたプログラムにしたがって処理を実行することで、生成サーバ102の機能、生成サーバ102の処理が実現される。
撮影制御装置403のCPUが、撮影制御装置403のROM等に記憶されたプログラムにしたがって処理を実行することで、撮影制御装置403の機能、撮影制御装置403の処理が実現される。
図3は、入出力部115に接続された入力装置と出力装置との一例を説明する図である。図3の例では、入出力部115には、1つの表示装置201と2つのコントローラ202、203とが接続されている。
表示装置201は、仮想視点画像等を表示する表示装置である。本実施形態では、表示装置201は、表示部に対するタッチ入力が可能な表示装置であるとする。
コントローラ202は、仮想カメラの位置・姿勢の制御に用いられるコントローラである。コントローラ202は、仮想カメラの位置(3軸)と、姿勢(3軸)と、の6軸を操作できるジョイスティックを含む。コントローラ202により、ユーザは、仮想視点画像の生成の際の仮想視点、仮想視線(仮想カメラの位置・姿勢)を自由に操作することができる。
コントローラ203は、仮想画像コンテンツにおける再生時刻の制御に用いられるコントローラである。コントローラ203は、再生時刻の早送りや巻き戻しに使うホイールを含む。コントローラ203は、生成条件のうち、どの条件を再現するかを示す条件である再現条件の変更に用いられる変更ボタンを含む。コントローラ203は、仮想視点画像コ
ンテンツにおける再生時刻と、その再生時刻における仮想視点画像の生成の際の仮想カメラパラメータ等と、を紐付けて、生成条件を示す条件情報として、記憶することを指示するための記憶指示ボタンを含む。コントローラ203により、ユーザは、仮想視点画像コンテンツにおける再生時刻も自由に変更することができ、早送りや巻き戻し等の連続的な時刻操作が可能である。また、重要なシーン等において、仮想カメラパラメータ等の条件を記憶したい場合、ユーザは、記憶指示ボタンを押下することで、そのシーンに対応する条件情報の記憶を指示できる。
入出力部115には、2つ以上の表示装置が接続されることとしてもよい。また、入出力部115には、1つ又は3つ以上のコントローラが接続されることとしてもよい。
図4は、カメラビューウィンドウの一例を示す図である。カメラビューウィンドウとは、生成サーバ102から受信された仮想視点画像を表示するためのウィンドウである。情報処理装置103は、例えば、生成サーバ102から受信された仮想視点画像を含むカメラビューウィンドウを表示装置201に表示する。カメラビューウィンドウは、カメラビュー301、時刻領域302を含む。
カメラビュー301は、生成サーバ102から受信された仮想視点画像が表示される表示領域である。カメラビュー301に表示される仮想視点画像は、ユーザによりコントローラ202等を介して操作される仮想カメラから見た仮想視点画像である。情報処理装置103は、仮想視点画像コンテンツにおける再生時刻を制御することで、任意の時刻の仮想視点画像を表示することができる。時刻領域302は、カメラビュー301に表示される仮想視画像に描画対象に対応する時刻(例えば、その仮想視点画像の生成に用いられる画像が撮影された時刻)である。情報処理装置103は、時刻領域302に、仮想視点画像コンテンツにおけるカメラビュー301に表示されている仮想視点画像の再生時刻を表示することとしてもよい。
図5は、リプレイウィンドウの一例を示す図である。リプレイウィンドウは、過去に記憶された生成条件、再現条件、仮想視点画像コンテンツにおける再生時刻等を表示する為のウィンドウである。また、リプレイウィンドウは、再生時刻や再現条件の変更の指示の受け付けにも用いられる。リプレイウィンドウは、再現条件インジケータ701、リスト702、タイムライン703を含む。情報処理装置103は、リプレイウィンドウを、例えば、表示装置201に表示する。
再現条件インジケータ701は、再現条件を表示する。本実施形態では、再現条件には、対応する時刻のみが再現対象であることを示す‘Time’と、対応する時刻と仮想カメラの位置・姿勢とが再現対象であることを示す‘Time&Position’がある。再現条件インジケータ701は、再現条件の変更の指示を受付けるためのボタンとしても機能する。情報処理装置103は、再現条件インジケータ701へのユーザによるコントローラ203、マウス、表示装置201等を介したクリックを検知した場合、再現条件の変更の指示を受け付け、再現条件を現在と異なる条件に変更する。
リスト702は、過去に記憶された生成条件を示すオブジェクトの一覧をリスト状に表示する。本実施形態では、過去に記憶された生成条件は、キュー形式で記憶されているとする。情報処理装置103は、リスト702中のオブジェクトに対するコントローラ203、マウス、表示装置201等を介したユーザによる指定を検知した場合、検知した指定が示すオブジェクトに対応する生成条件を再現する。
タイムライン703は、再生する仮想視点画像コンテンツの全体の再生時間と、現在の再生時刻と、を示すシークバー状のオブジェクトである。タイムライン703を操作することで、任意の時刻のシーンを再生することができる。例えば、情報処理装置103は、例えば、コントローラ203、マウス、表示装置201等を介したユーザによるタイムライン703のシークバー上の1点の指定を検知した場合、以下のようにする。即ち、情報処理装置103は、指定された点が示す時刻に対応する仮想視点画像を、カメラビューウ
ィンドウのカメラビュー301に表示する。その際、情報処理装置103は、例えば、記憶された生成条件の中から、その時刻に対応する生成条件を特定し、特定した生成条件が示す条件を再現することとしてもよい。リプレイウィンドウのGUIにより、ユーザは、任意の時刻への非連続的な時刻操作が可能である。
本実施形態では、情報処理装置103は、1台の情報処理装置であるとして、1台の表示装置201にカメラビューウィンドウとリプレイウィンドウとを表示することとする。しかし、情報処理装置103は、2台の表示装置201それぞれ、カメラビューウィンドウとリプレイウィンドウとを表示することとしてもよい。
また、情報処理装置103が2台の情報処理装置で構成されるシステムであることとして、そのシステムを構成する各情報処理装置が、それぞれカメラビューウィンドウ、リプレイウィンドウを生成し、それぞれに接続された表示装置に表示することとしてもよい。
図6は、本実施形態の情報処理装置103の機能構成の一例を示す図である。情報処理装置103は、入出力制御部501、仮想カメラ制御部502、時刻制御部503、管理部504、通信制御部505、再現条件制御部506を含む。本実施形態では、仮想カメラの位置・姿勢(仮想視点、仮想視線)が、仮想カメラパラメータとして扱われることとするが、仮想カメラの位置・姿勢・画角(仮想視点、仮想視線、仮想画角)が、仮想カメラパラメータとして扱われることとしてもよい。即ち、生成条件に、仮想カメラパラメータが含まれることとなる。
入出力制御部501は、入出力部115に接続された入力装置を介したユーザの入力を受け付ける。本実施形態では、入出力制御部501は、コントローラ202、コントローラ203等を介した入力を受付ける。入出力制御部501は、例えば、再現条件インジケータ701の選択、リスト702に含まれるオブジェクトの選択、タイムライン703のシークバー上の点の指定等を受け付ける。また、入出力制御部501は、例えば、通信制御部505から入力された仮想視点画像を、表示装置201に表示する。
仮想カメラ制御部502は、入出力制御部501から入出力制御部501により受付けられたコントローラ202を介した仮想カメラパラメータの変更の指示を取得し、取得した指示に応じて仮想カメラパラメータを制御する。即ち、仮想カメラ制御部502は、現在の仮想カメラの状態を更新する。
また、時刻制御部503によって、仮想視点画像コンテンツにおける再生時刻が変更された際、仮想カメラ制御部502は、再現条件に基づいて、仮想カメラパラメータを更新することとしてもよい。つまり、再現条件が‘Time&Position’の場合、仮想カメラ制御部502は、以下の処理を行う。即ち、仮想カメラ制御部502は、ROM113に記憶され管理部504により管理されている生成条件のうち変更された時刻に対応する生成条件に含まれる仮想カメラパラメータとなるように、現在の仮想カメラパラメータを更新する。
時刻制御部503は、仮想視点画像コンテンツにおけるどの時刻のシーン(仮想視点画像)を生成するかを示す時刻を制御する。時刻制御部503は、入出力制御部501から、再生時刻の制御に関する操作入力がない場合、つまり、ユーザによるコントローラ203を介した時刻の指定がない場合、以下の処理を行う。即ち、入出力制御部501は、予め定められた期間(例えば、16ミリ秒、32ミリ秒、1秒等)の経過後に、再生時刻を1フレーム分増加させる。例えば、60fpsで仮想視点画像コンテンツが再生される場合(1秒間に60個の仮想視点画像が生成される場合)、時刻制御部503は、16ミリ秒ごとに、1フレーム分増加させる。
ユーザによるコントローラ203を介した再生時刻の制御に関する操作がある場合は、時刻制御部503は、その操作に応じて、再生時刻の制御を行う。再生時刻の制御に関する操作としては、コントローラ203を介した連続的な時刻操作(早送り、巻き戻し)が
ある。また、再生時刻の制御に関する操作としては、リスト702のオブジェクトの選択、タイムライン703のシークバー上の点の指定の操作がある。
管理部504は、仮想視点画像コンテンツにおいて再生が行われた(生成された)全てのフレーム(仮想視点画像)について、以下の処理を行う。即ち、管理部504は、仮想視点画像に対応する仮想カメラパラメータとその仮想視点画像に対応する再生時刻とを、紐付けて、その仮想視点画像の生成条件として、ROM113に記憶し管理する。
また、管理部504は、入出力制御部501からコントローラ203を介して記憶指示ボタンの押下が行われたことを示す情報を受け付けた場合、以下の処理を行う。即ち、管理部504は、記憶指示ボタンが押下された際にカメラビュー301に表示された仮想視点画像の仮想視点画像コンテンツにおける再生時刻と仮想カメラパラメータとを、紐付けて、生成条件とする。そして、管理部504は、その生成条件を示す条件情報を、キュー形式のデータとしてROM113に記憶する。即ち、このキュー形式のデータには、ユーザが記憶することを明示した生成条件を示す条件情報が記憶されていることとなる。記憶指示ボタンが押下された際に管理部504が条件情報を記憶する処理は、記憶制御処理の一例である。
通信制御部505は、通信部114を介した生成サーバ102との通信を行う。通信制御部505は、生成条件(仮想カメラ制御部502によって制御される仮想カメラパラメータと、時刻制御部503によって制御される再生時刻と、)の情報を、生成サーバ102に送信する。また、通信制御部505は、生成サーバ102から受信した仮想視点画像を入出力制御部501に出力する。
再現条件制御部506は、再現条件の制御を行う。入出力制御部501から、再現条件の変更指示が受付けられたことを示す情報を取得したことに応じて、再現条件を変更する。再現条件インジケータ701が選択されたり、コントローラ203のボタンがユーザにより押下されたりしたことに応じて、再現条件制御部506は、再現条件の制御を行う。再現条件制御部506は、例えば、‘Time’のモードと、‘Time&Position’のモードとを切り替える。
図7は、情報処理装置103の処理の一例を示すフローチャートである。
S1010において、入出力制御部501は、入出力部115に接続されている入力装置を介した操作に基づいて図7の処理の終了の指示を受付けるまで、S1020~S1150の処理を繰り返すよう制御する。入出力制御部501は、予め定められた期間だけ図7の処理を継続するように、S1020~S1150の処理を繰り返すよう制御することとしてもよい。
S1020において、入出力制御部501は、入出力部115に接続された入力装置を介してユーザからの入力を取得する。以下では、この取得された入力をユーザ入力とする。ユーザ入力は、仮想カメラパラメータの更新指示、再生時刻の変更指示、再現条件の変更指示、キュー形式のデータとして生成条件を記憶する指示等を示す。
S1030において、仮想カメラ制御部502は、S1020で取得されたユーザ入力が仮想カメラパラメータの操作指示を示すか否かを判定する。仮想カメラ制御部502は、S1020で取得されたユーザ入力が仮想カメラパラメータの操作指示を示すと判定した場合、S1040の処理に進む。仮想カメラ制御部502は、S1020で取得されたユーザ入力が仮想カメラパラメータの操作指示を示さないと判定した場合、S1060の処理に進む。
S1040において、仮想カメラ制御部502は、S1020で取得されたユーザ入力に基づいて、仮想カメラパラメータ(仮想視点、仮想視線)を更新する。例えば、仮想カメラ制御部502は、ROM113に記憶された現在の仮想カメラパラメータを示す情報を、S1020で取得されたユーザ入力が示すパラメータに更新する。
S1050において、時刻制御部503は、再生時刻を1フレーム分増加させ、更新する。例えば、時刻制御部503は、ROM113に記憶された仮想視点画像における現在の再生時刻を示す情報を、現在の時刻から1フレーム分増加した時刻を示す要に更新する。
S1060において、時刻制御部503は、S1020で取得されたユーザ入力が、再生時刻の変更の指示を示すか否かを判定する。時刻制御部503は、S1020で取得されたユーザ入力が再生時刻の変更の指示を示すと判定した場合、S1070の処理に進み、S1020で取得されたユーザ入力が再生時刻の変更の指示を示さないと判定した場合、S1110の処理に進む。
S1070において、再現条件制御部506は、ROM113に記憶されている再現条件の情報を読込むことで、現在の再現条件を取得する。
S1080において、再現条件制御部506は、S1070で取得した再現条件が'Time'であるか否かを判定する。再現条件制御部506は、S1070で取得した再現条件が'Time'であると判定した場合、S1090の処理に進む。再現条件制御部506は、S1070で取得した再現条件が'Time'でないと判定した場合、再現条件が'Time&Position'であるとして、S1100の処理に進む。
S1090において、時刻制御部503は、S1020で取得されたユーザ入力に基づいて、再生時刻を制御する。例えば、時刻制御部503は、ROM113に記憶された仮想視点画像における現在の再生時刻を示す情報を、ユーザ入力が示す再生時刻を示すように更新する。このようにして、仮想カメラ制御部502は、改めて仮想視点画像が生成される際に用いられる生成条件である生成時刻(描画対象に対応する事項)を決定することで、過去に記憶した生成条件を再現する。
S1100において、仮想カメラ制御部502は、ROM113に記憶されている条件情報に対応する生成条件から、含まれる描画対象に対応する時刻が、S1120で取得されたユーザ入力が示す時刻となっているものを特定する。そして、仮想カメラ制御部502は、特定した生成条件が示す仮想カメラパラメータ(仮想視点、仮想視線)を取得する。仮想カメラ制御部502は、ROM113に記憶されている現在の仮想パラメータを示す情報を、取得した仮想カメラパラメータで更新する。このようにして、仮想カメラ制御部502は、改めて仮想視点画像が生成される際に用いられる生成条件である仮想カメラパラメータを決定することで、過去に記憶した生成条件を再現する。
S1110において、再現条件制御部506は、S1020で取得されたユーザ入力が再現条件の変更の指示を示すか否かを判定する。再現条件制御部506は、S1020で取得されたユーザ入力が再現条件の変更の指示を示すと判定した場合、S1120の処理に進み、S1020で取得されたユーザ入力が再現条件の変更の指示を示さないと判定した場合、S1130の処理に進む。
S1120において、再現条件制御部506は、S1020で取得されたユーザ入力が再現条件の変更の指示を示す入力であることに応じて、再現条件を変更する。再現条件制御部506は、例えば、ROM113に記憶された再現条件を示す情報が、‘Time’を示す場合、ROM113に記憶された再現条件を示す情報を‘Time&Position’を示すように変更する。また、再現条件制御部506は、例えば、ROM113に記憶された再現条件を示す情報が、‘Time&Position’を示す場合、ROM113に記憶された再現条件を示す情報を‘Time’を示すように変更する。このようにして、再現条件制御部506は、再生条件を変更する。
また、ユーザが入出力部115に接続された入力装置を介して、再現条件をどの条件にするかを指定することとしてもよい。その場合、S1020で取得されたユーザ入力には、再現条件をどの条件にするかを示す情報が含まれるため、再現条件制御部506は、ROM113に記憶された再現条件を示す情報を、ユーザ入力が示す条件となるように変更
することとしてもよい。
S1130において、時刻制御部503が、再生時刻を1フレーム増加させる。例えば、時刻制御部503は、ROM113に記憶された仮想視点画像における現在の再生時刻を示す情報を、現在の時刻から1フレーム分増加した時刻を示す要に更新する。
S1140において、管理部504は、現在リプレイウィンドウのタイムライン703が示す再生時刻と、現在カメラビューウィンドウのカメラビュー301に表示されている仮想視点画像の生成に用いられる仮想カメラパラメータと、を取得する。管理部504は、例えば、ROM113に記憶された現在の再生時刻を示す情報と、現在の仮想カメラパラメータを示す情報と、を読込むことで、この再生時刻と仮想カメラパラメータとを取得する。そして、管理部504は、取得した再生時刻と、仮想カメラパラメータと、を紐付けて、生成条件を示す条件情報として、ROM113に記憶する。S1140の処理は、記憶制御処理の一例である。
S1150において、通信制御部505は、ROM113に記憶されている情報が示す現在の仮想カメラパラメータの情報と、現在の再生時刻の情報と、を生成サーバ102に送信することで送信した情報が示す生成条件での仮想視点画像の生成を要求する。生成サーバ102は、受信した情報が示す再生時刻に対応する状況について、受信した情報が示す仮想カメラパラメータを用いて、仮想視点画像を生成する。そして、生成サーバ102は、生成した仮想視点画像を、情報処理装置103に送信する。
入出力制御部501は、生成サーバ102から送信された仮想視点画像を、表示装置201に表示されたカメラビューウィンドウのカメラビュー301に表示する。また、入出力制御部501は、表示装置201に表示されたリプレイウィンドウのタイムライン703を、ROM113に記憶されている情報が示す現在の再生時刻の情報が示す再生時刻を指すように変更する。S1150の処理は、生成制御処理の一例である。
以上、本実施形態では、画像処理システム10は、仮想視点画像コンテンツにおける再生時刻の指定処理が行われたことに応じて、過去に記憶された生成条件と再現条件とに基づいて、生成条件である再生時刻と仮想カメラパラメータとを再現することとした。
例えば、再現条件が‘Time&Position’の場合、画像処理システム10は、再生時刻の変更に応じて、仮想カメラパラメータを、その再生時刻における状態に更新する。これにより、画像処理システム10は、あたかも録画したシーンを巻き戻すかのような操作を可能とすることができる。
また、例えば、再現条件が‘Time’の場合、画像処理システム10は、再生時刻の指定処理が行われても、仮想カメラパラメータを変更しない。これにより、画像処理システム10は、現在の仮想カメラの位置から、過去のシーンを見直すという操作を可能とすることができる。
このように、画像処理システム10は、過去に記憶された生成条件を、ユーザによる操作部のインタラクティブな操作を要せずに、再現することができ、より利便性を向上できる。また、画像処理システム10は、仮想視点画像について、より柔軟な操作を可能とすることができる。
本実施形態では、画像処理システム10は、仮想視点画像コンテンツにおける再生時刻の指定処理が行われたことに応じて、過去に記憶された生成条件と再現条件とに基づいて、改めて仮想視点画像を生成する際の生成条件を決定することとした。しかし、画像処理システム10は、予め定められた他の処理が実行されたことに応じて、過去に記憶された生成条件と再現条件とに基づいて、改めて仮想視点画像を生成する際の生成条件を決定することとしてもよい。
例えば、画像処理システム10は、入出力部115に接続された入力装置を介したユーザによるリスト702に表示された複数のオブジェクトから1つを選択する操作を受付け
る処理の実行に応じて、改めて仮想視点画像を生成する際の生成条件を決定してもよい。
その場合、例えば、入出力制御部501は、オブジェクトの選択を受付ける。そして、仮想カメラ制御部502は、ROM113に記憶されている現在の仮想カメラパラメータを示す情報を、選択されたオブジェクトが示す生成条件に含まれる仮想カメラパラメータの値で更新する。また、時刻制御部503は、ROM113に記憶されている現在の再生時刻を示す情報を、選択されたオブジェクトが示す生成条件に含まれる時刻の値で更新する。そして、通信制御部505は、ROM113に記憶されている情報が示す現在の仮想カメラパラメータの情報と、現在の再生時刻の情報と、を生成条件として、生成サーバ102に送信し、送信した生成条件で生成される仮想視点画像を要求する。生成サーバ102は、受信した情報が示す再生時刻の状況における、受信した情報が示す仮想カメラパラメータの仮想カメラから撮影される仮想視点画像を生成し、情報処理装置103に送信する。
本実施形態では、再現条件には、‘Time’と‘Time&Position’との条件があるとしたが、他の条件があるとしてもよい。例えば、再現条件には、予め定められた処理の実行に応じて生成条件に含まれる全ての条件を更新することを示す状態である‘All’があってもよい。
<実施形態2>
本実施形態では、仮想カメラの位置・姿勢・ズーム量(仮想視点、仮想視線、仮想画角)を、仮想カメラパラメータとして扱う処理について説明する。ズーム量は、仮想視点映像を生成する際の仮想カメラの画角を1変数で表すパラメータである。ズーム量は、画角を角度で表すものであってもよいし、レンズの焦点距離換算の値として表すものとしてもよい。
本実施形態の画像処理システム10のシステム構成は、実施形態1と同様である。また、本実施形態の画像処理システム10の各システム構成要素のハードウェア構成及び機能構成は、実施形態1と同様である。
本実施形態では、仮想カメラのズーム量は、例えば、コントローラ202のスライダーを介したユーザの操作に基づいて、制御される。情報処理装置103は、コントローラ202のスライダーの操作を検知すると、検知した操作の内容に応じて、仮想カメラのズーム量を更新する。
本実施形態では、再現条件は、仮想カメラパラメータが示す仮想カメラの位置・姿勢・ズーム量それぞれに対応するON/OFFの2状態で表される変数の組み合わせで定義される。位置、姿勢、ズーム量のそれぞれに割り当てられた変数は、更新の対象であるか否かを示す変数である。画像処理システム10は、再現条件に含まれる変数がONの場合、再生時刻の指定が行われた際に、その変数に対応する仮想カメラパラメータ(位置・姿勢・ズーム量の何れか)の更新を行うが、OFFの場合は更新を行わない。
また、再現条件は、仮想カメラパラメータが示す仮想カメラの位置(3軸)・姿勢(3軸)・ズーム量(1軸)の7軸それぞれに対応するON/OFFの2状態で表される変数の組み合わせで定義されることとしてもよい。その場合、各軸に割り当てられた変数は、更新の対象であるか否かを示す変数である。画像処理システム10は、再現条件に含まれる変数がONの場合、再生時刻の指定が行われた際に、その変数に対応する仮想カメラパラメータ(位置・姿勢・ズーム量の何れかの軸)の更新を行うが、OFFの場合は更新を行わない。
本実施形態のコントローラ202は、ズーム量(1軸)の操作を受け付けるためのスライダーを含む。
コントローラ203は、再現条件の変更に用いられるボタンを含む。本実施形態では、コントローラ203は、仮想カメラの位置・姿勢・ズーム量のそれぞれについての変数の値(ON/OFF)の切り替えを指示するためのボタンを含む。しかし、コントローラ2
03は、仮想カメラの位置(3軸)・姿勢(3軸)・ズーム量(1軸)の各軸それぞれについての変数の値の切り替えを指示するためのボタンを含むこととしてもよい。
入出力制御部501は、コントローラ203のこれらのボタンの押下を検知すると、押下されたボタンに対応する変数の値(ON/OFF)を切替える。
図8は、本実施形態のリプレイウィンドウの一例を示す図である。本実施形態におけるリプレイウィンドウは、図5に示す実施形態1のリプレイウィンドウと比べて、再現条件設定スイッチ801を含む点で異なる。再現条件設定スイッチ801は、仮想カメラの位置・姿勢・ズーム量それぞれに割り当てられた変数の値を示すオブジェクトである。再現条件設定スイッチ801の状態は、現在の再現条件と連動する。入出力制御部501は、現在の再現条件を示すオブジェクトを、再現条件設定スイッチ801として表示する。
本実施形態では、入出力制御部501は、コントローラ202、203等の入力装置を介した、再現条件設定スイッチ801への操作について受け付ける。入出力制御部501により再現条件設定スイッチ801への操作が受付けられた場合、再現条件制御部506は、受付けられた操作に応じて、現在の再現条件を更新する。
仮想カメラ制御部502は、入出力制御部501からコントローラ202を介した仮想カメラパラメータの更新を示す入力がなされたことを示す情報を取得し、取得した情報に応じて仮想カメラパラメータのそれぞれのパラメータを更新する。また、時刻制御部503によって再生時刻が変更された際、仮想カメラ制御部502は、ROM113に記憶されている条件情報が示す生成条件のうち、描画対象に対応する時刻の値が変更された再生時刻であるものを特定する。そして、仮想カメラ制御部502は、再現条件がONとなっている仮想カメラパラメータについて、現在の仮想カメラパラメータを示す情報を、特定した生成条件が示す値に更新する。
再現条件制御部506は、コントローラ203を介した再現条件の変更の指示を示す入力を取得し、再現条件を変更し、再現条件設定スイッチ801の状態に反映させる。また、再現条件制御部506は、再現条件設定スイッチ801を介した再現条件の変更の指示の入力を取得し、再現条件を変更する。
図9は、本実施形態の情報処理装置103の処理の一例を示すフローチャートである。図9の処理は、実施形態1の図7の処理と比べて、S1080、S1090、S1100の処理の代わりに、S2010、S2020の処理がある点で異なる。図9の処理のうち、実施形態1との違いについて説明する。
S2010において、仮想カメラ制御部502は、ROM113に記憶されている条件情報に対応する生成条件から、含まれる描画対象に対応する時刻が、S1120で取得されたユーザ入力が示す時刻となっているものを特定する。そして、仮想カメラ制御部502は、特定した生成条件が示す仮想カメラパラメータ(位置、姿勢、ズーム量)を取得する。仮想カメラ制御部502は、再現条件がONとなっている仮想カメラパラメータについて、ROM113に記憶されている現在の仮想パラメータを示す情報を、取得した仮想カメラパラメータで更新する。
S2020において、時刻制御部503は、S1020で取得されたユーザ入力に基づいて、再生時刻を制御する。例えば、時刻制御部503は、ROM113に記憶された仮想視点画像における現在の再生時刻を示す情報を、ユーザ入力が示す再生時刻を示すように更新する。
以上、本実施形態では、画像処理システム10は、再現条件に応じて、仮想カメラパラメータに含まれるパラメータ(位置・姿勢・ズーム量)毎に、記憶された生成条件の再現を行った。これにより、画像処理システム10は、より詳細な生成条件の決定が可能となり、利便性を向上できる。
例えば、ズーム量がより広角に固定されている状態で、ズーム量に応じた再現条件をOFFにして、再生時刻が変更されると、画像処理システム10は、過去のシーンをより広い範囲に描画した仮想視点画像を再生することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した画像処理システムの機能構成の一部又は全てをハードウェアとして情報処理装置103に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態を任意に組み合わせたり、適宜改良乃至は応用した形態としてもよい。
10 画像処理システム
103 情報処理装置
111 CPU

Claims (8)

  1. 複数の撮影装置が撮影することにより得られる複数の画像に基づいて仮想視点画像を生成するための、時刻を表すパラメータと、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、を含む複数のパラメータを取得する取得手段と、
    取得された前記複数のパラメータに対応する第1のオブジェクトと、前記第1のオブジェクトに対応する複数のパラメータのうちのどれが変更可能であることを示す第2のオブジェクト及び第3のオブジェクトのいずれかと、を表示手段に表示させる表示制御手段と、
    を有し、
    前記第2のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータ及び仮想視点からの視線方向を表すパラメータを維持し、時刻を表すパラメータが変更可能であることを示し、
    前記第3のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、時刻を表すパラメータと、が変更可能であることを示す
    ことを特徴とする、情報処理装置。
  2. ユーザ入力に基づいて前記第2のオブジェクトが選択された場合に、取得された前記複数のパラメータのうち、前記仮想視点の位置を表すパラメータと、前記仮想視点からの視線方向を表すパラメータと、を維持したまま、前記時刻を表すパラメータが変更されることを特徴とする、請求項1に記載の情報処理装置。
  3. ユーザ入力に基づいて前記第3のオブジェクトが選択された場合に、取得された前記複数のパラメータのうち、前記仮想視点の位置を表すパラメータと、前記仮想視点からの視線方向を表すパラメータと、前記時刻を表すパラメータと、が変更されることを特徴とする、請求項1に記載の情報処理装置。
  4. 変更されたパラメータを記憶手段に記憶させる記憶制御手段を含むことを特徴とする、請求項2または3に記載の情報処理装置。
  5. 前記取得手段は、複数の撮影装置が撮影することにより得られる複数の画像に基づいて、他の時刻を表すパラメータと、他の仮想視点の位置を表すパラメータと、当該他の仮想視点からの視線方向を表すパラメータと、を含む他の複数のパラメータを取得し、
    前記表示制御手段は、取得された前記他の複数のパラメータに対応する第4のオブジェクトとともに前記第1のオブジェクトを前記表示手段に表示させる
    ことを特徴とする、請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 取得された前記複数のパラメータは、仮想視点の画角を表すパラメータを含むことを特徴とする、請求項1乃至4のいずれか1項に記載の情報処理装置。
  7. 情報処理装置の制御方法であって、
    複数の撮影装置が撮影することにより得られる複数の画像に基づいて仮想視点画像を生成するための、時刻を表すパラメータと、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、を含む複数のパラメータを取得する取得ステップと、
    取得された前記複数のパラメータに対応する第1のオブジェクトと、前記第1のオブジェクトに対応する複数のパラメータのうちのどれが変更可能であることを示す第2のオブジェクト及び第3のオブジェクトのいずれかと、を表示手段に表示させる表示制御ステップと、
    を含み、
    前記第2のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータ及び仮想視点からの視線方向を表すパラメータを維持したまま、時刻を表すパラメータが変更可能であることを示し、
    前記第3のオブジェクトは、前記第1のオブジェクトに対応する複数のパラメータのうち、仮想視点の位置を表すパラメータと、仮想視点からの視線方向を表すパラメータと、時刻を表すパラメータと、が変更可能であることを示す
    ことを特徴とする、情報処理装置の制御方法。
  8. コンピュータを、請求項1乃至6のいずれか1項に記載の情報処理装置として機能させ
    るためのプログラム。
JP2022148977A 2018-06-18 2022-09-20 情報処理装置、情報処理装置の制御方法、及びプログラム Active JP7472217B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022148977A JP7472217B2 (ja) 2018-06-18 2022-09-20 情報処理装置、情報処理装置の制御方法、及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018115280A JP7146472B2 (ja) 2018-06-18 2018-06-18 情報処理装置、情報処理方法及びプログラム
JP2022148977A JP7472217B2 (ja) 2018-06-18 2022-09-20 情報処理装置、情報処理装置の制御方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018115280A Division JP7146472B2 (ja) 2018-06-18 2018-06-18 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022188095A true JP2022188095A (ja) 2022-12-20
JP7472217B2 JP7472217B2 (ja) 2024-04-22

Family

ID=68983628

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018115280A Active JP7146472B2 (ja) 2018-06-18 2018-06-18 情報処理装置、情報処理方法及びプログラム
JP2022148977A Active JP7472217B2 (ja) 2018-06-18 2022-09-20 情報処理装置、情報処理装置の制御方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018115280A Active JP7146472B2 (ja) 2018-06-18 2018-06-18 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11750851B2 (ja)
JP (2) JP7146472B2 (ja)
WO (1) WO2019244632A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
EP4095809A4 (en) * 2020-01-20 2023-06-28 Sony Group Corporation Image generation device, image generation method, and program
WO2021149336A1 (ja) * 2020-01-22 2021-07-29 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021200140A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 信号処理装置、信号処理方法、および信号処理システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5517598B2 (ja) 2009-12-22 2014-06-11 キヤノン株式会社 映像再生装置及びその制御方法
US20110200303A1 (en) * 2010-02-12 2011-08-18 Telefonica, S.A. Method of Video Playback
JP5236039B2 (ja) * 2010-06-01 2013-07-17 キヤノン株式会社 映像処理装置及びその制御方法
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
GB2520311A (en) * 2013-11-15 2015-05-20 Sony Corp A method, device and computer software
EP3291563A4 (en) 2015-05-01 2018-12-05 Dentsu Inc. Free viewpoint video data distribution system
US11089213B2 (en) * 2015-08-03 2021-08-10 Sony Group Corporation Information management apparatus and information management method, and video reproduction apparatus and video reproduction method
KR102450416B1 (ko) * 2015-11-04 2022-10-05 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법
US20170178266A1 (en) * 2015-12-16 2017-06-22 Sap Se Interactive data visualisation of volume datasets with integrated annotation and collaboration functionality
US20170316806A1 (en) * 2016-05-02 2017-11-02 Facebook, Inc. Systems and methods for presenting content
JP6833348B2 (ja) * 2016-05-25 2021-02-24 キヤノン株式会社 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム
CN109792554B (zh) 2016-10-06 2022-10-11 索尼公司 再现装置、再现方法和计算机可读存储介质
JP6727106B2 (ja) * 2016-11-30 2020-07-22 キヤノン株式会社 画像音響処理装置および画像音響処理方法、プログラム

Also Published As

Publication number Publication date
JP7472217B2 (ja) 2024-04-22
US20210099734A1 (en) 2021-04-01
JP7146472B2 (ja) 2022-10-04
WO2019244632A1 (ja) 2019-12-26
JP2019220783A (ja) 2019-12-26
US11750851B2 (en) 2023-09-05

Similar Documents

Publication Publication Date Title
JP7472217B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2017036329A1 (zh) 对视频内容任意位置和时间播放的方法及装置
KR101655078B1 (ko) 움직이는 사진 생성 방법 및 장치
JP6787394B2 (ja) 情報処理装置、情報処理方法、プログラム
JP7170441B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
JP7459341B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
CN114286142A (zh) 一种虚拟现实设备及vr场景截屏方法
KR20210136858A (ko) 화상표시장치, 제어방법, 및 프로그램
CN112732089A (zh) 一种虚拟现实设备及快捷交互方法
JP2022051978A (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7480377B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20230152589A (ko) 화상 처리 시스템, 화상 처리방법, 및 기억매체
JP2023057124A (ja) 画像処理装置及び方法、プログラム
CN108156512B (zh) 一种视频播放控制方法及装置
JP5759253B2 (ja) 画像再生装置およびその制御方法およびプログラム
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
JP7341674B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2022012900A (ja) 情報処理装置、表示方法、及び、プログラム
JP6842194B2 (ja) 表示制御装置、表示制御方法及び表示制御プログラム
WO2022230715A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2020149146A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
KR20230029233A (ko) 아바타 촬영 모드 전환을 위한 인터페이스 제공 방법, 장치, 및 컴퓨터 프로그램
JP2021118517A (ja) 映像処理装置
CN116964544A (zh) 信息处理装置、信息处理终端、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7472217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150