JP2019047432A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2019047432A
JP2019047432A JP2017171378A JP2017171378A JP2019047432A JP 2019047432 A JP2019047432 A JP 2019047432A JP 2017171378 A JP2017171378 A JP 2017171378A JP 2017171378 A JP2017171378 A JP 2017171378A JP 2019047432 A JP2019047432 A JP 2019047432A
Authority
JP
Japan
Prior art keywords
information processing
time
processing apparatus
time range
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017171378A
Other languages
English (en)
Other versions
JP6409107B1 (ja
Inventor
和文 小沼
Kazufumi Konuma
和文 小沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017171378A priority Critical patent/JP6409107B1/ja
Priority to EP18188309.1A priority patent/EP3454562A1/en
Priority to US16/117,504 priority patent/US10659822B2/en
Priority to KR1020180103169A priority patent/KR102132331B1/ko
Priority to CN201811023797.1A priority patent/CN109462749B/zh
Priority to CN202010658268.XA priority patent/CN111770327B/zh
Application granted granted Critical
Publication of JP6409107B1 publication Critical patent/JP6409107B1/ja
Publication of JP2019047432A publication Critical patent/JP2019047432A/ja
Priority to US16/847,087 priority patent/US11202104B2/en
Priority to KR1020200081942A priority patent/KR102320934B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26208Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints
    • H04N21/26241Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints involving the time of distribution, e.g. the best time of the day for inserting an advertisement or airing a children program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Abstract

【課題】コンテンツを生成/表示する際のユーザの利便性を向上させること。【解決手段】情報処理装置は、コンテンツを生成するために用いられる素材データに対応付けられた時刻に関する情報を取得し、コンテンツを生成するために用いられる素材データが存在する有効時間範囲を、取得された情報に基づいて特定し、特定された有効時間範囲を示す情報を出力する。【選択図】 図1

Description

本発明は、コンテンツを生成するシステムに関する。
それぞれ異なる位置に配置された複数のカメラによって被写体を多視点で同期撮影し、その撮影で得られた複数視点の画像を用いて自由視点コンテンツ(仮想視点コンテンツ)を生成する技術が注目されている。特許文献1には、複数視点の画像に基づいて自由視点コンテンツが生成されて保存されるシステムにおいて、映像受信装置が、生成した視点情報に基づく映像データを読み出すことによって、任意の自由視点コンテンツを取得する技術が記載されている。
仮想視点コンテンツの生成は、1つ以上の被写体の三次元モデルを組み合わせて行うことができる。複数のカメラで撮影された被写体の三次元モデルを生成する方法は、非特許文献1に示される視体積交差法でありうる。視体積交差法は、複数のカメラで撮影される測定対象の空間が、小さな立方体又は直方体(以下では、「ボクセル」と呼ぶ。)によって分割される。そして、各ボクセルが幾何学的に変換されてカメラ画像に投影され、カメラ画像において、モデル化対象物体のシルエット内に、そのボクセルが投影されたか否かが判定される。そして、すべてのカメラ画像でシルエット内に投影されたと判定されたボクセルは、対象物体を構成するボクセルとして登録され、登録されたボクセルの集合体が三次元モデルとして出力される。
特開2015−204512号公報
「Virtual View generation for 3D Digital Video」、IEEE MULTIMEDIA、Vol.4、No.1、pp.18-26、1997年
三次元モデルを用いた仮想視点コンテンツの生成では、三次元モデルを生成することができていることが前提となる。しかしながら、ある時点における仮想視点コンテンツを生成しようとした際に、一部の三次元モデルを生成できず、仮想視点コンテンツを生成することができない場合がありうる。この場合、三次元モデルの生成ができないことを判定するのに時間がかかり、仮想視点コンテンツを生成することができないことをユーザが認識できるまでに時間がかかってしまい、利便性が低下してしまうという課題があった。
本発明はかかる課題に鑑みてなされたものであり、コンテンツを生成/表示する際のユーザの利便性を向上させる技術を提供することを目的とする。
本発明の一態様による情報処理装置は、コンテンツを生成するために用いられる素材データに対応付けられた時刻に関する情報を取得する取得手段と、前記コンテンツを生成するために用いられる素材データが存在する有効時間範囲を、前記取得手段により取得された情報に基づいて特定する特定手段と、前記特定手段により特定された有効時間範囲を示す情報を出力する出力手段と、を有する。
本発明によれば、コンテンツを生成/表示する際のユーザの利便性を向上させることができる。
システムの構成例を示す図。 撮像部の配置例を示す図。 操作部に表示される画面の例を示す図。 素材データの種別と取得されるデータ群との対応関係の例を示す図。 時間範囲管理情報の例を示す図。 時間指示部における有効時間範囲の表示例を示す図。 不連続な2つの有効時間範囲を跨る場合の映像表示の例を示す図。 時間指示部における有効時間範囲の別の表示例を示す図。 システムの別の構成例を示す図。
以下、図面を参照しながら、本発明の実施の形態について説明する。説明される各実施形態においては、複数の撮像装置(カメラ)によって撮像された複数の画像から1つ以上の被写体についての三次元モデルを生成し、その三次元モデルに基づいて自由視点コンテンツ(仮想視点コンテンツ)を生成するシステムについて説明する。複数のカメラによって撮像された画像からの三次元モデルの生成は、一般に、多くの計算量及び時間を要する。特に高解像度の三次元モデルを生成する場合、ボクセルの大きさを小さくする必要があり、それに伴ってボクセルの数が増加し、シルエット内に投影されるか否かの判定回数も増大する。このため、本実施形態では、三次元モデルやその三次元モデルの各ボクセルの色情報を保持したテクスチャデータ等を、素材データとして予め生成して保存する、画像処理サーバ等の素材データ生成装置を用いてシステムを構成するものとする。このようなシステムによれば、仮想視点コンテンツを生成する度に三次元モデルを生成する処理が行われるのを防ぎ、処理を効率化することができる。
なお、例えばライブ配信用に比較的処理時間の短い低解像度の三次元モデルが生成され、ハイライトシーンのリプレイ映像等のために高解像度の三次元モデルが生成されるなど、用途に合わせて複数段階の解像度の三次元データが生成されうる。このとき、素材データの1つであるテクスチャも、高解像度用と低解像度用とのそれぞれに対して生成されうる。また、例えば、ポリゴンデータが生成されてもよい。すなわち、同一の被写体に対して、複数の異なる素材データが生成されうる。
このシステムでは、例えば、素材データから仮想視点コンテンツを生成する映像生成装置が、仮想視点コンテンツを生成する際に、予め生成されて保存されている素材データを素材データ生成装置から取得して、映像生成を行うことができる。このとき、映像生成装置は、仮想視点コンテンツを生成するのに必要な素材データが存在するか否かを事前に知ることはできない。例えば、三次元モデルは、撮像装置によって撮像された画像の質や撮像装置の稼働状況等によっては、生成が困難となる場合がありうる。すなわち、ある時点において特定の被写体についての素材データが存在しない場合がありうる。また、上述のように、同一の被写体に対して複数の異なる素材データが生成される場合、素材データごとに、生成が完了して保存されるまでの時間が異なる。すなわち、ユーザが要求した時点において、一部の素材データの生成が完了していない場合がありうる。また、サッカーのハーフタイム等では、全て又は多数の撮像装置が撮像を停止し、その時間範囲においては、素材データが全く保存されていないこともありうる。
このため、映像生成装置は、ユーザに指定された時間における仮想視点コンテンツを生成する際に、その指定時間において必要な各素材データが保存されているかを素材データ生成装置に問い合わせながら、仮想視点コンテンツを生成することとなりうる。なお、指定時間において必要な素材データの一部が保存されていない場合、その指定時間では仮想視点コンテンツを生成することができない。すなわち、ユーザによって時間が指定された後に、その指定時間においては仮想視点コンテンツを生成することができないことをそのユーザに通知することとなるため、ユーザにとっての利便性が良くない場合がありうる。
このため、本実施形態に係るシステムでは、素材データが利用可能な時間に関する情報を生成し、ユーザが仮想視点コンテンツを生成する際に、その仮想視点コンテンツを生成するのに必要な素材データの集合を利用可能な期間の情報を映像生成装置に通知する。これによれば、ユーザは、仮想視点コンテンツを生成することができる時間区間を明確に認識することができるため、時刻を指定して、その時刻における素材データが存在するかを都度確認する必要がなくなる。なお、以下では、このような処理を実行するシステム及び処理の詳細について、競技場(スタジアム)における競技の様子を撮像してライブ配信やリプレイ用の仮想視点映像の生成などに供する場合の例について説明する。ただし、これに限られず、例えばコンサート会場、相撲などの格闘技、撮影スタジオにおいて撮像された画像に基づく仮想視点映像の生成が行われてもよい。なお、以下で説明する態様は一例に過ぎず、本発明の思想の範囲内で、同様の処理を実行可能な任意の構成及び手順が用いられうる。
(システム構成)
本実施形態に係るシステムの構成例を図1に示す。本システムは、例えば、撮像部1、同期部2、素材データ生成部3、保存部4、時間情報管理部5、映像生成部6、映像出力部7、データ群選択部8、及び、操作部10を含んで構成される。なお、本システムは、1つの電子機器によって構成されてもよいし、複数の電子機器によって構成されてもよい。
本システムでは、複数の撮像部1が、同期部2による同期信号に基づいて互いに高精度に同期して撮像を行う。なお、複数の撮像部1は、図2に示すように、グラウンドや被写体を囲むように設置されうる。撮像部1のそれぞれは、撮像した画像を、素材データ生成部3へと送信する。素材データ生成部3は、撮像部1から受信された複数視点からの撮像画像を用いて、仮想視点映像を生成する際に用いられる素材データを生成して、保存部4に出力する。このとき、素材データ生成部3は、素材データの生成に使用した撮像画像の撮像時刻に基づく時間情報を、素材データと共に保存部4へ出力する。なお、時間情報は、時刻に関するものでありうるが、例えばフレーム番号などの時間に関連する任意の情報でありうる。
素材データは、例えば、被写体の三次元形状を示すボクセルデータである被写体三次元モデルと、被写体三次元モデルの各ボクセルに着色するための被写体テクスチャとのいずれか又は両方を含む。また、素材データは、被写体以外の背景を投影するためのポリゴンデータである背景三次元モデルと、背景三次元モデルのポリゴンに張り付ける背景テクスチャ画像とのいずれか又は両方を含みうる。さらに、素材データは、データ転送量を少なくするための被写体ポリゴンモデルと、それに張り付けるための被写体ポリゴン用テクスチャとの少なくともいずれかを含みうる。また、素材データは、選手の移動の解析などに用いることができる被写体位置情報を含みうる。なお、素材データの三次元モデルは、例えば視体積交差法を用いて生成されうるが、これ以外の方法が用いられてもよく、他の任意の方法によって三次元モデルが生成されてもよい。また、他の素材データについても、任意の方法によって生成されうる。
保存部4は、素材データ生成部3から取得した1つ以上の種別情報の素材データを、時間情報と対応付けて保存する。このように各種素材データと時間情報とを対応付けて保存することで、保存部4は、時間情報と素材データの種別情報とに基づいて、対応する素材データを特定して読み出すことができる。保存部4は、保存が完了した素材データの種別情報と時間情報とを時間情報管理部5へ出力する。
時間情報管理部5は、保存部4から取得した素材データの種別情報と時間情報とに基づいて、時間範囲管理情報の生成又は更新を行う。時間範囲管理情報は、素材データの種別ごとに、保存部4に連続して保存されている時間範囲を記録する。この時間範囲は、保存部4から取得した時間情報に基づいて、素材データが連続して保存されている時間範囲の開始時間と終了時間の組み合わせとして定められうる。例えば、時間情報管理部5は、それまでに保存されていない素材データが新規に保存された場合は、その素材データに対応する時間情報を開始時間及び終了時間として保存する。また、時間情報管理部5は、既に保存されている素材データについて、そのデータに対応する時間情報が示す時刻から所定期間内の新たな時刻に対応する新たなデータが保存された場合、その素材データの終了時間を更新し、時間範囲を拡大する。そして、時間情報管理部5は、既に保存されている素材データについて、その素材データの時間情報が示す時刻から所定期間が経過すると、その素材データについての時間範囲の情報の更新を終了する。したがって、時間情報管理部5は、既に保存されている素材データについて、最新の終了時間から所定期間以上の期間が経過した時刻を示す時間情報と共に新たなデータが保存された場合、その時刻を開始時刻として、新たな時間範囲の情報を生成する。なお、この場合、1種類の素材データに対して、複数の時間範囲を特定する時間範囲管理情報が生成されることとなる。なお、ここでの所定期間は、例えば1フレーム分の期間でありうるが、例えばそれ以上の期間など、任意の期間でありうる。
映像生成部6は、接続された操作部10からの指示に基づいて、保存部4から素材データを取得して、仮想視点映像を生成する。生成された仮想視点映像は、例えば、操作部10の表示部11および映像出力部7に出力され、表示される。
操作部10は、例えば、タッチパネルや、ボタン・キーボード等とディスプレイとの組み合わせ等、ユーザからの入力の受付を行い、ユーザへの情報の提示を行うための、ユーザインタフェースを提供する。操作部10は、例えば、その機能として、表示部11、映像種別選択部12、及び時間指示部13を含んで構成される。操作部10は、例えば図3に示すような画面を表示して、ユーザ操作の受付を行う。図3において、表示部11は、生成された仮想視点映像を表示する。映像種別選択部12は、出力する仮想視点映像の映像種別を選択する。時間指示部13は、生成する仮想視点映像の時間を指定する。映像種別選択部12では、例えば、「ライブ配信」、「低画質リプレイ」、「高画質リプレイ」、「携帯端末用」、「選手位置解析」等の種別の選択の受付を行う。ここで、「ライブ配信」は、画質が低いことが許容される即時配信用の仮想視点映像を生成する場合に選択される。「低画質リプレイ」は、ライブ配信と同等の画質でリプレイ再生を行うための仮想視点映像を生成する場合に選択される。「ライブ配信」と「低画質リプレイ」では、仮想視点映像の生成のために低解像度の三次元モデルが用いられる。「高画質リプレイ」は、ハイライトシーンのリプレイなど、繰り返し視聴されることを前提とした高画質な仮想視点映像を生成する場合に選択される。「高画質リプレイ」では、仮想視点映像の生成のために低解像度の三次元モデルが用いられる。「携帯端末用」は、データ量が少ない仮想視点映像を生成する場合に選択される。「携帯端末用」では、例えばボクセルではなくポリゴン等の三次元モデルを用いて仮想視点映像が生成される。「選手位置解析」は、例えばフィールド上で選手たちがどのように移動しているのかを確認する際に選択される。「選手位置解析」では、位置情報だけが用いられ、被写体である選手の三次元モデルは用いられない。選択された映像種別の情報は、例えば映像生成部6を介して、データ群選択部8へ入力される。
データ群選択部8は、入力された映像種別に基づいて、その映像種別の仮想視点映像生成に必要な素材データの組み合わせであるデータ群を選択する。例えば、上述の映像種別ごとに選択されるデータ群を、図4に示す表のような組み合わせでありうる。例えば、「高画質リプレイ」が選択された場合、対応するデータ群として、高解像度の被写体三次元モデル、高解像度の被写体テクスチャ、背景三次元モデル、及び高解像度の背景テクスチャが選択される。また「選手位置解析」が選択された場合は、選手の配置・動きのみを特定可能であれば足りるため、対応するデータ群として被写体位置情報と背景三次元モデルとが選択される。データ群選択部8は、選択したデータ群を映像生成部6に通知する。そして、映像生成部6は、通知されたデータ群に基づいて、保存部4にそのデータ群がすべて保存されている時間範囲を示す有効時間範囲20を、時間情報管理部5に問い合わせる。
時間情報管理部5は、図5に示すように、保存部4に保存されている素材データのそれぞれについての時間範囲を特定する時間範囲管理情報を管理している。時間情報管理部5は、映像生成部6からデータ群を指定した問い合わせを受信すると、その指定されたデータ群の全てが保存されている時間範囲を特定して、操作部10へ返信する。
時間情報管理部5は、例えば映像種別が高画質用データ群の場合、高解像度の被写体三次元モデル、高解像度の被写体テクスチャ、背景三次元モデル、及び高解像度の背景テクスチャの全てが保存されている時間範囲を特定する。すなわち、この場合、時間情報管理部5は、高画質用データ群の時間範囲の論理積である時間範囲20hを特定する。また、時間情報管理部5は、映像種別が選手位置解析用データ群であった場合、選手位置情報が保存されている時間範囲に対応する時間範囲20pを特定する。また映像種別がライブ配信である場合、図5に示すように、必要なデータ群がそろっている時間である最新時間情報21を、有効時間範囲20として特定する。
特定された有効時間範囲20は、映像生成部6を介して操作部10に通知され、時間指示部13にその情報が表示される。なお、時間範囲20hや時間範囲20pのように、複数の時間範囲が有効時間範囲として特定された場合、その複数の時間範囲の全て又は一部(例えば所定数の時間範囲)が、操作部10に通知される。
仮想視点を生成する映像の時間を有効時間範囲20の範囲内でユーザが指定すると、その指定時間が映像生成部6に伝えられる。このとき、描画すべき仮想視点の視点位置・姿勢およびその画角などの視点情報が3Dマウスを用いて決定され、その視点情報も映像生成部6に伝えられる。なお、3Dマウスを用いる必要はなく、例えばGUIを通じた操作や、専用の操作部による操作を受け付けることによって、視点情報が決定されてもよい。映像生成部6は、得られた指定時間と予め設定されているデータ種別群とに基づいて、保存部4に対して必要な素材データを要求して取得する。このとき、有効時間範囲20の情報に基づいて、映像生成部6が要求する指定時間におけるデータ群が保存部4に保存されていることが事前に確認できている。このため、映像生成部6は、データの有無の確認を行うことなく、確実に対象のデータを取得することができる。映像生成部6は、得られた素材データと視点情報とに基づいて、仮想視点映像を生成し、その仮想視点映像を操作部10の表示部11および映像出力部7に出力する。
このような構成により、保存部4に保存されている素材データを用いて適切な仮想視点映像が生成可能な時間範囲の情報をユーザに通知することができる。そして、ユーザは、通知された時間範囲の中から仮想視点映像を生成したい時間を指定することができるため、指定した時間において仮想視点映像を生成することができないことがなくなる。これにより、仮想視点映像の生成/表示の際のユーザの利便性を向上させることができる。
(有効時間範囲の表示と映像再生制御の例)
続いて、時間指示部13が有効時間範囲20を表示し、ユーザによる時刻指定を受け付ける手法の例について説明する。時間指示部13は、一例として、図6(a)〜図6(b)のように、バー状のグラフィカルインターフェース(GUI)であるシークバー13aを用いて、有効時間範囲20を表示する。ここでは例として第1の有効時間範囲20aと第2の有効時間範囲20bの2つの有効時間範囲が表示される場合の例を示す。なお、ここで説明する例は一例に過ぎず、有効時間範囲とそれ以外の時間範囲とが識別可能に、かつ有効時間範囲内の任意の時刻を特定可能な任意の表示手法が用いられうる。例えば、物理的なジョグダイヤル等を用いて時刻をカウンタ値で指定する等の構成が用いられてもよい。この場合、有効時間範囲の表示は、開始時刻と終了時刻とにより1つの時間範囲を示すデータのリストなどであってもよい。
図6(a)の例では、時間指示部13は、1つのシークバー13a内に、取得した2つの有効時間範囲20a及び20bを、シークバー13aの一部の色を変えて有効な範囲として表示する。この場合、シークバー13aの全範囲は想定されるコンテンツ全体の長さに対応し、サッカーなどのスポーツの場合、試合開始から試合終了の時間範囲がシークバー13aの全体によって表示される。
図6(b)の例では、時間指示部13は、所望の仮想視点映像を生成できない時間範囲を、実際の時間範囲の長さに対応する長さよりも短く表示する。なお、図6(b)の例では、第1の有効時間範囲20aと第2の有効時間範囲20bとの間の期間が表示されているが、この期間については必ずしも表示されなくてもよい。このとき、図6(b)に示すように、有効時間範囲20の開始時間と終了時間とを示す数値が、シークバー13aに表示されてもよい。
なお、図6(a)の例は、コンテンツ全体の時間範囲と、その時間範囲のうちの有効時間範囲20の割合や現在の再生位置とをユーザに認識させやすい点で有用である。一方、例えば有効時間範囲20のコンテンツ全体の時間範囲に対する比率が少ない場合は、図6(b)の例のような表示が行われることにより、ユーザの操作を容易にすることができる点で有用である。このように、それぞれの表示手法が異なる利点を有するため、これらの2つの表示方式を切替可能に構成し、時間指示部13は、これらの表示方式のうちのいずれを用いるかのユーザによる選択を受け付けるようにしてもよい。また、時間指示部13は、例えば、コンテンツ全体の時間範囲の長さに対する有効時間範囲20の割合等のパラメータに基づいて、いずれの表示方式を用いるかの選択を自動的に実行してもよい。
ユーザは、時間指示部13が表示した有効時間範囲20a及び20bのうちのいずれかの位置にカーソル14を移動させることにより、その位置に対応する時刻を、仮想視点映像を生成・表示させる時刻として指定することができる。映像生成部6は、その指定された時刻に対応する素材データを保存部4から取得して、仮想視点映像を生成し、映像出力部7及び操作部10へ出力する。なお、カーソル14は、時刻指定の際に、シークバー13a上の有効時間範囲20a及び20bにおいてのみ移動可能なように、すなわち、有効時間範囲以外の時間を選択できないように構成されうる。このような構成が行われた場合の例について、図6(c)を用いて説明する。図6(c)には、ポインタ15によってシークバー13a上のカーソル14をドラッグして移動させるインターフェースが用いられる例を示している。図6(c)に示すように、ユーザは、カーソル14をドラッグしながら、第1の有効時間範囲20a内の位置15aや15bにポインタ15を移動させることによって、カーソル14を位置14aや14bに移動させることができる。一方、ユーザがカーソル14をドラッグしたままポインタ15を位置15cに移動させたとしても、第1の有効時間範囲20aの終了時間である位置14cにカーソル14が固定される。すなわち、時間指示部13は、第1の有効時間範囲20aの外にカーソル14を移動させることを許容しない。一方、ユーザが、カーソル14をドラッグしたまま、第2の有効時間範囲20b内又は第2の有効時間範囲20bから所定の範囲内の位置15dにポインタ15を移動させた場合、カーソル14が第2の有効時間範囲20bの開始時間14dに移動させられる。このように、カーソル14を第1の有効時間範囲20aと第2の有効時間範囲20bとの間の時間範囲に移動させることを防ぐことにより、仮想視点映像を生成することができない時刻が選択されることを防ぐことができる。なお、時間指示部13は、有効時間範囲20ではない部分を選択又は指定できるように構成されてもよい。また、有効時間範囲以外の時間をユーザが指定できないようにする構成に代えて、有効時間範囲以外の時間をユーザが指定しても、その指定を無効にする構成を採用してもよい。
ユーザが有効時間範囲20内の1つの時刻を指定した場合、映像生成部6は、その指定時刻についてのみ仮想視点映像を生成してもよいが、その指定時刻以降の連続するフレームにおいて仮想視点映像を生成して、再生するようにしてもよい。このとき、有効時間範囲20a内の時刻からの連続したフレームでの再生が開始された場合、有効時間範囲20aの終了後にそのまま再生が継続されると、有効時間範囲20bとの間の有効時間範囲外の時間範囲においても再生が継続されてしまいうる。このため、ある有効時間範囲(第1の有効時間範囲20a)の終了時間まで映像生成および再生が完了した場合に、次の有効時間範囲(第2の有効時間範囲20b)の開始時間から継続して仮想視点映像の生成および再生を行うようにすることができる。これによれば、仮想視点映像の生成と出力を止めることがなくなるため、ユーザに対して操作を要求することなく、連続した仮想視点映像の視聴が可能となる。また、複数の有効時間範囲を跨いで仮想視点映像の再生が行われる場合、図7(a)に示すように、有効時間範囲の切り替えの際に再生対象の仮想視点映像が不連続な時間に関するものであることを示すための表示画面22が挿入されるようにしうる。または、図7(b)に示すように、切り替え後の有効時間範囲の再生開始時に、再生対象の仮想視点映像が不連続な時間に関するものであることを示す情報23が重畳表示されるようにしてもよい。これらにより、再生されているフレームが、それまでに再生されていたフレームと不連続な時間に関するものであることをユーザに示すことができる。なお、複数の有効時間範囲のうちの最後の有効時間範囲の終了時間まで再生が完了した場合は、その時点で再生が停止されうる。なお、繰り返し再生の設定を設けておき、その設定が選択されたことに応じて最初の有効時間範囲の開始時間から再度再生が開始されてもよい。
また、例えば「ライブ配信」が選択された場合など、リアルタイムの映像を生成すべき場合は、映像生成部6は、最新時間情報21を取得し、その最新時間情報21に対応する時刻の素材データを保存部4から取得して、仮想視点映像を生成することができる。なお、この場合、時間指示部13に最新時間情報21によって示される時刻は必ずしも表示されなくてもよい。また、ライブ配信等の場合は、最新時刻の映像のみがあればよく、時刻情報は明示される必要はない。例えば、映像生成部6は、映像種別としてライブ配信等の種別が選択された場合に、特定の時刻を指定せずに「最新時刻」のデータ群の取得要求を時間情報管理部5に対して行う。時間情報管理部5は、要求されたデータ群が既に保存されている最新の時刻を特定し、その時刻におけるデータ群を保存部4から読み出して、映像生成部6へ伝える。なお、時間情報管理部5は、保存部4からデータ群を読み出さずに、映像生成部6へデータ群を送信するように保存部4に対して指示を送信してもよい。映像生成部6は、得られた素材データ群を用いて仮想視点映像を生成する。このとき、映像生成部6は、最新時刻の情報を明示的に取得する必要はないが、例えば操作部10の表示部11などに時刻情報を表示したい場合には、素材データ群と共に時刻情報を取得するように構成されてもよい。
(変形例)
上述の構成及び処理は一例に過ぎず、様々な態様の装置構成が用いられてもよく、また、同様の処理が異なる手順や表示内容をもって行われてもよい。また、図1に示される1つの機能ブロックが複数の電子機器によって分担されて実現されてもよいし、1つ以上の機能ブロックが1つの電子機器によって実現されるように構成されてもよい。例えば、図1では素材データ生成部3と保存部4とが独立した機能ブロックとして示されているが、これらは1つの同じ処理装置の内部に含まれていてもよく、これらの機能部と映像生成部6を1つの装置内に含めて仮想視点映像配信サーバ等の装置としてもよい。なお、本システムに係る機能ブロックの少なくとも一部が、CPUやMPU等のプロセッサによってROMやRAM等のメモリに記憶されたプログラムが実行されることによって実現されうる。例えば、操作部10は、パーソナルコンピュータ(PC)、タブレット、スマートフォン等におけるプロセッサにおいて所定のアプリケーションプログラムを実行させて表示させる、グラフィカルユーザインタフェース(GUI)によって実現されうる。また、映像生成部6と操作部10とが、PC、タブレット、および/またはスマートフォンなどにおけるプロセッサで、アプリケーションプログラムが実行されることによって実現されてもよい。
また、図1のシステムでは、撮像部1による撮像から、操作部10による操作の下での映像生成部6による仮想視点コンテンツの生成までの一連の処理が一括して行われるシステムの構成例が示されているが、これに限られない。例えば、撮像及び素材データの保存及び時間範囲管理情報の生成までが行われるシステムと、仮想視点映像の生成が行われるシステムとが別個に用意されてもよい。すなわち、仮想視点映像の生成時には、素材データや時間範囲管理情報が保存されていると共にそれらの情報を提供可能な情報提供装置が存在すれば足り、システム内にこれらの情報を生成する機構が存在しなくてもよい。
なお、上述の説明では、時間情報管理部5は、保存部4に素材データが保存された際に、時間範囲管理情報を生成又は更新するとしたが、時間範囲管理情報は必ずしも生成されなくてもよい。例えば、時間情報管理部5は、映像生成部6から有効時間範囲の問い合わせを受信する度に、保存部4に保存されている素材データの時間情報を抽出して、有効時間範囲に関する情報を生成して映像生成部6へ送信するようにしてもよい。これによれば、その時点で保存されている素材データに基づいて正確な時間情報を抽出することができる。また、時間情報管理部5は、映像生成部6からの有効時間範囲の問い合わせを受信したことに応じて、その問い合わせで指定された映像種別の仮想視点映像を生成するための素材データ群に関する有効時間範囲を特定するとしたが、これに限られない。例えば、時間情報管理部5は、複数のデータ群のそれぞれについての有効時間範囲のデータを予め生成しておき、映像生成部6からの問い合わせに応答して、対応する種別に関して予め生成された有効時間範囲の情報を映像生成部6へと送信しうる。また、時間情報管理部5は、各素材データについての時間範囲管理情報を生成せずに、種別ごとの素材データ群に含まれるデータの全てが保存されている時間範囲を時間範囲管理情報として生成してもよい。また、時間情報管理部5は、これ以外の形式で時間範囲管理情報を生成してもよい。また、時間情報管理部5は、指定された素材データ群についての時間範囲管理情報で示される時間範囲の論理積を有効時間範囲20として映像生成部6へ通知するとしたが、必ずしもこれに限られない。例えば、時間情報管理部5は、素材データごとの時間範囲管理情報を映像生成部6へと送信し、映像生成部6または操作部10が、その情報が示す時間範囲の論理積を計算し、その計算結果を有効時間範囲として特定しうる。また、映像生成部6または操作部10は、複数の映像種別のそれぞれについての複数の有効時間範囲を特定し、操作部10の時間指示部13にその複数の有効時間範囲を並列表示する等の処理を実行してもよい。また、操作部10は、映像生成部6を介して時間範囲管理情報を取得するが、時間情報管理部5からこの時間範囲管理情報を直接取得してもよい。
また、上述の説明では、操作部10が映像種別選択部12を含み、映像種別選択部12において映像種別の選択が行われるとしたが、必ずしもこのような構成でなくてもよい。例えば、映像生成部6および/または操作部10の種別や性能によって、映像種別が自動的に決定されてもよいし、例えば、操作部10を操作するユーザの権限に基づいて映像種別が自動的に選択されるようにシステムが構成されてもよい。なお、映像生成部6の種別や性能等によって映像種別が決定される場合には、データ群選択部8は存在しなくてもよい。例えば、映像生成部6は、固定のデータの組み合わせの情報を保持しておくことにより、データ群選択部8に対する問い合わせを行う必要がなくなる。また、映像生成部6の性能等に基づいて映像種別が決定される場合、データ群選択部8は、保存部4または時間情報管理部5に接続されるように構成されてもよい。この場合、例えば、映像生成部6は、データ群の指定をせずに、例えば自装置の種別や性能等の情報又は自装置の機種情報や識別情報等の種別や性能を特定可能な情報を伴う問い合わせを、時間情報管理部5へと送信しうる。時間情報管理部5は、この問い合わせに含まれる情報に基づいて、対応する素材データ群を特定し、その特定されたデータ群に対応する有効時間範囲の情報を、映像生成部6へ通知する。
また、上述の説明では、素材データの全てが時間情報と対応付けて保存されているように説明しているが必ずしもこれに限られない。例えば、保存部4は、背景の三次元モデルなどは変化がなければ単一のデータだけを保存しておき、有効時間範囲の問い合わせに対しては全ての時刻において有効として、取得要求の度に同一のデータを映像生成部6に出力してもよい。また、このような素材データについては、有効時間範囲の問い合わせの対象とせず、映像生成部6は、この素材データを一度取得すると、その素材データを継続して利用するようにしてもよい。
また、保存部4および時間情報管理部5に映像生成部6が接続されて素材データを利用する構成について説明したが、映像生成部6以外の機能部によって、素材データが利用されてもよい。例えば、映像は生成せずに被写体の位置や速度を計測する被写体解析装置が、素材データである被写体位置情報を用いるようにシステムが構成されてもよい。
また、上述の説明では、操作部10の映像種別選択部12が、「ライブ配信」、「低画質リプレイ」、「高画質リプレイ」、「携帯端末用」、「選手位置解析」の5種類の映像種別から1つを選択する例について説明したが、映像種別はこれらに限定されない。例えば、「Full HD」、「4K」、「放送用」、「ネット配信用」、「モバイル端末用」等のさらなる映像種別が設定されてもよいし、これらの映像種別の一部が省略されてもよい。さらに、映像生成の際に、映像種別が特定されずに、取得する素材データの種別が直接指定されるように構成されてもよい。
また、操作部10の映像種別選択部12は、例えば「高画質優先リプレイ」といった優先度を持った映像種別を選択可能なように構成されうる。上述の「高画質リプレイ」では、高画質の仮想視点映像を生成できる有効時間範囲のみが取得され、高画質な仮想視点映像のみが生成される。これに対し、「高画質優先リプレイ」では、高画質な仮想視点映像を生成できる時間範囲では高画質で仮想視点映像を生成し、それ以外の時間範囲では、低画質だが仮想視点映像を生成することができる時間範囲においては、低画質で仮想視点映像を生成する。これによれば、映像が途切れることによって視聴者に違和感を与えることを防ぐことができる。この場合、データ群選択部8は、例えば、指定された映像種別に基づいて、必須データ群、高優先度データ群、低優先度データ群等の複数の優先度を付したデータ群を特定し、特定したデータ群を映像生成部6に通知する。「高画質優先リプレイ」の例では、高優先度データ群は、例えば、高解像度の映像を生成するための、高解像度の被写体三次元モデル、高解像度の被写体テクスチャ、高解像度背景テクスチャでありうる。一方、低優先度データ群は、低解像度の映像が生成可能な、低解像度の被写体モデル、低解像度の被写体テクスチャ、低解像度の背景テクスチャでありうる。また、必須データ群は背景モデルでありうる。なお、どのようなデータを高優先度又は低優先度とするかは、これに限られず、例えば通信回線の容量が小さい場合などでは、低解像度のデータが高優先度で、高解像度のデータが低優先度であるような設定が行われてもよい。
映像生成部6は、これらのデータ群に基づいて、有効時間範囲を時間情報管理部5に問い合わせる。時間情報管理部5は、これに対して、まず、必須データ群と高優先度データ群とが共に保存されている時間範囲を、図8の20cによって示されるような高優先度データ群が得られる高優先範囲として特定する。また、時間情報管理部5は、高優先範囲20c以外の時間範囲のうち、必須データ群と低優先度データ群とが得られる時間範囲を、図8の20dによって示されるような低優先範囲として特定する。そして、時間情報管理部5は、特定した高優先範囲20c及び低優先範囲20dの情報を、映像生成部6へと送信する。操作部10は、受信した有効時間範囲20を高優先範囲20cと、低優先範囲20dとで識別可能に(例えば異なる色で)表示する。このような表示により、ユーザは、主として高優先範囲20c内で時間を指定して高解像度な仮想視点映像を生成するが、ある時間の映像を解像度が低くとも生成したい場合には低優先範囲20d内の時間を指定する等の判断を行うことができるようになる。なお、低優先範囲は、高優先範囲20cとは無関係に特定されてもよい。この場合、映像生成部6又は操作部10において、高優先範囲と低優先範囲とが重なる範囲については、高優先範囲であると特定することができる。また、操作部10は、高優先範囲と低優先範囲とを並列表示してもよい。また、例えば、高優先範囲20cでも低優先範囲20dでもない時間範囲については、図6(a)又は図6(b)の例のような表示が行われうる。
なお、映像生成部6は、データ種別ごとに優先度が設定された問い合わせを、時間情報管理部5に行うものとしたが、これに限られない。例えば、映像生成部6が優先度ごとに時間情報管理部5へ問い合わせを行い、操作部10または映像生成部6が、優先度ごとに得られた有効時間範囲20を統合し、時間指示部13に統合された有効時間範囲20を表示してもよい。
また、高解像度映像を生成するための高優先度データ群と低解像度映像を生成可能な低優先度データ群とを分類して有効時間範囲20が特定され、映像生成部6は、それに基づいて素材データを取得すると説明したがこれに限られない。例えば、被写体のモデルおよびテクスチャは高解像度のものを取得できるが、背景テクスチャは低解像度のものしか取得できない等の場合に、背景テクスチャに合わせて被写体についてまで低解像度のものを用いる必要はない。このような場合、映像生成部6は、背景テクスチャについては低解像度のものを利用するように構成されてもよい。このような構成のために、三次元モデルやテクスチャなどのデータ種別の分類ごとに優先度の組み合わせが作成され、映像生成部6が、データ種別の分類ごとに高優先度の素材データを優先して取得するように構成されてもよい。また、この場合の時間指示部13においては、すべての種別において優先度が高いものが取得できる有効時間範囲と、すくなくとも一部が低優先度のものしか取得できない有効時間範囲とが互いに識別可能に表示されてもよい。
また、上述の例では、複数の撮像部1で撮像された画像が素材データ生成部3に入力され、保存部4は、素材データ生成部3が生成した素材データを保存するものとしたが、これに限られない。例えば、複数の撮像部1で撮像された画像が、一度、保存部4にすべて保存され、素材データ生成部3がその保存された画像を用いて素材データを生成するようにしてもよい。この構成例を図9に示す。図9の構成では、素材データ生成部3は、保存部4に保存された複数の画像を用いて素材データを生成して、その生成した素材データと、その素材データに対応する時間情報とを保存部4に出力する。これによれば、例えば、素材データ生成部3が、高画質な素材データの生成の際に、例えば手動での補正等の編集・修正が行われた素材データや、編集・修正が行われた画像に基づく素材データを生成することができる。
このような構成とすることで、複数の撮像部1により撮像された画像が保存部4に保存されるため、それに基づいて、多くの時間を用いたより高品質な素材データを作ることができるようになる。そして、その結果、さらに高品位な仮想視点映像を生成することも可能となる。なお、高品質な素材データを作るにはコストがかかるため、全時間範囲において高品位な素材データが作成されない場合がありうる。このような場合には、上述のような優先度を利用することにより、高品質な仮想視点映像を生成することができる時間範囲においては高品質の仮想視点映像を生成し、それ以外の部分では低品質の仮想視点映像を生成するようにしうる。
なお、上述の実施形態は、仮想視点映像を生成するためのシステムについて説明したが、例えば自由聴点音響等の、仮想視点映像以外のコンテンツを生成するための情報処理システムに、上述の技術を適用することができる。すなわち、1つ以上の素材データを取得して、その素材データから任意のコンテンツを生成する任意の情報処理装置に、上述の議論が適用されうる。すなわち、情報処理装置は、コンテンツを生成するための1つ以上の素材データが存在している場合にその素材データが対応する時刻に関する情報を取得する。そして、情報処理装置は、その情報に基づいてコンテンツを生成可能な有効時間範囲を特定し、その範囲内の時間について素材データを取得してコンテンツを生成する。このとき、情報処理装置は、有効時間範囲を、コンテンツを生成することができない時間範囲と識別可能に表示することができる。なお、上述の実施形態では、優先度に応じて色付けする等により、例えば高優先度のコンテンツを生成可能な時間範囲を他の時間範囲と識別可能に表示する手法について説明したが、これを拡張することができる。例えば、生成可能なコンテンツの種類/組み合わせを識別可能に表示する手法が用いられうる。例えば、仮想視点映像と自由聴点音響とが共に生成可能な時間範囲と、仮想視点映像のみ生成可能な時間範囲と、自由聴点音響のみ生成可能な時間範囲と、そのいずれも生成できない時間範囲とが、色付け等によってそれぞれ識別可能に表示されうる。また、これらに対して、さらに解像度等に基づいてコンテンツを分類し、分類ごとに識別可能な表示が行われるようにしてもよい。なお、コンテンツの種類ごとの有効時間範囲を並列表示するようにしてもよい。このように、ユーザが識別できるように生成可能なコンテンツの種類が示されることにより、コンテンツを生成する際のユーザの利便性を向上させることができる。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:撮像部、2:同期部、3:素材データ生成部、4:保存部、5:時間情報管理部、6:映像生成部、7:映像出力部、8:データ群選択部、10:操作部、11:表示部、12:映像種別選択部、13:時間指示部
本発明の一態様による情報処理装置は、コンテンツを生成するために用いられるデータとして記憶部に記憶されている素材データに対応付けられた時間に関する情報を取得する取得手段と、特定の種類の素材データが前記記憶部に記憶されている有効時間範囲を、前記取得手段により取得された情報に基づいて特定する特定手段と、前記特定手段により特定された有効時間範囲を示す情報を出力する出力手段と、を有する。

本発明の一態様による情報処理装置は、仮想視点コンテンツを生成するための複数の素材データを記憶する記憶部に何れの時刻の仮想視点コンテンツを生成するための素材データが記済みであるかを特定する特定手段と、何れの時刻の仮想視点コンテンツを生成できるかを示す画像を表示させるための情報を、前記特定手段によ特定の結果に基づいて出力する出力手段とを有する。

Claims (18)

  1. コンテンツを生成するために用いられる素材データに対応付けられた時刻に関する情報を取得する取得手段と、
    前記コンテンツを生成するために用いられる素材データが存在する有効時間範囲を、前記取得手段により取得された情報に基づいて特定する特定手段と、
    前記特定手段により特定された有効時間範囲を示す情報を出力する出力手段と、
    を有することを特徴とする情報処理装置。
  2. 前記出力手段は、前記有効時間範囲と前記コンテンツを生成するために用いられる素材データが存在しない時間範囲とが識別可能に表示画面に表示されるように前記有効時間範囲を示す情報を出力する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記特定手段は、前記情報処理装置が生成可能な複数のコンテンツの種類のそれぞれの前記有効時間範囲を特定し、
    前記出力手段は、前記複数のコンテンツの種類のうちのいずれを生成可能な時間範囲であるかが識別可能に前記表示画面に表示されるように前記有効時間範囲を示す情報を出力する、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記特定手段は、前記情報処理装置が生成可能な複数のコンテンツの種類のそれぞれの前記有効時間範囲を特定し、
    前記出力手段は、前記複数のコンテンツの種類のそれぞれについての前記有効時間範囲が並列表示されるように前記有効時間範囲を示す情報を出力する、
    ことを特徴とする請求項2に記載の情報処理装置。
  5. 前記コンテンツを生成する時間のユーザによる指定を受け付ける受付手段と、
    前記指定された時間に対応する素材データを他の装置から取得してコンテンツを生成する生成手段と、
    を有することを特徴とする請求項2から4のいずれか1項に記載の情報処理装置。
  6. 前記コンテンツを生成することができない時間範囲をユーザが指定できないようにする、又は、前記コンテンツを生成することができない時間範囲に対するユーザの指定を無効とする制御手段を有する、
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記生成手段は、2つの前記有効時間範囲の間に前記コンテンツを生成するための素材データが存在しない時間範囲が存在する場合であって、2つの前記有効時間範囲を跨いで前記コンテンツが再生される場合、時間が後の有効時間範囲の前または当該後の有効時間範囲の開始時において、対応する時刻が不連続であることを示す表示を生成する、
    ことを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記取得手段は、前記コンテンツを生成するために用いられる複数の種類の素材データのそれぞれに対応付けられた時間範囲に関する情報を、前記時刻に関する情報として取得する、
    ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  9. 1つ以上の前記素材データについての対応する時間範囲の論理積の情報を、前記時刻に関する情報として取得し、
    前記特定手段は、前記取得手段により取得された時間範囲の論理積によって示される時間範囲を前記有効時間範囲として特定する、
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 複数の種類のコンテンツのうち、1以上のコンテンツの種類を指定するためのユーザ操作を受け付ける受付手段を有し、
    前記取得手段は、前記受付手段により受け付けられた種類のコンテンツについての時刻に関する情報を取得する、
    ことを特徴とする請求項8又は9に記載の情報処理装置。
  11. 前記取得手段は、前記時刻に関する情報として、複数のコンテンツの種類ごとの前記有効時間範囲に関する情報を取得する、
    ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
  12. 前記コンテンツは、仮想視点映像であり、
    前記素材データは、被写体の三次元モデルおよびテクスチャのデータを含む、
    ことを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。
  13. 前記コンテンツとして、第1仮想視点映像と、前記第1仮想視点映像より画質が低い第2仮想視点映像と、の少なくともいずれかを生成する生成手段を有する、
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記取得手段は、前記素材データの生成のために用いられた撮像画像の撮像時刻に関する情報を取得する、
    ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  15. 前記出力手段は、前記特定手段により特定された有効時間範囲を示す情報を他の情報処理装置に対して出力する、
    ことを特徴とする請求項1から14のいずれか1項に記載の情報処理装置。
  16. 前記他の情報処理装置は、前記コンテンツを生成するための生成手段を有し、前記出力手段は、前記他の情報処理装置からの問い合わせに対する応答として、前記有効時間範囲を示す情報を出力する、
    ことを特徴とする請求項15に記載の情報処理装置。
  17. コンテンツの生成に関する情報処理方法であって、
    前記コンテンツを生成するために用いられる素材データに対応付けられた時刻に関する情報を取得する取得工程と、
    前記コンテンツを生成するために用いられる素材データが存在する有効時間範囲を、前記取得工程において取得された情報に基づいて特定する特定工程と、
    前記特定工程において特定された有効時間範囲を示す情報を出力する出力工程と、
    を有することを特徴とする情報処理方法。
  18. コンピュータを、請求項1から16のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。
JP2017171378A 2017-09-06 2017-09-06 情報処理装置、情報処理方法、及びプログラム Active JP6409107B1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2017171378A JP6409107B1 (ja) 2017-09-06 2017-09-06 情報処理装置、情報処理方法、及びプログラム
EP18188309.1A EP3454562A1 (en) 2017-09-06 2018-08-09 Information processing apparatus, information processing method, and program
US16/117,504 US10659822B2 (en) 2017-09-06 2018-08-30 Information processing apparatus, information processing method, and medium
KR1020180103169A KR102132331B1 (ko) 2017-09-06 2018-08-31 정보 처리장치, 정보 처리방법, 및 프로그램
CN201811023797.1A CN109462749B (zh) 2017-09-06 2018-09-04 信息处理装置、信息处理方法以及介质
CN202010658268.XA CN111770327B (zh) 2017-09-06 2018-09-04 信息处理装置、信息处理方法以及介质
US16/847,087 US11202104B2 (en) 2017-09-06 2020-04-13 Information processing apparatus, information processing method, and medium
KR1020200081942A KR102320934B1 (ko) 2017-09-06 2020-07-03 정보 처리장치, 제어 방법, 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017171378A JP6409107B1 (ja) 2017-09-06 2017-09-06 情報処理装置、情報処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018176147A Division JP6600399B2 (ja) 2018-09-20 2018-09-20 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6409107B1 JP6409107B1 (ja) 2018-10-17
JP2019047432A true JP2019047432A (ja) 2019-03-22

Family

ID=63855207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171378A Active JP6409107B1 (ja) 2017-09-06 2017-09-06 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (2) US10659822B2 (ja)
EP (1) EP3454562A1 (ja)
JP (1) JP6409107B1 (ja)
KR (2) KR102132331B1 (ja)
CN (2) CN111770327B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068513A (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 画像処理装置および画像処理方法
JP7479184B2 (ja) 2020-04-21 2024-05-08 株式会社Nttドコモ 情報処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP7271099B2 (ja) 2018-07-19 2023-05-11 キヤノン株式会社 ファイルの生成装置およびファイルに基づく映像の生成装置
CN113473161A (zh) * 2020-03-31 2021-10-01 腾讯科技(成都)有限公司 直播方法、装置、设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
JP2004280250A (ja) * 2003-03-13 2004-10-07 Canon Inc 情報処理装置および方法
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101363559B1 (ko) 2010-07-23 2014-02-17 주식회사 팬택 부가 데이터를 이용한 증강 현실 제공 장치 및 증강 현실 제공 방법
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
CN103458310A (zh) * 2013-09-06 2013-12-18 乐视致新电子科技(天津)有限公司 一种信息展示方法及装置
JP6347934B2 (ja) * 2013-10-11 2018-06-27 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
JP2015204512A (ja) 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
JP6299492B2 (ja) * 2014-07-03 2018-03-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6501348B2 (ja) 2014-12-26 2019-04-17 Kddi株式会社 自由視点画像生成装置、方法およびプログラム
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
WO2018085797A1 (en) * 2016-11-04 2018-05-11 Aquifi, Inc. System and method for portable active 3d scanning
US10542300B2 (en) * 2017-05-31 2020-01-21 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) * 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
JP2004280250A (ja) * 2003-03-13 2004-10-07 Canon Inc 情報処理装置および方法
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068513A (ja) * 2018-10-26 2020-04-30 キヤノン株式会社 画像処理装置および画像処理方法
JP7479184B2 (ja) 2020-04-21 2024-05-08 株式会社Nttドコモ 情報処理装置

Also Published As

Publication number Publication date
US11202104B2 (en) 2021-12-14
US20190075332A1 (en) 2019-03-07
US10659822B2 (en) 2020-05-19
JP6409107B1 (ja) 2018-10-17
CN109462749A (zh) 2019-03-12
KR20190027323A (ko) 2019-03-14
CN109462749B (zh) 2020-08-04
CN111770327B (zh) 2022-01-11
KR20200085697A (ko) 2020-07-15
KR102320934B1 (ko) 2021-11-03
EP3454562A1 (en) 2019-03-13
KR102132331B1 (ko) 2020-08-05
CN111770327A (zh) 2020-10-13
US20200245003A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP6409107B1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210150223A1 (en) Information processing apparatus, information processing method, and storage medium
JP6568670B1 (ja) 映像配信装置、映像配信システム、映像配信方法並びに映像配信プログラム
JP7301507B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11956408B2 (en) Information processing system, information processing method, and storage medium
JP6600399B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP2942949A1 (en) System for providing complex-dimensional content service using complex 2d-3d content file, method for providing said service, and complex-dimensional content file therefor
JP2019114869A (ja) 表示制御装置、表示制御方法
JP6571859B1 (ja) 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム
US20230162435A1 (en) Information processing apparatus, information processing method, and storage medium
JP2023057124A (ja) 画像処理装置及び方法、プログラム
JP6910405B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2020102687A (ja) 情報処理装置、画像処理装置、画像処理方法、及びプログラム
JP2013211818A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN117768766A (zh) 拍摄方法、视频处理方法和拍摄设备
JP2023111640A (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
JP2023183059A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
JP2019115035A (ja) 表示制御装置、表示制御方法
JP2019118042A (ja) 画像処理装置、画像処理方法及びプログラム
JP2021026435A (ja) 仮想視点映像を生成する装置、システム、方法、及びプログラム
KR20170082116A (ko) 움직이는 사진 생성 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180921

R151 Written notification of patent or utility model registration

Ref document number: 6409107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151