JP7497683B2 - 映像再生装置、再生方法、プログラム、3d形状映像データの生成方法 - Google Patents

映像再生装置、再生方法、プログラム、3d形状映像データの生成方法 Download PDF

Info

Publication number
JP7497683B2
JP7497683B2 JP2020563064A JP2020563064A JP7497683B2 JP 7497683 B2 JP7497683 B2 JP 7497683B2 JP 2020563064 A JP2020563064 A JP 2020563064A JP 2020563064 A JP2020563064 A JP 2020563064A JP 7497683 B2 JP7497683 B2 JP 7497683B2
Authority
JP
Japan
Prior art keywords
scene
frame
switching
information
shape image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020563064A
Other languages
English (en)
Other versions
JPWO2020137584A1 (ja
Inventor
祐一 荒木
雄一 長谷川
伸明 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020137584A1 publication Critical patent/JPWO2020137584A1/ja
Application granted granted Critical
Publication of JP7497683B2 publication Critical patent/JP7497683B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本技術は、映像再生装置、再生方法プログラム、3D形状映像データの生成方法に関し、特に3Dオブジェクトを含む映像の映像再生装置、再生方法プログラム、3D形状映像データの生成方法に関する。
従来、現実の3D空間をセンシングした情報、例えば異なる視点から被写体を撮像した多視点映像を用いて、視聴空間内に3Dのオブジェクトを生成し、それが視聴空間内に存在しているかのように見える映像(Volumetric Videoとも言う)を生成する方法が考えられた(例えば、特許文献1)。
国際公開第2017/082076号
上述した方法により生成された映像が、被写体の実際の映像を用いて生成された3D形状映像であることから、視聴者は、被写体がより身近にいるような没入感を味わうことができる。
しかしながら、視聴者が、触る、近づくといったような動作を視聴空間内における被写体の3Dオブジェクトに対して行っても、被写体の3Dオブジェクトは、視聴者の動きとは無関係にあらかじめ定められた動きを示すのみであり、視聴者の動作に対応した反応、即ちインタラクティブな反応を示すことができない。そのため、視聴者の没入の度合いが損なわれるおそれがあった。
本開示は、このような状況に鑑みてなされたものであり、視聴者の没入の度合いの低下を抑制するものである。
本技術の一側面の映像再生装置は、異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像の被写体と同一の被写体の異なる動きを表す第2の3D形状映像とを取得する取得部と、前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える切り替え処理部と、を備える映像再生装置である。
本技術の一側面の再生方法は、映像再生装置が、異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像の被写体と同一の被写体の異なる動きを表す第2の3D形状映像とを取得し、前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、再生方法である。
本開示に係る撮像から3D形状映像の視聴までの概要を説明する図である。 3D形状映像の例を説明する図である。 本開示に係る第1実施の形態の切り替え動作例の概要を説明する図である。 図3の具体例を示す図である。 図3の切り替え動作の具体例を説明する図である。 本開示に係る第1実施の形態の構成例を示すブロック図である。 図6の映像生成装置1の生成処理を説明するフローチャートである。 図6の映像再生装置2の再生処理を説明するフローチャートである。 図8のトリガ取得処理を説明するフローチャートである。 図8のフレーム番号選択処理を説明するフローチャートである。 本開示に係る第2実施の形態の切り替え動作例の概要を説明する図である。 図11の切り替え動作の応用例を説明する図である。 本開示に係る第2実施の形態の切り替えメタデータの構成例を示す図である。 本開示に係る第2実施の形態の構成例を示すブロック図である。 図14の映像生成装置101の処理を説明するフローチャートである。 図15の切り替えメタデータ生成処理を説明するフローチャートである。 図14の映像再生装置102の処理を説明するフローチャートである。 図17のトリガ取得処理を説明するフローチャートである。 図17のフレーム番号選択処理を説明するフローチャートである。 本開示に係る第3実施の形態の切り替え動作例の概要を説明する図である。 3Dオブジェクト、および視聴者の視線ベクトルについて説明する図である。 本開示に係る第3実施の形態の構成例を示すブロック図である。 図22の映像生成装置201の処理を説明するフローチャートである。 図23の視線情報生成処理を説明するフローチャートである。 図17のフレーム番号選択処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
0.本開示の前提(図1、図2)
1.第1実施の形態(図3乃至図10)
2.第2実施の形態(図11乃至図19)
3.第3実施の形態(図20乃至図25)
<本開示の前提>
(撮像から3D形状映像の視聴までの概要)
図1は、撮像から3D形状映像の視聴までの処理の概要を示す図である。
図1に示されるように、3D形状映像の生成には、複数の撮像装置1-1乃至1-3による撮像と、3Dモデリングにより3DオブジェクトM01を生成する処理が含まれる。
具体的には、複数の撮像装置1-1乃至1-3は、図1に示されるように、被写体#Ob1を取り囲むように、被写体#Ob1の外側に配置される。図1は、撮像装置の台数が3台の例を示しており、撮像装置1-1乃至1-3が被写体#Ob1の周りに配置されている。図1の例においては、所定の動作をとっている人物が被写体#Ob1とされている。
同期して撮像された3台の撮像装置1-1乃至1-3の映像フレームを用いて3Dモデリングが行われ、3台の撮像装置1-1乃至1-3の映像フレーム単位ごとに被写体#Ob1の3Dオブジェクトが生成される。
3Dオブジェクトの形式は、例えば、被写体#Ob1のジオメトリ情報を、ポリゴンメッシュと呼ばれる、頂点(Vertex)と頂点間のつながりで表したメッシュデータと、各ポリゴンメッシュに対応して色情報とを保有する形式であってもよいし、形状情報および属性情報(特に色情報)を持った3D空間上の点の集合であるPoint Cloud形式などであってもよい。
そして、一連の動きを表す被写体の3Dオブジェクトを用いて3D形状映像が生成される。3D形状映像は、一連の動きをとっている被写体の3Dオブジェクトを含む複数のフレームの時系列によって構成される。3Dオブジェクトには、適宜、所定の空間を表す背景の映像が合成される。
生成された3D形状映像のデータを含むコンテンツデータは、再生側の装置に伝送され、再生される。3D形状映像のデータが再生され、被写体の3Dオブジェクトのレンダリングが行われることにより、視聴者の視聴デバイスに3D形状映像が表示される。図1の例においては、ディスプレイD1、HMD(Head Mount Display)D2が視聴デバイスとして用いられている。
(3D形状映像の例)
図2は、生成された複数の3D形状映像(以下、シーンともいう)の例を示す図である。
映像生成装置においては、同じ被写体の3Dオブジェクトを対象とした複数のシーンのデータが生成される。図2の例においては、それぞれ独立した異なる動きを表す3つのシーンである、シーンA、シーンB、シーンCが生成されている。
図2の例では、シーンAは、フレームA1乃至A3の3フレームから構成され、シーンBは、フレームB1乃至B5の5フレームから構成され、シーンCは、フレームC1乃至C5の5フレームから構成される。
なお、黒塗りで示す1つの人物のイラストが、シーンを構成する1フレームに相当する。図2以降の他の図においても同様である。シーンAを構成するフレームA1乃至A3、シーンBを構成するフレームB1乃至B5、シーンCを構成するフレームC1乃至C5により、それぞれ、同じ被写体が異なる動きを取る様子が表される。
映像生成装置から映像再生装置に対しては、このようにして生成された、それぞれ異なる動きを表す被写体の3Dオブジェクトを用いたシーンのデータが伝送される。
映像再生装置においては、再生対象を所定のタイミングで切り替えるようにして、シーンのデータの再生が進められる。再生対象が切り替わることにより、視聴者が視聴するシーンが切り替わり、シーンに含まれる3Dオブジェクトの動きが視聴者の状態に応じて変化することになる。
<第1実施の形態>
(第1実施の形態の動作の概要)
図3は、本開示に係る第1実施の形態のシーンの切り替え動作例の概要を説明する図である。
図3のAに示すように、例えばコンテンツは、メインのシーンとなるシーンBと、サブのシーンとなるシーンCの2つのシーンから構成される。
映像再生装置が再生しているシーンBのあるフレームにおいて、映像の切り替えを要求するトリガ情報が取得されると、映像再生装置は、再生するシーンをシーンCに切り替える。
映像再生装置は、再生するシーンをシーンCに切り替えた後、シーンCの再生を行う。映像再生装置は、シーンCの再生が終了すると、再生対象を、あらかじめ定められたシーンBのフレームに切り替える処理を行い、それ以降、シーンBの再生を継続する。
シーンBからシーンCへの切り替え処理について具体的に説明する。
図3のBの下向きの矢印で示すように、例えば、シーンBのフレームB2において、シーンCへの切り替えを要求するトリガ情報が取得されたものとする。この場合、トリガ情報が取得されたことに応じて、再生対象が、シーンCのフレームC3に切り替わる。
例えば、切り替え先となるシーンとそのフレームについては、あらかじめ定められている。シーンCのどのフレームが切り替え先として用いられるようにしてもよいし、図示しない別のシーンのフレームが切り替え先として用いられるようにしてもよい。
再生対象となるシーンの切り替えを規定する以上のようなトリガ情報は、例えば、視聴者の動きに応じて取得される。視聴者は、自分の動きに応じてシーンが切り替えられることにより、3Dオブジェクトの動きがインタラクティブに変化する様子を視聴することになる。
図4は、視聴者の見え方の具体例を示す図である。
図4の例では、映像再生装置においてメインのシーンが再生されている状態が表されている。具体的には、視聴空間内に存在する被写体の3DオブジェクトM02が、図の下方向に向けて歩いて移動するシーンが、メインのシーンとして再生されているものとする。ここで、黒塗りの楕円は、メインのシーンによって表示される、各時刻における3DオブジェクトM02の位置を表す。白抜きの数字は、時刻を表す。
図4に示す状態は、時刻0のフレームから時刻3のフレームまで再生が行われ、時刻3のフレームに対応する位置まで、3DオブジェクトM02が歩いて移動している状態である。
図4の左下に示す位置U01は、視聴空間内における視聴者の位置を表す。図4の例においては、視聴者は、3DオブジェクトM02が存在する時刻3のフレームに対応する位置から離れた位置で視聴していることになる。
この場合、トリガ情報が取得されず、メインのシーンのみの再生が続けられる。即ち、時刻3のフレーム以降の再生が行われることにより、時刻7のフレームに対応する位置まで、順次、3DオブジェクトM02が歩いて移動する。
図5は、図3を参照して説明したようにして、シーンの切り替えが生じた場合の見え方の具体例を示す図である。
図5に示すように、メインのシーンの時刻3のフレームまで再生が行われ、被写体の3DオブジェクトM02が時刻3のフレームに対応する位置にいるタイミングで、視聴者が位置U01から位置U02に移動した場合、映像再生装置はトリガ情報を取得する。
映像再生装置は、トリガ情報を取得することに応じて、再生対象をメインのシーンの時刻3のフレームから、サブのシーンの時刻10のフレームに切り替えるための処理を行う。
図5に示すサブのシーンは、時刻10乃至14のフレームにより構成される。サブのシーンは、被写体の3DオブジェクトM03が時刻10のフレームに対応する位置から時刻14のフレームに対応する位置に向けて、位置U02を避けるように移動するシーンである。なお、メインのシーンに含まれる被写体の3DオブジェクトM02と、サブのシーンに含まれる被写体の3DオブジェクトM03は、同じ人物を撮像して得られた3Dオブジェクトである。
この例においては、映像再生装置が再生するコンテンツは、図4に示すメインのシーンと、切り替え対象となるサブのシーンの2つのシーンから構成されている。
このような切り替え処理が行われることにより、位置U02にいる視聴者からは、被写体の3DオブジェクトM02が、視聴者を避けて動くように視聴される。
視聴者自身が位置を変えることに応じて被写体の3Dオブジェクトの動きがインタラクティブに変化することにより、視聴者は、没入感を得ることが可能となる。
(第1実施の形態の構成例)
図6は、本開示に係る第1実施の形態の構成の一例を示すブロック図である。
図6に示されるように、本開示に係る第1実施の形態としての情報処理システムは、映像生成装置1、映像再生装置2、表示装置3により構成される。本開示に係る第1実施の形態は、3D形状映像であるシーンを生成し、生成したシーンの再生処理を行い、表示するものである。
(映像生成装置の構成説明)
映像生成装置1は、多視点映像取得部11、3Dモデル生成部12、および再生情報生成部13により構成される。
映像生成装置1の多視点映像取得部11は、例えば、複数の撮像装置から被写体の情報(例えば、撮像された2Dの映像、距離情報、およびカメラパラメータ)を取得し、3Dモデル生成部12に供給する。
3Dモデル生成部12は、多視点映像取得部11から供給される被写体の情報を用いてモデリングを行い、被写体の3Dオブジェクトを生成する。3Dモデル生成部12は、被写体の3Dオブジェクトを表示するシーンを生成する。例えば、メインとなるシーンと、サブとなるシーンが生成される。3Dモデル生成部12は、生成したシーンのデータであるシーンデータを再生情報生成部13に供給する。
3Dモデル生成部12は、再生情報生成部13から供給される再生情報、および、3Dモデル生成部12が生成するシーンデータからコンテンツデータを生成し、映像再生装置2に供給する。映像再生装置2に対するコンテンツデータの伝送は、例えば、インターネット、LAN(Local Area Network)などのネットワークを介して行われる。コンテンツデータの伝送が、HDD(Hard Disk Drive)、フラッシュメモリなどの記録媒体を介して行われるようにしてもよい。
コンテンツデータには、複数のシーンデータが含まれるようにしてもよいし、1つのシーンデータのみが含まれるようにしてもよい。また、再生情報は、コンテンツデータに含めず、別に供給されるようにしてもよい。
再生情報生成部13は、3Dモデル生成部12から供給されるシーンデータに基づいて、例えばメインのシーン、サブのシーンを選択し、設定する。また、再生情報生成部13は、メインのシーン、およびサブのシーンのそれぞれの再生手順を定める再生情報を生成し、3Dモデル生成部12に供給する。
(映像再生装置の構成説明)
映像再生装置2は、取得部21、トリガ取得処理部22、視点位置取得部23、フレーム番号選択部24、切り替え処理部25、および再生部26により構成される。
映像再生装置2の取得部21は、映像生成装置1から伝送されるコンテンツデータを取得する。コンテンツデータに含まれるシーンデータは、トリガ取得処理部22に出力される。また、取得部21により取得されたコンテンツデータに含まれるシーンデータのうち、再生情報に基づいて選択されたシーンデータが、再生対象のフレームのデータとして切り替え処理部25に供給される。
例えば、取得部21は、コンテンツデータの再生が開始された場合、メインのシーンデータを切り替え処理部25に供給する。また、取得部21は、メインのシーンデータを切り替え処理部25に出力し、メインのシーンの再生を行わせている場合において、再生対象を特定する情報が切り替え処理部25から供給された場合、メインのシーンデータの出力を停止する。そして、取得部21は、再生対象を特定する情報により特定されるサブのシーンの必要な範囲のフレームのデータを、特定シーンのデータとして、切り替え処理部25に供給する。
取得部21により取得されたコンテンツデータに含まれる再生情報は、フレーム番号選択部24に出力される。取得部21からフレーム番号選択部24に対しては、現在の再生位置を表す情報も出力される。例えば、取得部21から切り替え処理部25に対してシーンデータが出力されているフレームが、現在の再生位置のフレームとなる。
トリガ取得処理部22は、取得部21から供給されるシーンデータ、および視点位置取得部23から供給される、視聴空間内における視聴者の視聴位置の情報である視点位置情報を用いて、シーンの切り替えを要求するか否かを表すトリガ情報をフレーム番号選択部24に供給する。
なお、トリガ取得処理部22からフレーム番号選択部24に対しては、シーンの切り替えを要求するか否かを表すトリガ情報が、各フレームの再生が行われるごとなどの所定の周期で繰り返し出力される。シーンデータと視点位置情報に基づいて、トリガ情報の内容(シーンの切り替えを要求する/要求しない)が切り替えられる。
視点位置取得部23は、視点位置情報を取得し、トリガ取得処理部22、および再生部26に供給する。視聴者の視点位置は、例えば、表示装置3から送信されてきた、視聴者の動作に関する情報に基づいて特定される。表示装置3から映像再生装置2に対しては、上述したようにして視点位置を移動させたり、視線の方向を移動させたりするための視聴者の動作に関する情報が送信されてくる。
フレーム番号選択部24は、取得部21から供給される再生情報、およびトリガ取得処理部22から供給されるトリガ情報を用いて、再生対象となるシーン、および、そのシーンの再生対象となるフレーム番号を決定し、再生対象を特定する情報を切り替え処理部25に供給する。
切り替え処理部25は、フレーム番号選択部24から供給される、再生対象を特定する情報を取得部21に供給する。再生対象を特定する情報を供給することに応じて、取得部21からは、メインのシーンデータ、または、サブのシーンデータが供給される。切り替え処理部25は、取得部21から供給されるシーンデータを再生部26に供給する。
再生部26は、切り替え処理部25から供給されるシーンデータに基づいて、被写体の3Dオブジェクトをレンダリングする。そして、再生部26は、レンダリング結果を表示装置3に伝送し、3Dオブジェクトを表示させる。
以上のような構成を有する映像生成装置1と映像再生装置2は、それぞれ、PC(Personal Computer)、スマートフォン、タブレット端末、ゲーム機などの装置により構成される。一方、視聴デバイスである表示装置3は、上述したようにディスプレイ、HMDなどにより構成される。
映像生成装置1と映像再生装置2が1つの装置により構成され、映像再生装置2と表示装置3が1つの装置により構成されるといったように、図6に示す2以上の装置の構成が1つの装置に設けられるようにしてもよい。また、図6に示す1つの装置の構成が、複数の装置に分けて設けられるようにしてもよい。
次に、以上のような構成を有する各装置の動作について説明する。
(第1実施の形態における各装置の動作)
(映像生成装置の3Dモデルデータ生成処理)
図7は、映像生成装置1の生成処理を説明するフローチャートである。
図7の処理は、例えば、複数の撮像装置から取得された被写体の情報が映像生成装置1の多視点映像取得部11から3Dモデル生成部12に対して供給されたときに開始される。
図7のステップS1において、3Dモデル生成部12は、被写体の情報を用いて、3Dモデルである被写体の3Dオブジェクトを生成する。
ステップS2において、3Dモデル生成部12は、一連の動きを表す被写体の3Dオブジェクトを用いてシーンを生成する。一連の動きが複数ある場合、ここでは、それぞれの一連の動きに対応するシーンが、個別に生成される。
ステップS3において、再生情報生成部13は、3Dモデル生成部12から供給されるシーンデータに基づいて、例えば、メインのシーンと、サブのシーンを選択し、設定する。再生情報生成部13は、メインのシーンとサブのシーンのそれぞれの再生手順を定める再生情報を生成し、3Dモデル生成部12に供給する。
ステップS4において、3Dモデル生成部12は、再生情報生成部13から供給される再生情報をシーンデータに対して設定し、再生情報が設定されたシーンデータを含むコンテンツデータを生成する。
ステップS5において、3Dモデル生成部12は、ステップS4において生成されるコンテンツデータを、映像再生装置2に伝送する。その後、映像生成装置1の生成処理は終了となる。
(映像再生装置の3Dモデルデータ再生処理)
図8は、映像再生装置2の再生処理を説明するフローチャートである。
図8のステップS21において、映像再生装置2の取得部21は、映像生成装置1の3Dモデル生成部12から供給されるコンテンツデータを取得する。
ステップS22において、取得部21は、取得したコンテンツデータに含まれる再生情報を分析する。
ステップS23において、トリガ取得処理部22は、トリガ取得処理を行う。トリガ取得処理においては、取得部21から供給されるコンテンツデータと、視聴者の状態とに基づいて、再生対象をサブのシーンに切り替えることを要求するか否かを表すトリガ情報が取得される。トリガ取得処理の詳細については、図9のフローチャートを参照して後述する。
ステップS24において、フレーム番号選択部24は、フレーム番号選択処理を行う。フレーム番号選択処理においては、トリガ取得処理部22から供給されるトリガ情報と、取得部21から供給されるコンテンツデータに含まれる再生情報に基づいて、再生対象となるシーン、およびそのシーンにおける再生対象となるフレーム番号が、再生対象を特定する情報として決定される。フレーム番号選択処理の詳細については、図10のフローチャートを参照して後述する。
ステップS25において、切り替え処理部25は、フレーム番号選択部24から供給される、再生対象を特定する情報を取得部21に供給する。取得部21は、切り替え処理部25から供給された、再生対象を特定する情報に応じて、再生対象となるシーンのデータを切り替え処理部25に供給する。
取得部21から切り替え処理部25に対しては、メインのシーンのフレーム、または、サブのシーンのフレームのデータが供給される。
ステップS26において、切り替え処理部25は、ステップS25において取得部21から供給されたシーンのデータを再生部26に供給する。
ステップS27において、再生部26は、切り替え処理部25から供給されるシーンのデータに基づいて、被写体の3Dオブジェクトをレンダリングする。レンダリング結果に基づいて、表示装置3においては3Dオブジェクトの表示が行われる。
ステップS28において、切り替え処理部25は、再生対象となっているシーンの全フレームを処理したか否かを判定する。未処理のフレームが存在すると判定された場合、ステップS23に戻り、それ以降の処理が繰り返される。
一方、ステップS28において、再生対象となっているシーンの全フレームを処理したと判断された場合、処理はステップS29に進む。
ステップS29において、再生処理を終了するか否かが判定される。再生処理を終了しないと判定された場合、ステップS23に戻り、それ以降の処理が繰り返される。
一方、ステップS29において、再生処理を終了すると判定された場合、映像再生装置2の再生処理は終了となる。
(トリガ取得処理)
次に図9のフローチャートを参照して、図8のステップS23において実行されるトリガ取得処理の流れの例を説明する。
トリガ取得処理が開始されると、ステップS41において、トリガ取得処理部22は、視点位置情報を視点位置取得部23から取得する。視点位置取得部23においては、視聴者の視聴空間内における視聴位置が繰り返し取得されている。
ステップS42において、トリガ取得処理部22は、取得部21が切り替え処理部25に供給しているシーンのデータを取得する。トリガ取得処理部22は、取得したデータに基づいて、視聴空間内における視聴者の視聴位置と対象となるオブジェクトとの距離を計算する。
ステップS43において、トリガ取得処理部22は、視聴者の視聴位置と、対象となるオブジェクトの距離が、あらかじめ定められた閾値以下か否かを判定する。
ステップS43において、視聴者の視聴位置と、対象となるオブジェクトの距離が閾値以下であると判定される場合、処理はステップS44に進む。
ステップS44において、トリガ取得処理部22は、ステップS43の処理による判定に基づいて、サブのシーンへの切り替えを要求する「トリガ有り」のトリガ情報を生成し、フレーム番号選択部24に供給する。
一方、ステップS43において、視聴者の位置と、対象となるオブジェクトの距離が閾値より大きいと判定される場合、処理はステップS45に進む。
ステップS45において、トリガ取得処理部22は、ステップS43の処理による判定に基づいて、サブのシーンへの切り替えを要求しない「トリガ無し」のトリガ情報を生成し、フレーム番号選択部24に供給する。
ステップS44、またはステップS45の処理により、トリガ情報が供給されると、トリガ取得処理が終了し、処理は図8のステップS23に戻る。
(フレーム番号選択処理の流れ)
次に図10のフローチャートを参照して、図8のステップS24において実行されるフレーム番号選択処理の流れの例を説明する。
フレーム番号選択処理が開始されると、ステップS61において、フレーム番号選択部24は、トリガ取得処理部22から供給されるトリガ情報、取得部21から供給される再生情報、および、現在の再生位置を表す情報を取得する。
ステップS62において、フレーム番号選択部24は、ステップS61の処理により取得されるトリガ情報が、サブのシーンへの切り替えを要求する「トリガ有り」の情報を含むか否かを判定する。
ステップS62において、ステップS61により取得されるトリガ情報に、「トリガ有り」の情報が含まれると判定される場合、処理はステップS63に進む。
ステップS63において、フレーム番号選択部24は、ステップS61で取得された再生情報から、あらかじめ定められた、切り替え対象となるサブのシーンのフレーム番号を決定する。フレーム番号選択部24は、決定したサブのシーンおよびそのシーンのフレーム番号を、再生対象を特定する情報として、切り替え処理部25に供給する。切り替え処理部25に供給される情報には、例えば、再生対象とするシーンを表す情報と、そのシーンにおける、再生開始位置となるフレームのフレーム番号を表す情報が含まれる。
一方、ステップS62において、ステップS61により取得されるトリガ情報に、「トリガ有り」の情報が含まれないと判定される場合、処理はステップS64に進む。
ステップS64において、フレーム番号選択部24は、ステップS61で取得された、現在の再生位置の次に再生対象となるフレームのフレーム番号を取得する。「トリガ無し」の情報を含むトリガ情報が取得されているため、ここでは、メインのシーンを構成するフレームのフレーム番号が取得される。フレーム番号選択部24は、取得したフレーム番号を、再生対象を特定する情報として、切り替え処理部25に供給する。
ステップS63、またはステップS64の処理により、再生対象を特定する情報が切り替え処理部25に供給されると、フレーム番号選択処理が終了し、処理は図8のステップS24に戻る。
その後、切り替え対象となるサブのシーンのフレーム番号を含む情報がフレーム番号選択部24から切り替え処理部25に対して供給されている場合、再生対象とするシーンがメインのシーンからサブのシーンに切り替えられ、サブのシーンの再生が行われる(図8のステップS25)。
以上の処理により、視聴者である視聴者の状態と視聴空間内の被写体の3Dオブジェクトとの位置関係に応じて、被写体の3Dオブジェクトの動きがインタラクティブに変化する。これにより、視聴者は、没入感を得ることが可能となる。
<第2実施の形態>
次に第2実施の形態について説明する。
上述したように、第1実施の形態においては、視聴者の視聴位置が3Dオブジェクトに近づくことに応じて、即座に、サブのシーンへの切り替えを要求するトリガ情報が出力され、サブのシーンの再生が開始されることによって、3Dオブジェクトの動きが変化する。
しかしながら、切り替え元となるメインのシーンと、切り替え先となるサブのシーンは、それぞれ異なる一連の動作を表す3Dオブジェクトを含むフレームが時系列に並べられることによって構成されるものである。
そのため、このようなシーンの切り替えが、トリガ情報のタイミングのみで行われるとすると、異なる動作のシーンのフレーム間で、被写体の3Dオブジェクトが瞬時に切り替わるため、視聴者である視聴者に違和感を与え、視聴者の没入感が損なわれるというおそれがある。
例えば、切り替え元のフレームにおける3Dオブジェクトの動きと、切り替え先のフレームにおける3Dオブジェクトの動きが全く異なる場合、視聴者は違和感を得ることになる。
そこで、第2実施の形態においては、シーンの切り替えのためのメタデータを映像生成装置側で生成し、映像再生装置側に対して提供するようになされている。映像生成装置においては、シーンを切り替えたとしても、3Dオブジェクトの動きに違和感がないと考えられるフレームが、切り替え元、切り替え先のフレームとして選択され、選択されたフレームを表すメタデータが生成される。
これにより、異なる動作のシーンのフレームを、シームレスに切り替え、視聴者の没入感が損なわれないようにすることができる。
(第2実施の形態の動作の概要)
図11は、本開示に係る第2実施の形態のシーンの切り替え動作例の概要を説明する図である。
図11のAに示すように、例えばコンテンツは、メインのシーンとなるシーンAと、サブのシーンとなるシーンBの2つのシーンから構成される。
映像再生装置が再生しているシーンAのあるフレームにおいて、映像の切り替えを要求するトリガ情報が取得されると、映像再生装置は、再生するシーンを、シーンBに切り替えることができるか否かの判定を行う。切り替えることができないフレームであると判定される場合、映像再生装置は、シーンの切り替えが可能なフレームまでシーンAの再生を継続した後、再生するシーンをシーンBに切り替える。
再生するシーンを他のシーンに切り替えることができるか否かが、各フレームに対応付けられた(紐付けられた)メタデータにより表される。映像再生装置は、映像の切り替えを要求するトリガ情報が取得された場合、再生対象となっているシーンAのフレームが、他のシーンのフレームに切り替えることができるフレームであるか否かをメタデータに基づいて判定することになる。
映像再生装置は、再生するシーンをシーンBに切り替えた後、シーンBの再生を行う。映像再生装置は、シーンBの再生が終了すると、再生対象を、あらかじめ定められたシーンAのフレームに切り替え、それ以降、シーンAの再生を継続する。
シーンAからシーンBへの切り替え処理について具体的に説明する。
図11のBの下向きの矢印で示すように、例えば、シーンAのフレームA2において、映像の切り替えを要求するトリガ情報が取得されたものとする。この場合、トリガ情報を取得したことに応じて、映像再生装置は、再生するシーンを、動きの異なる他のシーンに切り替えることができるか否かの判定をメタデータに基づいて行う。
例えば、フレームA2が、他のシーンに切り替えることができないフレームであると判定される場合、映像再生装置は、シーンの切り替えが可能なフレームA3までシーンAの再生を継続した後、再生するシーンを、シーンBのフレームB1に切り替える。
このように、シーンの切り替えの可否の判定が、切り替えのためのメタデータに基づいて行われる。切り替え先となるフレームB1の特定も、メタデータに基づいて行われる。
図12は、図11の切り替え動作の応用例を説明する図である。
図12のAでは、例えばコンテンツは、メインのシーンとなるシーンA、サブのシーンとなるシーンBおよびシーンCの3つのシーンから構成される。
映像再生装置が再生しているシーンAのあるフレームにおいて、映像の切り替えを要求するトリガ情報が取得されると、映像再生装置は、再生するシーンを、動きの異なる他のシーンに切り替えることができるか否かの判定を行う。切り替えることができないフレームであると判定される場合、映像再生装置は、シーンの切り替えが可能なフレームまで、シーンAの再生を継続する。
また、同時に、映像再生装置は、シーンの切り替えが行われた回数である視聴体験回数Nを取得する。
映像再生装置は、シーンの切り替えが可能なフレームであるフレームA3までシーンAの再生を継続した後、視聴体験回数に応じ、再生するシーンを切り替える。図12のAの例では、視聴体験回数N=1である場合、シーンBに切り替えられ、視聴体験回数N=2である場合、シーンCに切り替えられる。
この例においては、切り替え先となるシーン(フレーム)が、視聴体験回数に応じて切り替えられる。他のシーンを経由するなどして、シーンAの再生がシーンAの最後のフレームまで行われた場合、シーンAの先頭のフレームに戻り、シーンAの再生が繰り返される。
切り替え先となるシーンが視聴体験回数に応じて切り替えられるのではなく、視聴時間、日にちなどの他の基準に応じて切り替えられるようにしてもよい。
図12のAの切り替え処理について具体例に説明する。
図12のBの下向きの矢印で示すように、例えば、シーンAのフレームA2において、映像の切り替えを要求するトリガ情報が取得されたものとする。この場合、トリガ情報を取得したことに応じて、映像再生装置は、再生するシーンを、動きの異なる他のシーンに切り替えることができるか否かの判定を行う。
例えば、フレームA2が、他のシーンに切り替えることができないフレームであると判定される場合、映像再生装置は、シーンの切り替えが可能なフレームA3まで、シーンAの再生を継続する。
同時に、映像再生装置は、視聴体験回数を取得する。
映像再生装置は、シーンの切り替えが可能なフレームA3まで再生した後、視聴体験回数N=1である場合には、再生するシーンをシーンBのフレームB1に切り替え、視聴体験回数N=2である場合には、再生するシーンをシーンCのフレームC1に切り替える。
図13を参照して、切り替えのためのメタデータ(以下、切り替えメタデータともいう)の構成例を説明する。
図13の例では、コンテンツは、図2を参照して説明したシーンA、シーンB、およびシーンCの3つのシーンから構成される。各シーンのフレーム構成は、図2における説明と同一のため省略する。
図13の切り替えメタデータ41に含まれる各情報は、各シーンのフレームごとに対応する形で記述される。
図13に示されるように、切り替えメタデータ41は、シーンID、シーン内フレームID、グローバルフレームID、遷移可能フラグ、遷移可能フレームID(N回目)から構成される。ここで、遷移可能フレームID(N回目)の変数Nは、視聴体験回数を意味する。
切り替えメタデータ41のシーンIDは、各フレームが属するシーンを示す識別情報である。ここでは、シーンID=0はシーンAに、シーンID=1はシーンBに、シーンID=2はシーンCに属することを示す。
シーン内フレームIDは、対象のフレームの各シーンにおける識別情報である。図13の例においては、フレーム番号に対応する識別情報がシーン内フレームIDとして設定されている。例えば、シーンID=0、およびシーン内フレームID=0のフレームは、シーンAに属し、シーンAにおけるフレームA1に対応するフレームであることを示す。他のシーン内フレームIDについても同様である。
グローバルフレームIDは、対象のフレームの、コンテンツを構成する全てのシーンであるシーンA、シーンB、およびシーンCにおける識別情報である。ここでは、シーンAのフレームA1乃至A3、シーンBのフレームB1乃至B5、およびシーンCのフレームC1乃至C5に、グローバルフレームIDとして、0乃至12の値がそれぞれ割り当てられる。
例えば、グローバルフレームID=0は、シーンAのフレームA1であることを示し、グローバルフレームID=3は、シーンBのフレームB1であることを示し、グローバルフレームID=8は、シーンCのフレームC1であることを示す。他のグローバルフレームIDについても同様である。
遷移可能フラグは、対象のフレームが、他のシーンのフレームに対して遷移可能(切り替え可能)なフレームであるか否かを示すフラグ情報である。遷移可能フラグが、再生するシーンを他のシーンに切り替えることができるか否かについての上述した判定に用いられるメタデータに相当する。
例えば、グローバルフレームID=1に対応する、シーンAのフレームA2の遷移可能フラグはFalseに設定されている。この場合、シーンAのフレームA2から他のシーンのフレームに対して遷移することは不可であるとして判定される。
また、グローバルフレームID=2に対応する、シーンAのフレームA3の遷移可能フラグはTrueに設定されている。この場合、シーンAのフレームA3から他のシーンのフレームに対して遷移することは可能であるとして判定される。
遷移可能フラグの値(True/False)は、被写体の3Dオブジェクトの形状の類似度に基づいて決定される。形状の類似度は、コンテンツ内の各シーンの各フレームにおける被写体の3Dオブジェクトの形状を、相互に比較することにより算出される。
例えば、類似度が閾値以上である場合、比較元のフレームの被写体の3Dオブジェクトと、比較先のフレームの被写体の3Dオブジェクトは、形状が類似する3Dオブジェクトとなる。この場合、比較元のフレームにおける遷移可能フラグがTrueに設定される。
一方、類似度が閾値より小さい場合、比較元のフレームの被写体の3Dオブジェクトと、比較先のフレームの被写体の3Dオブジェクトは、形状が類似しない3Dオブジェクトとなる。この場合、比較元のフレームにおける遷移可能フラグには、他のシーンのフレームに対して遷移不可であることを表すFalseの値が設定される。
形状の類似度の計算方法には様々な方法がある。例えば、2つのメッシュ間の頂点座標のハウスドルフ距離を計算するといった方法がある。
切り替えメタデータ41の遷移可能フレームIDは、遷移可能フラグがTrueであるフレームにおいて、遷移先となるフレームのグローバルフレームIDを示す情報である。例えば、遷移可能フラグがTrueである、グローバルフレームID=2に対応するシーンAのフレームA3の遷移可能フレームIDが遷移可能フレームID=3である場合、そのことは、グローバルフレームID=2に対応するシーンAのフレームA3から、グローバルフレームID=3に対応するシーンBのフレームB1に遷移可能であることを示す。
なお、遷移先を示す遷移可能フレームIDは、視聴体験回数Nによって異なる遷移先を指定する形式にしても良い。
例えば、遷移可能フレームID(1回目)は、サブのシーンであるシーンBを視聴者が初めて視聴する場合、即ち視聴体験回数N=1の場合の遷移可能フレームのパターンを表している。同様に、遷移可能フレームID(2回目)は、サブのシーンを視聴するのが2回目である場合、即ち視聴体験回数N=2の場合の遷移可能フレームのパターンを表している。
図13では、グローバルフレームID=2に対応するシーンAのフレームA3の遷移可能フレームID(2回目)には、遷移可能フレームID(1回目)=3と異なる、遷移可能フレームID(2回目)=8が設定されている。これは、グローバルフレームID=2に対応するシーンAのフレームA3から他のフレームに対する切り替えが、サブのシーンを初めて視聴する場合には、シーンBのフレームB1に切り替えるようにして行われ、サブのシーンを視聴するのが2回目である場合には、1回目の視聴とは異なるシーンのフレームであるシーンCのフレームC1に切り替えるようにして行われることを表している。
(第2実施の形態の構成例)
図14は、本開示に係る第2実施の形態の構成の一例を示すブロック図である。
図14に示す構成のうち、図6の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。後述する他のブロック図についても同様である。
(映像生成装置の構成説明)
図14の映像生成装置101の構成は、3Dモデル生成部12の代わりに、3Dモデル生成部112が設けられる点、切り替えメタデータ生成部111が新たに設けられる点が図6の映像生成装置1の構成と異なる。
図14の映像生成装置101の切り替えメタデータ生成部111は、3Dモデル生成部12から供給されるシーンデータ、および再生情報に基づいて、図13に示す切り替えメタデータを生成し、3Dモデル生成部112に供給する。例えば、図13に示す遷移可能フラグに設定する値を決定するために、3Dモデル生成部112から供給される再生情報が用いられる。
3Dモデル生成部112は、切り替えメタデータ生成部111から供給される切り替えメタデータ、再生情報生成部13から供給される再生情報、および3Dモデル生成部112が生成するシーンデータからコンテンツデータを生成し、映像再生装置102に伝送する。
なお、切り替えメタデータは、コンテンツデータに含めず、別に供給されるようにしてもよい。
(映像再生装置の構成説明)
図14の映像再生装置102の構成は、フレーム番号選択部24の代わりに、フレーム番号選択部121が設けられる点が、図6の映像再生装置2の構成と異なる。
トリガ取得処理部22は、取得部21から供給されるシーンデータ、および視点位置取得部23から供給される視点位置情報を用いて、シーンの切り替えを要求するか否かを表すトリガ情報をフレーム番号選択部121に供給する。
なお、トリガ取得処理部22からフレーム番号選択部121に対しては、シーンの切り替えを要求するか否かを表すトリガ情報が、各フレームの再生が行われるごとなどの所定の周期で繰り返し出力される。シーンデータと視点位置情報に基づいて、トリガ情報の内容(シーンの切り替えを要求する/要求しない)が切り替えられる。
トリガ取得処理部22は、シーンの切り替えを要求するトリガ情報をフレーム番号選択部121に供給した後、フレーム番号選択部121からの設定に応じ、トリガ情報を、シーンの切り替えを要求しない内容の情報に設定する。
フレーム番号選択部121は、取得部21から供給される現在の再生位置を表す情報、切り替えメタデータ、および、トリガ取得処理部22から供給されるトリガ情報を用いて、再生対象となるシーン、および、そのシーンにおける再生対象となるフレーム番号を決定し、再生対象を特定する情報を切り替え処理部25に供給する。
フレーム番号選択部121は、再生対象を特定する情報を切り替え処理部25に供給した後、トリガ取得処理部22に対し、トリガ情報を、シーンの切り替えを要求しない内容の情報に設定することを指示するための情報を供給する。
次に、以上のような構成を有する各装置の動作について説明する。
(第2実施の形態における各装置の動作)
(映像生成装置の3Dモデルデータ生成処理)
図15は、映像生成装置101の生成処理を説明するフローチャートである。
図15に示す処理は、切り替えメタデータを生成する処理が追加されている点を除いて、基本的に、図7を参照して説明した処理と同様の処理である。重複する説明については適宜省略する。
図15のステップS81において、3Dモデル生成部112は、多視点映像取得部11から供給された被写体の情報を用いて、3Dモデルである被写体の3Dオブジェクトを生成する。
ステップS82において、3Dモデル生成部112は、一連の動きを表す被写体の3Dオブジェクトを用いてシーンを生成する。一連の動きが複数ある場合、ここでは、それぞれの一連の動きに対応するシーンが、個別に生成される。
ステップS83において、再生情報生成部13は、3Dモデル生成部112から供給されるシーンデータに基づいて、例えば、メインのシーンと、サブのシーンを選択し、設定する。再生情報生成部13は、メインのシーンとサブのシーンのそれぞれの再生手順を定める再生情報を生成し、3Dモデル生成部112に供給する。
ステップS84において、3Dモデル生成部112は、再生情報生成部13から供給される再生情報をシーンデータに対して設定し、再生情報が設定されたシーンデータを含むコンテンツデータを生成する。
ステップS85において、切り替えメタデータ生成部111は、切り替えメタデータ生成処理を行う。切り替えメタデータ生成処理が、ステップS83,S84の処理と適宜並行して行われる。
切り替えメタデータ生成処理においては、3Dモデル生成部112から供給されるシーンデータ、および再生情報に基づいて、切り替えメタデータが生成され、3Dモデル生成部112に供給される。切り替えメタデータ生成処理の詳細については、図16フローチャートを参照して後述する。
ステップS86において、3Dモデル生成部112は、ステップS84において生成されたコンテンツデータにステップS85において生成された切り替えメタデータを格納し、映像再生装置102に供給する。その後、映像生成装置101の生成処理は終了となる。
なお、切り替えメタデータは、コンテンツデータとは別に、映像再生装置102に供給されるようにしてもよい。
(切り替えメタデータ生成の処理)
次に図16のフローチャートを参照して、図15のステップS85において実行される切り替えメタデータ生成処理の流れの例を説明する。
切り替えメタデータ生成処理が開始されると、ステップS100において、切り替えメタデータ生成部111は、3Dモデル生成部112から供給される再生情報とシーンデータに基づいて、各シーンの各フレームに対し、識別情報となるシーンID、シーンフレーム内ID、グローバルフレームIDを、それぞれ割り当てる。
ステップS101において、切り替えメタデータ生成部111は、各シーンIDを示す変数sに0を設定する。
ステップS102において、切り替えメタデータ生成部111は、各シーンのフレーム番号を示す変数iに0を設定する。
ステップS103において、切り替えメタデータ生成部111は、3Dモデル生成部112から供給される再生情報とシーンデータに基づいて、s番目のシーンのi番目のフレームの遷移可能フラグをFalseに設定する。
また、切り替えメタデータ生成部111は、s番目のシーンのi番目のフレームを、類似度を算出するための比較元となる比較元対象フレームとして設定し、比較元対象フレームの被写体の3Dオブジェクト(以下、Osiを付加して表す)のデータを取得する。
ステップS104において、切り替えメタデータ生成部111は、3Dモデル生成部112から供給される再生情報とシーンデータに基づいて、類似度を算出するための比較先となる対象のシーンを示す変数tを0に設定する。
また、切り替えメタデータ生成部111は、視聴者の視聴体験回数を示す変数Nを0に設定する。
ステップS105において、切り替えメタデータ生成部111は、3Dモデル生成部112から供給される再生情報とシーンデータに基づいて、類似度を算出するための比較先となる対象のフレームを示す変数jを0に設定する。
ステップS106において、切り替えメタデータ生成部111は、3Dモデル生成部112から供給される再生情報とシーンデータに基づいて、t番目のシーンのj番目のフレームを、類似度を算出するための比較先となる比較先対象フレームとして設定し、比較先対象フレームの被写体の3Dオブジェクト(以下、Otjを付加して表す)のデータを取得する。
ステップS107において、切り替えメタデータ生成部111は、ステップS103において取得した3DオブジェクトOsiと、ステップS106において取得した3DオブジェクトOtjとの形状の類似度が、閾値以上であるか否かを判定する。
3DオブジェクトOsiと3DオブジェクトOtjとの形状の類似度が閾値以上であるとステップS107において判定された場合、処理はステップS108に進む。
ステップS108において、切り替えメタデータ生成部111は、s番目のシーンのi番目のフレームに対し、遷移可能フラグをTrueにして設定する。また、切り替えメタデータ生成部111は、遷移可能フレームID(N回目)として、t番目のシーンのj番目のフレームであることを示すグローバルフレームIDを設定し、視聴者の視聴体験回数を表す変数NにN+1を設定する。
即ち、類似度を算出するための比較元となるフレームの遷移可能フラグがTrueに設定されるとともに、遷移可能フレームID(N回目)として、比較先となるフレームのグローバルフレームIDが設定される。
なお、切り替え先となるサブのシーンを視聴体験回数に応じたものとはしない、即ちサブのシーンを固定とする場合には、視聴体験回数を表す変数Nには1が設定されたままとなる。
3DオブジェクトOsiと3DオブジェクトOtjとの形状の類似度が閾値よりも小さいとステップS107において判定された場合、ステップS108の処理はスキップされる。
ステップS109において、切り替えメタデータ生成部111は、t番目のシーンの全フレームを処理したか否かを判定する。全フレームを処理していない、即ち、未処理のフレームが存在するとステップS109において判定された場合、処理はステップS110に進む。
ステップS110において、切り替えメタデータ生成部111は、変数jに対しj+1を設定する。その後、ステップS106に戻り、比較先対象フレームを変えて、それ以降の処理が繰り返される。
一方、t番目のシーンの全フレームを処理したとステップS109において判定された場合、処理はステップS111に進む。
ステップS111において、切り替えメタデータ生成部111は、s番目のシーンを除く全てのシーンを処理したか否かを判定する。全てのシーンを処理していない、即ち、未処理のシーンが存在するとステップS111において判定された場合、処理はステップS112に進む。
ステップS112において、切り替えメタデータ生成部111は、変数tに対しt+1を設定する。その後、ステップS105に戻り、対象となるシーンを変えて、それ以降の処理が繰り返される。
一方、s番目のシーンを除く全てのシーンを処理したとステップS111において判定された場合、処理はステップS113に進む
ステップS113において、切り替えメタデータ生成部111は、s番目のシーンの全フレームを処理したか否かを判定する。全フレームを処理していない、即ち、未処理のフレームが存在すると判定された場合、処理はステップS114に進む。
ステップS114において、切り替えメタデータ生成部111は、変数iに対しi+1を設定する。その後、ステップS103に戻り、比較元対象フレームを変えて、それ以降の処理が繰り返される。
一方、s番目のシーンの全フレームを処理したとステップS113において判定された場合、処理はステップS115に進む。
ステップS115において、切り替えメタデータ生成部111は、全てのシーンを処理したか否かを判定する。全てのシーンを処理していない、即ち、未処理のシーンが存在するとステップS115において判定された場合、処理は、ステップS116に進む。
ステップS116において、切り替えメタデータ生成部111は、変数sに対しs+1を設定する。その後、ステップS102に戻り、対象とするシーンを変えて、それ以降の処理が繰り返される。
一方、全てのシーンを処理したとステップS115において判定された場合、処理はステップS117に進む。
ステップS117において、切り替えメタデータ生成部111は、3Dモデル生成部112に対し、以上のようにして生成した切り替えメタデータを供給する。切り替えメタデータが供給されると、切り替えメタデータ生成処理が終了し、処理は図15のステップS85に戻る。
(映像再生装置の3Dモデルデータ再生処理)
図17は、映像再生装置102の再生処理を説明するフローチャートである。
図17に示す処理は、基本的に、図8を参照して説明した処理と同様の処理である。
図17のステップS121において、映像再生装置102の取得部21は、映像生成装置101の3Dモデル生成部112から供給されるコンテンツデータを取得する。
ステップS122において、取得部21は、取得したコンテンツデータに含まれる再生情報を分析する。
ステップS123において、トリガ取得処理部22は、トリガ取得処理を行う。トリガ取得処理においては、取得部21から供給されるコンテンツデータと、視聴者の状態とに基づいて、再生対象をサブのシーンに切り替えることを要求するか否かを表すトリガ情報が取得される。トリガ取得処理の詳細については、図18のフローチャートを参照して後述する。
ステップS124において、フレーム番号選択部121は、フレーム番号選択処理を行う。フレーム番号選択処理においては、トリガ取得処理部22から供給されるトリガ情報と、取得部21から供給されるコンテンツデータに含まれる再生情報、および切り替えメタデータに基づいて、再生対象となるシーン、およびそのシーンにおける再生対象となるフレーム番号が決定される。フレーム番号選択処理の詳細については、図19のフローチャートを参照して後述する。
ステップS125において、切り替え処理部25は、フレーム番号選択部121から供給される、再生対象を特定する情報を取得部21に供給する。取得部21は、切り替え処理部25から供給された、再生対象を特定する情報に応じて、再生対象となるシーンのデータを切り替え処理部25に供給する。
ステップS126において、切り替え処理部25は、ステップS125において取得部21から供給されたシーンのデータを再生部26に供給する。
ステップS127において、再生部26は、切り替え処理部25から供給されるシーンのデータに基づいて、被写体の3Dオブジェクトをレンダリングする。レンダリング結果に基づいて、表示装置3においては3Dオブジェクトの表示が行われる。
ステップS128において、切り替え処理部25は、再生対象となっているシーンの全フレームを処理したか否かを判定する。未処理のフレームが存在すると判定された場合、ステップS123に戻り、それ以降の処理が繰り返される。
一方、ステップS128において、再生対象となっているシーンの全フレームを処理したと判断された場合、処理はステップS129に進む。
ステップS129において、再生処理を終了するか否かが判定される。再生処理を終了しないと判定された場合、ステップS123に戻り、それ以降の処理が繰り返される。
一方、ステップS129において、再生処理を終了すると判定された場合、映像再生装置102の再生処理は終了となる。
(トリガ取得処理)
次に図18のフローチャートを参照して、図17のステップS123において実行されるトリガ取得処理の流れの例を説明する。
上述したように、映像の切り替えを要求するトリガ情報が取得された後、他のフレームへの切り替えが可能であるとして設定されたフレーム(遷移可能フラグにTrueが設定されたフレーム)までは、同じシーンの再生が継続される。図18に示す処理は、他のフレームへの切り替えが可能であるとして設定されたフレームが再生対象となるまでの間、映像の切り替えを要求するトリガ情報の出力を繰り返す処理が追加されている点を除いて、図9の処理と同様の処理である。
トリガ取得処理が開始されると、ステップS141において、トリガ取得処理部22は、視聴位置情報を視点位置取得部23から取得する。
ステップS142において、トリガ取得処理部22は、直前に供給したトリガ情報が、既に、サブのシーンに切り替える要求を表すトリガ有りの状態になっているか否かを判定する。
ステップS142においてトリガ有りの状態になっていないと判定された場合、処理は、ステップS143に進む。
ステップS143において、トリガ取得処理部22は、取得部21が切り替え処理部25に供給しているシーンのデータを取得する。トリガ取得処理部22は、取得したデータに基づいて、視聴空間内における視聴者の位置と対象となるオブジェクトとの距離を計算する。
ステップS144において、トリガ取得処理部22は、視聴者の位置と、対象となるオブジェクトの距離が、あらかじめ定められた閾値以下か否かを判定する。
ステップS144において、視聴者の視聴位置と、対象となるオブジェクトの距離が閾値以下であると判定される場合、処理はステップS145に進む。
ステップS145において、トリガ取得処理部22は、ステップS144の処理による判定結果に基づいて、サブのシーンへの切り替えを要求する「トリガ有り」のトリガ情報を生成し、フレーム番号選択部121に供給する。
一方、ステップS144において、視聴者の位置と、対象となるオブジェクトの距離が閾値より大きいと判定される場合、処理はステップS146に進む。
ステップS146において、トリガ取得処理部22は、ステップS144の処理による判定結果に基づいて、サブのシーンへの切り替えを要求しない「トリガ無し」のトリガ情報を生成し、フレーム番号選択部121に供給する。
ステップS145、またはステップS146の処理により、トリガ情報が供給されると、トリガ取得処理が終了し、処理は図17のステップS123に戻る。ステップS142においてトリガ有りの状態になっていると判定された場合も同様に、トリガ取得処理は終了となる。
(フレーム番号選択処理)
次に図19のフローチャートを参照して、図17のステップS124において実行されるフレーム番号選択処理の流れの例を説明する。
図19に示す処理は、シーンの切り替えが、再生情報に代えて、切り替えメタデータに基づいて行われる点で、図10を参照して説明した処理と異なる。
フレーム番号選択処理が開始されると、ステップS161において、フレーム番号選択部121は、トリガ取得処理部22から供給されるトリガ情報、取得部21から供給される現在の再生位置を表す情報、切り替えメタデータ、および視聴体験回数を取得する。
フレーム番号選択部121は、現在の再生位置を表す情報、および切り替えメタデータを用いて、再生の対象になっているフレームのフレーム番号を取得する。
ステップS162において、フレーム番号選択部121は、ステップS160の処理により取得されるトリガ情報が、サブのシーンへの切り替えを要求する「トリガ有り」の情報を含むか否かを判定する。
ステップS162において、ステップS161により取得されるトリガ情報に、「トリガ有り」の情報が含まれると判定される場合、処理はステップS163に進む。
ステップS163において、フレーム番号選択部121は、切り替えメタデータに基づいて、ステップS160において取得したフレーム番号に対応する切り替えメタデータ内の遷移可能フラグがTrueであるか否かを判定する。
遷移可能フラグがTrueであるとステップS163において判定された場合、処理はステップS164に進む。
ステップS164において、フレーム番号選択部121は、ステップS161において取得した視聴体験回数に基づいて、対応する切り替えメタデータの遷移可能フレームIDを選択する。フレーム番号選択部121は、選択した遷移可能フレームIDから、再生対象を特定する情報となるグローバルフレームIDを取得し、切り替え処理部25に供給する。
ステップS165において、フレーム番号選択部121は、「トリガ有り」となっているトリガ情報の設定を「トリガ無し」に変更することを指示する情報をトリガ取得処理部22に供給する。トリガ取得処理部22においては、ここで供給される情報に基づいて、フレーム番号選択部121に対して出力するトリガ情報の内容が切り替えられる。
一方、「トリガ有り」の情報が含まれないとステップS162において判定された場合、または、遷移可能フラグがTrueではなく、FalseであるとステップS163において判定された場合、処理はステップS166に進む。
ステップS166において、フレーム番号選択部121は、ステップS161において取得した再生対象となるフレーム番号を、再生対象を特定する情報として切り替え処理部25に供給する。
ステップS165、またはステップS166の処理により、再生対象を特定する情報が切り替え処理部25に供給されると、フレーム番号選択処理が終了し、処理は図17のステップS124に戻る。
以上の処理により、似ている動作の3Dオブジェクトが含まれるフレームに再生対象が切り替わるため、異なる動作のシーンのフレームを、第1実施の形態よりも、シームレスに切り替えることができ、視聴者の没入感が損なわれないようにすることができる。
<第3実施の形態>
次に第3実施の形態について説明する。
第1実施の形態においては、トリガ情報、および再生情報に基づいて、被写体の3Dオブジェクトの反応を視聴者の状態に応じて変化させる事ができる。
しかしながら、異なる一連の動作を表す各シーンにおいては、3Dオブジェクトの反応が、視聴者の望まない反応となってしまうことがある。例えば、視聴者の方向とは異なる方向を向くような反応を3Dオブジェクトがとった場合、3Dオブジェクトが視聴者から視線をそらすことになり、そのような反応は、視聴者の望まない反応と言える。これにより、視聴者に違和感を与え、視聴者の没入感が損なわれるおそれがある。
そこで、第3実施の形態においては、3Dオブジェクトの視線方向を表す視線情報を映像再生装置側に提供するようになされている。映像再生装置においては、シーンの切り替えにあたり、映像生成装置から提供された視線情報を用いて、視聴者が望むと考えられる反応をとる3Dオブジェクトを含むシーンが、切り替え先のシーンとして選択され、シーンの切り替えが行われる。
これにより、異なる動作のシーンを視聴者の状態に応じてシームレスに切り替えつつ、視聴者に視線を向ける動作の3Dオブジェクトが提供され、視聴者の没入感が損なわれないようにすることができる。
(第3実施の形態の動作の概要)
図20は、本開示に係る第3実施の形態のシーンの切り替え動作例の概要を説明する図である。
図20のAに示すように、例えばコンテンツは、メインのシーンとなるシーンAと、サブのシーンとなるシーンBおよびシーンCの3つのシーンから構成される。
映像再生装置が再生しているシーンAのあるフレームにおいて、映像の切り替えを要求するトリガ情報が取得されると、映像再生装置は、切り替え先のシーンとして、適切なシーンを他のシーンの中から決定する。
図20のAの例においては、映像再生装置は、切り替え先のシーンについて、シーンB、またはシーンCのいずれのシーンが視聴者に対して適切かを、視線情報、および視点位置情報に基づいて決定する。
その後、映像再生装置は、シーンB、またはシーンCのうち、視線情報、および視点位置情報に基づいて決定されるシーンに、再生するシーンを切り替える。
映像再生装置は、再生するシーンを切り替えた後、切り替え先のシーンの再生を行う。映像再生装置は、切り替え先のシーンの再生が終了すると、あらかじめ定められたシーンのフレームに切り替え、再生を継続する。
例えば、映像再生装置は、再生するシーンをシーンBに切り替えた場合、シーンBの再生を行う。映像再生装置は、シーンBの再生が終了すると、あらかじめ定められたシーンであるシーンAのフレームに切り替え、それ以降、シーンAの再生を継続する。
シーンの切り替え処理について、具体的に説明する。
図20のBの下向きの矢印で示すように、例えば、シーンAのフレームA3において、映像の切り替えを要求するトリガ情報が取得されたものとする。この場合、トリガ情報を取得したことに応じて、映像再生装置は、再生するシーンとして適切なシーンを、シーンB、およびシーンCの中から決定する。
具体的には、映像再生装置は、各シーンのフレームごとに対応付けられた視線情報と、視聴者の視点位置情報とに基づいて、切り替え先のシーン、およびそのシーンのフレームとして、シーンB、またはシーンCにおけるいずれのフレームが適切かを判断する。
例えば、シーンBのフレームB1が適切であると判断した場合、映像再生装置は、再生するシーンを白抜き矢印の先に示すようにシーンBのフレームB1に切り替える。また、シーンCのフレームC1が適切であると判断した場合、映像再生装置は、再生するシーンを破線の白抜き矢印の先に示すようにシーンCのフレームC1に切り替える。
図21は、各シーンのフレームごとの視線方向の求め方の例を説明する図である。
図21のAに示すように、あるシーンのあるフレームにおける被写体の3Dオブジェクト#Ob21の視線方向を表すオブジェクトの視線ベクトルは、被写体の3Dオブジェクト#Ob21の空間内の位置(Ox,Oy,Oz)と、被写体の3Dオブジェクト#Ob21が注視していている注視物体の3Dオブジェクト#Ob31の空間内の位置(Gx,Gy,Gz)との差から算出される。
図21のAに示すように、視聴者が、視聴空間内において、仮想視聴位置V1(Vx,Vy,Vz)から被写体の3Dオブジェクト#Ob21を視聴する場合、視聴者の視線方向を表す視聴者の視線ベクトルは、仮想視聴位置V1と、被写体の3Dオブジェクト#Ob21の空間内の位置(Ox,Oy,Oz)との差から算出される。
オブジェクトの視線ベクトルと、視聴者の視線ベクトルの成す角度である視聴視線角度が大きい場合、そのシーンのそのフレームにおいて、被写体の3Dオブジェクトは、視聴者の方向に視線を向けていないと判断できる。このような判断に用いるための3Dオブジェクトの視線方向を表す視線情報が、映像再生装置に対して提供される。
以上のことから、図21のBに示すように、映像再生装置において、視聴視線角度が小さくなるシーンのフレームを特定することが可能となる。映像再生装置においては、視聴視線角度が小さくなるシーンのフレームが、切り替え先のフレームとして選択される。
(第3実施の形態の構成例)
図22は、本開示に係る第3実施の形態の構成の一例を示すブロック図である。
図22に示す構成のうち、図14と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(映像生成装置の構成説明)
図22の映像生成装置201の構成は、多視点映像取得部11、3Dモデル生成部12の代わりに、多視点映像取得部211、3Dモデル生成部212が設けられる点、視線情報生成部213が新たに設けられる点が、図14の映像生成装置101と異なる。
図22の映像生成装置201の多視点映像取得部211は、例えば、複数の撮像装置から被写体の情報(例えば、撮像された2Dの映像、距離情報、およびカメラパラメータ)を取得し、3Dモデル生成部212、および視線情報生成部213に供給する。
3Dモデル生成部212は、多視点映像取得部211から供給される被写体の情報、および視線情報生成部213から供給される視線情報を用いてモデリングを行い、視線情報を有する被写体の3Dオブジェクトを生成する。
また、3Dモデル生成部212は、フレームごとに視線情報を有する被写体の3Dオブジェクトを含むシーンを生成する。例えば、メインとなるシーンと、サブとなるシーンが生成される。3Dモデル生成部212は、生成したシーンのデータを再生情報生成部13に供給する。
3Dモデル生成部212は、再生情報生成部13から供給される再生情報、および3Dモデル生成部212が生成する、視線情報生成部213から供給される視線情報を含むシーンのデータからコンテンツデータを生成し、映像再生装置202に供給する。
視線情報生成部213は、多視点映像取得部211から供給された被写体の情報を取得する。多視点映像取得部211からは、例えば、同一の被写体を同時に各撮像装置により撮像して得られた、複数の2Dの映像が供給される。
視線情報生成部213は、各2Dの映像の映像フレーム内に、被写体と注視物体が共に検出されるか否かを、フレームごとに分析する。視線情報生成部213は、被写体と注視物体が共に検出された各映像フレームを視線情報生成用フレームとして選択する。
例えば、撮像装置1-1により撮像された2Dの映像から選択された視線情報生成用フレーム、撮像装置1-2により撮像された2Dの映像から選択された視線情報生成用フレームといったように、それぞれの2Dの映像から選択された視線情報生成用フレームが、それぞれの2Dの映像におけるフレーム番号と対応付けて選択される。
視線情報生成部213は、同じフレーム番号が対応付けられた視線情報生成用フレームが2枚(2フレーム)以上ある場合、そのフレーム番号における視線情報生成用フレームを取得する。
視線情報生成部213は、多視点映像取得部211から供給されたカメラパラメータ、および取得した各視線情報生成用フレームから、被写体の顔の位置と、注視物体の位置を算出する。
視線情報生成部213は、算出した被写体の顔の位置、および注視物体の位置を用いて、3D空間内における被写体の顔の位置、および注視物体の位置を3D座標として算出する。
3D空間内の位置を算出する方法としては、例えば、各視線情報生成用フレームを3D空間に投影し、三角測量を行うことにより算出する方法がある。同じ時刻のフレームとして、被写体と注視物体が共に映っている映像フレームが2枚以上(複数)ある場合、それらの映像フレームを視線情報生成用フレームとして用いることによって、被写体の顔の位置と注視物体の位置を三角測量などの方法により算出することが可能となる。
視線情報生成部213は、算出した被写体の顔の位置、および注視物体の位置から、被写体の視線ベクトルを算出し、被写体の視線ベクトルの情報を有するフレームであることを示す視線有効フラグを生成する。
視線情報生成部213は、3D空間内の被写体の顔の位置、被写体の視線ベクトルの情報、および視線有効フラグを視線情報として、3Dモデル生成部212に供給する。
(映像再生装置の構成説明)
図22の映像再生装置202の構成は、フレーム番号選択部121、および視点位置取得部23の代わりに、フレーム番号選択部221、および視点位置取得部222が設けられる点が、図14の映像再生装置102と異なる。
映像再生装置202のフレーム番号選択部221は、取得部21から供給される、現在の再生位置を表す情報、切り替えメタデータ、視線情報を取得する。また、フレーム番号選択部221は、トリガ取得処理部22から供給される、トリガ情報、および視点位置取得部222から供給される視点位置情報を取得する。
フレーム番号選択部221は、取得部21から供給される現在の再生位置を表す情報、切り替えメタデータ、視線情報、および視点位置取得部222から供給される視点位置情報を用いて、再生対象となるシーンと、そのシーンにおける再生対象となるフレーム番号を決定し、再生対象を特定する情報を切り替え処理部25に供給する。
フレーム番号選択部221は、再生対象を特定する情報を切り替え処理部25に供給した後、トリガ取得処理部22に対し、トリガ情報を、シーンの切り替えを要求しない内容の情報に設定することを指示するための情報を供給する。
視点位置取得部222は、視点位置情報を取得し、トリガ取得処理部22、フレーム番号選択部221、および再生部26に供給する。
次に、以上のような構成を有する各装置の動作について説明する。
(第3実施の形態における各装置の動作)
(映像生成装置の3Dモデルデータ生成処理)
図23は、映像生成装置201の生成処理を説明するフローチャートである。
図23のステップS181において、映像生成装置201の多視点映像取得部211は、複数の撮像装置から被写体の情報を取得し、3Dモデル生成部212、および視線情報生成部213に供給する。
ステップS182において、視線情報生成部213は、視線情報生成処理を行う。視線情報生成処理により、多視点映像取得部211から供給された被写体の情報に基づいて、映像フレームごとの視線情報が生成される。視線情報生成処理の詳細については、図24のフローチャートを参照して後述する。
ステップS183において、3Dモデル生成部212は、被写体の情報、およびステップS182において生成された視線情報を用いて、3Dモデリングにより、視線情報を有する被写体の3Dオブジェクトを生成する。
ステップS184において、3Dモデル生成部212は、一連の動きを表す被写体の3Dオブジェクトを用いてシーンを生成する。一連の動きが複数ある場合、ここでは、それぞれの一連の動きに対応するシーンが、個別に生成される。
ステップS185において、再生情報生成部13は、3Dモデル生成部212から供給されるシーンのデータに基づいて、例えば、メインのシーンと、サブのシーンを選択し、設定する。再生情報生成部13は、メインのシーンとサブのシーンのそれぞれの再生手順を定める再生情報を生成し、3Dモデル生成部212に供給する。
ステップS186において、3Dモデル生成部212は、再生情報生成部13から供給される再生情報をシーンのデータに対して設定し、再生情報が設定されたシーンのデータを含むコンテンツデータを生成する。
ステップS187において、切り替えメタデータ生成部111は、切り替えメタデータの生成処理を行う。切り替えメタデータ生成処理においては、3Dモデル生成部212から供給されるシーンのデータ、および再生情報に基づいて、切り替えメタデータが生成され、3Dモデル生成部212に供給される。図16を参照して説明した処理と同様の処理であるため、切り替えメタデータ生成処理の詳細な説明については省略する。
ステップS188において、3Dモデル生成部212は、ステップS186において生成されたコンテンツデータに対し、ステップS187において生成された切り替えメタデータを格納し、映像再生装置202に供給する。その後、映像生成装置201の生成処理は終了となる。
(視線情報生成処理)
次に図24のフローチャートを参照して、図23のステップS182において実行される視線情報生成処理の流れの例を説明する。
視線情報生成処理が開始されると、ステップS210において、視線情報生成部213は、多視点映像取得部211から供給される被写体の情報(例えば、撮像された2Dの映像、距離情報、およびカメラパラメータ)を取得する。ここでは、同一の被写体を撮像する撮像装置ごとの、被写体の情報が取得される。
ステップS211において、視線情報生成部213は、ステップS210において取得した2Dの映像における各映像フレームのフレーム番号を指定するための変数iをi=0に設定する。変数iは、同一の被写体を撮像する撮像装置ごとに取得された全ての2Dの映像に対し、共通して使用される変数である。
ステップS212において、視線情報生成部213は、ステップS210において取得された各撮像装置ごとの2Dの映像における、各i番目の映像フレームの中から、被写体と注視物体が共に映像フレーム内にある映像フレームを、視線情報生成用フレームとして選択する。
ここで注目されるi番目の映像フレームは、被写体と注視物体が共に映る映像フレームであるか、被写体だけが映る映像フレームとなる。被写体と注視物体が共に映る前者の映像フレームが、視線情報生成用フレームとして選択される。
このような視線情報生成用フレームの選択が、複数の撮像装置により撮像されたそれぞれの2Dの映像のi番目の映像フレームを対象として行われる。
ステップS213において、視線情報生成部213は、選択した視線情報生成用フレームが2枚以上であるか否かを判定する。2枚以上であると判定された場合、処理は、ステップS214に進む。
ステップS214において、視線情報生成部213は、ステップS210において取得した被写体の情報から、各視線情報生成用フレームに対応する各撮像装置のカメラパラメータを取得する。
ステップS215において、視線情報生成部213は、ステップS212において取得した各視線情報生成用フレームに対し、その視線情報生成用フレーム内における被写体の顔の位置(Ou,Ov)、および注視物体(Gu,Gv)の位置を検出する。位置の検出は、適宜、カメラパラメータを用いて行われる。
ステップS216において、視線情報生成部213は、同一フレーム内に、被写体の顔の位置、および注視物体の位置を検出できた視線情報生成用フレームが2枚以上あるか否かを判定する。2枚以上あると判定された場合、処理はステップS217に進む。
ステップS217において、視線情報生成部213は、各視線情報生成用フレームの被写体の顔の位置(Ou,Ov)、および注視物体(Gu,Gv)の位置を用いて、被写体の顔の3D空間内の位置(Ox,Oy,Oz)、および注視物体の3D空間内の位置(Gx,Gy,Gz)を算出する。
ステップS218において、視線情報生成部213は、ステップS217において算出された被写体の顔の3D空間内の位置(Ox,Oy,Oz)、および注視物体の3D空間内の位置(Gx,Gy,Gz)の差から、被写体の視線方向を表す視線ベクトルを算出する。そして、視線情報生成部213は、視線ベクトルを有するフレームであることを示す視線有効フラグを生成し、視線有効フラグを1に設定する。
ステップS219において、視線情報生成部213は、ステップS218において生成した、被写体の顔の3D空間内の位置、視線ベクトル、および視線有効フラグを、関連する視線情報生成用フレームの情報とともに、視線情報として生成する。
ステップS220において、視線情報生成部213は、各2Dの映像の全ての映像フレームを処理したか否かを判定する。
一方、ステップS213において、または、ステップS216において、視線情報生成用フレームが2枚以上ではないと判定された場合、処理は、ステップS221に進む。
ステップS221において、視線情報生成部213は、視線有効フラグを0に設定する。
ステップS220において、未処理のフレームが存在すると判定された場合は、処理は、ステップS222に進む。
ステップS222において、視線情報生成部213は、2Dの映像のフレーム番号を表す変数iをi=i+1に設定する。その後、ステップS212に戻り、それ以降の処理が繰り返される。
一方、ステップS220において、全ての映像フレームを処理したと判定された場合は、処理はステップS223に進む。
ステップS223において、視線情報生成部213は、全ての視線情報を3Dモデル生成部212に供給し、視線情報生成処理を終了させる。その後、図23のステップS182に戻り、それ以降の処理が行われる。
(映像再生装置の3Dモデルデータ再生処理)
フレーム番号選択処理(ステップS124)を除いて、図22の映像再生装置202が行う全体の処理の流れについては、第2実施の形態における、図17を参照して説明した処理の流れと同じである。重複する説明については省略する。
(フレーム番号選択処理)
次に図25のフローチャートを参照して、図17のステップS124において実行されるフレーム番号選択処理の流れの例を説明する。図25に示す処理は、図22の映像再生装置202が行う処理である。
フレーム番号選択処理が開始されると、ステップS240において、フレーム番号選択部221は、取得部21から供給される、切り替えメタデータ、現在の再生位置を表す情報、および視線情報を取得する。
また、フレーム番号選択部221は、トリガ取得処理部22から供給されるトリガ情報、および視点位置取得部222から供給される視点位置情報を取得する。
ステップS241において、フレーム番号選択部221は、ステップS240の処理により取得されるトリガ情報が、サブのシーンへの切り替えを要求する「トリガ有り」の情報を含むか否かを判定する。
ステップS241において、「トリガ有り」の情報が含まれないと判定される場合、処理はステップS242に進む。
ステップS242において、フレーム番号選択部221は、ステップS240において取得した再生対象となるシーン、および、そのシーンの再生対象となるフレーム番号を、再生対象を特定する情報として、切り替え処理部25に供給する。その後、図17のステップS124に戻り、それ以降の処理が行われる。
一方、ステップS241において、「トリガ有り」の情報が含まれると判定される場合、処理はステップS243に進む。
ステップS243において、フレーム番号選択部221は、ステップS240において取得した切り替えメタデータに基づいて、コンテンツデータに含まれる全てのシーンのフレームを特定するためのグローバルフレームIDを示す変数iを、i=0に設定する。
ステップS244において、フレーム番号選択部221は、切り替えメタデータにおけるグローバルフレームIDがi番目のフレームの視線有効フラグが1か否かを、視線情報に基づいて判定する。視線有効フラグが1であると判定された場合、処理はステップS245に進む。
ステップS245において、フレーム番号選択部221は、ステップS240において取得した視線情報から、グローバルフレームIDのi番目のフレームにおける、視聴空間内の被写体の3Dオブジェクトの位置(Ox,Oy,Oz)、および視線ベクトルを取得する。
ステップS246において、フレーム番号選択部221は、ステップS240において取得した視点位置情報から、視聴者の視聴位置を取得する。フレーム番号選択部221は、視聴者の視聴位置と被写体の3Dオブジェクトとを結ぶベクトルを設定し、その設定したベクトルと視線ベクトルの成す角を、視聴視線角度として算出する。フレーム番号選択部221は、算出した視聴視線角度と、その視聴視線角度を有するフレームを特定する情報を記憶する。
ステップS247において、フレーム番号選択部221は、ステップS246において新たに算出された視聴視線角度が、それまでに算出して記憶している視聴視線角度の中で最小であるか否かを判定する。
新たな視聴視線角度が最小であると判定された場合、処理はステップS248に進む。
ステップS248において、フレーム番号選択部221は、既に記憶している視聴視線角度に関する情報を破棄し、視聴視線角度の値がより小さい新たな視聴視線角度と、その視聴視線角度を有するフレームを特定する情報を記憶する。
ステップS244において、視線有効フラグが1ではないと判定された場合、以上のステップS245乃至S248の処理はスキップされる。
ステップS249において、フレーム番号選択部221は、全フレームに対し処理を行ったか否かを判定する。全フレームの処理が行われていないとステップS249において判定された場合、処理はステップS250に進む。
ステップS250において、フレーム番号選択部221は、変数iをi=i+1に設定する。その後、ステップS244に戻り、それ以降の処理が繰り返される。
一方、ステップS249において、全てのフレームの処理が行われたと判定された場合、処理はステップS251に進む。
ステップS251において、フレーム番号選択部221は、最小の視聴視線角度および、その視聴視線角度を有するフレーム番号を、再生対象を特定する情報として、切り替え処理部25に供給する。
なお、ステップS240において取得した視聴体験回数に応じて、再生対象を特定する情報が切り替えられるようにしても良い。
フレーム番号選択部221が、再生対象を特定する情報を切り替え処理部25に供給した後、フレーム番号選択処理は終了となる。その後、図17のステップS124に戻り、それ以降の処理が行われる。
以上の処理により、視聴者の方向を向いている被写体の3Dオブジェクトを含むシーンが再生対象として選択され、シーンの切り替えが行われるため、視聴者に対して違和感を与えてしまうことを防ぐことが可能となる。また、視聴者は、没入感を得ることが可能となる。
<付記>
コンテンツデータの再生時、シーンの切り替えによって、被写体の3Dオブジェクトの動きが切り替えられるものとしたが、被写体の3Dオブジェクトの代わりに、視聴空間の背景映像が切り替えメタデータに応じて切り替えられるようにしてもよい。
<コンピュータ>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図26に示されるコンピュータ300において、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304を介して相互に接続されている。
バス304にはまた、入出力インタフェース305も接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、およびドライブ310が接続されている。
入力部306は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部307は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部308は、例えば、ハードディスク、不揮発性のメモリなどよりなる。通信部309は、例えば、ネットワークインタフェースよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305およびバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して適用することができる。その場合、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。
また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部309で受信し、記憶部308にインストールすることができる。
その他、このプログラムは、ROM302や記憶部308に、あらかじめインストールしておくこともできる。
<本技術の適用対象>
本技術は、任意の画像符号化・復号方式に適用することができる。つまり、上述した本技術と矛盾しない限り、画像符号化・復号に関する各種処理の仕様は任意であり、上述した例に限定されない。
また、以上においては、本技術を撮像装置に適用する場合について説明したが、本技術は、撮像装置に限らず任意の装置(電子機器)に適用することができる。例えば、他の装置において行われた高デジタルゲイン撮像により得られた撮像画像に対して画像処理を施す画像処理装置等にも本技術を適用することができる。
また、本技術は、任意の装置またはシステムを構成する装置に搭載するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ(例えばビデオプロセッサ)、複数のプロセッサ等を用いるモジュール(例えばビデオモジュール)、複数のモジュール等を用いるユニット(例えばビデオユニット)、ユニットにさらにその他の機能を付加したセット(例えばビデオセット)等(すなわち、装置の一部の構成)として実施することもできる。
さらに、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、コンピュータ、AV(Audio Visual)機器、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対して、画像(動画像)に関するサービスを提供するクラウドサービスに適用することもできる。
なお、本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
例えば、本技術は、観賞用コンテンツ等の提供の用に供されるシステムやデバイスに適用することができる。また、例えば、本技術は、交通状況の監理や自動運転制御等、交通の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、機械等の自動制御の用に供されるシステムやデバイスに適用することができる。さらに、例えば、本技術は、農業や畜産業の用に供されるシステムやデバイスにも適用することができる。また、本技術は、例えば火山、森林、海洋等の自然の状態や野生生物等を監視するシステムやデバイスにも適用することができる。さらに、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。
<その他>
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1)
異なる視点から被写体が撮像された複数の視点映像から生成される第1の3D形状映像と、第1の3D形状映像と異なる映像である第2の3D形状映像を取得する取得部と、
前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから、前記第2の3D形状映像のフレームへ、再生するフレームを切り替える切り替え処理部、
を備える映像再生装置。
(2)
前記切り替え処理部は、前記視聴者の状態としての視聴空間内の前記視聴者の視点位置と、前記第1の3D形状映像内の被写体の3D形状との位置関係に基づいて、フレームを切り替える
前記(1)に記載の映像再生装置。
(3)
前記位置関係に基づいて、再生するフレームの切り替えを要求するトリガ情報を取得するトリガ取得処理部、
をさらに備える前記(2)に記載の映像再生装置。
(4)
前記取得部は、さらに、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへの切り替えが可能か否かを表す遷移可能フラグを含む切り替えメタデータを取得する、
前記(3)に記載の映像再生装置。
(5)
前記切り替えメタデータは、前記第1の3D形状映像の各フレームにおける被写体の3Dオブジェクトと前記第2の3D形状映像の各フレームにおける被写体の3Dオブジェクトの類似度に基づいて生成される、
前記(4)に記載の映像再生装置。
(6)
前記切り替え処理部は、前記切り替えメタデータに基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
前記(5)に記載の映像再生装置。
(7)
再生されている前記第1の3D形状映像のフレームが前記切り替えメタデータにより前記第2の3D形状映像のフレームへの切り替えが認められないフレームである場合、
前記切り替え処理部は、前記トリガ情報が取得されたときでも、前記切り替えメタデータにより切り替えが認められるフレームまで、前記第1の3D形状映像から前記第2の3D形状映像への切り替えを行わない、
前記(6)に記載の映像再生装置。
(8)
前記切り替えメタデータは、さらに、視聴体験回数に応じた遷移可能フレームIDを含む
前記(7)に記載の映像再生装置。
(9)
前記取得部は、さらに、前記第1の3D形状映像と前記第2の3D形状映像のフレームごとに、被写体の3Dオブジェクトの視線情報を取得する、
前記(8)に記載の映像再生装置。
(10)
前記視線情報には、前記第1の3D形状映像と前記第2の3D形状映像のフレームごとの、3D形状映像内における被写体の3Dオブジェクトの位置、視線ベクトル、視線有効フラグが含まれる、
前記(9)に記載の映像再生装置。
(11)
前記切り替え処理部は、さらに、前記視線情報と、前記視聴体験回数に応じて遷移可能フレームを切り替える
前記(10)に記載の映像再生装置。
(12)
前記第1の3D形状映像は、コンテンツのメインとなる映像であり、前記第2の3D形状映像は、コンテンツのサブの特定シーンの映像である
前記(1)乃至(11)のいずれかに記載の映像再生装置。
(13)
前記切り替え処理部は、前記切り替えメタデータに応じて、被写体の3D形状映像の代わりに視聴空間の背景映像を切り替える
前記(1)乃至(12)のいずれかに記載の映像再生装置。
(14)
映像再生装置が、
異なる視点から被写体が撮像された複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像と異なる映像である第2の3D形状映像とを取得し、
前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
再生方法。
(15)
コンピュータに、
異なる視点から被写体が撮像された複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像と異なる映像である第2の3D形状映像とを取得し、
前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
処理を実行させるためのプログラム。
1 映像生成装置, 2 映像再生装置, 3 表示装置, 11 多視点映像取得部, 12 3Dモデル生成部, 13 再生情報生成部, 21 取得部, 22 トリガ取得処理部, 24 フレーム番号選択部, 25 切り替え処理部, 26 再生部, 101 映像生成装置, 102 映像再生装置, 111 切り替えメタデータ生成部, 112 3Dモデル生成部, 121 フレーム番号選択部, 201 映像生成装置, 202 映像再生装置, 211 多視点映像取得部, 212 3Dモデル生成部, 213 視線情報生成部, 221 フレーム番号選択部, 222 視点位置取得部

Claims (16)

  1. 異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像の被写体と同一の被写体の異なる動きを表す第2の3D形状映像とを取得する取得部と、
    前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える切り替え処理部と、
    を備える映像再生装置。
  2. 前記切り替え処理部は、前記視聴者の状態としての視聴空間内の前記視聴者の視点位置と、前記第1の3D形状映像内の被写体の3D形状との位置関係に基づいて、フレームを切り替える
    請求項1に記載の映像再生装置。
  3. 前記位置関係に基づいて、再生するフレームの切り替えを要求するトリガ情報を取得するトリガ取得処理部、
    をさらに備える請求項に記載の映像再生装置。
  4. 前記取得部は、さらに、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへの切り替えが可能か否かを表す遷移可能フラグを含む切り替えメタデータを取得する、
    請求項に記載の映像再生装置。
  5. 前記切り替えメタデータは、前記第1の3D形状映像の各フレームにおける被写体の3Dオブジェクトと前記第2の3D形状映像の各フレームにおける被写体の3Dオブジェクトの類似度に基づいて生成される、
    請求項に記載の映像再生装置。
  6. 前記切り替え処理部は、前記切り替えメタデータに基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
    請求項に記載の映像再生装置。
  7. 再生されている前記第1の3D形状映像のフレームが、前記切り替えメタデータにより前記第2の3D形状映像のフレームへの切り替えが認められないフレームである場合、
    前記切り替え処理部は、前記トリガ情報が取得されたときでも、前記切り替えメタデータにより切り替えが認められるフレームまで、前記第1の3D形状映像から前記第2の3D形状映像への切り替えを行わない、
    請求項に記載の映像再生装置。
  8. 前記切り替えメタデータは、さらに、視聴体験回数に応じた遷移可能フレームIDを含む
    請求項に記載の映像再生装置。
  9. 前記取得部は、さらに、前記第1の3D形状映像と前記第2の3D形状映像のフレームごとに、被写体の3Dオブジェクトの視線情報を取得する、
    請求項に記載の映像再生装置。
  10. 前記視線情報には、前記第1の3D形状映像と前記第2の3D形状映像のフレームごとの、3D形状映像内における被写体の3Dオブジェクトの位置、視線ベクトル、視線有効フラグが含まれる、
    請求項に記載の映像再生装置。
  11. 前記切り替え処理部は、さらに、前記視線情報と、前記視聴体験回数に応じて遷移可能フレームを切り替える
    請求項10に記載の映像再生装置。
  12. 前記第1の3D形状映像は、コンテンツのメインとなる映像であり、前記第2の3D形状映像は、コンテンツのサブの特定シーンの映像である
    請求項11に記載の映像再生装置。
  13. 前記切り替え処理部は、前記切り替えメタデータに応じて、被写体の3D形状映像の代わりに視聴空間の背景映像を切り替える
    請求項12に記載の映像再生装置。
  14. 映像再生装置が、
    異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像の被写体と同一の被写体の異なる動きを表す第2の3D形状映像とを取得し、
    前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
    再生方法。
  15. コンピュータに、
    異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像と、前記第1の3D形状映像の被写体と同一の被写体の異なる動きを表す第2の3D形状映像とを取得し、
    前記第1の3D形状映像を視聴している視聴者の状態に基づいて、前記第1の3D形状映像のフレームから前記第2の3D形状映像のフレームへ、再生するフレームを切り替える、
    処理を実行させるためのプログラム。
  16. 異なる視点から被写体を撮像した複数の視点映像から生成される第1の3D形状映像を生成する処理と、
    異なる視点から前記第1の3D形状映像と同一の被写体を撮像した複数の視点映像から生成される3D形状映像であって、再生するフレームを前記第1の3D形状映像を視聴している視聴者の状態に基づいて切り替えることに用いられる、前記第1の3D形状映像の被写体と異なる動きを表す第2の3D形状映像を生成する処理と、
    含む、3D形状映像データの生成方法。
JP2020563064A 2018-12-25 2019-12-12 映像再生装置、再生方法、プログラム、3d形状映像データの生成方法 Active JP7497683B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018240681 2018-12-25
JP2018240681 2018-12-25
PCT/JP2019/048705 WO2020137584A1 (ja) 2018-12-25 2019-12-12 映像再生装置、再生方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020137584A1 JPWO2020137584A1 (ja) 2021-11-04
JP7497683B2 true JP7497683B2 (ja) 2024-06-11

Family

ID=71127222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563064A Active JP7497683B2 (ja) 2018-12-25 2019-12-12 映像再生装置、再生方法、プログラム、3d形状映像データの生成方法

Country Status (7)

Country Link
US (1) US11825066B2 (ja)
EP (1) EP3893512A4 (ja)
JP (1) JP7497683B2 (ja)
KR (1) KR20210107631A (ja)
CN (1) CN113228690B (ja)
TW (1) TW202031040A (ja)
WO (1) WO2020137584A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL295170A (en) * 2020-01-30 2022-09-01 Amatelus Inc Apparatus, system, method and software for video distribution
WO2022091215A1 (ja) * 2020-10-27 2022-05-05 Amatelus株式会社 映像配信装置、映像配信システム、映像配信方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212340A (ja) 2011-03-31 2012-11-01 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
JP2017055851A (ja) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
WO2018199052A1 (ja) 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
JP3272271B2 (ja) * 1997-06-27 2002-04-08 三洋電機株式会社 映像再生装置及び映像記録媒体
CN101742349B (zh) * 2010-01-05 2011-07-20 浙江大学 一种对三维场景的表达方法及其电视系统
WO2013093176A1 (en) 2011-12-23 2013-06-27 Nokia Corporation Aligning videos representing different viewpoints
JP6164780B2 (ja) * 2015-09-30 2017-07-19 徹平 江里口 動画像処理装置、動画像処理方法、動画像処理プログラム及び動画像処理表示システム。
KR102516992B1 (ko) 2015-11-11 2023-04-04 소니그룹주식회사 부호화 장치 및 부호화 방법, 복호 장치 및 복호 방법
JP2017135464A (ja) * 2016-01-25 2017-08-03 キヤノン株式会社 映像送信装置、映像送信システム、映像送信方法、及びプログラム
CN105912102B (zh) * 2016-03-31 2019-02-05 联想(北京)有限公司 一种信息处理方法和电子设备
JP6672075B2 (ja) * 2016-05-25 2020-03-25 キヤノン株式会社 制御装置、制御方法、及び、プログラム
CN109565605B (zh) 2016-08-10 2021-06-29 松下电器(美国)知识产权公司 拍摄技术生成方法以及影像处理装置
CN107888939A (zh) 2016-09-30 2018-04-06 华为技术有限公司 一种视频数据的处理方法及装置
CN108882018B (zh) * 2017-05-09 2020-10-20 阿里巴巴(中国)有限公司 虚拟场景中的视频播放、数据提供方法、客户端及服务器
JP2019149122A (ja) * 2018-02-28 2019-09-05 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2021086189A (ja) * 2019-11-25 2021-06-03 キヤノン株式会社 情報処理装置、情報処理方法、映像処理システム、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212340A (ja) 2011-03-31 2012-11-01 Sony Corp 情報処理装置、画像表示装置、および情報処理方法
JP2017055851A (ja) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
WO2018199052A1 (ja) 2017-04-25 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像表示方法及び画像表示装置

Also Published As

Publication number Publication date
WO2020137584A1 (ja) 2020-07-02
EP3893512A4 (en) 2022-02-23
TW202031040A (zh) 2020-08-16
CN113228690B (zh) 2023-09-08
US11825066B2 (en) 2023-11-21
US20220060672A1 (en) 2022-02-24
EP3893512A1 (en) 2021-10-13
KR20210107631A (ko) 2021-09-01
CN113228690A (zh) 2021-08-06
JPWO2020137584A1 (ja) 2021-11-04

Similar Documents

Publication Publication Date Title
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
CN113301439B (zh) 用于处理视频图像的装置
CN115151947B (zh) 具有基于wifi/gps的地图合并的交叉现实系统
JP6601136B2 (ja) 反応出力システム、反応出力プログラム、反応出力方法
JP6787394B2 (ja) 情報処理装置、情報処理方法、プログラム
WO2017094527A1 (ja) 動画生成システムおよび動画表示システム
JP7497683B2 (ja) 映像再生装置、再生方法、プログラム、3d形状映像データの生成方法
JP7167134B2 (ja) 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
US11967014B2 (en) 3D conversations in an artificial reality environment
TW201911240A (zh) 影像處理裝置及方法、檔案生成裝置及方法、以及程式
JP7202935B2 (ja) 注目度算出装置、注目度算出方法、および注目度算出プログラム
JPWO2014065033A1 (ja) 類似画像検索装置
CN112753008B (zh) 中间新兴内容
WO2022224964A1 (ja) 情報処理装置及び情報処理方法
US11936839B1 (en) Systems and methods for predictive streaming of image data for spatial computing
WO2022249536A1 (ja) 情報処理装置及び情報処理方法
JPH1145351A (ja) 情報処理装置
BUG Oculus rift control of a mobile robot: Providing a 3d virtual reality visualization for teleoperationorhow to enter a robots mind
JP2004086592A (ja) 動画像生成方法および動画像生成プログラム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20210526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7497683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150