JP7243620B2 - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP7243620B2
JP7243620B2 JP2019507591A JP2019507591A JP7243620B2 JP 7243620 B2 JP7243620 B2 JP 7243620B2 JP 2019507591 A JP2019507591 A JP 2019507591A JP 2019507591 A JP2019507591 A JP 2019507591A JP 7243620 B2 JP7243620 B2 JP 7243620B2
Authority
JP
Japan
Prior art keywords
information
area
signaled
coverage
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019507591A
Other languages
English (en)
Other versions
JPWO2018173875A1 (ja
Inventor
遼平 高橋
俊也 浜田
充 勝股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018173875A1 publication Critical patent/JPWO2018173875A1/ja
Application granted granted Critical
Publication of JP7243620B2 publication Critical patent/JP7243620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Generation (AREA)

Description

本開示は、情報処理装置およびプログラムに関し、特に、より多様なプロジェクションフォーマットで全天球映像の領域情報をシグナリングすることができるようにした情報処理装置およびプログラムに関する。
IPTV(Internet Protocol Television)等のインターネットストリーミングにおける標準化の流れとして、HTTP(Hypertext Transfer Protocol)ストリーミングによるVOD(Video On Demand)ストリーミングや、ライブストリーミングに適用される方式の標準化が行われている。
特に、ISO/IEC/MPEGで標準化が行われているMPEG-DASH(Moving Picture Experts Group Dynamic Adaptive Streaming over HTTP)が注目されている(例えば、非特許文献1参照)。
また、MPEGでは、VR標準化(MPEG-I: Coded Representation of Immersive media)が進行中している。例えば、全天球映像の視聴に一般的に使用されるHMD(Head Mounted Display)では、一度に表示される映像は360°全てではなく、一部の領域の映像のみとなる。そのため、VRで使用される全天球映像では、表示される一部の領域を表す領域情報をシグナリングする必要がある。また、MPEG-DASHにより全天球映像のネットワーク配信を行う場合、帯域幅に制限があるため、その有効活用を目的としたviewport dependent processingが検討中である。
ISO/IEC 23009-1:2012 Information technology Dynamic adaptive streaming over HTTP (DASH)
ところで、従来、OMAF CD(Omnidirectional Media Application Format Committee Draft)では、CoverageInformationBoxとして球面上領域カバレッジをシグナルしている。しかしながら、従来のOMAF CDでは対応することができないプロジェクションフォーマットがあり、より多様なプロジェクションフォーマットへの対応が求められていた。
本開示は、このような状況に鑑みてなされたものであり、より多様なプロジェクションフォーマットで全天球映像の領域情報をシグナリングすることができるようにするものである。
本開示の第1の側面の情報処理装置は、コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する生成部を備える。
本開示の第1の側面の情報処理方法またはプログラムは、コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成するステップを含む。
本開示の第1の側面においては、コンテンツのカバレッジ情報に基づいて、多面体のカバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、そのシグナルを用いて球面上に形成される面領域を、カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報が生成される。
本開示の第2の側面の情報処理装置は、コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する生成部を備える。
本開示の第2の側面においては、コンテンツのカバレッジ情報に基づいて、多面体のカバレッジ情報に対応する面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報が生成される。
本開示の第1および第2の側面によれば、より多様なプロジェクションフォーマットで全天球映像の領域情報をシグナリングすることができる。
viewport dependent processingについて説明する図である。 viewport情報を取り扱う球座標系を示す図である。 MPEGで規定されている領域情報の一例を示す図である。 shape_typeによる二種類の球面上領域表現を示す図である。 コンテンツのカバレッジ情報であるcoviの格納場所を示す図である。 従来のシンタックスでは正確に表現できない例を説明する図である。 三角形面で構成されるプロジェクションフォーマットの例を示す図である。 第1の実施の形態による球面上領域のシグナルの第1の例を示す図である。 第1の実施の形態による球面上領域のシグナルの第2の例を示す図である。 立方体の2つの面をシグナルすることの応用例について説明する図である。 第1の実施の形態における拡張されたISOBMFFの一例を示す図である。 point_yaw/pitchによる表現だけでは、カバレッジが一意に決まらない例を説明する図である。 第1の実施の形態におけるパラメータの定義を示す図である。 立方体の3面をシグナルする例を示す図である。 立方体の3面をシグナルする場合のパラメータを示す図である。 八面体の2面をシグナルする例を示す図である。 八面体の2面をシグナルする場合のパラメータを示す図である。 第2の実施の形態による球面上領域のシグナルの一例を示す図である。 第2の実施の形態における拡張されたISOBMFFの一例を示す図である。 exclude_flagについて説明する図である。 第2の実施の形態におけるパラメータの定義を示す図である。 立方体の3面をシグナルする第1の例を示す図である。 立方体の3面をシグナルする第2の例を示す図である。 八面体の2面をシグナルする例を示す図である。 三角形領域表現に限定してシグナルする例を説明する図である。 図25の例におけるRegionOnSphereStructの一例を示す図である。 図25の例におけるパラメータの定義を示す図である。 第3の実施の形態における拡張されたISOBMFFでのtcovの第1の記述例を示す図である。 図28の例におけるパラメータの定義を示す図である。 第3の実施の形態における拡張されたISOBMFFでのtcovの第2の記述例を示す図である。 図30の例におけるパラメータの定義を示す図である。 第3の実施の形態における拡張されたISOBMFFでのtcovの第3の記述例を示す図である。 図32の例におけるパラメータの定義を示す図である。 第3の実施の形態における拡張されたISOBMFFでのtcovの第4の記述例を示す図である。 図34の例におけるパラメータの定義を示す図である。 第3の実施の形態において、main fraction trackにのみtcovを持つケースについて説明する図である。 第3の実施の形態において、すべてのfraction trackにtcovを持つケースについて説明する図である。 立方体の6面をシグナルする例を示す図である。 第4の実施の形態における拡張されたDASH MPDの第1の例を示す図である。 パラメータの定義を示す図である。 パラメータの定義を示す図である。 第1の実施の形態のシンタックスを使用する際の変形例を説明する図である。 パラメータの定義を示す図である。 第4の実施の形態における拡張されたDASH MPDの第2の例を示す図である。 パラメータの定義を示す図である。 パラメータの定義を示す図である。 第2の実施の形態のシンタックスを使用する際の変形例を説明する図である。 八面体の8面をシグナルする例を示す図である。 図48のシグナルが記述されたMPDの記述例を示す図である。 第4の実施の形態の変形例を説明する図である。 本技術を適用した配信システムの構成例を示すブロック図である。 生成装置の構成例を示すブロック図である。 再生装置の構成例を示すブロック図である。 ファイル生成処理を説明するフローチャートである。 ファイル取得処理を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
<従来の全天球映像の領域情報>
まず、図1乃至図7を参照して、従来の全天球映像の領域情報について説明する。
従来、複数の領域に分割された全天球映像について、クライアントの視点および視野に応じて適切な領域の映像を取得して表示するviewport dependent processingという技術が利用されている。また、viewport dependent processingでは、表示されない領域は取得する必要がない。
例えば、図1には、全天球映像が正距円筒図法により平面的に展開された状態が示されており、その全体が18の領域に分割され、それぞれの領域が個別のビデオストリームとされている。そして、クライアントの視点および視野に応じた領域が二重線の矩形で示されており、その領域に応じてビデオストリームが取得される。図1の例では、3番、4番、9番、および10番の領域のビデオストリームが取得され、クライアントの視点および視野に応じた領域の表示に使用される。
また、viewport dependent processingを実現するためには、全天球映像の各領域の位置情報およびサイズ情報をシグナルする必要がある。そして、クライアントは、それらの情報をもとに、viewportに応じたビデオ領域を取得して表示することができる。なお、全天球映像の各領域情報は、球面上の領域情報(球座標系)としてシグナルされる。
例えば、クライアントは、HMDであることが想定される。HMDの内部では、図2に示すような球座標系(yaw,pitch,roll)で、viewport情報が取り扱われるのが一般的であり、座標系を揃えることで処理の簡易化が可能となる。
図3には、MPEGで規定されている領域情報の一例が示されている。
このような領域情報において、例えば、CoverageInformationBoxは、trackに格納される全天球映像が表示される球面上領域の情報をシグナルする。そして、center_yawにより領域中心のyaw角が示され、center_pitchにより領域中心のpitch角が示され、hor_rangeにより水平方向の角度レンジが示され、ver_rangeにより垂直方向の角度レンジが示される。
さらに、図4に示すように、shape_typeにより二種類の球面上の領域表現を行うことができる。
例えば、図4の左側に示すshape_type=0は、four great circlesで囲まれる領域形状により球面上の領域表現を行う。また、図4の右側に示すshape_type=1は、two small two grate circlesで囲まれる領域形状により球面上の領域表現を行う。ここで、great circleは、球の中心と一致する中心を持つ断面の円を表しており、small circleは、それ以外の円を表している。なお、現時点におけるカバレッジ表現としては、shape_type=1のみが運用されている。
図5には、コンテンツのカバレッジ情報であるcoviの格納場所が示されている。
ところで、shape_type=0は、キューブプロジェクションマッピング(Cube Projection Mapping;CMP)の面領域を1面ずつシグナルすることができ、正距円筒プロジェクション(Equirectangular projection;ERP)の矩形領域をシグナルすることができる。しかしながら、従来、キューブプロジェクションマッピングの2面以上の領域や、これら以外のプロジェクションフォーマットには対応することができていなかった。
例えば、図6の上側において、グレーのハッチングが施されている立方体の2面のカバレッジを表現する場合、現在のシンタックスでは正確に表現することができなかった。例えば、(center_yaw,center_pitch,hor_range,ver_range)=(45,0,180,90)とシグナルすると、図6の下側において太線で囲われる半球領域となってしまう。そのため、立方体の2面でカバーできる球面上領域が狭くなる。つまり、図6の上側において太線で囲うように、球面の1/3の領域がカバーされるのに対し、図6の下側において太線で囲うように、球面の1/4の領域しかカバーされなくなってしまう。
さらに、従来、図7に示すような三角形面で構成されるプロジェクションフォーマット(OHP:オクタへドロンプロジェクション、ISP:イコサへドロンプロジェクション)の領域表現には対応していなかった。
そこで、従来技術で対応できない、CMPの2面以上の領域や、ERPまたはCMP以外で一般的に使用されており、将来OMAFに採用される可能性のあるプロジェクションフォーマット(OHPまたはISP)の領域表現に対応することが求められていた。さらに、OHPおよびISPのみでなく、多面体を用いるあらゆるプロジェクションフォーマットに対応することも求められていた。
<ISOBMFFにおけるトラックの領域シグナル方法>
図8乃至図17を参照して、本技術の第1の実施の形態として、ISOBMFFにおけるトラックの領域シグナル方法の第1の例について説明する。
第1の実施の形態では、ISOBMFF trackに格納されるコンテンツのカバレッジについて、複数の頂点をyawおよびpitchでシグナルし、頂点どうしを球面上の最短距離で結ぶことで形成される領域で表現する。
例えば、図8には、3つの頂点をシグナルし、その3つの頂点どうしを球面上の最短距離で結ぶことで球面上の領域表現を行う第1の例が示されている。同様に、図9には、6つの頂点をシグナルし、その6つの頂点どうしを球面上の最短距離で結ぶことで球面上の領域表現を行う第2の例が示されている。
このとき、それぞれの頂点を結ぶ球面上の線分はgreat circleの一部となる。また、このようなシグナルにより、図7に示したようなOHPおよびISPだけでなく、その他の多面体に対応するプロジェクションフォーマットが可能となる。
また、図9に示したように、立方体の2つの面をシグナルすることができるため、例えば、クライアントの視点および視野に応じた領域が、立方体の2つの面に跨るような場合でも、効率良くストリーミングすることができる。
ここで、図10を参照して、立方体の2つの面をシグナルすることの応用例について説明する。
例えば、キューブプロジェクションマッピングにおいて、立方体は、図示するような6つの面A、面B、面C、面D、面E、および面Fにより構成される。
そして、それらの6つの面を2面ごとに3つに分割してファイル化する。即ち、面Bおよび面Cの2面からなるファイルと、面Aおよび面Cの2面からなるファイルと、面Eおよび面Fの2面からなるファイルとにファイル化される。このとき、それぞれのファイルでは、上述の図9に示したように、それぞれ2つの面ごとに、coviによる球面上領域にシグナルされる。
ここで、例えば、クライアントの視点および視野に応じた領域が面Bおよび面Cに跨っている場合、即ち、図10においてグレーでハッチングされている領域をユーザが見ようとした場合、coviの情報をもとに、面Bおよび面Cの2面からなるファイルが取得される。
即ち、従来、キューブプロジェクションマッピングの2面以上の領域をシグナルすることができないため、クライアントの視点および視野に応じた領域が面Bおよび面Cに跨っている場合には、効率良くストリーミングすることができなかった。これに対し、複数の面をシグナルすることができることにより、クライアントの視点および視野に応じた領域が複数の面に跨っていても、それらの面からなるファイルをストリーミングすることで、ストリーミングを効率良く行うことができるようになる。
ところで、複数の頂点をyawおよびpitchでシグナルし、頂点どうしを球面上の最短距離で結ぶことで領域表現を行う場合には、従来よりISOBMFFを拡張する必要がある。
図11には、拡張されたISOBMFF(CoverageInformationBox)およびArbitraryRegionOnSphereStructの一例が示されている。
図11に示すISOBMFFでは、shape_type=2が導入されている。例えば、shape_type=2では、各頂点は、i=0とi=1,i=1とi=2,・・・,i=n-1とi=n,i=nとi=0の規則で、それぞれが球面上の最短距離で結ばれるように定義される。
また、図11に示すISOBMFF において、covered_yaw,covered_pitchは、カバレッジに含まれる代表点のyaw,pitch(例えば、領域の中心点)を示すように定義される。即ち、covered_yaw/pitchは、point_yaw/pitchで表現される領域の内側の点をシグナルしなければならない。例えば、立方体の3面をカバレッジする場合、point_yaw/pitchによる表現だけでは、カバレッジが一意に決まらないため、covered_yaw/pitchによるシグナルが必要となる。
図12を参照して、point_yaw/pitchによる表現だけでは、カバレッジが一意に決まらない例について説明する。
図12に示すように、立方体を3面ごとに分割する場合、手前側の3面からなる形状と奥側の3面からなる形状とに分割される。この場合、それぞれの形状カバレッジをシグナルすると、シグナルされる点は同一になる。従って、これらの2つの形状を区別するためには、covered_yaw/pitchにより方向(手前側の3面、または、奥側の3面)をシグナルする必要ある。
図13には、このような拡張されたISOBMFFにおけるトラックの領域シグナル方法において使用されるパラメータの定義が示されている。
次に、第1の実施の形態による実際のシグナル例について説明する。
例えば、図14の下側に示すような座標系に従って、図14の上側に示すような立方体の手前側の3面をシグナルする場合、図15に示すようにパラメータが設定される。また、この座標系において、yaw角は、-180°以上、かつ、180°より小さく、pitch角は、-90°以上、かつ、90°以下であり、roll角は、-180°以上、かつ、180°以下とされる。
同様に、図16に示すような八面体の手前側の2面をシグナルする場合、図17に示すようにパラメータが設定される。
このように、第1の実施の形態では、拡張されたISOBMFFを用いて、球面上の点をyawおよびpitchでシグナルすることより、実装上扱いやすいというメリットがある。例えば、クライアント側は、自身のviewport情報を方向とfield of view(FoV)とで持つため、そのviewport範囲内に、シグナルされた点で囲まれた領域が含まれるか否かを判別するのは容易である。ところで、第1の実施の形態では、非連続領域のシグナルには対応していない。
なお、第1の実施の形態の変形例として、例えば、shape_typeに替えてflagsを用いてもよい。また、ArbitraryRegionOnSphereStructの中身を、RegionOnSphereStructの中でシグナルし、それらをshape_typeで切り替えてもよい。
<ISOBMFFにおけるトラックの領域シグナル方法>
図18乃至図27を参照して、本技術の第2の実施の形態として、ISOBMFFにおけるトラックの領域シグナル方法の第2の例について説明する。
第2の実施の形態では、ISOBMFF trackに格納されるコンテンツのカバレッジについて、多面体ごとにその多面体の頂点をyawおよびpitchでシグナルし、頂点どうしを球面上の最短距離で結ぶことで形成される面領域を面の数だけ複数シグナルして表現する。
例えば、図18には、2つの面ごとに、それらの面の頂点をシグナルし、頂点どうしを球面上の最短距離で結ぶことで形成される面領域となる2つの面をシグナルすることで領域表現を行う例が示されている。
このとき、それぞれの頂点を結ぶ球面上の線分はgreat circleの一部となる。また、このようなシグナルにより、図7に示したようなOHPおよびISPだけでなく、その他の多面体に対応するプロジェクションフォーマットが可能となる。
図19には、拡張されたISOBMFF(CoverageInformationBox)およびArbitraryRegionOnSphereStructの一例が示されている。
図19に示すISOBMFFでは、shape_type=2が導入されている。例えば、shape_type=2では、各頂点は、i=0とi=1,i=1とi=2,・・・,i=n-1とi=n,i=nとi=0の規則で、それぞれが球面上の最短距離で結ばれるように定義される。そして、ISOBMFFに示すように、面の数でfor loopを回すことにより、複数の面からなる領域をシグナルすることができる。
また、図19に示すISOBMFFでは、exclude_flagが導入されている。exclude_flagが1の場合、シグナルされた領域以外がcoverageとなる
図20を参照して、exclude_flagについて説明する。図20では、立方体の5面分(グレーのハッチングが施されている面以外)のカバレッジシグナルの例が示されている。
例えば、図20の上側に示すように、exclude_flag=0の場合には、カバレッジとして5面分の面に応じた20点のシグナルが必要になる。これに対して、図20の下側に示すように、exclude_flag=1の場合には、カバレッジから除く1面分の面に応じた4点のシグナルでよい。このように、exclude_flagを使用することで、カバレッジシグナルに必要なビット数の最適化を図ること、即ち、より少ないビット数でカバレッジすることができる。
図21には、このような拡張されたISOBMFFにおけるトラックの領域シグナル方法において使用されるパラメータの定義が示されている。
次に、第2の実施の形態による実際のシグナル例について説明する。
例えば、図22には、shape_type=0の場合、即ち、上述の図4の左側に示したような方法で、立方体の3面をシグナルする例が示されている。この場合、図22の下側に示すようにパラメータが設定される。
図23には、shape_type=2の場合、即ち、第2の実施の形態で説明した方法で、立方体の3面をシグナルする例が示されている。この場合、図23の下側に示すようにパラメータが設定される。
図24には、shape_type=2の場合、即ち、第2の実施の形態で説明した方法で、八面体の手前側の2面をシグナルする例が示されている。この場合、図24の下側に示すようにパラメータが設定される。
このように、第2の実施の形態では、拡張されたISOBMFFを用いて、球面上の点をyawおよびpitchでシグナルすることより、実装上扱いやすいというメリットがある。例えば、クライアント側は、自身のviewport情報を方向とfield of view(FoV)とで持つため、そのviewport範囲内に、シグナルされた点で囲まれた領域が含まれるか否かを判別するのは容易である。
さらに、第2の実施の形態では、領域を面単位で複数シグナルできるので、非連続領域のシグナルが可能である。また、上述したようにexclude_flagを利用することで、シグナルする頂点数を最適化することができる。ところで、第2の実施の形態では、上述した第1の実施の形態と比較して、頂点情報に重複が生じることがあり、Boxのサイズが増加することがある。
なお、第2の実施の形態の変形例として、shape_typeに替えてflagsを用いてもよい。例えば、ArbitraryRegionOnSphereStrcutの中身を、RegionOnSphereStructの中でシグナルし、shape_typeで切り替えてもよい。また、領域ごとにshape_typeが変わってもよい。
さらに、num_pointsを3に限定することで、shape_type=2を三角形領域の表現のみに用いるようにしてもよい。例えば、第2の実施の形態を、三角形領域の表現に限定した場合、球面上の三角形領域は、図25に示すように表現することもできる。このとき、classTriangleRegionOnSphereStructは、図26に示す通りであり、パラメータは、図27に示すように定義される。
<ISOBMFFにおけるファイル単位の領域シグナル方法>
図28乃至図38を参照して、本技術の第3の実施の形態として、ISOBMFFにおけるファイル単位の領域シグナル方法について説明する。
第3の実施の形態では、ISOBMFFファイルが格納するコンテンツのトータルカバレッジについて、上述した第1および第2の実施の形態のシグナル方法を用いて表現する。即ち、領域のシグナルは、上述した第1および第2の実施の形態と同様のシンタックス・セマンティクスを用いる。
例えば、従来技術ではtrack単位のカバレッジ情報のみ規定しており、ISOBMFFファイルが複数trackから構成される場合における、全trackをまとめたカバレッジ (=ファイル単位のトータルカバレッジ)はシグナルできなかった。
これに対し、第3の実施の形態では、複数trackから構成されるISOBMFFについて、ファイル単位でのviewport dependent processingが可能となる。
また、第3の実施の形態において、ファイル単位でのトータルカバレッジ情報をシグナルすることで、クライアントはそのファイル再生時に表示可能な領域を容易に取得できる。例えば、全天球すべてをカバーしていない場合に、あらかじめ映像表示できない部分をクライアント独自の映像、もしくはISOBMFFで指定されたデータで埋めておくことができる。
例えば、第3の実施の形態では、tcov(Total Coverage Information Box)は、povd(ProjectedOmnidirectionalVideoBox)の下に配置される。
ここで、以下の説明において、main fraction trackにのみtcovを持つ方式をケース1とする。そして、ケース1において、tcovが、total coverage情報のみ持つ方式をケース1-1とし、tcovが、total coverage情報に加え、全てのfraction track(main含む)のcoverage情報を持つ方式をケース1-2とする。
また、すべてのfraction trackにtcovを持つ方式をケース2とする。そして、ケース2において、tcovが、total coverage情報のみ持つ方式をケース2-1とし、tcovが、total coverage情報に加え、全てのfraction track(main含む)のcoverage情報を持つ方式をケース2-2とする。
このように、それぞれのケースに基づいて、tcovのシンタックスのバリエーションは4種類となる。
例えば、tcovのシンタックスの第1のバリエーションでは、tcovでシグナルされる情報は、total coverage情報のみ持ち、領域シグナル方法は、上述した第1の実施の形態と同一の方法とされる。
従って、tcovのシンタックスの第1のバリエーションでは、図28に示すようにISOBMFF(CoverageInformationBox)は記述され、ArbitraryRegionOnSphereStructは、上述の図11(第1の実施の形態)と同一とされる。また、パラメータは図29に示すように定義される。なお、上述した第1の実施の形態の変形例も含むことができる。
また、tcovのシンタックスの第2のバリエーションでは、tcovでシグナルされる情報は、total coverage情報のみ持ち、領域シグナル方法は、上述した第2の実施の形態と同一の方法とされる。
従って、tcovのシンタックスの第2のバリエーションでは、図30に示すようにISOBMFF(CoverageInformationBox)は記述され、ArbitraryRegionOnSphereStructは、上述の図19(第2の実施の形態)と同一とされる。また、パラメータは図31に示すように定義される。なお、上述した第2の実施の形態の変形例も含むことができる。
また、tcovのシンタックスの第3のバリエーションでは、tcovでシグナルされる情報は、total coverage情報に加え、全てのfraction track(main含む)のcoverage情報を持ち、領域シグナル方法は、上述した第1の実施の形態と同一の方法とされる。
従って、tcovのシンタックスの第3のバリエーションでは、図32に示すようにISOBMFF(CoverageInformationBox)は記述され、ArbitraryRegionOnSphereStructは、上述の図11(第1の実施の形態)と同一とされる。また、パラメータは図33に示すように定義される。なお、上述した第1の実施の形態の変形例も含むことができる。
なお、tcovのシンタックスの第3のバリエーションの変形例として、num_track_partitionは、TotalCoverageInformationBoxを持つ自trackを除いた数を設定し、tp_idで自trackのtrack_idをシグナルしなくてもよい。
また、tcovのシンタックスの第4のバリエーションでは、tcovでシグナルされる情報は、total coverage情報に加え、全てのfraction track(main含む)のcoverage情報を持ち、領域シグナル方法は、上述した第2の実施の形態と同一の方法とされる。
従って、tcovのシンタックスの第4のバリエーションでは、図34に示すようにISOBMFF(CoverageInformationBox)は記述され、ArbitraryRegionOnSphereStructは、上述の図19(第2の実施の形態)と同一とされる。また、パラメータは図35に示すように定義される。なお、上述した第2の実施の形態の変形例も含むことができる。
なお、tcovのシンタックスの第4のバリエーションの変形例として、num_track_partitionは、TotalCoverageInformationBoxを持つ自trackを除いた数を設定し、tp_idで自trackのtrack_idをシグナルしなくてもよい。
図36を参照して、第3の実施の形態において、main fraction trackにのみtcovを持つケース1について説明する。
例えば、ケース1では、tcovを持つのがmain fraction trackとし、tcovを持たないのがfraction trackとする。そして、main fraction trackはTrack Reference(‘ofrc’)でfraction trackを参照することができ、fraction trackはTrack Reference(‘omfr’)でmain fraction trackを参照することができる。また、main fraction trackにのみTotalCoverageInformationBoxを持つ。
ここで、例えば、tcovがtotal coverage情報のみ持つケース1-1の場合、カバレッジに関して重複する情報がない、シンプルな表現が可能となる。但し、total coverageを取得するために、main fraction trackを参照する必要があり、他のfraction trackのcoverageは、各fraction trackを参照しないと取得できない。
また、例えば、tcovがtotal coverage情報に加え、全てのfraction track(main含む)のcoverage情報を持つケース1-2の場合、fraction trackのcoverageをmain fraction track内で取得できる。但し、total coverageを取得するために、main fraction trackを参照する必要がある。なお、ケース1の変形例として、prfrをmain fraction trackのみに持つようにしてもよい。また、ケース1-2の場合、tref (‘ofrc’)はなくてもよい。
図37を参照して、第3の実施の形態において、すべてのfraction trackにtcovを持つケース2について説明する。
例えば、ケース2では、main fraction track, fraction trackの区別はない。また、各fraction trackが相互にtrack reference‘omfr’で参照することができる。
ここで、例えば、tcovがtotal coverage情報のみ持つケース2-1の場合、いずれのfraction trackもtotal coverageを有するため、total coverage情報を取得するのが容易である。但し、重複情報を持つためファイルサイズはケース1-1と比較して大きくなり、他のfraction trackのcoverageは、各fraction trackを参照しないと取得できない。
また、例えば、tcovがtotal coverage情報に加え、fraction track(main含む)のcoverage情報を持つケース2-2の場合、total coverage, 各fraction trackのcoverageを一つのfraction track内で取得できる。但し、重複情報を持つためファイルサイズは、ケース1-1、ケース1-2、およびケース2-1のいずれと比較しても大きくなる。なお、ケース2-2の場合、tref (‘omfr’)はなくてもよい。
次に、第3の実施の形態による実際のシグナル例について説明する。
図38では、ケース2-2で、tcovのシンタックスの第4のバリエーションを用い、各面をregionとして一つずつtrackに格納する。例えば、Region[0]はtrack_id:1とし、Region[1]はtrack_id:2とし、以下同様に、Region[5]はtrack_id:6とする。また、tcovのシグナルは、図38の下側に示すように記述される。
なお、第3の実施の形態の変形例として、total_full_sphereの代わりに、flagsを用いてもよい。
<DASH MPDにおける領域シグナル方法>
図39乃至図50を参照して、本技術の第4の実施の形態として、DASH MPDにおける領域シグナル方法について説明する。
例えば、DASH MPDにおいて、各Representationがカバーする領域をシグナルすることができる。
シグナル方法としては、EssentialPropertyまたはSupplementalPropertyを用いることができ、EssentialPropertyはAdaptationSetの下に格納され、SupplementalPropertyはRepresentationの下に格納される。
例えば、SupplementalPropertyは、このPropertyを理解できないPlayerは、このProperty値を無視して、そのAdaptationSet(もしくはRepresentation, Sub-Representation)を利用してもよい。また、EssentialPropertyは、このPropertyを理解できないPlayerは、このPropertyの書かれているAdaptationSet(もしくはRepresentation, Sub-Representation)を無視しなければならない。
図39には、拡張されたDASH MPDの第1の例が示されており、ここでは、上述した第1の実施の形態のシンタックスが使用されている。
このようなシンタックスにおいて、coverage:arbitrary, totalcoverage:arbitraryの場合、0~2はmandatoryとなり、3以降はnum_pointsに応じる。また、coverageがシグナルされない場合、カバレッジは360degreeフルを示す。一方、coverageのspatial_set_idがシグナルされる場合で、トータルカバレッジが360degreeフルでなければ、同じspatial_set_idを持つtotal coverageが必須となる。また、CoverageとTotalCoverageを一つのEssentialPropertyまたはSupplementalPropertyにまとめてもよい。
図40および図41には、図39に示すような拡張されたDASH MPDにおいて使用されるパラメータの定義が示されている。
なお、上述した第1の実施の形態のシンタックスを使用する際の変形例として、Coverage, TotalCoverageのshape_type=2の場合について、点の数だけ図42に示すEssentialProperty(coverage:arbitrary, totalcoverage:arbitrary)をシグナルする。このとき、点を結ぶ順番は、EssentialPropertyまたはSupplementalPropertyの記載の順番でもよいし、EssentialPropertyまたはSupplementalProperty内に順番を示すパラメータを持ってもよい。
また、図43には、図42に示すシンタックスで使用されるパラメータの定義が記載されている。
図44には、拡張されたDASH MPDの第2の例が示されており、ここでは、上述した第2の実施の形態のシンタックスが使用されている。
このようなシンタックスにおいて、coverage:arbitrary, totalcoverage:arbitraryの場合、kは2以上であり、2からnum_points-1までとされ、lは、0からnum_regions-1までとされる。
また、coverageがシグナルされない場合、カバレッジは360degreeフルを示す。一方、coverageのspatial_set_idがシグナルされる場合で、トータルカバレッジが360degreeフルでなければ、同じspatial_set_idを持つtotal coverageが必須となる。また、CoverageとTotalCoverageを一つのEssentialPropertyまたはSupplementalPropertyにまとめてもよい。
図45および図46には、図44に示すような拡張されたDASH MPDにおいて使用されるパラメータの定義が示されている。
なお、上述した第2の実施の形態のシンタックスを使用する際の変形例として、領域の数だけ、図47に示すEssentialPropertyまたはSupplementalPropertyをシグナルする。そして、シグナルされた領域の合計がCoverageまたはTotal Coverageとなる。
次に、第4の実施の形態による実際のシグナル例について説明する。
図48では、上述したように拡張されたDASH MPDにおいて、第2の実施の形態のシンタックスを使用する例が示されている。つまり、図48の上側に示すように、八面体の8つの面が一つずつregionに分割されている。また、図48の下側には、各regionのpointのシグナルが示されており、図49には、そのシグナルが記述されたMPDの記述例が示されている。
なお、第4の実施の形態の変形例として、shape_type=2の場合のcoverage, total coverageについても、shape_type=0, 1と同じsyntaxを用いて表現してもよい。また、パラメータは、図46に示したパラメータが用いられる。
このとき、center_pitch, center_yaw, hor_range, ver_rangeでシグナルされる領域は、実際のコンテンツのカバレッジと一致しなくてよい。ただし、実際のコンテンツカバレッジに包含され、かつ最大の領域がシグナルされる。例えば、図50に示すように、略三角形の実際のコンテンツカバレッジに包含され、かつ最大の領域となる略矩形の領域がシグナルされる。
<システムの構成例および処理例>
図51乃至図55を参照して、上述したように球面上の領域をシグナルして全天球画像を配信するシステムについて説明する。
図51は、本技術を適用した配信システムの構成例を示すブロック図である。
図51の配信システム11は、撮影装置12、生成装置13、配信サーバ14、再生装置15、およびヘッドマウントディスプレイ16により構成される。配信システム11は、撮影装置12により撮影された撮影画像から全天球画像を生成し、全天球画像を用いて視聴者の視野範囲の表示画像を表示する。
具体的には、配信システム11の撮影装置12は、6個のカメラ12A-1乃至12A-6およびマイクロフォン12Bにより構成される。なお、以下では、カメラ12A-1乃至12A-6を特に区別する必要がない場合、それらをまとめてカメラ12Aという。
各カメラ12Aは動画像を撮影し、マイクロフォン12Bは周囲の音声を取得する。配信システム11は、各カメラ12Aにより撮影された6方向の動画像である撮影画像とマイクロフォン12Bにより取得された音声を、動画コンテンツとして生成装置13に供給する。なお、撮影装置12が備えるカメラの数は、複数であれば、6個以外であってもよい。
生成装置13は、正距円筒図法を用いた方法により、撮影装置12から供給される撮影画像から全天球画像を生成し、1以上のビットレートで符号化して、各ビットレートの正距円筒ストリームを生成する。また、生成装置13は、キューブマッピングにより、撮影画像から全天球画像を生成し、1以上のビットレートで符号化して、各ビットレートのキューブストリームを生成する。また、生成装置13は、撮影装置12から供給される音声を符号化し、オーディオストリームを生成する。
生成装置13は、各ビットレートの正距円筒ストリーム、各ビットレートのキューブストリーム、およびオーディオストリームを、ISOBMFFファイル化する。生成装置13は、その結果生成されたISOBMFFファイルを配信サーバ14にアップロードする。
なお、ここでは、正距円筒ストリームとキューブストリームのビットレートが1以上であるようにするが、ビットレート以外の条件(例えば、画像のサイズ等)が1以上であるようにしてもよい。
また、生成装置13は、動画コンテンツのセグメントファイルを管理するMPDファイルを生成し、配信サーバ14にアップロードする。セグメントとは、ビデオストリーム、オーディオストリームを数秒から10秒程度の時間単位でファイル化したものである。例えば、RegionMappingBoxを含むISOBMFFがセグメントファイルとして配信される。
例えばMEPG-DASH (ISO/IEC 23009-1)を用いた配信を行う配信サーバ14は、生成装置13からアップロードされたセグメントファイルとMPDファイルを格納する。配信サーバ14は、クライアントとしての再生装置15からの要求に応じて、格納しているセグメントファイルを再生装置15に送信する。
再生装置15は、配信サーバ14にISOBMFF ファイルを要求し、その要求に応じて送信されてくるISOBMFFファイルを受け取る。また、再生装置15は、ISOBMFFファイルに基づいて、再生装置15で行うことが可能なマッピングに対応する全天球画像の生成方法で生成された全天球画像のセグメントファイルを要求し、その要求に応じて送信されてくるセグメントファイルを受け取る。再生装置15は、受け取ったセグメントファイルに含まれるキューブストリーム(または正距円筒ストリームであってもよい)を復号する。再生装置15は、復号の結果得られる全天球画像を3Dモデルにマッピングすることにより、3Dモデル画像を生成する。
また、再生装置15は、カメラ15Aを内蔵し、ヘッドマウントディスプレイ16に付されたマーカ16Aを撮影する。そして、再生装置15は、マーカ16Aの撮影画像に基づいて、3Dモデルの座標系における視聴位置を検出する。さらに、再生装置15は、ヘッドマウントディスプレイ16のジャイロセンサ16Bの検出結果を、ヘッドマウントディスプレイ16から受け取る。再生装置15は、ジャイロセンサ16Bの検出結果に基づいて、3Dモデルの座標系における視聴者の視線方向を決定する。再生装置15は、視聴位置と視線方向に基づいて、3Dモデルの内部に位置する視聴者の視野範囲を決定する。
再生装置15は、視聴位置を焦点として、3Dモデル画像を視聴者の視野範囲に透視投影することにより、視聴者の視野範囲の画像を表示画像として生成する。再生装置15は、表示画像をヘッドマウントディスプレイ16に供給する。
ヘッドマウントディスプレイ16は、視聴者の頭部に装着され、再生装置15から供給される表示画像を表示する。ヘッドマウントディスプレイ16には、カメラ15Aにより撮影されるマーカ16Aが付されている。従って、視聴者は、ヘッドマウントディスプレイ16を頭部に装着した状態で、移動することにより視聴位置を指定することができる。また、ヘッドマウントディスプレイ16には、ジャイロセンサ16Bが内蔵され、そのジャイロセンサ16Bによる角速度の検出結果は再生装置15に伝送される。従って、視聴者は、ヘッドマウントディスプレイ16を装着した頭部を回転させることにより、視線方向を指定することができる。
図52は、生成装置の構成例を示すブロック図である。
図52の生成装置13は、スティッチング処理部21、マッピング処理部22、region-wise packing処理部23、エンコーダ24、音声処理部25、エンコーダ26、ファイル生成部27、およびアップロード部28により構成される。
スティッチング処理部21は、フレームごとに、図51のカメラ12Aから供給される6方向の撮影画像の色や明るさを同一にし、重なりを除去して接続するスティッチング処理を行う。スティッチング処理部21は、スティッチング処理後のフレーム単位の撮影画像をマッピング処理部22に供給する。
マッピング処理部22は、この例ではキューブマッピングにより、スティッチング処理部21から供給される撮影画像から全天球画像を生成する。具体的には、マッピング処理部22は、スティッチング処理後の撮影画像をテクスチャとして立方体にマッピングし、その立方体の展開図の画像を全天球画像として生成する。マッピング処理部22は、全天球画像をregion-wise packing処理部23に供給する。なお、スティッチング処理部21とマッピング処理部22は、一体化されていてもよい。
region-wise packing処理部23はregion-wise packing処理を行う。すなわち、projected frameを領域ごとに位置とサイズを変更して2次元面上に配置してパッキング(packing)し、packed frameを生成する。region-wise packing処理部23はまた、margin_flag, region_margin_typeを含むRegionMappingBoxを生成する。
エンコーダ24は、region-wise packing処理部23から供給される全天球画像を1以上のビットレートで符号化し、キューブストリームを生成する。エンコーダ24は、各ビットレートのキューブストリームをファイル生成部27に供給する。
音声処理部25は、図51のマイクロフォン12Bから供給される音声を取得し、エンコーダ26に供給する。エンコーダ26は、音声処理部25から供給される音声を符号化し、オーディオストリームを生成する。エンコーダ26は、オーディオストリームをファイル生成部27に供給する。
ファイル生成部27は、各ビットレートのキューブストリーム、およびオーディオストリームを、セグメント単位でファイル化する。ファイル生成部27は、その結果生成されたセグメントファイルをアップロード部28に供給する。ファイル生成部27はまた、ISOBMFFファイルを生成し、アップロード部28に供給する。
このとき、ファイル生成部27は、上述したように拡張されたISOBMFFを生成することができ、そのISOBMFFには、領域情報がシグナルされている。即ち、ファイル生成部27は、球面上の複数の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで球面上の領域を表現する領域情報(第1の実施の形態)を生成してISOBMFFに記述する。また、ファイル生成部27は、球面上の面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、面の数に応じてシグナルすることで球面上の領域を表現する領域情報(第2の実施の形態)を生成してISOBMFFに記述する。または、ファイル生成部27は、MPDを生成する際に、同様に、拡張されたMPDに領域情報がシグナル(第4の実施の形態)されるようにしてもよい。
アップロード部28は、ファイル生成部27から供給されるセグメントファイルとISOBMFFファイルとを、図51の配信サーバ14にアップロードする。
次に、画像を処理する場合を例として、再生装置15の構成例について説明する。
図53は、再生装置の構成例を示すブロック図である。
図53の再生装置15は、ファイル取得部31、ストリーム抽出部32、デコーダ33、projected frame生成部34,マッピング処理部35、描画部36、受け取り部37、視線検出部38、およびカメラ15Aを有している。
ファイル取得部31は、図51の配信サーバ14から再生対象のファイルを取得する。ストリーム抽出部32は、ファイル取得部31により取得されたファイルから、ビデオストリームを抽出する。デコーダ33は、ストリーム抽出部32により抽出されたビデオストリームをデコードする。projected frame生成部34は、デコーダ33によりデコードされた画像データからprojected frameを生成する。
マッピング処理部35は、projected frame生成部34から供給される全天球画像を立方体の6面のそれぞれにテクスチャとしてマッピングする。
描画部36は、マッピング処理部35から供給される3Dモデル画像を、視線検出部38から供給される視聴位置を焦点として、視聴者の視野範囲に透視投影することにより、視聴者の視野範囲の画像を表示画像として生成する。描画部36は、表示画像をヘッドマウントディスプレイ16に供給する。
受け取り部37は、図51のジャイロセンサ16Bの検出結果を、ヘッドマウントディスプレイ16から受け取り、視線検出部38に供給する。
視線検出部38は、受け取り部37から供給されるジャイロセンサ16Bの検出結果に基づいて、3Dモデルの座標系における視聴者の視線方向を決定する。また、視線検出部38は、カメラ15Aからマーカ16Aの撮影画像を取得し、その撮影画像に基づいて、3Dモデルの座標系における視聴位置を検出する。視線検出部38は、3Dモデルの座標系における視聴位置と視線方向に基づいて、3Dモデルの座標系における視聴者の視野範囲を決定する。視線検出部38は、視聴者の視野範囲と視聴位置を描画部36に供給する。
図54のフローチャートを参照して、図52のファイル生成部27が実行するファイル生成処理について説明する。
ステップS11において、ファイル生成部27は、全天球ビデオは複数に分割されているか否かを判定する。
ステップS11において、全天球ビデオは複数に分割されていると判定された場合、処理はステップS12に進み、ファイル生成部27は、全ての全天球ビデオの領域情報をもとに、tcovおよびEssentialProperty (totalcoverage) 情報を決定する。
ステップS13において、ファイル生成部27は、個々の全天球ビデオの領域情報をもとに、それぞれのcoviおよびEssentialProperty(coverage)を決定する。
一方、ステップS11において、全天球ビデオは複数に分割されていないと判定された場合、処理はステップS14に進み、ファイル生成部27は、全天球ビデオの領域情報をもとに、coviとEssentialProperty(coverage)情報を決定する。
ステップS13またはS14の処理後、処理はステップS15に進み、ファイル生成部27は、MPDとISOBMFFを生成した後、処理は終了される。
図55のフローチャートを参照して、図53のファイル取得部31が実行するファイル取得処理について説明する。
ステップS21において、ファイル取得部31は、MPDのAdaptationSetのEssentialProperty(totalcoverage)を参照し、所望のtotal coverageとなるspatial_set_idを取得する。
ステップS22において、ファイル取得部31は、MPDのAdaptationSetのEssentialProperty(coverage)を参照し、ステップS21で取得したspatial_set_idを持ち、かつ視聴方向に適合するAdaptationSetを選択する。
ステップS23において、ファイル取得部31は、選択したAdaptationSetの中で、帯域幅に応じてRepresentationを選択して、参照されているファイルを取得して、処理は終了される。
以上のように、ファイル生成部27は、MPDおよびISOBMFFを生成することができ、ファイル取得部31は、生成対象のファイルを取得することができる。
なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
また、上述した一連の処理(情報処理方法)は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラムが記録されたプログラム記録媒体からインストールされる。
図56は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロフォンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
球面上の複数の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで球面上の領域を表現する領域情報を生成する生成部
を備える情報処理装置。
(2)
前記領域情報には、複数の前記頂点を結ぶ規則が導入される
上記(1)に記載の情報処理装置。
(3)
前記領域情報には、複数の頂点でカバーされる領域に含まれる代表点がシグナルされる
上記(1)または(2)に記載の情報処理装置。
(4)
前記領域情報は、拡張されたISOBMFFによりシグナルされる
上記(1)から(3)までのいずれかに記載の情報処理装置。
(5)
前記領域情報は、tcovによりシグナルされる
上記(1)から(3)までのいずれかに記載の情報処理装置。
(6)
前記領域情報は、拡張されたDASH MPDによりシグナルされる
上記(1)から(3)までのいずれかに記載の情報処理装置。
(7)
球面上の複数の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで球面上の領域を表現する領域情報を生成する
ステップを含む情報処理方法。
(8)
球面上の複数の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで球面上の領域を表現する領域情報を生成する
ステップを含む情報処理をコンピュータに実行させるプログラム。
(9)
球面上の面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する生成部
を備える情報処理装置。
(10)
前記領域情報には、複数の前記頂点を結ぶ規則が導入され、前記面の数に従ってループを回すことで前記面領域がシグナルされる
上記(9)に記載の情報処理装置。
(11)
前記領域情報には、シグナルされた領域をカバーするか、シグナルされた領域以外をカバーするかを示すフラグが含まれる
上記(9)または(10)に記載の情報処理装置。
(12)
前記領域情報は、拡張されたISOBMFFによりシグナルされる
上記(9)から(11)までのいずれかに記載の情報処理装置。
(13)
前記領域情報は、tcovによりシグナルされる
上記(9)から(11)までのいずれかに記載の情報処理装置。
(14)
前記領域情報は、拡張されたDASH MPDによりシグナルされる
上記(9)から(11)までのいずれかに記載の情報処理装置。
(15)
球面上の面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する
ステップを含む情報処理方法。
(16)
球面上の面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する
ステップを含む情報処理をコンピュータに実行させるプログラム。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
11 配信システム, 12 撮影装置, 12A カメラ, 12B マイクロフォン, 13 生成装置, 14 配信サーバ, 15 再生装置, 15A カメラ, 16 ヘッドマウントディスプレイ, 16A マーカ, 16B ジャイロセンサ, 21 スティッチング処理部, 22 マッピング処理部, 23 region-wise packing処理部, 24 エンコーダ, 25 音声処理部, 26 エンコーダ, 27 ファイル生成部, 28 アップロード部, 31 ファイル取得部, 32 ストリーム抽出部, 33 デコーダ, 34 projected frame生成部, 35 マッピング処理部, 36 描画部, 37 受け取り部, 38 視線検出部

Claims (19)

  1. コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する生成部
    を備える情報処理装置。
  2. コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の頂点をシグナルし、それらの頂点どうしを球面上の最短距離で結ぶことで形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する生成部
    を備える情報処理装置。
  3. 前記頂点どうしを球面上の最短距離で結ぶ線分はgreat circleの一部である
    請求項2に記載の情報処理装置。
  4. 前記領域情報は、非連続な複数の前記面領域を形成する
    請求項3に記載の情報処理装置。
  5. 前記領域情報には、複数の頂点でカバーされる領域に含まれる代表点がシグナルされる
    請求項1に記載の情報処理装置。
  6. 前記領域情報は、非連続な複数の前記面領域を形成する
    請求項1に記載の情報処理装置。
  7. 前記領域情報は、拡張されたISOBMFFによりシグナルされる
    請求項1に記載の情報処理装置。
  8. 前記領域情報は、拡張されたDASH MPDによりシグナルされる
    請求項1に記載の情報処理装置。
  9. 前記領域情報は、前記面の数に従ってループを回すことで前記面領域がシグナルされる
    請求項1に記載の情報処理装置。
  10. 前記領域情報には、シグナルされた領域をカバーするか、シグナルされた領域以外をカバーするかを示すフラグが含まれる
    請求項1に記載の情報処理装置。
  11. コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を生成する
    ステップを含む情報処理をコンピュータに実行させるプログラム。
  12. コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を取得する取得部と、
    取得された前記領域情報を解析して前記球面上の領域に関連する処理を行う処理部と
    を備える情報処理装置。
  13. 前記領域情報には、複数の頂点でカバーされる領域に含まれる代表点がシグナルされる
    請求項12に記載の情報処理装置。
  14. 前記領域情報は、非連続な複数の前記面領域を形成する
    請求項12に記載の情報処理装置。
  15. 前記領域情報は、拡張されたISOBMFFによりシグナルされる
    請求項12に記載の情報処理装置。
  16. 前記領域情報は、拡張されたDASH MPDによりシグナルされる
    請求項12に記載の情報処理装置。
  17. 前記領域情報は、前記面の数に従ってループを回すことで前記面領域がシグナルされる
    請求項12に記載の情報処理装置。
  18. 前記領域情報には、シグナルされた領域をカバーするか、シグナルされた領域以外をカバーするかを示すフラグが含まれる
    請求項12に記載の情報処理装置。
  19. コンテンツのカバレッジ情報に基づいて、多面体の前記カバレッジ情報に対応する面ごとに各面の中心方向と水平方向および垂直方向の角度幅をシグナルし、前記シグナルを用いて球面上に形成される面領域を、前記カバレッジ情報に対応する面の数に応じてシグナルすることで球面上の領域を表現する領域情報を取得するステップと、
    取得された前記領域情報を解析して前記球面上の領域に関連する処理を行うステップと
    を含む情報処理をコンピュータに実行させるプログラム。
JP2019507591A 2017-03-24 2018-03-14 情報処理装置およびプログラム Active JP7243620B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017060221 2017-03-24
JP2017060221 2017-03-24
PCT/JP2018/009913 WO2018173875A1 (ja) 2017-03-24 2018-03-14 情報処理装置および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2018173875A1 JPWO2018173875A1 (ja) 2020-02-20
JP7243620B2 true JP7243620B2 (ja) 2023-03-22

Family

ID=63586527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019507591A Active JP7243620B2 (ja) 2017-03-24 2018-03-14 情報処理装置およびプログラム

Country Status (10)

Country Link
US (1) US20190394445A1 (ja)
EP (1) EP3606085A4 (ja)
JP (1) JP7243620B2 (ja)
KR (1) KR20190129865A (ja)
CN (1) CN110476436A (ja)
AU (1) AU2018238632A1 (ja)
BR (1) BR112019019311A2 (ja)
CA (1) CA3056739A1 (ja)
RU (1) RU2019129256A (ja)
WO (1) WO2018173875A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020071111A1 (ja) * 2018-10-02 2020-04-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
WO2021194483A1 (en) * 2020-03-25 2021-09-30 Alcacruz Inc. Generating a representation of a spherical image
US11888913B2 (en) 2021-04-28 2024-01-30 Lemon Inc. External stream representation properties

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133798A (ja) 2007-12-03 2009-06-18 Furuno Electric Co Ltd 位置検出方法および位置検出装置
WO2015060165A1 (ja) 2013-10-22 2015-04-30 シャープ株式会社 表示処理装置、配信装置、および、メタデータ
JP2016509418A (ja) 2013-01-18 2016-03-24 キヤノン株式会社 分割された時分割メディアデータをカプセル化するための方法、デバイス、およびコンピュータプログラム
JP2019525675A (ja) 2016-08-25 2019-09-05 エルジー エレクトロニクス インコーポレイティド 全方位ビデオを伝送する方法、全方位ビデオを受信する方法、全方位ビデオの伝送装置及び全方位ビデオの受信装置
JP2020501389A (ja) 2016-11-17 2020-01-16 インテル コーポレイション パノラマビデオのための提案されるビューポート指示

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
JP2004272590A (ja) * 2003-03-07 2004-09-30 Sony Corp データ符号化装置及びデータ符号化方法、並びにコンピュータ・プログラム
JP4945578B2 (ja) * 2007-01-04 2012-06-06 肇 鳴川 情報処理方法
JP6344723B2 (ja) * 2015-07-14 2018-06-20 パナソニックIpマネジメント株式会社 映像表示システム、映像表示装置及び映像表示方法
WO2017142353A1 (ko) * 2016-02-17 2017-08-24 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
KR102506480B1 (ko) * 2016-06-14 2023-03-07 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
CN205793093U (zh) * 2016-07-12 2016-12-07 冯心斌 一种带夹子的机顶盒
KR102498598B1 (ko) * 2016-10-18 2023-02-14 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009133798A (ja) 2007-12-03 2009-06-18 Furuno Electric Co Ltd 位置検出方法および位置検出装置
JP2016509418A (ja) 2013-01-18 2016-03-24 キヤノン株式会社 分割された時分割メディアデータをカプセル化するための方法、デバイス、およびコンピュータプログラム
WO2015060165A1 (ja) 2013-10-22 2015-04-30 シャープ株式会社 表示処理装置、配信装置、および、メタデータ
JP2019525675A (ja) 2016-08-25 2019-09-05 エルジー エレクトロニクス インコーポレイティド 全方位ビデオを伝送する方法、全方位ビデオを受信する方法、全方位ビデオの伝送装置及び全方位ビデオの受信装置
JP2020501389A (ja) 2016-11-17 2020-01-16 インテル コーポレイション パノラマビデオのための提案されるビューポート指示

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
「DB2 for Linux, Unix, and Windows Spatial ExtenderおよびGeodetic Data Management Feature ユーザーズ・ガイドおよびリファレンス 2012年7月更新版 バージョン9 リリース7」,SC88-5900-02,日本,日本アイ・ビー・エム株式会社,2012年05月,第141~146頁.
Jill Boyce, et al.,"HEVC Additional Supplemental Enhancement Information (Draft 1)",Document: JCTVC-Z1005, [online],JCTVC-Z1005 (version 1),Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2017年02月04日,Pages 1-19,[平成30年4月10日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/documents/26_Geneva/wg11/JCTVC-Z1005-v1.zip>.
Jill Boyce, et al.,"Spherical viewport SEI for HEVC and AVC 360 video",Document: JCTVC-Z0034, [online],JCTVC-Z0034 (version 3),Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2017年01月13日,Pages 1-5,[令和4年4月1日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/current_document.php?id=10651> and <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/documents/26_Geneva/wg11/JCTVC-Z0034-v3.zip>.
Jill Boyce,"Omnidirectional recommended viewport SEI Message",Document: JCTVC-AA0036, [online],JCTVC-AA0036 (version 1),Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2017年03月22日,Pages 1-3,[令和4年4月1日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/current_document.php?id=10712> and <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/documents/27_Hobart/wg11/JCTVC-AA0036-v1.zip>.
Sejin Oh, et al.,"SEI message for signaling of 360-degree video information",Document: JCTVC-Z0026, [online],JCTVC-Z0026 (version 3),Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2017年01月18日,Pages 1-6,[平成30年4月10日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jct/doc_end_user/documents/26_Geneva/wg11/JCTVC-Z0026-v3.zip>.
株式会社構造システム編,「こんなに簡単!DRA-CAD12 3次元編 -モデリング/レンダリングから日影図/天空図まで-」,初版,日本,株式会社構造システム,2014年04月,第39頁,ISBN: 978-4-87735-055-0.

Also Published As

Publication number Publication date
EP3606085A1 (en) 2020-02-05
AU2018238632A1 (en) 2019-10-10
RU2019129256A3 (ja) 2021-03-17
CA3056739A1 (en) 2018-09-27
KR20190129865A (ko) 2019-11-20
EP3606085A4 (en) 2020-02-05
BR112019019311A2 (pt) 2020-04-14
JPWO2018173875A1 (ja) 2020-02-20
CN110476436A (zh) 2019-11-19
RU2019129256A (ru) 2021-03-17
WO2018173875A1 (ja) 2018-09-27
US20190394445A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
JP7218826B2 (ja) 再生装置および画像生成方法
US10909761B1 (en) 2D video with option for projected viewing in modeled 3D space
JP7151486B2 (ja) 生成装置、生成方法、再生装置および再生方法
US11115644B2 (en) Video generation method and apparatus using mesh and texture data
JP2019516297A (ja) ビューを意識した360度ビデオストリーミング
US20200329266A1 (en) Information processing apparatus, method for processing information, and storage medium
KR20190008901A (ko) 가상 현실 미디어 콘텐트의 스트리밍을 개선하는 방법, 디바이스, 및 컴퓨터 프로그램
JP7243620B2 (ja) 情報処理装置およびプログラム
JP6860485B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20180176650A1 (en) Information processing apparatus and information processing method
WO2017195881A1 (ja) ファイル生成装置およびファイル生成方法、並びに、再生装置および再生方法
JP7035401B2 (ja) 画像処理装置およびファイル生成装置
TW201921918A (zh) 影像處理裝置及檔案生成裝置
KR102656191B1 (ko) 360 비디오 환경에서 포인트 클라우드 콘텐트 액세스 및 전달을 위한 방법 및 장치
KR102413098B1 (ko) 영상 처리 방법 및 이를 이용한 영상 재생 장치
JP7239029B2 (ja) 画像処理装置およびファイル生成装置
JP2022036123A (ja) 自由視点映像のリプレイ映像を再生するシステムおよび方法

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20190805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151