JP2019514313A - レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム - Google Patents

レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム Download PDF

Info

Publication number
JP2019514313A
JP2019514313A JP2019500729A JP2019500729A JP2019514313A JP 2019514313 A JP2019514313 A JP 2019514313A JP 2019500729 A JP2019500729 A JP 2019500729A JP 2019500729 A JP2019500729 A JP 2019500729A JP 2019514313 A JP2019514313 A JP 2019514313A
Authority
JP
Japan
Prior art keywords
video
stream
immersive
syntax element
mapping surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019500729A
Other languages
English (en)
Other versions
JP7177034B2 (ja
JP2019514313A5 (ja
Inventor
ドール,ルノー
フルーロー,ジュリアン
タピエ,ティエリー
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド, インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2019514313A publication Critical patent/JP2019514313A/ja
Publication of JP2019514313A5 publication Critical patent/JP2019514313A5/ja
Application granted granted Critical
Publication of JP7177034B2 publication Critical patent/JP7177034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/073Transforming surfaces of revolution to planar images, e.g. cylindrical surfaces to planar images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • H04N21/2358Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages for generating different versions, e.g. for different recipient devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

本開示は、下位互換没入型ビデオストリームをフォーマットするための方法、装置、又はシステムに関する。少なくとも1つのレガシー矩形ビデオが、ソースから得られた没入型ビデオから捕捉される(82)。カメラ制御データ群が使用されて、没入型ビデオのどの部分がレガシービデオを構成するかを特定する(84)。これらの部分は没入型ビデオから取り除かれ(83)、個々の作成されたビデオがストリーム内にパッケージされる(85)。ストリームからの構造はコンテナである。取り除かれた部分の場所及びサイズに関する情報データがストリームに追加されてもよい。

Description

1.技術分野
本開示は、没入型ビデオを表す下位互換ストリームを、例えばこのようなストリームが異種クライアントデバイスの集合に配信される場合にフォーマットする分野に関し、クライアントデバイスの幾つかはレガシー矩形ビデオを表示するように構成され、また別の幾つかは没入型ビデオを表示するように構成される。
2.背景
没入型ビデオは、これらがユーザの周囲に表示され、その正面の長方形のスクリーン上に投影されるのではないという点でレガシービデオとは異なる。幾つかのデバイスは、レガシービデオだけをレンダリングするように構成され(例えば、テレビ、ビデオプロジェクタ)、幾つかは没入型ビデオだけをレンダリングするように構成され(例えば、CAVE、Geode)、また幾つかはそれらが含むデコーダに応じて両方のタイプのビデオをレンダリングしてもよい(例えば、頭部装着型表示デバイス(HMD)、タブレット、スマートフォン)。本書では、没入型ビデオをレンダリングするように構成され、そのようになされたデコーダを含むデバイスを没入型ビデオレンダリングデバイスと呼び、没入型ビデオをレンダリングするように構成されていないか、そのようになされたデコーダを含まないものをレガシービデオレンダリングデバイスと呼ぶ。
ビデオは少なくとも1つの画像のシーケンスである。実際、画像は静止ビデオと考えることができる。ビデオはピクセル(すなわち、色情報の要素)の2次元配列である長方形のフレーム上で符号化される。レンダリングされるには、フレームはまずマッピング面上にマッピングされ、次にスクリーン上に投影される。ステレオビデオは、1つ又は2つの長方形のフレーム上で符号化され、2つのマッピング面上でマッピングされ、これらが合成されてデバイスの特性に応じて投影される。
レガシービデオレンダリングデバイスの場合、マッピング面とスクリーンは平坦な長方形である。それに対応するマッピング機能及び投影機能も直線的である。マッピング面はフレームと等価である。スクリーンは、定義及びレンダリングデバイスの解像度に応じてマッピング面の長方形の部分に対応する。
没入型ビデオレンダリングデバイスの場合、マッピング面は3次元の凸面(例えば、球、立方体、角錐(切頭か否かを問わない)である。マッピング機能は、フレームの各ピクセルをマッピング面上の1点に関連付ける(及びその逆)。投影機能は、レンダリングデバイスのスクリーンに依存する。スクリーンが3次元凸面(例えば、CAVE、Geode)である場合、投影はマッピング面から直線的である。スクリーンが長方形であれば(例えば、HMD、タブレット、スマートフォン)、スクリーンのサイズに応じて、及び仮想カメラのパラメータ(少なくともマッピング面に関する3次元位置、目標方向、及び視野を含む)に応じて、スクリーンの一部のみが表示される。このような没入型ビデオレンダリングデバイスは、仮想カメラコントローラ(例えば、内部測定ユニット、位置決めシステム、マウス、ジョイスティック)を備える。
ビデオストリームは、ビデオをその上にレンダリングしようとするレンダリングデバイスのタイプに応じて作成され、フォーマットされる。レガシービデオレンダリングデバイスは没入型ビデオを適正に表示せず、これは、それらを3次元凸状マッピング面にマッピングするように構成されていないからである。その逆に、没入型ビデオプレイヤはレガシービデオを適正に表示しない。レガシー及び没入型ビデオレンダリングデバイスのどちらによっても適正に表示できる下位互換没入型ビデオストリームのためのフォーマットはない。
3.概要
本開示の目的は、レガシー及び没入型ビデオレンダリングデバイスのどちらによっても適正に表示できる下位互換没入型ビデオストリームのためのフォーマットの欠如を克服することである。本開示は、没入型ビデオからストリームを生成する方法に関し、この方法は、
− 各々が没入型ビデオの一部を表す少なくとも1つの第一のビデオを生成することと、
− 前記少なくとも1つの部分が取り除かれている没入型ビデオから第二のビデオを生成することと、
− 少なくとも1つの第一のビデオに関する第一のシンタックス要素と前記第二のビデオに関する第二のシンタックス要素を組み合わせることによってストリームを生成することと、
を含む。
特定の特性によれば、第三のシンタックス要素が前記ストリームの中に追加され、前記第三のシンタックス要素は前記少なくとも1つの部分の説明を表す情報データに関する。具体的な特性によれば、前記情報データは時間と共に変化する。
本開示はまた、没入型ビデオからストリームを生成するように構成されたデバイスに関し、このデバイスは、
− 各々が没入型ビデオの一部を表す少なくとも1つの第一のビデオを生成するビデオ生成器と、
− 前記少なくとも1つの部分が取り除かれている没入型ビデオから第二のビデオを生成するビデオ生成器と、
− 少なくとも1つの第一のビデオに関する第一のシンタックス要素と前記第二のビデオに関する第二のシンタックス要素を組み合わせることによってストリームを生成するストーム生成器と、
を含む。
本開示はまた、没入型デバイスからストリームを生成するように構成されたデバイスに関し、このデバイスは、
− 各々が没入型ビデオの一部を表す少なくとも1つの第一のビデオを生成し、
− 前記少なくとも1つの部分が取り除かれている没入型ビデオから第二のビデオを生成することと、
− 少なくとも1つの第一のビデオに関する第一のシンタックス要素と前記第二のビデオに関する第二のシンタックス要素を組み合わせることによってストリームを生成することと、
を行うように構成された少なくとも1つのプロセッサを含む。
本開示はまた、没入型ビデオを表すデータを搬送するストリームに関し、このデータは、
− 少なくとも1つの第一のビデオに関する第一のシンタックス要素であって、前記少なくとも1つの第一のビデオの各々は没入型ビデオの一部を表す第一のシンタックス要素と、
− 前記少なくとも1つの部分が取り除かれている没入型ビデオから生成された第二のビデオに関する第二のシンタックス要素と、
を含む。
具体的な特性によれば、前記少なくとも1つの部分の記述を表す情報データに関する第三のシンタックス要素がストリームに追加される。有利な点として、前記情報データは時間と共に変化する。
本開示はまた、没入型ビデオを表すデータを搬送するストリームからレンダリングデバイスのためのビデオを構成する方法に関し、この方法は、
− デバイスがレガシービデオレンダリングデバイスである場合、
・ストリームの、少なくとも1つの第一のビデオに関する第一のシンタックス要素からビデオを取得することであって、前記少なくとも1つの第一のビデオの各々は没入型ビデオの一部を表すような、取得することと、
− デバイスが没入型ビデオレンダリングデバイスである場合、
・ストリームの第一のシンタックス要素から少なくとも1つの第一のビデオを取得することであって、前記少なくとも1つの第一のビデオは没入型ビデオの一部を表すような、取得することと、
・ストリームの第二のシンタックス要素から第二のビデオを取得することであって、前記第二のビデオは、各々の前記少なくとも1つの部分が取り除かれている没入型ビデオを表すような、取得することと、
・前記少なくとも1つの第一のビデオの各々を第二のビデオに重畳することによってビデオを構成することと、
を含む。
特定の特性によれば、前記ストリームは、前記少なくとも1つの部分の記述を表す情報データに関する第三のシンタックス要素をさらに含む。デバイスが没入型ビデオレンダリングデバイスである場合、ビデオを構成することは、第二のビデオに重畳するための前記第一のビデオに関連する部分の記述に応じて各第一のビデオをサイズ変更すること及び変換することを含む。
本開示はまた、レンダリングデバイスのために、没入型ビデオを表すデータを搬送するストリームからビデオを構成するように構成されたデバイスに関し、このデバイスは、
− デバイスがレガシービデオレンダリングデバイスである場合、
・ストリームの、少なくとも1つの第一のビデオに関する第一のシンタックス要素からビデオを取得する手段であって、前記少なくとも1つの第一のビデオの各々は没入型ビデオの一部を表すような手段と、
− デバイスが没入型ビデオレンダリングデバイスである場合、
・ストリームの第一のシンタックス要素から少なくとも1つの第一のビデオを取得する手段であって、前記少なくとも1つの第一のビデオは没入型ビデオの一部を表すような手段と、
・ストリームの第二のシンタックス要素から第二のビデオを取得する手段であって、前記第二のビデオは、各々の前記少なくとも1つの部分が取り除かれている没入型ビデオを表すような手段と、
・前記少なくとも1つの第一のビデオの各々を第二のビデオに重畳することによってビデオを構成する手段と、
を含む。
4.図面の一覧
以下の説明を読むことにより、本開示はよりよく理解され、その他の具体的な特徴と利点が明らかになるが、この説明は下記のような添付の図面に関して行われる。
本発明の原理の具体的な実施形態による、2次元マッピング面上にマッピングされたレガシービデオのレンダリングの一例を示す。 本発明の原理の具体的な実施形態による、球状のマッピング面のために作成された没入型ビデオのレンダリングの一例を示し、マッピング面は図1の2次元マッピング面に対して3次元である。 本発明の原理の具体的な実施形態による、図2と同様の没入型ビデオのレンダリングの一例を示し、没入型ビデオは、図3においては立方体のマッピング面のために作成されている。 本発明の原理の具体的な実施形態による、図2と同様の球状のマッピング面のために作成された没入型ビデオからのレガシービデオの捕捉の一例を示す。 本発明の原理の具体的な実施形態による、図3と同様の立方体のマッピング面のための作成された没入型ビデオからのレガシービデオの捕捉の一例を示す。 本発明の原理の具体的な実施形態による、図2の没入型ビデオ及び捕捉された2つのレガシービデオの一例と、前記2つのレガシービデオのために使用された2つの部分が取り除かれている没入型ビデオの一例を示す。 本発明の原理の具体的な実施形態による、図8又は9に関して説明される方法を実行するように構成された装置のハードウェアの実施例を示す。 非限定的で有利な実施形態によるデバイス等の処理デバイスにおいて実装される、図6及び10の下位互換没入型ビデオストリームを生成する方法のある実施形態を概略的に示す。 非限定的で有利な実施形態によるデバイス70等の処理デバイスにおいて実装される下位互換没入型ビデオストリームからビデオを構成する方法のある実施形態を概略的に示す。 本発明の原理の具体的な実施形態による、図6の下位互換没入型ビデオストリームの例示的な構成を示す。
5.実施形態の詳細な説明
ここで、図面を参照しながら主旨を説明するが、図中、全体を通じて同様の参照番号は同様の要素を指すために使用される。以下の説明において、説明を目的として、主旨を完全に理解できるようにするために、多数の具体的な詳細事項が示されている。当然のことながら、主旨の実施形態はこれらの具体的な詳細事項がなくても実施できる。
本開示の非限定的な実施形態によれば、没入型ビデオを表す下位互換ビデオストリームを生成するための方法とデバイスが記載されている。このようなストリームのフォーマットも記載されている。本開示の他の非限定的な実施形態によれば、このようなストリームを受信したときにビデオをレンダリングできるレンダリングデバイスと、ストリームのフォーマットに応じてレンダリングされるべきビデオを構成するためにデバイスが使用する方法とが提示される。
本開示は、没入型ビデオの少なくとも1つの部分を捕捉することを提案する。この少なくとも1つの部分は、ストリームに2回含められることがないように、没入型ビデオから取り除かれる。この少なくとも1つの部分はさらに、レガシービデオレンダリングデバイスによりレンダリングされるようになされたレガシービデオを構成するように作成される。一方で前記少なくとも1つの部分を含まない没入型ビデオと、他方で少なくとも1つの作成されたレガシービデオは、ストリーム内に共にパッケージされる。レンダリングデバイス側では、デバイスがレガシービデオレンダリングデバイスである場合、少なくとも1つの作成されたレガシービデオのうちの1つがパッケージから外されて、レンダリングされるべきビデオとして使用され、デバイスが没入型ビデオレンダリングデバイスである場合、パッケージされた各ビデオが使用される。没入型ビデオはパッケージから外され、少なくとも1つの作成されたレガシービデオの各々は、それが切り取られている部分に再びマッピングされる。
図1は、レガシービデオのレンダリングの一例を示す。画像のシーケンスは、平坦な長方形のマッピング面11上にマッピングされる予定の長方形のフレーム10上で符号化される。マッピング機能12は直線的であり、フレーム10及びマッピング面11は等価である。スクリーン13はマッピング面11と同じ解像度及び/又は定義を持たなくてもよい。その結果、投影機能14は、マッピング面11側でサイズ変更し、及び/又は黒いバーをクロップ又は表示してもよい。図1では、フレーム10とマッピング面11のアスペクト比は4:3であり、スクリーンのアスペクト比は16:9である。この例において、投影機能14は画像の中央でクロッピングを行い、スクリーン13に適合するビデオを生成する。変形型では、投影機能14は黒いバーをマッピング面11の左右に追加して、スクリーン13に適合するビデオを得る。他の実施形態において、図1のビデオはステレオである。このような変形型では、フレーム10は2つの異なる画像を含み、これらは2つの異なるマッピング面11にマッピングされる。マッピング面は、スクリーンのタイプに応じて組み合わせられ、ステレオ効果を生じさせる。
図2は、球状のマッピング面のために作成された没入型ビデオのレンダリングの一例を示す。画像のシーケンスは球状のマッピング面21上にマッピングされる予定の長方形のフレーム20上で符号化される。マッピング機能22は、フレーム20の各ピクセルとマッピング面21上の1点との間(及びその逆)のマッピングを確立する。図2では、マッピング機能22はエクイレクタンギュラ投影(正距円筒図法とも呼ばれる)に基づく。フレーム20上の画像は歪められる。距離は赤道ではそのままとされ、両極では引き伸ばされる。直線はまっすぐでなくなり、透視図は歪められる。変形型では、マッピング機能22は例えば正距円錐投影法に基づく。スクリーン23が、頭部装着型表示デバイス(HMD)又はタブレットもしくはスマートフォンのように長方形である場合、マッピング面21の一部が選択される。投影機能24は、球の中心に置かれたカメラから見たマッピング面21の一部を選択することからなり、カメラは視野と解像度の点で、スクリーン23に直接適合する画像を生成するために構成される。選択される視野は表示デバイスの特性に依存する。HMDの場合、有利な点として、視野の角度は人の立体視野に近く、これは約120度である。カメラの目標方向は、ユーザが見る方向に対応し、没入型ビデオレンダリングデバイスの仮想カメラコントローラを使ってカメラの目標方向が変更される。変形型において、図2のビデオはステレオである。このような変形型の場合、フレーム20は2つの異なる画像を含み、これらは2つの異なるマッピング面21にマッピングされる。マッピング面は、スクリーンのタイプに応じて組み合わせられ、ステレオ効果を生じさせる。
凸状マッピング面の中心に設置されたカメラでビデオを取得すると、この凸状マッピング面の中心における視点から捕捉されたビデオが生成される。図2において、球は凸状マッピング面であり、仮想カメラはビデオが捕捉されるこの凸状マッピング面の中心の視点を構成する。
図3は、立方体のマッピング面のために作成された没入型ビデオのレンダリングの一例を示す。画像のシーケンスは、立方体のマッピング面31上でマッピングされる予定の長方形の(又は正方形の)フレーム30上で符号化される。マッピング機能32は、フレーム30内の正方形と立方体31の面との間の対応を確立させる。その逆に、マッピング機能は、立方体31の面がフレーム30の表面の中でどのように整理されるかを特定する。各面上の画像は歪められない。しかしながら、フレーム30の全体の画像の中で、線はピースごとにまっすぐであり、透視図は分解される。画像は空の正方形(デフォルト又はランダムな色情報、例えば図3の例では白で満たされる)を含んでいてもよい。投影機能は、図2の投影機能として作用する。カメラは立方体31の中心に置かれ、レンダリングデバイスのスクリーンに適合する画像を捕捉する。
変形型において、他のマッピング面及び/又はマッピング機能が使用され、例えば、ビデオフレームが円筒の上又は角錐の上にマッピングされる。
図2及び3に示される没入型ビデオのフレーム20及び30は、図1の平坦な長方形のマッピング面12にマッピングされる予定ではない。没入型ビデオがレガシービデオレンダリングデバイスに供給されると、スクリーン上の画像は歪められるか、ピースごとに表示され、人の視野より大きい視覚的内容に対応する。反対に、レガシービデオが没入型ビデオレンダリングデバイスに供給されると、マッピング機能は歪められた画像を生成する。
それに加えて、レガシービデオの映画文法は没入型ビデオの映画文法とは異なる。例えば、シナリオに2つのキャラクタ間の会話が含まれる場合、没入型ビデオは長い静止したシーケンスショットを表示してもよく、視聴者は自分の顔を一方のキャラクタと他方のキャラクタに交互に向けることによってある程度のダイナミズムを作り出す。レガシービデオはむしろ、キャラクタの一方及び他方へのタイトショットとワイドショットとを交互に表示して、視聴者がスクリーンの前で受動状態でいながら、シーン内にある程度のダイナミズムを導入する。しかしながら、このようなフィルム編集は没入型ビデオには推奨されず、それは、頻繁なカットによって視聴者は方向感覚を失い、さらには具合が悪くなる可能性があるからである。レガシービデオはズーム効果を含んでいてもよく、その一方で、没入型ビデオにおけるズーム効果は不快なベクション効果(すなわち、側方視野の歪みによる自己運動感覚)を誘起する。
本発明の原理は、そのために没入型ビデオが作成されたマッピング面の中心に仮想カメラを置くことによって没入型ビデオからレガシービデオを捕捉することを提案する。カメラに関するパラメータを記述するカメラ制御データが得られる。これらのデータには少なくとも、フラスタム(視錐台)(水平及び垂直視野又は視野角)の目標方向、向き、及びサイズが含まれる。カメラ制御データは、没入型ビデオからレガシービデオを捕捉する仮想カメラを制御するために使用される。これらのデータは、フィルムディレクタによる手作業の編集により得られる。他の実施形態において、カメラ制御データは、没入型ビデオにおける関心対象領域の検出アルゴリズムにより自動的に編集される。このようなアルゴリズムは、例えばビデオの画像の顕著性の分析に基づくか、又は他の例として、HMDで没入型ビデオを見ている時の視聴者の頭の動きに関する統計に基づく。
図3において、立方体は凸状マッピング面であり、仮想カメラは、ビデオが捕捉されるこの凸状マッピング面の視点を構成する。
図4は、球状のマッピング面のために作成された没入型ビデオからのレガシービデオの捕捉の一例を示す。仮想カメラは(図2に示されるように)球状のマッピング面21の中心40に置かれる。カメラ制御データは、カメラを目標方向41に向け、カメラの参照フレームを向き42aまで傾けるために使用される。カメラのフラスタムと球状のマッピング面との交差部分により画定される没入型ビデオの部分23aは、平坦でなく(すなわち、これは球の一部である)、長方形でもない(すなわち、その部分の縁は湾曲している)。レガシービデオとして符号化されるために、部分23aの視覚的内容は、平坦な長方形のマッピング面上に歪めずにマッピングできるように修正される。カメラ制御データから得られるカメラの水平及び垂直視野角は、カメラのフラスタムのサイズ及び、その結果、部分23aのサイズを決定する。視野角パラメータの値は、レガシーカメラのための通常の値に従わなければならない。ワイドショットは、約60度の水平視野角で得られる。60度を超えると、広角歪み効果が現れる。より狭い角度はズームインに対応する。値が小さいと、カメラはその最大解像度で没入型ビデオを捕捉しているため、解像度の問題が生じる可能性がある。その結果、カメラ制御データの編集は慎重に行わなければならない。
カメラ制御データは、時間と共に変化してもよい。パラメータの値が突然変化することは、レガシービデオの編集におけるカットに対応する。連続的な変化は、カメラの効果に対応する。例えば、カメラの目標方向の連続的な変化は、没入型ビデオの背景が同じ方向に同じ速度で回転しなければ、パンニングに対応し得る。レガシーカメラの目標方向のこのような連続的な変化はまた、没入型ビデオにおけるパンニングを補償するため、及び、したがって、静止ショットを捕捉するために使用されてもよい。その他のカメラ制御データは時間と共に変化してもよい。図4に示されるように、視野角が縮小されて、部分23aが部分23bにサイズ変更されてもよい。この効果は、ズームインに対応してもよい。フラスタムの向きはまた、方向42aか方向42bに変更してもよく、例えばカメラを左に傾ける。
図5は、立方体のマッピング面のために作成された没入型ビデオからのレガシービデオの捕捉の一例を示す。カメラは(図3に示されるように)立方体32の中心50に置かれ、カメラ制御データにしたがってこの視点からレガシービデオを捕捉する。捕捉されたレガシービデオはマッピング面の一部であり、立方体のある面より小さくても大きくてもよく、及び/又は立方体の幾つかの面に分散されてもよい。変形型において、図5に示されるように、立方体は、レガシービデオのフレーム53aを立方体のある面に適合させるために、目標方向パラメータ51aに応じて向きが変更され、フラスタムのサイズのパラメータに応じてサイズが変更される。向きのパラメータは立方体の傾きを制御する。フレーム53aが長方形である場合、マッピング面は立方六面体(parallelepipoid)とされる。この操作は、面のサイズ変更によってマッピング面の面積とマッピング機能が変化し、したがってフレーム中の符号化された画像の解像度が変化するため、解像度管理の条件となる。
カメラ制御データは、時間と共に突然又は連続的に変化してもよい。図5は、目標方向が値51aから値51bに変化し、フラスタムのサイズが値53aから値53bに変わる例を示している。この例では、マッピング面の裏面は目標方向53bに垂直となるように向きが変更される。フラスタムのサイズが小さくなると(これは、ズームイン効果に対応する)、前面の大きさ及び、その結果、側面の形状が変化する。マッピング面54は切頭角錐となり、マッピング機能(すなわち、ピクセルが没入型ビデオのフレーム内で整理される方法)が変化する。
マッピング面のこのような変形の利点は、没入型ビデオからレガシービデオのために捕捉される部分を取り除きやすくなることである。このような技術によって、没入型ビデオのフレームの中で、色情報を符号化するために必要な面積を最小化できる。他の利点は、マッピング面の、レガシービデオのために使用される面がすでに平坦な長方形であることである(すなわち、ピースごとの部分の合成が不要である)。
図6は、没入型ビデオ60から捕捉された2つのレガシービデオ61及び63の例と、前記2つのレガシービデオに使用される2つの部分が取り除かれているこの没入型ビデオの例を示している。図6の例では、没入型ビデオは、図2に示されているような球形のマッピング面のために作成される。第一のレガシービデオ61(第一のビデオとも呼ばれる)はマッピング球面の中心に置かれ、没入型ビデオ60の部分62の方向を狙うカメラにより捕捉される。捕捉された部分62は、レガシービデオ61を構成するために修正され、没入型ビデオ60から取り除かれる。図6の例では、取り除くことは、デフォルトの色でこの部分の領域を塗りつぶすという形をとる。これは、フレーム60の圧縮バージョンを軽くするという利点を有する。
没入型ビデオから一部を取り除くことは、そのために没入型ビデオが作成されたマッピング面に応じて異なる形態をとってもよい。例えば平行立方体(parallelepipoid)のマッピング面のために作成された没入型ビデオの場合、取り除くことは、没入型ビデオのフレームの面積を最適化する(例えば、できるだけ小さくする)ためにマッピング機能を変更する形をとってもよい。図5に示されるように、マッピング面の形状が変更されてもよい。その結果、マッピング機能が変化し、フレームのサイズは新しいマッピング機能に対応するようになされる。
1つの没入型ビデオから、異なるカメラ制御データのいくつかのレガシービデオ(すなわち、第一のビデオ)を捕捉することが可能である。図6では、第二のレガシービデオ63が、球の中心に置かれ、異なるカメラ制御データにより方向付けられるレガシーカメラから捕捉される。捕捉された部分64は、レガシービデオ63を構成するために修正され、没入型ビデオ60から取り除かれる。球形のマッピング面の場合、捕捉された部分のフレームへの投影は長方形ではない。
図7は、図8又は9に関して説明する方法を実行するように構成された装置70のハードウェアでの実施形態を示す。この例では、デバイス70は以下の要素:
− 例えばDSP(すなわち、デジタル信号プロセッサ)であるマイクロプロセッサ72(又はCPU)、
− ROM(リードオンリメモリ)タイプの不揮発性メモリ73、
− ランダムアクセスメモリ、すなわちRAM(74)、
− アプリケーションから、送信するデータを受けるためのI/Oインタフェース75、
− ランダムアクセスメモリのレジスタを埋め込んでもよいグラフィックカード76、
− 電源77
を含み、これらはクロック信号も輸送するアドレス及びデータのバス71により相互に接続される。
ある例によれば、電源77はデバイスの外部にある。記載されているメモリの各々において、明細書中で使用される「レジスタ」という単語は小さい容量(数ビット)の領域に、又は非常に大きい領域(例えば、ブログラム全体又は、大量の受信もしくは復号データ)に対応してもよい。ROM 73は、少なくともプログラムとパラメータを含む。ROM 73は、本発明の原理による手法を実行するためのアルゴリズムと命令を記憶していてもよい。スイッチが投入されると、CPU 72はRAM内のプログラムをアップロードし、対応する命令を実行する。
RAM 74は、レジスタの中に、CPU 72により実行され、デバイス70のスイッチ投入後にアップロードされるプログラム、レジスタ内の入力データ、レジスタ内の、方法の異なる状態の中間データ、及びレジスタ内の、方法の実行に使用されるその他の可変数を含む。
本明細書に記載の実施例は、例えば方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は信号で実装されてもよい。1つの形態の実装に関してしか論じられていない場合でも(例えば、方法又はデバイスとしてのみ論じられる)、論じられている特徴の実施例はまた、他の形態(例えば、プログラム)で実装されてもよい。装置は、例えば適当なハードウェア、ソフトウェア、及びファームウェアで実装されてもよい。方法は例えば、例えばプロセッサ等の装置で実装されてもよく、これは処理デバイス全般を指し、これには例えばコンピュータ、マイクロプロセッサ、集積回路、又はプログラマブルロジックデバイスが含まれる。プロセッサはまた、例えばコンピュータ、携帯電話、ポータブル/携帯情報端末(PDA)、セットトップボックス及び、エンドユーザ間の情報の通信を容易にするその他のデバイス等の通信デバイスも含む。
図8に示されるような、下位互換没入型ビデオストリームの生成の一例によれば、没入型ビデオとカメラ制御データはソースから得られる。例えば、ソースは以下:
− ローカルメモリ(73、74、又は76)、例えば、ビデオメモリ又はRAM(すなわち、ランダムアクセスメモリ)、フラッシュメモリ、ROM(すなわち、リードオンリメモリ)、ハードディスク、
− ストレージインタフェース(75)、例えば、マスストレージ、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートとのインタフェース、及び
− 通信インタフェース(75)、例えば、ワイヤラインインタフェース(例えば、バスインタフェース、ワイドエリアネットワークインタフェース、ローカルエリアネットワークインタフェース)、又はワイヤレスインタフェース(IEEE 802.11インタフェース又はBluetooth(登録商標)インタフェース)
からなる群に属する。
1つの特定の実施形態によれば、下位互換没入型ビデオストリームを生成する方法のステップを実行する、図9において以下に説明されるアルゴリズムが、これらのステップを実行するデバイス70に関連するグラフィックカード76のメモリGRAMに記憶される。変形型によれば、RAM(74)の一部はCPU(72)によってアルゴリズムの記憶用として指定される。これらのステップは、ビデオストリームの生成につながり、これは、例えばビデオメモリ(74)、RAM(74)、ROM(73)、フラッシュメモリ(73)又はハードディスク(73)等のローカルメモリ、例えばマスストレージ、RAM、ROM、フラッシュメモリ、光ディスク、又は磁気サポートとのインタフェース等のストレージインタフェース(75)を含む群に属する宛先に送信され、及び/又は例えばポイントトゥーポイントリンク、バス、ポイントトゥーマルチポイントリンク、又は放送ネットワークへのインタフェース等の通信インタフェース(75)から受信される。
例によれば、図8に関して説明される下位互換没入型ビデオストリームを生成する方法を実行するように構成されたデバイス70は以下:
− モバイルデバイス、
− 通信デバイス、
− ゲーム機、
− タブレット(又はタブレットコンピュータ)、
− ラップトップ、
− 符号化チップ、
− 静止画サーバ、
− ビデオサーバ(例えば、放送サーバ、ビデオオンデマンドサーバ、又はウェブサーバ)
を含む群に属する。
下位互換没入型ビデオストリームからのビデオの構成の一例によれば、下位互換没入型ビデオを表すストリームはソースから得られる。例示的に、ストリームは、例えばビデオメモリ(74)、RAM(74)、ROM(73)、フラッシュメモリ(73)又はハードディスク(73)等のローカルメモリから読み出される。変形型によれば、ストリームは、例えばマスストレージ、RAM、ROM、フラッシュメモリ、光ディスク、又は磁気サポートとのインタフェース等のストレージインタフェース(75)から受信され、及び/又は、例えばポイントトゥーポイントリンク、バス、ポイントトゥーマルチポイントリンク、又は放送ネットワークへのインタフェース等の通信インタフェース(75)から受信される。
1つの特定の実施形態によれば、レンダリングデバイスのために下位互換没入型ビデオストリームからビデオを構成する方法のステップを実行する、図9において以下に説明されるアルゴリズムは、これらのステップを実行するデバイス70に関連するグラフィックカード76のメモリGRAMに記憶される。変形型によれは、RAM(74)の一部は、CPU(72)によってアルゴリズムの記憶用として指定される。これらのステップは、ビデオストリームの構成につながり、これは、以下:
− モバイルデバイス、
− 通信デバイス、
− ゲーム機、
− セットトップボックス、
− TVセット
− タブレット(又はタブレットコンピュータ)、
− ラップトップ、
− ディスプレイ、
− 復号チップ
を含む群に属する送信先に送信される。
図8は、非限定的な友理奈実施形態による、デバイス70等の処理デバイスにおいて実装される下位互換没入型ビデオストリームを生成する方法80のある実施形態を概略的に示す。
初期化ステップ81で、デバイス70はソースから没入型ビデオを取得する。本書の中のソースから情報を取得するステップは、電子機器のメモリユニットにおけるこのような情報を読み出すステップ又はこのような情報を他の電子機器から通信手段を介して(例えば、有線もしくは無線接続を介して、又はコンタクト接続によって)受信するステップの何れとして見ることもできる点に留意すべきである。デバイス70は、ソースからカメラ制御データをロードする。データのソースは没入型ビデオのソースと同じであってもよい。変形型によれば、これらの2つのソースは異なる。例えば、カメラ制御データはデバイス70のメモリ上に記憶されても(さらには、方法を実行するプログラムに書き込まれても)よく、没入型ビデオはビデオサーバから得られる。
ステップ82及び83は並行して実行される。変形型によれば、ステップ82はステップ83の前に実行される。他の変形型によれば、ステップ83はステップ82の前に実行される。ステップ82で、没入型ビデオは、それがそのために作成されたマッピング面上にマッピングされる。仮想カメラはマッピング面の中心に置かれる。カメラは、没入型ビデオのうち第一のレガシービデオの各々の視覚的内容を構成する部分を特定するカメカメラ制御データに応じて方向付けられる。第一のレガシービデオの各々について、捕捉された部分はレガシービデオとして符号化され、ビデオストリームとして作成される。変形型によれば、ステップ82は仮想データを使用せず、ソースから得られた没入型ビデオフレームの一部を切り取り、必要に応じて視覚的内容を修正し、コンピュータフレームをレガシービデオとして符号化する。ステップ83で、第二の没入型ビデオフレームは、第一のレガシービデオのために捕捉された部分をソースから得られた没入型ビデオから取り除くことによって作成される。図4〜6に示されるように、没入型ビデオから一部を取り除くことは、没入型ビデオがそのために作成されたマッピング面の形状に応じて異なる形態を取ってもよい。ステップ83は、カメラ制御データを使って取り除く部分の形状を特定する。ステップ82と同様に、このステップ83を没入型ビデオのフレーム上で直接処理することも、マッピング面の中心に置かれた仮想カメラを使用することも可能であり、没入型ビデオはこのマッピング面上にマッピングされる。他の実施形態において、ステップ82及び83はリモートデバイスで実行される。第一及び第二のビデオは、他のデバイスにより作成され、媒体に記録されるか、デバイス70に送信される。生成ステップ82及び83は、リモートデバイス上で生成されたビデオを取得することからなる。
第一のレガシービデオを捕捉するために使用された部分の記述を表す情報データを符号化する任意選択によるステップ84は、ステップ82及び83と並行して実行される。変形型において、ステップ82、83、及び84は何れかの順番で逐次的に実行される。変形型において、ステップ84は実行されず、データは符号化されない。これらのデータは、没入型ビデオのうちステップ83で取り除かれる部分を記述する。ステップ83で再整理された没入型ビデオのマッピング面に応じて、前記データは第一のレガシービデオが、ソースから得られたときに没入型ビデオを取り出すためにどのような方法でどの位置にマッピングされなければならないかに関する記述を符号化する。情報データはカメラ制御データ及び、第一のレガシービデオ捕捉時にマッピング面がどのように作成されているかの方法に関する。
ステップ85で、下位互換没入型ビデオストリームが生成される。少なくとも1つの第一のレガシービデオが、第一のシンタックス要素としてストリーム内にパッケージされる。第二の没入型ビデオは、第二のシンタックス要素としてストリーム内にパッケージされる。ビデオのすべてが画像/ビデオコーダ、例えば、JPEG、JPEG2000、MEPG2、HEVC勧告(“High Efficiency Video Coding”, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU-T H.265, Telecommunication Standardization Sector of ITU, April 2013)又はH264/AVC勧告(“Advanced video coding for generic audiovisual Services”, SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS, Recommendation ITU-T H.264, Telecommunication Standardization Sector of ITU, February 2014))等の損失を伴うコーダで符号化、圧縮される。ステップ84で情報データが生成されると、これらは第三のシンタックス要素としてストリームに追加される。これらの2つ又は3つのシンタックス要素はストリームコンテナの中にパッケージされ、これによってデコーダは例えばAVI又はMPEG4等の各シンタックス要素を個別に取り出すことができる。
図9は、非限定的で有利な実施形態による、デバイス70等の処理デバイスにおいて実装される下位互換没入型ビデオストリームからビデオを構成する方法90のある実施形態を概略的に示す。
初期化ステップ91で、デバイス70は下位互換没入型ビデオストリームをソースから取得する。理解すべき点として、本書において情報をソースから取得するステップは、電子デバイスのメモリユニットにおけるこのような情報を読み出すステップ、又はこのような情報を他の電子デバイスから通信手段を介して(例えば、有線もしくは無線接続を介して、又はコンタクト接続によって)受信するステップの何れとして見ることもできる。
条件ステップ92がテストされる。デバイス70がレガシービデオレンダリングデバイスであるか、それに接続されている場合、ステップ93が実行される。デバイス70が没入型ビデオレンダリングデバイスであるか、それに接続されている場合、ステップ95が実行される。他の実施形態において、デバイス70は幾つかのレンダリングデバイスに接続され、その中の幾つかはレガシービデオレンダリングデバイスであり、その他は没入型ビデオレンダリングデバイスである。このような実施形態において、ステップ93及び95はどちらも並行して実行され、この方法の各分枝で構成されるビデオはそれぞれのレンダリングデバイスに送信される。
ステップ93は、ストリームから1つのレガシービデオを抽出することからなる。下位互換没入型ビデオストリームの異なるシンタックス要素がコンテナにパッケージされ、それによって受信機は独自に1つのあるシンタックス要素を抽出することができる。コンテナフォーマットは、例えばAVI又はMPEG4である。表示すべき好ましいビデオに関する情報がストリームのヘッダにない場合、デバイス70は第一のシンタックス要素の最初のものを抽出している。このようなコンテナにより整理されるストリームを受信する際、通常のレガシービデオプレイヤは、まさに最初のシンタックス要素をレンダリングするために構成される。本開示において記載されている下位互換没入型ビデオストリームの利点は、通常のレガシービデオプレイヤによって直接読み取ることができる点である。選択されたビデオを符号化するシンタックス要素が抽出されると、ステップ94が実行される。
ステップ94で、ストリームから抽出されるレガシービデオは、レンダリングデバイスに送信されるように復号される。このステップは、例えばMPEG2、HEVC、又はH264/AVC勧告等のコーデックを使用した解凍のステップを含んでいてもよい。構成されたレガシービデオは、デバイス70に接続されたレンダリングデバイスに送信される。変形型において、デバイス70はレガシービデオレンダリングデバイスであり、構成されるビデオはデバイス70のスクリーン上に表示される。
ステップ95で、ストリームの各第一のシンタックス要素と第二のシンタックス要素がストリームから抽出されて、復号される。各第一のシンタックス要素は、レガシービデオを復号するために使用される。第二のシンタックス要素は、少なくとも1つの部分が取り除かれている没入型ビデオを復号するために使用される。第三のシンタックス要素がストリーム内にある場合、ステップ96が平行して実行される。変形型において、ステップ96はステップ95の前又は後に実行される。ステップ96で、ストリームの第三のシンタックス要素がストリームから抽出され、情報データが復号される。これらの情報データは、第二のシンタックス要素を生成するために没入型ビデオから取り除かれている部分の形状、位置、及びサイズを含む記述要素を表す。
ステップ97は、ステップ95で抽出されたビデオのフレームから没入型ビデオを構成することからなる。ストリームの構造の中に第三のシンタックス要素が見つからなかった場合、情報データはデフォルトで設定される。第一のレガシービデオの各フレームは、情報データに応じて歪められ、サイズ変更され、変換される。この操作の後に、これらの変更されたフレームは、ストリームが生成されたときにそれらが取り除かれた没入型ビデオの部分を埋める。これらの変更されたフレームは、第二の没入型ビデオフレームに重畳される。このステップの結果、取り除かれた部分のない没入型ビデオフレームが得られる。結果として得られるこのフレームは、没入型ビデオのマッピング面上にマッピングされる。変形型において、重畳はマッピング面で行われる。他の実施形態において、デバイス70は、没入型ビデオのうちユーザから見られる部分を追跡して、対応する部分がユーザの視野(又はそれより若干大きい部分)に含まれる場合にのみ、第一のレガシービデオを没入型ビデオに重畳することができる。
図10は、下位互換没入型ビデオストリームの例示的な構造100を示す。この構造は、ストリームを独立したシンタックス要素で整理するコンテナからなる。この構造はヘッダ部分101を含んでいてもよく、これはストリームの各シンタックス要素に共通のデータセットである。例えば、ヘッダ部分はシンタックス要素に関するメタデータを含み、その各々の性質と役割を記述する。例えば、ヘッダ部分はレガシービデオプレイヤにより抽出されるべき好ましい第一のレガシービデオに関する情報を含んでいてもよい。下位互換没入型ビデオストリームは第一のシンタックス要素102を含み、これは第一のレガシービデオに関し、このビデオは没入型ビデオの一部を表す。この第一のシンタックス要素102はストリーム内で必須であり、好ましいレガシービデオに関する情報がヘッダ部分にない場合、この第一のシンタックス要素102はデフォルトで好ましいレガシービデオと考えられる。図8に示されるような生成方法により、追加の第一のシンタックス要素103がストリームに加えられてもよい。これらの追加の第一のシンタックス要素の各々は、第一のレガシービデオに関し、このビデオは没入型ビデオの一部を表す。好ましいレガシービデオは、ヘッダ部分で好ましいものであると指定されていれば、ストリームのこれらの追加のシンタックス要素の1つであってもよい。第二のシンタックス要素104は必須であり、前記少なくとも1つの部分が取り除かれている没入型ビデオから生成される第二の没入型ビデオに関する。この第二のシンタックス要素104はヘッダ部分を有し、そこには第二の没入型ビデオがそのために作成されるマッピング面及びマッピング機能に関する情報が含まれる。変形型において、第二のシンタックス要素104のヘッダ部分は、ストリームのヘッダ部分101と共に集められる。他の実施形態によれば、この情報は時間と共に変化し、第二の没入型ビデオと同期される。情報は、ヘッダ部分の代わりに第二のシンタックス要素に沿って含められてもよい。
前記少なくとも1つの部分の記述を表す情報データに関する任意選択による第三のシンタックス要素105がストリームの構造の中に含められてもよい。これらの情報データは第二のシンタックス要素を生成するために没入型ビデオから取り除かれている部分の形状、位置、及びサイズを含む記述要素を表す。変形型において、これらの情報データは時間と共に変化し、第二のシンタックス要素の第二の没入型ビデオと同期される。
当然のことながら、本開示は前述の実施形態に限定されない。特に、本開示は下位互換没入型ビデオストリームを生成する方法及びレンダリングデバイスのために下位互換没入型ビデオストリームからビデオを構成する方法に限定されない。このようなストリームを生成するため、又はこのようなストリームからビデオを構成するために必要な計算の実装は、CPU内の実装に限定されず、あらゆるプログラムのタイプ、例えばGPUタイプのマイクロプロセッサにより実行可能なプログラムにおける実装にも拡張される。
本明細書に記載の実施例は、例えば方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、又は信号において実施されてもよい。1つの形態の実施例に関してのみ論じられている(例えば、方法又は装置としてのみ論じられている)としても、論じられている特徴の実装は他の形態(例えば、プロクラム)でも実装されてよい。装置は例えば、適当なハードウェア、ソフトウェア、及びファームウェアにおいて実装されてもよい。方法は例えば、例えばコンピュータ、マイクロプロセッサ、集積回路、又はプログラムロジックデバイスを含む処理デバイス全般を指すプロセッサ等の装置において実装されてよい。プロセッサはまた、通信デバイス、例えばスマートフォン、タブレット、コンピュータ、モバイルフォン、ポータブル/携帯情報端末(PDA)、ビデオサーバ、セットトップボックス、及びその他のデバイス等を含んでいてもよい。
本明細書に記載されている各種のプロセスと特徴の実装は、多くの異なる機器やアプリケーション、特に例えばデータ符号化、データ復号、ビュー生成、テクスチャ処理、及び画像のその他の処理並びに関連するテクスチャ情報及び/又は奥行き情報に関連する機器やアプリケーションで具現化されてよい。このような機器の例には、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダへ入力を供給するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、セルフォン、PDA、及び他の通信デバイスが含まれる。明らかであるはずのとおり、機器はモバイル型であっても、さらには移動車両内に取り付けられてもよい。
それに加えて、方法はプロセッサにより実行される命令により実装されてもよく、このような命令(及び/又は実装により生成されるデータ値)はプロセッサ可読媒体、例えば集積回路、ソフトウェアキャリア又は、例えばハードディスク、コンパクトディスケット(CD)、光ディスク(例えば、デジタルバーサタイルディスク又はデジタルビデオディスクと呼ばれることの多いDVD)、ランダムアクセスメモリ(RAM)、又はリードオンリメモリ(ROM)等のその他のストレージデバイス等に記憶されてもよい。命令は、プロセッサ可読媒体上に有形の状態で具現化されるアプリケーションプログラムを形成してもよい。命令は、例えばハードウェア、ファームウェア、ソフトウェア、又はそれらの組合せの中にあってもよい。命令は、例えばオペレーティングシステム、別のアプリケーション、又はこれら2つの組合せの中に見られてもよい。したがって、プロセッサは、例えばプロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有するプロセッサ可読媒体(ストレージデバイス等)を含むデバイスの両方として特徴付けられてもよい。さらに、プロセッサ可読媒体は、命令に加えて、又は命令の代わりに、実装により生成されたデータ値を記憶してもよい。
当業者にとっては明らかであるように、実装により、情報を搬送するようにフォーマットされた各種の信号が生成されてもよく、これらは例えば記憶又は送信されてもよい。情報には、例えば方法を実行するための命令、又は説明された実施例の1つにより生成されるデータが含まれていてもよい。例えば、信号は、説明された実施形態のシンタックスを読み書きするためのルールをデータとして搬送し、又は説明されている実施形態により書かれた実際のシンタックス値をデータとして搬送するようにフォーマットされてもよい。このような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を使って)、又はベースバンド信号としてフォーマットされてもよい。フォーマッティングには例えば、データストリームを符号化することと、キャリアを符号化されたデータストリームで変調することを含んでいてもよい。信号が搬送する情報は、例えばアナログ又はデジタル情報であってもよい。信号は、既知のように、様々な異なる有線又は無線リンクを通じて送信されてもよい。信号は、プロセッサ可読媒体上に記憶されてもよい。
以上、多数の実施例を説明した。しかしながら、理解すべき点として、様々な改変を加えてもよい。例えば、異なる実施例の要素を組み合わせ、補足し、改変し、又は取り除いて他の実施例を創出してもよい。それに加えて、当業者であればわかるように、開示されているものにとっては他の構造及びプロセスが適当である可能性もあり、その結果として得られた実装例は、開示された実施例と少なくとも実質的に同じ機能を少なくとも実質的に同じ方法で実行し、少なくとも実質的に同じ結果を達成する。したがって、本願ではこれら及びその他の実施例も想定される。

Claims (19)

  1. 凸状マッピング面のために作成されたビデオ(20、30)からストリーム(100)を生成する方法(80)であって、
    − 前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)を生成すること(82)であって、各第一のビデオは前記没入型ビデオ(20、30)の一部を表す、生成すること(82)と、
    − 前記少なくとも1つの部分が取り除かれている前記没入型ビデオ(20、30)から第二のビデオ(60)を生成すること(83)と、
    − 前記少なくとも1つの第一のビデオ(61、63)に関する第一のシンタックス要素(102、103)と前記第二のビデオ(60)に関する第二のシンタックス要素(104)とを組み合わせることによって前記ストリーム(100)を生成すること(85)と、
    を含む方法(80)。
  2. 第三のシンタックス要素(105)を前記ストリーム(100)の中に追加することであって、前記第三のシンタックス要素は前記少なくとも1つの部分の記述を表す情報データに関する、追加することをさらに含む、請求項1に記載の方法。
  3. 前記情報データは時間と共に変化する、請求項2に記載の方法。
  4. 前記少なくとも1つの第一のビデオを生成すること(82)は、前記(仮想)カメラにより捕捉された前記画像を修正することをさらに含む、請求項2に記載の方法。
  5. 前記少なくとも1つの第一のビデオを生成すること(82)は、前記情報データに応じて前記マッピング面の向きを変更することをさらに含む、請求項2又は4に記載の方法。
  6. 凸状マッピング面のために作成されたビデオ(20、30)からストリーム(100)を生成するように構成されたデバイスであって、
    − 前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)を生成する(82)ためのビデオ生成器であって、各第一のビデオは前記没入型ビデオ(20、30)の一部を表す、ビデオ生成器と、
    − 前記少なくとも1つの部分が取り除かれている前記没入型ビデオ(20、30)から第二のビデオを生成する(83)ためのビデオ生成器と、
    − 前記少なくとも1つの第一のビデオに関する第一のシンタックス要素(102、103)と前記第二のビデオに関する第二のシンタックス要素(104)を組み合わせることによって前記ストリーム(100)を生成する(85)ためのストリーム生成器と、
    を含むデバイス。
  7. 前記ストリーム生成器は、第三のシンタックス要素(105)を前記ストリーム(100)の中に追加するようにさらに構成され、前記第三のシンタックス要素は前記少なくとも1つの部分の記述を表す情報データに関する、請求項6に記載のデバイス。
  8. 前記情報データは時間と共に変化する、請求項7に記載のデバイス。
  9. 凸状マッピング面のために作成されたビデオ(20、30)を表すデータを搬送するストリーム(100)であって、前記データは、
    − 前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)に関する第一のシンタックス要素(102、103)であって、前記少なくとも1つの第一のビデオの各々は前記没入型ビデオの一部を表す第一のシンタックス要素(102、103)と、
    − 前記少なくとも1つの部分が取り除かれている前記没入型ビデオから生成された第二のビデオ(60)に関する第二のシンタックス要素(104)と、
    を含むストリーム(100)。
  10. 前記少なくとも1つの部分の記述を表す情報データに関する第三のシンタックス要素(105)をさらに含む、請求項9に記載のストリーム。
  11. 前記情報データは時間と共に変化する、請求項10に記載のストリーム。
  12. 凸状マッピング面のために作成されたビデオ(20、30)を表すデータを搬送するストリーム(100)からレンダリングデバイスのためのビデオを構成する方法(90)であって、
    − 前記デバイスが没入型ビデオレンダリングデバイスである場合、
    ・前記ストリームの第一のシンタックス要素(102、103)から、前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)を取得することであって、前記少なくとも1つの第一のビデオは前記没入型ビデオの一部を表す、取得することと、
    ・前記ストリームの第二のシンタックス要素から第二のビデオ(104)を取得することであって、前記第二のビデオは、各々の前記少なくとも1つの部分が取り除かれている前記没入型ビデオを表す、取得することと、
    ・前記少なくとも1つの第一のビデオの各々を前記第二のビデオに重畳することによってビデオを構成することと、
    を含む方法(90)。
  13. − 前記デバイスがレガシービデオレンダリングデバイスである場合、
    ・前記ストリームの、前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)に関する第一のシンタックス要素(102、103)から前記ビデオを取得することであって、前記少なくとも1つの第一のビデオの各々は前記没入型ビデオの一部を表す、取得することを含む、請求項12に記載の方法。
  14. 前記ストリームは、前記少なくとも1つの部分の記述を表す情報データに関する第三のシンタックス要素(105)をさらに含む、請求項12又は13に記載の方法。
  15. 前記デバイスが没入型ビデオレンダリングデバイスである場合、前記ビデオを前記構成することは、前記第二のビデオに重畳するために前記第一のビデオに関連する前記部分の前記記述に応じて各第一のビデオを歪めること、サイズ変更すること、及び変換することを含む、請求項14に記載の方法。
  16. レンダリングデバイスのために、凸状マッピング面のために作成されたビデオ(20、30)を表すデータを搬送するストリーム(100)からビデオを構成するように構成されたデバイスであって、
    − 前記デバイスが没入型ビデオレンダリングデバイスである場合、
    ・前記ストリームの第一のシンタックス要素(102、103)から前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)を取得し、前記少なくとも1つの第一のビデオは前記没入型ビデオの一部を表すことと、
    ・前記ストリームの第二のシンタックス要素(104)から第二のビデオ(60)を取得し、前記第二のビデオは、各々の前記少なくとも1つの部分が取り除かれている前記没入型ビデオを表すことと、
    ・前記少なくとも1つの第一のビデオの各々を前記第二のビデオに重畳することによって前記ビデオを構成することと、
    を行うように構成されたプロセッサに関連するメモリを含むデバイス。
  17. 前記プロセッサは、
    − 前記デバイスがレガシービデオレンダリングデバイスである場合、
    ・前記ストリームの、前記凸状マッピング面の中心における視点から捕捉された少なくとも1つの第一のビデオ(61、63)に関する第一のシンタックス要素(102、103)から前記ビデオを取得し、前記少なくとも1つの第一のビデオの各々は前記没入型ビデオの一部を表すこと
    を行うように構成される、請求項16に記載のデバイス。
  18. 前記ストリームは、前記少なくとも1つの部分の記述を表す情報データに関する第三のシンタックス要素(105)をさらに含む、請求項16又は17に記載のデバイス。
  19. 前記デバイスが没入型ビデオレンダリングデバイスである場合、前記ビデオを前記構成することは、前記第二のビデオに重畳するために前記第一のビデオに関連する前記部分の前記記述に応じて各第一のビデオ(61、63)を歪めること、サイズ変更すること、及び変換することを含む、請求項18に記載のデバイス。
JP2019500729A 2016-03-22 2017-03-14 レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム Active JP7177034B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16305321.8 2016-03-22
EP16305321.8A EP3223524A1 (en) 2016-03-22 2016-03-22 Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
PCT/EP2017/055952 WO2017162479A1 (en) 2016-03-22 2017-03-14 Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices

Publications (3)

Publication Number Publication Date
JP2019514313A true JP2019514313A (ja) 2019-05-30
JP2019514313A5 JP2019514313A5 (ja) 2020-04-16
JP7177034B2 JP7177034B2 (ja) 2022-11-22

Family

ID=55646505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019500729A Active JP7177034B2 (ja) 2016-03-22 2017-03-14 レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム

Country Status (11)

Country Link
US (1) US10958950B2 (ja)
EP (2) EP3223524A1 (ja)
JP (1) JP7177034B2 (ja)
KR (1) KR102308604B1 (ja)
CN (1) CN109314791B (ja)
BR (1) BR112018069211A2 (ja)
CA (1) CA3018600C (ja)
MX (1) MX2018011498A (ja)
RU (1) RU2733218C2 (ja)
TW (1) TWI735552B (ja)
WO (1) WO2017162479A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735774B2 (en) 2016-05-13 2020-08-04 Interdigital Vc Holdings, Inc. Method and apparatus for video coding with adaptive clipping
EP3249928A1 (en) * 2016-05-23 2017-11-29 Thomson Licensing Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
JP7127539B2 (ja) * 2016-08-05 2022-08-30 ソニーグループ株式会社 画像処理装置および画像処理方法
EP3297282A1 (en) 2016-09-15 2018-03-21 Thomson Licensing Method and apparatus for video coding with adaptive clipping
EP3724858A4 (en) 2017-12-14 2021-01-13 Samsung Electronics Co., Ltd. PROCEDURE AND DEVICE FOR MANAGING IMMERSIVE DATA
CN110910485B (zh) * 2019-12-16 2023-07-25 山东东艺数字科技有限公司 一种沉浸式cave影像制作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333552A (ja) * 2004-05-21 2005-12-02 Viewplus Inc パノラマ映像配信システム
US20120092348A1 (en) * 2010-10-14 2012-04-19 Immersive Media Company Semi-automatic navigation with an immersive image
WO2015197818A1 (en) * 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Hevc-tiled video streaming

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7336299B2 (en) * 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
WO2008047054A2 (fr) 2006-10-18 2008-04-24 France Telecom Procedes et dispositifs pour optimiser les ressources necessaires a la presentation de contenus multimedias
US7982733B2 (en) * 2007-01-05 2011-07-19 Qualcomm Incorporated Rendering 3D video images on a stereo-enabled display
CN101453639B (zh) 2007-11-29 2012-05-30 展讯通信(上海)有限公司 支持roi区域的多路视频流的编码、解码方法和系统
WO2010075726A1 (zh) 2008-12-30 2010-07-08 华为终端有限公司 立体全景视频流生成方法、设备及视频会议方法和设备
CN102484727B (zh) * 2009-03-19 2015-01-21 Lg电子株式会社 用于处理三维(3d)视频信号的方法和用于执行该处理方法的数字广播接收机
EP2434769B1 (en) 2009-05-19 2016-08-10 Panasonic Intellectual Property Management Co., Ltd. Recording method and playback method
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
CN101771878B (zh) * 2010-01-14 2011-05-25 广西大学 面向全景视频编码的自适应选择全局运动估计方法
US9491432B2 (en) * 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
KR101694821B1 (ko) * 2010-01-28 2017-01-11 삼성전자주식회사 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치
JPWO2012017643A1 (ja) 2010-08-06 2013-10-03 パナソニック株式会社 符号化方法、表示装置、及び復号方法
JP2012199897A (ja) 2011-03-04 2012-10-18 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
US8600194B2 (en) * 2011-05-17 2013-12-03 Apple Inc. Positional sensor-assisted image registration for panoramic photography
EP2530642A1 (en) 2011-05-31 2012-12-05 Thomson Licensing Method of cropping a 3D content
PL3313083T3 (pl) 2011-06-08 2020-05-18 Koninklijke Kpn N.V. Dostarczanie treści segmentowanej przestrzennie
KR101282955B1 (ko) 2011-08-31 2013-07-17 한국과학기술연구원 실시간 고해상도 파노라마 영상 스트리밍 시스템 및 방법
CN103947192A (zh) 2011-11-14 2014-07-23 英特尔公司 视频分析编码
US20130141526A1 (en) 2011-12-02 2013-06-06 Stealth HD Corp. Apparatus and Method for Video Image Stitching
US10075689B2 (en) 2012-07-04 2018-09-11 Intel Corporation Region-of-interest based 3D video coding
EP2824883A1 (en) 2013-07-12 2015-01-14 Alcatel Lucent A video client and video server for panoramic video consumption
KR20200045013A (ko) * 2013-07-15 2020-04-29 소니 주식회사 상호작용성을 위한 모션-구속된 타일 세트들 sei 메시지의 확장들
CN104680505A (zh) * 2013-11-29 2015-06-03 陆婷 一种鱼眼镜头校正的全景视图算法
US20150373341A1 (en) 2014-06-23 2015-12-24 Cisco Technology, Inc. Techniques for Interactive Region-Based Scalability
US9883101B1 (en) 2014-07-23 2018-01-30 Hoyos Integrity Corporation Providing a real-time via a wireless communication channel associated with a panoramic video capture device
CN104539893B (zh) 2014-12-23 2017-12-01 福建星网视易信息系统有限公司 实现虚拟云台监控效果的方法、装置及系统
US9843725B2 (en) * 2015-12-29 2017-12-12 VideoStitch Inc. Omnidirectional camera with multiple processors and/or multiple sensors connected to each processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005333552A (ja) * 2004-05-21 2005-12-02 Viewplus Inc パノラマ映像配信システム
US20120092348A1 (en) * 2010-10-14 2012-04-19 Immersive Media Company Semi-automatic navigation with an immersive image
WO2015197818A1 (en) * 2014-06-27 2015-12-30 Koninklijke Kpn N.V. Hevc-tiled video streaming

Also Published As

Publication number Publication date
CA3018600C (en) 2022-07-12
EP3223524A1 (en) 2017-09-27
CN109314791B (zh) 2021-07-20
TW201803358A (zh) 2018-01-16
WO2017162479A1 (en) 2017-09-28
US20190104330A1 (en) 2019-04-04
RU2018136879A (ru) 2020-04-22
CA3018600A1 (en) 2017-09-28
MX2018011498A (es) 2019-07-04
JP7177034B2 (ja) 2022-11-22
BR112018069211A2 (pt) 2019-01-22
RU2018136879A3 (ja) 2020-04-22
KR102308604B1 (ko) 2021-10-06
TWI735552B (zh) 2021-08-11
US10958950B2 (en) 2021-03-23
CN109314791A (zh) 2019-02-05
EP3434021A1 (en) 2019-01-30
RU2733218C2 (ru) 2020-09-30
EP3434021B1 (en) 2021-05-05
KR20190029505A (ko) 2019-03-20

Similar Documents

Publication Publication Date Title
US11792378B2 (en) Suggested viewport indication for panoramic video
US11699211B2 (en) Spherical rotation for encoding wide view video
KR102307819B1 (ko) 레거시 및 몰입형 렌더링 디바이스를 위한 몰입형 비디오를 포맷팅하는 방법, 장치 및 스트림
US11430156B2 (en) Apparatus, a method and a computer program for volumetric video
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
CN112204993B (zh) 使用重叠的被分区的分段的自适应全景视频流式传输
TW201840178A (zh) 適應性擾動立方體之地圖投影
CN113891117B (zh) 沉浸媒体的数据处理方法、装置、设备及可读存储介质
CN114189697B (zh) 一种视频数据处理方法、装置以及可读存储介质
CN113949829A (zh) 媒体文件封装方法、装置、设备及存储介质
CN111726598A (zh) 图像处理方法和装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181121

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150