JP7017866B2 - 従来型描画機器及び没入型描画機器用の没入型ビデオのフォーマット化の方法、装置及びストリーム - Google Patents

従来型描画機器及び没入型描画機器用の没入型ビデオのフォーマット化の方法、装置及びストリーム Download PDF

Info

Publication number
JP7017866B2
JP7017866B2 JP2017099485A JP2017099485A JP7017866B2 JP 7017866 B2 JP7017866 B2 JP 7017866B2 JP 2017099485 A JP2017099485 A JP 2017099485A JP 2017099485 A JP2017099485 A JP 2017099485A JP 7017866 B2 JP7017866 B2 JP 7017866B2
Authority
JP
Japan
Prior art keywords
area
mapping
immersive
information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017099485A
Other languages
English (en)
Other versions
JP2018033123A5 (ja
JP2018033123A (ja
Inventor
ガルパン,フランク
ラセール,セバスチアン
アンドリボン,ピエール
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2018033123A publication Critical patent/JP2018033123A/ja
Publication of JP2018033123A5 publication Critical patent/JP2018033123A5/ja
Application granted granted Critical
Publication of JP7017866B2 publication Critical patent/JP7017866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/16Spatio-temporal transformations, e.g. video cubism
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/395Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability involving distributed video coding [DVC], e.g. Wyner-Ziv video coding or Slepian-Wolf video coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/95Arrangements characterised by the broadcast information itself characterised by a specific format, e.g. an encoded audio stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、例えば、一部のクライアント機器が従来型の矩形のビデオを表示するように構成され、別の一部のクライアント機器が没入型のビデオを表示するように構成された異種混交的な集合を成すクライアント機器に、没入型のビデオを表すバックワード・コンパチブルな(後方互換の)ストリームを配信する場合に、そのようなストリームをフォーマット化する分野に関する。
ビデオは、少なくとも1つの画像のシーケンスである。実際、1つの画像は、1つのスチール(静止)ビデオと見なすことができる。ビデオは、画素(即ち、色情報の構成要素)の2次元のアレイである矩形フレーム上に符号化される。シーケンスの画像毎に1つのフレームが符号化される。画像は、マッピング関数に従って符号化される。矩形スクリーン上に表示されるように意図されている従来型のビデオは、矩形マッピングに従って符号化される。没入型のビデオは観察者の周囲に描画されるように意図されている。即ち、観察者は、全体の映像を見ることができず、従って、自身の頭部を回転させて(或いは、身体を動かして、或いは、例えばジョイスティック又はマウスのようなコントローラを用いて)自身の視界外に在る画像部分を見る必要がある。没入型のビデオは、矩形フレーム上に符号化されている場合、没入型のマッピング関数、例えば、エクイレクタングラー・マッピング(equirectangular mapping)、キューブ・マッピング(cube mapping)、或いは、ピラミッド・マッピング(pyramidal mapping)を必要とする。
ビデオ・ストリームは、ビデオが描画される予定の描画機器のタイプに従って準備されてフォーマット化される。従来型のビデオ描画機器は、矩形マッピングのみに従ってビデオ・フレームを復号するように構成されているので、没入型のビデオを適切に表示しない。逆に、没入型のビデオ描画機器は、没入型の投影に従って符号化されたフレームを想定しているので、従来型のビデオを適切に表示しない。従来型ビデオ描画機器及び没入型ビデオ描画機器の両方によって適切に表示できる後方互換の没入型ビデオ・ストリームについてのフォーマットが欠如している。
本開示の目的は、従来型ビデオ描画機器及び没入型ビデオ描画機器の両方によって適切に表示できる後方互換の没入型ビデオ・ストリームについてのフォーマットの欠如を解消することである。本開示は、ビデオ・ストリームから描画機器用のビデオ・フレームを構成する方法に関し、この方法は、
ビデオ・ストリームから元のビデオ・フレームを取得することと、
ビデオ・ストリームから第1の情報を取得することであって、第1の情報は、元のビデオ・フレームの第1の区域のサイズと位置とを表している、上記取得することと、
を含んでおり、
描画機器が従来型ビデオ描画機器である場合は、
元のビデオ・フレームの第1の区域によってビデオ・フレームを構成することを含み、
描画機器が没入型ビデオ描画機器である場合は、
ビデオ・ストリームから第2の情報を取得することであって、第2の情報は、レイアウトのタイプ、第1の部分の視野、第2の区域のサイズ、及び、基準方向を表している、上記取得することと、
第1及び第2の情報に従って、かつ、元のビデオ・フレームを用いて、マッピング済み表面を作成することと、
マッピング済み表面の一部分を捕捉する少なくとも1つの仮想カメラを用いてビデオ・フレームを構成することと、
を含んでいる。
特定の特徴によれば、このレイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている。
具体的な態様によれば、このストリームは、High Efficiency Video Coding(HEVC)に従って復号され、第1の情報は、Conformance Windowのパラメータによって搬送され、第2の情報は、Supplemental Enhancement Information(SEI)によって搬送される。
本開示はまた、ビデオ・ストリームから描画機器用のビデオ・フレームを構成するように構成された装置に関し、この装置は、
ビデオ・ストリームから元のビデオ・フレームを取得する手段と、
ビデオ・ストリームから第1の情報を取得する手段であって、第1の情報は、元のビデオ・フレームの第1の区域のサイズと位置とを表している、上記手段と、
を備えており、
描画機器が従来型ビデオ描画機器である場合は、
元のビデオ・フレームの第1の区域によってビデオ・フレームを構成するように構成されたプロセッサを備えており、
描画機器が没入型ビデオ描画機器である場合は、
ビデオ・ストリームから第2の情報を取得する手段であって、第2の情報は、レイアウトのタイプ、第1の部分の視野、第2の区域のサイズ、及び、基準方向を表している、上記手段と、
第1及び第2の情報に従って、かつ、元のビデオ・フレームを用いて、マッピング済み表面を作成するように構成されたプロセッサと、
マッピング済み表面の一部分を捕捉する少なくとも1つの仮想カメラを用いてビデオ・フレームを構成するように構成されたプロセッサと、
を備えている。
本開示はまた、没入型ビデオからビデオ・ストリームを生成する方法に関し、この方法は、
矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化することと、
矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、没入型ビデオ・フレームの第2の部分を符号化することと、
没入型マッピングに従って没入型ビデオ・フレームの第3の部分を符号化することと、
第1の部分を第1の区域として、第2の部分を第2の区域として、及び、第3の部分を第3の区域として備えたレイアウトに従って、ビデオ・フレームを構成することと、
構成されたビデオ・フレームと、第1の区域のサイズと位置とに関する第1の情報と、少なくとも、レイアウトのタイプ、第1の部分の視野、第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含むビデオ・ストリームを生成することと、
を含んでいる。
具体的な態様によれば、このレイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている。
具体的な特徴によれば、このストリームは、High Efficiency Video Coding(HEVC)に基づいており、第1の情報は、Conformance Windowのパラメータによって搬送され、第2の情報は、Supplemental Enhancement Information(SEI)によって搬送される。
本開示はまた、没入型ビデオからビデオ・ストリームを生成するように構成された装置に関し、この装置は、
矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化するように構成された符号化器と、
矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、没入型ビデオ・フレームの第2の部分を符号化するように構成された符号化器と、
没入型マッピングに従って没入型ビデオ・フレームの第3の部分を符号化するように構成された符号化器と、
第1の部分を第1の区域として、第2の部分を第2の区域として、及び、第3の部分を第3の区域として備えたレイアウトに従って、ビデオ・フレームを構成するように構成されたプロセッサと、
構成されたビデオ・フレームと、第1の区域のサイズと位置とに関する第1の情報と、少なくとも、レイアウトのタイプ、第1の部分の視野、第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含むビデオ・ストリームを生成するように構成されたビデオ・ストリーム生成器と、
を備えている。
本開示はまた、没入型ビデオを表すデータを搬送するストリームに関し、このデータは、
矩形マッピングに従って符号化された第1の区域と、矩形マッピングから没入型マッピングへの過渡的なマッピングに従って符号化された第2の区域と、没入型マッピングに従って符号化された第3の区域と、を備えたレイアウトに従って編成されたビデオ・フレームと、
ビデオ・フレーム内における第1の区域のサイズ及び位置を表す第1の情報と、
少なくとも、レイアウトのタイプ、第1の部分の視野、ビデオ・フレーム内における第2の区域のサイズ、及び、基準方向を含む第2の情報と、
を含んでいる。
下記の添付図面を参照する以下の記載を読めば、本開示をより良く理解でき、その他の具体的な特徴及び利点が明確になるであろう。
本原理の具体的な一実施形態による、ビデオ・フレームの矩形マッピング符号化を例示する図である。 本原理の具体的な一実施形態による、図1の矩形マッピングと比較されるエクイレクタングラー・マッピング関数の一例を示す図である。 本原理の具体的な一実施形態による、図1及び図2の他の利用可能なマッピングと比較すべきキューブ・マッピング関数の一レイアウト例を例示する図である。 本原理の具体的な一実施形態による、種々のマッピング、例えば、図1、図2及び図3のマッピングに従って符号化されて従来型ビデオ描画機器によって描画された画像の例を示す図である。 本原理の具体的な一実施形態による、図4のエクイレクタングラー・マッピングが使用された場合の関心領域の望ましくない歪みを解消するために準備された後方互換のフレームの一レイアウト例を例示する図である。 本原理の具体的な一実施形態による、エクイレクタングラー・マッピングに従って符号化された没入型フレームから図5のレイアウト例で符号化された後方互換のフレームへの変換の一例を示す図である。 本原理の具体的な一実施形態による、図5及び図6において例示されたようなビデオ・フレームを含む後方互換の没入型ビデオを表すデータを搬送するストリームのデータ構造の特定の実施形態を例示する図である。 本原理の具体的な一実施形態による、図3のキューブ・マッピングが使用された場合の関心領域における望ましくない不連続性を解消するために準備された後方互換のフレームの一レイアウト例を例示する図である。 本原理の具体的な一実施形態による、図10又は図11に関して説明される方法を実施するように構成された装置のハードウェアの一実施形態を示す図である。 非限定的で有益な一実施形態によって、図9の装置のような処理装置において実施されるような後方互換の没入型ビデオ・ストリームを生成する方法の一実施形態を概略的に示す図である。 非限定的で有益な一実施形態によって、図9の装置のような処理装置において実施されるような所与の描画機器用に後方互換の没入型ビデオ・ストリームからビデオ・フレームを構成する方法の一実施形態を概略的に示す図である。
以下、図面を参照して主題を説明するが、全図面において同じ参照番号を用いて同じ構成要素を示している。以下、主題を完全に理解できるように、説明の目的のために、多数の具体的な詳細事項を述べる。主題の実施形態がこれらの具体的な詳細事項なしで実施できることは明らかである。
本開示の非制限的な実施形態によって、後方互換の没入型ビデオを符号化したストリームを開示する。そのようなストリームを復号する方法と装置も開示する。そのようなストリームは、没入型ビデオ描画機器のみならず従来型ビデオ描画機器によっても復号して描画し得る。そのようなストリームは、それを復号する機器に関係なく、例えば、ネットワーク(例えば、ブロードキャスト・ネットワーク、VoDネットワーク又はインターネット)から配信され、或いは、媒体(例えば、DVD、ブルーレイ・ディスク又はメモリー・スティック)に格納される。
従来型ビデオ描画機器は、例えばMPEG2のH.264/AVC又はH.265/HEVCのような標準規格のフォーマットに符号化された従来型ビデオ・ストリームを復号できる機器である。従来型ビデオ描画機器は、復号されたビデオを2次元の矩形スクリーン(例えば、TV受像機、ビデオ・プロジェクタ、タブレット又はスマートフォン)に対して描画する。尚、描画とは、画像が表示装置によって適切に表示され得るようにその画像を準備する動作である。ビデオ・ストリームを復号するように構成されたセットトップ・ボックスとプロセッサもビデオ描画機器と見なされる。特定の実施形態において、後方互換のビデオ・ストリームは、H.265/HEVCの標準規格のパラメータを用いており、事前修正なしに既存の従来型ビデオ描画機器によって復号可能であるという利点を有している。
没入型ビデオ描画機器についての方法を本開示において更に詳しく説明する。没入型ビデオは観察者の周囲に描画されるように意図されている。即ち、観察者は、全体の映像を見ることができず、従って、自身の頭部を回転させて(或いは、身体を動かして)自身の視界外に在る画像部分を見る必要がある。例えば「ケーブ(cave)」は、複数のビデオ・プロジェクタによって構成された没入型ビデオ描画機器であり、これらのプロジェクタは、複数の方向に視聴者の周囲に復号済みビデオを表示する。例えば、ヘッド・マウント・ディスプレイ・デバイス(Head Mounted Display device:HMD)、タブレット、或いは、スマートフォンは、空間における自装置の少なくとも方位を追跡する慣性測定装置を備えているので、没入型ビデオ描画機器になるように構成し得る。装置の方位が、見る方向を決定して、仮想カメラが、装置の矩形スクリーン上に描画されるべき、周囲の没入型ビデオの部分を捕捉する。
元の没入型ビデオから後方互換の没入型ビデオ・ストリームを生成するための方法と装置も開示する。ビデオ・フレームは、少なくとも1つのマッピング関数に従って符号化される。マッピング関数は、マッピング表面の各々の点をフレームから得られる色情報に対応付ける。描画の際に、マッピング済み画像を選択し、及び/又は、表示すべきスクリーンに適合化するために、投影関数がマッピング表面に適用される。マッピング関数は、ビデオ描画機器の関数である。投影関数は、表示機器に関連付けられる。特定の実施形態によれば、ビデオ描画機器に接続された特定の表示機器によって想定されるフレームを準備するために、投影関数がビデオ描画機器によってマッピング表面に適用される。
図1は、矩形マッピング符号化モードを例示している。ビデオ・シーケンスの画像が、矩形表面11上に描画されるように意図されている矩形フレーム10に符号化されている。マッピング関数12は、フレーム10とマッピング表面11が同等であるから、単純明快である。スクリーン13は、マッピング表面11と同じ解像度及び/又は精細度を有しないことがある。その結果、投影関数14は、マッピング表面11側で倍率変更する及び/又はクロッピングする(不要部分を切り取る)、或いは、黒いバーを表示することがある。図1において、フレーム10とマッピング表面11は4:3のアスペクト比を有し、他方、スクリーンは16:9のアスペクト比を有する。この例では、投影関数14は、画像の中央部分においてクロッピングを行って、スクリーン13に適合するビデオを生成する。一変形例では、投影関数14は、マッピング表面11の左右に黒いバーを加えて、スクリーン13に適合するビデオを得る。別の実施形態において、図1のビデオは立体映像である。そのような変形例では、フレーム10には2枚の別個の画像が含まれており、これらの画像は、2つの別個のマッピング表面11上にマッピングされる。これらのマッピング表面がスクリーンのタイプに従って組み合わされて、立体映像効果の描画が行われる。
図2は、エクイレクタングラー・マッピング(equirectangular mapping)関数の一例を示している。画像のシーケンスが、球形マッピング表面21上にマッピングされるように意図されている矩形フレーム20上に符号化されている。マッピング関数22は、フレーム20の各々の画素からマッピング表面21上の点へ(その逆も同様)のマッピングを設定する。図2において、マッピング関数22は、エクイレクタングラー投影(equirectangular projection)(正距円筒投影(equidistant cylindrical projection)とも呼ばれる)に基づいている。フレーム20上の画像は、歪んでいる。距離は、赤道では正しく、両極では拡大されている。直線は、もはや真直ぐではなく、遠近法(遠近感)は、歪んでいる。変形例では、マッピング関数22は、例えば、正距円錐投影(equidistant conic projection)に基づいている。スクリーン23が、ヘッド・マウント・ディスプレイ・デバイス(HMD)、タブレット又はスマートフォンの場合のように矩形であれば、マッピング表面21の一部が選択される。投影関数24の本質は、スクリーン23に直接適合する画像を生成するために視野と解像度との観点で構成されたカメラであって球の中心に位置しているカメラによって見られるようなマッピング表面21の一部分を選択することにある。選ばれる視野は、表示機器の特性に依存する。HMDの場合、利点として、視野角は人間の立体視野に近く、それは約120度である。カメラの照準方向は、ユーザが見ている方向に対応しており、没入型ビデオ描画機器の仮想カメラ・コントローラを用いてカメラの照準方向を変更する。一変形例では、図2のビデオは、立体映像である。そのような変形例では、フレーム20には2枚の別個の画像が含まれており、これらの画像は、2つの別個のマッピング表面21上にマッピングされる。これらのマッピング表面がスクリーンのタイプに従って組み合わされて、立体映像効果の描画が行われる。
図3は、キューブ・マッピング関数のレイアウト(配置)例を例示している。画像のシーケンスが、立方体マッピング表面31上にマッピングされるように意図されている矩形の(即ち、正方形の)フレーム30上に符号化されている。マッピング関数32は、フレーム30内の正方形とキューブ(立方体)31の面との間の対応関係を設定する。逆もまた同様に、このマッピング関数は、キューブ31の面がフレーム30の表面内でどのように編成されるかを決定する。各々の面上の画像は、歪んでいない。しかしながら、フレーム30の画像全体において、線は区分的に真直ぐであり、遠近法は壊れている。この画像には、空の正方形(デフォルトの色情報又はランダムな色情報、図3の例では白色で満たされている)が含まれ得る。この投影関数は、図2の投影関数として機能する。カメラが、キューブ31の中心に位置して、描画機器のスクリーンに適合する画像を捕捉する。
変形例では、その他のマッピング表面及び/又はマッピング関数が使用されて、ビデオ・フレームが、例えば円筒又はピラミッド上にマッピングされる。
図4は、種々のマッピング関数に従って符号化されて、従来型ビデオ描画機器によって描画された画像の例を示している。図4の全ての画像は、従来型ビデオ描画機器によって描画されているので、矩形のマッピングに従って符号化されている。しかしながら、これらの画像は、種々の投影関数に従って投影されている。画像40は、代表的な従来型のビデオ(即ち、ユーザがTV又は映画館で見慣れたビデオ)から抜き出されている。画像40を捕捉したカメラは、遠近法投影関数を使用している。遠近法投影が使用される場合、直線は真直ぐであり、角度とプロポーション(割合)は実際のものに対応しており、遠近法は守られる。カメラは、周囲環境の一部分を捕捉している。この部分は、映画製作者が見せるために選択した部分であるから、関心領域(Region of Interest:RoI)と呼ばれる。遠近法の矩形画像の水平方向の視野は、例えば70度(70°)であり、この角度は、色の良好な識別を伴う人間の近周辺視野にほぼ相当する。
画像41は、広角のカメラで捕捉されている。このような投影関数が使用される場合、平坦なスクリーン上に描画される時に、直線はもはや真直ぐではなく、角度とプロポーションはもはや実際のものに対応しておらず、遠近法は歪んでいる。関心領域は、画像41の場合よりも大きい。水平方向の視野は、60度(60°)を超えている。
画像42は、エクイレクタングラー・マッピングに従って符号化された没入型画像から取り出された一片である。オリジナルの没入型画像は、没入型ビデオ描画機器によって遠近法投影に従って(即ち、直線、角度、プロポーション及び遠近法が尊重されて)描画されることが意図されている。画像42は、エクイレクタングラー・マッピングで符号化されて矩形マッピングで復号された画像の一部分である。その結果として、示された関心領域は、あらゆる水平方向の視野について歪んでいる。この歪みは、オリジナルの画像における一片の位置に従って、及び、視野に従って、局所的に変化している。画像43は、キューブ・マッピングで符号化されて矩形マッピングで復号された画像の一部分である。ここでは、遠近法は保持されているが、連続性は、関心領域がキューブの縁端と重なる場合、壊れている。
図5は、エクイレクタングラー・マッピングが使用された場合の関心領域の望ましくない歪みを解消するために準備された後方互換のフレームの一レイアウト(配置)例50を例示している。このレイアウト50は、所与のサイズ、例えば、720×576画素(PALの精細度)、720×480画素(NTSCの精細度)、1280×720画素(HD1の精細度)、1920×1080画素(HD2の精細度)、或いは、4096×2160画素(4K)の矩形フレームである。レイアウト50は、3つの部分から構成されている。
部分51は、例えば遠近法投影に従って捕捉されて矩形マッピングに従って符号化された元の没入型コンテンツの関心領域に対応している。このサブフレーム51は、従来型ビデオ描画機器上で描画されるように準備されている。サブフレーム51のサイズは、所与の精細度、例えば、フレーム50が4Kフレームである場合、1920×1080画素のものである。サブフレーム51の左上のコーナー(角)は、フレーム50内において位置(x,y)、例えばx=1088及びy=540、に位置している。サブフレーム51のサイズと位置は、ビデオの持続期間に亘って、不変である。一変形例において、サブフレーム51のサイズ及び/又は位置は、時間の経過と共に変化する。
部分52は、エクイレクタングラー・マッピングに従って元の没入型コンテンツを符号化した矩形フレームである。このフレームから部分53に対応する区域が切り取られる。部分53は、画像が(その中央側の)矩形マッピングから(その周辺側の)エクイレクタングラー・マッピングへ連続的に移行する遷移区域である。
図6は、エクイレクタングラー・マッピングに従って符号化された没入型フレーム60から図5のレイアウト例で符号化された後方互換のフレーム50への変換の一例を示している。関心領域は、例えば、ディレクタによって手動で、或いは、例えば、例えば画像の顕著性マップ(saliency map)に基づいた画像処理アルゴリズムによって自動的に、選択される。関心領域は、(最高360°までの)没入型コンテンツの視野の一部分に対応している。前述の如く、遠近法投影が関心領域について選択された場合、視野は、最高70度までである。一変形例において、広角が、関心領域の投影関数として選ばれる。
次の例では、フレーム50内のサブフレーム51の位置(x,y)は、サブフレーム51がフレームの中央に在るように、選ばれている。この例の変形例では、基準のフレームを移動させることによって等式を適応化できる。
水平方向の視野が与えられると、垂直方向の視野は、次の等式によって求められる。
Figure 0007017866000001
(式1)
ここで、wとhは、それぞれ、サブフレーム51の幅と高さである。フレーム50の点M(i,j)について、サブフレーム51内の座標Mは、次の等式([式2])に従って求められる。
Figure 0007017866000002
(式2)
ここで、wとhは、それぞれ、フレーム50の幅と高さである。サブフレーム51の各々の画素M(i,j)について、関連付けられた3D点Mが算定される([式3])。フレーム60内の対応する画素の座標Mが、この点の正規化(normalization)を球体上に投影することによって得られる([式4])。
Figure 0007017866000003
(式3)

Figure 0007017866000004
(式4)
関数fは、画像空間から表面の中間パラメトリック空間にマッピングするための関数である。例えば、エクイレクタングラー・マッピングについて、関数fは、次のように定義されてもよい。
f:(i,j)→(θ,φ)
φ=(i-h/2)/h*2π
θ=(j-w/2)/w*π
(式4a)
関数∂は、中間パラメトリック空間から表面の3D空間にマッピングするための関数である。エクイレクタングラー・マッピングについて、3D表面は球体であり、デルタは次のように定義されてもよい。
デルタ:(θ,φ)→(X,Y,Z)
X=sin(φ)cos(θ)
Y=sin(φ)sin(θ)
Z=cos(φ)
サブフレーム51の視野が、没入型フレーム50,60の視野の、サブフレーム51によって占められる部分よりも狭い場合、画素は、遷移区域53内で「圧縮」される。これは、サブフレーム51によって占められる空間が168.75度(1920×360/4096)である時にサブフレーム51の水平方向の視野が60度である図6の例において当てはまる。逆に、サブフレーム51の視野が、没入型フレーム50、60の視野の、サブフレーム51によって占められる部分よりも広い場合、画素は、遷移区域53内で「伸張」される。
遷移区域53を補充する方法の一例は、矩形マッピングのサブフレーム51からエクイレクタングラー・マッピングの部分52までの滑らかな補間(interpolation)を、例えば、フレームの2つの部分51と52との間の距離に従って重みを求めることによって、算定することである。
Figure 0007017866000005
(式5)
ここで、mとmは、それぞれ、サブフレーム51の周りの部分53を規定するマージンの幅と高さである。球体上の点の座標は、重みの関数([式6])に従って算定され、使用すべきフレーム60の画素の座標は、等式[式7]によって得られる。
Figure 0007017866000006
(式6)
Figure 0007017866000007
(式7)
関数hは、2つのマッピングの間の遷移の傾きを調整するために使用される。1より大きいか又は1に等しい正の定数αが与えられると、関数hは、例えば、以下のうちの一方である。
Figure 0007017866000008
別の実施形態において、滑らかな補間は、上述のようなパラメトリック表面においてではなく、3次元(3D)空間において行われる。
図7は、図5と図6において例示されたようなビデオ・フレームを含む後方互換の没入型ビデオを表すデータを搬送するストリーム70のデータ構造の特定の実施形態を例示している。図5と図6のフレーム50は、ストリームのペイロード部分71に符号化されている。コンテンツに関する大域的又は包括的な情報が、ヘッダ部分72に含まれている。変化する又は反復する情報が、各々のペイロード部分71のヘッダ部分73に格納されている。
フレーム50には、従来型ビデオ描画機器に適応化されたサブフレーム51が含まれている。これらの機器がサブフレーム51を復号するために必要とする情報は、フレーム60内におけるその位置とサイズのみであり、本明細書において第1の情報とも称することにする。この第1の情報が時間の経過と共に変わることもあり得るので、或いは、コンテンツ・ヘッダがクライアント機器によって(例えば、放送の場合に)受信されていないこともあり得るので、第1の情報は、各々のペイロード部分71のヘッダ部分73に含まれている。一変形例では、第1の情報は、コンテンツ・ヘッダ部分72に含まれている。別の変形例では、第1の情報は、変わる時のみに、或いは、反復的に、例えば5個目又は10個目のペイロード部分71毎に、ペイロード部分71のヘッダ部分73に含まれている。
特定の実施形態において、フレーム50は、H.265/HEVCコーデックに従って符号化される(DVB標準規格の文献ETSI TS 101 154 v2.2.1参照)。このコーデックのパラメータ「Conformance Window」が、メイン・フレーム内でのサブフレームの位置とサイズの情報を搬送するためにリザーブされる。このConformance Windowのパラメータがストリーム内に存在する場合、描画機器によるConformance Windowのパラメータの使用は、DVB標準規格の仕様において必須である。アスペクト比の適合化は、従来型ビデオ描画機器によって、機器の事前修正なしに、通常の如く取り扱われる。
没入型ビデオ描画機器(例えば、タブレット、スマートフォン又はHMD)による復号の場合、フレーム60を取得するためにフレーム50の逆変換が行われる。図6の例において、この逆変換は、[式8]と[式9]の逆関数に基づいてもよい。
Figure 0007017866000009
(式8)
Figure 0007017866000010
(式9)
この逆変換に必要なパラメータは、変換に必要なものと同じであり、即ち、一方では、サブフレーム51の位置とサイズを含む第1の情報であり、他方では、フレーム50を準備するために使用されたマッピング・レイアウトのタイプ(この例では図5のもの)と、サブフレーム51を算定するために使用された視野と、遷移区域のサイズと、基準方向(reference direction)とを含む第2の情報であり、遷移区域の位置は、マッピング・レイアウトのタイプと相関関係にある。基準方向は、没入型の視聴において、描画の際のマッピング表面の絶対ゼロ位置を知るために有用であることもある。第2の情報は、時間が経過しても不変であり、それ故、コンテンツのヘッダ部分72内に符号化されている。別の実施形態において、例えば、ストリームが放送される場合、コンテンツ・ヘッダ72は、クライアントによって取り逃されることもあり、従って、第2の情報は、ストリーム内において、反復的に、例えばペイロード部分71のヘッダ部分73内に符号化されている。一変形例において、第2の情報の一部のデータ(例えば、遷移区域のサイズ)は、時間が経過すると変わることもあり、それ故、第2の情報は、ストリームのペイロード部分71のヘッダ部分73内に符号化されている。
次に、復元されたフレーム60が球体上にマッピングされ、没入型ビデオ描画機器は、自己の通常の投影関数を用いて、表示すべき没入型コンテンツの部分を描画する。別の実施形態において、没入型ビデオ描画機器は、前述の第1及び第2の情報に従って、フレーム50に固有のマッピング表面を作成する。例えば、この固有のマッピング表面は、(サブフレーム51についての)平面、(遷移部分53についての)楕円形部分、及び、(エクイレクタングラー部分52についての)部分的に球形の部分から構成される。フレーム50がこの固有のマッピング表面上にマッピングされて、没入型ビデオ描画機器の通常の投影関数が、この機器に関連付けられた少なくとも1つのスクリーンに適合化された没入型コンテンツの一部分を自動的に切り出す。
特定の実施形態において、フレーム50と第1及び第2の情報は、別々の同期化されたストリーム内に符号化されている。
図8は、キューブ・マッピングが使用された場合の関心領域における望ましくない不連続性を解消するために準備された後方互換のフレームの一レイアウト(配置)例80を例示している。このレイアウト例において、3D表面の各々の面のサイズと比率は適応化される。図5と図6のエクイレクタングラーのレイアウト例の場合と同じ理由で、サブフレーム81が、従来型ビデオ描画機器によって直接復号できるように準備される。このレイアウト例80は、所与のサイズ、例えば、720×576画素(PALの精細度)、720×480画素(NTSCの精細度)、1280×720画素(HD1の精細度)、1920×1080画素(HD2の精細度)、或いは、4096×2160画素(4K)の矩形フレームである。キューブの6つの面は、このレイアウトの3つの部分、即ち、矩形マッピング部分81、没入型マッピング部分82、及び、遷移マッピング区域83を構成する。
部分81は、例えば遠近法投影に従って捕捉されて矩形マッピングに従って符号化された元の没入型コンテンツの関心領域に対応している。関心領域は、キューブの1つの面を占める。サブフレーム51のサイズは、所与の精細度、例えば、フレーム80が4Kフレームである場合、1920×1080画素のものである。そのような標準規格のサイズは、既存の従来型ビデオ描画機器によって事前修正なしに復号されて描画されるという利点を有する。しかしながら、それらは矩形である(そして正方形ではない)ので、このマッピング・レイアウトにおけるキューブのその他の面のサイズは適合化される必要がある。図8の例において、部分81は、(規則によって)正面として見なされ、フレーム80の幅の半分とその高さの半分とを占めている。頂面、底面、及び、背面は、正方形の形状を保持する。左面及び右面は、例えば底面よりも小さい矩形である。没入型キューブ・マッピングにおいて、キューブの各々の面は、(360°である)水平方向の視野の90度(90°)と垂直方向の視野の90度とを受け入れる。図8の後方互換のレイアウト例では、正面の視野は、関心領域の視野に対応している。この視野が90°よりも狭い場合、左面、右面、頂面及び底面は、左面と右面とについてのより小さい区域について90°よりも広い視野を符号化する必要がある。その結果、上述の4つの面に配分された遷移区域83において、画素は「圧縮」される。フレーム80の残りのものは、キューブ・マッピングに従って没入型フレームを符号化するのに使用される。
図8のレイアウトで準備された後方互換の没入型ビデオは、図7に示されたようなストリーム内に、図5のレイアウトについて、符号化される。準備されたフレームは、ストリーム70のペイロード部分71内に符号化される。サブフレーム81の位置とサイズとを含む第1の情報は、同じ変形例に従って、ペイロード部分71のヘッダ部分73及び/又はコンテンツのヘッダ部分72内に符号化される。第2の情報は、フレーム50を準備するために使用されたマッピング・レイアウトのタイプ(この例では図8のもの)と、サブフレーム81を算定するために使用された視野と、遷移区域のサイズと、基準方向(reference direction)とを含み、遷移区域の位置は、マッピング・レイアウトのタイプと相関関係にある。
図9は、図10又は図11に関して説明される方法を実施するように構成された装置90のハードウェアの一実施形態を示している。この例において、装置90には、クロック信号も移送するアドレス用及びデータ用のバス91によって相互に接続された構成要素、即ち、
・例えばデジタル信号プロセッサ(Digital Signal Processor:DSP)であるマイクロプロセッサ(即ち、CPU)92と、
・読み出し専用メモリ(リード・オンリー・メモリ:ROM)タイプの不揮発性メモリ93と、
・ランダム・アクセス・メモリ、即ち、RAM94と、
・送信すべきデータをアプリケーションから受信するI/O(入出力)インタフェース95と、
・ランダム・アクセス・メモリのレジスタを組み込み得るグラフィックス・カード96と、
・電源97と、
が備えられている。
一例によれば、電源97は、装置の外部に在る。ここで述べるメモリの各々において、本明細書で使用される「レジスタ」という用語は、小容量(数ビット)の領域、或いは、非常に大きい領域(例えば、プログラム全体、或いは、大量の受信された又は復号されたデータ)に対応し得る。ROM93は、少なくともプログラムとパラメータを備えている。ROM93は、本原理による技術を実施するためのアルゴリズムと命令を記憶し得る。CPU92は、電源投入されると、RAM内のプログラムをアップロードして、対応する命令を実行する。
RAM94は、あるレジスタに装置90の電源投入後にCPU92によってアップロードされて実行されるプログラムと、あるレジスタに入力データと、あるレジスタに本方法の相異なる状態における中間データと、あるレジスタに本方法の実行のために使用されるその他の変数とを備えている。
本明細書において説明された実施形態は、例えば、方法、プロセス、装置、ソフトウェア・プログラム、データ・ストリーム、或いは、信号において、実施されてもよい。説明された特徴の実施は、それがたとえ単一の形の実施形態のコンテキスト(文脈)のみで説明されたとしても(例えば、方法又は装置としてのみ説明されたとしても)、その他の形(例えば、プログラム)でも実施されてもよい。ある装置は、例えば、適切なハードウェア、ソフトウェア及びファームウェアにおいて実施され得る。方法は、例えば、装置において、例えば、コンピュータ、マイクロプロセッサ、集積回路、或いは、プログラマブル・ロジック・デバイスを含む処理機器を一般的に意味する例えばプロセッサのような装置において、実施され得る。プロセッサには、例えば、コンピュータ、セルフォン、ポータブル/パーソナル・デジタル・アシスタント(「PDA」)、セットトップ・ボックスのような通信機器、及び、エンドユーザ相互間の情報の通信を容易にするその他の機器も含まれる。
図10に例示されたような後方互換の没入型ビデオ・ストリームを生成する一例によれば、元の没入型ビデオとこの元の没入型ビデオの関心領域を表すデータとは、ある供給源から得られる。例えば、この供給源は、
・例えばビデオ・メモリ、RAM(即ち、ランダム・アクセス・メモリ)、フラッシュ・メモリ、ROM(即ち、リード・オンリー・メモリ)、或いは、ハード・ディスクのようなローカル・メモリ(93,94又は96)と、
・例えば、大容量記憶装置、RAM、フラッシュ・メモリ、ROM、光ディスク、或いは、マグネティック・サポート(magnetic support)とのインタフェースのような記憶装置用インタフェース(95)と、
・例えば有線インタフェース(例えば、バス・インタフェース、ワイド・エリア・ネットワーク・インタフェース又はローカル・エリア・ネットワーク・インタフェース)、或いは、無線インタフェース(例えば、IEEE802.11インタフェース又はBluetooth(登録商標)インタフェース)のような通信インタフェース(95)と、
を含む集合に属する。
1つの特定の実施形態によれば、図10に例示されており、以下に説明される、後方互換の没入型ビデオ・ストリームを生成する方法のステップを実施するアルゴリズムは、これらのステップを実施する装置90に関連付けられたグラフィックス・カード96のメモリGRAMに記憶されている。一変形例によれば、RAM(94)の一部が、CPU(92)によって、これらのアルゴリズムの記憶用に割り当てられる。これらのステップによってビデオ・ストリームが生成され、このビデオ・ストリームは、例えばビデオ・メモリ(94)、RAM(94)、ROM(93)、フラッシュ・メモリ(93)、或いは、ハード・ディスク(93)のようなローカル・メモリと、例えば、大容量記憶装置、RAM、ROM、フラッシュ・メモリ、光ディスク、或いは、マグネティック・サポートとのインタフェースのような記憶装置用インタフェース(95)とを含む集合に属する送信先に送られ、及び/又は、例えば、ポイント・ツー・ポイント・リンク、バス、ポイント・ツー・マルチポイント・リンク、或いは、ブロードキャスト・ネットワークに対するインタフェースのような通信インタフェース(95)から受信される。
複数の例によれば、図10に関して説明される後方互換の没入型ビデオ・ストリームを生成する方法を実施するように構成された装置90は、
・モバイル機器、
・通信機器、
・ゲーム機器、
・タブレット(即ち、タブレット型コンピュータ)、
・ラップトップ、
・符号化チップ、
・静止画像サーバ、及び、
・ビデオ・サーバ(例えば、ブロードキャスト・サーバ、ビデオオンデマンド・サーバ又はウェブサーバ)
を含む集合に属する。
後方互換の没入型ビデオ・ストリームからビデオを構成する一例によれば、後方互換の没入型ビデオを表すストリームは、ある供給源から得られる。具体的な代表例として、このストリームは、ローカル・メモリから、例えば、ビデオ・メモリ(94)、RAM(94)、ROM(93)、フラッシュ・メモリ(93)又はハード・ディスク(93)から読み出される。一変形例において、このストリームは、記憶装置用インタフェース(95)から、例えば、大容量記憶装置、RAM、ROM、フラッシュ・メモリ、光ディスク、或いは、マグネティック・サポートとのインタフェースから受信され、及び/又は、通信インタフェース(95)から、例えば、ポイント・ツー・ポイント・リンク、バス、ポイント・ツー・マルチポイント・リンク、或いは、ブロードキャスト・ネットワークに対するインタフェースから受信される。
1つの特定の実施形態によれば、図11に例示されており、以下に説明される、描画機器用に後方互換の没入型ビデオ・ストリームからビデオを構成する方法のステップを実施するアルゴリズムは、これらのステップを実施する装置90に関連付けられたグラフィックス・カード96のメモリGRAMに記憶されている。一変形例によれば、RAM(94)の一部が、CPU(92)によって、これらのアルゴリズムの記憶用に割り当てられる。これらのステップによってビデオが構成され、このビデオは、
・モバイル機器、
・通信機器、
・ゲーム機器、
・セットトップ・ボックス、
・TV受像機、
・タブレット(即ち、タブレット型コンピュータ)、
・ラップトップ、
・ディスプレイ、及び、
・復号チップ
を含む集合に属する送信先に送られる。
図10は、非限定的で有益な一実施形態によって、装置90のような処理装置において実施されるような後方互換の没入型ビデオ・ストリームを生成する方法100の一実施形態を概略的に示している。
ステップ101において、没入型ビデオとこの没入型ビデオの関心領域を表すデータとが、ある供給源から得られる。この没入型ビデオには、没入型マッピング、例えば、(図6のフレーム60のような)エクイレクタングラー・マッピング、(例えば図3のフレーム30のような)キューブ・マッピング、或いは、ピラミッド・マッピングに従って符号化されたフレームが含まれている。この没入型ビデオには、オーディオ・トラック又はメタデータのような、後方互換の没入型ビデオ・ストリームを生成する際に修正なしに使用されるその他のデータが含まれていてもよい。
ステップ102において、後方互換のフレームを準備するために、レイアウト、例えば、図5におけるようなエクイレクタングラー・マッピングに基づくレイアウト、図8のレイアウトのようなキューブ・マッピングに基づくレイアウト、或いは、ピラミッド・マッピングに基づくレイアウトが選択される。
ステップ103は、後方互換のフレームを作成することにある。このステップは、3つのサブステップ104,105及び106を含んでいる。これらの3つのサブステップは、連続して実行されてもよいし、或いは、並行して実行されてもよい。ステップ104は、矩形マッピングに従ってフレームを符号化することにある。このステップ104は、後方互換であるフレームの部分を生成するので、あらゆるレイアウトに共通している。フレームの色情報(即ち、画素)は、関心領域の記述に従って没入型ビデオ・フレームから特定される。ステップ105と106は、関心領域の外側に在る没入型ビデオの部分を準備することにある。レイアウトの没入型マッピングは、没入型ビデオの没入型マッピングと異なることがある。遷移区域のサイズが特定される。遷移区域の位置は、選択されたレイアウトに依存する。遷移区域は、後方互換のフレームを続ける。ステップ105において、遷移区域の色情報が特定される。この部分に使用されるマッピングは、矩形マッピングからレイアウトの没入型マッピングへ連続的に過渡的である。ステップ106において、没入型部分の色情報が特定される。没入型ビデオ・フレームの3つの部分に対応する3つの区域が、選択されたレイアウトに従って後方互換のフレームを構成するために使用される。ステップ103の実行について特定された値は、ステップ107の入力として送信される。これらの値は、第1の区域のサイズと位置、レイアウトのタイプ、第1の部分の視野、遷移区域のサイズ、及び、基準方向とも称される描画時のマッピング表面の絶対ゼロ位置の方向である。
ステップ107は、後方互換の没入型ビデオ・ストリームを生成することにある。このストリームには、後方互換のビデオ・フレームと、第1の区域のサイズ及び位置に関する第1の情報と、レイアウトのタイプ、第1の部分の視野、遷移区域のサイズ、及び、基準方向を含む第2の情報とが含まれている。
図11は、非限定的で有益な一実施形態によって、装置90のような処理装置において実施されるような所与の描画機器用に後方互換の没入型ビデオ・ストリームからビデオ・フレームを構成する方法110の一実施形態を概略的に示している。この描画機器は、例えばTV受像機、タブレット又はスマートフォンのような従来型ビデオ描画機器、或いは、没入型ビデオを描画するように構成された、例えばケーブ、HMD、タブレット又はスマートフォンのような没入型ビデオ描画機器である。本方法の最初の3つのステップは、両方のタイプの描画機器に共通している。
ステップ111において、ストリームが、ある供給源から得られる。このストリームは、後方互換であるので、標準規格の従来型ビデオ描画機器によって事前修正なしに解析できる。ステップ112において、ストリームのビデオ・フレームが得られる。一実施形態によれば、このステップにおいて、フレームが復号される。別の一実施形態において、フレームの符号化データは、アクセスされて、符号化状態が維持される。このような実施形態は、ステップ114においてフレームの第1の区域のみが復号される従来型ビデオ描画機器にとって、有効である。このような実施形態は、例えば、タイルを使用して実施してもよい。独立したタイルは、専用のSupplemental Enhancement Information(SEI:補助強化情報)をリザーブして、互いに独立して復号されるタイルのサイズと位置とを信号で伝えるHEVCの一特徴である。ステップ113において、第1の区域のサイズと位置とを含む第1の情報が、ストリームから解析される。
この時点で、描画機器が従来型ビデオ描画機器である場合、第1の区域に対応するフレームの部分によって、描画されるべきフレームが構成される。第1の区域が矩形マッピングに従って符号化されているので、従来型ビデオ描画機器は、それを事前修正なしに描画できる。一実施形態によれば、フレームは、第1の区域のみを保持するために、第1の情報に従ってクロッピングされる(不要部分が切り取られる)。別の一実施形態によれば、第1の区域の部分のみが、例えばタイル機能を用いることによって、復号される。
描画機器が没入型ビデオ描画機器である場合、ステップ115において、第2の情報がストリームから解析される。この情報は、ステップ116において、第1の情報と共に使用されて、マッピング済み表面が作成される。一実施形態によれば、マッピング表面については、例えば、球体、キューブ又はピラミッドが選択される。このマッピング表面は、例えば、テクスチャ座標に関連付けられたメッシュである。これらのテクスチャ座標は、入力フレームに適合するように算定される。一変形例において、メッシュの節点(vertices)は、それらの位置が、それらのテクスチャ座標が入力フレーム内でアドレス指定する位置と一致するように、移動させられる。別の変形例において、フレームがマッピング表面のテクスチャ座標と一致するように、中間フレームが算定される。
ステップ117は、マッピング済み表面の中心に置かれた仮想カメラから、描画されるべきビデオを捕捉することにある。これは、没入型ビデオ描画機器の通常のステップである。少なくとも1つの仮想カメラが、マッピング済み表面の中心に置かれて、投影機器に送信される予定のフレームを捕捉する。HMDの場合、この投影機器は、この装置のスクリーンである。ケーブの場合、各々の光プロジェクタが投影機器である。
当然、本開示は、上述の実施形態に限定されない。
特に、本開示は、没入型ビデオ・コンテンツを処理する方法には限定されず、処理済みビデオ・フレームを表示する任意の方法とその表示方法を実施する任意の装置とにも及ぶ。フレームとストリームとを生成するために必要な計算の実施形態も、シェーダ・タイプのマイクロプログラムにおける実施形態には限定されず、任意のプログラムのタイプ、例えば、CPUタイプのマイクロプロセッサによって実行できるプログラムにおける実施形態にも及ぶ。本開示の方法の使用は、ライブの利用には限定されず、その他の任意の利用、例えば、レコーディング・スタジオにおけるポストプロダクション処理として知られる処理にも及ぶ。
本明細書において説明された実施形態は、例えば、方法、プロセス、装置、ソフトウェア・プログラム、データ・ストリーム、或いは、信号において、実施されてもよい。説明された特徴の実施は、それがたとえ単一の形の実施形態のコンテキスト(文脈)のみで説明されたとしても(例えば、方法又は装置としてのみ説明されたとしても)、その他の形(例えば、プログラム)でも実施されてもよい。ある装置は、例えば、適切なハードウェア、ソフトウェア及びファームウェアにおいて実施され得る。方法は、例えば、装置において、例えば、コンピュータ、マイクロプロセッサ、集積回路、或いは、プログラマブル・ロジック・デバイスを含む処理機器を一般的に意味する例えばプロセッサのような装置において、実施され得る。プロセッサには、例えば、スマートフォン、タブレット、コンピュータ、モバイル・フォン、ポータブル/パーソナル・ディジタル・アシスタント(「PDA」)のような通信機器、及び、エンドユーザ相互間の情報の通信を容易にするその他の機器も含まれる。
本明細書に説明された種々のプロセス及び特徴の実施は、様々な相異なる装置又はアプリケーションにおいて、特に、例えば、画像及び関連テクスチャ情報及び/又は深度情報のデータ符号化、データ復号、ビュー生成、テクスチャ処理、及び、その他の処理に関連付けられた装置又はアプリケーションにおいて、具現化されてもよい。そのような装置の例には、符号化器、復号器、復号器からの出力を処理するポストプロセッサ、符号化器に入力を供給するプレプロセッサ、ビデオ・コーダ、ビデオ・デコーダ、ビデオ・コーデック、ウェブサーバ、セットトップ・ボックス、ラップトップ、パーソナル・コンピュータ、セルフォン、PDA、及び、その他の通信機器が含まれる。明らかなことであるが、これらの装置は、可動性を有してもよく、移動車両に搭載することさえも可能である。
更に、方法は、プロセッサによって行われる命令によって実施されてもよく、そのような命令(及び/又は、実施形態によって生成されるデータ値)は、プロセッサ可読媒体に記憶されてもよく、そのようなプロセッサ可読媒体は、例えば、集積回路、ソフトウェア搬送又はその他の記憶機器、例えば、ハード・ディスク、コンパクト・ディスケット(「CD」)、光ディスク(例えば、しばしばデジタル多用途ディスク又はデジタル・ビデオ・ディスクと呼ばれるDVD)、ランダム・アクセス・メモリ(「RAM」)、或いは、リード・オンリ・メモリ(「ROM」)である。命令は、プロセッサ可読媒体に明確に組み入れられたアプリケーション・プログラムを構成してもよい。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、或いは、それらの組み合わせの中に入れられてもよい。命令は、例えば、オペレーティング・システム、個別のアプリケーション、或いは、両者の組み合わせの中に存在してもよい。従って、プロセッサは、例えば、プロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有する(記憶装置のような)プロセッサ可読媒体を備えたデバイスとの両方を兼ねたものとして見なされてもよい。更に、プロセッサ可読媒体は、実施形態によって生成されたデータ値を、命令に加えて又は命令の代わりに、記憶してもよい。
当業者には明らかであろうが、実施形態は、例えば、記憶又は送信し得る情報を搬送するようにフォーマット化された種々の信号を生成し得る。この情報には、例えば、方法を実施するための命令、或いは、説明された実施形態の1つによって生成されたデータが含まれ得る。例えば、信号は、説明された実施形態のシンタックスを書く又は読むための規則をデータとして搬送するように、或いは、説明された実施形態によって書かれた実際のシンタックス値をデータとして搬送するようにフォーマット化されてもよい。そのような信号は、例えば、(例えば、スペクトルの無線周波数部分を用いて)電磁波として、或いは、ベースバンド信号としてフォーマット化され得る。このフォーマット化には、例えば、データ・ストリームを符号化すること、及び、搬送波を符号化データ・ストリームで変調することが含まれ得る。信号が搬送する情報は、例えば、アナログ情報又はデジタル情報であり得る。この信号は、周知の如く、種々の相異なる有線又は無線リンクを介して送信され得る。この信号は、プロセッサ可読媒体に記憶され得る。
以上、多数の実施形態を説明した。それでも、種々の修正が可能であることは理解されるであろう。例えば、相異なる実施形態の要素を組み合わせて、又は補って、又は修正して、又は取り除いて、別の実施形態を作成してもよい。更に、当業者であれば、ここに開示された構成及び処理の代わりに別のものを代用して、その結果として得られる実施形態が、ここに開示された実施形態と少なくとも実質的に同じやり方で、少なくとも実質的に同じ機能を果たして、少なくとも実質的に同じ効果を実現できることが分かるであろう。従って、これらの実施形態及びその他の実施形態は本願によって予期されている。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
ビデオ・ストリームから描画機器用のビデオ・フレームを構成する方法(110)において、前記方法は、
前記ビデオ・ストリームから第1の情報を取得すること(113)であって、前記第1の情報は、前記ビデオ・ストリームから得られる元のビデオ・フレームの第1の区域のサイズと位置とを表している、該取得することを含んでおり、
前記描画機器が没入型ビデオ描画機器である場合は、
前記ビデオ・ストリームから第2の情報を取得すること(115)であって、前記第2の情報は、レイアウトのタイプ、前記第1の部分の視野、第2の区域のサイズ、及び、基準方向を表している、該取得することと、
前記第1及び第2の情報に従って、かつ、前記元のビデオ・フレームを用いて、マッピング済み表面を作成すること(116)と、
前記マッピング済み表面の一部分によって前記ビデオ・フレームを構成すること(117)と、を含み、
その他の場合は、
前記元のビデオ・フレームの前記第1の区域によって前記ビデオ・フレームを構成すること(114)を含む、
ことを特徴とする、前記方法。
(付記2)
前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、付記1に記載の方法。
(付記3)
前記第1の情報はConformanceWindowのパラメータによって搬送され、前記第2の情報はSupplementalEnhancementInformation(SEI)によって搬送される、付記1又は2に記載の方法。
(付記4)
ビデオ・ストリームから描画機器用のビデオ・フレームを構成するように構成された装置(90)において、前記装置は、
前記ビデオ・ストリームから第1の情報を取得する手段であって、前記第1の情報は、前記ビデオ・ストリームから得られる元のビデオ・フレームの第1の区域のサイズと位置とを表している、該手段を備えており、
前記描画機器が没入型ビデオ描画機器である場合は、
前記ビデオ・ストリームから第2の情報を取得する手段であって、前記第2の情報は、レイアウトのタイプ、前記第1の部分の視野、第2の区域のサイズ、及び、基準方向を表している、該手段と、
前記第1及び第2の情報に従って、かつ、前記元のビデオ・フレームを用いて、マッピング済み表面を作成するように構成されたプロセッサと、
前記マッピング済み表面の一部分によって前記ビデオ・フレームを構成するように構成されたプロセッサと、を備え、
その他の場合は、
前記元のビデオ・フレームの前記第1の区域によって前記ビデオ・フレームを構成するように構成されたプロセッサを備えている、
ことを特徴とする、前記装置。
(付記5)
前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、付記4に記載の装置。
(付記6)
前記第1の情報はConformanceWindowのパラメータによって搬送され、前記第2の情報はSupplementalEnhancementInformation(SEI)によって搬送される、付記4又は5に記載の装置。
(付記7)
前記装置が、モバイル機器、通信機器、ゲーム機器、タブレット型コンピュータ、ラップトップ、符号化チップ、静止画像サーバ、ビデオ・サーバ、ブロードキャスト・サーバ、ビデオオンデマンド・サーバ、及び、ウェブサーバを含む装置の集合に属する、付記4から6のいずれか1項に記載の装置。
(付記8)
没入型ビデオからビデオ・ストリームを生成する方法(100)において、前記方法は、
矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化すること(104)と、
前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記没入型ビデオ・フレームの第2の部分を符号化すること(105)と、
前記没入型マッピングに従って前記没入型ビデオ・フレームの第3の部分を符号化すること(106)と、
前記第1の部分を第1の区域として、前記第2の部分を第2の区域として、及び、前記第3の部分を第3の区域として備えたレイアウトに従って、ビデオ・フレームを構成すること(103)と、
前記構成されたビデオ・フレームと、前記第1の区域のサイズと位置とに関する第1の情報と、少なくとも、前記レイアウトのタイプ、前記第1の部分の視野、前記第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含む前記ビデオ・ストリームを生成すること(107)と、
を含んでいることを特徴とする、前記方法。
(付記9)
前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、付記8に記載の方法。
(付記10)
前記第1の情報はConformanceWindowのパラメータによって搬送され、前記第2の情報はSupplementalEnhancementInformation(SEI)によって搬送される、付記8又は9に記載の方法。
(付記11)
没入型ビデオからビデオ・ストリームを生成するように構成された装置(90)において、前記装置は、
矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化するように構成された符号化器と、
前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記没入型ビデオ・フレームの第2の部分を符号化するように構成された符号化器と、
前記没入型マッピングに従って前記没入型ビデオ・フレームの第3の部分を符号化するように構成された符号化器と、
前記第1の部分を第1の区域として、前記第2の部分を第2の区域として、及び、前記第3の部分を第3の区域として備えたレイアウトに従って、ビデオ・フレームを構成するように構成されたプロセッサと、
前記構成されたビデオ・フレームと、前記第1の区域のサイズと位置とに関する第1の情報と、少なくとも、前記レイアウトのタイプ、前記第1の部分の視野、前記第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含む前記ビデオ・ストリームを生成するように構成されたビデオ・ストリーム生成器と、
を備えていることを特徴とする、前記装置。
(付記12)
前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、付記11に記載の装置。
(付記13)
前記第1の情報はConformanceWindowのパラメータによって搬送され、前記第2の情報はSupplementalEnhancementInformation(SEI)によって搬送される、付記11又は12に記載の装置。
(付記14)
没入型ビデオを表すデータを搬送するストリーム(70)であって、前記データは、
矩形マッピングに従って符号化された第1の区域と、前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って符号化された第2の区域と、前記没入型マッピングに従って符号化された第3の区域とを含むレイアウトに従って編成されたビデオ・フレームと、
前記ビデオ・フレーム内における前記第1の区域のサイズ及び位置を表す第1の情報と、
少なくとも、前記レイアウトのタイプ、第1の部分の視野、前記ビデオ・フレーム内における前記第2の区域のサイズ、及び、基準方向を含む第2の情報と、
を含んでいることを特徴とする、前記ストリーム。
(付記15)
前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、付記14に記載のストリーム。
(付記16)
前記第1の情報はConformanceWindowのパラメータによって搬送され、前記第2の情報はSupplementalEnhancementInformation(SEI)によって搬送される、付記14又は15に記載のストリーム。

Claims (16)

  1. ビデオ・ストリームから描画機器用のビデオ・フレームを構成する方法であって、
    前記ビデオ・ストリームから第1の情報を取得することであって、前記第1の情報は、前記ビデオ・ストリームから得られる元のビデオ・フレームの第1の区域のサイズと位置とを表している、ことと、
    矩形マッピングに従って、前記第1の区域を復号化することと、
    前記描画機器が没入型ビデオ描画機器である場合は、
    前記ビデオ・ストリームから第2の情報を取得することであって、前記第2の情報は、全周画像を平面に投影する際のマッピングのレイアウトのタイプ、前記第1の区域の視野、第2の区域のサイズ、及び、基準方向を表している、ことと、
    前記第1の情報及び前記第2の情報を用いることにより、前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記第2の区域を復号化することと、
    前記第1の情報及び前記第2の情報を用いることにより、前記没入型マッピングに従って、前記元のビデオ・フレームの第3の区域を復号化することと、
    復号化された前記第1の区域、復号化された前記第2の区域、及び復号化された前記第3の区域によって、前記ビデオ・フレームを構成すること、を含
    前記第1の区域は、関心領域であり、前記第2の区域は、前記関心領域に隣接する領域であり、前記第3の区域は、前記関心領域に隣接しない周辺領域であり、
    前記描画機器が没入型ビデオ描画機器でない場合は、
    復号化された前記第1の区域によって、前記ビデオ・フレームを構成すること、
    を含む方法。
  2. 前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、請求項1に記載の方法。
  3. 前記第1の情報はConformance Windowのパラメータによって搬送され、前記第2の情報はSupplemental Enhancement Information(SEI)によって搬送される、請求項1又は2に記載の方法。
  4. ビデオ・ストリームから描画機器用のビデオ・フレームを構成するように構成された装置であって、
    前記ビデオ・ストリームから第1の情報を取得する手段であって、前記第1の情報は、前記ビデオ・ストリームから得られる元のビデオ・フレームの第1の区域のサイズと位置とを表している、手段と、
    矩形マッピングに従って、前記第1の区域を復号化する手段と、
    前記描画機器が没入型ビデオ描画機器である場合は、
    前記ビデオ・ストリームから第2の情報を取得する手段であって、前記第2の情報は、全周画像を平面に投影する際のマッピングのレイアウトのタイプ、前記第1の区域の視野、第2の区域のサイズ、及び、基準方向を表している、手段と、
    前記第2の情報を用いることにより、前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記第2の区域を復号化する手段と、
    前記第1の情報及び前記第2の情報を用いることにより、前記没入型マッピングに従って、前記元のビデオ・フレームの第3の区域を復号化する手段と、
    前記第1の区域、前記第2の区域、及び前記第3の区域によって、前記ビデオ・フレームを構成するプロセッサであって、前記第1の区域は、関心領域であり、前記第2の区域は、前記関心領域に隣接する領域であり、前記第3の区域は、前記関心領域に隣接しない周辺領域である、プロセッサと、を備え、
    前記描画機器が没入型ビデオ描画機器でない場合は、
    前記第1の区域によって前記ビデオ・フレームを構成するプロセッサを備える、装置。
  5. 前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、請求項4に記載の装置。
  6. 前記第1の情報はConformance Windowのパラメータによって搬送され、前記第2の情報はSupplemental Enhancement Information(SEI)によって搬送される、請求項4又は5に記載の装置。
  7. 前記装置が、モバイル機器、通信機器、ゲーム機器、タブレット型コンピュータ、ラップトップ、符号化チップ、静止画像サーバ、ビデオ・サーバ、ブロードキャスト・サーバ、ビデオオンデマンド・サーバ、及び、ウェブサーバを含む装置の集合に属する、請求項4から6のいずれか1項に記載の装置。
  8. 没入型ビデオ・フレームからビデオ・ストリームを生成する方法であって、
    矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化することと、
    前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記没入型ビデオ・フレームの第2の部分を符号化することと、
    前記没入型マッピングに従って前記没入型ビデオ・フレームの第3の部分を符号化することと、
    全周画像を平面に投影する際のマッピングのレイアウトに従って、ビデオ・フレームを構成することであって、前記第1の部分、前記第2の部分、及び前記第3の部分は、それぞれ、前記レイアウトに従って、第1の区域、第2の区域、及び第3の区域として決定される、ことと、
    前記構成されたビデオ・フレームと、前記第1の区域のサイズと位置とに関する第1の情報と、少なくとも、前記レイアウトのタイプ、前記第1の部分の視野、前記第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含む前記ビデオ・ストリームを生成することと、を含
    前記第1の区域は、関心領域であり、前記第2の区域は、前記関心領域に隣接する領域であり、前記第3の区域は、前記関心領域に隣接しない周辺領域である、方法。
  9. 前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、請求項8に記載の方法。
  10. 前記第1の情報はConformance Windowのパラメータによって搬送され、前記第2の情報はSupplemental Enhancement Information(SEI)によって搬送される、請求項8又は9に記載の方法。
  11. 没入型ビデオからビデオ・ストリームを生成するように構成された装置であって、
    矩形マッピングに従って没入型ビデオ・フレームの第1の部分を符号化するように構成された符号化器と、
    前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って、前記没入型ビデオ・フレームの第2の部分を符号化するように構成された符号化器と、
    前記没入型マッピングに従って前記没入型ビデオ・フレームの第3の部分を符号化するように構成された符号化器と、
    全周画像を平面に投影する際のマッピングのレイアウトに従って、ビデオ・フレームを構成するように構成されたプロセッサであって、前記第1の部分、前記第2の部分、及び前記第3の部分は、それぞれ、前記レイアウトに従って、第1の区域、第2の区域、及び第3の区域として決定される、プロセッサと、
    前記構成されたビデオ・フレームと、前記第1の区域のサイズと位置とに関する第1の情報と、少なくとも、前記レイアウトのタイプ、前記第1の部分の視野、前記第2の区域のサイズ、及び、基準方向を含む第2の情報と、を含む前記ビデオ・ストリームを生成するように構成されたビデオ・ストリーム生成器と、を備
    前記第1の区域は、関心領域であり、前記第2の区域は、前記関心領域に隣接する領域であり、前記第3の区域は、前記関心領域に隣接しない周辺領域である、装置。
  12. 前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、請求項11に記載の装置。
  13. 前記第1の情報はConformance Windowのパラメータによって搬送され、前記第2の情報はSupplemental Enhancement Information(SEI)によって搬送される、請求項11又は12に記載の装置。
  14. 没入型ビデオを表すデータを生成する方法であって、
    前記方法は、
    矩形マッピングに従って符号化された第1の区域と、前記矩形マッピングから没入型マッピングへの過渡的なマッピングに従って符号化された第2の区域と、前記没入型マッピングに従って符号化された第3の区域とを含むレイアウトに従って編成されたビデオ・フレームを生成することであって、前記第1の区域は、関心領域であり、前記第2の区域は、前記関心領域に隣接する領域であり、前記第3の区域は、前記関心領域に隣接しない周辺領域である、ことと
    前記ビデオ・フレーム内における前記第1の区域のサイズ及び位置を表す第1の情報を生成することと、
    少なくとも、前記レイアウトのタイプ、第1の部分の視野、前記ビデオ・フレーム内における前記第2の区域のサイズ、及び、基準方向を含む第2の情報を生成することと、
    前記ビデオ・フレームと、前記第1の情報と、前記第2の情報とを備える前記データを生成することと、
    を含む方法
  15. 前記レイアウトは、エクイレクタングラー・マッピング、キューブ・マッピング及びピラミッド・マッピングを含む没入型マッピングの集合に属する1つの没入型マッピングに基づいている、請求項14に記載の方法
  16. 前記第1の情報はConformance Windowのパラメータによって搬送され、前記第2の情報はSupplemental Enhancement Information(SEI)によって搬送される、請求項14又は15に記載の方法
JP2017099485A 2016-05-23 2017-05-19 従来型描画機器及び没入型描画機器用の没入型ビデオのフォーマット化の方法、装置及びストリーム Active JP7017866B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305592.4A EP3249928A1 (en) 2016-05-23 2016-05-23 Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices
EP16305592.4 2016-05-23

Publications (3)

Publication Number Publication Date
JP2018033123A JP2018033123A (ja) 2018-03-01
JP2018033123A5 JP2018033123A5 (ja) 2020-07-02
JP7017866B2 true JP7017866B2 (ja) 2022-02-09

Family

ID=56101403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017099485A Active JP7017866B2 (ja) 2016-05-23 2017-05-19 従来型描画機器及び没入型描画機器用の没入型ビデオのフォーマット化の方法、装置及びストリーム

Country Status (9)

Country Link
US (1) US10523980B2 (ja)
EP (2) EP3249928A1 (ja)
JP (1) JP7017866B2 (ja)
KR (1) KR102307819B1 (ja)
CN (1) CN107454468B (ja)
BR (1) BR102017010791A2 (ja)
CA (1) CA2967418A1 (ja)
MX (1) MX2017006677A (ja)
RU (1) RU2742344C2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7127539B2 (ja) * 2016-08-05 2022-08-30 ソニーグループ株式会社 画像処理装置および画像処理方法
US10818087B2 (en) 2017-10-02 2020-10-27 At&T Intellectual Property I, L.P. Selective streaming of immersive video based on field-of-view prediction
US11272209B2 (en) 2018-04-03 2022-03-08 Samsung Electronics Co., Ltd. Methods and apparatus for determining adjustment parameter during encoding of spherical multimedia content
CN110516681A (zh) * 2018-05-21 2019-11-29 孙民 影像特征提取方法及其显著物体预测方法
EP3595319A1 (en) * 2018-07-12 2020-01-15 InterDigital VC Holdings, Inc. Methods and apparatus for volumetric video transport
CN110944109B (zh) * 2018-09-21 2022-01-14 华为技术有限公司 一种拍照方法、装置与设备
US11132838B2 (en) * 2018-11-06 2021-09-28 Lucasfilm Entertainment Company Ltd. LLC Immersive content production system
CN111198734B (zh) * 2018-11-20 2024-03-15 西安诺瓦星云科技股份有限公司 窗口设置方法和装置、电子设备和非易失性存储介质
KR102648032B1 (ko) * 2019-01-09 2024-03-14 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩의 서브 픽처 레벨 지표 시그널링
EP3761647A1 (en) 2019-07-05 2021-01-06 Tiledmedia B.V. Methods and devices for rendering a video on a display
FI3977723T3 (fi) * 2019-07-08 2024-03-13 Huawei Tech Co Ltd Useiden kuvakoko- ja yhdenmukaisuusikkunoiden käsittely vertailukuvan uudelleen näytteistämiseksi videokoodauksessa
US20220329886A1 (en) * 2019-08-19 2022-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for handling media data streams
CN110910485B (zh) * 2019-12-16 2023-07-25 山东东艺数字科技有限公司 一种沉浸式cave影像制作方法
US11991376B2 (en) * 2020-04-09 2024-05-21 Intel Corporation Switchable scalable and multiple description immersive video codec
CN111729283B (zh) * 2020-06-19 2021-07-06 杭州赛鲁班网络科技有限公司 一种基于混合现实技术的训练系统及其方法
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system
WO2023070387A1 (zh) * 2021-10-27 2023-05-04 深圳市大疆创新科技有限公司 一种图像处理方法、装置、拍摄设备及可移动平台

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187298A (ja) 2002-12-03 2004-07-02 Docomo Communications Laboratories Usa Inc パノラマ画像および全方位画像の描画および符号化
US20100299630A1 (en) 2009-05-22 2010-11-25 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
JP2013057993A (ja) 2011-09-07 2013-03-28 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび画像処理システム
JP2013526145A (ja) 2010-04-12 2013-06-20 シズベル テクノロジー エス.アール.エル. 立体視に対応したビデオストリームを生成、再構築する方法、および関連する符号化および復号化デバイス
WO2014197337A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6249616B1 (en) * 1997-05-30 2001-06-19 Enroute, Inc Combining digital images based on three-dimensional relationships between source image data sets
JP2003536160A (ja) 2000-06-09 2003-12-02 インタラクティブ イメイジング システムズ、 インコーポレイテッド 画像およびビデオをマッピングして操作可能で仮想現実感のあるビデオおよび画像をつくる方法と装置
JP2005347813A (ja) * 2004-05-31 2005-12-15 Olympus Corp 画像変換方法および画像変換装置、並びにマルチプロジェクションシステム
JP2010530086A (ja) * 2006-12-19 2010-09-02 創太 清水 イメージングモデル及び画像処理装置
US8730130B1 (en) * 2008-12-04 2014-05-20 RPA Electronic Solutions, Inc. System and method for automatically aligning immersive displays
JP2010192971A (ja) 2009-02-16 2010-09-02 Nippon Telegr & Teleph Corp <Ntt> 選択領域符号化映像データ配信方法、符号化映像データ復号方法、配信サーバ、再生端末、プログラムおよび記録媒体
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
US8908103B2 (en) * 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
US9397338B2 (en) * 2010-12-22 2016-07-19 Enevate Corporation Electrodes, electrochemical cells, and methods of forming electrodes and electrochemical cells
EP2645713A1 (en) 2012-03-30 2013-10-02 Alcatel Lucent Method and apparatus for encoding a selected spatial portion of a video stream
KR101698657B1 (ko) 2012-07-04 2017-01-20 인텔 코포레이션 파노라마 기반 3d 비디오 코딩
CN102945563B (zh) * 2012-09-26 2017-05-24 天津游奕科技有限公司 一种全景视频的展示与交互系统及方法
EP2713593B1 (en) * 2012-09-28 2015-08-19 Alcatel Lucent, S.A. Immersive videoconference method and system
FR3004881B1 (fr) * 2013-04-19 2015-04-17 Kolor Procede de generation d'un flux video de sortie a partir d'un flux video large champ
KR20200045013A (ko) * 2013-07-15 2020-04-29 소니 주식회사 상호작용성을 위한 모션-구속된 타일 세트들 sei 메시지의 확장들
CN103777455B (zh) * 2014-02-25 2016-08-17 浙江大学 基于光场拼接的球形沉浸式三维显示方法及系统
US10764655B2 (en) * 2014-04-03 2020-09-01 Nbcuniversal Media, Llc Main and immersive video coordination system and method
US9641851B2 (en) * 2014-04-18 2017-05-02 Qualcomm Incorporated Conformance window information in multi-layer coding
US10694192B2 (en) * 2014-06-27 2020-06-23 Koninklijke Kpn N.V. HEVC-tiled video streaming
US10204658B2 (en) * 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
CN107439010B (zh) * 2015-05-27 2022-01-04 谷歌公司 流传输球形视频
US10043237B2 (en) * 2015-08-12 2018-08-07 Gopro, Inc. Equatorial stitching of hemispherical images in a spherical image capture system
US10491711B2 (en) * 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
WO2017137444A1 (en) * 2016-02-09 2017-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for picture/video data streams allowing efficient reducibility or efficient random access
US10334224B2 (en) * 2016-02-19 2019-06-25 Alcacruz Inc. Systems and method for GPU based virtual reality video streaming server
EP3223524A1 (en) * 2016-03-22 2017-09-27 Thomson Licensing Method, apparatus and stream of formatting an immersive video for legacy and immersive rendering devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187298A (ja) 2002-12-03 2004-07-02 Docomo Communications Laboratories Usa Inc パノラマ画像および全方位画像の描画および符号化
US20100299630A1 (en) 2009-05-22 2010-11-25 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
JP2013526145A (ja) 2010-04-12 2013-06-20 シズベル テクノロジー エス.アール.エル. 立体視に対応したビデオストリームを生成、再構築する方法、および関連する符号化および復号化デバイス
JP2013057993A (ja) 2011-09-07 2013-03-28 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび画像処理システム
WO2014197337A1 (en) 2013-06-08 2014-12-11 Sony Computer Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display

Also Published As

Publication number Publication date
EP3249930B1 (en) 2020-09-09
KR20170132098A (ko) 2017-12-01
EP3249930A1 (en) 2017-11-29
EP3249928A1 (en) 2017-11-29
RU2742344C2 (ru) 2021-02-04
CN107454468B (zh) 2021-09-14
US10523980B2 (en) 2019-12-31
US20170339440A1 (en) 2017-11-23
BR102017010791A2 (pt) 2017-12-05
CN107454468A (zh) 2017-12-08
KR102307819B1 (ko) 2021-10-05
CA2967418A1 (en) 2017-11-23
JP2018033123A (ja) 2018-03-01
RU2017115882A (ru) 2018-11-06
MX2017006677A (es) 2018-08-28
RU2017115882A3 (ja) 2020-08-26

Similar Documents

Publication Publication Date Title
JP7017866B2 (ja) 従来型描画機器及び没入型描画機器用の没入型ビデオのフォーマット化の方法、装置及びストリーム
US11700352B2 (en) Rectilinear viewport extraction from a region of a wide field of view using messaging in video transmission
CN111656762B (zh) 编码表示三维对象的点云的方法和装置
US10694102B2 (en) Method to capture, store, distribute, share, stream and display panoramic image or video
CN110073662A (zh) 全景视频的建议视口指示
CN111034201A (zh) 编码和解码体积视频的方法、设备和流
JP2020515937A (ja) 没入型ビデオフォーマットのための方法、装置、及びストリーム
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
CN112425177B (zh) 用于体积视频传输的方法和装置
CN112189345A (zh) 体积式视频格式的方法,装置和流
JPWO2019078033A1 (ja) 再生装置および方法、並びに、生成装置および方法
CN113906761A (zh) 利用修补补片对3d场景进行编码和渲染的方法和装置
KR20200108882A (ko) 3차원 장면들을 데이터 스트림에 인코딩하고 그로부터 디코딩하기 위한 방법 및 장치
TW202116063A (zh) 用以編碼、傳輸及解碼容積視訊之方法及裝置
CN114503554A (zh) 用于传送体积视频内容的方法和装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220128

R150 Certificate of patent or registration of utility model

Ref document number: 7017866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150