JP2022000954A - ジオメトリ投影を使用する360度ビデオ符号化 - Google Patents

ジオメトリ投影を使用する360度ビデオ符号化 Download PDF

Info

Publication number
JP2022000954A
JP2022000954A JP2021138935A JP2021138935A JP2022000954A JP 2022000954 A JP2022000954 A JP 2022000954A JP 2021138935 A JP2021138935 A JP 2021138935A JP 2021138935 A JP2021138935 A JP 2021138935A JP 2022000954 A JP2022000954 A JP 2022000954A
Authority
JP
Japan
Prior art keywords
reference block
frame
projection
packed picture
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021138935A
Other languages
English (en)
Other versions
JP7295178B2 (ja
Inventor
ユーウェン・ヘー
Yuwen He
ヤン・イエ
Yan Ye
フィリッペ・ハンハート
Hanhart Philippe
シャオユー・シュー
Xiaoyu Xiu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vid Scale Inc
Original Assignee
Vid Scale Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vid Scale Inc filed Critical Vid Scale Inc
Publication of JP2022000954A publication Critical patent/JP2022000954A/ja
Priority to JP2023094844A priority Critical patent/JP2023105219A/ja
Application granted granted Critical
Publication of JP7295178B2 publication Critical patent/JP7295178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Abstract

【課題】360度ビデオコンテンツを符号化するための投影ジオメトリを提供する。【解決手段】ビデオデータの処理は、複数のカメラを用いてビデオデータをキャプチャすることと、ビデオデータを一緒につなぎ合わせて、360度ビデオを獲得することとを含むことができる。キャプチャされ、つなぎ合わされたビデオデータに基づいて、フレームパッキングされたピクチャを提供できる。フレームパッキングされたピクチャ内において、現在のサンプルロケーションを識別することができる。近隣サンプルロケーションが、フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられているかどうかを、決定することができる。近隣サンプルロケーションが、コンテンツ境界の外部に位置付けられているとき、360度ビデオコンテンツの少なくとも1つの円特性と、投影ジオメトリとに基づいて、パディングサンプルロケーションを導出できる。パディングサンプルロケーションに基づいて、360度ビデオコンテンツを処理できる。【選択図】図28

Description

本発明は、ジオメトリ投影を使用する360度ビデオ符号化に関する。
関連出願の相互参照
本出願は、その内容が参照によって本明細書に組み込まれる、2016年7月8日に出願された米国特許仮出願第62/360112号明細書、2016年10月4日に出願された米国特許仮出願第62/404017号明細書、2017年2月24日に出願された米国特許仮出願明細書第62/463242号明細書、および2017年5月3日に出願された米国特許仮出願明細書第62/500605号の利益を主張し、本出願は、これらの優先出願の出願日の利益を主張する。
バーチャルリアリティ(VR)は、ヘルスケア、教育、ソーシャルネットワーキング、工業デザイン/トレーニング、ゲーム、映画、ショッピング、および/またはエンターテイメントなどを含むが、それらに限定されない、多くの応用分野において適用されている。VRは、例えば、視聴者を取り巻く仮想環境を作り出し、視聴者が本当に「そこにいる」感覚を生み出すことによって、視聴者の体験を高めることができる。VRシステムは、姿勢、ジェスチャ、視線、声などを通した対話をサポートすることができる。システムは、ユーザが、VR環境内のオブジェクトと自然な方法で対話することができるように、触覚フィードバックをユーザに提供することができる。
360度ビデオコンテンツを符号化するための投影ジオメトリを提供する。
ビデオデータの処理は、複数のカメラを用いてビデオデータをキャプチャすることと、ビデオデータを一緒につなぎ合わせて、360度ビデオを獲得することとを含むことができる。本明細書において使用される場合、360度ビデオは、全球ビデオ、全方位ビデオ、バーチャルリアリティ(VR)ビデオ、パノラマビデオ、没入型ビデオ(例えば、6自由度を含むことができるライトフィールドビデオ)、および/またはポイントクラウドビデオなどを含むことができる。360度ビデオのエンコーディングおよび/またはデコーディングの間、ジオメトリパディングを適用することができる。
360度ビデオコンテンツは、符号化することができる。1つまたは複数のカメラを用いてキャプチャされたビデオデータと、キャプチャされたビデオデータのつなぎ合わせとに基づいて、フレームピクチャを提供することができる。フレームパッキングされたピクチャ内において、現在のサンプルロケーションを識別することができる。フレームパッキングされたピクチャは、第1の投影ジオメトリと関連付けられた、1つまたは複数の面分を含むことができる。現在のサンプルロケーションは、第1の投影ジオメトリと関連付けることができる。第1の投影ジオメトリは、例えば、エクイレクタングラ投影、正積投影、キューブマップ投影、8面体投影、または円筒投影などのうちの少なくとも1つを含むことができる。360度ビデオコンテンツを符号化するための本明細書において説明される投影ジオメトリは、例示的な方法として使用され、当業者は、他の投影フォーマットを交換可能に使用することができることを理解するであろう。
近隣サンプルロケーションが、フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられているかどうかを、決定することができる。コンテンツ境界は、フレームパッキングされたピクチャの境界、および/または面分境界などを含むことができる。近隣サンプルロケーションが、フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられている場合、360度ビデオコンテンツの1つまたは複数の円特性と、第1の投影ジオメトリとに基づいて、パディングサンプルロケーションを導出することができる。近隣サンプルロケーションの3D位置を計算することができる。近隣サンプルロケーションは、現在のサンプルロケーションを含む面分と関連付けて、計算することができる。近隣サンプルロケーションの3D位置に基づいて、パディングサンプルロケーションを含む第2の面分を決定することができる。第2の面分は、現在のサンプルロケーションを含む第1の面分と異なることができる。第2の面分内における2D平面位置を導出するために、近隣サンプルロケーションの3D位置を用いて、ジオメトリ投影を適用することができる。第2の面分内における近隣サンプルロケーションの2D平面位置は、近隣サンプルロケーションの3D位置のジオメトリ投影に基づいて、パディングサンプルロケーションとして導出することができる。
近隣サンプルロケーションが、フレームパッキングされたピクチャのコンテンツ境界の内部に位置付けられている場合、パディングサンプルロケーションの導出は、スキップすることができる。360度ビデオコンテンツは、(例えば、コンテンツ境界の内部に位置付けられた)近隣サンプルロケーションを使用して、処理することができる。
パディングサンプルロケーションを導出するために、中間投影を使用することができる。例えば、第1の投影ジオメトリにおける座標は、第2の投影ジオメトリと関連付けられた中間座標に変換することができる。第1の投影ジオメトリは、ユニキューブ投影とすることができ、第2の投影ジオメトリは、キューブマップ投影とすることができる。近隣サンプルロケーションの3D位置は、中間座標において計算することができ、第2の面分内における近隣サンプルロケーションの2D平面位置は、中間座標において識別することができる。第2の投影ジオメトリと関連付けられた近隣サンプルロケーションの識別された2D平面位置は、第1の投影ジオメトリと関連付けられた座標に変換され戻すことができる。
360度ビデオコンテンツは、導出されたパディングサンプルロケーションに基づいて処理することができる。例えば、パディングサンプルロケーションにおいて、パディングサンプル値を導出することができる。パディングサンプルロケーションにおけるパディングサンプル値は、補間フィルタを使用して、導出することができる。例えば、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、および/または離散コサイン変換ベースの補間フィルタなどを使用することができる。例えば、パディングサンプル値を導出するために、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、および/または適応ループフィルタリングなどを実行することができる。現在のサンプルロケーションが、コンテンツ境界上に位置付けられているときは、パディングサンプルロケーションに基づいたデブロッキングフィルタを適用することができる。
360度ビデオコンテンツの円特性に従って、現在のサンプルロケーションが、フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、決定された近隣サンプルロケーションが、右側コンテンツ境界を越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、パディングサンプルロケーションは、フレームパッキングされたピクチャの右端コンテンツ境界に円環的に接続される、フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けることができる。現在のサンプルロケーションが、フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、決定された近隣サンプルロケーションが、左側コンテンツ境界を越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、パディングサンプルロケーションは、フレームパッキングされたピクチャの左端コンテンツ境界に円環的に接続される、フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けることができる。現在のサンプルロケーションが、フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、決定された近隣サンプルロケーションが、上端コンテンツ境界の第1のエリアを越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、パディングサンプルロケーションは、上端コンテンツ境界の第1のエリアの円環的な反対側に位置付けられる、上端コンテンツ境界の第2のエリアの近くに位置付けることができる。現在のサンプルロケーションが、フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、決定された近隣サンプルロケーションが、下端コンテンツ境界の第1のエリアを越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、パディングサンプルロケーションは、下端コンテンツ境界の第1のエリアの円環的な反対側に位置付けられる、下端コンテンツ境界の第2のエリアの近くに位置付けることができる。
360度ビデオコンテンツを符号化するために、導出またはマッピングされた基準ブロックに基づいて、現在のブロックを予測することができる。現在のブロックと関連付けられた初期基準ブロックが、フレームパッキングされたピクチャのコンテンツ境界の外側に位置付けられているかどうかを、決定することができる。初期基準ブロックが、コンテンツ境界の外側にある場合、360度ビデオコンテンツの1つまたは複数の円特性と、第1の投影ジオメトリとに基づいて、マッピングされた基準ブロックを導出することができる。初期基準ブロックと関連付けられたロケーションの3D位置を識別することができる。初期基準ブロックと関連付けられたロケーションは、現在のブロックを含む面分と関連付けて、計算することができる。初期基準ブロックと関連付けられたロケーションの3D位置に基づいて、マッピングされた基準ブロックを含む第2の面分を識別することができる。第1の面分は、第2の面分と異なることができる。ジオメトリ投影は、初期基準ブロックと関連付けられたロケーションの3D位置に基づいて、適用することができる。ジオメトリ投影に基づいて、マッピングされた基準ブロックについて、第2の面分内における初期基準ブロックの2D平面位置を導出することができる。
初期基準ブロックが、コンテンツ境界の内部にある場合、マッピングされた基準ブロックの導出は、スキップすることができる。現在のブロックは、(例えば、コンテンツ境界の内部に位置付けられた)初期基準ブロックに基づいて、予測することができる。
マッピングされた基準ブロックを導出するために、中間投影を使用することができる。例えば、第1の投影ジオメトリにおける座標は、第2の投影ジオメトリと関連付けられた中間座標に変換することができる。第1の投影ジオメトリは、ユニキューブ投影とすることができ、第2の投影ジオメトリは、キューブマップ投影とすることができる。初期基準ブロックロケーションと関連付けられたロケーションの3D位置は、中間座標において計算することができる。マッピングされた基準ブロックを導出するための第2の面分内における初期基準ブロックの2D平面位置は、中間座標において識別することができる。第2の投影ジオメトリと関連付けられた初期基準ブロックの識別された2D平面位置は、第1の投影ジオメトリと関連付けられた座標に変換され戻すことができる。
現在のブロックが、フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、決定された初期基準ブロックが、右側コンテンツ境界を越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、マッピングされた基準ブロックは、フレームパッキングされたピクチャの右端コンテンツ境界に円環的に接続される、フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けることができる。現在のブロックが、フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、決定された初期基準ブロックが、左側コンテンツ境界を越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、マッピングされた基準ブロックは、フレームパッキングされたピクチャの左端コンテンツ境界に円環的に接続される、フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けることができる。現在のブロックが、フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、決定された初期基準ブロックが、上端コンテンツ境界の第1のエリアを越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、マッピングされた基準ブロックは、上端コンテンツ境界の第1のエリアの円環的な反対側に位置付けられる、上端コンテンツ境界の第2のエリアの近くに位置付けることができる。現在のブロックが、フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、決定された初期基準ブロックが、下端コンテンツ境界の第1のエリアを越えて、フレームパッキングされたピクチャの外側に位置付けられているときは、マッピングされた基準ブロックは、下端コンテンツ境界の第1のエリアの円環的な反対側に位置付けられる、下端コンテンツ境界の第2のエリアの近くに位置付けることができる。
マッピングされた基準ブロックと関連付けられたサンプル値は、補間フィルタを使用して、導出することができる。例えば、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、および/または離散コサイン変換ベースの補間フィルタなどを使用することができる。
現在のブロックを予測するために、マッピングされた基準ブロックと関連付けられた1つまたは複数の属性を導出することができる。例えば、属性は、マッピングされたブロックの位置の、イントラモード、インターモード、マージモード、および/または動き情報などを含むことができる。現在のブロックは、属性に基づいて、予測することができる。360度ビデオコンテンツを処理するために、マッピングされた基準ブロック内のサンプル値を導出することができる。例えば、ビデオ処理のために、マッピングされた基準ブロック内の複数のサンプル値を導出するために、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、および/または適応ループフィルタリングなどを使用することができる。
マッピングされた基準ブロックは、第1の投影ジオメトリと関連付けられた3Dジオメトリを展開することによって、導出することができる。初期基準ブロックが、コンテンツ境界に対して対角線位置上にないときは、現在のブロックは、コンテンツ境界に対して垂直または対角線に位置付けられた、最も近くの利用可能なブロックを複製することによって、予測することができる。
現在のブロックは、面分のサイズに基づいて、面分の有効なパディングされた領域を決定することによって、予測することができる。初期基準ブロックが、有効なパディングされた領域内に位置付けられているかどうかを、決定することができる。初期基準ブロックが、有効なパディングされた領域の外部に位置付けられているときは、現在のブロックは、有効なパディングされた領域内に位置付けられた、最も近くの利用可能なブロックに基づいて、予測することができる。初期基準ブロックが、有効なパディングされた領域の内部に位置付けられているときは、現在のブロックは、マッピングされた基準ブロックに基づいて、予測することができる。
初期基準ブロックは、部分的に、有効なパディングされた領域の外部に位置付けることができる。例えば、初期基準ブロックは、有効なパディングされた領域内に位置付けられた第1のサブブロックと、有効なパディングされた領域の外部に位置付けられた第2のサブブロックとを含むことができる。有効なパディングされた領域の外部に位置付けられた第2のサブブロックのサンプルは、その後、有効なパディングされた領域内に位置付けられたそれぞれの近隣サンプル値を使用して、パディングすることができる。現在のブロックは、第1のサブブロック内のサンプルと、第2のサブブロック内のパディングされたサンプルとに基づいて、予測することができる。
有効なパディングされた領域の範囲は、第1の投影ジオメトリと関連付けられた面分の少なくとも位置および/またはサイズに基づいて、決定することができる。初期基準ブロックが、少なくとも部分的に、有効なパディングされた領域の外部に位置付けられているかどうかを、決定することができる。初期基準ブロックが、少なくとも部分的に、有効なパディングされた領域の外部に位置付けられているときは、初期基準ブロックは、現在のブロックの予測から除外することができる。
本明細書において開示される実施形態についてのより詳細な理解は、添付の図面と併せて、例によって与えられる、以下の説明から得ることができる。
エクイレクタングラ投影(ERP)における、経度方向および緯度方向に沿った、例示的な球サンプリングを示す図である。 ERPにおける例示的な2D平面を示す図である。 ERPを使用して生成された例示的なピクチャを示す図である。 キューブマップ投影(CMP)における例示的な3Dジオメトリ構造を示す図である。 4×3フレームパッキングを用いた6つの面分を有する例示的な2D平面を示す図である。 キューブマップ投影を使用し生成された例示的ピクチャの図である。 正積投影(EAP)における例示的球サンプリングを示す図である。 EAPにおける例示的な2D平面を示す図である。 EAPを使用して生成された例示的なピクチャを示す図である。 8面体投影における例示的な3Dジオメトリ構造を示す図である。 8面体投影における例示的2D平面フレームパッキングの図である。 8面体投影を使用して生成された例示的なピクチャを示す図である。 例示的な360度ビデオ処理を示す図である。 例示的なブロックベースのエンコーダのブロック図である。 例示的なブロックベースのデコーダのブロック図である。 HEVCイントラ予測において基準サンプルを使用する例を示す図である。 HEVCにおけるイントラ予測方向の例示的な表示を示す図である。 1つの動きベクトルを用いた例示的なインター予測を示す図である。 HEVC/H.264におけるピクチャ境界の外部の基準サンプルのためのパディングを示す図である。 HEVCマージプロセスにおいて空間マージ候補を導出するために、いかに空間近隣ブロックを使用することができるかを示す図である。 キューブマップを使用して投影される面分ピクチャについての不連続性およびジオメトリパディングを示す図である。 (A)は、キューブマップのためのパディングの例示的3D表現を示す図であり、(B)は、キューブマップのためのパディングの、正面面分の周囲に展開された面分を有する、例示的なフラット表現を示す図である。 (A)は、最も近い近隣の技法を使用した、コーナエリアにおける欠損サンプルの例示的な外挿を示す図であり、(B)は、面分境界に対して対角線方向の技法を使用した、コーナエリアにおける欠損サンプルの例示的な外挿を示す図である。 キューブマップ4×3フレームパッキングされたピクチャについての例示的な動き補償予測を示す図である。 球上における連続性を示すための、エクイレクタングラ投影を用いて投影されたピクチャに対する例示的なパディングの図である。 エクイレクタングラ投影を用いて投影されたピクチャに対する例示的なパディングの別の図である。 ルックアップテーブルを使用してサイン関数どう導出するのかを示す図である。 動き推定のためのパディングされた面分用バッファの図である。 パディングされた面分用バッファ内における動き推定の図である。 ソースピクチャサイズが、最小符号化ユニット(CU)サイズの倍数ではないときの、水平方向におけるパディングを示す図である。 ソースピクチャサイズが、最小CUサイズの倍数ではないときの、垂直方向におけるパディングを示す図である。 ソースピクチャサイズが、最小CUサイズの倍数ではないときの、水平方向および垂直方向におけるパディングを示す図である。 現在のブロックをデブロッキングするときに使用される近隣ブロックを示す図である。 エッジオフセットサンプル適応オフセット(SAO)によってフィルタリングすることができるピクセルを示す図である。 実行される例示的なデコード済みピクチャバッファ(DPB)管理の図である。 実行される例示的なDPB管理の別の図である。 キューブマップについてキューブ面分の一様サンプリングの図である。 キューブマップについての非一様な球サンプリングの例示的図である。 ユニキューブについてキューブ面分の非一様サンプリングの図である。 ユニキューブについての一様な球サンプリングの例示的図である。 (A)は、キューブ面分の非一様な区分化グリッドからユニキューブ面分の一様な区分化グリッドへの例示的マッピングを示す図であり、(B)は、ユニキューブ面分の一様な区分化グリッドからキューブ面分の非一様な区分化グリッドへの例示的マッピングを示す図である。 キューブ面分上における例示的な非一様な区分化を示す図である。 球上における例示的な一様な区分化を示す図である。 キューブ面分の座標βとユニキューブ面分の座標β’との間の例示的マッピングを示す図である。 1つのユニキューブ面分についてのパディングされるサンプルの有効な領域の例示的な図である。 ユニキューブフォーマットについてのパディングされるサンプルの有効な領域にMVをクリッピングする例示的な図である。 ユニキューブ投影についてのハイブリッドパディングの例示的図である。 ユニキューブ投影についてのハイブリッドパディングの例示的ピクチャを示す図である。 キューブマップ、ユニキューブ、ACP、およびEACのマッピング関数の例示的な比較を示す図である。 ユニキューブについてのジオメトリパディングのために6つの面分に対してルックアップを使用する例示的な図である。 1つまたは複数の開示される実施形態を実施できる、例示的通信システムの図である。 図33Aに示される通信システム内において使用できる、例示的な無線送受信ユニット(WTRU)のシステム図である。 図33Aに示される通信システム内において使用できる、例示的な無線アクセスネットワークおよびコアネットワークのシステム図である。 図33Aに示される通信システム内で使用できる、別の例示的な無線アクセスネットワークおよびコアネットワークのシステム図である。 図33Aに示される通信システム内で使用できる、別の例示的な無線アクセスネットワークおよびコアネットワークのシステム図である。
説明的な実施形態についての詳細な説明が、様々な図を参照して、今から行われる。この説明は、可能な実施の詳細な例を提供するが、詳細は、例示的であることが意図されており、決して本出願の範囲を限定しないことに留意されたい。
VRシステムは、1つまたは複数の360度ビデオを使用することができる。360度ビデオは、水平方向においては360度の角度から、垂直方向においては180度の角度から、見ることができる。VRシステムおよび360度ビデオは、超高解像度(UHD)サービスを超えたメディア消費のために、使用することができる。フリービューTV(FTV)は、ソリューションの性能をテストすることができる。例えば、FTVは、360度ビデオ(もしくは、例えば、全方位ビデオ)ベースのシステム、および/またはマルチビューベースのシステムの性能をテストすることができる。
VRシステムは、処理チェーンを含むことができる。処理チェーンは、キャプチャリング、処理、表示、および/または適用を含むことができる。キャプチャリングに関して、VRシステムは、1つまたは複数のカメラを使用して、異なる多様なビュー(例えば、6から12のビュー)からシーンをキャプチャすることができる。ビューは、一緒につなぎ合わせることができ、(例えば、4Kまたは8Kなどの高解像度で)360度ビデオを形成することができる。VRシステムのクライアントおよび/またはユーザサイドは、計算プラットフォーム、頭部装着型ディスプレイ(HMD)、および/または頭部追跡センサを含むことができる。計算プラットフォームは、(例えば、360度ビデオを)受け取り、デコードし、および/または表示のためにビューポートを生成することができる。(例えば、各目に対して1つの)2つのピクチャを、表示のためにレンダリングすることができる。2つのピクチャは、立体視のために、HMDにおいて表示することができる。HMDにおいて表示される画像を拡大するために、レンズを使用することができる。例えば、より良く見えるように、レンズを使用して、HMDにおいて表示される画像を拡大することができる。頭部追跡センサは、視聴者の頭部の向きを追跡する(例えば、常に追跡する)ことができる。向き情報は、その向きのためのビューポートピクチャを表示するために、VRシステムに供給することができる。VRシステムは、専用のタッチデバイスを提供することができる。例えば、専用のタッチデバイスは、視聴者が、仮想世界内のオブジェクトと対話することを可能にすることができる。VRシステムは、グラフィカル処理ユニット(GPU)サポートを備えるワークステーションによって、駆動することができる。VRシステムは、計算プラットフォームとして、HMDディスプレイとして、および/または頭部追跡センサとして、モバイルデバイス(例えば、スマートフォン)を使用することができる。空間HMD解像度は、例えば、2160×1200であることができる。リフレッシュレートは、例えば、90Hzであることができる。視野(FOV)は、例えば、110度であることができる。頭部追跡センサのサンプリングレートは、速い動きをキャプチャするために、例えば、1000Hzであることができる。VRシステムは、レンズと、カードボードとを備えることができ、スマートフォンによって駆動することができる。VRシステムは、ゲーミングのために、使用することができる。1つまたは複数の360度ビデオストリーミングサービスを、提供することができる。
VRシステムは、対話性および/または触覚フィードバックを提供することが可能であることができる。大きいHMDは、人が着用するのに便利ではないことがある。(例えば、あるHMDによって提供されるような)立体視のための2160×1200の解像度は、十分でないことがあり、いくらかのユーザにめまいおよび不快感を起こさせることがある。解像度の増加が、望ましいことがある。VR体験は、VRシステムの視覚的効果を、現実世界の力フィードバックと組み合わせることによって、高めることができる。VRジェットコースタアプリケーションは、VRシステムの視覚的効果を、現実世界の力フィードバックと組み合わせた例であることができる。
360度ビデオは、例えば、動的適応ストリーミングオーバHTTP(DASH)ベースのビデオストリーミング技法を使用して、圧縮および/または配信することができる。360度ビデオコンテンツは、球面ジオメトリ構造を用いて、表すことができる。例えば、同期が取られた複数のビューを、複数のカメラによってキャプチャすることができ、球上においてつなぎ合わせることができる。同期が取られた複数のビューは、一体構造として、球上においてつなぎ合わせることができる。球情報は、ジオメトリ変換プロセスを介して、2D平面上に投影することができる。例えば、球情報は、エクイレクタングラ投影(ERP)を使用することによって、ジオメトリ変換プロセスを介して、2D平面上に投影することができる。図1Aは、経度(φ)および緯度(θ)における例示的な球サンプリングを示している。図1Bは、ERPを使用して、2D平面上に投影された、例示的な球を示している。航空学においては、範囲[−π,π]内の経度φは、ヨーと呼ばれることがあり、範囲[−π/2,π/2]内の緯度θは、ピッチと呼ばれることがあり、πは、円の直径に対する円周の比であることができ、(x,y,z)は、3D空間内における点の座標を表すことができ、(ue,ve)は、ERP後の、2D平面内における点座標を表すことができる。ERPは、例えば、式(1)および/または(2)に示されるように、数学的に表すことができ、
ue=(φ/2×π)+0.5)×W (1)
ve=(0.5−θ/π)×H (2)
WおよびHは、2D平面ピクチャの幅および高さであることができる。図1Aに示されるように、球上における経度L4と緯度A1との間の交点である点Pは、式(1)および/または(2)を使用して、図1Bにおける2D平面内の一意的な点qにマッピングすることができる。図1Bに示された2D平面内の点qは、例えば、逆投影を介して、図1Aに示された球上の点Pに投影し戻すことができる。図1Bにおける視野(FOV)は、球におけるFOVが、X軸方向では約110度の視野角で、2D平面にマッピングされる例を示している。
1つまたは複数の360度ビデオを、2Dビデオにマッピングすることができる。例えば、360度ビデオは、ERPを使用して、2Dビデオにマッピングすることができる。360度ビデオは、H.264または高効率ビデオ符号化(HEVC)などのビデオコーデックを用いて、エンコードすることができ、クライアントに配信することができる。クライアントサイドにおいては、ビデオは、例えば、エクイレクタングラピクチャ内のFOVに属する部分をHMD上に投影し、表示することによって、ユーザのビューポートに基づいて、(例えば、エクイレクタングラフォーマットで)デコードし、レンダリングすることができる。エクイレクタングラ2Dピクチャの特性は、2Dピクチャ(例えば、レクティリニアビデオピクチャ)と異なることができる。図1Cは、例示的なエクイレクタングラピクチャを示している。ピクチャの上部は、北極に対応することができ、下部は、南極に対応することができる。図1Cに示されるように、上部および/または下部は、引き延ばすことができる。例えば、上部および/または下部は、赤道に対応するピクチャの中央部に比べて、引き延ばすことができる。上部および/または下部における引き延ばしは、2D空間領域におけるエクイレクタングラサンプリングが、非一様なことがあることを示すことができる。2Dエクイレクタングラピクチャ内のモーションフィールドは、複雑なことがある。例えば、時間方向における2Dエクイレクタングラピクチャ内のモーションフィールドは、複雑なことがある。
並進モデルを使用して、モーションフィールドを記述する、あるビデオコーデック(例えば、MPEG−2、H.264、および/またはHEVC)は、エクイレクタングラ投影された2D平面ピクチャにおいて、形状変化運動を表すことができないことがある。ERPを用いる場合、極により近いエリアは、視聴者および/またはコンテンツプロバイダにとって、あまり関心がないことがある。例えば、極により近いエリアは、赤道により近いエリアと比べて、視聴者および/またはコンテンツプロバイダにとって、あまり関心がないことがあり、視聴者は、長い持続時間にわたって、上部および下部に焦点を合わせないことがある。上部および下部は、ERPの後、(例えば、歪曲効果のせいで)引き延ばされて、2D平面の大きい部分になることができる。引き延ばされた部分のビデオ圧縮は、多数のビットを要することができる。ある処理技法を、エクイレクタングラピクチャ符号化に適用することができる。例えば、平滑化などの前処理を極エリアに適用して、それらのエリアを符号化するためのビットコストを低減させることができる。
キューブマップ、正積、円筒、ピラミッド、および/または8面体などを含むが、それらに限定されない、1つまたは複数の異なるジオメトリ投影を使用して、360度ビデオを表すことができる。キューブマップは、6つの面分を利用することができる。キューブマップにおける面分は、平面正方形であることができる。図2Aは、例示的なキューブマップ投影(CMP)を示している。キューブマップは、6つの面分を含むことができる。例えば、キューブマップは、6つの正方形面分を含むことができる。示された内接球の半径が、1であると仮定すると、キューブマップの面分(例えば、正方形面分)の横長は、2であることができる。図2Bは、エンコーディングおよび配信のために使用することができる、6つの面分を長方形エリアに配置するための例示的なパッキングを示している。図2Cは、CMPを使用して生成された例示的なピクチャを示している。ピクチャのない、グレイ部分201、203は、長方形ピクチャを満たすための、1つまたは複数のパディングされた領域を表すことができる。CMPにおける面分については、ピクチャは、2Dピクチャと同じに見えることができる。面分の境界は、連続的でないことがある。例えば、2つの近隣面分を横断する直線は、それら2つの面分の境界において、曲げられることがある。面分境界における動きは、不連続なことがある。
図3Aは、正積投影(EAP)の例示的なジオメトリ構造を示している。正積投影の球上における垂直サンプリングは、一様な間隔のピッチに基づかないことがある。サンプリングされた緯度(例えば、各サンプリングされた緯度)のY軸上への投影は、球上のサンプルが同じ面積を占めることができるように、一様に分布することができる。垂直方向におけるサンプリングは、極領域に近い領域については、疎らになることができる。図3Aに示されるように、赤道付近では、より多くのサンプルを使用することができる。ユーザは、極に近い領域よりも、赤道に近い領域を、より頻繁に見ることがある。図3Bは、EAPにおける例示的な2D平面を示している。図3Cは、EAPを用いた例示的なピクチャを示している。図3Cに示されるように、赤道付近の領域(例えば、301)は、拡大させることができ、一方、極付近の領域(例えば、303)は、すぼませることができる。
図4Aは、8面体投影の例示的なジオメトリ構造を示している。8面体は、8つの等しい側面三角形面分を含むことができる。内接球の半径が、1である場合、各三角形の横長は、
Figure 2022000954
であることができる。図4Bは、8つの三角形を長方形エリアに配置するための例示的なパッキングを示している。図4Cは、8面体投影を用いた例示的なピクチャを示している。2つの隣接三角形の共有される境界のコーナ(例えば、401)において、歪曲歪みを観察することができる。
異なるジオメトリ投影の符号化効率を、比較することができる。例えば、比較のために、緯度ベースのピーク信号対雑音比(L−PSNR)を、使用することができる。1つまたは複数(例えば、2つ)の要因、すなわち、球上における一様なサンプリング、および/または視聴者の視聴挙動について考えることができる。球上に一様に分布するサンプルの具体的な数を定義することができる。緯度に基づいて、サンプルの重みを定義することができる。歪みは、一様に分布するサンプルを考えることによって、加重された平均2乗誤差(MSE)を用いて、測定することができる。重みは、視聴者の視野角を追跡することによって、導出することができる。例えば、重みは、トレーニング系列を使用して、視聴者の視野角を追跡することによって、導出することができる。
サンプルに対して、それがより頻繁に視聴される場合、より大きい重みを与えることができる。例えば、興味深いコンテンツは、赤道周辺に位置付けられることがあるので、極に近いサンプルよりも、赤道周辺のサンプルに、より大きい重みを与えることができる。球上において一様に分布するサンプルを使用することによって、異なる投影の性能を比較できる。これらの球サンプルは、事前定義することができ、異なる投影が適用されるときは、整数サンプリング位置に投影されないことがある。補間フィルタベースの再サンプリングが、適用される場合、追加の補間誤差が、導入されることがある。最も近い近隣サンプリングが、適用される場合、一様なサンプリングは保証されないことがある。
1つまたは複数の360度カメラおよびつなぎ合わせを用いて、エクイレクタングラフォーマットをサポートすることができる。キューブマップジオメトリを用いた360度ビデオのエンコーディングの間に、エクイレクタングラフォーマットは、キューブマップフォーマットに変換することができる。エクイレクタングラとキューブマップとの間の関係が、存在することができる。図2Aにおいては、面分は、球の中心から面分の中心へと延びる3つの軸の各々を用いて、参照することができる。図2Aに示されるように、Pは、正を表すことができ、Nは、負を表すことができる。PXは、球の中心からの、正のx軸沿いの方向を表すことができ、NXは、PXの反対方向を表すことができる。PY、NY、PZ、および/またはNZに対しても、同様の記法を使用することができる。6つの面分(例えば、PX、NX、PY、NY、PZ、および/またはNZ)は、それぞれ、前、後、上、下、左、および/または右の面分に対応することができる。面分には、0から5までのインデックスを付けることができる。例えば、面分には、以下のように、すなわち、PX(0)、NX(1)、PY(2)、NY(3)、PZ(4)、および/またはNZ(5)のように、インデックスを付けることができる。Ps(X_s、Y_s、Z_s)は、半径1の球上の点とすることができる。点Psは、以下のように、ヨーφおよびピッチθで表すことができる。
X_s=cos(θ)cos(φ) (3)
Y_s=sin(θ) (4)
Z_s=−cos(θ)sin(φ) (5)
点Pfは、直線が、球中心からPsに延ばされたときの、キューブ上の点とすることができる。Pfは、面分NZ上に存在することができる。Pfの座標(X_f,Y_f,Z_f)は、以下のように計算することができ、
X_f=X_s/|Z_s| (6)
Y_f=Y_s/|Z_s| (7)
Z_f=−1 (8)
ここで、|x|は、変数xの絶対値とすることができる。面分NZの2D平面内のPfの座標(uc,vc)は、以下のように計算することができる。
uc=W×(1−X_f)/2 (9)
vc=H×(1−Y_f)/2 (10)
1つまたは複数の式(3)から(10)を使用して、特定の面分上のキューブマップにおける座標(uc,vc)と、球上の点(φ,θ)との間の関係を、導出することができる。エクイレクタングラ点(ue,ve)と、球上の座標(φ,θ)との間の関係は、式(1)および/または(2)から知ることができる。エクイレクタングラジオメトリとキューブマップジオメトリとの間の関係が、存在することができる。
キューブマップからエクイレクタングラへのジオメトリマッピングは、以下のように表現することができる。キューブマップ上の1つの面分上に点(uc,vc)を与えると、エクイレクタングラ平面上の出力(ue,ve)は、以下のうちの1つまたは複数として計算することができる。(uc,vc)を用いた面分上の3D点P_fの座標は、式(9)および/または(10)における関係に従って、計算することができる。P_fを用いた球上の3D点P_sの座標は、式(6)、(7)、および/または(8)における関係に従って、計算することができる。P_sを用いた球上の(φ,θ)の座標は、式(3)、(4)、および/または(5)における関係に従って、計算することができる。(φ,θ)からのエクイレクタングラピクチャ上の点(ue,ve)の座標は、式(1)および/または(2)における関係に従って、計算することができる。
キューブマップを使用して、2Dピクチャで360度ビデオを表すために、キューブマップの6つの面分を、長方形エリア内にパッキングすることができる。これは、フレームパッキングと呼ばれることがある。フレームパッキングされたピクチャは、2Dピクチャとして扱う(例えば、符号化する)ことができる。異なるフレームパッキング構成(例えば、3×2および/または4×3)を使用することができる。3×2構成においては、6つのキューブマップ面分を、1行内に3つの面分を有する2行内にパッキングすることができる。4×3構成においては、4つの面分(例えば、PX、NZ、NX、およびPZ)を、1つの行(例えば、中央行)内にパッキングすることができ、他の2つの面分(例えば、PYおよびNY)を、2つの異なる行(例えば、上行および下行)内に別々にパッキングすることができる。図2Cは、図1Cにおけるエクイレクタングラピクチャに対応する、4×3フレームパッキングの例を示している。
エクイレクタングラフォーマットにおける360度ビデオは、キューブマップフォーマットに変換することができる。例えば、エクイレクタングラフォーマットにおける360度ビデオは、エクイレクタングラフォーマットにおける360度ビデオを入力として使用して、キューブマップフォーマットに変換することができる。キューブマップフォーマットにおけるサンプル点(uc,vc)に対して、エクイレクタングラフォーマットにおける対応する座標(ue,ve)を計算することができる。エクイレクタングラにおける計算された座標(ue,ve)が、整数サンプル位置にない場合、補間フィルタを使用することができる。例えば、隣接整数位置のサンプルを使用して、この分数位置におけるサンプル値を獲得するために、補間フィルタを使用することができる。
キューブマップフォーマットは、360度ビデオの表現フォーマットであることができる。球上におけるサンプルは、キューブマップフォーマットによって非一様にサンプリングすることができる。例えば、球上におけるサンプルは、面分境界の近くでは、より高いサンプリングレートを、および/または面分中央の近くでは、より低いサンプリングレートを用いて、キューブマップフォーマットによって、非一様にサンプリングすることができる。球上におけるサンプルは、レクティリニア投影の制限のせいで、キューブマップフォーマットによって、非一様にサンプリングされることがある。キューブマップフォーマットには、ある球サンプリング特性が、存在することができる。例えば、キューブマップフォーマットには、面分境界では、より高いサンプリングレート、および/または面分中央では、より低いサンプリングレートという、球サンプリング特性が、存在することができる。キューブマップ投影は、面分の境界付近の領域を拡大することができ、および/または面分の中央付近の領域を縮めることができる。
モーションモデルは、並進モーションモデルおよび/またはアフィンモーションモデルなどを含むことができる。キューブマップ投影は、投影面分における結果のモーションフィールドの規則性を低下させることがある。
ユニキューブマップ投影フォーマットを提供することができる。キューブマップのサンプリンググリッドは、球上における一様なサンプリンググリッドに転換することができる。実際のキューブ面分が生成される前に、2D平面面分上におけるサンプルの座標を変更するために、マッピングを使用することができる。
図24A〜図24Dは、キューブマップとユニキューブとの間の平面サンプリングパターンおよび球サンプリングパターンの例を示している。例えば、図24Aは、キューブマップについてのキューブ面分の例示的な一様なサンプリングを示している。図24Aに示されるように、キューブマップ面分のサンプリンググリッドは、平行な直線の2つのセット、すなわち、一方は水平方向の直線、他方は垂直方向の直線を含むことができる。平行な区分化直線のセットは、一様な間隔で隔てられることができる。キューブマップ面分が、球上に投影されるとき、サンプリンググリッドは、変形されることがある。例えば、図24Bに示されるように、平面面分内の直線は、曲線になることがある。図24Bは、キューブマップについての例示的な非一様な球サンプリングを示している。球上のサンプリンググリッドは、非一様になることがある。例えば、図24Bに示されるように、レクティリニア投影は、距離が保存される投影ではないことがあるので、球上のサンプリンググリッドは、非一様になることがある。キューブマップと同様のサンプリング構造を維持するために、ユニキューブフォーマット内の面分は、平行な直線の1つまたは複数(例えば、2つ)のセットに基づいて、サンプリングすることができる。セット内の平行な直線は、球上の対応するサンプリンググリッドが、一様であることができるように、非一様に分布することができる。図24Cは、ユニキューブについてのキューブ面分の例示的な非一様なサンプリングを示している。例えば、図24Cに示されるように、セット内の平行な直線は、非一様に分布することができる。図24Dは、ユニキューブについての例示的な一様な球サンプリングを示している。図24Dに示されるように、球上の対応するサンプリンググリッドは、一様であることができる。
図24Cの例に示されるような、キューブ面分上における非一様な区分化は、近隣サンプル間において変化する距離と関連付けることができる。非一様な平面サンプリンググリッドを、一様な平面サンプリンググリッドに変換するために、マッピングを使用することができる。図25は、キューブ面分とユニキューブ面分との間の例示的なマッピングを示している。例えば、図25Aは、キューブ面分の非一様な区分化グリッドからユニキューブ面分の一様な区分化グリッドへの例示的なマッピングを示している。図25Bは、ユニキューブ面分の一様な区分化グリッドからキューブ面分の非一様な区分化グリッドへの例示的なマッピングを示している。水平変換と垂直変換とが、分離可能である場合、(x,y)から(x’,y’)へのマッピングは、1つまたは複数(例えば、2つ)の別々の変換を含むことができ、例えば、x’=f(x)、y’=f(y)であり、変換は、xおよびyに対して適用することができる。例えば、変換は、xおよびyに対して独立に適用することができる。(x’,y’)を(x,y)にマッピングすることができる、逆変換を計算することができ、例えば、x=g(x’)、y=g(y’)である。xおよびyの2つの変換は、同一であることができる。xおよびyの2つの変換関数が、同一である場合、yの変換関数の導出を実行することができる。例えば、β∈[−1,1]が、キューブ上のパターンエリアのy座標である場合、図26は、キューブ面分の座標とユニキューブ面分の座標との間のマッピング関数を計算する例を示している。図26Aは、キューブ面分上において1つの非一様な区分化を使用する、ユニキューブの例示的なマッピング関数を示している。図26Bは、球上において対応する一様な区分化を使用する、ユニキューブの例示的なマッピング関数を示している。図26Cは、キューブ面分の座標βとユニキューブ面分の座標β’との間のマッピング関数を示している。マッピング関数β’=f(β)は、(例えば、図24Bに示されるように)球上において等しいレクティリニア構造区分化を用いて、βをβ’に変換することを目標とすることができ、f(β)は、βに対応する球領域の面積に比例することができる。例えば、図26Bに示されるように、f(β)の値は、パターン球領域と球の4分の1との面積間の比に等しいことができる。例えば、マッピング関数f(β)は、
Figure 2022000954
Figure 2022000954
のように計算することができ、ここで、β’∈[−1,1]である。図26Cは、βとβ’との間の対応するマッピング関係を示している。
キューブマップに似た投影フォーマットは、キューブマップの座標を調整することによって、1つまたは複数の球サンプリング特徴を提供することができる。例えば、1つまたは複数のマッピング関数を使用することによって、キューブマップの座標を調整することができる。調整されたキューブマップ投影(ACP)は、球サンプリング一様性を提供することができる。キューブ領域における座標は、以下のマッピング関数のうちの1つまたは複数に基づいて、調整することができ、
β’=f(β)=sgn(β)(−0.36・β2+1.36・|β|) (13)
Figure 2022000954
ここで、sgn(・)は、入力の符号を返すことができる。
キューブ領域と等角キューブマップ(EAC)領域との間の座標を変換することによって、EAC投影を実行することができる。例えば、キューブ領域とEAC領域との間の座標は、キューブマップサンプリンググリッド上において、球サンプルの角度のタンジェントに基づいて、変換することができる。EAC投影のためのマッピング関数は、
Figure 2022000954
Figure 2022000954
のように計算することができる。
図31は、キューブマップ、ユニキューブ、ACP、およびEACについてのマッピング関数g(β’)の例示的な比較を示している。
図5は、360度ビデオ処理のための例示的なワークフローを示している。360度ビデオキャプチャは、1つまたは複数のカメラを使用して、キャプチャすることができる。例えば、1つまたは複数のカメラを使用して、球空間をカバーする360度ビデオをキャプチャすることができる。ビデオは、一緒につなぎ合わせることができる。例えば、ビデオは、エクイレクタングラジオメトリ構造を使用して、一緒につなぎ合わせることができる。エクイレクタングラジオメトリ構造は、エンコーディング(例えば、ビデオコーデックを用いたエンコーディング)のために、キューブマップジオメトリなど、他のジオメトリ構造に変換することができる。符号化されたビデオは、例えば、動的ストリーミングおよび/またはブロードキャスティングを介して、クライアントに配信することができる。ビデオは、例えば、受信機において、デコードすることができる。伸張されたフレームは、アンパッキングして、表示ジオメトリなどの表示にすることができる。例えば、表示ジオメトリは、エクイレクタングラジオメトリとすることができる。レンダリングのために、ジオメトリを使用することができる。例えば、レンダリングのために、ユーザの視野角に従ったビューポート投影を介して、ジオメトリを使用することができる。
クロマ成分は、サブサンプリングして、ルーマ成分のそれよりも小さい解像度にすることができる。クロマサブサンプリングは、エンコーディングのために使用されるビデオデータの量を減らすことができ、帯域幅および/またはコンピューティング能力を節約することができ、ビデオ品質に影響を与える(例えば、著しく影響を与える)ことなく、そうすることができる。4:2:0クロマフォーマットを用いる場合、両方のクロマ成分をサブサンプリングして、ルーマ解像度の1/4にすることができる。例えば、クロマ成分を、水平方向においてルーマ解像度の1/2、垂直方向においても1/2にサブサンプリングすることができる。クロマサブサンプリングの後、クロマサンプリンググリッドは、ルーマサンプリンググリッドと異なることができる。図5においては、処理フロー全体にわたって、1つまたは複数のステージにおいて処理される360度ビデオは、クロマ成分がサブサンプリングされたクロマフォーマットとすることができる。
図6は、例示的なブロックベースのハイブリッドビデオエンコーディングシステム600のブロック図を示している。入力ビデオ信号602は、ブロック毎に処理することができる。高解像度(例えば、1080pおよび/またはそれ以上)のビデオ信号を圧縮するために、(例えば、HEVCにおいては)(例えば、符号化ユニットまたはCUと呼ばれる)拡張されたブロックサイズを使用することができる。CUは、(例えば、HEVCにおいては)最大で64×64ピクセルを有することができる。CUは、それに対して別々の予測を適用することができる、予測ユニットまたはPUに区分化することができる。入力ビデオブロック(例えば、マクロブロック(MB)またはCU)に対して、空間予測660または時間予測662を実行することができる。空間予測(または、例えば、イントラ予測)は、同じビデオピクチャおよび/またはスライス内のすでに符号化された近隣ブロックに属するピクセルを使用して、現在のビデオブロックを予測することができる。空間予測は、ビデオ信号に内在する空間冗長性を低減させることができる。(例えば、インター予測または動き補償予測と呼ばれる)時間予測は、すでに符号化されたビデオピクチャに属するピクセルを使用して、現在のビデオブロックを予測することができる。時間予測は、ビデオ信号に内在する時間冗長性を低減させることができる。与えられたビデオブロックのための時間予測信号は、現在のブロックとそれの基準ブロックとの間の動きの量および/または方向を示す、動きベクトルによって伝達することができる。(例えば、H.264/AVCまたはHEVCにおいて)複数の基準ピクチャが、サポートされる場合、ビデオブロックの基準ピクチャインデックスを、デコーダに伝達することができる。時間予測信号が、基準ピクチャストア664内のどの基準ピクチャに由来することができるかを、基準インデックスを使用して、識別することができる。
空間および/または時間予測の後、エンコーダ内のモード決定680は、例えば、レート−歪み最適化に基づいて、予測モードを選択することができる。616において、現在のビデオブロックから予測ブロックを減算することができる。変換モジュール604および量子化モジュール606を使用して、予測残差を脱相関して、目標ビットレートを達成することができる。量子化された残差係数を、610において、逆量子化し、612において、逆変換して、再構成された残差を形成することができる。626において、再構成された残差を、予測ブロックに加算し直し、再構成されたビデオブロックを形成することができる。666において、再構成されたビデオブロックに、デブロッキングフィルタおよび/または適応ループフィルタなどの、インループフィルタを適用することができ、その後、それは、基準ピクチャストア664に入れられる。基準ピクチャストア664内の基準ピクチャは、将来のビデオブロックを符号化するために、使用することができる。出力ビデオビットストリーム620を形成することができる。符号化モード(例えば、インターもしくはイントラ)、予測モード情報、動き情報、および/または量子化された残差係数を、エントロピ符号化ユニット608に送って、圧縮およびパッキングを施し、ビットストリーム620を形成することができる。
図7は、例示的なブロックベースのビデオデコーダの全体的なブロック図を示している。エントロピデコーディングユニット208において、ビデオビットストリーム202を受け取り、アンパッキングし、および/またはエントロピデコードすることができる。(例えば、イントラ符号された場合)空間予測ユニット260に、および/または(例えば、インター符号された場合)時間予測ユニット262に、符号化モードおよび/または予測情報を送ることができる。空間予測ユニット260および/または時間予測ユニット262において、予測ブロックを形成することができる。逆量子化ユニット210および逆変換ユニット212に、残差変換係数を送って、残差ブロックを再構成することができる。226において、予測ブロックと残差ブロックとを加算することができる。再構成されたブロックは、インループフィルタリング266を通過することができ、基準ピクチャストア264内に記憶することができる。基準ピクチャストア264内の再構成されたビデオは、表示デバイスを駆動するために、および/または将来のビデオブロックを予測するために、使用することができる。
2D平面レクティリニアビデオを符号化するために、H.264および/またはHEVCなどのビデオコーデックを使用することができる。ビデオ符号化は、空間および/または時間相関を利用して、情報冗長性を除去することができる。ビデオ符号化の間に、イントラ予測および/またはインター予測など、1つまたは複数の予測技法を適用することができる。イントラ予測は、近隣の再構成されたサンプルを用いて、サンプル値を予測することができる。図8は、現在の変換ユニット(TU)をイントラ予測するために使用することができる、例示的な基準サンプルを示している。基準サンプルは、現在のTUの上および/または左に位置付けられた、再構成されたサンプルを含むことができる。
それらから選択する複数のイントラ予測モードが、存在することができる。図9は、HEVCにおけるイントラ予測方向の例示的な表示を示している。例えば、HEVCは、図9に示されるように、平面(0)、DC(1)、および/または角度予測(2〜34)を含む、35個のイントラ予測モードを指定することができる。適切なイントラ予測モードを選択することができる。例えば、エンコーダサイドにおいて、適切なイントラ予測モードを選択することができる。複数の候補イントラ予測モードによって生成された予測は、比較することができる。予測サンプルと元のサンプルとの間に最も小さい歪みを生成する、候補イントラ予測モードを選択することができる。選択されたイントラ予測モードは、符号化して、ビットストリーム内に収めることができる。
角度予測を使用して、方向性テクスチャを予測することができる。図10は、1つの動きベクトル(MV)を用いた、例示的なインター予測を示している。基準ピクチャ内のブロックB0’およびB1’は、それぞれ、現在のピクチャのブロックB0およびB1についての基準ブロックであることができる。基準ブロックB0’は、部分的に、基準ピクチャの境界の外部にあることができる。パディングプロセスを使用して、ピクチャ境界の外部の未知のサンプルを満たすことができる。図11は、ピクチャ境界の外部の基準サンプルのための例示的なパディングを示している。例えば、ブロックB0’のためのパディング例は、4つの部分P0、P1、P2、およびP3を有することができる。部分P0、P1、およびP2は、ピクチャ境界の外部にあることができ、例えば、パディングプロセスを介して、満たすことができる。例えば、部分P0は、基準ピクチャの左上サンプルを用いて、満たすことができる。部分P1は、基準ピクチャの上端行を使用して、垂直パディングを用いて、満たすことができる。部分P2は、ピクチャの左端列を使用して、水平パディングを用いて、満たすことができる。
インター符号化のために、動きベクトル予測および/またはマージモードを使用することができる。
動きベクトル予測においては、現在のMVの予測因子として、近隣PUおよび/または時間的に併置されたPUからの動きベクトルを使用できる。選択されたMV予測因子のインデックスは、符号化し、および/またはデコーダに伝達することができる。デコーダは、複数のエントリを有するMV予測因子リストを構成することができる。伝達されたインデックスを有するエントリを使用して、現在のPUのMVを予測することができる。
マージモードを用いる場合、空間および/または時間近隣PUについてのMV情報を再使用することができ、現在のPUのための動きベクトル符号化は、スキップすることができる。図12は、マージ候補導出のために使用することができる、例示的な空間近隣ブロックを示している。例えば、マージ候補導出のために、左下(A0)、左(A1)、右上(B0)、上(B1)、および/または左上(B2)を使用することができる。時間的に併置されたブロックを、マージ候補として使用できる。選択されたマージ候補のインデックスを符号化することができる。デコーダサイドにおいて、マージ候補リストを構成することができる。例えば、デコーダサイドにおいて構成されたマージ候補リストは、エンコーダサイドにおけるMV予測因子リストの構成に類似することができる。伝達されたマージ候補インデックスを有するエントリを、現在のPUのMVとして使用することができる。
360度ビデオ符号化および2D平面ビデオ符号化は、様々な態様において異なることができる。例えば、360度ビデオは、フレームパッキングすることができ、視聴者を取り巻く環境の360度情報を含むことができる。そのため、360度ビデオは、2Dビデオが有さないことがある、1つまたは複数の本質的な円特性を有することができる。2Dビデオを符号化するのに適したものであることができる、MPEG−2、H.264、および/またはHEVCなどの、あるコーデックは、360度ビデオの円特性特徴を十分に考慮していないことがある。例えば、360度ビデオ内のピクセルは、ピクチャの境界の外部にある場合、反復的なパディングを適用することができる。
符号化のために、360度ビデオの1つまたは複数の面分を長方形ピクチャ内に配置するために、フレームパッキングを使用することができる。面分境界沿いのサンプル値は、連続的でないことがある。不連続性は、空間予測の効率を低下させることがある。図8に示されるように、近隣の再構成されたサンプルを使用して、現在のTUをイントラ予測するための基準サンプルを導出できる。近隣の再構成されたサンプルは、現在のTUが属する面分とは異なる面分内に位置付けることができる。例えば、現在のTUが、キューブマップ内の面分の境界に近い、または境界にある場合、対応するフレームパッキングされた2Dピクチャ内において最も近い近隣サンプルは、近隣面分内にあることができ、サンプルは、フレームパッキングされたピクチャ内において、連続的でないことがある。
図13は、キューブマップの面分ピクチャ内における不連続サンプルおよびパディングの例を示している。円は、球の赤道を表すことができる。正方形の4つの側部/辺は、赤道が投影される、キューブマップの4つの辺面分上の4つの直線を表すことができる。Pは、キューブマップの面分を表すことができ、Qは、面分Pの近隣面分を表すことができる。Px(x∈[0,3])は、面分P上におけるサンプリング点を表すことができる。Qx(x∈[0,3])は、近隣面分Q上におけるサンプリング点を表すことができる。例えば、近隣サンプルP4、P5、およびP6が、面分境界の外側のサンプルである場合、およびP4、P5、およびP6が、(例えば、一様なサンプリング間隔を用いて)面分P上においてパディングされるべき場合、パディングサンプルK0、K1、およびK2は、それぞれ、球の中心から面分Q上へのP4、P5、およびP6の投影を表すことができる。P4、P5、およびP6の点ロケーションは、近隣サンプルロケーション、または初期基準ブロックと関連付けられた初期サンプルロケーションと呼ばれることがある。図13に示されるように、K0とQ0とは、互いに重なり合わないことがある。K1とQ1、およびK2とQ2とは、重なり合わないことがある。延長されたサンプルが、面分境界に対して遠いほど、不一致は、より大きくなることができる。パディングサンプルK0、K1、およびK2を使用して、それぞれ、P4、P5、およびP6におけるサンプルを満たすことができる。K0、K1、およびK2は、基準サンプル、導出されたサンプルロケーション、パディングサンプルロケーション、またはそれぞれの基準サンプルロケーションに位置付けられたマッピングされた基準ブロックと関連付けられた複数のサンプル値と呼ばれることがある。図13に示されるように、K0とQ0とは、互いに重なり合わないことがあり、同じことが、K1とQ1、およびK2とQ2について当てはまることがある。パディングサンプルK0、K1、および/またはK2を使用して、P4、P5、および/またはP6におけるサンプルを満たすことができる。
インター動き補償予測は、不連続なサンプルを有することができる。例えば、(例えば、図2Bに示されるような)キューブマップ4×3フレームパッキングが、エンコーディングの間に適用される場合、現在のブロックの面分の外側の基準ブロックのピクセルは、不連続であることがある。図16は、キューブマップ4×3フレームパッキングされたピクチャについての例示的な動き補償予測を示している。図16に示されるように、面分Vは、フレームパッキングのための仮想面分であることができる。現在のブロックB0が、現在のピクチャの面分0に属し、動きベクトルによって指し示される時間基準ブロックB0’が、部分的に基準ピクチャの面分0の外側に位置付けられる場合、面分4上のサブブロック1402(例えば、ブロックB0’のサブブロック)は、異なるテクスチャ方向を有することができる。現在のブロックB0は、2つの予測ユニットに分割することができる。
フレームパッキングされたピクチャ内の面分境界沿いの動きは、連続的でないことがある。例えば、図12における現在のPUは、面分境界にあることができる。近隣ブロックA0、A1、B0、B1、および/またはB2は、1つまたは複数の異なる面分内に位置付けることができる。近隣ブロック(例えば、A0、A1、B0、B1、および/またはB2)の動きは、現在のブロックの動き方向とは異なる1つまたは複数の方向を有することができる。
360度ビデオ符号化は、符号化されるビデオのジオメトリ構造および/または特性を考慮することができる。イントラおよび/またはインター予測については、基準サンプルが、フレームパッキングされたピクチャの外部にある場合、ピクチャの1つまたは複数の円特性を考慮することによって、ジオメトリパディングを適用できる。ジオメトリパディングは、ピクチャの外部の基準サンプルに対する予測効率を高めることができる。例えば、ジオメトリパディングは、インター動き補償予測の場合に、ピクチャの外部の基準サンプルに対する予測効率を高めることができる。例えば、図11に示されるようなサブブロックP0、P1、および/またはP2内の点pの値は、本明細書において説明されるように、ジオメトリマッピングおよび/または補間を介して、導出することができる。
イントラ予測および/またはインター予測については、フレームパッキングされたピクチャ内の基準サンプルが、ピクチャの内部にあるが、現在のブロックが属する面分の外部にある場合、基準サンプル値は、ジオメトリパディングを使用して、導出することができる。例えば、ジオメトリパディングを使用して、不連続性を扱うことができる。現在のブロックの面分の外部にあることができる、近隣サンプルロケーション、および/または初期基準ブロックと関連付けられた1つもしくは複数の初期サンプルロケーションと呼ばれることがある、基準サンプル位置は、例えば、ジオメトリマッピングを使用することによって、それの現在の面分から他の面分にマッピングすることができる。例えば、図13における基準サンプル位置P4は、K0にマッピングすることができ、位置K0におけるサンプル値は、近隣面分上のサンプル値(例えば、Q0および/またはQ1など)から導出することができる。例えば、インター予測のために使用することができる、図16におけるサブブロック1402は、ジオメトリパディングを介して、導出することができる。例えば、図16においては、面分4上のサンプル値は、インター予測のために(例えば、直接的に)使用されないことがある。
動きベクトル予測および/またはインターマージモードにおいては、空間近隣ブロック、または時間動きベクトル予測のための時間的に併置されたブロックは、現在のブロックの面分の外部にあることができる。例えば、時間動きベクトル予測のための時間的に併置されたブロックは、HEVCによって、定義することができる。近隣ブロック位置は、ジオメトリマッピングプロセスを介して、導出することができる。例えば、サンプル位置は、マッピングすることができる。サンプル値は、マッピングされた位置に基づいて、導出することができる。
360度ビデオは、ハイブリッド投影技法を使用して、エンコードすることができる。例えば、ハイブリッド投影技法は、ビデオの特性および/または投影技法に基づくことができる。例えば、イントラピクチャは、ある投影を用いて符号化することができ、一方、インターピクチャは、他の投影で符号化することができる。例えば、イントラピクチャは、ERPまたは正積投影を用いて符号化することができる。インターピクチャは、キューブマップ投影で符号化することができる。
360度ビデオ符号化において、ジオメトリパディングを適用することができる。図17Aおよび図17Bは、エクイレクタングラピクチャについての例示的なジオメトリパディングを示している。図17Aおよび図17Bに示されるように、右境界と左境界とは、球的に連続であることができる。例えば、図17Aに示された矢印は、球上における連続性を示すことができる。例えば、図17Aにおける、02と02’、32と32’、42と42’、04と04’、34と34’、および44と44’など、同じ参照番号を有する矢印は、球上における右および左境界の連続性を示すことができる。上境界は、球の北極を表すことができ、下境界は、球の南極を表すことができる。本明細書において説明されるように、上境界および下境界は、球的に接続しないことができ、球上において最も遠く離れていることができる。上境界20と20’、22と22’、26と26’、および/または28と28’は、北極における球的な連続性を示すことができる。下境界06と06’、08と08’、10と10’、および/または12と12’は、南極における球的な連続性を示すことができる。
本明細書において説明され、図17Aおよび図17Bに示されるような、球特性を使用すると、近隣サンプルロケーションが、ピクチャの右境界を越える場合(例えば、02、32、42、D、E、および/またはF)、ピクチャの左境界に巻き戻すことによって(例えば、それぞれ、02’、32’、42’、D’、E’、および/またはF’)、パディングサンプルロケーションを使用して、パディングを実行することができる。パディングは、ピクチャの円特性のうちの1つまたは複数に基づいて、巻き戻すことによって、実行することができる。近隣サンプルロケーションが、ピクチャの右境界の内側にある場合、パディングのために、ピクチャ境界の内側の右端の線からの繰り返しを実行することができる。近隣サンプルロケーションが、ピクチャの下境界を越える場合(例えば、06、08、10、12、K、L、M、および/またはN)、パディングは、経度線を辿って、反対側の半球に進むことができる(例えば、それぞれ、06’、08’、10’、12’、K’、L’、M’、および/またはN’)。図17Bにおける矢印および対応するアルファベットのラベルは、パディングされるサンプルと、近隣サンプルロケーションをパディングするために使用することができる、パディングするサンプルとの間の対応を示すことができる。例えば、矢印Aにおいて満たされるパディングは、矢印A’に沿って取得することができる。矢印Bにおいて満たされるパディングは、矢印B’に沿って取得することができ、他も同様である。
初期基準サンプル点(u,v)は、ピクチャ内における現在のロケーションに基づいて、提供することができる。例えば、点(u,v)は、エクイレクタングラピクチャの外部にあることができる。初期基準サンプルロケーション(u,v)を使用して、パディングサンプルロケーション(up,vp)を導出することができる。点(up,vp)は、パディングサンプル、またはマッピングされた基準ブロックと関連付けられた1つもしくは複数のサンプル値と呼ばれることがある。エクイレクタングラピクチャについての導出される基準サンプルロケーション(up,vp)は、以下のように計算することができる。
u<0、またはu≧W、かつ0≦v<Hである場合、up=u%W、vp=v (17)
v<0である場合、vp=−v−1、up=(u+W/2)%W (18)
v≧Hである場合、vp=2×H−1−v、up=(u+W/2)%W (19)
ここで、WおよびHは、エクイレクタングラピクチャの幅および高さとすることができる。例えば、パディングサンプルロケーション(up,vp)は、点(u,v)のロケーションに基づいて、計算することができる。例えば、点(u,v)が、右または左境界を越える場合、式(17)に基づいて、パディングサンプル(up,vp)を計算することができる。右または左境界を越える点(u,v)のパディングサンプル(up,vp)は、それぞれ、エクイレクタングラピクチャの左または右境界の近くに位置付けられた点に対応することができる。他のパディングサンプルは、式(18)および/または式(19)に対応することができる点(u,v)の位置に基づいて、計算することができる。
図13に示されるように、CMPのためのパディングを提供することができる。パディングは、点(u,v)に適用することができる。点p(u,v)は、ジオメトリ構造におけるビデオコンテンツ内に位置付けることができる。点p(u,v)は、現在のサンプルの近隣サンプルであることができる。以下のうちの1つまたは複数を使用して、サンプル値を導出することができる。
点p(u,v)は、現在のサンプルロケーションにおける現在のサンプルに基づいて、識別することができる。例えば、現在のサンプルロケーションにおける現在のサンプルは、現在の面分ロケーションにあることができる。現在のサンプルは、パディングサンプルと関連付けることができる。点p(u,v)は、現在の面分境界の外側に位置付けることができる。点p(u,v)は、異なる面分内に位置付けることができる。点p(u,v)が属する面分に応じて、点の3D位置Pf(X,Y,Z)を計算することができる。例えば、点pの面分が、NZである場合、式(6)、式(7)、および/または式(8)を使用して、点pの3D位置(X,Y,Z)を計算することができる。パディングのために使用されるサンプルが属する新しい面分は、3D位置(X,Y,Z)に基づいて、決定することができる。サンプルは、以下のように(X,Y,Z)を使用して、パディングのために使用することができる。
|X|≧|Y|、かつ|X|≧|Z|、かつX>0である場合、新しい面分は、PXとすることができる。
|X|≧|Y|、かつ|X|≧|Z|、かつX<0である場合、新しい面分は、NXとすることができる。
|Y|≧|X|、かつ|Y|≧|Z|、かつY>0)である場合、新しい面分は、PYとすることができる。
|Y|≧|X|、かつ|Y|≧|Z|、かつY<0)である場合、新しい面分は、NYとすることができる。
|Z|≧|X|、かつ|Z|≧|Y|、かつZ>0)である場合、新しい面分は、PZとすることができる。
|Z|≧|X|、かつ|Z|≧|Y|、かつZ<0)である場合、新しい面分は、NZとすることができる。
点pの2D位置(u’,v’)は、Ps(X’,Y’,Ζ’)を使用して、計算することができる。例えば、点pの2D位置(u’,v’)は、新しい面分のロケーションに基づいて、計算することができる。新しい面分が、NZに位置付けられる場合、式(9)および/または式(10)を使用し、(X’,Y’)を用いて、パディングサンプルロケーション(u’,v’)を計算することができる。(u’,v’)におけるサンプル値は、補間フィルタを使用して、および/または(u’,v’)が属する新しい面分上の整数位置サンプルに基づいて、決定することができる。
ジオメトリ構造における点(u,v)のためのパディングは、以下のうちの1つまたは複数を含むことができる。パディングサンプルと関連付けられた、現在のサンプルロケーションにおける現在のサンプルを決定することができる。点(u,v)に基づいて、パディングされる面分上の3D位置Pf(X,Y,Z)を決定することができる。点(u,v)は、ピクチャ境界または面分の外側に位置付けられた点を表すことができる。パディングサンプルロケーションは、パディングされるサンプルのロケーションに基づいて、決定することができる。例えば、2D平面位置(u’,v’)は、パディングサンプルの3D位置のジオメトリ投影を、ジオメトリ構造に適用することによって、識別することができる。パディングサンプルロケーション、2D平面位置(u’,v’)におけるパディングサンプル値を導出することができる。2D平面位置(u’,v’)におけるサンプル値は、補間フィルタを使用して、および/または整数位置におけるサンプルに基づいて、決定することができる。マッピングされたサンプル位置、および/またはパディングサンプル値を導出することができる。
1つまたは複数の補間フィルタを使用することができる。例えば、新しい面分上の(u’,v’)におけるサンプル値を決定するときに、1つまたは複数の補間フィルタを使用することができる。例えば、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、および/または離散コサイン変換ベースの補間フィルタ(DCT−IF)を使用することができる。最も近い近隣による補間を、使用することができる。図13に示されるように、最も近い近隣による補間が、使用される場合、P4および/またはP5をパディングするために、Q0の値を使用することができる。例えば、Q0は、K0およびK1に最も近い近隣であることができるので、P4および/またはP5をパディングするために、Q0の値を使用することができる。P6をパディングするために、Q1の値を使用することができる。例えば、Q1は、K2に最も近い近隣であることができるので、P6をパディングするために、Q1の値を使用することができる。図13においては、近似は、粗いものであることができる。例えば、サンプリングが、疎らであることができるので、図13における近似は、粗いものであることができる。それは、キューブマップジオメトリが、キューブ境界の近くの球をオーバサンプリングすることがあることを考慮して、より密なサンプリングのための近似を提供することができる。
最も近い近隣による補間は、マッピングされたサンプル位置を導出することができる。例えば、マッピングされたサンプル位置は、以下のうちの1つまたは複数を含むことができる。点(u,v)に基づいて、パディングされる面分上において、3D位置Pf(X,Y,Z)を計算することができる。Pf(X,Y,Z)をジオメトリ構造上に投影することによって、位置Ps(X’,Y’,Z’)を計算することができる。新しい面分上において、2D平面位置(u’,v’)を計算することができる。例えば、最も近い近隣による補間は、マッピングされたサンプル位置を導出することができ、それは、非線形関数を含むことがある。パディングを使用することができる。例えば、面分ベースのパディングを使用することができる。面分ベースのパディングを用いる場合、キューブの展開に対応することができる、周囲のパディングされる領域を満たすために、1つまたは複数の近隣面分を使用することができる。例えば、面分ベースのパディングの場合、周囲のパディングされる領域を満たすために、4つの近隣面分を使用する(例えば、直接的に使用する)ことができる。図14は、キューブマップのためのパディングプロセスの例を示している。図14Aは、キューブマップのためのパディングプロセスの例示的な3D表現を示している。図14Bは、キューブマップのためのパディングプロセスの、正面面分の周囲に展開された面分を有する、例示的なフラット表現を示している。図14に示されるように、破線によって囲まれたパディングされる領域は、近隣面分からのサンプルを用いて満たすことができる。例えば、図14に示される、破線によって囲まれたパディングされる領域は、近隣面分からのサンプルを用いて直接的に満たすことができる。図13に示されるように、面分ベースのパディングが、使用される場合、P4、P5、および/またはP6をパディングするために、それぞれ、Q0、Q1、および/またはQ2を使用することができる。Q2は、Pサンプルを含む面分によって定義される半球に関して、反対側の半球に属することができ、および/またはPサンプルを含む面分をパディングするためには、意味がないことがある。面分ベースのパディングは、面上の面分サイズの半分よりも大きいサイズによるパディングのためには、意味がないことがある。パディングされる領域のサイズが、小さい(例えば、数サンプル幅である)場合、投影角は、キューブ境界をそれの中心に結び付ける45度の角度に近いことができ、および/または面分ベースのパディングは、十分な近似を提供することができる。図14Bに示されるように、パディングされる領域の4つのコーナは、外挿することができる。図14Bに示される、パディングされる領域の4つのコーナは、近隣面分から直接的に利用可能ではないサンプルを有することができる。1つまたは複数のコーナにおいて、反復パディングを使用することができる。例えば、4つのコーナにおいて、反復パディングを使用することができる。以下の外挿、すなわち、利用可能なサンプルを鏡像反転するもの、最も近い利用可能なサンプルを(例えば、図15Aに示されるように、面分境界に垂直に)複製するもの、および/またはサンプルを、図15Bに示されるように、面分境界に対して対角線方向に複製するもののうちの1つまたは複数を使用することができる。例えば、サンプル値は、以下のように導出することができる。
|x|≧|y|である場合、v(x,y)=v(sign(x)(|x|+|y|),0)
|x|<|y|である場合、v(x,y)=v(0,sign(y)(|x|+|y|)
それの位置が2つの既存のサンプルから等距離にある、外挿されるサンプルについては、2つの既存のサンプルの平均を使用することができる。例えば、図15Aおよび図15Bに示されるように、(例えば、破線として示される)対角線沿いでは、外挿されるサンプルは、2つの既存のサンプルから等距離にあることができ、利用可能なサンプルまでの距離に基づいた加重和を、使用することができる。サンプル値を導出することができる。例えば、図15Aに示された例示的な原理に従って、以下のように、サンプル値を導出することができる。
|x|≧|y|である場合、v(x,y)=a×v(x,0)+b×v(0,x)、a=(2×|x|−|y|)/(2×|x|)、b=|y|/(2×|x|)
|x|<|y|である場合、v(x,y)=a×v(y,0)+b×v(0,y)、a=|x|/(2×|y|)、b=(2×|y|−|x|)/(2×|y|)
および/または、図15Bに示された例示的な原理に従って、以下のように、サンプル値を導出することができる。
v(x,y)=a×v(sign(x)(|x|+|y|),0)+b×v(0,sign(y)(|x|+|y|)、a=|x|/(|x|+|y|)、b=|y|/(|x|+|y|)
1つまたは複数の面分を含む、1つまたは複数の投影ジオメトリについて、プロセス(例えば、類似のプロセス)を使用することができる。例えば、1つまたは複数の面分から構成される投影ジオメトリは、8面体および/または20面体を含むことができるが、それらに限定されない。
以下のケースのうちの1つまたは複数において、ジオメトリパディングを適用することができる。例えば、イントラ予測において、ジオメトリパディングを実行することができる。例えば、近隣サンプルが、ピクチャ境界の外部にあるときに、ジオメトリパディングを実行することができる。例えば、近隣サンプルが、予測される現在のサンプルと同じ面分内にないときに、ジオメトリパディングを実行することができる。インター予測において、ジオメトリパディングを実行することができる。例えば、基準サンプルが、基準ピクチャ境界の外部にあるときに、ジオメトリパディングを実行することができる。例えば、基準サンプルが、予測される現在のサンプルと同じ面分内にないときに、ジオメトリパディングを実行することができる。マッピングされるサンプル位置の導出は、以下のうちの1つまたは複数を含むことができる。パディングされる面分上における3D位置Pf(X,Y,Z)を、点(u,v)に基づいて、計算することができる。Pf(X,Y,Z)をジオメトリ構造上に投影することによって、位置Ps(X’,Y’,Z’)を計算することができる。新しい面分上における2D平面位置(u’,v’)を計算することができる。ピクチャ境界の外部にあることができる空間近隣ブロックを導出するために、マッピングされるサンプル位置の導出を使用することができる。予測されるブロックと同じ面分内にないことがある空間近隣ブロックを導出するために、マッピングされるサンプル位置の導出を使用することができる。マッピングブロック位置の属性を、ブロック(例えば、現在のブロック)のための予測因子として、使用することができる。例えば、マッピングブロック位置の属性は、以下のうちの、すなわち、イントラモード、インターモード、マージモード、ならびに/または(動きベクトルおよび/もしくは基準ピクチャインデックスを含むことができる)動き情報などのうちの1つまたは複数を含むことができる。ブロックのための予測因子として使用されるマッピングブロック位置は、p(u,v)の3D位置Pf(X,Y,Z)を計算すること、Ps(X’,Y’,Z’)を計算すること、および/または2D位置(u’,v’)を計算することなどの技法を使用して導出される、以下のうちの1つまたは複数を含むことができる。例えば、インターマージモードの動きベクトル予測および/または動きベクトル導出のために、本明細書において説明されるように導出されたマッピングブロック位置の動きベクトルは、動きベクトル予測因子として、および/またはマージ候補の動きベクトルとして、使用することができる。近隣ブロックの位置を導出することができ、および/またはマッピングされたブロックからの属性を推測することができる。近隣ブロックのどの1つ(例えば、左、上など)かを考慮して、例えば、現在のブロックに最も近いロケーションp(u,v)として、近隣ブロックの位置を計算することができる。例えば、(uc,vc)が、現在のブロックの左上コーナのロケーションである場合、(uc−1,vc)を使用して、左近隣ブロックのロケーションを計算することができ、(uc,vc−1)を使用して、上近隣ブロックのロケーションを計算することができるなどである。近隣ブロックの位置は、近隣ブロックの中心として、計算することができる。例えば、(uc,vc)が、現在のブロックの左上コーナのロケーションである場合、位置(uc−1,vc)を含むブロックの中心位置として、左近隣ブロックのロケーションを計算することができ、(uc,vc−1)を含むブロックの中心位置として、上近隣ブロックのロケーションを計算することができるなどである。例えば、3Dジオメトリを展開することによって、近隣ブロックの位置を決定できる。3Dジオメトリの展開は、近隣面分上におけるマッピングブロック位置を決定できる。
図14Bに示されるように、パディングされる4つのコーナ領域における1つまたは複数のサンプルについてのマッピング位置は、反復パディングを使用するときは、面分内部の最も近いコーナサンプル位置であることができる。近隣ブロックの位置が、(例えば、図15Aおよび/または図15Bにおいて破線を使用して表される)対角線上にある場合、それの位置は、面分に属さないことがある、キューブ面分境界にマッピングされることがあるので、利用不可能と見なすことができる。近隣ブロックの位置が、対角線上にない場合、近隣ブロック位置は、それぞれ、図15Aおよび/または図15Bに示されるように、面分境界に関して最も近い利用可能な位置に投影することができる。例えば、近隣ブロック位置は、図15Aに示されるように、面分境界に関して垂直方向に最も近い利用可能な位置に投影することができる。例えば、近隣ブロック位置は、図15Bに示されるように、面分境界に関して対角線方向に最も近い利用可能な位置に投影することができる。ジオメトリパディング技法は、ビデオ符号化の間に、1つまたは複数のフィルタリングプロセスに適用することができる。フィルタリングプロセスは、例えば、ループフィルタリング、サンプル適応オフセット(SAO)、および/または適応ループフィルタリング(ALF)を含むことができ、近隣サンプルを使用することができる。近隣サンプルが、ピクチャ境界の外部にある、またはフィルタリングされるサンプルと同じ面分内にないときは、近隣サンプル値を導出するために、ジオメトリパディングを使用することができる。
式(3)、式(4)、および/または式(5)は、サイン関数および/またはコサイン関数を使用する。式(3)、式(4)、および/または式(5)におけるサイン関数および/またはコサイン関数などの、非線形関数のハードウェア実施は、ルックアップテーブル(LUT)および/または線形補間を使用することができる。それらは、円関数であるので、LUTは、範囲[0,90]内において定義することができる。近似精度は、アプリケーション要件および/またはメモリサイズ制約に基づいて、決定することができる。図18は、LUTを使用した、サイン関数の例示的な導出を示している。sin(x)は、変数xのサイン関数とすることができる。1つまたは複数の黒く塗り潰した円1602は、範囲[0,90]内において一様にサンプリングされた、関数sin(x)についてのLUTを定義することができる。xは、それの値がLUT内において定義されていないことがある、入力変数とすることができる。PおよびQは、入力xの第1および第2の最も近い近隣(または、例えば、サンプリング点)とすることができる。1つまたは複数の異なる補間を適用して、sin(x)の値を導出することができる。例えば、最も近い近隣による補間が、使用される場合、sin(x)は、sin(x)=sin(P)として、近似することができる。線形補間が、使用される場合、sin(x)は、sin(x)=sin(P)+(sin(Q)−sin(P))×(Q−x)/(Q−P)として、近似することができる。
LUTは、ある範囲間では、非一様なサンプリングを用いて、定義することができる。例えば、sin(x)については、(例えば、0度付近の勾配は、90度付近のそれよりも大きいので)0度に近い範囲内においては、より多いサンプリング点を使用することができ、90度に近い範囲内については、より少ないサンプリング点を使用できる。
フレームパッキングされたピクチャの面分は、ジオメトリパディングを用いてパディングし、および/またはデコード済みピクチャバッファ内に記憶することができる。例えば、図19Aに示されるように、1つまたは複数(例えば、すべて)の面分を、ジオメトリパディングを用いてパディングし、および/または将来のピクチャ符号化の動き推定のために、デコード済みピクチャバッファ内に記憶することができる。面分は、エンコーダサイドにおいて、および/またはデコーダサイドにおいて、ジオメトリパディングを用いてパディングし、および/またはデコード済みピクチャバッファ内に記憶することができる。面分は、基準ピクチャが再構成された後に、ジオメトリパディングを用いてパディングし、および/またはデコード済みピクチャ内に記憶することができる。1つまたは複数の面分を、ジオメトリパディングを用いてパディングし、および/または将来のピクチャ符号化の動き推定のために、デコード済みピクチャバッファ内に記憶することができる。動き推定プロセスは、フレームパッキング情報に従って、現在のブロックを位置付けることができる面分および/または位置を決定することができる。
エンコーディングを行うことなく、ブロック(例えば、ブロック全体)をスキップすることができる。例えば、ブロック(例えば、ブロック全体)が、図19Aにおいて「V」マークを付けられたヌル面分内部にある場合、エンコーディングを行うことなく、ブロック(例えば、ブロック全体)をスキップすることができる。ブロック(例えば、ブロック全体)が、図19Aにおいて「V」マークを付けられたヌル面分内部にない場合、動き推定プロセスは、開始位置および/または事前定義された探索範囲に基づいて、ブロックのための探索窓を決定することができる。例えば、図19Aおよび図19Bに示されるように、ブロック「B」は、面分「0」内に位置付けることができる。開始位置は、それの空間および/または時間近隣ブロックから導出される、動きベクトル予測因子とすることができる。探索窓は、パディングされた面分用バッファ内にあるように、制限することができる。例えば、探索窓は、完全にパディングされた面分用バッファ内にあるように、制限することができる。動き探索を使用することができる。例えば、動き探索は、完全探索および/または高速探索などを含むことができる。例えば、動き探索は、探索窓を決定するときに、使用することができる。
パディングされる領域のサイズは、性能に影響を与えることができる。例えば、パディングされる面分用バッファ内にあるように、探索窓を制限することができるので、パディングされる領域のサイズは、性能に影響を与えることができる。基準ピクチャのためのパディングされる面分を得るために、ジオメトリパディングを実行することができる。ジオメトリパディングは、デコーダサイドにおいて、および/またはエンコーダサイドにおいて、実行することができる。パディングされる面分用バッファは、動き補償のために使用することができる。ジオメトリパディングは、予測ブロックを生成することができる。例えば、ジオメトリパディングは、臨機応変に、予測ブロックを生成することができる。ジオメトリパディングを介した予測ブロックの生成は、ブロック毎にパディングを実行することができる。例えば、ジオメトリパディングを介した予測ブロックの生成は、必要に応じて、パディングを実行することができる。
インターブロックをデコードするために、デコーダは、予測ブロック(または予測ブロックの部分)が、面分の外部にあることができるか、それとも面分の内部にあることができるかを決定することができる。例えば、デコーダは、予測ブロックが、現在の面分の外部にあることができるかどうかを決定することができる。デコーダは、予測ブロックの部分が、現在の面分の外部にあることができるかどうかを決定することができる。デコーダは、予測ブロック(または、例えば、予測ブロックの部分)が、現在の面分の外部にあることができるかどうかを、デコーディングブロックの位置、および/またはそれの動きベクトルに基づいて、決定することができる。デコーダは、いかなるパディングも実行しないことがある。例えば、予測ブロックが、面分の内部にある場合、デコーダは、パディングをスキップできる。デコーダは、ジオメトリパディング技法を使用して、特定のブロック(または、例えば、予測ブロックの部分)を生成することができる(例えば、それだけを生成することができる)。デコーダは、面分境界(例えば、面分境界全体)をパディングしないことがある。例えば、予測ブロック(および/または予測ブロックの部分)が、面分の外部にある場合、デコーダは、ジオメトリパディング技法を使用して、その特定のブロック(および/または、例えば、予測ブロックの部分)を生成することができる。
対応するサンプル位置情報を記憶するルックアップテーブルを使用することができる。ルックアップテーブルは、各面分のパディングされる各位置についての対応するサンプル位置情報を記憶することができる。パディングされる領域のサイズについての1つまたは複数の制約を定義することができる。例えば、ジオメトリパディングのために使用されるLUTのサイズについての要件を低減させるために、パディング領域の最大サイズおよび/またはサイズについての制約を定義することができる。パディングされる領域のサイズ(例えば、最大サイズ)についての1つまたは複数の制約は、ピクチャサイズに応じて、定義することができ、それは、実施リソース要件を低減させるために、プロファイル/レベル定義とすることができる。例えば、より大きいピクチャサイズを有するビデオは、より大きいパディングされる領域のサイズを使用することができる。パディングされる領域のサイズは、シーケンスパラメータセット(SPS)および/またはピクチャパラメータセット(PPS)など、シーケンスレベルで伝達することができる。
デコーダは、初期化することができる。例えば、パディングされる領域のサイズをシーケンスレベルで伝達することによって、LUTを構築することができるので、デコーダを初期化することができる(例えば、より高速に初期化することができる)。LUTは、伝達された情報に基づいて、構築することができる。
動き補償予測のために、ジオメトリパディング技法が、使用されるとき、および時間基準サンプルが、現在のブロックが属する面分の外部にあるとき、現在のブロックの動きベクトル、および/または現在のブロックの近隣ブロックの動きベクトルは、異なることができる。例えば、現在のブロックおよびそれの近隣ブロックが、異なる投影面分に属するとき、現在のブロックおよび/または現在のブロックの近隣ブロックの動きベクトルは、まったく異なることができる。フレームパッキングされたピクチャ内の2つの近隣面分は、3D空間内において隣接(例えば、直に隣接)しないことがあるので、現在のブロックの動きベクトル、および/または現在のブロックの近隣ブロックの動きベクトルは、まったく異なることができる。3D空間内における2つの隣接(例えば、直に隣接)する面分が、2Dフレームパッキングされたピクチャ内に配置されるとき、歪曲効果が存在することがあり、それが、面分境界において、サンプル値および/または動きベクトルの不連続性を引き起こすことがあるので、現在のブロックの動きベクトル、および/または現在のブロックの近隣ブロックの動きベクトルは、まったく異なることができる。現在のブロックを予測するために、動きベクトル予測因子のための近隣ブロックの動きベクトルを使用することができるかどうかは、近隣ブロックが異なる面分に属するかどうかに基づいて、決定することができる。エンコーダおよび/またはデコーダは、1つまたは複数(例えば、2つ)の隣接する面分境界が、3D空間において接続することができるかどうかをチェックすることができる。1つの面分境界は、近隣ブロックが属することができる面分の境界であることができる。他の面分境界は、現在のブロックが属することができる面分の境界であることができる。1つまたは複数(例えば、2つ)の面分境界が、3D空間において接続される場合、近隣ブロックの動きベクトルは、現在のブロックのための動きベクトル予測因子として、使用することができる。1つまたは複数(例えば、2つ)の面分境界が、3D空間において接続されない場合、近隣ブロックの動きベクトルは、現在のブロックの動きベクトル予測のために、使用されないことがある。1つまたは複数(例えば、2つ)の動きベクトル予測制約が、インターマージモードに適用可能であることができる。例えば、近隣ブロックが、異なる面分に属する場合、近隣ブロックは、インターマージモードのためのマージ候補として、使用されないことがある。
ユニキューブ、ACP、およびEAC投影のためのジオメトリパディングを実行することができる。
本明細書において説明されるように、式(11)および/または式(12)は、ユニキューブ領域における座標(x’,y’)と、キューブ領域における座標(x,y)との間の関係を提供することができる。キューブ領域における座標と、球上における対応する3D点Psとの間の幾何学的関係を知ることができる。ユニキューブ投影フォーマットについての、パディングされる領域内における基準サンプルを導出するために、中間ステージとしてキューブマップを使用して、キューブマップジオメトリパディングを拡張することができる。例えば、ユニキューブ面分のパディングされる領域内の座標における基準サンプルを導出するために、以下のうちの1つまたは複数を実行することができる。フレームパッキングされたピクチャの入力投影と関連付けられた座標は、中間座標にマッピングすることができる。例えば、ユニキューブ投影と関連付けられた座標は、例えば、式(12)に基づいて、キューブ面分内において定義されたように、中間座標にマッピングすることができる。中間キューブ座標は、近隣面分内の1つまたは複数の他のキューブ座標上に投影することができる。例えば、中間キューブ座標は、キューブマップフォーマットのジオメトリ投影関数に基づいて、近隣面分内の1つまたは複数の他のキューブ座標上に投影することができる。キューブ座標は、例えば、式(11)に基づいて、ユニキューブ領域において定義された基準座標にマッピングし戻すことができる。ユニキューブ面分内の基準座標におけるサンプルは、例えば、補間フィルタを使用して、導出することができる。
面分のパディングされる領域内の座標(u,v)を提供することができる。ユニキューブフォーマットのためのジオメトリパディングを実行することができる。1つまたは複数の座標を、ユニキューブフォーマット/ジオメトリからキューブフォーマット/ジオメトリに変換することができる。例えば、ユニキューブ面分内において、入力座標(u,v)を定義することができる。キューブ面分内において定義される中間座標(uc,vc)を、式(12)に従って、計算することができる。以下のうちの1つまたは複数を介して、(uc,vc)を近隣キューブ面分上に投影することによって、基準座標(uc’,vc’)を導出することができる。キューブから3D空間への2Dから3Dへのマッピングを実行することができる。(uc,vc)が属する面分に応じて、対応する3D位置である(X,Y,Z)を計算することができる。例えば、面分が、NZである場合、式(6)、式(7)、および/または式(8)を使用して、3D位置である(X,Y,Z)を計算することができる。基準サンプルが属する新しい面分は、例えば、3D座標(X,Y,Z)に基づいて、決定することができる。
|X|≧|Y|、かつ|X|≧|Z|、かつX>0である場合、新しい面分は、PXとすることができる。
|X|≧|Y|、かつ|X|≧|Z|、かつX<0である場合、新しい面分は、NXとすることができる。
|Y|≧|X|、かつ|Y|≧|Z|、かつY>0である場合、新しい面分は、PYとすることができる。
|Y|≧|X|、かつ|Y|≧|Z|、かつY<0である場合、新しい面分は、NYとすることができる。
|Z|≧|X|、かつ|Z|≧|Y|、かつZ>0である場合、新しい面分は、PZとすることができる。
|Z|≧|X|、かつ|Z|≧|Y|、かつZ<0である場合、新しい面分は、NZとすることができる。
3D空間からキューブへの3Dから2Dへのマッピングを実行することができる。(X,Y,Z)を使用して、新しい面分において、投影された2D座標(uc’,vc’)を計算することができる。例えば、新しい面分が、NZである場合、式(9)および/または式(10)を使用して、(X,Y,Z)を用いて、(uc’,vc’)を導出することができる。1つまたは複数の座標を、キューブフォーマット/ジオメトリからユニキューブフォーマット/ジオメトリに変換することができる。例えば、キューブ面分内において定義された基準座標(uc’,vc’)を与えられた場合、ユニキューブ面分内において定義された対応する基準座標(u’,v’)を計算することができる。パディングのために使用される、ユニキューブ面分内の基準座標(u’,v’)におけるサンプルは、ユニキューブ面分内の(u’,v’)周囲の整数位置におけるサンプルに補間フィルタを適用することによって、導出することができる。
式(12)に示されるように、変換関数β=g(β’)は、座標をユニキューブ面分からキューブ面分にマッピングすることができる。式12の変換関数β=g(β’)は、分母に平方根を含む、分数を含むことができる。分母がゼロになることを防止するために、以下を実行することができ、
Figure 2022000954
β’∈[−1,1]は、ユニキューブ面分の内部のサンプルの座標の範囲を定義することができる。β’∈[−1,1]が、ユニキューブ面分の内部のサンプルの座標の範囲を定義することができる場合、式(20)は、任意の3D点が、ユニキューブ面分上に投影されるとき、面分上の投影は、面分中心に中心を置くことができる、ならびに/または水平および/もしくは垂直方向において面分サイズの1.5倍の大きさであることができる領域内にあることができることを提供することができる。ジオメトリパディングをユニキューブフォーマットに適用するとき、ユニキューブ面分についてのパディングされる領域の最大サイズに対する限界が存在することがある。例えば、ユニキューブ面分のパディングされる領域の最大サイズは、面分サイズの1.5倍を超えることはできない。図27は、ユニキューブ投影フォーマットについての、面分内におけるパディングされるサンプルの有効な領域の例を示している。
動き補償予測が、ピクチャ境界および/または面分境界の外部にあるサンプルを参照するとき、符号化投影フォーマットによって表される3Dジオメトリ構造を考慮して、対応する基準サンプルをパディングするために、本明細書において説明されるジオメトリパディングを適用できる。例えば、予測ブロック(または予測ブロックの部分)は、ユニキューブ面分内のパディングされるサンプルの有効な領域の外部にあることができる。
ジオメトリパディングは、ユニキューブ投影に基づいて、360度ビデオ符号化において実行することができる。
図28は、ユニキューブフォーマットについての、パディングされるサンプルの有効な領域への例示的なMVクリッピングを示している。図28に示されるように、MVクリッピング操作は、エンコーダおよび/またはデコーダにおいて、動き補償予測の前に、実行できる。例えば、時間予測は、ユニキューブ面分内のパディングされるサンプルの有効な領域からのものである、基準サンプルを使用することができる。MVが、ユニキューブ面分の有効なパディングされる領域の外部にあること、または部分的に外部にあることができる、基準ブロックを指し示す場合、MVは、予測ブロックの基準サンプルが、パディングについての有効な領域内にあることができるように、最も近い値にクリッピングすることができる。図28に示されるように、基準ブロックAは、部分的に、有効なパディングされる領域の外部にある。基準ブロックAと関連付けられたMVは、基準ブロックA’を指し示す、MV’を生成するために、クリッピングすることができる。基準ブロックA’は、有効なパディングされる領域内にある、近隣ブロックであることができる。
符号化されたMVが、適切な値を有することを保証するために、ビットストリームコンフォーマンスを提供することができる。例えば、符号化されたMVが、予測ブロックの基準サンプルのうちの1つまたは複数(例えば、すべて)が、ユニキューブ面分の有効なパディングされる領域からのものである適切な値を有することを保証するために、ビットストリームコンフォーマンスを提供することができる。符号化ブロックの位置および/またはサイズを与えられた場合、有効なMVの範囲を決定することができる。例えば、有効なMVの範囲は、有効なパディングされる領域の外部の基準サンプルを使用しない、動き補償予測信号に対応することができる。適合されたビットストリーム内のMVの値は、事前決定された範囲内にあることができる。
ユニキューブについての動き補償予測のための基準サンプルをパディングするために、ハイブリッドパディングを実行することができる。ハイブリッドパディングは、ジオメトリパディングおよび反復パディングを合同で適用することができる。基準サンプルの位置が、ユニキューブ面分内のパディングされるサンプルの有効な領域内にある場合、360度ビデオにおいて表される3Dジオメトリ構造に基づいて、対応するサンプル値を導出するために、ジオメトリパディングを適用することができる。基準サンプルの位置が、ユニキューブ面分内のパディングされるサンプルの有効な領域内にない(例えば、基準サンプルの位置が、ユニキューブ面分内の有効なパディングされる領域の外部にある)場合、水平方向および/または垂直方向において、サンプル位置を有効なパディングされる領域内にある最も近い位置にクリッピングすることによって、サンプルをパディングするために、反復パディングを適用することができる。図29は、ユニキューブ投影フォーマットについての例示的なハイブリッドパディングを示している。図29に示されるように、基準ブロックBは、ユニキューブ面分内の有効なパディングされる領域の外部(例えば、部分的に外部)にあることができる。サブブロックB3内のサンプルは、有効なパディングされる領域の内部にあることができ、サンプル値は、ジオメトリパディングに基づいて、導出することができる。サブブロックB0、B1、およびB2については、対応するサンプルは、有効なパディングされる領域の境界からサンプル値をコピー(例えば、反復的にコピー)することによって、パディングすることができる。例えば、B0は、B3の左上サンプルを用いて、満たすことができる。B1は、B3の最上行を用いて、満たすことができる。B2は、B3の左列を用いて、満たすことができる。図30は、ハイブリッドパディングを使用してパディングされたピクチャの例を示している。反復パディングは、ハイブリッドパディングにおいて、例として利用することができる。ユニキューブ投影フォーマットについての、パディングされるサンプルの有効な領域の外部にあることができるサンプルをパディングするために、1つまたは複数の他のパディング方法(例えば、図14における面分ベースのパディング、ならびに/または図15における垂直外挿ベースおよび/もしくは対角線外挿ベースのパディングなど)を、ハイブリッドパディングにおいて適用することができる。
シーケンスレベルにおいて、ユニキューブ面分サイズが、知られているとき、以下のうちの1つまたは複数を事前計算し、および/またはLUTとして記憶することができる。例えば、パディングサンプル位置LUTは、キューブ面分内において定義された計算された中間座標(uc,vc)、導出された基準座標(uc’,vc’)、および/またはユニキューブ面分内において定義された計算された基準座標(u’,v’)の相関を示すことができる。LUTは、パディングされるサンプル位置においてサンプル値をパディングするために使用することができる、導出されたサンプル位置を記憶することができる。ユニキューブ面分内の基準座標(u’,v’)における導出されたマッピングされたサンプルを、ピクチャのために計算する(例えば、動的に計算する)ことができる。3D空間から6つのユニキューブ面分上への投影は、対称的であることができる。他の5つの面分のうちの1つまたは複数によって再使用することができる面分のために、基準LUTを記憶することができる。例えば、他の5つの面分のうちの1つまたは複数によって再使用することができる面分のために、単一の基準LUTを記憶することができる。図32は、ユニキューブについてのジオメトリパディングのために6つの面分に対してLUTを使用する例示的な図を示している。図32に示されるように、3×2のフレームパッキング配置を適用することができる。図32においては、空白のブロック3201は、面分領域を表すことができる。パターンを付されたブロック3203は、パディングされる領域を表すことができる。図32に示されるように、サンプルAおよびサンプルBは、それぞれ、面分#0および面分#5のパディングされる領域内の同じ位置に位置付けることができる、2つのサンプルとすることができる。サンプルAは、面分#4内の2D座標(u,v)上に投影することができる。図32において提示されるような、対称的な3D投影構造に基づいて、サンプルBは、面分#5の近隣面分、例えば、面分#0内の同じ座標(例えば、(u,v))に投影することができる。例えば、異なる面分のパディングされる領域内における同じサンプル位置については、投影面分内における対応する座標は、同一であることができる。他の面分内のパディングされるサンプルの投影される座標を計算するために再使用することができる面分のために、パディングされるサンプル位置についての投影される座標を含むLUTを記憶することができる。LUTが、面分の1つまたは複数(例えば、すべて)にわたって、再使用されるとき、マッピングされるサンプルの座標は、投影面分内にマッピングすることができる。例えば、LUT(例えば、同じLUT)が、フレームパッキングプロセスの間に、回転に基づいて、面分のうちの1つまたは複数(例えば、すべて)にわたって、再使用されるとき、マッピングされるサンプルの座標は、投影面分内にマッピングすることができる。
ジオメトリパディングが、360度ビデオ符号化に対して適用されるとき、限定されたパディングされる領域を記述するために、本明細書においては、ユニキューブ投影を使用することがあるが、限定されたパディングされる領域は、実際のキューブマップ面分が生成される前に、2D平面面分上のサンプルの座標を変更することによって、異なる球サンプリンググリッドを達成することができる、他のキューブ様の投影フォーマット(例えば、ACPおよび/またはEACなど)のために存在するように、適用することができる。ジオメトリパディングが、1つまたは複数の他の投影フォーマットと一緒に使用されるとき、本明細書において説明されるジオメトリパディング技法のうちの1つまたは複数(例えば、MVクリッピング、ビットストリームコンフォーマンス、および/またはハイブリッドパディング)が、適用可能であることができる。異なる投影フォーマットによって使用されるマッピング関数は、様々であることができる。有効なパディングされる領域のサイズは、投影フォーマットに基づいて、調整することができる。例えば、ACPが、符号化投影フォーマットとして使用されるとき、式(14)の平方根の内側が、ゼロよりも小さくないことを保証するために、−1.28≦β’≦1.28を使用することができる。例えば、ACP面分についてのパディングされる領域の最大サイズは、面分サイズの1.28倍であることができる。EACが、符号化投影フォーマットとして使用されるとき、パディングされる領域の最大サイズは、式(16)から、−2<β’<2として導出することができる。
コンフォーマンス窓を用いた、基準ピクチャのためのジオメトリパディングを提供することができる。符号化されるピクチャのサイズは、水平および/または垂直方向において、最小CUサイズの倍数であることができる。例えば、ピクチャは、符号化のために符号化ユニットに区分化することができるので、符号化されるピクチャのサイズは、水平および/または垂直方向において、最小CUサイズの倍数であることができる。コンフォーマンス窓を使用することができ、および/またはパディングされるピクチャのサイズを最小CUサイズの倍数にするために、シーケンスパラメータセットに収めて、窓サイズを伝達することができる。例えば、ソースピクチャサイズが、最小CUサイズの倍数ではない場合、パディングされるピクチャのサイズを最小CUサイズの倍数にするために、シーケンスパラメータセットに収めて、窓サイズを伝達することができる。パラメータWおよびHは、ソースピクチャの幅および高さを示すことができる。パラメータmCU_widthおよびmCU_heightは、最小CUの幅および高さを示すことができる。パラメータdWおよびdHは、コンフォーマンス窓のための水平および垂直方向におけるパディングされるサイズを示すことができる。Ceil(x)は、変数x以上の最小の整数値を計算するためのシーリング関数とすることができる。
dW=Ceil(W/mCU_width)×mCU_width−W
dH=Ceil(H/mCU_height)×mCU_height−H
図20A、図20B、および図20Cは、ソースピクチャサイズが、水平および/または垂直方向において、最小CUサイズの倍数ではないときの、パディングの3つの例を示している。図20Aは、ソースピクチャサイズが、最小CUサイズの倍数ではないときの、水平方向における例示的なパディングを示している。図20Bソースピクチャサイズが、最小CUサイズの倍数ではないときの、垂直方向における例示的なパディングを示している。図20Cは、ソースピクチャサイズが、最小CUサイズの倍数ではないときの、水平方向および垂直方向における例示的なパディングを示している。基準ピクチャの面分に対して、ジオメトリパディングが、実行されるとき、パディングは、面分境界から開始することができ、パディングされる面分を連続にするために、コンフォーマンス窓を含まないことがある、外側に移動することができる。例えば、基準ピクチャの面分に対して、ジオメトリパディングが、実行されるとき、パディングは、面分境界から開始することができ、コンフォーマンス窓内におけるパディングは、エンコーダによって示すことができるので、外側に移動することができる。例えば、基準ピクチャの面分は、パディングされる面分を連続にするために、コンフォーマンス窓を含まないことがある。例えば、基準ピクチャの面分は、パディングされる面分を連続にするために、コンフォーマンス窓を含むことができる。コンフォーマンス窓は、変化させずに保つことができ、および/またはジオメトリパディングが、実行されるとき、パディングは、コンフォーマンス窓から開始することができる。
ジオメトリパディングを用いたデブロッキングを実行することができる。ブロッキングアーチファクトを除去するために、デブロッキングフィルタを適用することができる。例えば、1つもしくは複数(例えば、2つ)の近隣予測ユニット間の境界上において、および/または1つもしくは複数(例えば、2つ)の変換ユニット間の境界上において、エンコーディングプロセスによって導入されたブロッキングアーチファクトを除去するために、デブロッキングフィルタを適用することができる。境界については、近隣ブロック内の1つまたは複数のサンプルを、現在のブロック内におけるそれらのサンプルのフィルタリングのために、使用することができる。例えば、図21においては、ブロック「p」は、現在のブロック「q」の近隣ブロックであることができる。1つまたは複数の基準サンプル(p0、p1、p2、および/またはp3)を使用して、1つまたは複数の基準サンプル(q0、q1、q2、および/またはq3)をフィルタリングすることができる。境界が、面分境界である場合、ブロック「p」および/またはブロック「q」は、1つまたは複数(例えば、2つ)の異なる面分内にあることができる。境界が、面分境界である場合、基準サンプル{p0、p1、p2、p3}と基準サンプル{q0、q1、q2、q3}との間に、不連続性が、存在することがある。例えば、境界が、面分境界である場合、ジオメトリ歪曲のために、サンプル{p0、p1、p2、p3}とサンプル{q0、q1、q2、q3}との間に、不連続性が、存在することがある。面分境界上におけるデブロッキングフィルタの適用は、ブロッキングアーチファクトを除去しないことがある。面分境界上におけるデブロッキングフィルタの適用は、主観的な視覚品質を低下させることがある。面分境界は、ピクチャ境界として扱うことができる。例えば、面分境界は、その面分境界上において、デブロッキングフィルタを実行しないことができるように、ピクチャ境界として扱うことができる。導出された近隣サンプル値は、それらの近隣サンプルを別の面分内において直接的に使用する代わりに、デブロッキングフィルタに対する入力として使用される近隣サンプルのために、ジオメトリパディング技法に従って、使用することができる。例えば、サンプルq0、q1、q2、および/またはq3をフィルタリングするとき、ジオメトリパディング技法を使用して、導出される基準サンプルp0、p1、p2、および/またはp3を、必要に応じて導出することができる。面分境界は、フレームパッキング情報に従って、決定することができる。
ジオメトリパディングを用いたサンプル適応オフセット(SAO)を使用することができる。高周波数符号化アーチファクトを除去するために、SAOを使用することができる。例えば、HEVCにおける高周波数符号化アーチファクトを除去するために、SAOを使用することができる。SAOは、バンドオフセットおよび/またはエッジオフセットを含むことができる。符号化ツリーユニット(CTU)のために、SAOパラメータを伝達することができる。例えば、CTUは、64×64のブロックサイズを有することができる。エッジオフセットの場合、SAOプロセスは、ピクセルが、エッジ境界上にあるか、または与えられた方向に沿っていないかを決定することができる。図22は、エッジオフセットSAOによってピクセルを処理することができる例を示している。S(x)は、位置xにおけるサンプル値とすることができる。Pは、現在のサンプルロケーションとすることができ、n0は、それの左/上近隣位置とすることができ、n1は、それの右/下近隣位置とすることができる。図22に示される4つの例において、現在のサンプルは、エッジ境界にあることができる。エッジ境界は、エッジオフセットSAOによって処理することができる。エッジオフセットSAOプロセスは、それの近隣サンプル値を参照することができる。現在のサンプルが、面分境界に位置付けられる場合、現在のサンプルの近隣サンプルは、異なる面分内に位置付けることができる。例は、導出されたサンプルを使用することができる。例えば、導出されたサンプルは、1つまたは複数の近隣サンプルを置き換えることができる。現在のサンプルが、面分境界上にある場合、1つまたは複数の近隣サンプルを置き換えることができる。面分境界は、ピクチャ境界として扱うことができ、および/またはそれらの面分境界サンプルに対するSAOフィルタリングは、スキップすることができる。
SAOパラメータを伝達するかどうかは、CTUのロケーションに基づいて、決定することができる。例えば、360度ビデオ符号化については、CTU(例えば、CTU全体)が、(図19Aにおいて「V」マークを付された)ヌル面分の内部にある場合、サンプルは、フレームパッキングのために使用されることがあり、ユーザに提供されないことがあるので、SAOパラメータは、伝達されないことがある。
異なる投影ジオメトリは、異なる特性を有することができる。例えば、ERPおよび/または正積投影は、1つの面分を有することがあり、面分境界問題は、ピクチャが引き延ばされるときでさえも、些細な事柄であることがある。キューブマップは、フレームパッキングされるピクチャにおいて、6つの面分と、多くの面分境界とを有することができる。そのため、ピクチャは、異なる投影ジオメトリで符号化することができる。(例えば、表1に列挙されるような)投影ジオメトリインデックスを、スライスのために(例えば、各スライスのために)伝達することができる。表1は、例示的な投影ジオメトリインデックスを提供する。
Figure 2022000954
投影フォーマットは、スライスレベルで伝達することができる。投影フォーマットシグナリングは、ピクチャレベルで実行することができる。例えば、投影フォーマットシグナリングは、投影ジオメトリのインデックスを介して、ピクチャレベルで実行することができる。シーケンスレベルにおいて、シーケンス全体において使用される投影フォーマットの総数、および/またはフォーマット自体を、伝達することができる。表2は、シーケンスレベルにおける、例示的な投影フォーマットシグナリングを提供する。
Figure 2022000954
パラメータnum_projection_formatは、シーケンスにおいて使用される投影フォーマットの総数を指定することができる。パラメータproject_geometry_idx[i]は、(例えば、ピクチャ/スライスレベルにおいて伝達されるような)第iのインデックスによって示される、(例えば、表1に示されるような)マッピングインデックスを指定することができる。例えば、エクイレクタングラ投影および正積投影が、シーケンスにおいて使用される場合、ならびにビットストリーム内において、正積およびエクイレクタングラを表すために、それぞれ、インデックス「0」および「1」が、使用される場合、project_geometiy_idxは、以下のようにカスタマイズし、表2に従って伝達することができる。
project_geometry_idx[0]=2
project_geometry_idx[1]=0
ピクチャのための投影フォーマットは、レート−歪み最適化を使用して、決定することができる。エンコーダは、1つまたは複数の利用可能な投影フォーマットを用いて、現在のピクチャをエンコードすることができる。例えば、エンコーダは、1つまたは複数の利用可能な投影フォーマットを用いて、現在のピクチャをエンコードすることができる。エンコーダは、投影されるフォーマットのレート−歪みコストを測定することができる。最小のレート−歪みコストを有する投影フォーマットを選択することができる。歪みは、元のフォーマット領域において、測定することができる。例えば、Oは、元の投影フォーマットを表すことができ、Xは、測定された投影フォーマットを表すことができ、Iは、元のピクチャを表すことができ、I’は、再構成されたピクチャを表すことができる。元のピクチャIは、元の投影フォーマットOから符号化投影フォーマットXに変換することができる。ピクチャは、符号化および再構成することができる。Projection(I,F)は、ピクチャIをフォーマットFに変換するために使用される、投影関数を表すことができる。IとI’から変換されたピクチャとの間の歪みは、以下のように、決定することができる。||t||は、変数tの平方誤差(SSE)の和とすることができる。
歪み=||I−Projection(I’,O)||
デコード済みピクチャバッファ(DPB)管理は、以下のように実行することができる。オンザフライ変換モードを使用することができる。再構成されたピクチャは、DPB内に記憶することができる。基準ピクチャと現在のピクチャとが、異なる投影フォーマットを有する場合、基準ピクチャは、現在のピクチャのフォーマットに変換することができる。図23Aおよび図23Bは、DPB管理をいかに実行することができるかについての例を示している。影付きブロックおよび空白ブロックは、それぞれ、2つの投影フォーマットを示すことができる。破線ブロックは、仮想的ピクチャを示すことができ、実線ブロックは、物理的ピクチャを示すことができる。基準ピクチャR0は、1つの投影フォーマットにあることができる。基準ピクチャR1およびR2は、他の投影フォーマット(例えば、R0のための投影フォーマットとは異なる投影フォーマット)にあることができる。現在のピクチャPは、ピクチャR1およびR2と同じ投影フォーマットを有することができる。破線境界を有するブロックピクチャ(例えば図23Aに示される基準ピクチャリストに属するR1およびR2)は、仮想的ピクチャを表すことができる。実線境界を有するブロック(例えば、図23Aに示される基準ピクチャリストに属するR0)は、バッファ内に記憶された物理的ピクチャを表すことができる。図23Aに示されるように、基準ピクチャR0は、それがデコードされる前に、ピクチャPの投影フォーマットに変換することができる。変換されたバージョンは、基準ピクチャリスト上に配置することができる。基準ピクチャR1およびR2は、基準ピクチャバッファ内に配置することができる。例えば基準ピクチャR1およびR2は、ピクチャPと同じ投影フォーマットを有するので、それらは、基準ピクチャバッファ内に直接的に配置することができる。
基準ピクチャは、DPB内に記憶される一方で、基準ピクチャは、異なる投影フォーマットに変換することができる。図23Bに示されるように、基準ピクチャは、現在のピクチャPの投影フォーマットに基づいて、DPBから選択することができる。基準ピクチャを使用して、基準ピクチャリストを構成することができる。
1つまたは複数(例えば、すべて)のイントラスライス、および1つまたは複数(例えば、すべて)のインタースライスは、同じ投影ジオメトリ符号化を使用することができる。1つまたは複数(例えば、すべて)のイントラスライスは、1つの投影ジオメトリ符号化を使用することができ、一方、1つまたは複数(例えば、すべて)のインタースライスは、(例えば、イントラスライスにおいて使用される投影ジオメトリ符号化とは異なる)他の投影ジオメトリを使用することができる。再構成されたイントラピクチャは、インタースライスが使用する投影ジオメトリに変換することができる。例えば、デコード済みピクチャバッファ内に存在することができる、再構成されたイントラピクチャは、動き補償を直接的に適用することができるように、インタースライスが使用する投影ジオメトリに変換することができる。例えば、イントラスライスは、符号化のためにERPを使用することができ、一方、インタースライスは、符号化のためにキューブマップ投影を使用することができる。2つの投影のための解像度は、異なることができる。例えば、イントラスライスは、インタースライスよりも大きい解像度を有することができる。解像度が、異なる場合、再構成されたイントラピクチャ(例えば、デコード済みピクチャバッファ内に記憶された1つ)を、インタースライスが使用するジオメトリ投影に変換することができる。再構成されたイントラピクチャは、インタースライスと同じ解像度に再サンプリングすることができる。
図33Aは、1つまたは複数の開示される実施形態を実施することができ、および/または使用することができる、例示的な通信システム100の図を示している。通信システム100は、音声、データ、ビデオ、メッセージング、放送などのコンテンツを複数の無線ユーザに提供する、多元接続システムとすることができる。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通して、そのようなコンテンツにアクセスすることを可能することができる。例えば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、およびシングルキャリアFDMA(SC−FDMA)など、1つまたは複数のチャネルアクセス方法を利用することができる。
図33Aに示されるように、通信システム100は、無線送受信ユニット(WTRU)102a、102b、102c、および/または102d(全体として、または一括して、WTRU102と呼ばれることがある)、無線アクセスネットワーク(RAN)103/104/105、コアネットワーク106/107/109、公衆交換電話網(PSTN)108、インターネット110、ならびに他のネットワーク112を含むことができるが、開示される実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を企図していることが理解されよう。WTRU102a、102b、102c、および/または102dの各々は、無線環境において動作および/または通信するように構成された、任意のタイプのデバイスとすることができる。例として、WTRU102a、102b、102c、および/または102dは、無線信号を送信および/または受信するように構成することができ、ユーザ機器(UE)、移動局、固定もしくは移動加入者ユニット、ページャ、セルラ電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、および家電製品などを含むことができる。
通信システム100は、基地局114aおよび基地局114bも含むことができる。基地局114a、114bの各々は、コアネットワーク106/107/109、インターネット110、および/またはネットワーク112などの1つまたは複数の通信ネットワークへのアクセスを容易にするために、WTRU102a、102b、102c、および/または102dのうちの少なくとも1つと無線でインターフェースするように構成された、任意のタイプのデバイスとすることができる。例として、基地局114aおよび/または114bは、基地送受信機局(BTS)、ノードB、eノードB、ホームノードB、ホームeノードB、サイトコントローラ、アクセスポイント(AP)、および無線ルータなどとすることができる。基地局114a、114bは、各々が、単一の要素として示されているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含むことができることが理解されよう。
基地局114aは、RAN103/104/105の部分とすることができ、RAN103/104/105は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示されず)も含むことができる。基地局114aおよび/または基地局114bは、セル(図示されず)と呼ばれることがある、特定の地理的領域内において無線信号を送信および/または受信するように構成することができる。セルは、さらにセルセクタに分割することができる。例えば、基地局114aに関連付けられたセルは、3つのセクタに分割することができる。したがって、一実施形態においては、基地局114aは、送受信機を3つ、すなわち、セルのセクタ毎に1つずつ含むことができる。別の実施形態においては、基地局114aは、多入力多出力(MIMO)技術を利用することができ、したがって、セルのセクタ毎に複数の送受信機を利用することができる。
基地局114aおよび/または114bは、エアインターフェース115/116/117上において、WTRU102a、102b、102c、および/または102dのうちの1つまたは複数と通信することができ、エアインターフェース115/116/117は、任意の適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光など)とすることができる。エアインターフェース115/116/117は、任意の適切な無線アクセス技術(RAT)を使用して確立することができる。
より具体的には、上で言及されたように、通信システム100は、多元接続システムとすることができ、CDMA、TDMA、FDMA、OFDMA、およびSC−FDMAなどの、1つまたは複数のチャネルアクセス方式を利用することができる。例えば、RAN103/104/105内の基地局114a、ならびにWTRU102a、102b、および/または102cは、広帯域CDMA(WCDMA(登録商標))を使用してエアインターフェース115/116/117を確立することができる、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実施することができる。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
別の実施形態においては、基地局114a、ならびにWTRU102a、102b、および/または102cは、ロングタームエボリューション(LTE)および/またはLTEアドバンスト(LTE−A)を使用してエアインターフェース115/116/117を確立することができる、進化型UMTS地上無線アクセス(E−UTRA)などの無線技術を実施することができる。
他の実施形態においては、基地局114a、およびWTRU102a、102b、および/または102cは、IEEE802.16(すなわち、マイクロ波アクセス用の世界的相互運用性(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV−DO、暫定標準2000(IS−2000)、暫定標準95(IS−95)、暫定標準856(IS−856)、移動体通信用グローバルシステム(GSM(登録商標))、GSMエボリューション用の高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実施することができる。
図33Aの基地局114bは、例えば、無線ルータ、ホームノードB、ホームeノードB、またはアクセスポイントとすることができ、職場、家庭、乗物、およびキャンパスなどの局所的エリアにおける無線接続性を容易にするために、任意の適切なRATを利用することができる。一実施形態においては、基地局114b、およびWTRU102c、102dは、IEEE802.11などの無線技術を実施して、無線ローカルエリアネットワーク(WLAN)を確立することができる。別の実施形態においては、基地局114b、およびWTRU102c、102dは、IEEE802.15などの無線技術を実施して、無線パーソナルエリアネットワーク(WPAN)を確立することができる。また別の実施形態においては、基地局114b、およびWTRU102c、102dは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用して、ピコセルまたはフェムトセルを確立することができる。図33Aに示されるように、基地局114bは、インターネット110への直接的な接続を有することがある。したがって、基地局114bは、コアネットワーク106/107/109を介してインターネット110にアクセスする必要がないことがある。
RAN103/104/105は、コアネットワーク106/107/109と通信することができ、コアネットワーク106/107/109は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスをWTRU102a、102b、102c、および/または102dのうちの1つまたは複数に提供するように構成された、任意のタイプのネットワークとすることができる。例えば、コアネットワーク106/107/109は、呼制御、請求サービス、モバイルロケーションベースのサービス、プリペイド通話、インターネット接続性、ビデオ配信などを提供することができ、および/またはユーザ認証など、高レベルのセキュリティ機能を実行することができる。図33Aには示されていないが、RAN103/104/105および/またはコアネットワーク106/107/109は、RAN103/104/105と同じRATまたは異なるRATを利用する他のRANと直接的または間接的に通信することができることが理解されよう。例えば、E−UTRA無線技術を利用することができるRAN103/104/105に接続するのに加えて、コアネットワーク106/107/109は、GSM無線技術を利用する別のRAN(図示されず)とも通信することができる。
コアネットワーク106/107/109は、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするための、WTRU102a、102b、102c、および/または102dのためのゲートウェイとしての役割も果たすことができる。PSTN108は、基本電話サービス(POTS)を提供する回線交換電話網を含むことができる。インターネット110は、TCP/IPインターネットプロトコルスイート内の伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなるグローバルシステムを含むことができる。ネットワーク112は、他のサービスプロバイダによって所有および/または運営される有線または無線通信ネットワークを含むことができる。例えば、ネットワーク112は、RAN103/104/105と同じRATまたは異なるRATを利用することができる1つまたは複数のRANに接続された、別のコアネットワークを含むことができる。
通信システム100内のWTRU102a、102b、102c、および/または102dのいくつかまたはすべては、マルチモード機能を含むことができ、すなわち、WTRU102a、102b、102c、および/または102dは、異なる無線リンク上で異なる無線ネットワークと通信するための複数の送受信機を含むことができる。例えば、図33Aに示されるWTRU102cは、セルラベースの無線技術を利用することができる基地局114aと通信するように、またIEEE802無線技術を利用することができる基地局114bと通信するように構成することができる。
図33Bは、例示的なWTRU102のシステム図を示している。図33Bに示されるように、WTRU102は、プロセッサ118と、送受信機120と、送信/受信要素122と、スピーカ/マイクロフォン124と、キーパッド126と、ディスプレイ/タッチパッド128と、非リムーバブルメモリ130と、リムーバブルメモリ132と、電源134と、全地球測位システム(GPS)チップセット136と、他の周辺機器138とを含むことができる。WTRU102は、実施形態との整合性を保ちながら、上記の要素の任意のサブコンビネーションを含むことができることが理解されよう。また、実施形態は、基地局114a、114b、ならびに/またはとりわけ、送受信機局(BTS)、ノードB、サイトコントローラ、アクセスポイント(AP)、ホームノードB、進化型ノードB(eNodeB)、ホーム進化型ノードB(HeNB)、ホーム進化型ノードBゲートウェイ、およびプロキシノードなどの、しかしそれらに限定されない、基地局114a、114bが代表することができるノードが、図33Bにおいて示され、本明細書において説明される要素のいくつかまたはすべてを含むことができることを企図している。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などとすることができる。プロセッサ118は、信号符号化、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境で動作することを可能にする他の任意の機能性を実行することができる。プロセッサ118は、送受信機120に結合することができ、送受信機120は、送信/受信要素122に結合することができる。図33Bは、プロセッサ118と送受信機120を別個の構成要素として示しているが、プロセッサ118と送受信機120は、電子パッケージまたはチップ内に一緒に統合することができることが理解できよう。
送信/受信要素122は、エアインターフェース115/116/117上において、基地局(例えば、基地局114a)に信号を送信し、または基地局から信号を受信するように構成することができる。例えば、一実施形態においては、送信/受信要素122は、RF信号を送信および/または受信するように構成されたアンテナとすることができる。別の実施形態においては、送信/受信要素122は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器とすることができる。また別の実施形態においては、送信/受信要素122は、RF信号および光信号の両方を送信および受信するように構成することができる。送信/受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成することができることが理解されよう。
加えて、図33Bにおいては、送信/受信要素122は単一の要素として示されているが、WTRU102は、任意の数の送信/受信要素122を含むことができる。より具体的には、WTRU102は、MIMO技術を利用することができる。したがって、一実施形態においては、WTRU102は、エアインターフェース115/116/117上において無線信号を送信および受信するための2つ以上の送信/受信要素122(例えば、複数のアンテナ)を含むことができる。
送受信機120は、送信/受信要素122によって送信されることになる信号を変調し、送信/受信要素122によって受信された信号を復調するように構成することができる。上で言及されたように、WTRU102は、マルチモード機能を有することができる。したがって、送受信機120は、WTRU102が、例えば、UTRAおよびIEEE802.11など、複数のRATを介して通信することを可能にするための、複数の送受信機を含むことができる。
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合することができ、それらからユーザ入力データを受信することができる。プロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力することもできる。加えてプロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132など、任意のタイプの適切なメモリから情報を入手することができ、それらにデータを記憶することができる。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または他の任意タイプのメモリ記憶デバイスを含むことができる。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含むことができる。他の実施形態においては、プロセッサ118は、サーバまたはホームコンピュータ(図示されず)上などに配置された、WTRU102上に物理的に配置されていないメモリから情報を入手することができ、それらにデータを記憶することができる。
プロセッサ118は、電源134から電力を受け取ることができ、WTRU102内の他の構成要素への電力の分配および/または制御を行うように構成することができる。電源134は、WTRU102に給電するための任意の適切なデバイスとすることができる。例えば、電源134は、1つまたは複数の乾電池(例えば、ニッケル−カドミウム(NiCd)、ニッケル−亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、および燃料電池などを含むことができる。
プロセッサ118は、GPSチップセット136に結合することもでき、GPSチップセット136は、WTRU102の現在ロケーションに関するロケーション情報(例えば、経度および緯度)を提供するように構成することができる。GPSチップセット136からの情報に加えて、またはその代わりに、WTRU102は、基地局(例えば、基地局114a、114b)からエアインターフェース115/116/117上においてロケーション情報を受信することができ、および/または2つ以上の近くの基地局から受信している信号のタイミングに基づいて、自らのロケーションを決定することができる。WTRU102は、実施形態との整合性を保ちながら、任意の適切なロケーション決定方法を用いて、ロケーション情報を獲得することができることが理解されよう。
プロセッサ118は、他の周辺機器138にさらに結合することができ、他の周辺機器138は、追加的な特徴、機能性、および/または有線もしくは無線接続性を提供する、1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含むことができる。例えば、周辺機器138は、加速度計、eコンパス、衛星送受信機、(写真またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、およびインターネットブラウザなどを含むことができる。
図33Cは、実施形態による、RAN103およびコアネットワーク106のシステム図を示している。上で言及されたように、RAN103は、UTRA無線技術を利用して、エアインターフェース115上においてWTRU102a、102b、および/または102cと通信することができる。RAN103は、コアネットワーク106と通信することもできる。図33Cに示されるように、RAN103は、ノードB140a、140b、および/または140cを含むことができ、ノードB140a、140b、および/または140cは、各々が、エアインターフェース115上においてWTRU102a、102b、および/または102cと通信するための1つまたは複数の送受信機を含むことができる。ノードB140a、140b、および/または140cは、各々、RAN103内の特定のセル(図示されず)に関連付けることができる。RAN103は、RNC142aおよび/または142bを含むこともできる。RAN103は、実施形態との整合性を保ちながら、任意の数のノードBおよびRNCを含むことができることが理解されよう。
図33Cに示されるように、ノードB140aおよび/または140bは、RNC142aと通信することができる。加えて、ノードB140cは、RNC142bと通信することができる。ノードB140a、140b、および/または140cは、Iubインターフェースを介して、それぞれのRNC142a、142bと通信することができる。RNC142a、142bは、Iurインターフェースを介して、互いに通信することができる。RNC142a、142bの各々は、それが接続されたそれぞれのノードB140a、140b、および/または140cを制御するように構成することができる。加えて、RNC142a、142bの各々は、アウタループ電力制御、負荷制御、アドミッション制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシティ、セキュリティ機能、およびデータ暗号化など、他の機能性を実施またはサポートするように構成することができる。
図33Cに示されるコアネットワーク106は、メディアゲートウェイ(MGW)144、モバイル交換センタ(MSC)146、サービングGPRSサポートノード(SGSN)148、および/またはゲートウェイGPRSサポートノード(GGSN)150を含むことができる。上記の要素の各々は、コアネットワーク106の部分として示されているが、これらの要素のうちのいずれの1つも、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
RAN103内のRNC142aは、IuCSインターフェースを介して、コアネットワーク106内のMSC146に接続することができる。MSC146は、MGW144に接続することができる。MSC146およびMGW144は、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cと従来の固定電話回線通信デバイスとの間の通信を容易にすることができる。
RAN103内のRNC142aは、IuPSインターフェースを介して、コアネットワーク106内のSGSN148に接続することもできる。SGSN148は、GGSN150に接続することができる。SGSN148とGGSN150は、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cとIP対応デバイスとの間の通信を容易にすることができる。
上で言及されたように、コアネットワーク106は、ネットワーク112に接続することもでき、ネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図33Dは、実施形態による、RAN104およびコアネットワーク107のシステム図を示している。上で言及されたように、RAN104は、エアインターフェース116上においてWTRU102a、102b、および/または102cと通信するために、E−UTRA無線技術を利用することができる。RAN104は、コアネットワーク107と通信することもできる。
RAN104は、eノードB160a、160b、および/または160cを含むことができるが、RAN104は、実施形態との整合性を保ちながら、任意の数のeノードBを含むことができることが理解されよう。eノードB160a、160b、および/または160cは、各々が、エアインターフェース116上においてWTRU102a、102b、および/または102cと通信するための1つまたは複数の送受信機を含むことができる。一実施形態においては、eノードB160a、160b、および/または160cは、MIMO技術を実施することができる。したがって、eノードB160aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、WTRU102aから無線信号を受信することができる。
eノードB160a、160b、および/または160cの各々は、特定のセル(図示されず)に関連付けることができ、無線リソース管理決定、ハンドオーバ決定、ならびにアップリンクおよび/またはダウンリンクにおけるユーザのスケジューリングなどを処理するように構成することができる。図33Dに示されるように、eノードB160a、160b、および/または160cは、X2インターフェース上において互いに通信することができる。
図33Dに示されるコアネットワーク107は、モビリティ管理ゲートウェイ(MME)162と、サービングゲートウェイ164と、パケットデータネットワーク(PDN)ゲートウェイ166とを含むことができる。上記の要素の各々は、コアネットワーク107の部分として示されているが、これらの要素のうちのいずれの1つも、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
MME162は、S1インターフェースを介して、RAN104内のeノードB160a、160b、および/または160cの各々に接続することができ、制御ノードとしての役割を果たすことができる。例えば、MME162は、WTRU102a、102b、および/または102cのユーザの認証、ベアラアクティブ化/非アクティブ化、WTRU102a、102b、および/または102cの初期接続中における特定のサービングゲートウェイの選択などを担うことができる。MME162は、RAN104と、GSMまたはWCDMAなどの他の無線技術を利用する他のRAN(図示されず)との間の交換のためのコントロールプレーン機能を提供することもできる。
サービングゲートウェイ164は、S1インターフェースを介して、RAN104内のeノードB160a、160b、および/または160cの各々に接続することができる。サービングゲートウェイ164は、一般に、ユーザデータパケットのWTRU102a、102b、および/または102cへの/からのルーティングおよび転送を行うことができる。サービングゲートウェイ164は、eノードB間ハンドオーバ中におけるユーザプレーンのアンカリング、ダウンリンクデータがWTRU102a、102b、および/または102cに利用可能なときのページングのトリガ、ならびにWTRU102a、102b、および/または102cのコンテキストの管理および記憶など、他の機能を実行することもできる。
サービングゲートウェイ164は、PDNゲートウェイ166に接続することもでき、PDNゲートウェイ166は、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cとIP対応デバイスとの間の通信を容易にすることができる。
コアネットワーク107は、他のネットワークとの通信を容易にすることができる。例えば、コアネットワーク107は、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cと従来の固定電話回線通信デバイスとの間の通信を容易にすることができる。例えば、コアネットワーク107は、コアネットワーク107とPSTN108との間のインターフェースとしての役割を果たすIPゲートウェイ(例えば、IPマルチメディアサブシステム(IMS)サーバ)を含むことができ、またはそれと通信することができる。加えて、コアネットワーク107は、ネットワーク112へのアクセスをWTRU102a、102b、および/または102cに提供することができ、ネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図33Eは、実施形態による、RAN105およびコアネットワーク109のシステム図を示している。RAN105は、IEEE802.16無線技術を利用して、エアインターフェース117上においてWTRU102a、102b、および/または102cと通信する、アクセスサービスネットワーク(ASN)とすることができる。以下でさらに説明されるように、WTRU102a、102b、および/または102c、RAN105、ならびにコアネットワーク109の異なる機能エンティティ間の通信リンクは、参照点として定義することができる。
図33Eに示されるように、RAN105は、基地局180a、180b、および/または180cと、ASNゲートウェイ182とを含むことができるが、RAN105は、実施形態との整合性を保ちながら、任意の数の基地局およびASNゲートウェイを含むことができることが理解されよう。基地局180a、180b、および/または180cは、各々、RAN105内の特定のセル(図示されず)に関連付けることができ、各々が、エアインターフェース117上においてWTRU102a、102b、および/または102cと通信するための1つまたは複数の送受信機を含むことができる。一実施形態においては、基地局180a、180b、および/または180cは、MIMO技術を実施することができる。したがって、基地局180aは、例えば、複数のアンテナを使用して、WTRU102aに無線信号を送信し、WTRU102aから無線信号を受信することができる。基地局180a、180b、および/または180cは、ハンドオフトリガリング、トンネル確立、無線リソース管理、トラフィック分類、およびサービス品質(QoS)ポリシ実施などの、モビリティ管理機能を提供することもできる。ASNゲートウェイ182は、トラフィック集約ポイントとしての役割を果たすことができ、ページング、加入者プロファイルのキャッシング、およびコアネットワーク109へのルーティングなどを担うことができる。
WTRU102a、102b、および/または102cとRAN105との間のエアインターフェース117は、IEEE802.16仕様を実施する、R1参照点として定義することができる。加えて、WTRU102a、102b、および/または102cの各々は、コアネットワーク109との論理インターフェース(図示されず)を確立することができる。WTRU102a、102b、および/または102cとコアネットワーク109との間の論理インターフェースは、R2参照点として定義することができ、R2参照点は、認証、認可、IPホスト構成管理、および/またはモビリティ管理のために使用することができる。
基地局180a、180b、および/または180cの各々の間の通信リンクは、R8参照点として定義することができ、R8参照点は、WTRUハンドオーバおよび基地局間におけるデータの転送を容易にするためのプロトコルを含む。基地局180a、180b、および/または180cとASNゲートウェイ182との間の通信リンクは、R6参照点として定義することができる。R6参照点は、WTRU102a、102b、および/または102cの各々に関連付けられたモビリティイベントに基づいたモビリティ管理を容易にするためのプロトコルを含むことができる。
図33Eに示されるように、RAN105は、コアネットワーク109に接続することができる。RAN105とコアネットワーク109との間の通信リンクは、R3参照点として定義することができ、R3参照点は、例えば、データ転送およびモビリティ管理機能を容易にするためのプロトコルを含む。コアネットワーク109は、モバイルIPホームエージェント(MIP−HA)184と、認証認可課金(AAA)サーバ186と、ゲートウェイ188とを含むことができる。上記の要素の各々は、コアネットワーク109の部分として示されているが、これらの要素のうちのいずれの1つも、コアネットワークオペレータとは異なるエンティティによって所有および/または運営することができることが理解されよう。
MIP−HAは、IPアドレス管理を担うことができ、WTRU102a、102b、および/または102cが、異なるASNおよび/または異なるコアネットワークの間においてローミングを行うことを可能にすることができる。MIP−HA184は、インターネット110などのパケット交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cとIP対応デバイスとの間の通信を容易にすることができる。AAAサーバ186は、ユーザ認証、およびユーザサービスのサポートを担うことができる。ゲートウェイ188は、他のネットワークとの網間接続を容易にすることができる。例えば、ゲートウェイ188は、PSTN108などの回線交換ネットワークへのアクセスをWTRU102a、102b、および/または102cに提供して、WTRU102a、102b、および/または102cと従来の固定電話回線通信デバイスとの間の通信を容易にすることができる。加えて、ゲートウェイ188は、ネットワーク112へのアクセスをWTRU102a、102b、および/または102cに提供することができ、ネットワーク112は、他のサービスプロバイダによって所有および/または運営される他の有線または無線ネットワークを含むことができる。
図33Eには示されていないが、RAN105は、他のASNに接続することができ、コアネットワーク109は、他のコアネットワークに接続することができることが理解されるべきであり、理解でき、および/または理解されよう。RAN105と他のASNとの間の通信リンクは、R4参照点として定義することができ、R4参照点は、RAN105と他のASNとの間においてWTRU102a、102b、および/または102cのモビリティを調整するためのプロトコルを含むことができる。コアネットワーク109と他のコアネットワークとの間の通信リンクは、R5参照点として定義することができ、R5参照は、ホームコアネットワークと在圏コアネットワークとの間の網間接続を容易にするためのプロトコルを含むことができる。
上では特徴および要素が特定の組み合わせで説明されたが、各特徴または要素は、単独で使用することができ、または他の特徴および要素との任意の組み合わせで使用することができることを当業者は理解されよう。加えて、本明細書において説明された方法は、コンピュータまたはプロセッサによって実行される、コンピュータ可読媒体内に含まれる、コンピュータプログラム、ソフトウェア、またはファームウェアで実施することができる。コンピュータ可読媒体の例は、(有線または無線接続上で送信される)電子信号、およびコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよびリムーバブルディスクなどの磁気媒体、光磁気媒体、ならびにCD−ROMディスクおよびデジタル多用途ディスク(DVD)などの光媒体を含むが、それらに限定されない。ソフトウェアと連携するプロセッサを使用して、WTRU、UE、端末、基地局、RNC、または任意のホストコンピュータにおいて使用される、無線周波数送受信機を実施することができる。
本発明は、通信ビデオ符号化に利用できる。

Claims (52)

  1. 360度ビデオコンテンツを符号化する方法であって、
    第1の投影ジオメトリと関連付けられたフレームパッキングされたピクチャ内における現在のサンプルロケーションを識別するステップと、
    近隣サンプルロケーションが、前記フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられていると決定するステップと、
    前記360度ビデオコンテンツの少なくとも1つの円特性と、前記第1の投影ジオメトリとに基づいて、パディングサンプルロケーションを導出するステップと、
    前記パディングサンプルロケーションに基づいて、前記360度ビデオコンテンツを処理するステップと
    を備える方法。
  2. 前記コンテンツ境界は、フレームパッキングされたピクチャの境界、または面分境界
    のうちの少なくとも一方を含む請求項1に記載の方法。
  3. 前記第1の投影ジオメトリは、エクイレクタングラ投影、正積投影、キューブマップ投影、8面体投影、または円筒投影のうちの少なくとも1つを含む請求項1に記載の方法。
  4. 前記フレームパッキングされたピクチャは、前記第1の投影ジオメトリと関連付けられた複数の面分を含み、前記コンテンツ境界は、面分間の境界を定義し、前記パディングサンプルロケーションを導出するステップは、
    前記現在のサンプルロケーションを含む第1の面分を識別するステップと、
    前記第1の面分と関連付けられた前記近隣サンプルロケーションの3D位置を計算するステップと、
    前記近隣サンプルロケーションの前記3D位置に基づいて、前記パディングサンプルロケーションを含む第2の面分を識別するステップと、
    前記パディングサンプルロケーションとして、前記第2の面分内における前記近隣サンプルロケーションの2D平面位置を導出するために、前記近隣サンプルロケーションの前記3D位置を用いて、ジオメトリ投影を適用するステップと
    を含む請求項1に記載の方法。
  5. 前記パディングサンプルロケーションを導出するステップは、
    前記第1の投影ジオメトリにおける座標を、第2の投影ジオメトリと関連付けられた中間座標に変換するステップであって、前記近隣サンプルロケーションの前記3D位置は、前記中間座標で計算され、前記第2の面分内における前記近隣サンプルロケーションの前記2D平面位置は、前記中間座標で識別される、ステップと、
    前記第2の投影ジオメトリと関連付けられた前記近隣サンプルロケーションの前記識別された2D平面位置を、前記第1の投影ジオメトリと関連付けられた前記座標に変換し戻すステップと
    をさらに備える請求項4に記載の方法。
  6. 補間フィルタを使用して、前記パディングサンプルロケーションにおけるパディングサンプル値を導出するステップであって、前記360度ビデオコンテンツは、前記パディングサンプル値に基づいて処理される、ステップ
    をさらに備える請求項1に記載の方法。
  7. 前記補間フィルタは、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、または離散コサイン変換ベースの補間フィルタのうちの少なくとも1つを含む請求項6に記載の方法。
  8. 前記360度ビデオコンテンツを処理するステップは、
    前記パディングサンプルロケーションにおけるパディングサンプル値を導出するステップと、
    前記導出されたパディングサンプル値を使用して、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、または適応ループフィルタリングのうちの少なくとも1つを実行するステップと
    を含む請求項1に記載の方法。
  9. 前記360度ビデオコンテンツを処理するステップは、
    前記現在のサンプルロケーションが、前記コンテンツ境界上に位置付けられたときに、前記パディングサンプルロケーションに基づいて、デブロッキングフィルタを適用するステップ
    を含む請求項1に記載の方法。
  10. 前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記右コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記フレームパッキングされたピクチャの前記右端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの前記左端コンテンツ境界の近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記左コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記フレームパッキングされたピクチャの前記左端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの前記右端コンテンツ境界の近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記上端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記上端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記上端コンテンツ境界の第2のエリアの近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記下端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記下端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記下端コンテンツ境界の第2のエリアの近くに位置付けられる
    請求項1に記載の方法。
  11. 360度ビデオコンテンツを符号化する方法であって、
    第1の投影ジオメトリと関連付けられたフレームパッキングされたピクチャ内における現在のブロックを識別するステップと、
    初期基準ブロックが、前記フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられていると決定するステップと、
    前記初期基準ブロックが前記コンテンツ境界の外部にあるという条件において、前記360度ビデオコンテンツの少なくとも1つの円特性と、前記第1の投影ジオメトリとに基づいて、マッピングされた基準ブロックを導出するステップと、
    前記マッピングされた基準ブロックと関連付けられた属性を導出するステップと、
    前記マッピングされた基準ブロックと関連付けられた前記属性に基づいて、前記現在のブロックを予測するステップと
    を備える方法。
  12. 前記コンテンツ境界は、フレームパッキングされたピクチャの境界、または面分境界のうちの少なくとも一方を含む請求項11に記載の方法。
  13. 前記第1の投影ジオメトリは、エクイレクタングラ投影、正積投影、キューブマップ投影、8面体投影、または円筒投影のうちの少なくとも1つを含む請求項11に記載の方法。
  14. 前記フレームパッキングされたピクチャは、前記第1の投影ジオメトリと関連付けられた複数の面分を含み、前記コンテンツ境界は、面分間の境界を定義し、前記方法は、
    前記現在のブロックのロケーションを含む第1の面分を識別するステップと、
    前記初期基準ブロックと関連付けられたロケーションの3D位置を計算するステップであって、前記3D位置は、前記第1の面分と関連付けられる、ステップと、
    前記初期基準ブロックと関連付けられた前記ロケーションの前記3D位置に基づいて、前記マッピングされた基準ブロックを含む第2の面分を識別するステップと、
    前記マッピングされた基準ブロックを導出するための、前記第2の面分内における前記初期基準ブロックの2D平面位置を導出するために、前記初期基準ブロックと関連付けられた前記ロケーションの前記3D位置を用いて、ジオメトリ投影を適用するステップと
    をさらに備える請求項11に記載の方法。
  15. 前記マッピングされた基準ブロックを導出するステップは、
    前記第1の投影ジオメトリにおける座標を、第2の投影ジオメトリと関連付けられた中間座標に変換するステップであって、前記初期基準ブロックロケーションと関連付けられた前記ロケーションの前記3D位置は、前記中間座標で計算され、前記マッピングされた基準ブロックを導出するための、前記第2の面分内における前記初期基準ブロックの前記2D平面位置は、前記中間座標で識別される、ステップと、
    前記第2の投影ジオメトリと関連付けられた前記初期基準ブロックの前記識別された2D平面位置を、前記第1の投影ジオメトリと関連付けられた前記座標に変換し戻すステップと
    を含む請求項14に記載の方法。
  16. 補間フィルタを使用して、前記マッピングされた基準ブロックと関連付けられた複数のサンプル値を導出するステップであって、前記360度ビデオコンテンツは、前記マッピングされた基準ブロックと関連付けられた前記複数のサンプル値に基づいて処理される、ステップ
    をさらに含む請求項11に記載の方法。
  17. 前記補間フィルタは、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、または離散コサイン変換ベースの補間フィルタのうちの少なくとも1つを含む請求項16に記載の方法。
  18. 前記マッピングされた基準ブロックにおいて複数のサンプル値を導出するステップと、
    前記マッピングされた基準ブロック内の前記複数のサンプル値を使用して、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、または適応ループフィルタリングのうちの少なくとも1つを実行するステップと
    をさらに含む請求項11に記載の方法。
  19. 前記現在のブロックが、前記フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、前記決定された初期基準ブロックが、前記右コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記フレームパッキングされたピクチャの前記右端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの前記左端コンテンツ境界の近くに位置付けられ、前記決定された初期基準ブロックが、前記左コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記フレームパッキングされたピクチャの前記左端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの前記右端コンテンツ境界の近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された初期基準ブロックが、前記上端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記上端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記上端コンテンツ境界の第2のエリアの近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された初期基準ブロックが、前記下端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記下端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記下端コンテンツ境界の第2のエリアの近くに位置付けられる
    請求項11に記載の方法。
  20. 前記属性は、マッピングされたブロックの位置の、イントラモード、インターモード、マージモード、または動き情報のうちの少なくとも1つを含む請求項11に記載の方法。
  21. 前記マッピングされた基準ブロックは、前記第1の投影ジオメトリと関連付けられた3Dジオメトリを展開することによって、導出される請求項11に記載の方法。
  22. 前記初期基準ブロックが、前記コンテンツ境界に対して対角線位置上にないとき、前記現在のブロックは、前記コンテンツ境界に対して垂直または対角線方向に位置付けられた最も近い利用可能なブロックを複製することによって予測される請求項21に記載の方法。
  23. 前記現在のブロックを予測するステップは、
    面分の有効なパディングされる領域を、前記第1の投影ジオメトリと関連付けられた前記面分のサイズに基づいて、決定するステップと、
    前記初期基準ブロックが、前記有効なパディングされる領域内に位置付けられているかどうかを決定するステップであって、前記初期基準ブロックが、前記有効なパディングされる領域の外部に位置付けられているとき、前記現在のブロックは、前記有効なパディングされる領域内に位置付けられた最も近い利用可能なブロックに基づいて予測される、ステップと
    を含む請求項11に記載の方法。
  24. 前記初期基準ブロックが、前記有効なパディングされる領域内に位置付けられているとき、前記現在のブロックは、前記マッピングされた基準ブロックに基づいて予測される請求項23に記載の方法。
  25. 前記現在のブロックを予測するステップは、
    面分の有効なパディングされる領域を、前記第1の投影ジオメトリと関連付けられた前記面分のサイズに基づいて、決定するステップと、
    初期基準ブロックが、前記有効なパディングされる領域内に位置付けられた第1のサブブロックと、前記有効なパディングされる領域の外部に位置付けられた第2のサブブロックとを含むと決定するステップと、
    前記有効なパディングされる領域の外部に位置付けられた前記第2のサブブロック内の複数のサンプルを、前記有効なパディングされる領域内のそれぞれの近隣サンプル値を用いて、パディングするステップと、
    前記第1のサブブロック内の複数のサンプルと、前記第2のサブブロック内の前記複数のパディングされたサンプルとに基づいて、前記現在のブロックを予測するステップと
    を含む請求項11に記載の方法。
  26. 前記第1の投影ジオメトリと関連付けられた面分の少なくとも位置またはサイズに基づいて、有効なパディングされる領域の範囲を決定するステップと、
    前記初期基準ブロックが、前記有効なパディングされる領域の外部に少なくとも部分的に位置付けられているかどうかを決定するステップであって、前記初期基準ブロックが、前記有効なパディングされる領域の外部に少なくとも部分的に位置付けられているとき、前記初期基準ブロックは、前記現在のブロックを予想することから除外される、ステップと
    をさらに備える請求項11に記載の方法。
  27. 360度ビデオコンテンツを符号化するためのデバイスであって、
    プロセッサを備え、前記プロセッサは、
    第1の投影ジオメトリと関連付けられたフレームパッキングされたピクチャ内における現在のサンプルロケーションを識別することと、
    近隣サンプルロケーションが、前記フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられていると決定することと、
    前記360度ビデオコンテンツの少なくとも1つの円特性と、前記第1の投影ジオメトリとに基づいて、パディングサンプルロケーションを導出することと、
    前記パディングサンプルロケーションに基づいて、前記360度ビデオコンテンツを処理することと
    を行うように構成された、デバイス。
  28. 前記コンテンツ境界は、フレームパッキングされたピクチャの境界、または面分境界のうちの少なくとも一方を含む請求項27に記載のデバイス。
  29. 前記第1の投影ジオメトリは、エクイレクタングラ投影、正積投影、キューブマップ投影、8面体投影、または円筒投影のうちの少なくとも1つを含む請求項27に記載のデバイス。
  30. 前記フレームパッキングされたピクチャは、前記第1の投影ジオメトリと関連付けられた複数の面分を含み、前記コンテンツ境界は、面分間の境界を定義し、前記プロセッサは、
    前記現在のサンプルロケーションを含む第1の面分を識別することと、
    前記第1の面分と関連付けられた前記近隣サンプルロケーションの3D位置を計算することと、
    前記近隣サンプルロケーションの前記3D位置に基づいて、前記パディングサンプルロケーションを含む第2の面分を識別することと、
    前記パディングサンプルロケーションとして、前記第2の面分内における前記近隣サンプルロケーションの2D平面位置を導出するために、前記近隣サンプルロケーションの前記3D位置を用いて、ジオメトリ投影を適用することと
    を含む、前記パディングサンプルロケーションを導出することを行うように構成される請求項27に記載のデバイス。
  31. 前記プロセッサは、
    前記第1の投影ジオメトリにおける座標を、第2の投影ジオメトリと関連付けられた中間座標に変換することであって、前記近隣サンプルロケーションの前記3D位置は、前記中間座標で計算され、前記第2の面分内における前記近隣サンプルロケーションの前記2D平面位置は、前記中間座標で識別される、変換することと、
    前記第2の投影ジオメトリと関連付けられた前記近隣サンプルロケーションの前記識別された2D平面位置を、前記第1の投影ジオメトリと関連付けられた前記座標に変換し戻すことと
    を含む、前記パディングサンプルロケーションを導出することを行うようにさらに構成される請求項30に記載のデバイス。
  32. 前記プロセッサは、
    補間フィルタを使用して、前記パディングサンプルロケーションにおけるパディングサンプル値を導出することであって、前記360度ビデオコンテンツは、前記パディングサンプル値に基づいて処理される、導出すること
    を行うようにさらに構成される請求項27に記載のデバイス。
  33. 前記補間フィルタは、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、または離散コサイン変換ベースの補間フィルタのうちの少なくとも1つを含む請求項32に記載のデバイス。
  34. 前記プロセッサは、
    前記パディングサンプルロケーションにおけるパディングサンプル値を導出することと、
    前記導出されたパディングサンプル値を使用して、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、または適応ループフィルタリングのうちの少なくとも1つを実行することと
    を含む、前記360度ビデオコンテンツを処理することを行うように構成される請求項27に記載のデバイス。
  35. 前記プロセッサは、
    前記現在のサンプルロケーションが、前記コンテンツ境界上に位置付けられたときに、前記パディングサンプルロケーションに基づいて、デブロッキングフィルタを適用すること
    を含む、前記360度ビデオコンテンツを処理することを行うように構成される請求項27に記載のデバイス。
  36. 前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記右コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記フレームパッキングされたピクチャの前記右端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの前記左端コンテンツ境界の近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記左コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記フレームパッキングされたピクチャの前記左端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの前記右端コンテンツ境界の近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記上端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記上端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記上端コンテンツ境界の第2のエリアの近くに位置付けられ、
    前記現在のサンプルロケーションが、前記フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された近隣サンプルロケーションが、前記下端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記パディングサンプルロケーションは、前記下端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記下端コンテンツ境界の第2のエリアの近くに位置付けられる
    請求項27に記載のデバイス。
  37. 360度ビデオコンテンツを符号化するためのビデオ符号化デバイスであって、
    プロセッサを備え、前記プロセッサは
    第1の投影ジオメトリと関連付けられたフレームパッキングされたピクチャ内における現在のブロックを識別することと、
    初期基準ブロックが、前記フレームパッキングされたピクチャのコンテンツ境界の外部に位置付けられていると決定することと、
    前記初期基準ブロックが前記コンテンツ境界の外部にあるという条件において、前記360度ビデオコンテンツの少なくとも1つの円特性と、前記第1の投影ジオメトリとに基づいて、マッピングされた基準ブロックを導出することと、
    前記マッピングされた基準ブロックと関連付けられた属性を導出することと、
    前記マッピングされた基準ブロックと関連付けられた前記属性に基づいて、前記現在のブロックを予測することと
    を行うように構成される、ビデオ符号化デバイス。
  38. 前記コンテンツ境界は、フレームパッキングされたピクチャの境界、または面分境界のうちの少なくとも一方を含む請求項37に記載のビデオ符号化デバイス。
  39. 前記第1の投影ジオメトリは、エクイレクタングラ投影、正積投影、キューブマップ投影、8面体投影、または円筒投影のうちの少なくとも1つを含む請求項37に記載のビデオ符号化デバイス。
  40. 前記フレームパッキングされたピクチャは、前記第1の投影ジオメトリと関連付けられた複数の面分を含み、前記コンテンツ境界は、面分間の境界を定義し、前記プロセッサは、
    前記現在のブロックのロケーションを含む第1の面分を識別することと、
    前記初期基準ブロックと関連付けられたロケーションの3D位置を計算することであって、前記3D位置は、前記第1の面分と関連付けられる、計算することと、
    前記初期基準ブロックと関連付けられた前記ロケーションの前記3D位置に基づいて、前記マッピングされた基準ブロックを含む第2の面分を識別することと、
    前記マッピングされた基準ブロックを導出するための、前記第2の面分内における前記初期基準ブロックの2D平面位置を導出するために、前記初期基準ブロックと関連付けられた前記ロケーションの前記3D位置を用いて、ジオメトリ投影を適用することと
    を行うようにさらに構成される請求項37に記載のビデオ符号化デバイス。
  41. 前記プロセッサは、
    前記第1の投影ジオメトリにおける座標を、第2の投影ジオメトリと関連付けられた中間座標に変換することであって、前記初期基準ブロックロケーションと関連付けられた前記ロケーションの前記3D位置は、前記中間座標で計算され、前記マッピングされた基準ブロックを導出するための、前記第2の面分内における前記初期基準ブロックの前記2D平面位置は、前記中間座標で識別される、変換することと、
    前記第2の投影ジオメトリと関連付けられた前記初期基準ブロックの前記識別された2D平面位置を、前記第1の投影ジオメトリと関連付けられた前記座標に変換し戻すことと
    を含む、前記マッピングされた基準ブロックを導出することを行うように構成される請求項40に記載のビデオ符号化デバイス。
  42. 前記プロセッサは、
    補間フィルタを使用して、前記マッピングされた基準ブロックと関連付けられた複数のサンプル値を導出することであって、前記360度ビデオコンテンツは、前記マッピングされた基準ブロックと関連付けられた前記複数のサンプル値に基づいて処理される、導出すること
    を行うようにさらに構成される請求項37に記載のビデオ符号化デバイス。
  43. 前記補間フィルタは、双線形フィルタ、双三次フィルタ、ランチョスフィルタ、スプライン補間フィルタ、または離散コサイン変換ベースの補間フィルタのうちの少なくとも1つを含む請求項42に記載のビデオ符号化デバイス。
  44. 前記プロセッサは、
    前記マッピングされた基準ブロックにおいて複数のサンプル値を導出することと、
    前記マッピングされた基準ブロック内の前記複数のサンプル値を使用して、インター予測、イントラ予測、デブロッキング、ループフィルタリング、サンプル適応オフセッティング、または適応ループフィルタリングのうちの少なくとも1つを実行することと
    を行うようにさらに構成される請求項37に記載のビデオ符号化デバイス。
  45. 前記現在のブロックが、前記フレームパッキングされたピクチャの右端コンテンツ境界の近くに位置付けられ、前記決定された初期基準ブロックが、前記右コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記フレームパッキングされたピクチャの前記右端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの左端コンテンツ境界の近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの前記左端コンテンツ境界の近くに位置付けられ、前記決定された初期基準ブロックが、前記左コンテンツ境界を越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記フレームパッキングされたピクチャの前記左端コンテンツ境界に円環的に接続される、前記フレームパッキングされたピクチャの前記右端コンテンツ境界の近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの上端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された初期基準ブロックが、前記上端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記上端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記上端コンテンツ境界の第2のエリアの近くに位置付けられ、
    前記現在のブロックが、前記フレームパッキングされたピクチャの下端コンテンツ境界の第1のエリアの近くに位置付けられ、前記決定された初期基準ブロックが、前記下端コンテンツ境界の前記第1のエリアを越えた前記フレームパッキングされたピクチャの外部に位置付けられるとき、前記マッピングされた基準ブロックは、前記下端コンテンツ境界の前記第1のエリアの円環的な反対側に位置付けられる、前記下端コンテンツ境界の第2のエリアの近くに位置付けられる
    請求項37に記載のビデオ符号化デバイス。
  46. 前記属性は、マッピングされたブロックの位置の、イントラモード、インターモード、マージモード、または動き情報のうちの少なくとも1つを含む請求項37に記載のビデオ符号化デバイス。
  47. 前記マッピングされた基準ブロックは、前記第1の投影ジオメトリと関連付けられた3Dジオメトリを展開することによって、導出される請求項37に記載のビデオ符号化デバイス。
  48. 前記初期基準ブロックが、前記コンテンツ境界に対して対角線位置上にないとき、前記現在のブロックは、前記コンテンツ境界に対して垂直または対角線方向に位置付けられた最も近い利用可能なブロックを複製することによって予測される請求項47に記載のビデオ符号化デバイス。
  49. 前記プロセッサは、
    面分の有効なパディングされる領域を、前記第1の投影ジオメトリと関連付けられた前記面分のサイズに基づいて、決定することと、
    前記初期基準ブロックが、前記有効なパディングされる領域内に位置付けられているかどうかを決定することであって、前記初期基準ブロックが、前記有効なパディングされる領域の外部に位置付けられているとき、前記現在のブロックは、前記有効なパディングされる領域内に位置付けられた最も近い利用可能なブロックに基づいて予測される、決定することと
    を含む、前記現在のブロックを予測することを行うように構成される請求項37に記載のビデオ符号化デバイス。
  50. 前記初期基準ブロックが、前記有効なパディングされる領域内に位置付けられているとき、前記現在のブロックは、前記マッピングされた基準ブロックに基づいて予測される請求項49に記載のビデオ符号化デバイス。
  51. 前記プロセッサは、
    面分の有効なパディングされる領域を、前記第1の投影ジオメトリと関連付けられた前記面分のサイズに基づいて、決定することと、
    初期基準ブロックが、前記有効なパディングされる領域内に位置付けられた第1のサブブロックと、前記有効なパディングされる領域の外部に位置付けられた第2のサブブロックとを含むと決定することと、
    前記有効なパディングされる領域の外部に位置付けられた前記第2のサブブロック内の複数のサンプルを、前記有効なパディングされる領域内のそれぞれの近隣サンプル値を用いて、パディングすることと、
    前記第1のサブブロック内の複数のサンプルと、前記第2のサブブロック内の前記複数のパディングされたサンプルとに基づいて、前記現在のブロックを予測することと
    を含む、前記現在のブロックを予測することを行うように構成される請求項37に記載のビデオ符号化デバイス。
  52. 前記プロセッサは、
    前記第1の投影ジオメトリと関連付けられた面分の少なくとも位置またはサイズに基づいて、有効なパディングされる領域の範囲を決定することと、
    前記初期基準ブロックが、前記有効なパディングされる領域の外部に少なくとも部分的に位置付けられているかどうかを決定することであって、前記初期基準ブロックが、前記有効なパディングされる領域の外部に少なくとも部分的に位置付けられているとき、前記初期基準ブロックは、前記現在のブロックを予想することから除外される、決定することと
    を行うようにさらに構成される請求項37に記載のビデオ符号化デバイス。
JP2021138935A 2016-07-08 2021-08-27 ジオメトリ投影を使用する360度ビデオ符号化 Active JP7295178B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023094844A JP2023105219A (ja) 2016-07-08 2023-06-08 ジオメトリ投影を使用する360度ビデオ符号化

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662360112P 2016-07-08 2016-07-08
US62/360,112 2016-07-08
US201662404017P 2016-10-04 2016-10-04
US62/404,017 2016-10-04
US201762463242P 2017-02-24 2017-02-24
US62/463,242 2017-02-24
US201762500605P 2017-05-03 2017-05-03
US62/500,605 2017-05-03
JP2019500358A JP6983862B2 (ja) 2016-07-08 2017-07-07 ジオメトリ投影を使用する360度ビデオ符号化

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019500358A Division JP6983862B2 (ja) 2016-07-08 2017-07-07 ジオメトリ投影を使用する360度ビデオ符号化

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023094844A Division JP2023105219A (ja) 2016-07-08 2023-06-08 ジオメトリ投影を使用する360度ビデオ符号化

Publications (2)

Publication Number Publication Date
JP2022000954A true JP2022000954A (ja) 2022-01-04
JP7295178B2 JP7295178B2 (ja) 2023-06-20

Family

ID=59581992

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019500358A Active JP6983862B2 (ja) 2016-07-08 2017-07-07 ジオメトリ投影を使用する360度ビデオ符号化
JP2021138935A Active JP7295178B2 (ja) 2016-07-08 2021-08-27 ジオメトリ投影を使用する360度ビデオ符号化
JP2023094844A Pending JP2023105219A (ja) 2016-07-08 2023-06-08 ジオメトリ投影を使用する360度ビデオ符号化

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019500358A Active JP6983862B2 (ja) 2016-07-08 2017-07-07 ジオメトリ投影を使用する360度ビデオ符号化

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023094844A Pending JP2023105219A (ja) 2016-07-08 2023-06-08 ジオメトリ投影を使用する360度ビデオ符号化

Country Status (7)

Country Link
US (3) US10887621B2 (ja)
EP (1) EP3482563A1 (ja)
JP (3) JP6983862B2 (ja)
KR (3) KR20190035678A (ja)
CN (2) CN117135357A (ja)
TW (1) TWI775760B (ja)
WO (1) WO2018009746A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023040181A (ja) * 2017-07-17 2023-03-22 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
US11792525B2 (en) 2016-10-04 2023-10-17 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20165256A (fi) 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
WO2018035721A1 (en) * 2016-08-23 2018-03-01 SZ DJI Technology Co., Ltd. System and method for improving efficiency in encoding/decoding a curved view video
CN107801039B (zh) * 2016-08-30 2020-04-14 华为技术有限公司 运动补偿预测方法和装置
WO2018045108A1 (en) 2016-09-02 2018-03-08 Vid Scale, Inc. Method and system for signaling of 360-degree video information
EP3510744B1 (en) 2016-09-09 2022-05-04 Vid Scale, Inc. Methods and apparatus to reduce latency for 360-degree viewport adaptive streaming
KR20180029315A (ko) * 2016-09-12 2018-03-21 삼성전자주식회사 가상 현실 컨텐트의 영상을 투영하기 위한 영상 처리 방법 및 장치
EP3513561A1 (en) * 2016-09-30 2019-07-24 Huawei Technologies Co., Ltd. Apparatuses and methods for encoding and decoding a panoramic video signal
WO2018066991A1 (ko) * 2016-10-04 2018-04-12 김기백 영상 데이터 부호화/복호화 방법 및 장치
KR102531386B1 (ko) 2016-10-04 2023-05-12 주식회사 비원영상기술연구소 영상 데이터 부호화/복호화 방법 및 장치
US20190238888A1 (en) 2017-07-17 2019-08-01 Ki Baek Kim Image data encoding/decoding method and apparatus
CN117768645A (zh) * 2016-10-04 2024-03-26 有限公司B1影像技术研究所 图像编码/解码方法、记录介质和传输比特流的方法
KR20180042098A (ko) * 2016-10-17 2018-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
GB2555788A (en) * 2016-11-08 2018-05-16 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US20200128238A1 (en) * 2016-12-22 2020-04-23 Kt Corporation Video signal processing method and device
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) * 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11057643B2 (en) 2017-03-13 2021-07-06 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame that includes at least one padding region and at least one projection face packed in 360-degree virtual reality projection layout
US11004173B2 (en) * 2017-03-13 2021-05-11 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face packed in 360-degree virtual reality projection layout
WO2018199792A1 (en) * 2017-04-26 2018-11-01 Huawei Technologies Co., Ltd Apparatuses and methods for encoding and decoding a panoramic video signal
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
GB2563944B (en) * 2017-06-30 2021-11-03 Canon Kk 360-Degree video encoding with block-based extension of the boundary of projected parts
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
EP3435676A1 (en) * 2017-07-25 2019-01-30 Thomson Licensing Method and apparatus for encoding and decoding an omnidirectional video
DE112018002432T5 (de) 2017-08-18 2020-01-23 Mediatek Inc. Verfahren und Vorrichtung zum Reduzieren von Artefakten in einem projektionsbasierten Rahmen
US10827159B2 (en) * 2017-08-23 2020-11-03 Mediatek Inc. Method and apparatus of signalling syntax for immersive video coding
EP3685585A1 (en) 2017-09-20 2020-07-29 Vid Scale, Inc. Handling face discontinuities in 360-degree video coding
US10818087B2 (en) 2017-10-02 2020-10-27 At&T Intellectual Property I, L.P. Selective streaming of immersive video based on field-of-view prediction
US11445215B2 (en) * 2017-12-28 2022-09-13 Electronics And Telecommunications Research Institute Method and device for image encoding and decoding, and recording medium having bit stream stored therein
CN117834831A (zh) 2018-01-16 2024-04-05 Vid拓展公司 用于360度视频译码的自适应帧封装
WO2019141907A1 (en) * 2018-01-22 2019-07-25 Nokia Technologies Oy An apparatus, a method and a computer program for omnidirectional video
US10721465B2 (en) * 2018-02-14 2020-07-21 Qualcomm Incorporated Motion compensation for cubemap packed frames
US10764605B2 (en) * 2018-02-14 2020-09-01 Qualcomm Incorporated Intra prediction for 360-degree video
US11212438B2 (en) * 2018-02-14 2021-12-28 Qualcomm Incorporated Loop filter padding for 360-degree video coding
US10659815B2 (en) 2018-03-08 2020-05-19 At&T Intellectual Property I, L.P. Method of dynamic adaptive streaming for 360-degree videos
US20190289316A1 (en) * 2018-03-19 2019-09-19 Mediatek Inc. Method and Apparatus of Motion Vector Derivation for VR360 Video Coding
WO2019182294A1 (ko) * 2018-03-19 2019-09-26 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2019181101A1 (ja) * 2018-03-19 2019-09-26 ソニー株式会社 画像処理装置と画像処理方法
CN111936929A (zh) * 2018-03-22 2020-11-13 联发科技股份有限公司 采用360°虚拟现实投影的投影布局的重构的基于投影的帧的样本适应性偏移滤波方法用于重构的基于投影的帧的样本适应性偏移滤波方法
US10986371B2 (en) 2018-03-22 2021-04-20 Mediatek Inc. Sample adaptive offset filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection
WO2019190197A1 (ko) * 2018-03-27 2019-10-03 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR20230098721A (ko) 2018-03-29 2023-07-04 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 패딩을 위한 화면내-예측 모드 선택을 위한 장치
CN110349226B (zh) * 2018-04-01 2021-06-01 浙江大学 一种全景图像处理方法及装置
KR102518869B1 (ko) * 2018-04-11 2023-04-06 알카크루즈 인코포레이티드 디지털 미디어 시스템
US11917127B2 (en) 2018-05-25 2024-02-27 Interdigital Madison Patent Holdings, Sas Monitoring of video streaming events
KR102435519B1 (ko) * 2018-06-20 2022-08-24 삼성전자주식회사 360도 영상을 처리하는 방법 및 장치
SG11202012942TA (en) * 2018-06-26 2021-01-28 Huawei Tech Co Ltd High-level syntax designs for point cloud coding
WO2020001790A1 (en) 2018-06-29 2020-01-02 Huawei Technologies Co., Ltd. Apparatuses and methods for encoding and decoding a video signal
US20200045288A1 (en) * 2018-07-31 2020-02-06 Intel Corporation Six degree of freedom video transcoding mechanism
US11178373B2 (en) 2018-07-31 2021-11-16 Intel Corporation Adaptive resolution of point cloud and viewpoint prediction for video streaming in computing environments
US10893299B2 (en) 2018-07-31 2021-01-12 Intel Corporation Surface normal vector processing mechanism
US10887574B2 (en) 2018-07-31 2021-01-05 Intel Corporation Selective packing of patches for immersive video
US11212506B2 (en) 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US10595000B1 (en) * 2018-08-02 2020-03-17 Facebook Technologies, Llc Systems and methods for using depth information to extrapolate two-dimentional images
US11094088B2 (en) * 2018-08-31 2021-08-17 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries in video coding
TWI719614B (zh) * 2018-08-31 2021-02-21 聯發科技股份有限公司 用於視頻編解碼中的虛擬邊界的環路內濾波的方法和裝置
US11765349B2 (en) 2018-08-31 2023-09-19 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
TWI822863B (zh) * 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
US11057631B2 (en) 2018-10-10 2021-07-06 Intel Corporation Point cloud coding standard conformance definition in computing environments
US11736713B2 (en) 2018-11-14 2023-08-22 Tencent America LLC Constraint on affine model motion vector
WO2020101451A1 (ko) * 2018-11-15 2020-05-22 한국전자통신연구원 지역 기반 화면간/화면내 예측 기술을 이용한 부호화/복호화 방법 및 장치
CN113170184A (zh) 2018-11-22 2021-07-23 北京字节跳动网络技术有限公司 默认运动候选的配置方法
US11756153B2 (en) * 2018-12-31 2023-09-12 Intel Corporation Hemisphere cube map projection format in imaging environments
US11089335B2 (en) 2019-01-14 2021-08-10 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
CN113366846A (zh) * 2019-02-02 2021-09-07 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的缓冲区更新
EP3915265A4 (en) 2019-03-01 2022-06-22 Beijing Bytedance Network Technology Co., Ltd. DIRECTION-BASED PREDICTION FOR INTRA BLOCK COPY IN VIDEO CODING
WO2020189876A1 (ko) * 2019-03-15 2020-09-24 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11334969B2 (en) * 2019-03-19 2022-05-17 Sony Group Corporation Point cloud geometry padding
US10979730B2 (en) * 2019-03-20 2021-04-13 Tencent America LLC Techniques and apparatus for interframe point cloud attribute coding
CN113455007B (zh) * 2019-03-22 2023-12-22 腾讯美国有限责任公司 帧间点云属性编解码的方法和装置
US10904558B2 (en) * 2019-04-26 2021-01-26 Tencent America LLC Method and apparatus for motion compensation for 360 video coding
EP3739880A1 (en) * 2019-05-14 2020-11-18 Axis AB Method, device and computer program product for encoding a distorted image frame
WO2020242023A1 (ko) * 2019-05-24 2020-12-03 엘지전자 주식회사 360 비디오를 전송하는 방법, 360 비디오를 수신하는 방법, 360 비디오 전송 장치, 360 비디오 수신 장치
WO2020249124A1 (en) 2019-06-14 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. Handling video unit boundaries and virtual boundaries based on color format
US11190768B2 (en) * 2019-07-02 2021-11-30 Mediatek Inc. Video encoding method with syntax element signaling of packing of projection faces derived from cube-based projection and associated video decoding method and apparatus
US11190801B2 (en) * 2019-07-02 2021-11-30 Mediatek Inc. Video encoding method with syntax element signaling of mapping function employed by cube-based projection and associated video decoding method
US11659206B2 (en) 2019-07-02 2023-05-23 Mediatek Inc. Video encoding method with syntax element signaling of guard band configuration of projection-based frame and associated video decoding method and apparatus
CN114175633B (zh) 2019-07-10 2023-12-29 北京字节跳动网络技术有限公司 用于视频编解码中的帧内块复制的样点标识
CN117939170A (zh) * 2019-07-11 2024-04-26 北京字节跳动网络技术有限公司 自适应环路滤波中的样点填充
BR112022005046A2 (pt) 2019-09-18 2022-07-05 Beijing Bytedance Network Tech Co Ltd Método de processamento de dados de vídeo, aparelho para processar dados de vídeo, meio de armazenamento não transitório legível por computador e meio de gravação não transitório legível por computador
EP4018652A4 (en) 2019-09-22 2022-11-02 Beijing Bytedance Network Technology Co., Ltd. FILLING METHOD IN AN ADAPTIVE LOOP FILTER
CN114450954A (zh) 2019-09-27 2022-05-06 北京字节跳动网络技术有限公司 不同视频单元之间的自适应环路滤波
CN114556926A (zh) 2019-10-10 2022-05-27 北京字节跳动网络技术有限公司 几何分割模式中的运动矢量处理
WO2021068906A1 (en) 2019-10-10 2021-04-15 Beijing Bytedance Network Technology Co., Ltd. Padding process at unavailable sample locations in adaptive loop filtering
EP4042684A4 (en) 2019-10-29 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SIGNALING AN ADAPTIVE CROSS-COMPONENT LOOP FILTER
MX2022006734A (es) 2019-12-11 2022-06-09 Beijing Bytedance Network Tech Co Ltd Relleno de muestra para filtrado de circuito adaptivo de componente cruzado.
CN114788264B (zh) * 2019-12-30 2023-07-25 阿里巴巴(中国)有限公司 用于发出虚拟边界和环绕运动补偿的信号的方法
US11356698B2 (en) 2019-12-30 2022-06-07 Tencent America LLC Method for parameter set reference constraints in coded video stream
US11477490B2 (en) * 2020-01-03 2022-10-18 Mediatek Inc. Video processing method with sample adaptive offset filtering disabled across virtual boundary in reconstructed frame and associated video processing apparatus
WO2021163845A1 (en) * 2020-02-17 2021-08-26 Intel Corporation Enhancing 360-degree video using convolutional neural network (cnn) -based filter
WO2021182937A1 (ko) * 2020-03-11 2021-09-16 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
KR102406845B1 (ko) * 2020-04-13 2022-06-10 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11438628B2 (en) * 2020-06-03 2022-09-06 Tencent America LLC Hash-based accessing of geometry occupancy information for point cloud coding
CN113810734B (zh) * 2020-06-15 2024-04-05 浙江宇视科技有限公司 视频融合方法、装置、设备、系统及计算机可读存储介质
JP2023531223A (ja) 2020-06-30 2023-07-21 北京字節跳動網絡技術有限公司 適応ループフィルタリングのための境界位置
WO2022019713A1 (ko) * 2020-07-23 2022-01-27 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US20230290006A1 (en) * 2020-09-03 2023-09-14 Lg Electronics Inc. Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US20230334719A1 (en) * 2020-10-30 2023-10-19 Lg Electronics Inc. Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
WO2022197129A1 (ko) * 2021-03-19 2022-09-22 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US20230306645A1 (en) * 2022-03-25 2023-09-28 Tencent America LLC Convolutional Approach to Fast and Compact Packing of 3D Mesh Into 2D Maps
WO2024007789A1 (en) * 2022-07-06 2024-01-11 Mediatek Inc. Prediction generation with out-of-boundary check in video coding
WO2024080841A1 (ko) * 2022-10-13 2024-04-18 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060034530A1 (en) * 2004-08-13 2006-02-16 Samsung Electronics Co., Ltd. Method and device for making virtual image region for motion estimation and compensation of panorama image
US20160112704A1 (en) * 2014-10-20 2016-04-21 Google Inc. Continuous prediction domain

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331869B1 (en) 1998-08-07 2001-12-18 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
US6466254B1 (en) * 1997-05-08 2002-10-15 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
KR100688383B1 (ko) * 2004-08-13 2007-03-02 경희대학교 산학협력단 파노라마 영상의 움직임 추정 및 보상
US7623682B2 (en) 2004-08-13 2009-11-24 Samsung Electronics Co., Ltd. Method and device for motion estimation and compensation for panorama image
CN101853552A (zh) * 2010-04-20 2010-10-06 长春理工大学 全方位无盲区运动目标检测方法
JP2012190299A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
BR112013033697A2 (pt) * 2011-07-01 2017-07-11 Samsung Electronics Co Ltd método de codificação de vídeo com previsão intra usando processo de verificação para possibilidade de referência unificada, método de decodificação de vídeo e seu dispositivo
US8995772B2 (en) * 2012-11-09 2015-03-31 Microsoft Technology Licensing, Llc Real-time face detection using pixel pairs
US10368097B2 (en) * 2014-01-07 2019-07-30 Nokia Technologies Oy Apparatus, a method and a computer program product for coding and decoding chroma components of texture pictures for sample prediction of depth pictures
KR101583646B1 (ko) 2014-05-12 2016-01-19 (주)헥스하이브 전 방위 평면 이미지를 생성하는 방법 및 장치
US10204658B2 (en) * 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
JP6559337B2 (ja) 2015-09-23 2019-08-14 ノキア テクノロジーズ オーユー 360度パノラマビデオの符号化方法、符号化装置、及びコンピュータプログラム
FI20165256A (fi) * 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
WO2017205648A1 (en) 2016-05-26 2017-11-30 Vid Scale, Inc. Geometric conversion for 360-degree video coding
US10523913B2 (en) * 2017-06-30 2019-12-31 Apple Inc. Packed image format for multi-directional video

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060034530A1 (en) * 2004-08-13 2006-02-16 Samsung Electronics Co., Ltd. Method and device for making virtual image region for motion estimation and compensation of panorama image
US20160112704A1 (en) * 2014-10-20 2016-04-21 Google Inc. Continuous prediction domain

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HANHART, PHILIPPE ET AL.: "AHG8: Reference samples derivation using geometry padding for intra coding", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D0092 (version 1), JPN6020021466, 6 October 2016 (2016-10-06), pages 1 - 6, ISSN: 0004932264 *
HE, YUWEN ET AL.: "AHG8: Geometry padding for 360 video coding", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D0075 (version 1), JPN6020021468, 6 October 2016 (2016-10-06), pages 1 - 10, ISSN: 0004932265 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792525B2 (en) 2016-10-04 2023-10-17 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
JP2023040181A (ja) * 2017-07-17 2023-03-22 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP2023040182A (ja) * 2017-07-17 2023-03-22 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP2023040176A (ja) * 2017-07-17 2023-03-22 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP2023040178A (ja) * 2017-07-17 2023-03-22 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP7269455B2 (ja) 2017-07-17 2023-05-08 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP7269457B2 (ja) 2017-07-17 2023-05-08 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置
JP7269456B2 (ja) 2017-07-17 2023-05-08 ビー1、インスティテュート、オブ、イメージ、テクノロジー、インコーポレイテッド 画像データ符号化/復号化方法及び装置

Also Published As

Publication number Publication date
US20190215532A1 (en) 2019-07-11
TWI775760B (zh) 2022-09-01
KR20220047402A (ko) 2022-04-15
WO2018009746A1 (en) 2018-01-11
US10887621B2 (en) 2021-01-05
CN109417632B (zh) 2023-08-04
JP6983862B2 (ja) 2021-12-17
JP2019525563A (ja) 2019-09-05
KR102521272B1 (ko) 2023-04-12
US20210136413A1 (en) 2021-05-06
US20220368947A1 (en) 2022-11-17
US11388438B2 (en) 2022-07-12
JP7295178B2 (ja) 2023-06-20
CN109417632A (zh) 2019-03-01
EP3482563A1 (en) 2019-05-15
KR20230051319A (ko) 2023-04-17
JP2023105219A (ja) 2023-07-28
KR20190035678A (ko) 2019-04-03
TW201812708A (zh) 2018-04-01
CN117135357A (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
JP6983862B2 (ja) ジオメトリ投影を使用する360度ビデオ符号化
JP7357747B2 (ja) 面連続性を使用する360度ビデオコーディング
US20230412839A1 (en) Geometry Conversion for 360-degree Video Coding
CN110999296B (zh) 解码360度视频的方法、设备及计算机可读介质
US20200322632A1 (en) Face discontinuity filtering for 360-degree video coding
KR20210080358A (ko) 360도 비디오 코딩을 위한 샘플 도출
CN111183646A (zh) 处理360度视频译码中的面不连续
WO2019089382A1 (en) 360-degree video coding using face-based geometry padding
EP3741124A1 (en) Adaptive frame packing for 360-degree video coding
WO2018170416A1 (en) Floating point to integer conversion for 360-degree video projection format conversion and spherical metrics calculation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7295178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150