JP7490712B2 - ピクチャ・イン・ピクチャ領域内のビデオデータユニットの置換のシグナリング - Google Patents

ピクチャ・イン・ピクチャ領域内のビデオデータユニットの置換のシグナリング Download PDF

Info

Publication number
JP7490712B2
JP7490712B2 JP2022105485A JP2022105485A JP7490712B2 JP 7490712 B2 JP7490712 B2 JP 7490712B2 JP 2022105485 A JP2022105485 A JP 2022105485A JP 2022105485 A JP2022105485 A JP 2022105485A JP 7490712 B2 JP7490712 B2 JP 7490712B2
Authority
JP
Japan
Prior art keywords
video
picture
media data
indicator
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022105485A
Other languages
English (en)
Other versions
JP2023008947A (ja
Inventor
ワン イェ-クイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lemon Inc
Original Assignee
Lemon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lemon Inc filed Critical Lemon Inc
Publication of JP2023008947A publication Critical patent/JP2023008947A/ja
Application granted granted Critical
Publication of JP7490712B2 publication Critical patent/JP7490712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6373Control signals issued by the client directed to the server or network components for rate control, e.g. request to the server to modify its transmission rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8453Structuring of content, e.g. decomposing content into time segments by locking or enabling a set of features, e.g. optional functionalities in an executable program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

[関連出願への相互参照]
適用可能な特許法及び/又はパリ条約に従う規則の下で、本願は、2021年6月30日付けで出願された米国特許仮出願第63/216975号と、2021年7月1日付けで出願された米国特許仮出願第63/217665号との優先権及びその利益を適宜請求するためになされたものである。法の下での全ての目的のために、上記の出願の全開示は、本願の開示の部分として参照により援用される。
[技術分野]
本開示は、概して、ビデオストリーミングに関係があり、特に、ハイパーテキスト転送プロトコル上の動的適応ストリーミング(Dynamic Adaptive Streaming over Hypertext Transfer Protocol,DASH)プロトコルでのピクチャ・イン・ピクチャサービスのサポートに関係がある。
デジタルビデオは、インターネット及び他のデジタル通信ネットワークで最大の帯域幅使用を占めている。映像を受信及び表示可能なユーザデバイスの接続数が増えるにつれて、デジタルビデオ利用のための帯域幅需要は増大し続けることが予想される。
開示されている態様/実施形態は、事前選択要素にインジケータを組み込む技術を提供する。実施形態において、インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能である、ことを示す。よって、ビデオコーディングプロセスは、従来のビデオコーディング技術に対して改善される。
第1の態様は、メディアデータを処理する方法に関係がある。方法は、前記メディアデータとメディアデータファイルとの間の変換のために、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、前記インジケータに基づき前記メディアデータと前記メディアデータファイルとの間の前記変換を実行するステップとを含む。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記インジケータが前記事前選択要素の属性を有する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記インジケータが@dataUnitsReplaceable属性を有する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、@tag属性が前記事前選択要素に存在する場合にのみ、前記インジケータが前記事前選択要素に存在する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素の目的が、前記補足映像が前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域にオーバーレイされるよう現れるピクチャ・イン・ピクチャ体験を提供するためである、ことを前記事前選択要素内の@tag属性が示す場合にのみ、前記インジケータが前記事前選択要素に存在する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素が前記インジケータを含まないことを決定するステップを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素が前記インジケータを含まない場合に、前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することが未知である、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記インジケータが、真の値を有している@dataUnitsReplaceable属性を有する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記@dataUnitsReplaceable属性が前記真の値を有している場合に、前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することを選択することをクライアントに許すステップを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記@dataUnitsReplaceable属性が前記真の値を有している場合に、前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することを選択することをクライアントに許すことによって、前記メイン映像及び前記補足映像の別々の復号化を回避するステップを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記補足映像の前記対応するビデオデータユニットが、前記補足映像の表現における復号化時間同期サンプル内の全てのビデオデータユニットである、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記復号化時間同期サンプル内のビデオデータユニットが、前記メイン映像内の特定のピクチャに対応する、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素がPicnPic要素を含む、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記インジケータが@dataUnitsReplaceable属性を有し、前記PicnPic要素が前記@dataUnitsReplaceable属性を含む、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素がメディアプレゼンテーション記述(Media Presentation Description,MPD)ファイルに配置される、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記事前選択要素がDASHプレゼンテーション要素である、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記変換が、前記メディアデータをビットストリームに符号化することを含む、ことを提供する。
任意に、上記の態様のいずれかにおいて、当該態様の他の実施は、前記変換が、前記メディアデータをビットストリームから復号することを含む、ことを提供する。
第2の態様は、メディアデータを処理する装置に関係がある。装置は、プロセッサと、命令を有する非一時的なメモリとを有する。前記命令は、前記プロセッサによる実行時に、前記プロセッサに、前記メディアデータとメディアデータファイルとの間の変換のために、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、前記インジケータに基づき前記メディアデータと前記メディアデータファイルとの間の前記変換を実行するステップとを実行させる。
第3の態様は、ビデオ処理装置によって実行された方法によって生成されるビデオのMPDを記憶する非一時的なコンピュータ可読記録媒体に関係がある。前記方法は、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、前記インジケータに基づき前記MPDを生成するステップとを有する。
明りょうさのために、上記の実施形態のうちのいずれか1つは、本開示の範囲内で新しい実施形態を作り出すよう、上記の実施形態のうちの他の1つ以上と組み合わされてよい。
これら及び他の特徴は、添付の図面及び特許請求の範囲と併せて以下の詳細な説明から、より明りょうに理解されるだろう。
本開示のより完全な理解のために、これより、添付の図面及び詳細な説明に関連して、以下の簡単な説明が参照される。ここで、同じ参照番号は同じ部分を表す。
DASHで使用されるメディアプレゼンテーション記述(MPD)によるビデオの記述を表す概略図である。 タイル、スライス、及びサブピクチャにパーティション化されたピクチャの例である。 サブピクチャに基づいたビューポート依存の360°映像配信方式の例である。 サブピクチャ抽出の例である。 バーサタイル・ビデオ・コーディング(VVC)サブピクチャに基づいたピクチャ・イン・ピクチャサポートの例である。 例となるビデオ処理システムを示すブロック図である。 ビデオ処理装置のブロック図である。 ビデオコーディングシステムの例を表すブロック図である。 ビデオエンコーダの例を表すブロック図である。 ビデオデコーダの例を表すブロック図である。 本開示の実施形態に係るメディアデータ処理方法である。
1つ以上の実施形態の例示的な実施が以下で与えられているが、開示されているシステム及び/又は方法は、現在知られていようが又は存在していようが、任意の数の技術を用いて実装されてよい、ことが最初に理解されるべきである。本開示は、本明細書で例示又は記載されている設計及び実施の例を含め、以下で説明されている例示的な実施、図面、及び技術に決して制限されるべきではなく、添付の特許請求の範囲及びその均等の全範囲内で変更されてもよい。
H.266の用語は、開示されている技術の範囲を限定するためにではなく、その理解を容易にするために、いくつかの説明で使用されている。そのようなものとして、本明細書で記載されている技術は、他のビデオコーデックプロトコル及び設計にも適用可能である。
ビデオコーディング標準規格は、よく知られているITU-T(International Telecommunication Union - Telecommunication)及びISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)標準規格の開発を通じて主に発展してきた。ITU-Tは、H.261及びH.263を作成し、ISO/IECは、MPEG(Moving Picture Experts Group)-1及びMPEG-4 Visualを作成し、2つの組織は共同して、H.262/MPEG-2 Video及びH.264/MPEG-4 AVC(Advanced Video Coding)及びH.265/HEVC(High Efficiency Video Coding)標準規格を作成した。
H.262以降、ビデオコーディング標準規格は、時間予測に変換コーディングをプラスしたものが利用されるハイブリッドビデオコーディング構造に基づいている。HEVCを越える将来のビデオコーディング技術を探求するために、JVET(Joint Video Exploration Team)が2015年にVCEG(Video Coding Experts Group)及びMPEGによって共同で設立された。それ以来、多くの新しい方法がJVETによって採用され、JEM(Joint Exploration Model)と呼ばれる参照ソフトウェアに置かれてきた。
2018年4月に、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間のJVET(Joint Video Expert Team)が、HEVCと比較して50%のビットレート低減を目指したVVC(Versatile Video Coding)標準規格を研究するために作られた。
VVC標準規格(ITU-T H.266|ISO/IEC 23090-3)及び関連するVSEI(Versatile Supplemental Enhancement Information)標準規格(ITU-T H.274|ISO/IEC 23002-7)は、テレビ放送、ビデオ会議、又は記憶媒体からの再生などの従来の使用、及び適応ビットレートストリーミング、ビデオ領域抽出、複数のコーディングされたビデオビットストリームからのコンテンツの合成及びマージ、マルチビュー映像、スケーラブルレイヤードコーディング、及びビューポート適応360°没入メディアなどのより新しくかつより高度な使用の両方を含む、最大限に幅広い用途での使用のために設計された。
EVC(Essential Video Coding)標準規格(ISO/IEC 23094-1)は、MPEGによって最近開発された他のビデオコーディング標準規格である。
メディアストリーミングアプリケーションは、通常は、インターネットプロトコル(Internet Protocol,IP)、伝送制御プロトコル(Transmission Control Protocol,TCP)、及びハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)トランスポート方法に基づいており、通常は、ISOベースメディアファイルフォーマット(ISO base media file format,ISOBMFF)などのファイルフォーマットに依存する。1つのそのようなストリーミングシステムはDASHである。ISOBMFF及びDASHとともにビデオフォーマットを使用するために、ISO/IEC 14496-15:“Information technology - Coding of audio-visual objects - Part 15: Carriage of network abstraction layer (NAL) unit structured video in the ISO base media file format”におけるAVCファイルフォーマット及びHEVCファイルフォーマットなどのビデオフォーマットに特有のファイルフォーマット仕様が、ISOBMFFトラック内並びにDASH表現及びセグメント内のビデオコンテンツのカプセル化のために必要となる。ビデオビットストリームに関する重要な情報、例えば、プロファイル、ティア、及びレベル、並びに多くの他の情報は、コンテンツ選択のために、例えば、ストリーミングセッションの開始時の初期化及びストリーミングセッション中のストリーム適応の両方のための適切なメディアセグメントの選択のために、ファイルフォーマットレベルメタデータ及び/又はDASH表現及びセグメント内のビデオコンテンツメディアプレゼンテーション記述(MPD)として公開されることが必要となる。
同様に、ISOBMFFとともに画像フォーマットを使用するために、ISO/IEC 23008-12:“Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 12: Image File Format”におけるAVC画像ファイルフォーマット及びHEVC画像ファイルフォーマットなどの画像フォーマットに特有のファイルフォーマット仕様が、必要となる。
ISOBMFFに基づいたVVCビデオコンテンツの記憶のためのファイルフォーマットであるVVCビデオファイルフォーマットが、現在、MPEGによって開発中である。VVCビデオファイルフォーマットの最新のドラフト仕様は、ISO/IEC JTC 1/SC 29/WG 03出力文書N0035,“Potential improvements on Carriage of VVC and EVC in ISOBMFF”,2020年11月に含まれている。
ISOBMFFに基づいたVVCを使用してコーディングされた画像コンテンツの記憶のためのファイルフォーマットであるVVC画像ファイルフォーマットが、現在、MPEGによって開発中である。VVC画像ファイルフォーマットの最新のドラフト仕様は、ISO/IEC JTC 1/SC 29/WG 03出力文書N0038,“Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 12: Image File Format - Amendment 3: Support for VVC, EVC, slideshows and other improvements (CD stage)”,2020年11月に含まれている。
図1は、DASHで使用されるMPD100によるビデオ又はメディアデータの記述を説明する概略図である。MPD100は、周期110、適応セット120、表現130、及びセグメント140に関してメディアストリームを記述する。
DASHでは、マルチメディアコンテンツのビデオ及び/又はオーディオデータのための複数の表現が存在してよく、異なる表現は異なるコーディング特性(例えば、ビデオコーディング標準規格の異なるプロファイル又はレベル、異なるビットレート、異なる空間分解能、など)に対応してよい。そのような表現のマニフェストは、MPDデータ構造で定義されてよい。メディアプレゼンテーションは、DASHストリーミングクライアントデバイス(例えば、スマートフォン、電子タブレット、ラップトップ、など)がアクセスすることができるデータの構造化された集合に対応してよい。DASHストリーミングクライアントデバイスは、ストリーミングサービスをクライアントデバイスのユーザに提示するためにメディアデータ情報を要求及びダウンロードしてよい。メディアプレゼンテーションは、MPDのアップデートを含んでもよいMPDデータ構造で記述されてよい。
メディアプレゼンテーションは、1つ以上の周期110のシーケンスを含んでよい。各周期110は、次の周期110の開始まで、又は最後の周期110の場合には、メディアプレゼンテーションの終わりまで、延在してよい。各周期110は、同じメディアコンテンツのために1つ以上の表現130を含んでよい。表現130は、オーディオ、ビデオ、時限テキスト(timed text)、又は他のそのようなデータの多数の選択的な符号化バージョンのうちの1つであってよい。表現130は、符号化タイプによって、例えば、ビデオデータのビットレート、分解能、及び/又はコーデック、並びにオーディオデータのビットレート、言語、及び/又はコーデックによって、異なってよい。表現130という用語は、マルチメディアコンテンツの特定の周期110に対応し且つ特定の方法で符号化された符号化オーディオ又はビデオデータのセクションを指すために使用されてよい。
特定の周期110の表現130は、それらの表現130が属する適応セット120を示すMPD100内の属性によって示されるグループに割り当てられてよい。同じ適応セット120内の表現130は、クライアントデバイスが、例えば、帯域幅適応を実行するために、それらの表現130を動的且つシームレスに切り替えることができる点で、一般的に、互いに代替と見なされる。例えば、特定の周期のビデオデータの各表現130は、同じ適応セット120に割り当てられてよく、それにより、表現130のいずれかが、対応する周期110のマルチメディアコンテンツのメディアデータ、例えば、ビデオデータ又はオーディオデータを提示するよう復号化のために選択され得る。1つの周期110内のメディアコンテンツは、いくつかの例において、存在する場合にはグループ0からの1つの表現130、又は各非ゼログループからの多くても1つの表現の組み合わせ、のどちらか一方によって表現されてよい。周期110の各表現130の時限データは、その周期110の開始時間に対して表されてよい。
表現130は、1つ以上のセグメント140を含んでよい。各表現130は初期化セグメント140を含んでよく、あるいは、表現の各セグメント140は自己初期化であってよい。存在する場合に、初期化セグメント140は、表現130にアクセスするための初期化情報を含んでよい。一般的に、初期化セグメント140はメディアデータを含まない。セグメント140は、URL(Uniform Resource Locator)、URN(Uniform Resource Name)、又はURI(Uniform Resource Identifier)などの識別子によって一意に参照されてよい。MPD100は、各セグメント140について識別子を供給してよい。いくつかの例において、MPD100はまた、URL、URN、又はURIによってアクセス可能なファイル内のセグメント140のデータに対応し得るバイト範囲を範囲属性の形で供給してもよい。
異なる表現130は、異なるタイプのメディアデータの略同時の読み出しのために選択されてよい。例えば、クライアントデバイスは、セグメント140を読み出すオーディオ表現130、ビデオ表現130、及び時限テキスト表現130を選択してよい。いくつかの例において、クライアントデバイスは、帯域幅適応を実行するために特定の適応セット120を選択してもよい。つまり、クライアントデバイスは、ビデオ表現130を含む適応セット120、オーディオ表現130を含む適応セット120、及び/又は時限テキスト表現130を含む適応セット120を選択し得る。代替的に、クライアントデバイスは、特定のタイプのメディア(例えば、ビデオ)の適応セット120を選択し、そして、他のタイプのメディア(例えば、オーディオ及び/又は時限テキスト)の表現130を直接に選択してもよい。
典型的なDASHストリーミングプロシージャは、次のステップによって示される。
第1に、クライアントはMPDを得る。実施形態において、クライアントデバイスは、クライアントデバイスがMPDを要求した後に、コンテンツソースからMPDを受け取る。
第2に、クライアントはダウンリンク帯域幅を推定し、推定されたダウンリンク帯域幅と、コーデック、復号化能力、表示サイズ、オーディオ言語設定、などとに従って、ビデオ表現130及びオーディオ表現130を選択する。
第3に、メディアプレゼンテーションの終わりに達しない限りは、クライアントは、選択された表現130のメディアセグメント140を要求し、ストリーミングコンテンツをユーザに提示する。
第4に、クライアントは、ダウンリンク帯域幅を推定し続ける。帯域幅が有意に変化する(例えば、低くなる)場合に、クライアントは、新たに推定された帯域幅に適合させるよう異なるビデオ表現130を選択し、プロシージャは第3のステップに戻る。
VVCでは、ピクチャは、1つ以上のタイル行及び1つ以上のタイル列に分割(例えば、パーティション化)される。タイルは、ピクチャの長方形領域をカバーするコーディングツリーユニット(Coding Tree Units,CTU)の連続である。タイル内のCTUは、そのタイル内でラスタ走査順で走査される。
スライスは、多数の完全なタイル、又はピクチャのタイル内の整数個の連続した完全なCPU、から成る。
スライスの2つのモード、つまり、ラスタ走査スライスモード及び長方形スライスモード、がサポートされる。ラスタ走査スライスモードでは、スライスは、ピクチャのタイルラスタ走査での完全なスライスの連続を含む。長方形スライスモードでは、スライスは、ピクチャの長方形領域を集合的に形成する多数の完全なタイル、又はピクチャの長方形領域を集合的に形成する1つのタイルの多数の連続した完全なCTU行、のどちらか一方を含む。長方形スライス内のタイルは、そのスライスに対応する長方形領域内でラスタ走査順で走査される。
サブピクチャは、ピクチャの長方形領域を集合的にカバーする1つ以上のスライスを含む。
図2は、タイル202、サブピクチャ/スライス204、及びCTU206にパーティション化されたピクチャ200の例である。図示されるように、ピクチャ200は、18個のタイル202と、24個のサブピクチャ/スライス204とにパーティション化されている。VVCでは、各サブピクチャは、図2に示されるように、ピクチャの長方形領域を集合的にカバーする1つ以上の完全な長方形スライスから成る。サブピクチャは、抽出可能(すなわち、同じピクチャ及び復号化順で先のピクチャの他のサブピクチャから独立してコーディングされている)又は抽出不可能のどちらか一方であるよう指定されてよい。サブピクチャが抽出可能であるか否かにかかわらず、エンコーダは、インループフィルタリング(デブロッキング、サンプル適応オフセット(Sample Adaptive Offset,SAO)、及び適応ループフィルタ(Adaptive Loop Filter,ALF))がサブピクチャ毎に個別的にサブピクチャ境界にわたって適用されるかどうかを制御することができる。
機能的に、サブピクチャは、HEVCでの動き制約付きタイルセット(Motion-Constrained Tile Sets,MCTS)に類似している。それらは両方とも、ビューポート依存360°ビデオストリーミング最適化及び関心領域(Region of Interest,ROI)アプリケーションのような使用ケースのために、コーディングされたピクチャの連続の長方形サブセットの独立したコーディング及び抽出を可能にする。
360°ビデオ(別名、全方位ビデオ)のストリーミングでは、如何なる特定の時点でも、全方位ビデオ球全体の一部(例えば、現在のビューポート)のみがユーザにレンダリングされることになる一方、ユーザは、見る方向、結果として、現在のビューポートを変更するために、いつでも自身の頭部を回転させることができる。クライアントで利用可能な現在のビューポートによってカバーされていないが、ユーザが突然に自身の見る方向を球上のどこかに変える場合に備えてユーザにレンダリングされる用意ができているエリアの表現を少なくとも若干低品質とすることが望まれる一方で、全方位ビデオの高品質の表現は、いずれかの所与の時点でユーザにレンダリングされている現在のビューポートにのみ必要とされる。全方位ビデオ全体の高品質の表現を適切な粒度でサブピクチャに分けることは、左側にある12個の高解像度サブピクチャと、右側にある低解像度の全方位ビデオの残り12個のサブピクチャとを含む、図2に示されるような最適化を可能にする。
図3は、サブピクチャに基づいたビューポート依存360°映像配信方式300の例である。図3に示されるように、全映像の高解像度表現のみがサブピクチャを使用する。全映像の低解像度表現はサブピクチャを使用せず、高解像度表現よりも頻度の少ないランダムアクセスポイント(Random Access Points,RAP)でコーディングされ得る。クライアントは、低解像度で全映像を受信し、一方、高解像度の映像については、クライアントは、現在のビューポートをカバーするサブピクチャのみを受信して復号する。
サブピクチャとMCTSとの間にはいくつかの設計相違がある。第1に、VVCでのサブピクチャ特徴は、サブピクチャが抽出可能である場合でさえ、コーディングブロックの動きベクトルがサブピクチャの外を指すことを可能にする。そうするために、サブピクチャ特徴は、この場合にはピクチャ境界に類似するサブピクチャ境界でサンプルパディングを適用する。第2に、マージモードでの及びVVCのデコーダ側動きベクトル精緻化(decoder side motion vector refinement)プロセスでの動きベクトルの選択及び導出のために、追加の変更が導入された。これは、MCTSのためにエンコーダ側で適用される非規範的な動き制約と比べて高いコーディング効率を可能にする。第3に、スライスヘッダ(Slice Headers,SH)(及び存在する場合に、ピクチャヘッダ(Picture Header,PH)ネットワーク抽象化レイヤ(Network Abstraction Layer,NAL)ユニット)を書き換えることは、適合(conforming)ビットストリームであるサブビットストリームを生成するためにピクチャの連続から1つ以上の抽出可能なサブピクチャを抽出する場合に、不要である。HEVC MCTSに基づいたサブビットストリーム抽出では、SHの書き換えが必要である。HEVC MCTS抽出及びVVCサブピクチャ抽出の両方で、シーケンスパラメータセット(Sequence Parameter Sets,SPS)及びピクチャパラメータセット(Picture Parameter Sets,PPS)の書き換えが必要である点に留意されたい。しかし、通常、ビットストリームには少数のパラメータセットしかないが、各ピクチャは少なくとも1つのスライスを有する。従って、SHの書き換えは、アプリケーションシステムにとって大きな負担になる可能がある。第4に、ピクチャ内の異なるサブピクチャのスライスは、異なるNALユニットタイプを有することを許されている。これは、以下で更に詳細に論じられている、ピクチャ内の混合NALユニットタイプ又は混合サブピクチャタイプとしばしば呼ばれる特徴である。第5に、VVCは、サブピクチャシーケンスの仮説参照デコーダ(Hypothetical Reference Decoder,HRD)及びレベル定義を指定するので、各抽出可能なサブピクチャシーケンスのサブビットストリームの適合性(conformance)がエンコーダによって確かにされ得る。
AVC及びHEVCでは、ピクチャ内の全てのVCL NALユニットが同じNALユニットタイプを有する必要がある。VVCは、ピクチャ内の特定の異なるVCL NALユニットタイプとサブピクチャを混合するオプションを導入するので、ピクチャレベルでだけでなくサブピクチャレベルでもランダムアクセスのためのサポートを提供する。VVCでは、サブピクチャ内のVCL NALユニットが依然として同じNALユニットタイプを有する必要がある。
イントラランダムアクセスピクチャ(Intra Random Access Pictures,IRAP)サブピクチャからのランダムアクセスの能力は、360°ビデオアプリケーションにとって有益である。図3に示されているものに類似したビューポート依存360°映像配信方式では、空間に隣接するビューポートのコンテンツが大きく重なり合っており、つまり、ビューポート内のサブピクチャの一部のみが、ビューポートの向きの変更中に、新しいサブピクチャで置換され、一方、ほとんどのサブピクチャはビューポート内に残る。新たにビューポートに導入されるサブピクチャシーケンスは、IRAPスライスから開始しなければならないが、残りのサブピクチャがビューポート変化時にインター予測を行えるようにする場合に、全体の伝送ビットレートの大幅な低下が達成され得る。
ピクチャがただ1つのタイプのNALユニットを含むか、それとも1よりも多いタイプを含むかの指示は、ピクチャによって参照されるPPSで(つまり、pps_mixed_nalu_types_in_pic_flagと呼ばれるフラグを用いて)供給される。ピクチャは、IRAPスライスを含むサブピクチャと、トレーリング(trailing)スライスを含むサブピクチャとを同時に有してよい。ピクチャ内の異なるNALユニットタイプのいくつかの他の組み合わせも許可される。これには、NALユニットタイプのリーディング(leading)ピクチャスライスであるRASL(Random Access Skipped Leading)及びRADL(Random Access Decodable Leading)が含まれ、これにより、サブピクチャシーケンスを、異なるビットストリームから抽出されたオープングループ・オブ・ピクチャ(Groupe of Picture,GOP)及びクローズGOP構造とマージして、1つのビットストリームにすることができる。
VVC内のサブピクチャのレイアウトはSPSでシグナリングされるので、コーディングレイヤビデオシーケンス(Coded Layer Video Sequence,CLVS)内で一定である。各サブピクチャは、その左上CTUの位置と、CTUの数で表したその幅及び高さとによってシグナリングされるので、サブピクチャがCTU粒度でピクチャの長方形領域をカバーすることが確かになる。サブピクチャがSPSでシグナリングされる順序は、ピクチャ内の各サブピクチャのインデックスを決定する。
SH又はPHを書き換えずにサブピクチャシーケンスの抽出及びマージを可能にするために、VVCでのスライスアドレッシング方式は、サブピクチャIDと、スライスをサブピクチャに関連付けるサブピクチャ固有スライスインデックスとに基づく。スライスヘッダ(SH)では、スライスを含むサブピクチャのサブピクチャ識別子(ID)と、サブピクチャレベルのスライスインデックスとがシグナリングされる。特定のサブピクチャのサブピクチャIDの値は、そのサブピクチャインデックスの値とは異なる可能性がある点に留意されたい。2つの間のマッピングは、SPS又はPPS(決して両方ではない)でシグナリングされるか、あるいは、暗黙的に推測されるかのどちらかである。存在する場合に、サブピクチャIDマッピングは、サブピクチャサブビットストリーム抽出プロセス中にSPS及びPPSを書き換える場合に書き換え又は追加される必要がある。サブピクチャID及びサブピクチャレベルのスライスインデックスは一緒に、復号されたピクチャの復号化ピクチャバッファ(Decoded Picture Buffer,DPB)スロット内のスライスの最初の復号化されたCTUの正確な位置をデコーダに示す。サブビットストリーム抽出後、サブピクチャのサブピクチャIDは変化しないままであるが、サブピクチャインデックスは変化する可能性がある。サブピクチャ内のスライスの最初のCTUのラスタ走査CTUアドレスが原ビットストリーム内の値と比較して変化している場合でさえ、各々のSH内のサブピクチャID及びサブピクチャレベルのスライスインデックスの不変な値は、抽出されたサブビットストリームの復号されたピクチャ内の各CTUの位置を依然として正確に決定する。
図4は、サブピクチャ抽出400の例である。特に、図4は、サブピクチャ抽出400の例を可能にするためのサブピクチャID、サブピクチャインデックス、及びサブピクチャレベルのスライスインデックスの利用を表す。表されている実施形態では、サブピクチャ抽出400は、2つのサブピクチャ及び4つのスライスを含む。
サブピクチャ抽出400と同様に、異なるビットストリームが(例えば、個別のサブピクチャID、しかし、そうではない場合には、CTUサイズ、クロマフォーマット、コーディングツールなどのような、大部分が整列されたSPS、PPSを及びPHパラメータ、を用いて)協調的に生成されるという条件で、サブピクチャのシグナリングは、SPS及びPPSの書き換えのみによって、異なるビットストリームからのいくつかのサブピクチャを1つのビットストリームにマージすることを可能にする。
サブピクチャ及びスライスがSPS及びPPSで夫々独立してシグナリングされる一方で、適合ビットストリームを形成するためにサブピクチャレイアウトとスライスレイアウトとの間には固有の相互制約がある。第1に、サブピクチャの存在は長方形スライスを義務づけ、ラスタ走査スライスを禁止する。第2に、所与のサブピクチャのスライスは、復号化順で連続したNALユニットであり、つまり、サブピクチャレイアウトは、ビットストリーム内のコーディングされたスライスNALユニットの順序を制約する。
ピクチャ・イン・ピクチャサービスは、解像度が小さいピクチャを、解像度がより大きいピクチャ内に含める能力を提供する。そのようなサービスは、同時に2つのビデオをユーザに示すのに役立ち得る。これによって、解像度がより大きい映像はメイン映像と見なされ、解像度がより小さい映像は補足映像と見なされる。そのようなピクチャ・イン・ピクチャサービスは、メイン映像がサイネージ映像によって補われるアクセシビリティ(accessibility)サービスを提供するために使用され得る。
VVCサブピクチャは、VVCサブピクチャの抽出及びマージの両方の特性を使用することによって、ピクチャ・イン・ピクチャサービスのために使用され得る。そのようなサービスのために、メイン映像は、多数のサブピクチャを用いて符号化される。サブピクチャの1つは補足映像と同じサイズであり、これは、補足映像がメイン映像に重ね合わされるよう意図される正確な位置に位置している。補足映像は、抽出を可能にするよう独立してコーディングされる。ユーザが、補足映像を含むサービスのバージョンを見ることを選ぶとき、メイン映像のピクチャ・イン・ピクチャエリアに対応するサブピクチャがメイン映像ビットストリームから抽出され、補足映像ビットストリームがその場所でメイン映像ビットストリームとマージされる。
図5は、VVCサブピクチャに基づいたピクチャ・イン・ピクチャサポート500の例である。Subpic ID 0とラベル付けされているメイン映像の部分は、メイン映像のその部分がSubpic ID 0を有する補足映像で置換されることになるので、対象ピクチャ・イン・ピクチャ領域と本明細書では呼ばれ得る。つまり、補足映像は、図5に示されるメイン映像の中に埋め込まれるか又はその上にオーバーレイされる。例において、メイン映像及び補足映像のピクチャは、同じビデオ特性を共有する。特に、メイン映像及び補足映像のビットデプス、サンプルアスペクト比、サイズ、フレームレート、色空間及び転送特性、並びにクロマサンプル位置は、同じでなければならない。メイン映像ビットストリーム及び補足映像ビットストリームは、各ピクチャ内で同じNALユニットタイプを使用する必要はない。しかし、メイン映像ビットストリーム及び補足映像ビットストリームにおけるピクチャのコーディング順序は、同じである必要がある。
サブピクチャのマージがここでは使用されるので、メイン映像及び補足映像の中で使用されるサブピクチャIDは重複することができない。補足映像ビットストリームが、これ以上のタイル又はスライスパーティショニングもなしでただ1つのサブピクチャから成る場合でさえ、サブピクチャ情報(例えば、特に、サブピクチャID及びサブピクチャID長)は、メイン映像ビットストリームとの補足映像ビットストリームのマージを可能にするためにシグナリングされる必要がある。補足映像ビットストリームのスライスNALユニット内のサブピクチャIDシンタックス要素の長さをシグナリングするために使用されるサブピクチャID長は、メイン映像ビットストリームのスライスNALユニット内のサブピクチャIDをシグナリングするために使用されるサブピクチャID長と同じでなければならない。更に、PPSパーティショニング情報を書き換える必要なしにメイン映像ビットストリームとの補足映像ビットストリームのマージを簡単にするために、メイン映像の対応するエリア内で補足映像を符号化するためにただ1つのスライス及び1つのタイルを使用することが有益であり得る。メイン映像ビットストリーム及び補足映像ビットストリームは、SPS、PPS、及びピクチャヘッダで同じコーディングツールをシグナリングする必要がある。これは、ブロックパーティショニングのための同じ最大及び最小許容サイズと、PPSでシグナリングされたのと同じ初期量子化パラメータの値(pps_init_qp_minus26シンタックス要素の同じ値)とを使用することを含む。コーディングツールの利用は、スライスヘッダレベルで変更され得る。
メイン映像ビットストリーム及び補足映像ビットストリームの両方がDASHベースの配信システムにより利用可能である場合に、DASH Preselection(事前選択)が、一緒にマージ及びレンダリングされるよう意図されるメイン映像ビットストリーム及び補足映像ビットストリームをシグナリングするために使用されてよい。DASH Preselectionは、DASHプレイヤーによって一緒に消費されると予想されるMPDのメディアコンポーネントのサブセットを定義する。ここで、消費は、復号化及びレンダリングを有し得る。DASH Preselectionのためのメインメディアコンポーネントを含む適応セットは、メイン適応セット(main Adaptation Set)と呼ばれる。更に、各DASH Preselectionは、1つ又は複数の部分的な適応セットを含み得る。部分的な適応セットは、メイン適応セットと組み合わせて処理される必要があり得る。メイン適応セット及び部分的な適応セットは、事前選択記述子によって、又は事前選択要素によって、指示されてよい。
あいにく、次の問題が、DASHでピクチャ・イン・ピクチャサービスをサポートしようと試みるときに確認された。第1に、ピクチャ・イン・ピクチャ体験のためにDASH事前選択を使用することが可能である一方で、そのような目的の指示は欠けている。
第2に、(例えば、上述されたように)ピクチャ・イン・ピクチャ体験のためにVVCサブピクチャを使用することが可能である一方で、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すコーディングされたビデオデータユニットを補足映像の対応するビデオデータユニットで置換することができない他のコーデック及び方法を使用する可能性もある。そのため、そのような置換が可能であるかどうかを示す必要がある。
第3に、上記の置換が可能である場合に、クライアントは、置換を行うことができるように、メイン映像の各ピクチャ内のどのコーディングされたビデオデータユニットが対象ピクチャ・イン・ピクチャ領域を表すのかを知る必要がある。そのため、この情報がシグナリングされる必要がある。
第4に、コンテンツ選択のために(また、場合により、他の目的のためにも)、メイン映像内の対象ピクチャ・イン・ピクチャ領域の位置及びサイズをシグナリングすることが有用となる。
本明細書では、上記の問題の1つ以上を解決する技術が開示される。例えば、本開示は、事前選択要素にインジケータを組み込む技術を提供する。実施形態において、インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能である、ことを示す。よって、ビデオコーディングプロセスは、従来のビデオコーディング技術と比較して改善される。
以下の詳細な実施形態は、概要を説明するための例と見なされるべきである。これらの実施形態は、狭い意味で解釈されるべきではない。更に、これらの実施形態は、如何なる方法でも組み合わされ得る。
以下の説明で、ビデオユニット(別名、ビデオデータユニット)は、ピクチャの連続、ピクチャ、スライス、タイル、ブリック、サブピクチャ、CTU/コーディングツリーブロック(Coding Tree Block,CTB)、CTU/CTB行、1つ又は複数の仮想パイプラインデータユニット(Virtual Pipeline Data Unit,VPDU)、ピクチャ/スライス/タイル/ブリック内のサブ領域であってよい。父ビデオユニット(別名、親ビデオユニット)は、ビデオユニットよりも大きいユニットを表す。通常、父ビデオユニットはいくつかのビデオユニットを含み、例えば、ビデオユニットがCTUである場合には、父ビデオユニットはスライス、CTU行、複数のCTU、などであってよい。いくつかの実施形態において、ビデオユニットはサンプル/ピクセルであってよい。いくつかの実施形態において、ビデオユニットはビデオデータユニットと呼ばれることがある。
[例1]
1)第1の問題を解決するために、指示がMPDでシグナリングされる。指示は、事前選択(別名、Preselection又はDASH Preselection)がピクチャ・イン・ピクチャ体験を提供するためである、ことを示す。つまり、事前選択要素内のインジケータは、事前選択要素の目的が、補足映像がメイン映像内の対象ピクチャ・イン・ピクチャ領域にオーバーレイされるよう現れるピクチャ・イン・ピクチャ体験を提供するためである、ことを示す。
a.一例で、指示は、事前選択の@tag属性の特定の値によって(例えば、CommonAttributesElementsを通じて)シグナリングされる。実施形態において、@tagの値は“PicInPic”である。
b.一例で、指示は、事前選択のRole要素の@value属性の特定の値によってシグナリングされる。実施形態において、@valueの特定の値は“PicInPic”である。
[例2]
2)第2の問題を解決するために、指示はMPDでシグナリングされる。指示は、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すコーディングされたビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能であるかどうかを示す。
a.一例で、指示は、属性によってシグナリングされる。実施形態において、属性は、事前選択の@dataUnitsReplaceableで指定又は指名される。
b.一例で、指示は、任意であるよう指定される。
i.一例で、指示は、事前選択の@tag属性が、事前選択の目的がピクチャ・イン・ピクチャ体験を提供するためであることを示す場合にのみ、存在することができる。
c.指示が存在しない場合に、そのような置換が可能であるかどうかは未知である。
d.一例で、@dataUnitsReplaceableが真である場合に、クライアントは、ビデオデコーダへ送る前に、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すコーディングされたビデオデータユニットを補足映像の対応するビデオデータユニットで置換することを選択し得る、ことが指定される。このようにして、メイン映像及び補足映像の別々の復号化は回避され得る。
e.一例で、メイン映像内の特定のピクチャについて、補足映像の対応するビデオデータユニットは、補足映像表現における復号化時間同期サンプル内の全てのコーディングされたビデオデータユニットである、ことが指定される。
[例3]
3)第3の問題を解決するために、領域IDのリストがMPDでシグナリングされる。領域IDのリストは、メイン映像の各ピクチャ内のどのコーディングされたビデオデータユニットが対象ピクチャ・イン・ピクチャ領域を表すかを示す。
a.一例で、領域IDのリストは、事前選択の属性としてシグナリングされる。実施形態において、属性は、@regionsIdsと指名される。
b.一例で、指示は、任意であるよう指定される。
i.一例で、指示は、事前選択の@tag属性が、事前選択の目的がピクチャ・イン・ピクチャ体験を提供するためであることを示す場合にのみ、存在することができる。
c.一例で、領域IDの具体的なセマンティクスが特定のビデオコーデックについて明示的に指定される必要がある、ことが指定される。
i.一例で、VVCの場合に、領域IDはサブピクチャIDであり、コーディングされたビデオデータユニットはVCL NALユニットである、ことが指定される。メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すVCL NALユニットは、補足映像の対応するVCL NALユニット内のサブピクチャIDと同じであるこれらのサブピクチャIDを有するものである。通常、補足映像内の1つのピクチャの全てのVCL NALユニットは、明示的にシグナリングされる同じサブピクチャIDを共有する。この場合に、領域IDのリストには1つの領域IDしかない。
レイヤは、nuh_layer_idの特定の値を全てが有しているVCL NALユニットと、関連する非VCL NALユニットとの組である。ネットワーク抽象化レイヤ(NAL)ユニットは、続くデータのタイプと、エミュレーション防止バイトが必要に応じて散りばめられているローバイトシーケンスペイロード(Raw Byte Sequence Payload,RBSP)の形でそのデータを含むバイトとの指示を含むシンタックス構造である。ビデオコーディングレイヤ(VCL)NALユニットは、コーディングされたスライスNALユニットと、VVC標準規格でVCL NALユニットとして分類されるnal_unit_typeのリザーブ値を持つNALユニットのサブセットとの総称である。
ii.一例で、VVCの場合に、クライアントが、ビデオデコーダへ送る前に、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すコーディングされたビデオデータユニット(VCL NALユニットである)を補足映像の対応するVCL NALユニットで置換することを選択する場合に、各サブピクチャIDについて、メイン映像内のVCL NALユニットは、対応するVCL NALユニットの順序を変えずに、補足映像内のそのサブピクチャIDを有している対応するVCL NALユニットで置換される。
[例4]
4)第4の問題を解決するために、メイン映像の位置及びサイズに関する情報がMPDでシグナリングされる。実施形態において、メイン映像の位置及びサイズの情報は、メイン映像よりもサイズが小さい補足映像を埋め込む/オーバーレイするときに使用され得る。
a.一例で、位置及びサイズの情報は、4つの値、つまり、x、y、幅、及び高さのシグナリングによって、シグナリングされる。この実施形態では、x及びyは、領域の左上隅の位置を指定し、幅及び高さは、領域の幅及び高さを指定する。ユニットは、ルーマサンプル/ピクセルにあることができる。
b.一例で、位置及びサイズの情報は、事前選択の属性又は要素によってシグナリングされる。
c.一例で、位置及びサイズの情報は、事前選択のメイン適応セットの属性及び要素によってシグナリングされる。
d.一例で、@dataUnitsReplaceableが真であり、位置及びサイズの情報が存在する場合に、位置及びサイズは、メイン映像内の対象ピクチャ・イン・ピクチャ領域を正確に表すべきである、ことが指定される。
e.一例で、@dataUnitsReplaceableが偽であり、位置及びサイズの情報が存在する場合に、位置及びサイズの情報は、補足映像を埋め込む/オーバーレイするための望ましい領域を示す(すなわち、クライアントは、メイン映像の異なる領域に補足映像をオーバーレイすることを選択し得る)、ことが指定される。
f.一例で、@dataUnitsReplaceableが偽であり、位置及びサイズの情報が存在しない場合に、補足映像をどこにオーバーレイすべきかに関する情報又は推奨は示唆されず、補足映像をどこにオーバーレイすべきかは、完全にクライアントが選択すべきものである、ことが指定される。
[例5]
5)代替的に、要素、例えば、PicnPic要素と呼ばれる、が事前選択要素に加えられる。このPicnPic要素は、次のうちの少なくとも1つ以上を含む:
a.上記と同様に、@dataUnitsReplaceable属性,
b.上記と同様に、@regionsIds属性,
c.メイン映像内の対象ピクチャ・イン・ピクチャ領域の左上符号化ビデオピクセル(サンプル)の水平位置を指定する@x属性。単位はビデオピクセル(サンプル)である。4つの属性@x、@y、@width、及び@heightが全て存在するか又は全て存在しないかのどちらかである,
d.メイン映像内の対象ピクチャ・イン・ピクチャ領域の左上符号化ビデオピクセル(サンプル)の垂直位置を指定する@y属性。単位はビデオピクセル(サンプル)である,
e.メイン映像内の対象ピクチャ・イン・ピクチャ領域の幅を指定する@widhth属性。単位はビデオピクセル(サンプル)である,
f.メイン映像内の対象ピクチャ・イン・ピクチャ領域の高さを指定する@height属性。単位はビデオピクセル(サンプル)である。
[例6]
6)代替的に、要素、例えば、PicnPic要素と呼ばれる、が事前選択要素に加えられる。このPicnPic要素は、次のうちの少なくとも1つ以上を含む:
a.上記と同様に、@dataUnitsReplaceable属性,
b.上記と同様に、@regionsIds属性,
c.少なくとも次を含む、例えば、Region要素と呼ばれる、要素:
i.メイン映像内の対象ピクチャ・イン・ピクチャ領域の左上符号化ビデオピクセル(サンプル)の水平位置を指定する@x属性。単位はビデオピクセル(サンプル)である,
ii.メイン映像内の対象ピクチャ・イン・ピクチャ領域の左上符号化ビデオピクセル(サンプル)の垂直位置を指定する@y属性。単位はビデオピクセル(サンプル)である,
iii.メイン映像内の対象ピクチャ・イン・ピクチャ領域の幅を指定する@widhth属性。単位はビデオピクセル(サンプル)である,
iv.メイン映像内の対象ピクチャ・イン・ピクチャ領域の高さを指定する@height属性。単位はビデオピクセル(サンプル)である。
以下は、上述された例に対応するいくつかの例示的な実施形態である。実施形態はDASHに適用可能である。以下のシンタックス及び/又はセマンティクスにおいて追加又は変更されている最も関連する部分は、イタリック体で示されている。本質的に編集的であって、故に強調表示されていないいくつかの追加の他の変更があり得る。
事前選択要素のセマンティクスが提供される。事前選択記述子に代わるものとして、事前選択はまた、表25で提供される事前選択要素により定義されてもよい。事前選択の選択は、事前選択要素に含まれている属性及び要素に基づく。
Figure 0007490712000001
Figure 0007490712000002
Figure 0007490712000003
Figure 0007490712000004
拡張可能マークアップ言語(Extensible Markup Language,XML)シンタックスが提供される。
Figure 0007490712000005
事前選択に基づいたピクチャ・イン・ピクチャ。
Figure 0007490712000006
事前選択要素のセマンティクスは他の実施形態で提供される。事前選択記述子に代わるものとして、事前選択はまた、表25で提供される事前選択要素により定義されてもよい。事前選択の選択は、事前選択要素に含まれている属性及び要素に基づく。
Figure 0007490712000007
Figure 0007490712000008
XMLシンタックスが供給される。
Figure 0007490712000009
事前選択に基づいたピクチャ・イン・ピクチャ。
Figure 0007490712000010
Figure 0007490712000011
Figure 0007490712000012
Figure 0007490712000013
図6は、本明細書で開示されている様々な技術が実装され得る例示的なビデオ処理システム600を示すブロック図である。様々な実施は、ビデオ処理システム600のコンポーネントのいくつか又は全てを含み得る。ビデオ処理システム600は、ビデオコンテンツを受ける入力部602を含み得る。ビデオコンテンツは、生の又は圧縮されていないフォーマット、例えば、8又は10ビットのマルチコンポーネントピクセル値で受け取られてよく、あるいは、圧縮又は符号化されたフォーマットにあってもよい。入力部602は、ネットワークインターフェース、ペリフェラルバスインターバス、又はストレージインターフェースに相当し得る。ネットワークインターフェースの例には、Ethernet(登録商標)、受動光ネットワーク(Passive Optical Network,PON)などのような無線インターフェース、及びWi-Fi又はセルラーネットワークなどの無線インターフェースが含まれる。
ビデオ処理システム600は、本明細書で記載されている様々なコーディング又は符号化方法を実装し得るコーディングコンポーネント604を含んでもよい。コーディングコンポーネント604は、ビデオのコーディングされた表現を生成するよう、入力部602からコーディングコンポーネント604の出力部へのビデオの平均ビットレートを低減し得る。コーディング技術は、従って、ビデオ圧縮又はビデオトランスコーディング技術と時々呼ばれる。コーディングコンポーネント604の出力は、コンポーネント606によって表されるように、保存されても、あるいは、接続された通信を介して伝送されてもよい。入力部602で受け取られたビデオの保存又は通信されたビットストリーム(又はコーディングされた)表現は、ピクセル値又は表示インターフェース610へ送られる表示可能なビデオを生成するコンポーネント608によって使用されてもよい。ユーザが見ることができるビデオをビットストリーム表現から生成するプロセスは、ビデオ圧縮解除と時々呼ばれる。更に、特定のビデオ処理動作が「コーディング」動作又はツールと呼ばれる一方で、そのようなコーディングツール又は動作はエンコーダで使用され、コーディングの結果を入れ替える対応する復号化ツール又は動作は、デコーダによって実行されることになることが理解されるだろう。
ペリフェラルバスインターフェース又は表示インターフェースの例には、ユニバーサルシリアルバス(USB)又は高精細マルチメディアインターフェース(HDMI(登録商標))又はDisplayport(登録商標)などが含まれ得る。ストレージインターフェースの例には、SATA(Serial Advanced Technology Attachment)、PCI(Peripheral Component Interconnect)、IDE(Integrated Drive Electronics)インターフェース、などがある。本明細書で説明されている技術は、携帯電話機、ラップトップ、スマートフォン、あるいは、デジタルデータ処理及び/又はビデオ表示を実行する能力がある他のデバイスなどの、様々な電子デバイスで具現化されてもよい。
図7は、ビデオ処理装置700のブロック図である。ビデオ処理装置700は、本明細書で記載されている方法の1つ以上を実装するために使用され得る。ビデオ処理装置700は、スマートフォン、タブレット、コンピュータ、インターネット・オブ・シングス(IoT)レシーバ、などで具現化されてもよい。ビデオ処理装置700は、1つ以上のプロセッサ702、1つ以上のメモリ704、及びビデオ処理ハードウェア706(別名、ビデオ処理回路)を含み得る。プロセッサ702は、本明細書で記載される1つ以上の方法を実装するよう構成され得る。メモリ(複数のメモリ)704は、本明細書で記載される方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用され得る。ビデオ処理ハードウェア706は、ハードウェア回路において、本明細書で記載されるいくつかの技術を実装するために使用され得る。いくつかの実施形態において、ビデオ処理ハードウェア706は、部分的に全体的に、プロセッサ702、例えば、グラフィクスプロセッサの中に位置してもよい。
図8は、本開示の技術を利用し得るビデオコーディングシステム800の例を表すブロック図である。図8に示されるように、ビデオコーディングシステム800は、送信元デバイス810及び送信先デバイス820を含んでよい。送信元デバイス810は、符号化されたビデオデータを生成し、ビデオ符号化と呼ばれ得る。送信先デバイス820は、送信元デバイス810によって生成された符号化されたビデオデータを復号することができ、ビデオ復号化デバイスと呼ばれ得る。
送信元デバイス810は、ビデオソース812、ビデオエンコーダ814、及び入力/出力(I/O)インターフェース816を含んでよい。
ビデオソース812は、ビデオ捕捉デバイスなどのソース、ビデオコンテンツプロバイダからビデオデータを受け取るインターフェース、及び/又はビデオデータを生成するコンピュータグラフィクスシステム、あるいは、そのようなソースの組み合わせを含んでよい。ビデオデータは1つ以上のピクチャを有してもよい。ビデオエンコーダ814は、ビットストリームを生成するようビデオソース812からのビデオデータを符号化する。ビットストリームは、ビデオデータのコーディングされた表現を形成するビットの連続を含んでよい。ビットストリームは、コーディングされたピクチャ及び関連するデータを含んでもよい。コーディングされたピクチャは、ピクチャのコーディングされた表現である。関連するデータは、シーケンスパラメータセット、ピクチャパラメータセット、及び他のシンタックス構造を含んでもよい。I/Oインターフェース816は、変調器/復調器(モデム)及び/又は送信器を含んでよい。符号化されたビデオデータは、I/Oインターフェース816を介して送信先デバイス820に対してネットワーク830を通じて直接に伝送されてよい。符号化されたビデオデータはまた、送信先デバイス820によるアクセスのために記憶媒体/サーバ840に記憶されてもよい。
送信先デバイス820は、I/Oインターフェース826、ビデオデコーダ824、及び表示デバイス822を含んでよい。
I/Oインターフェース826は、受信器及び/又はモデムを含んでよい。I/Oインターフェース826は、送信元デバイス810又は記憶媒体/サーバ840から符号化されたビデオデータを取得してよい。ビデオデコーダ824は、符号化されたビデオデータを復号してよい。表示デバイス822は、復号されたビデオデータをユーザに表示してよい。表示デバイス822は、送信先デバイス820と一体化されてもよく、あるいは、外付け表示デバイスとインターフェース接続するよう構成されて送信先デバイス820の外にあってもよい。
ビデオエンコーダ814及びビデオデコーダ824は、HEVC(High Efficiency Video Coding)標準規格、VVC(Versatile Video Coding)標準規格、並びに他の現在の及び/又は更なる標準規格などのビデオ圧縮規格に従って作動してもよい。
図9は、ビデオエンコーダ900の例を表すブロックであり、図8に表されているビデオコーディングシステム800のビデオエンコーダ814であってよい。
ビデオエンコーダ900は、本開示の技術のいずれか又は全てを実行するよう構成されてよい。図9の例では、ビデオエンコーダ900は、複数の機能コンポーネントを含む。本開示で記載される技術は、ビデオエンコーダ900の様々なコンポーネントの間で共有されてもよい。いくつかの例では、プロセッサが、本開示で記載される技術のいずれか又は全てを実行するよう構成されてもよい。
ビデオエンコーダ900の機能コンポーネントは、パーティションユニット901と、モード選択ユニット903、動き推定ユニット904、動き補償ユニット905及びイントラ予測ユニット906を含み得る予測ユニット902と、残差生成ユニット907と、変換ユニット908と、量子化ユニット909と、逆量子化ユニット910と、逆変換ユニット911と、再構成ユニット912と、バッファ913と、エントロピ符号化ユニット914とを含んでよい。
他の例では、ビデオエンコーダ900は、より多い、より少ない、又は異なる機能コンポーネントを含んでもよい。例において、予測ユニット902は、イントラブロックコピー(Intra Block Copy,IBC)ユニットを含んでもよい。IBCユニットは、少なくとも1つの参照ピクチャが、現在のビデオブロックが位置しているピクチャであるところの、IBCモードで、予測を実行してよい。
更に、動き推定ユニット904及び動き補償ユニット905などのいくつかのコンポーネントは、高度に集積されてもよいが、説明のために図9の例では別々に表されている。
パーティションユニット901は、ピクチャを1つ以上のビデオブロックにパーティション化し得る。図8のビデオエンコーダ814及びビデオデコーダ824は、様々なビデオブロックサイズをサポートしてよい。
モード選択ユニット903は、例えば、エラー結果に基づいて、イントラ又はインターのコーディングモードの1つを選択し、結果として得られたイントラ又はインターコーディングされたブロックを、残差ブロックデータを生成する残差生成ユニット907へ、及び参照ピクチャとしての使用のために、符号化されたブロックを再構成する再構成ユニット912へ供給してよい。いくつかの例において、モード選択ユニット903は、予測がインター予測信号及びイントラ予測信号に基づくイントラ-インター複合予測(Combination of Intra and Inter Prediction,CIIP)モードを選択してもよい。モード選択ユニット903はまた、インター予測の場合に、ブロックの動きベクトルのための分解能(例えば、サブピクセル又は整数ピクセル精度)を選択してもよい。
現在のビデオブロックに対してインター予測を実行するために、動き推定ユニット904は、バッファ913からの1つ以上の参照フレームを現在のビデオブロックと比較することによって、現在のビデオブロックの動き情報を生成し得る。動き補償ユニット905は、動き情報と、現在のビデオブロックに関連したピクチャ以外のバッファ913からのピクチャの復号されたサンプルとに基づいて、現在のビデオブロックの予測されたビデオブロックを決定し得る。
動き推定ユニット904及び動き補償ユニット905は、例えば、現在のビデオブロックがIスライス、Pスライス、又はBスライスであるかどうかに応じて、現在のビデオブロックのために異なる動作を実行してもよい。Iスライス(又はIフレーム)は、圧縮率が最も低くなるもの、復号するために他のビデオフレームを必要としない。Pスライス(又はPフレーム)は、圧縮解除するために前のフレームからのデータを使用することができ、Iフレームよりも圧縮率が高い。Bスライス(又はBフレーム)は、最も高いデータ圧縮量を得るように、データ参照のために前のフレーム及び次のフレームの両方を使用することができる。
いくつかの例において、動き推定ユニット904は、現在のビデオブロックのために一方向予測を実行してもよく、動き推定ユニット904は、現在のビデオブロックのための参照ビデオブロックをリスト0又はリスト1の参照ピクチャから探してもよい。動き推定ユニット904は、次いで、参照ビデオブロックを含むリスト0又はリスト1内の参照ピクチャを示す参照インデックスと、現在のビデオブロックと参照ビデオブロックとの間の空間変位を示す動きベクトルとを生成してよい。動き推定ユニット904は、現在のビデオブロックの動き情報として参照インデックス、予測方向インジケータ、及び動きベクトルを出力してもよい。動き補償ユニット905は、現在のビデオブロックの動き情報によって示されている参照ビデオブロックに基づいて、現在のブロックの予測されたビデオブロックを生成してもよい。
他の例では、動き推定ユニット904は、現在のビデオブロックのために双方向予測を実行してもよく、動き推定ユニット904は、現在のビデオブロックのための参照ビデオブロックをリスト0内の参照ピクチャから探してもよく、また、現在のビデオブロックのためのもう1つの参照ビデオブロックをリスト1内の参照ピクチャから探してもよい。動き推定ユニット904は、次いで、参照ビデオブロックを含むリスト0及びリスト1内の参照ピクチャを示す参照インデックスと、それらの参照ビデオブロックと現在のビデオブロックとの間の空間変位を示す動きベクトルとを生成してもよい。動き推定ユニット904は、現在のビデオブロックの動き情報として、現在のビデオブロックの参照インデックス及び動きベクトルを出力してもよい。動き補償ユニット905は、現在のビデオブロックの動き情報によって示されている参照ビデオブロックに基づいて、現在のビデオブロックの予測されたビデオブロックを生成してもよい。
いくつかの例において、動き推定ユニット904は、デコーダの復号化処理のために動き情報のフルセットを出力してもよい。
いくつかの例において、動き推定ユニット904は、現在のビデオの動き情報のフルセットを出力しなくてもよい。むしろ、動き推定ユニット904は、他のビデオブロックの動き情報を参照して現在のビデオブロックの動き情報をシグナリングしてもよい。例えば、動き推定ユニット904は、現在のビデオブロックの動き情報が隣接ビデオブロックの動き情報と十分に類似していることを決定してもよい。
一例において、動き推定ユニット904は、現在のビデオブロックに関連したシンタックス構造において、現在のビデオブロックが他のビデオブロックと同じ動き情報を有していることをビデオデコーダ824に示す値を示してもよい。
他の例では、動き推定ユニット904は、現在のビデオブロックに関連したシンタックス構造において、他のビデオブロック及び動きベクトル差分(Motion Vector Difference,MVD)を特定してもよい。動きベクトル差分は、現在のビデオブロックの動きベクトルと、指示されたビデオブロックの動きベクトルとの間の差を示す。ビデオデコーダ824は、現在のビデオブロックの動きベクトルを決定するために、指示されたビデオブロックの動きベクトル及び動きベクトル差分を使用し得る。
上述されたように、ビデオエンコーダ814は、動きベクトルを予測的にシグナリングしてもよい。ビデオエンコーダ814によって実装され得る予測シグナリング技術の2つの例には、アドバンスド動きベクトル予測(Advanced Motion Vector Prediction,AMVP)及びマージモードシグナリングがある。
イントラ予測ユニット906は、現在のビデオブロックに対してイントラ予測を実行してよい。イントラ予測ユニット906が現在のビデオブロックに対してイントラ予測を実行する場合に、イントラ予測ユニット906は、同じピクチャ内の他のビデオブロックの復号されたサンプルに基づいて、現在のビデオブロックの予測データを生成し得る。現在のビデオブロックの予測データは、予測されたビデオブロック及び様々なシンタックス要素を含み得る。
残差生成ユニット907は、現在のビデオブロックから現在のビデオブロックの予測されたビデオブロックを減じること(例えば、マイナス符号によって示される)によって、現在のビデオブロックの残差データを生成してよい。現在のビデオブロックの残差データは、現在のビデオブロック内のサンプルの異なるサンプルコンポーネントに対応する残差ビデオブロックを含み得る。
他の例では、例えば、スキップモードで、現在のビデオブロックの残差データは存在しない場合があり、残差生成ユニット907は、減算演算を実行しなくてもよい。
変換処理ユニット908は、現在のビデオブロックに関連した残差ビデオブロックに1つ以上の変換を適用することによって、現在のビデオブロックの1つ以上の変換係数ビデオブロックを生成してよい。
変換処理ユニット908が現在のビデオブロックに関連した変換係数ビデオブロックを生成した後、量子化ユニット909は、現在のビデオブロックに関連した1つ以上の量子化パラメータ(QP)値に基づいて、現在のビデオブロックに関連した変換係数ビデオブロックを量子化してよい。
逆量子化ユニット910及び逆変換ユニット911は、変換係数ビデオブロックに各々逆量子化及び逆変換を適用して、変換係数ビデオブロックから残差ビデオブロックを再構成してよい。再構成ユニット912は、再構成された残差ビデオブロックを、予測ユニット902によって生成された1つ以上の予測されたビデオブロックからの対応するサンプルに加えて、バッファ913での記憶のために、現在のブロックに関連した再構成されたビデオブロックを生成してよい。
再構成ユニット912がビデオブロックを再構成した後、ループフィルタリング動作が、ビデオブロックにおいてビデオブロッキングアーチファクトを低減するよう実行されてもよい。
エントロピ符号化ユニット914は、ビデオエンコーダ900の他の機能コンポーネントからデータを受け取ってもよい。エントロピ符号化ユニット914がデータを受け取るとき、エントロピ符号化ユニット914は、エントロピ符号化されたデータを生成するよう1つ以上のエントロピ符号化動作を実行し、そのエントロピ符号化されたデータを含むビットストリームを出力し得る。
図10は、ビデオデコーダ1000の例を表すブロック図であり、図8で表されているビデオコーディングシステム800のビデオデコーダ824であってよい。
ビデオデコーダ1000は、本開示の技術のいずれか又は全てを実行するよう構成されてよい。図10の例では、ビデオデコーダ1000は、複数の機能コンポーネントを含む。本開示で記載される技術は、ビデオデコーダ1000の様々なコンポーネントの間で共有されてもよい。いくつかの例では、プロセッサが、本開示で記載される技術のいずれか又は全てを実行するよう構成されてもよい。
図10の例では、ビデオデコーダ1000は、エントロピ復号化ユニット1001と、動き補償ユニット1002と、イントラ予測ユニット1003と、逆量子化ユニット1004と、逆変換ユニット1005と、再構成ユニット1006と、バッファ1007とを含む。ビデオデコーダ1000は、いくつかの例において、ビデオエンコーダ814(図8)に関して記載された符号化パスとは概して逆の復号化パスを実行してもよい。
エントロピ復号化ユニット1001は、符号化されたビットストリームを取り出し得る。符号化されたビットストリームは、エントロピコーディングされたビデオデータ(例えば、ビデオデータの符号化されたブロック)を含んでもよい。エントロピ復号化ユニット1001は、エントロピコーディングされたビデオデータを復号してよく、エントロピ復号されたビデオデータから、動き補償ユニット1002は、動きベクトル、動きベクトル精度、参照ピクチャリストインデックス、及び他の動き情報を含む動き情報を決定し得る。動き補償ユニット1002は、例えば、AMVP及びマージモードを実行することによって、そのような情報を決定してよい。
動き補償ユニット1002は、場合により、補間フィルタに基づいた補間を実行して、動き補償されたブロックを生成してよい。サブピクセル精度で使用される補間フィルタのための識別子が、シンタックス要素に含まれてもよい。
動き補償ユニット1002は、参照ブロックのサブ整数ピクセルについて補間値を計算するために、ビデオブロックの符号化中にビデオエンコーダ814によって使用された補間フィルタを使用し得る。動き補償ユニット1002は、受け取られたシンタックス情報に従って、ビデオエンコーダ814によって使用された補間フィルタを決定し、その補間フィルタを使用して、予測ブロックを生成し得る。
動き補償ユニット1002は、符号化されたビデオシーケンスのフレーム及び/又はスライスを符号化するために使用されるブロックのサイズと、符号化されたビデオシーケンスのピクチャの各マクロブロックがどのようにパーティション化されるかを記述するパーティション情報と、各パーティションがどのように符号化されるかを示すモードと、各インター符号化されたブロックについての1つ以上の参照フレーム(及び参照フレームリスト)と、符号化されたビデオシーケンスを復号するための他の情報とを決定するために、シンタックス情報のいくつかを使用してもよい。
イントラ予測ユニット1003は、空間的に隣接するブロックから予測ブロックを形成するよう、例えば、ビットストリームで受け取られたイントラ予測モードを使用してもよい。逆量子化ユニット1004は、ビットストリームで供給されてエントロピ復号化ユニット1001によって復号された量子化されたビデオブロック係数を逆量子化、すなわち、量子化解除する。逆変換ユニット1005は逆変換を適用する。
再構成ユニット1006は、動き補償ユニット1002又はイントラ予測ユニット1003によって生成された対応する予測ブロックを残差ブロックに加算して、復号されたブロックを形成し得る。望まれる場合には、デブロッキングフィルタも、ブロッキネスアーチファクトを取り除くために、復号されたブロックにフィルタをかけるよう適用されてもよい。復号されたビデオブロックは、次いで、バッファ1007に格納され、バッファ1007は、その後の動き補償/イントラ予測のために参照ブロックを供給し、更には、復号されたビデオを表示デバイスでの提示のために生成する。
図11は、本開示の実施形態に係るメディアデータ処理方法1100である。方法1100は、プロセッサ及びメモリを備えているコーディング装置(例えば、エンコーダ)によって実行されてよい。方法1100は、ピクチャ・イン・ピクチャサービスが指示される必要がある場合に実装されてよい。
ブロック1102で、コーディング装置は、メディアデータとメディアデータファイルとの間の変換のために、事前選択要素がインジケータを含むかどうかを決定する。実施形態において、インジケータは、メイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが補足映像の対応するビデオデータユニットで置換可能であることを示す。
ブロック1104で、コーディング装置は、インジケータに基づきメディアデータとメディアデータファイルとの間の変換を実行する。エンコーダで実装される場合に、変換は、メディアファイル(例えば、ビデオユニット)を受信し、メディアファイルをビットストリームに符号化することを含む。デコーダで実装される場合に、変換は、メディアファイルを含むビットストリームを受信し、ビットストリームを復号してメディアファイルを取得することを含む。
実施形態において、インジケータは、事前選択要素の属性を有する。実施形態において、インジケータは、@dataUnitsReplaceable属性を有する。
実施形態において、インジケータは、@tag属性が前記事前選択要素に存在する場合にのみ、事前選択要素に存在する。実施形態において、インジケータは、事前選択要素の目的が、補足映像がメイン映像内の対象ピクチャ・イン・ピクチャ領域にオーバーレイされるよう現れるピクチャ・イン・ピクチャ体験を提供するためである、ことを事前選択要素内の@tag属性が示す場合にのみ、事前選択要素に存在する。
実施形態において、方法は、事前選択要素がインジケータを含まないことを決定するステップを更に有する。実施形態において、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットを補足映像の対応するビデオデータユニットで置換することは、事前選択要素がインジケータを含まない場合に未知である。
実施形態において、インジケータは、真の値(例えば、1)を有している@dataUnitsReplaceable属性を有する。実施形態において、方法は、@dataUnitsReplaceable属性が真の値を有している場合に、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットを補足映像の対応するビデオデータユニットで置換することを選択することをクライアントに許すステップを更に有する。
実施形態において、方法は、@dataUnitsReplaceable属性が真の値を有している場合に、メイン映像内の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットを補足映像の対応するビデオデータユニットで置換することを選択することをクライアントに許すことによって、メイン映像及び補足映像の別々の復号化を回避するステップを更に有する。
実施形態において、補足映像の対応するビデオデータユニットは、補足映像の表現における復号化時間同期サンプル内の全てのビデオデータユニットである。実施形態において、復号化時間同期サンプル内のビデオデータユニットは、メイン映像内の特定のピクチャに対応する。
実施形態において、事前選択要素は、PicnPic要素を含む。実施形態において、インジケータは、@dataUnitsReplaceable属性を有し、PicnPic要素が、@dataUnitsReplaceable属性を含む。
実施形態において、事前選択要素は、メディアプレゼンテーション記述(MPD)ファイルに配置される。実施形態において、事前選択要素は、ハイパーテキスト転送プロトコル上の動的適応ストリーミング(DASH)プレゼンテーション要素である。
実施形態において、変換は、メディアデータをビットストリームに符号化することを含む。実施形態において、変換は、メディアデータをビットストリームから復号することを含む。
実施形態において、方法1100は、本明細書で開示されている他の方法の特徴又はプロセスのうちの1つ以上を利用しても又は組み込んでもよい。
いくつかの実施形態によって好ましい解決法のリストが、次に与えられる。
次の解決法は、本開示で説明されている技術の例示的な実施形態(例えば、例1)を示す。
解決法1.ビデオデータを処理する方法であって、
ビデオデータと該ビデオデータの記述子との間の変換を実行するステップを有し、
前記記述子はフォーマット規則に従い、
前記フォーマット規則は、前記記述子が、該記述子の事前選択シンタックス構造のピクチャ・イン・ピクチャ使用を示すシンタックス要素を含む、ことを指定する、
方法。
解決法2.解決法1に記載の方法であって、
前記シンタックス要素は、前記事前選択シンタックス構造のタグ属性である、
方法。
解決法3.解決法1に記載の方法であって、
前記シンタックス要素は、前記事前選択シンタックス構造の役割属性である、
方法。
解決法4.ビデオデータを処理する方法であって、
ビデオデータと該ビデオデータの記述子との間の変換を実行するステップを有し、
前記記述子はフォーマット規則に従い、
前記フォーマット規則は、前記記述子が、ピクチャ・イン・ピクチャ領域に対応する前記ビデオデータ内のメイン映像のビデオデータユニットが前記ビデオデータ内の補足映像のビデオデータユニットで置換可能であるかどうか、を示すシンタックス要素を選択的に含む、ことを指定する、
方法。
解決法5.解決法4に記載の方法であって、
前記シンタックス要素は、前記記述子内の属性フィールドである、
方法。
解決法6.解決法4に記載の方法であって、
前記シンタックス要素は、前記記述子内のタグ属性の値に基づき、選択的に含まれる、
方法。
解決法7.ビデオデータを処理する方法であって、
ビデオデータと該ビデオデータの記述子との間の変換を実行するステップを有し、
前記記述子はフォーマット規則に従い、
前記フォーマット規則は、前記記述子が、対象ピクチャ・イン・ピクチャ領域に対応する前記ビデオデータ内のメイン映像のピクチャ内のビデオデータユニットを示す領域識別子のリストを含む、ことを指定する、
方法。
解決法8.解決法7に記載の方法であって、
前記リストは、前記記述子内の事前選択シンタックス構造の属性として含まれる、
方法。
解決法9.解決法7又は8に記載の方法、
前記領域識別子は、前記メイン映像をコーディングするために使用されるコーディングスキームに従って前記ビデオデータユニットを示すために使用されるシンタックスフィールドに対応する、
方法。
解決法10.ビデオデータを処理する方法であって、
ビデオデータと該ビデオデータの記述子との間の変換を実行するステップを有し、
前記記述子はフォーマット規則に従い、
前記フォーマット規則は、前記記述子が、補足映像をオーバーレイする又は埋め込むために使用されるメイン映像内の領域の位置及び/又はサイズの情報を示す1つ以上のフィールドを含む、ことを指定する、
方法。
解決法11.解決法10に記載の方法であって、
前記位置及び前記サイズの情報は、前記領域の位置座標、高さ及び幅を含む4つの値を有する、
方法。
解決法12.解決法10又は11に記載の方法であって、
前記1つ以上のフィールドは、事前選択シンタックス構造の属性又は要素を有する、
方法。
解決法13.解決法10乃至12のうちいずれかに記載の方法であって、
前記領域が正確な置換可能領域又は好ましい置換可能領域であるかどうかは、他のシンタックス要素に基づき決定される、
方法。
解決法14.解決法1乃至13のうちいずれかに記載の方法であって、
前記記述子は、メディアプレゼンテーション記述(MPD)である、
方法。
解決法15.解決法1乃至14のうちいずれかに記載の方法であって、
前記フォーマット規則は、特定のシンタックス要素が前記記述子に含まれる、ことを指定し、
前記特定のシンタックス要素は、ピクチャ・イン・ピクチャ情報を含む、
方法。
解決法16.解決法1乃至15のうちいずれかに記載の方法であって、
前記変換は、ビデオからビットストリームを生成することを含む、
方法。
解決法17.解決法1乃至15のうちいずれかに記載の方法であって、
前記変換は、ビットストリームからビデオを生成することを含む、
方法。
解決法18.解決法1乃至17のうちの1つ以上に記載の方法を実装するよう構成されるプロセッサを有するビデオ復号化装置。
解決法19.解決法1乃至17のうちの1つ以上に記載の方法を実行するよう構成されるプロセッサを有するビデオ符号化装置。
解決法20.プロセッサによって実行される場合に、該プロセッサに、解決法1乃至17のうちいずれかに記載の方法を実装させるコンピュータコードを記憶しているコンピュータプログラム製品。
解決法21.ビデオ処理の方法であって、
解決法1乃至17のうちのいずれか1つ以上に記載の方法に従ってビットストリームを生成するステップと、
前記ビットストリームをコンピュータ可読媒体に記憶するステップと
を有する方法。
解決法22.本明細書で記載される方法、装置、又はシステム。
次の文献は、それらの全文を参照により援用される:
[1] ITU-T and ISO/IEC, “High efficiency video coding”, Rec. ITU-T H.265 | ISO/IEC 23008-2 (in force edition)
[2] J. Chen, E. Alshina, G. J. Sullivan, J.-R. Ohm, J. Boyce, “Algorithm description of Joint Exploration Test Model 7 (JEM7),” JVET-G1001, Aug. 2017
[3] Rec. ITU-T H.266 | ISO/IEC 23090-3, “Versatile Video Coding”, 2020
[4] B. Bross, J. Chen, S. Liu, Y.-K. Wang (editors), “Versatile Video Coding (Draft 10),” JVET-S2001
[5] Rec. ITU-T Rec. H.274 | ISO/IEC 23002-7, “Versatile Supplemental Enhancement Information Messages for Coded Video Bitstreams”, 2020
[6] J. Boyce, V. Drugeon, G. Sullivan, Y.-K. Wang (editors), “Versatile supplemental enhancement information messages for coded video bitstreams (Draft 5),” JVET-S2007
[7] ISO/IEC 14496-12: "Information technology - Coding of audio-visual objects - Part 12: ISO base media file format"
[8] ISO/IEC 23009-1: "Information technology - Dynamic adaptive streaming over HTTP (DASH) - Part 1: Media presentation description and segment formats"(DASH標準規格仕様の第4版はMPEG入力文書m52458で入手可能である。)
[9] ISO/IEC 14496-15: "Information technology - Coding of audio-visual objects - Part 15: Carriage of network abstraction layer (NAL) unit structured video in the ISO base media file format"
[10] ISO/IEC 23008-12: "Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 12: Image File Format"
[11] ISO/IEC JTC 1/SC 29/WG 03 output document N0035, "Potential improvements on Carriage of VVC and EVC in ISOBMFF", Nov. 2020
[12] ISO/IEC JTC 1/SC 29/WG 03 output document N0038, "Information technology - High efficiency coding and media delivery in heterogeneous environments - Part 12: Image File Format - Amendment 3: Support for VVC, EVC, slideshows and other improvements (CD stage)", Nov. 2020.
本明細書で記載されている開示された及び他の解決法、例、実施形態、モジュール、及び機能動作は、デジタル電子回路で、又は本明細書で開示されている構造及びそれらの構造的同等物を含むコンピュータソフトウェア、ファームウェア、若しくはハードウェアで、あるいは、それらの1つ以上の組み合わせで実装され得る。開示された及び他の実施形態は、1つ以上のコンピュータプログラム製品、つまり、データ処理装置によって実行されるか又はその動作を制御するコンピュータ可読媒体で符号化されているコンピュータプログラム命令の1つ以上のモジュール、として実装され得る。コンピュータ可読媒体は、マシン可読記憶デバイス、マシン可読記憶基板、メモリデバイス、マシン可読な伝播信号に影響を与える物質の組成、又はそれらの1つ以上の組み合わせであることができる。「データ処理装置」という用語は、例として、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む、データを処理するための全ての装置、デバイス、及びマシンを包含する。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコードを含むことができる。伝播信号は、人工的に生成された信号、例えば、マシンで生成された電気、光、又は電磁気信号であり、適切な受信器装置への伝送のために情報を符号化するよう生成されている。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる。)は、コンパイル済み又は解釈済みの言語を含む如何なる形式のプログラミング言語でも記述可能であり、それは、スタンドアロンプログラムとして又はコンピューティング環境における使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとして、を含め、如何なる形式でもデプロイ可能である。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応しない。プログラムは、問題となっているプログラムに専用の単一のファイルで、又は複数の協調したファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を保存するファイル)で、他のプログラム又はデータ(例えば、マークアップ言語文書で保存された1つ以上のスクリプト)を保持するファイルの部分において保存可能である。コンピュータプログラムは、1つのコンピュータで、あるいは、1つの場所に位置しているか、又は複数の場所にわたって分布しており、通信ネットワークによって相互接続されている複数のコンピュータで、実行されるようデプロイ可能である。
本明細書で説明されているプロセス及びロジックフローは、入力データに作用して出力を生成することによって機能を実行するよう1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実行可能である。プロセス及びロジックフローはまた、専用のロジック回路、例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)又は特定用途向け集積回路(ASIC)によっても実行可能である。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用のマイクロプロセッサ及び専用のマイクロプロセッサの両方、並びにあらゆる種類のデジタルコンピュータのいずれか1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリー・メモリ若しくはランダム・アクセス・メモリ又はその両方から命令及びデータを受け取る。コンピュータの必須の要素は、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリデバイスとである。一般に、コンピュータはまた、データを保存する1つ以上の大容量記憶デバイス、例えば、磁気、光学磁気ディスク、又は光ディスクを含むか、あるいは、そのような1つ以上の大容量記憶デバイスからのデータの受信若しくはそれへのデータの転送又はその両方のために動作可能に結合される。しかし、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令及びデータを保存するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えば、消去可能なプログラム可能リード・オンリー・メモリ(EPROM)、電気的消去可能なプログラム可能リード・オンリー・メモリ(EEPROM)、及びフラッシュメモリデバイス;磁気ディスク、例えば、内蔵ハードディスク又はリムーバブルディスク;光学磁気ディスク;並びにコンパクト・ディスク型リード・オンリー・メモリ(CD ROM)及びデジタル・バーサタイル・ディスク型リード・オンリー・メモリ(DVD-ROM)ディスクを含む全ての形式の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用のロジック回路によって強化されるか、あるいは、それに組み込まれ得る。
本明細書は、多数の詳細を含むが、それらは、あらゆる対象の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の技術の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書で説明されている特定の特徴は、単一の実施形態と組み合わせても実装可能である。逆に、単一の実施形態に関連して説明されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションで実装可能である。更に、特徴は、特定の組み合わせで動作するものとして先に説明され、更には、そのようなものとして最初に請求されることがあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が示されているその特定の順序で又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書で説明されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本特許文献で記載及び例示されているものに基づいて行われ得る。
本明細書は、多数の詳細を含むが、それらは、あらゆる対象の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の技術の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書で説明されている特定の特徴は、単一の実施形態と組み合わせても実装可能である。逆に、単一の実施形態に関連して説明されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションで実装可能である。更に、特徴は、特定の組み合わせで動作するものとして先に説明され、更には、そのようなものとして最初に請求されることがあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が示されているその特定の順序で又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書で説明されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本特許文献で記載及び例示されているものに基づいて行われ得る。
100 MPD
200 ピクチャ
202 タイル
204 サブピクチャ/スライス
206 CTUにパーティション
600 ビデオ処理システム
602 入力部
604 コーディングコンポーネント
700 ビデオ処理装置
702 プロセッサ
704 メモリ
706 ビデオ処理ハードウェア
800 ビデオコーディングシステム
810 送信元デバイス
812 ビデオソース
814,900 ビデオエンコーダ
816,826 I/Oインターフェース
820 送信先デバイス
822 表示デバイス
824,1000 ビデオデコーダ
830 ネットワーク
840 記憶媒体/サーバ
901 パーティションユニット
902 予測ユニット
903 モード選択ユニット
904 動き推定ユニット
905 動き補償ユニット
906 イントラ予測ユニット
907 残差生成ユニット
908 変換ユニット
909 量子化ユニット
910 逆量子化ユニット
911 逆変換ユニット
912 再構成ユニット
913,1007 バッファ
914 エントロピ符号化ユニット
1001 エントロピ復号化ユニット
1002 動き補償ユニット
1003 イントラ予測ユニット
1004 逆量子化ユニット
1005 逆変換ユニット
1006 再構成ユニット

Claims (19)

  1. メディアデータを処理する方法であって、
    映像である前記メディアデータとハイパーテキスト転送プロトコル上の動的適応ストリーミング(DASH)のためのメディアデータファイルとの間の変換のために、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、前記メディアデータのメイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが前記メディアデータの補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、
    前記インジケータに基づき前記メディアデータと前記メディアデータファイルとの間の前記変換を実行するステップと
    を有し、
    前記インジケータは、前記事前選択要素の属性を含む、方法。
  2. 前記インジケータは、@dataUnitsReplaceable属性を有する、
    請求項1に記載の方法。
  3. 前記インジケータは、@tag属性が前記事前選択要素に存在する場合にのみ、前記事前選択要素に存在する、
    請求項1に記載の方法。
  4. 前記インジケータは、前記事前選択要素の目的が、前記補足映像が前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域に視覚的にオーバーレイされるピクチャ・イン・ピクチャ体験を提供するためである、ことを前記事前選択要素内の@tag属性が示す場合にのみ、前記事前選択要素に存在する、
    請求項1に記載の方法。
  5. 前記事前選択要素が前記インジケータを含まないことを決定するステップを更に有する、
    請求項1に記載の方法。
  6. 前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することは、前記事前選択要素が前記インジケータを含まない場合に未知である、
    請求項に記載の方法。
  7. 前記インジケータは、真の値を有している@dataUnitsReplaceable属性を有する、
    請求項1に記載の方法。
  8. 前記@dataUnitsReplaceable属性が前記真の値を有している場合に、前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することを選択することをクライアントに許すステップを更に有する、
    請求項に記載の方法。
  9. 前記@dataUnitsReplaceable属性が前記真の値を有している場合に、前記メイン映像内の前記対象ピクチャ・イン・ピクチャ領域を表す前記ビデオデータユニットを前記補足映像の前記対応するビデオデータユニットで置換することを選択することをクライアントに許すことによって、前記メイン映像及び前記補足映像の別々の復号化を回避するステップを更に有する、
    請求項に記載の方法。
  10. 前記補足映像の前記対応するビデオデータユニットは、前記補足映像の表現における復号化時間同期サンプル内の全てのビデオデータユニットである、
    請求項1に記載の方法。
  11. 前記復号化時間同期サンプル内のビデオデータユニットは、前記メイン映像内の特定のピクチャに対応する、
    請求項10に記載の方法。
  12. 前記事前選択要素は、PicnPic要素を含む、
    請求項1に記載の方法。
  13. 前記インジケータは、@dataUnitsReplaceable属性を有し、
    前記PicnPic要素が、前記@dataUnitsReplaceable属性を含む、
    請求項12に記載の方法。
  14. 前記事前選択要素は、メディアプレゼンテーション記述(MPD)ファイルに配置される、
    請求項1に記載の方法。
  15. 前記事前選択要素は、DASHプレゼンテーション要素である、
    請求項1に記載の方法。
  16. 前記変換は、前記メディアデータを前記メディアデータファイルに符号化することを含む、
    請求項1乃至15のうちいずれか一項に記載の方法。
  17. 前記変換は、前記メディアデータを前記メディアデータファイルから復号することを含む、
    請求項1乃至15のうちいずれか一項に記載の方法。
  18. メディアデータを処理する装置であって、
    プロセッサと、命令を有する非一時的なメモリとを有し、
    前記命令は、前記プロセッサによる実行時に、前記プロセッサに、
    映像である前記メディアデータとハイパーテキスト転送プロトコル上の動的適応ストリーミング(DASH)のためのメディアデータファイルとの間の変換のために、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、前記メディアデータのメイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが前記メディアデータの補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、
    前記インジケータに基づき前記メディアデータと前記メディアデータファイルとの間の前記変換を実行するステップと
    を実行させ
    前記インジケータは、前記事前選択要素の属性を含む
    装置。
  19. ハイパーテキスト転送プロトコル上の動的適応ストリーミング(DASH)のためのメディアデータファイルを記憶する方法であって、
    映像であるメディアデータについて、事前選択要素がインジケータを含むかどうかを決定するステップであり、前記インジケータは、前記メディアデータのメイン映像の対象ピクチャ・イン・ピクチャ領域を表すビデオデータユニットが前記メディアデータの補足映像の対応するビデオデータユニットで置換可能であることを示す、ステップと、
    前記インジケータに基づき前記メディアデータファイルを生成するステップと
    前記メディアデータファイルを非一時的なコンピュータ可読記録媒体に記憶するステップと
    を有し、
    前記インジケータは、前記事前選択要素の属性を含む
    方法
JP2022105485A 2021-06-30 2022-06-30 ピクチャ・イン・ピクチャ領域内のビデオデータユニットの置換のシグナリング Active JP7490712B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163216975P 2021-06-30 2021-06-30
US63/216975 2021-06-30
US202163217665P 2021-07-01 2021-07-01
US63/217665 2021-07-01

Publications (2)

Publication Number Publication Date
JP2023008947A JP2023008947A (ja) 2023-01-19
JP7490712B2 true JP7490712B2 (ja) 2024-05-27

Family

ID=82493921

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2022105486A Active JP7495445B2 (ja) 2021-06-30 2022-06-30 どのビデオデータユニットが対象ピクチャ・イン・ピクチャ領域を表すかの指示
JP2022105487A Active JP7495446B2 (ja) 2021-06-30 2022-06-30 ピクチャ・イン・ピクチャ領域のサイズ及び位置のシグナリング
JP2022105485A Active JP7490712B2 (ja) 2021-06-30 2022-06-30 ピクチャ・イン・ピクチャ領域内のビデオデータユニットの置換のシグナリング
JP2024083739A Pending JP2024100938A (ja) 2021-06-30 2024-05-23 ピクチャ・イン・ピクチャ領域のサイズ及び位置のシグナリング

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2022105486A Active JP7495445B2 (ja) 2021-06-30 2022-06-30 どのビデオデータユニットが対象ピクチャ・イン・ピクチャ領域を表すかの指示
JP2022105487A Active JP7495446B2 (ja) 2021-06-30 2022-06-30 ピクチャ・イン・ピクチャ領域のサイズ及び位置のシグナリング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024083739A Pending JP2024100938A (ja) 2021-06-30 2024-05-23 ピクチャ・イン・ピクチャ領域のサイズ及び位置のシグナリング

Country Status (5)

Country Link
US (3) US20230018718A1 (ja)
EP (3) EP4114017A1 (ja)
JP (4) JP7495445B2 (ja)
KR (3) KR20230004341A (ja)
CN (3) CN115550720A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118743227A (zh) * 2022-02-17 2024-10-01 字节跳动有限公司 用于视频处理的方法、装置和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190306519A1 (en) 2018-04-03 2019-10-03 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding overlay compositions
US20200107008A1 (en) 2018-10-02 2020-04-02 Lg Electronics Inc. Method and apparatus for overlay processing in 360 video system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4081772B2 (ja) 2005-08-25 2008-04-30 ソニー株式会社 再生装置および再生方法、プログラム、並びにプログラム格納媒体
US8767124B2 (en) * 2010-07-13 2014-07-01 Thomson Licensing Method of picture-in-picture for multimedia applications
CN107087223A (zh) * 2011-01-07 2017-08-22 夏普株式会社 再生装置及其控制方法、以及生成装置及其控制方法
KR101719998B1 (ko) * 2011-12-12 2017-03-27 엘지전자 주식회사 미디어 컨텐트를 수신하는 장치 및 방법
US10951310B2 (en) * 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
WO2016199609A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 情報処理装置および情報処理方法
KR102637023B1 (ko) 2015-11-25 2024-02-16 소니그룹주식회사 수신 장치, 송신 장치, 및 데이터 처리 방법
EP3466079B1 (en) * 2016-05-24 2023-07-12 Nokia Technologies Oy Method and an apparatus and a computer program for encoding media content
ES2963845T3 (es) * 2016-07-14 2024-04-02 Koninklijke Kpn Nv Codificación de vídeo
GB2554877B (en) 2016-10-10 2021-03-31 Canon Kk Methods, devices, and computer programs for improving rendering display during streaming of timed media data
WO2018120294A1 (zh) 2016-12-30 2018-07-05 华为技术有限公司 一种信息的处理方法及装置
US11297298B2 (en) 2018-02-27 2022-04-05 Lg Electronics Inc. Method for transmitting and receiving 360-degree video including camera lens information, and device therefor
US11140380B2 (en) 2018-06-06 2021-10-05 Lg Electronics Inc. Method and apparatus for processing overlay media in 360 degree video system
US10862946B1 (en) 2019-04-05 2020-12-08 Sony Interactive Entertainment LLC Media player supporting streaming protocol libraries for different media applications on a computer system
CA3057924A1 (en) * 2019-10-08 2021-04-08 De La Fuente Sanchez, Alfonso F. System and method to optimize the size of a video recording or video transmission by identifying and recording a region of interest in a higher definition than the rest of the image that is saved or transmitted in a lower definition format
KR102216956B1 (ko) * 2019-11-26 2021-02-19 서울과학기술대학교 산학협력단 다중 시점 영상의 프리로드 시스템 및 방법
JP7407951B2 (ja) * 2020-01-08 2024-01-04 中興通訊股▲ふん▼有限公司 点群データ処理
US20230108426A1 (en) * 2021-10-05 2023-04-06 Tencent America LLC Method and apparatus for dynamic dash picture-in-picture streaming

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190306519A1 (en) 2018-04-03 2019-10-03 Mediatek Singapore Pte. Ltd. Methods and apparatus for encoding and decoding overlay compositions
US20200107008A1 (en) 2018-10-02 2020-04-02 Lg Electronics Inc. Method and apparatus for overlay processing in 360 video system

Also Published As

Publication number Publication date
US20230018718A1 (en) 2023-01-19
CN115550721A (zh) 2022-12-30
EP4114015A1 (en) 2023-01-04
EP4114016A1 (en) 2023-01-04
JP2023008948A (ja) 2023-01-19
JP2024100938A (ja) 2024-07-26
KR20230004338A (ko) 2023-01-06
CN115550722A (zh) 2022-12-30
US20230018200A1 (en) 2023-01-19
JP2023008947A (ja) 2023-01-19
JP7495446B2 (ja) 2024-06-04
CN115550720A (zh) 2022-12-30
JP2023008949A (ja) 2023-01-19
US20230019913A1 (en) 2023-01-19
KR20230004341A (ko) 2023-01-06
KR20230004340A (ko) 2023-01-06
US11985333B2 (en) 2024-05-14
JP7495445B2 (ja) 2024-06-04
EP4114017A1 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP7397036B2 (ja) 映像符号化におけるサブピクチャエンティティ
JP2024100938A (ja) ピクチャ・イン・ピクチャ領域のサイズ及び位置のシグナリング
US20240244303A1 (en) Method, device, and medium for video processing
JP7460693B2 (ja) 事前選択の目的のシグナリング
JP7418489B2 (ja) サブピクチャエンティティグループに対するレベルインジケータ
KR20240049612A (ko) 비디오 처리를 위한 방법, 기기 및 매체
WO2023220006A1 (en) Signaling of picture-in-picture in media files

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240515

R150 Certificate of patent or registration of utility model

Ref document number: 7490712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150