JPWO2016111199A1 - 画像処理装置、画像処理方法、およびプログラム、並びに記録媒体 - Google Patents

画像処理装置、画像処理方法、およびプログラム、並びに記録媒体 Download PDF

Info

Publication number
JPWO2016111199A1
JPWO2016111199A1 JP2016536970A JP2016536970A JPWO2016111199A1 JP WO2016111199 A1 JPWO2016111199 A1 JP WO2016111199A1 JP 2016536970 A JP2016536970 A JP 2016536970A JP 2016536970 A JP2016536970 A JP 2016536970A JP WO2016111199 A1 JPWO2016111199 A1 JP WO2016111199A1
Authority
JP
Japan
Prior art keywords
picture
unit
information
image processing
additional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016536970A
Other languages
English (en)
Other versions
JP6690536B2 (ja
Inventor
遼平 高橋
遼平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016111199A1 publication Critical patent/JPWO2016111199A1/ja
Application granted granted Critical
Publication of JP6690536B2 publication Critical patent/JP6690536B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示は、トリックプレイの粒度の制御を容易に可能にする情報を設定することができるようにする画像処理装置、画像処理方法、およびプログラム、並びに記録媒体に関する。設定部は、ピクチャの参照関係のレイヤを表す参照レイヤ情報を含むピクチャの符号化データのSEI(Supplemental Enhancement Information)を設定する。本開示は、例えば、BD(Blu-ray(登録商標) Disc)規格のHEVC(High Efficiency Video Coding)方式で映像データを符号化する記録装置等に適用することができる。

Description

本開示は、画像処理装置、画像処理方法、およびプログラム、並びに記録媒体に関し、特に、トリックプレイの粒度を容易に制御することができるようにした画像処理装置、画像処理方法、およびプログラム、並びに記録媒体に関する。
現在のBD(Blu-ray(登録商標) Disc)規格では、映像の符号化方式としてAVC(Advanced Video Coding)方式が採用されている(例えば、特許文献1参照)。BD規格のAVC方式では、GOP(Group of Picture)を構成する全てのピクチャの情報をまとめて記述するGOP structure mapを、ES(Elementary Stream)のuser unregistered SEI(Supplemental Enhancement Information)として格納することができる。
ESのSEIとしてGOP structure mapが格納される場合、再生装置は、GOP structure mapを用いて、早送り再生、巻き戻し再生などのトリックプレイを容易に行うことができる。例えば、再生装置は、GOP structure mapに記述される、GOPを構成する各ピクチャのタイプに基づいて、GOP内のIピクチャを認識し、Iピクチャのみをパースすることにより、容易に早送り再生や巻き戻し再生を行うことができる。
一方、現在、BDA(Blu-ray(登録商標) Disc Association)において次世代BD規格策定議論が行われている。次世代BD規格では、映像の符号化方式としてHEVC(High Efficiency Video Coding)方式が新規に採用される予定である。
特開2013−158003号公報
しかしながら、トリックプレイの粒度の制御を容易に可能にする情報をESに設定することは考えられていない。従って、トリックプレイの粒度を容易に制御することはできない。
本開示は、このような状況に鑑みてなされたものであり、トリックプレイの粒度を容易に制御することができるようにするものである。
本開示の第1の側面の画像処理装置は、ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定部を備える画像処理装置である。
本開示の第1の側面の画像処理方法およびプログラムは、本開示の第1の側面の画像処理装置に対応する。
本開示の第1の側面においては、ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報が設定される。
本開示の第2の側面の画像処理装置は、ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択部を備える画像処理装置である。
本開示の第2の側面の画像処理方法およびプログラムは、本開示の第2の側面の画像処理装置に対応する。
本開示の第2の側面においては、ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャが選択される。
本開示の第3の側面の記録媒体は、ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報と、前記符号化データとを含む符号化ストリームが記録され、情報処理装置に装着され、再生される記録媒体であって、前記符号化ストリームを取得した情報処理装置に、前記付加情報に含まれる前記参照レイヤ情報に基づいて、再生対象のピクチャを選択させる記録媒体である。
本開示の第3の側面においては、ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報と、前記符号化データとを含む符号化ストリームが記録され、情報処理装置に装着され、再生される。
本開示の第1の側面によれば、トリックプレイの粒度の制御を容易に可能にする情報を設定することができる。
本開示の第2の側面によれば、トリックプレイの粒度を容易に制御することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した記録再生システムの一実施の形態の構成例を示すブロック図である。 光ディスクに記録されるファイルのディレクトリ構造の例を示す図である。 ファイル生成部の構成例を示すブロック図である。 先頭ピクチャのAUの構成例を示す。 GOP structure mapのシンタックスの例を示す図である。 参照レイヤ情報を説明する図である。 図3の映像符号化部の構成例を示すブロック図である。 図3のファイル生成部のストリームファイル生成処理を説明するフローチャートである。 図8の符号化処理の詳細を説明するフローチャートである。 図8の符号化処理の詳細を説明するフローチャートである。 早送り再生部の構成例を示すブロック図である。 図11の復号部の構成例を示すブロック図である。 図11の早送り再生部の早送り再生処理を説明するフローチャートである。 図13の復号処理の詳細を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:記録再生システム(図1乃至図14)
2.第2実施の形態:コンピュータ(図15)
<第1実施の形態>
(記録再生システムの一実施の形態の構成例)
図1は、本開示を適用した記録再生システムの一実施の形態の構成例を示すブロック図である。
図1の記録再生システムは、記録装置1、再生装置2、および表示装置3から構成される。再生装置2と表示装置3はHDMI(登録商標)(High Definition Multimedia Interface)ケーブル4を介して接続される。再生装置2と表示装置3が他の規格のケーブルを介して接続されるようにしてもよいし、無線による通信を介して接続されるようにしてもよい。
記録装置1は、映像、音声などのコンテンツを記録し、再生装置2は、コンテンツを再生する。記録装置1から再生装置2に対するコンテンツの提供は、記録装置1および再生装置2(情報処理装置)に装着される光ディスク11(記録媒体)を用いて行われる。ここでは、光ディスク11は、BD-ROM(Read Only Memory)フォーマットに準ずるフォーマットで、コンテンツが記録されたディスクである。従って、記録装置1は、例えばコンテンツのオーサが使う装置となる。
光ディスク11は、BD-R,-REなどの他のフォーマットに準ずるフォーマットで、コンテンツが記録されたディスクであってもよい。また、記録装置1から再生装置2に対するコンテンツの提供は、フラッシュメモリを搭載したメモリカードなどの、光ディスク以外のリムーバブルメディアを用いて行われるようにしてもよい。
以下、適宜、記録装置1によってコンテンツが記録された光ディスク11が再生装置2に提供されるものとして説明するが、実際には、記録装置1によりコンテンツが記録されたマスター盤に基づいて光ディスクが複製され、その1つである光ディスク11が再生装置2に提供される。
記録装置1(画像処理装置)に対しては、映像データ、音声データ等が入力される。記録装置1は、これらのデータを符号化してESを生成し、多重化して、1本のTS(Transport Stream)であるAVストリームを生成する。記録装置1は、生成されたAVストリーム等を光ディスク11に記録する。
再生装置2(画像処理装置)は、ドライブを駆動し、光ディスク11に記録されたAVストリームを読み出す。再生装置2は、AVストリームを、映像データのESである映像ストリームと音声データのESである音声ストリームに分離し、復号する。再生装置2は、復号して得られた映像データと音声データを表示装置3に出力する。
表示装置3は、再生装置2から送信された映像データを受信し、その映像データに基づいて、内蔵するモニタに映像を表示する。また、表示装置3は、再生装置2から送信されてきた音声データを受信し、その音声データに基づいて、内蔵するスピーカから音声を出力する。
(光ディスクのディレクトリ構造)
図2は、図1の光ディスク11に記録されるファイルのディレクトリ構造の例を示す図である。
光ディスク11に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク11上には1つのrootディレクトリが作成される。
rootディレクトリの下にはBDMVディレクトリが置かれる。
BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndexファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovie Objectファイルが格納される。
Indexファイルには、例えば、光ディスク11に記録されているタイトルの番号の一覧と、そのタイトルの番号に対応して実行されるオブジェクトの種類および番号が記述される。オブジェクトの種類としては、ムービーオブジェクト(Movie Object)とBD-Jオブジェクト(BD-J Object)の2種類がある。
ムービーオブジェクトは、PlayListの再生等に用いられるコマンドであるナビゲーションコマンドが記述されるオブジェクトである。BD-Jオブジェクトは、BD-Jアプリケーションが記述されるオブジェクトである。Movie Objectファイルには、ムービーオブジェクトが記述される。
BDMVディレクトリの下にはまた、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ等が設けられる。
PLAYLISTディレクトリには、AVストリームの再生を管理するための再生管理情報として用いられるPlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図2の3つのPlayListファイルには、それぞれ、「00000.mpls」、「00002.mpls」、「00003.mpls」のファイル名が設定されている。
CLIPINFディレクトリには、所定の単位のAVストリームに関する情報がClip Informationファイルとして格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図2の3つのClip Informationファイルには、それぞれ、「01000.clpi」、「02000.clpi」、「03000.clpi」のファイル名が設定されている。
STREAMディレクトリには、所定の単位のAVストリームがストリームファイルとして格納される。各ストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図2の3つのストリームファイルには、それぞれ、「01000.m2ts」、「02000.m2ts」、「03000.m2ts」のファイル名が設定されている。
同じ5桁の数字がファイル名に設定されているClip Informationファイルとストリームファイルが1つのClipを構成するファイルとなる。「01000.m2ts」のストリームファイルの再生時には「01000.clpi」のClip Informationファイルが用いられ、「02000.m2ts」のストリームファイルの再生時には「02000.clpi」のClip Informationファイルが用いられる。
(ファイル生成部の構成例)
図3は、図1の記録装置1のうちの、ストリームファイルを生成するファイル生成部の構成例を示すブロック図である。
図3のファイル生成部50は、設定部51、映像符号化部52、NAL(Network Abstraction Layer)化部53、多重化部54、音声符号化部55、およびファイル化部56により構成される。
ファイル生成部50の設定部51は、SPS(Sequence Parameter Set),PPS(Picture Parameter Set),SEI(付加情報)などのパラメータセットを設定する。GOPの先頭のピクチャ(以下、先頭ピクチャという)のSEIの1つには、その先頭ピクチャを含むGOPを構成する全てのピクチャの参照関係のレイヤ(sub-layer)を表す番号である参照レイヤ情報を含むGOP structure mapが格納されている。設定部51は、設定されたパラメータセットを映像符号化部52とNAL化部53に供給する。
映像符号化部52には、映像データがピクチャ単位で入力される。映像符号化部52は、入力された映像データの各ピクチャを、HEVC方式にしたがってCU(Coding Unit)単位で符号化する。このとき、必要に応じて、設定部51から供給されるパラメータセットが用いられる。映像符号化部52は、符号化の結果得られる各ピクチャのスライス単位の符号化データを、NAL化部53に供給する。
NAL化部53は、設定部51から供給されるパラメータセットと映像符号化部52から供給される符号化データをNAL化し、NALヘッダとデータ部とからなるNALユニットを生成する。NAL化部53は、生成されたNALユニットを多重化部54に供給する。
多重化部54は、NAL化部53から供給されるNALユニットを、ピクチャ単位でまとめてAU(Access Unit)を生成する。多重化部54は、1以上のAUからなる映像ストリームを、ファイル化部56に供給する。
音声符号化部55には、音声データが入力される。音声符号化部55は、音声データを符号化し、その結果得られる音声ストリームをファイル化部56に供給する。
ファイル化部56は、多重化部54から供給される映像ストリーム(符号化ストリーム)と音声符号化部55から供給される音声ストリームを多重化して、AVストリームを生成する。ファイル化部56は、生成されたAVストリームをファイル化してストリームファイルを生成し、出力する。このストリームファイルは、光ディスク11に記録される。
(先頭ピクチャのAUの構成例)
図4は、先頭ピクチャのAUの構成例を示す。
図4に示すように、先頭ピクチャのAUの先頭には、AUの境界を示すAU delimiterが1つ配置される。続いて、1つのSPSのNALユニット、1以上のPPSのNALユニット、1以上のSEIのNALユニット、1以上のスライス単位の符号化データのNALユニットが順に配置される。その後、必要に応じてフィラーデータが配置される。そして、先頭ピクチャがシーケンス内の最後のピクチャである場合、シーケンスの終端を示すEnd of sequenceが配置され、先頭ピクチャが映像ストリームの最後のピクチャである場合、映像ストリームの終端を示すEnd of streamが配置される。
また、SEIのNALユニットには、参照レイヤ情報を含むGOP structure mapが格納される。
(GOP structure mapのシンタックスの例)
図5は、GOP structure mapのシンタックスの例を示す図である。
図5に示すように、GOP structure mapには、対応するGOPのピクチャ数であるnumber_of_pictures_in_GOPが記述される。また、GOP structure mapには、対応するGOPを構成するピクチャごとに、1が設定される5ビットのshifting_bits(stuffing_bits)、並びに、そのピクチャのpicture_structure、temporal_id、およびpicture_typeが記述される。
picture_structureは、ピクチャの表示時のフレーム構造を表す3ビットの値である。picture_structureは、例えば、表示時のフレームレートが、映像ストリームのフレームレートと同一であるか、もしくは、映像ストリームのフレームレートの2倍または3倍であるかを表す。
temporal_idは、ピクチャの符号化データのNALヘッダに含まれる、そのピクチャの参照レイヤ情報を表すnuh_temporal_id_plus1から1を減算した3ビットの値である。参照レイヤ情報は、BD規格のAVC方式では採用されておらず、SVC(Scalable Video Coding Extension)方式やHEVC方式で採用されている情報である。
picture_type(ピクチャタイプ情報)は、ピクチャのタイプを表す4ビットの値である。例えば、ピクチャタイプがIピクチャである場合、1000bであり、リファレンスBピクチャである場合、1010bであり、ノンリファレンスBピクチャである場合、0010bであり、Pピクチャである場合1001bである。
(参照レイヤ情報の説明)
図6は、参照レイヤ情報を説明する図である。
なお、図6の例では、参照関係のレイヤの数が3である。また、図6において、横軸は、表示順(Display order)を表し、縦軸は、参照レイヤ情報を表す。正方形はピクチャを表し、正方形の中のアルファベットは、ピクチャタイプを表し、数字は、参照レイヤ情報を表す。矢印は、矢印の先の正方形が表すピクチャが矢印の元のピクチャを参照する参照関係を表す。
図6に示すように、ピクチャは、自分の参照レイヤ情報より大きい参照レイヤ情報のピクチャを参照することはできない。
具体的には、図6の例では、GOPを構成する9つのピクチャのうちの、1つのIピクチャと2つのPピクチャの参照レイヤ情報が0である。また、2つのBピクチャの参照レイヤ情報が1であり、4つのBピクチャの参照レイヤ情報が2である。
従って、参照レイヤ情報が0である1つのIピクチャと2つのPピクチャは、参照レイヤ情報が1または2であるBピクチャを参照することはできない。また、参照レイヤ情報が1である2つのBピクチャは、参照レイヤ情報が2である4つのBピクチャを参照することはできない。
よって、再生装置2は、参照レイヤ情報が閾値以下であるピクチャを選択して復号することにより、参照レイヤ情報が閾値より大きいピクチャを間引いて復号することができる。例えば、再生装置2は、参照レイヤ情報が0以下であるピクチャを選択して復号することにより、参照レイヤ情報が0より大きい6つのBピクチャを間引いて復号することができる。また、再生装置2は、参照レイヤ情報が1以下であるピクチャを選択して復号することにより、参照レイヤ情報が1より大きい4つのBピクチャを間引いて復号することができる。その結果、トリックプレイを行うことができる。
また、再生装置2は、閾値を変更することにより、トリックプレイの粒度を容易に制御することができる。これに対して、picture_typeに基づいてトリックプレイを行う場合、再生装置は、参照関係がわからないため、他のピクチャを参照しないIピクチャのみを選択して再生することしかできない。
さらに、図1の記録再生システムでは、図4および図5に示したように、参照レイヤ情報が、先頭ピクチャのSEIに格納されるGOP structure mapに、その先頭ピクチャを含む1GOP分まとめて記述される。
従って、再生装置2は、GOP structure mapをパースするだけで、GOPを構成する全てのピクチャの参照レイヤ情報を取得することができる。よって、再生装置2は、取得された参照レイヤ情報に基づいて、GOP内の先頭ピクチャ以外のピクチャのうちの、参照レイヤ情報が閾値以下であるピクチャのAUのみをパースし、復号することにより、トリックプレイを容易に行うことができる。
これに対して、1GOP分の参照レイヤ情報が記述されるGOP structure mapが先頭ピクチャのSEIに格納されない場合、GOPを構成する全てのピクチャのAU内の符号化データのNALヘッダをパースしてnuh_temporal_id_plus1を取得し、各ピクチャを復号するかどうかを判定する必要がある。従って、復号対象ではないピクチャのAUも無駄にパースされる。
(映像符号化部の構成例)
図7は、図3の映像符号化部52の構成例を示すブロック図である。
図7の映像符号化部52は、A/D変換部71、画面並べ替えバッファ72、演算部73、直交変換部74、量子化部75、可逆符号化部76、蓄積バッファ77、逆量子化部79、逆直交変換部80、および加算部81を有する。また、映像符号化部52は、フィルタ82、フレームメモリ85、スイッチ86、イントラ予測部87、動き予測・補償部89、予測画像選択部92、およびレート制御部93を有する。
映像符号化部52のA/D変換部71は、入力された各ピクチャのアナログ信号をA/D変換し、変換後の各ピクチャのデジタル信号を画面並べ替えバッファ72に出力して記憶させる。
画面並べ替えバッファ72は、記憶した表示の順番のピクチャを、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ72は、並べ替え後のピクチャを、カレントピクチャとして、演算部73、イントラ予測部87、および動き予測・補償部89に出力する。
演算部73は、画面並べ替えバッファ72から供給されるカレントピクチャから、予測画像選択部92から供給される予測画像を減算することにより、CU単位で符号化を行う。演算部73は、その結果得られるピクチャを、残差情報として直交変換部74に出力する。なお、予測画像選択部92から予測画像が供給されない場合、演算部73は、画面並べ替えバッファ72から読み出されたカレントピクチャをそのまま残差情報として直交変換部74に出力する。
直交変換部74は、演算部73からの残差情報をTU(Transform Unit)単位で直交変換する。直交変換部74は、直交変換の結果得られる直交変換係数を量子化部75に供給する。
量子化部75は、直交変換部74から供給される直交変換係数に対して量子化を行う。量子化部75は、量子化された直交変換係数を可逆符号化部76に供給する。
可逆符号化部76は、最適イントラ予測モードを示すイントラ予測モード情報をイントラ予測部87から取得する。また、可逆符号化部76は、最適インター予測モードを示すインター予測モード情報、参照ピクチャを特定する参照ピクチャ特定情報、動きベクトル情報などを動き予測・補償部89から取得する。さらに、可逆符号化部76は、フィルタ82から適応オフセットフィルタ処理に関するオフセットフィルタ情報を取得する。
可逆符号化部76は、量子化部75から供給される量子化された直交変換係数に対して、可変長符号化(例えば、CAVLC(Context-Adaptive Variable Length Coding)など)、算術符号化(例えば、CABAC(Context-Adaptive Binary Arithmetic Coding)など)などの可逆符号化を行う。
また、可逆符号化部76は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル情報、および参照ピクチャ特定情報、並びにオフセットフィルタ情報等を、符号化に関する符号化情報として可逆符号化する。可逆符号化部76は、可逆符号化された符号化情報などを、スライス単位でスライスヘッダ等に配置する。可逆符号化部76は、可逆符号化されたスライス単位の直交変換係数にスライスヘッダを付加し、スライス単位の符号化データとして蓄積バッファ77に供給する。
蓄積バッファ77は、可逆符号化部76から供給されるスライス単位の符号化データを、一時的に記憶する。また、蓄積バッファ77は、記憶しているスライス単位の符号化データを図3のNAL化部53に供給する。
また、量子化部75より出力された、量子化された直交変換係数は、逆量子化部79にも入力される。逆量子化部79は、量子化部75により量子化された直交変換係数に対して、量子化部75における量子化方法に対応する方法で逆量子化を行う。逆量子化部79は、逆量子化の結果得られる直交変換係数を逆直交変換部80に供給する。
逆直交変換部80は、TU単位で、逆量子化部79から供給される直交変換係数に対して、直交変換部74における直交変換方法に対応する方法で逆直交変換を行う。逆直交変換部80は、その結果得られる残差情報を加算部81に供給する。
加算部81は、逆直交変換部80から供給される残差情報と、予測画像選択部92から供給される予測画像を加算することにより、カレントピクチャをCU単位で局所的に復号する。なお、予測画像選択部92から予測画像が供給されない場合、加算部81は、逆直交変換部80から供給される残差情報を復号結果とする。加算部81は、局所的に復号されたカレントピクチャをフレームメモリ85に供給する。また、加算部81は、全ての領域が復号されたカレントピクチャを、符号化済みのピクチャとしてフィルタ82に供給する。
フィルタ82は、加算部81から供給される符号化済みのピクチャに対して、フィルタ処理を行う。具体的には、フィルタ82は、デブロックフィルタ処理と適応オフセットフィルタ(SAO(Sample adaptive offset))処理を順に行う。フィルタ82は、フィルタ処理後の符号化済みのピクチャをフレームメモリ85に供給する。また、フィルタ82は、行われた適応オフセットフィルタ処理の種類とオフセットを示す情報を、オフセットフィルタ情報として可逆符号化部76に供給する。
フレームメモリ85は、加算部81から供給されるカレントピクチャと、フィルタ82から供給される符号化済みのピクチャを記憶する。カレントピクチャのうちの処理対象のPU(Prediction Unit)であるカレントブロックに隣接する画素は、周辺画素としてスイッチ86を介してイントラ予測部87に供給される。また、符号化済みのピクチャは、参照ピクチャの候補としてスイッチ86を介して動き予測・補償部89に出力される。
イントラ予測部87は、カレントブロックに対して、フレームメモリ85からスイッチ86を介して読み出された周辺画素を用いて、候補となる全てのイントラ予測モードのイントラ予測処理を行う。
また、イントラ予測部87は、画面並べ替えバッファ72から読み出されたカレントピクチャと、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値(詳細は後述する)を算出する。そして、イントラ予測部87は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。
イントラ予測部87は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部92に供給する。イントラ予測部87は、予測画像選択部92から最適イントラ予測モードで生成された予測画像の選択が通知された場合、イントラ予測モード情報を可逆符号化部76に供給する。
なお、コスト関数値は、RD(Rate Distortion)コストともいい、例えば、H.264/AVC方式における参照ソフトウエアであるJM(Joint Model)で定められているような、High Complexity モードまたはLow Complexity モードの手法に基づいて算出される。なお、H.264/AVC方式における参照ソフトウエアは、http://iphome.hhi.de/suehring/tml/index.htmにおいて公開されている。
具体的には、コスト関数値の算出手法としてHigh Complexity モードが採用される場合、候補となる全ての予測モードに対して、仮に復号までが行われ、次の式(1)で表わされるコスト関数値が各予測モードに対して算出される。
Figure 2016111199
Dは、原画像と復号画像の差分(歪)、Rは、直交変換係数まで含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ未定乗数である。
一方、コスト関数値の算出手法としてLow Complexity モードが採用される場合、候補となる全ての予測モードに対して、予測画像の生成、および、符号化情報の符号量の算出が行われ、次の式(2)で表わされるコスト関数Cost(Mode)が各予測モードに対して算出される。
Figure 2016111199
Dは、原画像と予測画像の差分(歪)、Header_Bitは、符号化情報の符号量、QPtoQuantは、量子化パラメータQPの関数として与えられる関数である。
Low Complexity モードにおいては、全ての予測モードに対して、予測画像を生成するだけでよく、復号画像を生成する必要がないため、演算量が少なくて済む。
動き予測・補償部89は、カレントブロックに対して、参照ピクチャの候補を用いて、候補となる全てのインター予測モードの動き予測・補償処理を行う。具体的には、動き予測・補償部89は、画面並べ替えバッファ72からのカレントピクチャと、フレームメモリ85からスイッチ86を介して読み出された参照ピクチャの候補とに基づいて、候補となる全てのインター予測モードのカレントブロックの動きベクトルを検出する。なお、インター予測モードとは、カレントブロックのサイズ等を表すモードである。動き予測・補償部89は、検出された動きベクトルに基づいて参照ピクチャの候補に補償処理を施し、予測画像を生成する。
また、動き予測・補償部89は、画面並べ替えバッファ72から読み出されたカレントピクチャと予測画像とに基づいて、候補となる全てのインター予測モードおよび参照ピクチャに対してコスト関数値を算出する。動き予測・補償部89は、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定し、参照ピクチャの候補を参照ピクチャに決定する。そして、動き予測・補償部89は、コスト関数値の最小値と、対応する予測画像を予測画像選択部92に供給する。
動き予測・補償部89は、予測画像選択部92から最適インター予測モードで生成された予測画像の選択が通知された場合、その予測画像に対応する動きベクトルを表す動きベクトル情報を生成する。そして、動き予測・補償部89は、インター予測モード情報、動きベクトル情報、および参照ピクチャ特定情報を、可逆符号化部76に供給する。
予測画像選択部92は、イントラ予測部87および動き予測・補償部89から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの、対応するコスト関数値が小さい方を、最適予測モードに決定する。そして、予測画像選択部92は、最適予測モードの予測画像を、演算部73および加算部81に供給する。また、予測画像選択部92は、最適予測モードの予測画像の選択をイントラ予測部87または動き予測・補償部89に通知する。
レート制御部93は、蓄積バッファ77に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部75の量子化動作のレートを制御する。
(ファイル生成部の処理の説明)
図8は、図3のファイル生成部50のストリームファイル生成処理を説明するフローチャートである。
図8のステップS11において、ファイル生成部50の設定部51は、GOP structure mapが格納された先頭ピクチャのSEIを含むパラメータセットを設定する。設定部51は、設定されたパラメータセットを映像符号化部52とNAL化部53に供給する。
ステップS12において、映像符号化部52は、外部から入力された映像データの各ピクチャをHEVC方式にしたがってCU単位で符号化する符号化処理を行う。この符号化処理の詳細は、後述する図9および図10を参照して説明する。
ステップS13において、NAL化部53は、設定部51から供給されるパラメータセットと映像符号化部52から供給される符号化データをNAL化し、NALユニットを生成する。NAL化部53は、生成されたNALユニットを多重化部54に供給する。
ステップS14において、多重化部54は、NAL化部53から供給されるNALユニットを、ピクチャ単位でまとめてAUを生成し、1以上のAUからなる映像ストリームを生成する。多重化部54は、映像ストリームをファイル化部56に供給する。
ステップS15において、音声符号化部55は、入力された音声データを符号化し、その結果得られる音声ストリームをファイル化部56に供給する。
ステップS16において、ファイル化部56は、多重化部54から供給される映像ストリームと音声符号化部55から供給される音声ストリームを多重化して、AVストリームを生成する。
ステップS17において、ファイル化部56は、AVストリームをファイル化してストリームファイルを生成し、出力する。このストリームファイルは、光ディスク11に記録される。
図9および図10は、図8のステップS12の符号化処理の詳細を説明するフローチャートである。
図9のステップS31において、映像符号化部52のA/D変換部71(図7)は、入力された各ピクチャのアナログ信号をA/D変換し、変換後の各ピクチャのデジタル信号を画面並べ替えバッファ72に出力して記憶させる。
ステップS32において、画面並べ替えバッファ72は、記憶した表示の順番のピクチャを、GOP構造に応じて、符号化のための順番に並べ替える。画面並べ替えバッファ72は、並べ替え後のピクチャを、カレントピクチャとして、演算部73、イントラ予測部87、および動き予測・補償部89に出力する。
ステップS33において、イントラ予測部87は、カレントブロックに対して、フレームメモリ85からスイッチ86を介して読み出された周辺画素を用いて、候補となる全てのイントラ予測モードのイントラ予測処理を行う。また、イントラ予測部87は、画面並べ替えバッファ72からのカレントピクチャと、イントラ予測処理の結果生成される予測画像とに基づいて、候補となる全てのイントラ予測モードに対してコスト関数値を算出する。そして、イントラ予測部87は、コスト関数値が最小となるイントラ予測モードを、最適イントラ予測モードに決定する。イントラ予測部87は、最適イントラ予測モードで生成された予測画像、および、対応するコスト関数値を、予測画像選択部92に供給する。
また、動き予測・補償部89は、カレントブロックに対して、参照ピクチャの候補を用いて、候補となる全てのインター予測モードの動き予測・補償処理を行う。また、動き予測・補償部89は、画面並べ替えバッファ72からのカレントピクチャと動き予測・補償処理の結果生成される予測画像とに基づいて、候補となる全てのインター予測モードおよび参照ピクチャに対してコスト関数値を算出する。動き予測・補償部89は、コスト関数値が最小となるインター予測モードを最適インター予測モードに決定し、参照ピクチャの候補を参照ピクチャに決定する。そして、動き予測・補償部89は、コスト関数値の最小値と、対応する予測画像を予測画像選択部92に供給する。
ステップS34において、予測画像選択部92は、イントラ予測部87および動き予測・補償部89から供給されるコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちのコスト関数値が最小となる方を、最適予測モードに決定する。そして、予測画像選択部92は、最適予測モードの予測画像を、演算部73および加算部81に供給する。
ステップS35において、予測画像選択部92は、最適予測モードが最適インター予測モードであるかどうかを判定する。ステップS35で最適予測モードが最適インター予測モードであると判定された場合、予測画像選択部92は、最適インター予測モードで生成された予測画像の選択を動き予測・補償部89に通知する。
動き予測・補償部89は、この通知に応じて、予測画像に対応するカレントブロックの動きベクトルを表す動きベクトル情報を生成する。そして、ステップS36において、動き予測・補償部89は、インター予測モード情報、動きベクトル情報、および参照ピクチャ特定情報を可逆符号化部76に供給し、処理をステップS38に進める。
一方、ステップS35で最適予測モードが最適インター予測モードではないと判定された場合、即ち最適予測モードが最適イントラ予測モードである場合、予測画像選択部92は、最適イントラ予測モードで生成された予測画像の選択をイントラ予測部87に通知する。そして、ステップS37において、イントラ予測部87は、イントラ予測モード情報を可逆符号化部76に供給し、処理をステップS38に進める。
ステップS38において、演算部73は、画面並べ替えバッファ72から供給されるカレントピクチャから、予測画像選択部92から供給される予測画像を減算することにより符号化を行う。演算部73は、その結果得られるピクチャを、残差情報として直交変換部74に出力する。
ステップS39において、直交変換部74は、演算部73からの残差情報に対してTU単位で直交変換を施し、その結果得られる直交変換係数を量子化部75に供給する。
ステップS40において、量子化部75は、直交変換部74から供給される直交変換係数を量子化し、量子化された直交変換係数を可逆符号化部76と逆量子化部79に供給する。
図10のステップS41において、逆量子化部79は、量子化部75から供給される量子化された直交変換係数を逆量子化し、その結果得られる直交変換係数を逆直交変換部80に供給する。
ステップS42において、逆直交変換部80は、逆量子化部79から供給される直交変換係数に対してTU単位で逆直交変換を施し、その結果得られる残差情報を加算部81に供給する。
ステップS43において、加算部81は、逆直交変換部80から供給される残差情報と、予測画像選択部92から供給される予測画像を加算し、カレントピクチャを局所的に復号する。加算部81は、局所的に復号されたカレントピクチャをフレームメモリ85に供給する。また、加算部81は、全ての領域が復号されたカレントピクチャを符号化済みのピクチャとしてフィルタ82に供給する。
ステップS44において、フィルタ82は、加算部81から供給される符号化済みのピクチャに対して、デブロックフィルタ処理を行う。
ステップS45において、フィルタ82は、デブロックフィルタ処理後の符号化済みのピクチャに対して、LCU(Largest Coding Unit)ごとに適応オフセットフィルタ処理を行う。フィルタ82は、その結果得られる符号化済みのピクチャをフレームメモリ85に供給する。また、フィルタ82は、LCUごとに、オフセットフィルタ情報を可逆符号化部76に供給する。
ステップS46において、フレームメモリ85は、加算部81から供給されるカレントピクチャと、フィルタ82から供給される符号化済みのピクチャを記憶する。カレントピクチャのうちのカレントブロックに隣接する画素は、周辺画素としてスイッチ86を介してイントラ予測部87に供給される。また、符号化済みのピクチャは、参照ピクチャの候補としてスイッチ86を介して動き予測・補償部89に出力される。
ステップS47において、可逆符号化部76は、イントラ予測モード情報、または、インター予測モード情報、動きベクトル情報、および参照ピクチャ特定情報、並びにオフセットフィルタ情報を、符号化情報として可逆符号化する。
ステップS48において、可逆符号化部76は、量子化部75から供給される量子化された直交変換係数を可逆符号化する。そして、可逆符号化部76は、ステップS47の処理で可逆符号化された符号化情報をスライス単位でスライスヘッダに配置し、可逆符号化されたスライス単位の直交変換係数に付加することにより、スライス単位の符号化データを生成する。可逆符号化部76は、スライス単位の符号化データを蓄積バッファ77に供給する。
ステップS49において、蓄積バッファ77は、可逆符号化部76から供給されるスライス単位の符号化データを、一時的に蓄積する。
ステップS50において、レート制御部93は、蓄積バッファ77に蓄積された符号化データに基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部75の量子化動作のレートを制御する。
ステップS51において、蓄積バッファ77は、記憶しているスライス単位の符号化データを、図3のNAL化部53に出力する。そして、処理は、図8のステップS12に戻り、ステップS13に進む。
なお、図9および図10の符号化処理では、説明を簡単化するため、常に、イントラ予測処理と動き予測・補償処理が行われるようにしたが、実際には、ピクチャタイプ等によっていずれか一方のみが行われる場合もある。
以上のように、ファイル生成部50は、参照レイヤ情報を含むSEIを設定する。従って、再生装置2は、SEIに含まれる参照レイヤ情報に基づいて、参照レイヤ情報が閾値以下であるピクチャの符号化データ以外の符号化データをパースすることなく、容易にトリックプレイを行うことができる。
また、再生装置2は、この閾値を変更することにより、SEIに含まれる参照レイヤ情報に基づいて、トリックプレイの粒度を容易に制御することができる。よって、ファイル生成部50は、トリックプレイの粒度の制御を容易に可能にする情報を設定することができるといえる。
(早送り再生部の構成例)
図11は、図1の再生装置2のうちの、光ディスク11に記録されているストリームファイルの映像ストリームを早送り再生する早送り再生部の構成例を示すブロック図である。
図11の早送り再生部110は、読み出し部111、分離部112、抽出部113、選択部114、および復号部115により構成される。
早送り再生部110の読み出し部111は、光ディスク11にストリームファイルとして格納されているAVストリームのうちの、先頭ピクチャのAUを読み出す。また、読み出し部111は、光ディスク11にストリームファイルとして格納されているAVストリームのうちの、選択部114から供給される選択ピクチャ情報が表すピクチャのAUを読み出す。読み出し部111は、読み出されたAUを分離部112に供給する。
分離部112は、読み出し部111から供給されるAUを受け取る。分離部112は、AUを構成する各NALユニットを分離し、抽出部113に供給する。
抽出部113は、分離部112から供給されるNALユニットから、パラメータセットとスライス単位の符号化データを抽出し、復号部115に供給する。また、抽出部113は、パラメータセットのうちの先頭ピクチャのSEIに格納されるGOP structure mapを、選択部114に供給する。
選択部114は、抽出部113から供給されるGOP structure mapに基づいて、早送り再生の対象とする先頭ピクチャ以外のピクチャを選択する。具体的には、選択部114は、GOP structure mapに記述されるGOPを構成する各ピクチャの参照レイヤ情報に基づいて、参照レイヤ情報が閾値以下である先頭ピクチャ以外のピクチャを選択する。この閾値は、例えば、ユーザにより指定された早送り再生の粒度に基づいて決定される。選択部114は、選択されたピクチャを表す選択ピクチャ情報を読み出し部111に供給する。
復号部115は、抽出部113から供給されるスライス単位の符号化データを、HEVC方式にしたがってCU単位で復号する。このとき、復号部115は、必要に応じて、抽出部113から供給されるパラメータセットも参照する。復号部115は、復号の結果得られるピクチャを、図1の表示装置3に出力する。
(復号部の構成例)
図12は、図11の復号部115の構成例を示すブロック図である。
図12の復号部115は、蓄積バッファ131、可逆復号部132、逆量子化部133、逆直交変換部134、加算部135、フィルタ136、および画面並べ替えバッファ139を有する。また、復号部115は、D/A変換部140、フレームメモリ141、スイッチ142、イントラ予測部143、動き補償部147、およびスイッチ148を有する。
復号部115の蓄積バッファ131は、図11の抽出部113からスライス単位の符号化データを受け取り、蓄積する。蓄積バッファ131は、蓄積されているピクチャ単位の符号化データを、カレントピクチャの符号化データとして可逆復号部132に供給する。
可逆復号部132は、蓄積バッファ131からの符号化データに対して、図7の可逆符号化部76の可逆符号化に対応する、可変長復号や算術復号等の可逆復号を施すことで、量子化された直交変換係数と符号化情報を得る。可逆復号部132は、量子化された直交変換係数を逆量子化部133に供給する。また、可逆復号部132は、符号化情報としてのイントラ予測モード情報などをイントラ予測部143に供給する。可逆復号部132は、参照ピクチャ特定情報、動きベクトル情報、およびインター予測モード情報を動き補償部147に供給する。
さらに、可逆復号部132は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ148に供給する。可逆復号部132は、符号化情報としてのオフセットフィルタ情報をフィルタ136に供給する。
逆量子化部133、逆直交変換部134、加算部135、フィルタ136、フレームメモリ141、スイッチ142、イントラ予測部143、動き補償部147は、図7の逆量子化部79、逆直交変換部80、加算部81、フィルタ82、フレームメモリ85、スイッチ86、イントラ予測部87、動き予測・補償部89とそれぞれ同様の処理を行い、これにより、ピクチャがCU単位で復号される。
具体的には、逆量子化部133は、可逆復号部132からの量子化された直交変換係数を逆量子化し、その結果得られる直交変換係数を逆直交変換部134に供給する。
逆直交変換部134は、逆量子化部133からの直交変換係数に対してTU単位で逆直交変換を行う。逆直交変換部134は、逆直交変換の結果得られる残差情報を加算部135に供給する。
加算部135は、逆直交変換部134から供給される残差情報と、スイッチ148から供給される予測画像を加算することにより、カレントピクチャをCU単位で局所的に復号する。なお、スイッチ148から予測画像が供給されない場合、加算部135は、逆直交変換部134から供給される残差情報を復号結果とする。加算部135は、復号の結果得られる局所的に復号されたカレントピクチャをフレームメモリ141に供給する。また、加算部135は、全ての領域が復号されたカレントピクチャを復号済みのピクチャとしてフィルタ136に供給する。
フィルタ136は、加算部135から供給される復号済みのピクチャに対してフィルタ処理を行う。具体的には、フィルタ136は、まず、復号済みのピクチャに対してデブロックフィルタ処理を行う。次に、フィルタ136は、LCUごとに、可逆復号部132からのオフセットフィルタ情報が表すオフセットを用いて、デブロックフィルタ処理後の復号済みのピクチャに対して、オフセットフィルタ情報が表す種類の適応オフセットフィルタ処理を行う。フィルタ136は、適応オフセットフィルタ処理後の復号済みのピクチャをフレームメモリ141および画面並べ替えバッファ139に供給する。
画面並べ替えバッファ139は、フィルタ136から供給される復号済みのピクチャを記憶する。画面並べ替えバッファ139は、記憶した符号化のための順番の復号済みのピクチャを、元の表示の順番に並び替え、D/A変換部140に供給する。
D/A変換部140は、画面並べ替えバッファ139から供給されるフレーム単位の復号済みのピクチャをD/A変換し、図1の表示装置3に出力する。
フレームメモリ141は、加算部135から供給されるカレントピクチャと、フィルタ136から供給される復号済みのピクチャを記憶する。カレントピクチャのうちのカレントブロックに隣接する画素は、周辺画素としてスイッチ142を介してイントラ予測部143に供給される。また、復号済みのピクチャは、参照ピクチャとしてスイッチ142を介して動き補償部147に出力される。
イントラ予測部143は、カレントブロックに対して、フレームメモリ141からスイッチ142を介して読み出された周辺画素を用いて、可逆復号部132から供給されるイントラ予測モード情報が示す最適イントラ予測モードのイントラ予測処理を行う。イントラ予測部143は、その結果生成される予測画像をスイッチ148に供給する。
動き補償部147は、可逆復号部132からのインター予測モード情報、参照ピクチャ特定情報、および動きベクトル情報に基づいて、カレントブロックに対して動き補償処理を行う。
具体的には、動き補償部147は、参照ピクチャ特定情報で特定される参照ピクチャを、フレームメモリ141からスイッチ142を介して読み出す。動き補償部147は、参照ピクチャと動きベクトル情報が表す動きベクトルとを用いて、インター予測モード情報が示す最適インター予測モードのカレントブロックの動き補償処理を行う。動き補償部147は、その結果生成される予測画像をスイッチ148に供給する。
スイッチ148は、可逆復号部132からイントラ予測モード情報が供給された場合、イントラ予測部143から供給される予測画像を加算部135に供給する。一方、可逆復号部132からインター予測モード情報が供給された場合、スイッチ148は、動き補償部147から供給される予測画像を加算部135に供給する。
(早送り再生部の処理の説明)
図13は、図11の早送り再生部110の早送り再生処理を説明するフローチャートである。この早送り再生処理は、GOP単位で行われる。
図13のステップS111において、早送り再生部110の読み出し部111は、光ディスク11にストリームファイルとして格納されているAVストリームのうちの、先頭ピクチャのAUを読み出し、分離部112に供給する。
ステップS112において、分離部112は、読み出し部111から供給されるAUを構成する各NALユニットを分離し、抽出部113に供給する。
ステップS113において、抽出部113は、分離部112から供給されるNALユニットから、パラメータセットとスライス単位の符号化データを抽出し、復号部115に供給する。
ステップS114において、早送り再生部110は、読み出し部111により読み出されたAUが、先頭ピクチャのAUであるかどうかを判定する。ステップS114で、読み出されたAUが先頭ピクチャのAUであると判定された場合、処理はステップS115に進む。
ステップS115において、抽出部113は、ステップS113で抽出されたパラメータセットのうちの先頭ピクチャのSEIに格納されるGOP structure mapを、選択部114に供給する。
ステップS116において、選択部114は、抽出部113から供給されるGOP structure mapに基づいて、早送り再生の対象とする先頭ピクチャ以外のピクチャを選択する。選択部114は、選択されたピクチャを表す選択ピクチャ情報を読み出し部111に供給し、処理をステップS117に進める。
一方、ステップS114で、読み出されたAUが先頭ピクチャのAUではないと判定された場合、即ち、読み出されたAUが、GOP structure mapを含まない先頭ピクチャ以外のピクチャのAUである場合、ステップS115およびS116の処理は行われない。そして、処理はステップS117に進む。
ステップS117において、復号部115は、必要に応じて抽出部113から供給されるパラメータセットを用いて、抽出部113から供給されるスライス単位の符号化データをHEVC方式にしたがってCU単位で復号する復号処理を行う。この復号処理の詳細は、後述する図14を参照して説明する。
ステップS118において、読み出し部111は、選択ピクチャ情報が表す全てのピクチャのAUを読み出したかどうかを判定する。ステップS118で、まだ選択ピクチャ情報が表す全てのピクチャのAUを読み出していないと判定された場合、処理はステップS119に進む。
ステップS119において、読み出し部111は、光ディスク11にストリームファイルとして格納されているAVストリームのうちの、選択ピクチャ情報が表すピクチャのAUのうちの、まだ読み出されていないAUを読み出す。そして、処理はステップS112に戻り、選択ピクチャ情報が表す全てのピクチャのAUが読み出されるまで、ステップS112乃至S119の処理が繰り返される。
一方、ステップS118で、選択ピクチャ情報が表す全てのピクチャのAUを読み出したと判定された場合、処理は終了する。
図14は、図13のステップS117の復号処理の詳細を説明するフローチャートである。
図14のステップS131において、復号部115の蓄積バッファ131(図12)は、図11の抽出部113からスライス単位の符号化データを受け取り、蓄積する。蓄積バッファ131は、蓄積されているピクチャ単位の符号化データを、カレントピクチャの符号化データとして可逆復号部132に供給する。
ステップS132において、可逆復号部132は、蓄積バッファ131からの符号化データを可逆復号し、量子化された直交変換係数と符号化情報を得る。可逆復号部132は、量子化された直交変換係数を逆量子化部133に供給する。
また、可逆復号部132は、符号化情報としてのイントラ予測モード情報などをイントラ予測部143に供給する。可逆復号部132は、参照ピクチャ特定情報、動きベクトル情報、およびインター予測モード情報を動き補償部147に供給する。
さらに、可逆復号部132は、符号化情報としてのイントラ予測モード情報またはインター予測モード情報をスイッチ148に供給する。可逆復号部132は、符号化情報としてのオフセットフィルタ情報をフィルタ136に供給する。
ステップS133において、逆量子化部133は、可逆復号部132からの量子化された直交変換係数を逆量子化し、その結果得られる直交変換係数を逆直交変換部134に供給する。
ステップS134において、逆直交変換部134は、逆量子化部133からの直交変換係数に対して逆直交変換を施し、その結果得られる残差情報を加算部135に供給する。
ステップS135において、動き補償部147は、可逆復号部132からインター予測モード情報が供給されたかどうかを判定する。ステップS135でインター予測モード情報が供給されたと判定された場合、処理はステップS136に進む。
ステップS136において、動き補償部147は、可逆復号部132からのインター予測モード情報、参照ピクチャ特定情報、および動きベクトル情報に基づいて、カレントブロックに対して動き補償処理を行う。動き補償部147は、その結果生成される予測画像を、スイッチ148を介して加算部135に供給し、処理をステップS138に進める。
一方、ステップS135でインター予測モード情報が供給されていないと判定された場合、即ちイントラ予測モード情報がイントラ予測部143に供給された場合、処理はステップS137に進む。
ステップS137において、イントラ予測部143は、カレントブロックに対して、フレームメモリ141からスイッチ142を介して読み出された周辺画素を用いて、イントラ予測モード情報が示す最適イントラ予測モードのイントラ予測処理を行う。イントラ予測部143は、イントラ予測処理の結果生成される予測画像を、スイッチ148を介して加算部135に供給し、処理をステップS138に進める。
ステップS138において、加算部135は、逆直交変換部134から供給される残差情報と、スイッチ148から供給される予測画像を加算することにより、カレントピクチャを局所的に復号する。加算部135は、復号の結果得られる局所的に復号されたカレントピクチャをフレームメモリ141に供給する。また、加算部135は、全ての領域が復号されたカレントピクチャを復号済みのピクチャとしてフィルタ136に供給する。
ステップS139において、フィルタ136は、加算部135から供給される復号済みのピクチャに対してデブロックフィルタ処理を行い、ブロック歪を除去する。
ステップS140において、フィルタ136は、可逆復号部132から供給されるオフセットフィルタ情報に基づいて、デブロックフィルタ処理後の復号済みのピクチャに対して、LCUごとに適応オフセットフィルタ処理を行う。フィルタ136は、適応オフセットフィルタ処理後の画像を、画面並べ替えバッファ139とフレームメモリ141に供給する。
ステップS141において、フレームメモリ141は、加算部81から供給されるカレントピクチャと、フィルタ136から供給される復号済みのピクチャとを記憶する。カレントピクチャのうちのカレントブロックに隣接する画素は、周辺画素としてスイッチ142を介してイントラ予測部143に供給される。また、復号済みのピクチャは、参照ピクチャとしてスイッチ142を介して動き補償部147に出力される。
ステップS142において、画面並べ替えバッファ139は、フィルタ136から供給される復号済みのピクチャを記憶し、記憶した符号化のための順番のピクチャを、元の表示の順番に並び替え、D/A変換部140に供給する。
ステップS143において、D/A変換部140は、画面並べ替えバッファ139から供給されるピクチャをD/A変換し、図1の表示装置3に出力する。そして、処理は、図13のステップS117に戻り、ステップS118に進む。
以上のように、早送り再生部110は、SEIに含まれる参照レイヤ情報に基づいて、早送り再生の対象とするピクチャを選択する。従って、早送り再生部110は、選択されたピクチャの符号化データ以外の符号化データをパースすることなく、容易に早送り再生を行うことができる。また、早送り再生部110は、選択するピクチャに対応する参照レイヤ情報の閾値を変更することにより、SEIに含まれる参照レイヤ情報に基づいて、早送り再生の粒度を容易に制御することができる。
ここでは、再生装置2の早送り再生部110についてのみ説明したが、再生装置2のうちの、映像ストリームに対して巻き戻し再生などの他のトリックプレイを行う部も、表示装置3へのピクチャの出力順序が異なる点などを除いて、早送り再生部110と同様である。
例えば、巻き戻し再生を行う巻き戻し再生部は、早送り再生部110と同様に、参照レイヤ情報に基づいて巻き戻し再生の対象とするピクチャを選択して復号し、復号の結果得られる表示の順番のピクチャを逆順に出力する。
また、第1実施の形態では、再生装置2が、参照レイヤ情報に基づいてトリックプレイを行うようにしたが、光ディスク11に記録されている映像ストリームのフレームレートより低いフレームレートでの再生を行うようにしてもよい。この場合、再生装置2は、参照レイヤ情報に基づいて選択されたピクチャを、全てのピクチャを復号するときと同一の時間で復号すればよい。従って、再生装置2の処理負荷が軽減し、再生装置2の処理能力が低い場合であっても復号を行うことができる。
さらに、第1実施の形態では、先頭ピクチャが必ず再生されるようにしたが、先頭ピクチャの参照レイヤ情報が閾値より大きい場合、先頭ピクチャは再生されないようにしてもよい。
<第2実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書では、参照レイヤ情報が、符号化データに多重化されて、符号化側から復号側へ伝送される例について説明した。しかしながら、参照レイヤ情報を伝送する手法はかかる例に限定されない。例えば、参照レイヤ情報は、符号化データに多重化されることなく、符号化データと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、映像ストリームに含まれるピクチャ(スライスやブロックなど、ピクチャの一部であってもよい)と当該ピクチャに対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、参照レイヤ情報は、符号化データとは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、参照レイヤ情報と符号化データとは、例えば、複数ピクチャ、1ピクチャ、又はピクチャ内の一部分などの任意の単位で互いに関連付けられてよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、コンテンツの提供は、放送波やネットワークを介して行われるようにすることもできる。この場合、本開示は、放送波を受信するセットトップボックスやテレビジョン受像機、ネットワークを介してデータを送受信するパーソナルコンピュータなどに適用することができる。
また、例えば、参照レイヤ情報は、GOP structure map以外のSEIに格納される情報に含まれるようにしてもよい。参照レイヤ情報は、先頭ピクチャ以外のピクチャのSEIや、SEI以外のパラメータセットに格納されるようにしてもよい。
さらに、例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本開示は、以下のような構成もとることができる。
(1)
ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定部
を備える画像処理装置。
(2)
前記付加情報は、前記ピクチャを含むGOP(Group of Picture)を構成する全てのピクチャの参照レイヤ情報を含む
ように構成された
前記(1)に記載の画像処理装置。
(3)
前記付加情報は、前記GOPの先頭のピクチャの符号化データの付加情報である
ように構成された
前記(2)に記載の画像処理装置。
(4)
前記付加情報は、前記ピクチャのタイプを表すピクチャタイプ情報を含む
ように構成された
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記ピクチャの符号化方式はHEVC方式(High Efficiency Video Coding)であり、
前記付加情報は、SEI(Supplemental Enhancement Information)である
ように構成された
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
画像処理装置が、
ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定ステップ
を含む画像処理方法。
(7)
コンピュータを、
ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定部
として機能させるためのプログラム。
(8)
ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択部
を備える画像処理装置。
(9)
前記付加情報は、前記ピクチャを含むGOP(Group of Picture)を構成する全てのピクチャの参照レイヤ情報を含む
ように構成された
前記(8)に記載の画像処理装置。
(10)
前記付加情報は、前記GOPの先頭のピクチャの符号化データの付加情報である
ように構成された
前記(9)に記載の画像処理装置。
(11)
前記付加情報は、前記ピクチャのタイプを表すピクチャタイプ情報を含む
ように構成された
前記(8)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記ピクチャの符号化方式はHEVC方式(High Efficiency Video Coding)であり、
前記付加情報は、SEI(Supplemental Enhancement Information)である
ように構成された
前記(8)乃至(11)のいずれかに記載の画像処理装置。
(13)
前記選択部により選択された前記再生対象のピクチャの符号化データを復号する復号部
をさらに備える
前記(8)乃至(12)のいずれかに記載の画像処理装置。
(14)
画像処理装置が、
ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択ステップ
を含む画像処理方法。
(15)
コンピュータを、
ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択部
として機能させるためのプログラム。
(16)
ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報と、前記符号化データとを含む符号化ストリームが記録され、情報処理装置に装着され、再生される記録媒体であって、
前記符号化ストリームを取得した情報処理装置に、前記付加情報に含まれる前記参照レイヤ情報に基づいて、再生対象のピクチャを選択させる
記録媒体。
1 記録装置, 2 再生装置, 11 光ディスク, 51 設定部, 114 選択部, 115 復号部

Claims (16)

  1. ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定部
    を備える画像処理装置。
  2. 前記付加情報は、前記ピクチャを含むGOP(Group of Picture)を構成する全てのピクチャの参照レイヤ情報を含む
    ように構成された
    請求項1に記載の画像処理装置。
  3. 前記付加情報は、前記GOPの先頭のピクチャの符号化データの付加情報である
    ように構成された
    請求項2に記載の画像処理装置。
  4. 前記付加情報は、前記ピクチャのタイプを表すピクチャタイプ情報を含む
    ように構成された
    請求項1に記載の画像処理装置。
  5. 前記ピクチャの符号化方式はHEVC方式(High Efficiency Video Coding)であり、
    前記付加情報は、SEI(Supplemental Enhancement Information)である
    ように構成された
    請求項1に記載の画像処理装置。
  6. 画像処理装置が、
    ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定ステップ
    を含む画像処理方法。
  7. コンピュータを、
    ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報を設定する設定部
    として機能させるためのプログラム。
  8. ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択部
    を備える画像処理装置。
  9. 前記付加情報は、前記ピクチャを含むGOP(Group of Picture)を構成する全てのピクチャの参照レイヤ情報を含む
    ように構成された
    請求項8に記載の画像処理装置。
  10. 前記付加情報は、前記GOPの先頭のピクチャの符号化データの付加情報である
    ように構成された
    請求項9に記載の画像処理装置。
  11. 前記付加情報は、前記ピクチャのタイプを表すピクチャタイプ情報を含む
    ように構成された
    請求項8に記載の画像処理装置。
  12. 前記ピクチャの符号化方式はHEVC方式(High Efficiency Video Coding)であり、
    前記付加情報は、SEI(Supplemental Enhancement Information)である
    ように構成された
    請求項8に記載の画像処理装置。
  13. 前記選択部により選択された前記再生対象のピクチャの符号化データを復号する復号部
    をさらに備える
    請求項8に記載の画像処理装置。
  14. 画像処理装置が、
    ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択ステップ
    を含む画像処理方法。
  15. コンピュータを、
    ピクチャの符号化データの付加情報に含まれる、前記ピクチャの参照関係のレイヤを表す参照レイヤ情報に基づいて、再生対象のピクチャを選択する選択部
    として機能させるためのプログラム。
  16. ピクチャの参照関係のレイヤを表す参照レイヤ情報を含む前記ピクチャの符号化データの付加情報と、前記符号化データとを含む符号化ストリームが記録され、情報処理装置に装着され、再生される記録媒体であって、
    前記符号化ストリームを取得した情報処理装置に、前記付加情報に含まれる前記参照レイヤ情報に基づいて、再生対象のピクチャを選択させる
    記録媒体。
JP2016536970A 2015-01-09 2015-12-25 画像処理装置、画像処理方法、およびプログラム Expired - Fee Related JP6690536B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015002890 2015-01-09
JP2015002890 2015-01-09
PCT/JP2015/086202 WO2016111199A1 (ja) 2015-01-09 2015-12-25 画像処理装置、画像処理方法、およびプログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2016111199A1 true JPWO2016111199A1 (ja) 2017-10-19
JP6690536B2 JP6690536B2 (ja) 2020-04-28

Family

ID=56358129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016536970A Expired - Fee Related JP6690536B2 (ja) 2015-01-09 2015-12-25 画像処理装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US10390047B2 (ja)
EP (1) EP3244615A4 (ja)
JP (1) JP6690536B2 (ja)
CN (1) CN106105221B (ja)
WO (1) WO2016111199A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113950842A (zh) 2019-06-20 2022-01-18 索尼半导体解决方案公司 图像处理装置和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006003814A1 (ja) * 2004-07-01 2006-01-12 Mitsubishi Denki Kabushiki Kaisha ランダムアクセス可能な映像情報記録媒体、及び記録方法、及び再生装置及び再生方法
JP2010263614A (ja) * 2009-04-08 2010-11-18 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録媒体
WO2012096806A1 (en) * 2011-01-14 2012-07-19 Vidyo, Inc. High layer syntax for temporal scalability

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1969549B (zh) * 2004-04-16 2010-10-06 松下电器产业株式会社 记录方法,重放装置以及执行重放的方法
DE602005016663D1 (de) * 2004-04-28 2009-10-29 Panasonic Corp Stream-erzeugungsvorrichtung für bewegliche bilder, codierungsvorrichtung für bewegliche bilder, multiplex-vorrichtung für bewegliche bilder und decodierungsvorrichtung für bewegliche bilder
EP1827023A1 (en) 2006-02-27 2007-08-29 THOMSON Licensing Method and apparatus for packet loss detection and virtual packet generation at SVC decoders
EP3197155A1 (en) * 2008-07-20 2017-07-26 Dolby Laboratories Licensing Corp. Compatible stereoscopic video delivery
KR20120015443A (ko) * 2009-04-13 2012-02-21 리얼디 인크. 향상된 해상도의 스테레오스코픽 비디오의 엔코딩, 디코딩 및 배포
RU2554465C2 (ru) * 2009-07-27 2015-06-27 Конинклейке Филипс Электроникс Н.В. Комбинирование 3d видео и вспомогательных данных
US9025933B2 (en) 2010-02-12 2015-05-05 Sony Corporation Information processing device, information processing method, playback device, playback method, program and recording medium
US20110211634A1 (en) * 2010-02-22 2011-09-01 Richard Edwin Goedeken Method and apparatus for offset metadata insertion in multi-view coded view
US8724710B2 (en) * 2010-02-24 2014-05-13 Thomson Licensing Method and apparatus for video encoding with hypothetical reference decoder compliant bit allocation
US9131033B2 (en) * 2010-07-20 2015-09-08 Qualcomm Incoporated Providing sequence data sets for streaming video data
MX2013002134A (es) * 2010-09-03 2013-04-03 Sony Corp Dispositivo y metodo de procesamiento de imagenes.
WO2012091640A1 (en) * 2010-12-27 2012-07-05 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for processing of encoded video
US9451252B2 (en) * 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
US20130308926A1 (en) * 2012-05-17 2013-11-21 Gangneung-Wonju National University Industry Academy Cooperation Group Recording medium, reproducing device for performing trick play for data of the recording medium, and method thereof
US20140079116A1 (en) * 2012-09-20 2014-03-20 Qualcomm Incorporated Indication of interlaced video data for video coding
CN104904202A (zh) * 2012-09-28 2015-09-09 三星电子株式会社 用于使用参考画面信息进行并行视频编码的方法和设备以及用于使用参考画面信息进行并行视频解码的方法和设备
US9294776B2 (en) * 2013-03-05 2016-03-22 Qualcomm Incorporated Parallel processing for video coding
CN105960804B (zh) * 2014-02-03 2019-10-08 Lg电子株式会社 用于提供特技播放服务的信号发送、接收方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006003814A1 (ja) * 2004-07-01 2006-01-12 Mitsubishi Denki Kabushiki Kaisha ランダムアクセス可能な映像情報記録媒体、及び記録方法、及び再生装置及び再生方法
JP2010263614A (ja) * 2009-04-08 2010-11-18 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録媒体
WO2012096806A1 (en) * 2011-01-14 2012-07-19 Vidyo, Inc. High layer syntax for temporal scalability

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JILL BOYCE ET AL.: "Extensible High Layer Syntax for Scalability", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-E279_r3, JPN6016006085, March 2011 (2011-03-01), pages 1 - 10, ISSN: 0004178074 *
JILL BOYCE ET AL.: "High layer syntax to improve support for temporal scalability", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-D200, JPN6016006084, January 2011 (2011-01-01), pages 1 - 14, ISSN: 0004178073 *
MISKA M. HANNUKSELA AND SRIKANTH MANCHENAHALLY GOPALAKRISHNA: "Indication of the temporal structure of coded video sequences", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-H0423r3, JPN6016006087, February 2012 (2012-02-01), pages 1 - 5, ISSN: 0004178075 *

Also Published As

Publication number Publication date
JP6690536B2 (ja) 2020-04-28
CN106105221B (zh) 2021-05-04
WO2016111199A1 (ja) 2016-07-14
EP3244615A1 (en) 2017-11-15
US10390047B2 (en) 2019-08-20
US20170302964A1 (en) 2017-10-19
CN106105221A (zh) 2016-11-09
EP3244615A4 (en) 2018-06-20

Similar Documents

Publication Publication Date Title
CN107018424B (zh) 图像处理装置和图像处理方法
US20230370629A1 (en) Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US10764574B2 (en) Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus
TWI694715B (zh) 資訊處理設備及資訊處理方法
EP2476256B1 (en) Video editing and reformating for digital video recorder
EP3606066A1 (en) Image processing device and method
JP7354260B2 (ja) Mrl基盤のイントラ予測を実行する映像コーディング方法及び装置
RU2690439C2 (ru) Устройство и способ кодирования изображений и устройство и способ декодирования изображений
EA035924B1 (ru) Устройство и способ для обработки многослойных видеоданных
JPWO2015137432A1 (ja) 画像復号装置、及び画像復号方法
US20120328207A1 (en) Image decoding method and image coding method
JP7450747B2 (ja) 混成nalユニットタイプに基づく画像符号化/復号化方法及び装置、並びにビットストリームを伝送する方法
JP2015195543A (ja) 画像復号装置、画像符号化装置
US10728561B2 (en) Image encoding method and image encoding apparatus
TWI789661B (zh) 用於虛擬參考解碼器和輸出層集的視頻資料流、視頻編碼器、裝置及方法
EP4117290A1 (en) Mixed nal unit type-based image encoding/decoding method and device, and method for transmitting bitstream
JP6690536B2 (ja) 画像処理装置、画像処理方法、およびプログラム
RU2806784C1 (ru) Способ и устройство кодирования/декодирования изображений на основе смешанного типа nal-единицы и способ для передачи потока битов
RU2812029C2 (ru) Способ и устройство кодирования/декодирования изображений на основе смешанного типа nal-единицы и способ для передачи потока битов
CN114747215B (zh) 调色板编码或变换单元的基于量化参数信息的图像或视频编码
JP7492023B2 (ja) 混成nalユニットタイプに基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存する記録媒体
KR20230017236A (ko) 픽처 출력 관련 정보 기반 영상 또는 비디오 코딩
KR20220070533A (ko) 인코더, 디코더 및 대응하는 방법
WO2013154029A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
AU2014277749A1 (en) Video editing and reformatting for digital video recorder

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20160606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R151 Written notification of patent or utility model registration

Ref document number: 6690536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees