JPWO2019017327A1 - 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが格納された記録媒体 - Google Patents

動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが格納された記録媒体 Download PDF

Info

Publication number
JPWO2019017327A1
JPWO2019017327A1 JP2019531032A JP2019531032A JPWO2019017327A1 JP WO2019017327 A1 JPWO2019017327 A1 JP WO2019017327A1 JP 2019531032 A JP2019531032 A JP 2019531032A JP 2019531032 A JP2019531032 A JP 2019531032A JP WO2019017327 A1 JPWO2019017327 A1 JP WO2019017327A1
Authority
JP
Japan
Prior art keywords
frame
image
encoding
target
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019531032A
Other languages
English (en)
Other versions
JP6874844B2 (ja
Inventor
達治 森吉
達治 森吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019017327A1 publication Critical patent/JPWO2019017327A1/ja
Application granted granted Critical
Publication of JP6874844B2 publication Critical patent/JP6874844B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

動画像符号化装置50は、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、符号化の対象フレームがインターピクチャである場合に、フレームを符号化する順番において対象フレームの後続フレームを取得する取得部51と、対象フレームの特性と後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが基準を満たすか否かを判定する判定部52と、その判定結果が基準を満たすことを示す場合に、対象フレームを符号化する際に使用される予測目標画像として、対象フレームによって参照される参照フレームと、後続フレームとに基づく仮予測画像を生成する生成部53と、を備えることによって、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なう。

Description

本願発明は、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する技術に関する。
近年、動画像の圧縮符号化技術は広く普及し、デジタル放送、光学ディスクによる映像コンテンツの頒布、インターネット等を経由した映像配信など幅広い用途に利用されている。動画像信号を低ビットレート且つ高圧縮率に符号化して、高画質な再生画像を実現可能な符号化データを生成したり、符号化された動画像を復号したりする技術として、ITU(International Telecommunication Union)とISO(International Organization for Standardization)とが共同で規格化を行なったH.264/MPEG(Moving Picture Experts Group)−4 AVC(Advanced Video Coding)などが広く利用されている。H.264/MPEG−4(本願では以降、H.264と称する)の仕様は、例えば非特許文献1に記載されているので、その詳細な説明を省略する。
さらに、動画像圧縮符号化に関する最新の規格として、2013年に標準化された、H.265/MPEG−H HEVC(High Efficiency Video Coding)がある。H.265/MPEG−H(本願では以降、H.265と称する)の仕様は、例えば非特許文献2に記載されているので、その詳細な説明を省略する。H.265はH.264と同等の映像品質を維持しつつ、動画像のデータサイズをH.264の半分程度に圧縮可能であるので、幅広い分野での活用が期待されている。
これらの動画像の符号化技術は、動き補償予測、予測誤差画像の直交変換、直交変換係数の量子化、量子化した直交変換係数のエントロピー符号化といった複数の要素技術の組み合わせにより構成されることから、ハイブリッド符号化と呼ばれている。
これらの動画像の符号化技術は、動画像の特性の一つである空間軸および時間軸における画像に関する相関性を使用した、フレーム内予測(イントラ予測)およびフレーム間予測(インター予測)を行なうことによって高い圧縮効率を達成している。フレーム内予測においては、同一の画像フレーム内で近接する符号化済みの画像ブロックに含まれる画素値に基づいて予測画像を生成する。これに対して、フレーム間予測においては、時間軸において近接する画像間において、被写体や背景等の動き、位置ずれを補正することによって予測画像を生成する動き補償が一般的に利用される。そして、入力画像と予測画像との差分(予測残差)を符号化することによって、効率的な圧縮を実現できる。
符号化される動画像に含まれるフレームのうち、フレーム内予測により符号化されるフレームは、イントラピクチャ(Iピクチャ)と呼ばれる。一方、符号化される動画像に含まれるフレームのうち、フレーム間予測により符号化されるフレームは、インターピクチャと呼ばれる。インターピクチャは、フレーム間予測の方式が異なる2種類のフレーム(Pピクチャ、Bピクチャ)を含む。このように、動画像の符号化においては、通常、ピクチャタイプとして、前述したIピクチャ、Pピクチャ、Bピクチャの3種類のいずれかが設定されたフレームに対して、符号化処理が行われる。
図17は、上述したフレーム内予測およびフレーム間予測を用いて動画像を符号化する、一般的な動画像符号化装置100の構成を概念的に示すブロック図である。動画像符号化装置100は、フレームバッファ101、制御情報決定部102、減算部103、量子化部104、符号化処理部105、逆量子化部106、加算部107、フレームバッファ108、及び、予測部109を備えている。
フレームバッファ101は、符号化対象である入力動画像を格納する。制御情報決定部102は、符号化処理を制御する情報(制御情報)を決定する。この制御情報は、例えば、次に符号化するフレームの符号化タイプ(Iピクチャ、 Pピクチャ、 Bピクチャのうちのいずれか)、及び、フレーム間予測におけるフレーム間の参照関係と符号化順とを含む。制御情報決定部102は、入力動画像に含まれるフレームを符号化順に並び替えて出力する。
動画像符号化装置100は、所定のサイズの画像ブロックを単位として、符号化処理を行う。動画像符号化装置100は、例えばH.264方式を用いる場合、マクロブロック(MB)と呼ばれる、縦方向に16画素、横方向に16画素(16×16画素)から成るブロックを使用する。動画像符号化装置100は、例えばH.265方式を用いる場合、コーディングツリーユニット(CTU)と呼ばれる16×16画素、32×32画素、64×64画素などのサイズの異なる複数のブロックを使用する。
予測部109は、制御情報決定部102から出力されたフレーム(画像)を予測目標画像として、予測目標画像と、フレームバッファ108に格納されている符号化済み画像(参照画像)と、後述する再構築画像とを用いて、フレーム内予測処理あるいはフレーム間予測処理を行ない、その結果を予測画像として出力する。
減算部103は、制御情報決定部102から出力されたフレームを目標画像として、予測部109から入力される予測画像を目標画像から減算した残差信号を出力する。
量子化部104は、残差信号に対して、DCT(Discrete Cosine Transform)と同様な直交変換処理を行なったのち、さらに量子化処理を行うことによって、量子化された変換係数(量子化係数)を出力する。量子化部104は、例えばH.264方式を用いる場合では、4x4画素または8×8画素のブロックを単位として直交変換処理を行なう。量子化部104は、例えばH.265方式を用いる場合では、4×4画素から32×32画素までの所定のサイズのブロックを単位として直交変換処理を行なう。
逆量子化部106は、量子化部104から出力された量子化係数に対して、逆量子化処理を行ったのち、逆整数変換処理を行う。
加算部107は、逆量子化部106により出力された値と予測画像とを加算した再構築画像を出力し、再構築画像をフレームバッファ108へ格納する。フレームバッファ108へ格納された再構築画像は、予測部109が後続するフレームに対してフレーム間予測処理を行う際に利用される。
符号化処理部105は、量子化部104から出力された量子化係数に対して、所定の規則に従ってエントロピー符号化処理を行なうことによって、入力動画像を符号化した結果を表すビットストリームを出力する。符号化処理部105は、エントロピー符号化として、例えば、コンテキスト適応算術符号化(CABAC:Context-based Adaptive Binary Arithmetic Coding)(H.264方式及びH.265方式において用いられる)、コンテキスト適応可変長符号化(CAVLC:Context-based Adaptive Variable Length Coding)(H.264方式において用いられる)を用いる。動画像符号化装置100によって行なわれる、より具体的な処理内容は、例えば非特許文献1、非特許文献2に示されている。
フレーム内予測処理(イントラピクチャに対する符号化)は、1フレームにおいて完結した符号化である。したがって、フレーム内予測処理は、フレームごとに独立した処理であるので、動画像の編集等において、ランダムアクセス、チャネル切り替え、ビットレート切り替えといった、復号の開始ポイントにおいて扱い易い一方、その符号化効率が低いという欠点がある。
これに対して、フレーム間予測処理(インターピクチャに対する符号化)は、符号化済みである他のフレームに関する情報を参照する符号化である。したがって、フレーム間予測処理は、その符号化効率が高い一方、予測処理において参照する全てのフレームの復号が完了した後でないと復号が出来ないという依存関係があることから、取扱いが難しいという欠点がある。このため、一般的な動画像符号化装置100は、多くの用途において、フレーム内予測処理とフレーム間予測処理とを併用する。
このような動画像の符号化処理において、1枚のイントラピクチャと、次のイントラピクチャまでの間にある1以上のインターピクチャとは、まとめてGOP(Group of Pictures)と呼ばれる。そして動画像は、複数のGOPにより構成される。GOPに対する符号化形式には、複数のGOPを跨るフレーム間予測を許容しないClosed−GOP(形式)と、複数のGOPを跨るフレーム間予測を許容するOpen−GOP(形式)とがある。
フレーム内予測処理とフレーム間予測処理とでは、符号化の仕組みが大きく異なるので、符号化した画像の特性に違いが発生する。一般的な動画像符号化装置100は、多くの用途において、フレーム内予測処理を周期的(例えば1秒に1回など)に行い、それ以外はフレーム間予測処理を行う。このようにイントラピクチャが周期的に挿入された動画像を視聴する場合、上述した符号化した画像の特性の違いにより、周期的なフリッカ(ちらつき)が知覚されるという問題がある。これはイントラフリッカ(本願では以降、「フリッカ」と称する場合がある)と呼ばれ、動画像に関するビットレートが低いときに顕著に現れ、動画像の画質を損ねる要因の一つとなっている。
イントラフリッカが発生する原因としては、例えば非特許文献3において示されている通り、フレーム内予測処理とフレーム間予測処理との違いにより、符号化の過程において生成される予測画像に差が発生し、この差が量子化処理から逆量子化処理までの過程において、さらに拡大されることが知られている。したがって、このようなイントラフリッカの発生を低減する技術への期待が高まってきている。
このような技術に関連する技術として、特許文献1および特許文献2には、フレーム内予測処理における予測画像の生成において、フレーム内予測モードや予測ブロックサイズを、フリッカが目立ちにくくなるように制限する技術が開示されている。この技術では、予測モードの選択におけるコスト評価にフリッカの発生量を加味することによって、フリッカが発生しにくい予測モードを優先的に選択することにより、予測画像におけるフリッカを低減する。また、この技術では、フリッカが発生しやすいブロックの量子化に関するパラメータを通常より小さく制御することによって、量子化処理及び逆量子化処理によるフリッカの拡大を低減する。
また、特許文献3には、イントラピクチャを符号化する際に、いったんインターピクチャとして符号化して復号画像を生成したのち、その復号画像を目標画像としてフレーム内予測による符号化を行なうことによってフリッカを低減する技術が開示されている。
また、特許文献4には、GOPに対してフリッカが視認され易いか否かを判定し、フリッカが視認され易い場合、当該GOPに対する符号化形式がClosed−GOPであれば、その符号化形式をOpen−GOPに変更する技術が開示されている。この技術では、符号化形式をOpen−GOPに変更したのち、表示順に関してイントラピクチャより前に位置するインターピクチャに対して、双方向予測を優先するなどを行なうことによってフリッカの発生を低減する。これは、それぞれの方式において、以下の傾向があることに基づいている。即ち、Closed−GOPでは、フレーム間予測における参照関係がGOP毎に途切れているので、GOP同士の境界においてフリッカの発生度合が高くなる傾向がある。これに対して、Open−GOPでは、GOPを跨るフレーム間予測によって時間軸方向における画像の連続性が高くなるので、フリッカが目立ちにくくなる傾向がある。
また、特許文献5には、複数の参照ピクチャを用いて、逐次探索により動きベクトル探索を行なう技術が開示されている。この技術では、逐次探索の初期探索開始位置として符号化対象としているブロックに対して、0ベクトルの指し示す位置以外も選択し得るようにする。そしてこの技術では、符号化対象ピクチャと同一パリティの関係にある少なくとも一つの参照ピクチャの初期探索開始位置を、符号化対象としているブロックに対して0ベクトルの指し示す位置とする。
特許第4246723号公報 特許第4383240号公報 特許第4528694号公報 国際公開第2007/091601号 特開2009-111647号公報
ITU−T Recommendation H.264 「Advanced video coding for generic audiovisual services」、2010年3月 ITU−T Recommendation H.265 「Advanced video coding for generic audiovisual services」、2013年4月 「H.264 符号化におけるイントラモードのフリッカ低減手法」、井口他、情報科学技術フォーラム(FIT2003)、pp.277−278、2003年8月
例えば上述した特許文献1乃至3が示す技術では、イントラピクチャに対する符号化効率が低下することによって、符号量が増加するという問題点がある。一般にイントラピクチャに対する符号化効率はインターピクチャに対する符号化効率よりも低く、動画像全体に占めるイントラピクチャの符号量の割合は大きいので、イントラピクチャの符号量が増加することは、動画像全体としての符号量に大きな影響を与えることになる。
また、特許文献4が示す技術は、Closed−GOPが必要とされる用途には適用できないという課題がある。動画像の編集やビットレート切り替え等の用途では、各GOPを独立して扱えるClosed−GOPが適しているが、特許文献4が示す技術は、そのような用途には適用できない。
また、特許文献5が示す技術は、動画像の符号化における動き予測に関する処理量を低減する効果は期待できるものの、フリッカの発生を低減する効果は、それほど期待できない。
このように、特許文献1乃至5が示す技術は、動画像に対する符号化処理において、高い符号化効率を維持するとともにフリッカの発生を低減することを実現するのに、十分であるとは言えない。本願発明の主たる目的は、このような課題を解決する動画像符号化装置等を提供することである。
本願発明の一態様に係る動画像符号化装置は、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得手段と、前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定手段と、前記判定手段による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成手段と、を備える。
上記目的を達成する他の見地において、本願発明の一態様に係る動画像符号化方法は、情報処理装置によって、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する場合際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得し、前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定し、前記フリッカの発生度合いに関する判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する。
また、上記目的を達成する更なる見地において、本願発明の一態様に係る動画像符号化プログラムは、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記フレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得処理と、前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定処理と、前記判定処理による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成処理と、をコンピュータに実行させるためのプログラムである。
更に、本願発明は、係る動画像符号化プログラム(コンピュータプログラム)が格納された、コンピュータ読み取り可能な、不揮発性の記録媒体によっても実現可能である。
本願発明は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことを可能とする。
本願発明の第1の実施形態に係る動画像符号化装置10の構成を示すブロック図である。 本願発明の第1の実施形態に係る制御情報決定部102によって制御情報が決定された入力動画像の構成を例示する図(Closed-GOPによる符号化制御を行う場合)である。 本願発明の第1の実施形態に係る制御情報決定部102によって制御情報が決定された入力動画像の構成を例示する図(Open-GOPによる符号化制御を行う場合)である。 本願発明の第1の実施形態に係る生成部13が、図2に例示する動画像に対して、予測目標画像として仮予測画像を生成する処理を例示する図である。 本願発明の第1の実施形態に係る動画像符号化装置10の動作を示すフローチャートである。 本願発明の第2の実施形態に係る動画像符号化装置20の構成を示すブロック図である。 本願発明の第2の実施形態に係る生成部23が、図2に例示する動画像に対して、予測目標画像として仮符号化画像を生成する処理を例示する図である。 本願発明の第2の実施形態に係る動画像符号化装置20の動作を示すフローチャートである。 本願発明の第3の実施形態に係る動画像符号化装置30の構成を示すブロック図である。 本願発明の第3の実施形態に係る生成部33が使用する生成手順320の内容を例示する図である。 本願発明の第3の実施形態に係る動画像符号化装置30の動作を示すフローチャートである。 本願発明の第4の実施形態に係る動画像符号化装置40の構成を示すブロック図である。 本願発明の第4の実施形態に係る変更部44が、図2に例示する動画像に対して、符号化を制御する情報を変更する処理を例示する図である。 本願発明の第4の実施形態に係る動画像符号化装置40の動作を示すフローチャートである。 本願発明の第5の実施形態に係る動画像符号化装置50の構成を示すブロック図である。 本願発明の各実施形態に係る動画像符号化装置10、20、30、40、及び50を実行可能な情報処理装置900の構成を示すブロック図である。 一般的な動画像符号化装置100の構成を示すブロック図である。
以下、本願発明の実施の形態について図面を参照して詳細に説明する。
<第1の実施形態>
図1は、本願発明の第1の実施の形態に係る動画像符号化装置10の構成を概念的に示すブロック図である。本実施形態に係る動画像符号化装置10は、入力動画像に対して、フレーム内予測とフレーム間予測とを用いた符号化を行ない、その結果をビットストリームとして出力する装置である。
本実施形態に係る動画像符号化装置10は、取得部11、判定部12、生成部13、フレームバッファ101、制御情報決定部102、減算部103、量子化部104、符号化処理部105、逆量子化部106、加算部107、フレームバッファ108、及び、予測部109を備えている。本実施形態において、上述した図17に示す一般的な動画像符号化装置100と同様の機能を有する構成に関しては、図17に示す構成と同一の番号を付与することとする。即ち、本実施形態に係る動画像符号化装置10は、上述した図17に例示する一般的な動画像符号化装置100が備える構成に加えて、取得部11、判定部12、及び、生成部13を備えている。
本実施形態に係る動画像符号化装置10は、入力動画像をフレームバッファ101に格納する。フレームバッファ101は、入力動画像に含まれるフレーム(画像)を、動画像における表示順にしたがって格納する。
制御情報決定部102は、フレームバッファ101に格納された入力動画像に対する符号化処理を制御する制御情報を決定する。この制御情報は、上述した通り、例えば、次に符号化するフレームの符号化タイプ、及び、フレーム間予測におけるフレーム間の参照関係と符号化順とを含む情報である。
図2及び図3は、本実施形態に係る制御情報決定部102によって制御情報が決定された入力動画像の構成を例示する図である。図2及び図3に示す矩形は、入力動画像に含まれる時間軸方向に並んだフレームを示している。即ち、図2及び図3は、時間の経過に従って各フレームが表示あるいは符号化される様子を表している。図2は、動画像符号化装置10がClosed−GOPによる符号化制御を行う場合を示し、図3は、動画像符号化装置10がOpen−GOPによる符号化制御を行う場合を示している。
図2及び図3において、制御情報決定部102によって各フレームに付与された、「I0」、「B1」等の記号は、そのフレームのピクチャタイプと動画像における表示順とを示す。例えば、図2及び図3において「I0」と表示されているフレーム(本願では以降、フレーム(I0)と称する)のピクチャタイプはIピクチャであり、その表示順は「0」(即ち最初に表示されるフレーム)である。同様に、フレーム(B1)のピクチャタイプはBピクチャであり、その表示順は「1」(0番目のフレームの次に表示されるフレーム)である。
本実施形態に係る制御情報決定部102は、Iピクチャ、Bピクチャ、及び、Pピクチャという3種類のピクチャタイプのいずれかを、各フレームに対して設定する。Iピクチャは、フレーム内予測により符号化されるフレーム(即ちイントラピクチャ)であることを示す。Bピクチャ、及び、Pピクチャは、フレーム間予測により符号化されるフレーム(即ちインターピクチャ)であることを示す。
BピクチャとPピクチャとでは、フレーム間予測における他のフレームとの参照関係が異なる。図2及び図3において、フレーム同士を接続する矢印線は、制御情報決定部102によって決定された、フレーム間予測における他のフレームとの参照関係を表す。本実施形態では、例えば、フレーム(B1)は、フレーム(I0)とフレーム(P3)とを参照し、フレーム(B2)は、フレーム(I0)とフレーム(P3)とを参照し、フレーム(P3)は、フレーム(I0)を参照する。即ち、Bピクチャは、IピクチャとPピクチャとを参照し、PピクチャはIピクチャを参照する。
本実施形態に係る制御情報決定部102は、図2及び図3に例示する通り、表示順において、あるIピクチャとその次のIピクチャとの間隔(Iピクチャ間隔)が6フレームであり、あるPピクチャとその次のIピクチャとの間隔(Pピクチャ間隔)が3フレームであることを、制御情報として決定する。即ち、この場合、各GOPを構成するフレームは6つである。
制御情報決定部102は、各フレームのピクチャタイプと、フレーム間における参照関係とを決定したのち、フレームの符号化順を決定する。制御情報決定部102は、フレーム間における参照関係に基づいて、参照されるフレームが、当該フレームを参照するフレームよりも符号化される順番が先になるように、表示順に並べられたフレームを並び替える。
図2に例示するようなClosed−GOPによる符号化制御を行う場合、制御情報決定部102は、各GOPの中で閉じたフレームの並び替えを行なう。図2に示す例では、GOP0において、フレーム(B1)及びフレーム(B2)は、フレーム(P3)を参照するので、制御情報決定部102は、フレーム(P3)がフレーム(B1)及びフレーム(B2)よりも符号化される順番が先になるように、フレームを並び替える。これにより、GOP0における符号化順は、フレーム(I0)、フレーム(P3)、フレーム(B1)、フレーム(B2)、フレーム(B4)、フレーム(B5)という順番になる。制御情報決定部102は、他のGOPについても、GOP0と同様に、フレームの並び替えを行なう。
図3に例示するようなOpen−GOPによる符号化制御を行う場合、制御情報決定部102は、GOP間に跨ることを許すフレームの並び替えを行なう。図3に示す例では、GOP0に含まれるフレーム(B4)及びフレーム(B5)は、GOP1に含まれるフレーム(I6)を参照するので、制御情報決定部102は、フレーム(I6)がフレーム(B4)及びフレーム(B5)よりも符号化される順番が先になるように、フレームを並び替える。制御情報決定部102は、フレーム(B1)、フレーム(B2)、及び、フレーム(P3)に関しては、図2に示す例の場合と同様にフレームを並び替える。これにより、符号化順は、フレーム(I0)、フレーム(P3)、フレーム(B1)、フレーム(B2)、フレーム(I6)、フレーム(B4)、フレーム(B5)という順番になる。制御情報決定部102は、フレーム(B5)に後続するフレームについても、同様の手順により並び替えを行なう。
制御情報決定部102は、符号化順に並び替えたフレームを、符号化する対象とする符号化対象フレームとして、図1に示す取得部11に入力する。
取得部11は、制御情報決定部102から符号化順に入力された、符号化対象フレームのピクチャタイプを確認する。取得部11は、そのピクチャタイプがBピクチャあるいはPピクチャである(即ち、符号化対象フレームがインターピクチャである)場合、符号化順において、当該符号化対象フレームに後続する1以上の後続フレームを先読みによって取得する。取得部11は、当該符号化対象フレームと当該後続フレームとを、判定部12へ入力する。
判定部12は、取得部11から入力された符号化対象フレームの特性と、後続フレームの特性とに基づいて、符号化された入力動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する。この場合、フリッカの発生度合いが第一の基準を満たすとは、例えば、復号された動画像を見たユーザが、フリッカが発生していることを明確に視認可能な程度に、フリッカが発生することを示す。この第一の基準は、例えば、被験者による実験結果などを基に、予め決定することができる。
判定部12は、符号化対象フレームと後続フレームとに関して、ピクチャタイプ、フレーム間予測における参照関係、画像の表示特性などに基づいて上述した判定を行なう。判定部12は、例えば、後続フレームがイントラピクチャであることをもって、あるいは、符号化対象フレームと後続フレームとが共通のフレームを参照していないインターピクチャであることをもって、フリッカの発生度合いが第一の基準を満たすと判定する。
判定部12は、また、画像の表示特性に基づいて上述した判定を行なう。この際、判定部12は、例えば、特許文献1に記載されたフレームの平坦度合いを用いた判定や、特許文献4に記載されたシーンチェンジ情報やアクティビティを用いた判定などを用いることができる。
例えば図2に例示するClosed−GOPによる符号化制御を行う場合における、判定部12による判定を考える。この場合、GOP0とGOP1との間で、フレーム間予測における参照関係が途切れることによって、時間軸方向における画像の連続性が低くなる。この場合、GOP0とGOP1との境界(即ち、フレーム(B5)とフレーム(I6)との間)において、フリッカの発生度合いが高くなる。したがってこの場合、判定部12は、符号化対象フレーム(B5)と後続フレーム(I6)とについて上述した判定を行なう際に、フリッカの発生度合いが第一の基準を満たすと判定する。
これに対して、例えば図3に例示するOpen−GOPによる符号化制御を行う場合、GOP0とGOP1との間で、フレーム間予測における参照関係が途切れることがないので、時間軸方向における画像の連続性は維持される。この場合、フレームが並び替えられた後のGOP0とGOP1との境界(即ち、フレーム(B5)とフレーム(P9)との間)において、フリッカの発生度合いが高くなることはない。したがってこの場合、判定部12は、符号化対象フレーム(B5)と後続フレーム(P9)とについて上述した判定を行なう際に、フリッカの発生度合いが第一の基準を満たさないと判定する。
判定部12は、上述した判定により得られた判定結果を、図1に示す生成部13に入力する。
生成部13は、図1に示す通り、仮予測部131、及び、選択部132を有している。
仮予測部131は、判定部12から入力された判定結果が上述した第一の基準を満たすことを示す場合、符号化対象フレームによって参照される参照フレームと、符号化対象フレームに後続する後続フレームとを用いたフレーム間予測を行なうことによって、仮予測画像を生成する。
図4は、仮予測部131が、図2に例示するClosed−GOPによる符号化制御を行う場合における入力動画像に対して、仮予測画像を生成する処理を例示する図である。
この場合、判定部12は、符号化対象フレーム(B5)と後続フレーム(I6)とについて、フリッカの発生度合いが第一の基準を満たすと判定している。これを受けて仮予測部131は、符号化対象フレーム(B5)が参照する参照フレーム(P3)、及び、後続フレーム(I6)を参照する双方向予測(符号化順において符号化対象フレームに先行するフレームと後続するフレームとの双方を用いたフレーム間予測)を行なうことによって、仮予測画像を生成する。
仮予測部131は、上述した双方向予測により生成した仮予測画像に対して、符号化対象フレームが示す入力画像との重み付け加算平均することによって、仮予測画像を補正してもよい。この場合、重み付けの係数は、例えば1:1など固定の比率とすることが考えられる。仮予測部131は、あるいは、仮予測画像を作成する際における入力画像と参照画像との時間的距離が近い場合には仮予測画像の重みを大きくし、その時間的距離が遠い場合には仮予測画像の重みを小さくする(入力画像の重みを大きくする)というような重み付けを行なってもよい。
仮予測部131は、また、量子化部104及び逆量子化部106が用いる量子化ステップを表す値が大きければ大きいほど仮予測画像の重みを大きくし、量子化ステップを表す値が小さければ小さいほど入力画像の重みを大きくするような重み付けを行なってもよい。
仮予測部131は、また、仮予測画像と入力画像とに関する重み付け係数を、画像における領域(ブロック)ごとに異なる値としてもよい。この場合、例えば、判定部12は、上述したフリッカの発生度合いを、画像(符号化対象フレーム)に含まれる所定の大きさのブロック毎に算出する。そして、仮予測部131は、判定部12によって算出されたブロック毎のフリッカの発生度合いに応じた、仮予測画像と入力画像とに関する重み付けを行なう。即ち、仮予測部131は、あるブロックに関して、フリッカ発生度合いが大きければ大きいほど仮予測画像の重みを大きくし、フリッカ発生の度合いが小さければ小さいほど入力画像の重みを大きくするような重み付けを行なう。
仮予測部131は、図4に示す通り、上述した双方向予測を、例えば、参照フレーム(P3)と後続フレーム(I6)とを用いて行なう。この際、仮予測部131は、参照フレーム(P3)と後続フレーム(I6)とに関して、いずれも符号化される前の入力画像を用いてもよいし、あるいは、参照フレーム(P3)に関する再構築画像と後続フレーム(I6)に関する入力画像とを用いてもよい。
図1に示す生成部13における選択部132は、仮予測部131によって生成された仮予測画像と、制御情報決定部102が目標画像として出力した入力画像(入力動画像に含まれる符号化される前の画像)とのうちのいずれかを選択して、選択した画像を予測目標画像として予測部109へ入力する。
選択部132は、符号化対象フレームがIピクチャ(即ちイントラピクチャ)である場合、制御情報決定部102が目標画像として出力した入力画像を選択する。選択部132は、符号化対象フレームがPピクチャあるいはBピクチャ(即ちインターピクチャ)であり、かつ、判定部12による判定結果がフリッカの発生度合いが第一の基準を満たさないことを示す場合、制御情報決定部102が目標画像として出力した入力画像を選択する。
選択部132は、符号化対象フレームがPピクチャあるいはBピクチャであり、かつ、判定部12による判定結果がフリッカの発生度合いが第一の基準を満たすことを示す場合、仮予測部131によって生成された仮予測画像を選択する。
図1に示す動画像符号化装置10に含まれる、減算部103、量子化部104、符号化処理部105、逆量子化部106、加算部107、フレームバッファ108、及び、予測部109は、制御情報決定部102から出力された目標画像と、生成部13から出力された予測目標画像とを用いて、上述した図17に示す動画像符号化装置100と同様な符号化処理を行う。
次に図5のフローチャートを参照して、本実施形態に係る動画像符号化装置10の動作(処理)について詳細に説明する。
フレームバッファ101は、入力動画像に含まれるフレームを記憶する(ステップS101)。制御情報決定部102は、入力動画像に対する符号化処理を制御する制御情報を決定したのち、表示順に並べられているフレームを符号化順に並び替える(ステップS102)。動画像符号化装置10は、その符号化順に従って、フレームに対する符号化処理を開始する(ステップS103)。
符号化対象フレームがインターピクチャでない(即ちイントラピクチャである)場合(ステップS104でNo)、生成部13は、制御情報決定部102から入力された入力画像(目標画像)を、予測目標画像として出力し(ステップS109)、処理はステップS110へ進む。符号化対象フレームがインターピクチャである場合(ステップS104でYes)、取得部11は、符号化順において符号化対象フレームに後続する後続フレームを、先読みにより取得する(ステップS105)。
判定部12は、符号化対象フレームの特性と後続フレームの特性とに基づいて、フリッカの発生度合いが第一の基準を満たすか否かを判定する(ステップS106)。フリッカの発生度合いが第一の基準を満たさない場合(ステップS107でNo)、処理はステップS109へ進む。フリッカの発生度合いが第一の基準を満たす場合(ステップS107でYes)、生成部13は、符号化対象フレームによって参照される参照フレームと後続フレームとに基づく仮予測画像を、予測目標画像として生成する(ステップS108)。
動画像符号化装置10は、目標画像と予測目標画像とを使用して、符号化対象フレームに対する符号化処理を行う(ステップS110)。入力動画像に含まれる全てのフレームに対する符号化処理が完了していない場合(ステップS111でNo)、処理はステップS104へ戻る。入力動画像に含まれる全てのフレームに対する符号化処理が完了した場合(ステップS111でYes)、全体の処理は終了する。
本実施形態に係る動画像符号化装置10は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことができる。その理由は、動画像符号化装置10は、符号化対象フレームがインターピクチャである場合に、後続フレームを取得することによって、フリッカの発生度合いが基準を満たすか否かを判定し、基準を満たす場合は、双方向予測により生成した仮予測画像を予測目標画像として、符号化処理を行うからである。
以下に、本実施形態に係る動画像符号化装置10によって実現される効果について、詳細に説明する。
フレーム内予測とフレーム間予測とを用いることによって動画像を符号化する場合、フレーム内予測処理とフレーム間予測処理との違いにより、符号化の過程において生成される予測画像に差が発生することなどによって、フリッカ(ちらつき)が発生する。このようなフリッカを低減するための既存の技術が知られているが、それらの技術は、例えば、符号化効率が低下する、あるいは、幅広い用途には適用できないなどの問題を抱えている。
このような問題に対して、本実施形態に係る動画像符号化装置10は、取得部11、判定部12、及び、生成部13を備え、例えば、図1乃至図5を参照して上述する通り動作する。即ち、取得部11は、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、複数のフレームのうち符号化する対象フレームがインターピクチャである場合に、当該複数のフレームを符号化する順番において当該対象フレームに後続する後続フレームを取得する。判定部12は、対象フレームの特性と後続フレームの特性とに基づいて、符号化された動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する。生成部13は、判定部12による判定結果が第一の基準を満たすことを示す場合に、対象フレームを符号化する際に使用される予測目標画像として、複数のフレームのうち対象フレームによって参照される参照フレームと、後続フレームとに基づく仮予測画像を生成する。
即ち、本実施形態に係る動画像符号化装置10は、フリッカの発生度合いが大きくなる期間に関して、時間軸方向において画像を連続的に補間することに近い視覚的効果を人間に与えることが可能な仮予測画像を生成する。これにより、その仮予測画像を用いて符号化処理を行った結果も、時間軸方向における画像の連続性が向上することになるので、動画像符号化装置10は、符号化した動画像を再生した際の動画像におけるフリッカの発生を低減することができる。
例えば、特許文献1乃至3が示す技術のように、イントラピクチャに対する符号化手順を変更する場合、イントラピクチャの符号化効率が低下する。これに対し、本実施形態に係る動画像符号化装置10は、イントラピクチャに対する符号化手順は変更せずに、符号化順において当該イントラピクチャに先行するインターピクチャに対する符号化手順を変更する。この場合、インターピクチャの符号化効率は低下するものの、一般的にインターピクチャはイントラピクチャより符号化効率が高く、動画像全体に占めるインターピクチャの符号量の割合は小さい。従って、本実施形態に係る動画像符号化装置10は、高い符号化効率を維持することができる。
また、本実施形態に係る動画像符号化装置10は、符号化処理を行う際に、フレーム間予測に関する参照構造(GOP構造)については、制御情報決定部102が最初に決定した状態を維持するので、例えば特許文献4が示す技術が有するような、Closed−GOPが必要とされる用途には適用できないという制限を有さない。従って、本実施形態に係る動画像符号化装置10は、幅広い用途において、フリッカの発生を低減することができる。
また、本実施形態に係る取得部11が先読みにより取得するフレーム数は、1フレームに限らない。例えば図2乃至図4に示す例において、符号化対象フレームがフレーム(B4)である場合、取得部11は、2フレーム先までの後続フレーム(即ち、フレーム(B5)及びフレーム(I6))を取得してもよい。取得部11は、取得する後続フレーム数を、所定の固定値とするのではなく、符号化対象フレーム毎に異なる値としてもよい。
例えば、取得部11は、GOP構造における符号化対象フレームの位置に応じて、取得する後続フレーム数を異なる値としてもよい。この場合、図2乃至図4に示す例において、取得部11は、取得する後続フレーム数を、符号化対象フレームがPピクチャである場合は3フレームとし、符号化対象フレームがフレーム(B1)あるいはフレーム(B4)の場合は2フレームとし、符号化対象フレームがフレーム(B2)あるいはフレーム(B5)の場合は1フレームとしてもよい。あるいは、取得部11は、イントラピクチャ、または他のフレームから参照されるインターピクチャが現れるまで、符号化順において符号化対象フレームの次に位置するフレームから順番に、後続フレームの先読みを繰り返し行なうようにしてもよい。
尚、本実施形態に係る動画像符号化装置10は、動画像の符号化方式として、H.264やH.265の他、例えばVC−1等の符号化方式、あるいは、国際標準の動画像の符号化方式に含まれない符号化方式を用いてもよい。また、動画像符号化装置10が用いるピクチャタイプは、Iピクチャ、Pピクチャ、及び、Bピクチャに限定されず、Iピクチャ間隔、及び、Pピクチャ間隔は、上述した6フレーム、及び、3フレームに限定されない。動画像符号化装置10は、例えば、階層Bピクチャ構成を備えるGOPを用いてもよい。
また、上述した本実施形態に係る動画像符号化装置10は、時間軸方向におけるフレーム間予測を行なうが、動画像符号化装置10は、例えば、スケーラブル符号化における階層間予測等を行なってもよい。また、動画像符号化装置10は、フレーム内予測を用いずに1フレームで完結した符号化を行なう方式を用いてもよく、例えば、Wavelet変換に基づく符号化を行なう方式が適用されたイントラピクチャを用いてもよい。
<第2の実施形態>
図6は、本願発明の第2の実施形態に係る動画像符号化装置20の構成を概念的に示すブロック図である。本実施形態において、上述した第1の実施形態と同様の機能を有する構成に関しては、第1の実施形態と同一の番号を付与することにより、その詳細な説明を省略する。
本実施形態に係る動画像符号化装置20は、図1及び図6に示す通り、第1の実施形態に係る動画像符号化装置10において、生成部13が生成部23に置き換わった構成を備える。本実施形態に係る生成部23は、第1の実施形態に係る生成部13において、選択部132が選択部232に置き換わるとともに、仮符号化部233が新たに追加された構成を備える。
生成部23における仮符号化部233は、仮予測部131によって生成された、符号化対象フレームに関する仮予測画像を予測目標画像として、仮予測部131が仮予測画像を生成したときに用いた参照構造を用いて、符号化対象フレームを符号化した仮符号化画像を生成する。
図7は、本実施形態に係る生成部23における仮符号化部233が、図2に例示する動画像に対して、予測目標画像として仮符号化画像を生成する処理を例示する図である。仮符号化部233は、仮予測部131が仮予測画像を生成したときと同様に、参照フレーム(P3)と後続フレーム(I6)とを参照する双方向予測を行なうことによって、符号化対象フレーム(B5)に関する再構築画像を生成し、生成した再構築画像を、符号化対象フレーム(B5)を符号化した仮符号化画像として出力する。
仮符号化部233は、仮符号化画像として、上述した手順によって生成した再構築画像をそのまま用いてもよいし、あるいは、この再構築画像と入力画像とを重み付け加算平均した画像を用いることによって、生成した仮符号化画像を補正してもよい。
選択部232は、仮符号化部233によって生成された仮符号化画像と、制御情報決定部102が出力した入力画像とのうちのいずれかを選択して、選択した画像を目標画像として減算部103に入力するとともに、予測目標画像として予測部109へ入力する。
選択部232は、符号化対象フレームがイントラピクチャである場合、制御情報決定部102が出力した入力画像を選択する。選択部232は、符号化対象フレームがインターピクチャであり、かつ、判定部12による判定結果がフリッカの発生度合いが第一の基準を満たさないことを示す場合、制御情報決定部102が出力した入力画像を選択する。選択部232は、符号化対象フレームがインターピクチャであり、かつ、判定部12による判定結果がフリッカの発生度合いが第一の基準を満たすことを示す場合、仮符号化部233よって生成された仮符号化画像を選択する。
図6に示す動画像符号化装置20に含まれる、減算部103、量子化部104、符号化処理部105、逆量子化部106、加算部107、フレームバッファ108、及び、予測部109は、生成部13から出力された予測目標画像(目標画像)を用いて、上述した図17に示す動画像符号化装置100と同様な符号化処理を行う。
次に図8のフローチャートを参照して、本実施形態に係る動画像符号化装置20の動作(処理)について詳細に説明する。
動画像符号化装置20は、図5に示すステップS101乃至S103と同様な処理を行う(ステップS201)。動画像符号化装置20は、図5に示すステップS104乃至S106と同様な処理を行う(ステップS202)。
フリッカの発生度合いが第一の基準を満たさない場合(ステップS203でNo)、生成部23は、制御情報決定部102から入力された入力画像を、予測目標画像(目標画像)として出力し(ステップS205)、処理はステップS207へ進む。フリッカの発生度合いが第一の基準を満たす場合(ステップS203でYes)、生成部23は、符号化対象フレームによって参照される参照フレームと後続フレームとに基づく仮予測画像を生成する(ステップS204)。
生成部23は、参照フレームと後続フレームとを参照する双方向予測を行なうことによって、符号化対象フレームに関する再構築画像(仮符号化画像)を生成し、その仮符号化画像を予測目標画像(目標画像)として出力する(ステップS206)。
動画像符号化装置20は、目標画像と予測目標画像とを使用して、符号化対象フレームに対する符号化処理を行う(ステップS207)。入力動画像に含まれる全てのフレームに対する符号化処理が完了していない場合(ステップS208でNo)、処理はステップS202へ戻る。入力動画像に含まれる全てのフレームに対する符号化処理が完了した場合(ステップS208でYes)、全体の処理は終了する。
本実施形態に係る動画像符号化装置20は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことができる。その理由は、第1の実施形態に係る動画像符号化装置10について説明した通りである。
また、本実施形態に係る動画像符号化装置20は、第1の実施形態に係る動画像符号化装置10が行なう処理に加えて、仮予測画像を予測目標画像として、符号化対象フレームを符号化した仮符号化画像を生成することによって、符号化した動画像を再生した際の動画像におけるフリッカの発生をさらに低減することができる。
<第3の実施形態>
図9は、本願発明の第3の実施形態に係る動画像符号化装置30の構成を概念的に示すブロック図である。本実施形態において、上述した第1及び第2の実施形態と同様の機能を有する構成に関しては、第1及び第2の実施形態と同一の番号を付与することにより、その詳細な説明を省略する。
本実施形態に係る動画像符号化装置30は、図6及び図9に示す通り、第2の実施形態に係る動画像符号化装置20において、判定部12が判定部32に置き換わり、生成部23が生成部33に置き換わった構成を備える。
本実施形態に係る判定部32は、取得部11から入力された符号化対象フレームの特性と、後続フレームの特性とに基づいて、符号化された入力動画像を復号した際に想定されるフリッカの発生度合いが、上述した第一の基準に加えて第二の基準を満たすか否かを判定する。但し、第二の基準は、第一の基準よりも、フリッカの発生度合いが大きいことを示すこととする。この第二の基準は、上述した第一の基準と同様に、例えば、被験者による実験結果などを基に、予め決定することができる。
本実施形態に係る生成部33は、第2の実施形態に係る生成部23に対して、選択部334が新たに追加された構成を備える。
選択部334は、仮符号化部233によって生成された仮符号化画像と、仮予測部131よって生成された仮予測画像と、制御情報決定部102が出力した入力画像とのうちのいずれかを選択して、選択した画像を予測目標画像として予測部109へ入力する。
図10は、本実施形態に係る生成部33が、減算部103へ入力する目標画像、及び、予測部109へ入力する予測目標画像を生成する手順を表す生成手順320の内容を例示する図である。即ち、生成手順320は、選択部232及び選択部334による選択動作を制御する情報であり、例えば、動画像符号化装置30が備えるメモリ等(図9には不図示)に格納されていることとする。尚、図10では、説明の便宜上、生成手順320を文章により示しているが、実際には、生成手順320は、命令コード等により記載されていることとする。
図10に例示する生成手順320における、01、02、10、11行目は、本実施形態に係る選択部232による選択動作を表している。本実施形態に係る選択部232は、図10に例示する通り、「符号化対象フレームが他のフレームから参照されるインターピクチャ」である場合に、入力画像を目標画像として出力する。選択部232は、「符号化対象フレームが他のフレームから参照されるインターピクチャ」でない場合に、仮符号化画像を目標画像として出力する。尚、この場合、判定部32は、「符号化対象フレームが他のフレームから参照されるインターピクチャ」であるか否かを判定する。
図10に例示する生成手順320における、03〜09、及び、12〜18行目は、本実施形態に係る選択部334による選択動作を表している。即ち、選択部334は、判定部12による判定結果がフリッカの発生度合いが第二の基準を満たすことを示す場合、仮符号化部233によって生成された仮符号化画像を選択する。選択部334は、判定部12による判定結果がフリッカの発生度合いが第二の基準を満たさないことを示す場合、仮予測部131によって生成された仮予測画像を選択する。
次に図11のフローチャートを参照して、本実施形態に係る動画像符号化装置30の動作(処理)について詳細に説明する。
動画像符号化装置30は、図5に示すステップS101乃至S103と同様な処理を行う(ステップS301)。動画像符号化装置30は、図5に示すステップS104乃至S106と同様な処理を行う(ステップS302)。
フリッカの発生度合いが第一の基準を満たさない場合(ステップS303でNo)、生成部33は、制御情報決定部102から入力された入力画像を、予測目標画像(目標画像)として出力し(ステップS305)、処理はステップS312へ進む。フリッカの発生度合いが第一の基準を満たす場合(ステップS303でYes)、生成部33は、符号化対象フレームによって参照される参照フレームと後続フレームとに基づく仮予測画像を生成する(ステップS304)。
符号化対象フレームが他のフレームから参照される場合(ステップS306でYes)、生成部33は、制御情報決定部102から入力された入力画像を、目標画像として生成する(ステップS308)。符号化対象フレームが他のフレームから参照されない場合(ステップS306でNo)、生成部33は、参照フレームと後続フレームとを参照する双方向予測を行なうことによって、符号化対象フレームに関する仮符号化画像を生成し、その仮符号化画像を目標画像として出力する(ステップS307)。
フリッカの発生度合いが第二の基準を満たす場合(ステップS309でYes)、生成部33は、仮符号化画像を、予測目標画像として生成する(ステップS310)。フリッカの発生度合いが第二の基準を満たさない場合(ステップS309でNo)、生成部33は、仮予測画像を、予測目標画像として生成する(ステップS311)。
動画像符号化装置30は、目標画像と予測目標画像とを使用して、符号化対象フレームに対する符号化処理を行う(ステップS312)。入力動画像に含まれる全てのフレームに対する符号化処理が完了していない場合(ステップS313でNo)、処理はステップS302へ戻る。入力動画像に含まれる全てのフレームに対する符号化処理が完了した場合(ステップS313でYes)、全体の処理は終了する。
本実施形態に係る動画像符号化装置30は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことができる。その理由は、第1の実施形態に係る動画像符号化装置10について説明した通りである。
また、本実施形態に係る動画像符号化装置30は、フリッカの発生度合いに応じて、目標画像として、入力画像あるいは仮符号化画像を選択する。動画像符号化装置30は、フリッカの発生度合いに応じて、予測目標画像として、入力画像と仮符号化画像と仮予測画像とのうちのいずれかを選択する。これにより、本実施形態に係る動画像符号化装置30は、フレームごとのフリッカ発生の度合いに応じた、柔軟なフリッカの低減処理を行うことができる。またこの場合、動画像符号化装置30は、フリッカの低減処理をフレーム毎に最適な強さで行うので、フリッカの低減処理に必要な演算量を削減することができる。
<第4の実施形態>
図12は、本願発明の第4の実施形態に係る動画像符号化装置40の構成を概念的に示すブロック図である。本実施形態において、上述した第1乃至第3の実施形態と同様の機能を有する構成に関しては、第1乃至第3の実施形態と同一の番号を付与することにより、その詳細な説明を省略する。
本実施形態に係る動画像符号化装置40は、図9及び図12に示す通り、第3の実施形態に係る動画像符号化装置30に対して、変更部44を追加した構成を備える。
本実施形態に係る変更部44は、判定部32による判定結果が上述した第一の基準を満たすことを示す場合に、符号化対象フレーム及び後続フレームに対する符号化を制御する制御情報を変更することによって、符号化効率あるいは符号化された入力動画像に関する復号後の画質が改善するか否かを、符号化対象フレームの特性と後続フレームの特性とに基づいて解析する。変更部44は、解析した結果が、符号化効率や復号後の画質が改善することを示す場合は、符号化を制御する制御情報を変更する。
図13は、本実施形態に係る変更部44が、図2に例示する動画像に対して、符号化を制御する制御情報を変更する処理を例示する図である。図13に示す例では、変更部44は、上述した解析を行なった結果に基づいて、符号化対象フレーム(B5)と後続フレーム(I6)とについて、符号化順を逆転するとともに、符号化対象フレーム(B5)が参照するフレームを、フレーム(P3)からフレーム(I6)に変更する。
変更部44がこのような処理を行うのは、変更部44による以下の解析結果に基づいている。即ち、動画像符号化装置40は、第1の実施形態乃至第3の実施形態と同様に、符号化対象フレーム(B5)に対して、後続フレーム(I6)を使用することによってフリッカの発生度合いを低減する処理を行う。この場合、符号化対象フレーム(B5)に関する目標画像あるいは予測目標画像は、後続フレーム(I6)との相関が高くなる傾向がある。このため、変更部44は、符号化対象フレーム(B5)に対する符号化を行なう際に、フレーム間予測における参照先を、フレーム(P3)からフレーム(I6)に変更することによって、符号化効率、及び、復号後の画質が改善することが期待できるという解析結果を得る。
次に図14のフローチャートを参照して、本実施形態に係る動画像符号化装置40の動作(処理)について詳細に説明する。
動画像符号化装置40は、図5に示すステップS101乃至S103と同様な処理を行う(ステップS401)。動画像符号化装置40は、図5に示すステップS104乃至S106と同様な処理を行う(ステップS402)。
フリッカの発生度合いが第一の基準を満たさない場合(ステップS403でNo)、生成部33は、制御情報決定部102から入力された入力画像を、予測目標画像(目標画像)として出力し(ステップS405)、処理はステップS409へ進む。フリッカの発生度合いが第一の基準を満たす場合(ステップS403でYes)、変更部44は、符号化を制御する情報を変更することによって、符号化効率あるいは復号後の画質が改善するか否かを解析する(ステップS404)。
符号化効率あるいは画質が改善しない場合(ステップS406でNo)、処理はステップS408へ進む。符号化効率あるいは画質が改善する場合(ステップS406でYes)、変更部44は、符号化を制御する制御情報を変更する(ステップS407)。動画像符号化装置40は、図11に示すステップS304、及び、ステップS306乃至S310と同様な処理を行う(ステップS408)。
動画像符号化装置40は、目標画像と予測目標画像とを使用して、符号化対象フレームに対する符号化処理を行う(ステップS409)。入力動画像に含まれる全てのフレームに対する符号化処理が完了していない場合(ステップS410でNo)、処理はステップS402へ戻る。入力動画像に含まれる全てのフレームに対する符号化処理が完了した場合(ステップS410でYes)、全体の処理は終了する。
本実施形態に係る動画像符号化装置40は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことができる。その理由は、第1の実施形態に係る動画像符号化装置10について説明した通りである。
また、本実施形態に係る変更部44は、判定部32による判定結果が第一の基準を満たすことを示す場合に、符号化対象フレーム及び後続フレームに対する符号化を制御する制御情報を変更することによって、符号化効率あるいは符号化された前記動画像に関する復号後の画質が改善するか否かを、対象フレームの特性と後続フレームの特性とに基づいて解析する。変更部44は、解析結果が改善することを示す場合は、当該制御情報を変更する。これにより、本実施形態に係る動画像符号化装置40は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、符号化した動画像を再生した際の動画像におけるフリッカの発生を低減することを、さらに高めることができる。
尚、上述した図13に示す例では、動画像符号化装置40は、フレーム(B5)とフレーム(I6)とについて符号化順を逆転するとともに、フレーム(B5)が参照するフレームをフレーム(P3)からフレーム(I6)に変更する。この場合、この変更によって、GOPに含まれるフレームの枚数が変化する。しかしながら、GOPを跨ったフレーム間予測に関する参照関係は無いので、動画像符号化装置40は、Closed−GOPの特性を維持することができる。したがって、動画像符号化装置40は、Closed−GOPが必要とされる用途には適用できないという制限を有さない。
また、本実施形態に係る変更部44による制御情報に対する変更内容は、上述した例に限定されない。変更部44は、例えばピクチャタイプをBピクチャからIピクチャに変更すること、あるいは、他のフレームから参照されていたフレームに対して、他のフレームから参照されないように変更すること、などを組み合わせて行なうようにしてもよい。
<第5の実施形態>
図15は、本願発明の第5の実施形態に係る動画像符号化装置50の構成を概念的に示すブロック図である。
本実施形態に係る動画像符号化装置50は、取得部51、判定部52、及び、生成部53を備えている。
取得部51は、イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、それら複数のフレームのうち符号化する対象フレームがインターピクチャである場合に、複数のフレームを符号化する順番において対象フレームに後続する後続フレームを取得する。
判定部52は、対象フレームの特性と後続フレームの特性とに基づいて、符号化された動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する。
生成部53は、判定部52による判定結果が第一の基準を満たすことを示す場合に、対象フレームを符号化する際に使用される予測目標画像として、複数のフレームのうち対象フレームによって参照される参照フレームと、後続フレームとに基づく(即ち双方向予測に基づく)仮予測画像を生成する。
本実施形態に係る動画像符号化装置50は、動画像に対する符号化処理において、高い符号化効率を維持するとともに、動画像を再生した際にフリッカの発生が低減するような符号化を行なうことができる。その理由は、動画像符号化装置50は、符号化対象フレームがインターピクチャである場合に、後続フレームを取得することによって、フリッカの発生度合いが基準を満たすか否かを判定し、基準を満たす場合は、双方向予測により生成した仮予測画像を予測目標画像として、符号化処理を行うからである。
<ハードウェア構成例>
上述した各実施形態において、図1に示した動画像符号化装置10、図6に示した動画像符号化装置20、図9に示した動画像符号化装置30、図12に示した動画像符号化装置40、及び、図15に示した動画像符号化装置50における各部は、専用のHW(HardWare)(電子回路)によって実現することができる。また、図1、図6、図9、図12、及び、図15において、少なくとも、下記構成は、ソフトウェアプログラムの機能(処理)単位(ソフトウェアモジュール)と捉えることができる。
・取得部11、及び51
・判定部12、32、及び52、
・生成部13、23、33、及び53、
・変更部44。
但し、これらの図面に示した各部の区分けは、説明の便宜上の構成であり、実装に際しては、様々な構成が想定され得る。この場合のハードウェア環境の一例を、図16を参照して説明する。
図16は、本願発明の各実施形態に係る動画像符号化装置10、20、30、40、及び50を実行可能な情報処理装置900(コンピュータ)の構成を例示的に説明する図である。即ち、図16は、図1に示した動画像符号化装置10、図6に示した動画像符号化装置20、図9に示した動画像符号化装置30、図12に示した動画像符号化装置40、及び、図15に示した動画像符号化装置50、或いはその一部を実現可能なコンピュータ(情報処理装置)の構成であって、上述した実施形態における各機能を実現可能なハードウェア環境を表す。図16に示した情報処理装置900は、構成要素として下記を備えている。
・CPU(Central_Processing_Unit)901、
・ROM(Read_Only_Memory)902、
・RAM(Random_Access_Memory)903、
・ハードディスク(記憶装置)904、
・通信ネットワークを介した外部装置との通信を行う通信インタフェース905、
・バス906(通信線)、
・CD−ROM(Compact_Disc_Read_Only_Memory)等の記録媒体907に格納されたデータを読み書き可能なリーダライタ908、
・入出力インタフェース909。
即ち、上記構成要素を備える情報処理装置900は、これらの構成がバス906を介して接続された一般的なコンピュータである。情報処理装置900は、CPU901を複数備える場合もあれば、マルチコアにより構成されたCPU901を備える場合もある。
そして、上述した実施形態を例に説明した本願発明は、図16に示した情報処理装置900に対して、次の機能を実現可能なコンピュータプログラムを供給する。その機能とは、その実施形態の説明において参照したブロック構成図(図1、図6、図9、図12、及び図15)における上述した構成、或いはフローチャート(図5、図8、図11、及び、図14)の機能である。本願発明は、その後、そのコンピュータプログラムを、当該ハードウェアのCPU901に読み出して解釈し実行することによって達成される。また、当該装置内に供給されたコンピュータプログラムは、読み書き可能な揮発性のメモリ(RAM903)、または、ROM902やハードディスク904等の不揮発性の記憶デバイスに格納すれば良い。
また、前記の場合において、当該ハードウェア内へのコンピュータプログラムの供給方法は、現在では一般的な手順を採用することができる。その手順としては、例えば、CD−ROM等の各種記録媒体907を介して当該装置内にインストールする方法や、インターネット等の通信回線を介して外部よりダウンロードする方法等がある。そして、このような場合において、本願発明は、係るコンピュータプログラムを構成するコード或いは、そのコードが格納された記録媒体907によって構成されると捉えることができる。
以上、上述した実施形態を模範的な例として本願発明を説明した。しかしながら、本願発明は、上述した実施形態には限定されない。即ち、本願発明は、本願発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
尚、上述した各実施形態の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した各実施形態により例示的に説明した本発明は、以下には限られない。
(付記1)
イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得手段と、
前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定手段と、
前記判定手段による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成手段と、
を備える動画像符号化装置。
(付記2)
前記取得手段は、前記動画像が有する参照構造における前記対象フレームの位置に応じて、異なる数の前記後続フレームを取得する、
付記1に記載の動画像符号化装置。
(付記3)
前記取得手段は、前記イントラピクチャ、または他の前記フレームから参照されるインターピクチャが現れるまで、前記複数のフレームを符号化する順番において前記対象フレームの次に位置する前記フレームから順番に、前記後続フレームを繰り返し取得する、
付記1または2に記載の動画像符号化装置。
(付記4)
前記判定手段は、前記対象フレームと前記後続フレームとに関して、ピクチャタイプ、フレーム間予測における参照関係、及び、画像の表示特性のうちの少なくともいずれかに基づいて判定する、
付記1乃至3のいずれか一項に記載の動画像符号化装置。
(付記5)
前記判定手段は、前記後続フレームがイントラピクチャである場合、あるいは、前記対象フレームと後続フレームとが共通の前記フレームを参照していない前記インターピクチャである場合に、前記フリッカの発生度合いが前記第一の基準を満たすと判定する、
付記4に記載の動画像符号化装置。
(付記6)
前記生成手段は、生成した前記仮予測画像に対して、前記対象フレームが示す入力画像との重み付け加算平均を行なうことによって、前記仮予測画像を補正する、
付記1乃至5のいずれか一項に記載の動画像符号化装置。
(付記7)
前記生成手段は、前記入力画像との重み付け加算平均を行なうときに用いる重み付けの係数を、固定の比率とする、
付記6に記載の動画像符号化装置。
(付記8)
前記生成手段は、前記入力画像と前記参照フレームとの時間的距離が遠ければ遠いほど前記入力画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、 付記6に記載の動画像符号化装置。
(付記9)
前記生成手段は、前記動画像を符号化する際に使用される量子化ステップを表す値が大きければ大きいほど前記仮予測画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、
付記6に記載の動画像符号化装置。
(付記10)
前記判定手段は、前記対象フレームに含まれる所定の大きさのブロック毎に、前記フリッカの発生度合いを算出し、
前記生成手段は、前記ブロック毎に、前記フリッカの発生度合いが大きければ大きいほど前記仮予測画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、
付記6に記載の動画像符号化装置。
(付記11)
前記生成手段は、前記対象フレームを符号化する際に使用される目標画像及び前記予測目標画像として、前記参照フレームと前記後続フレームとを使用することによって生成した再構築画像に基づく仮符号化画像を生成する、
付記1乃至10のいずれか一項に記載の動画像符号化装置。
(付記12)
前記生成手段は、生成した前記再構築画像に対して、前記対象フレームが示す入力画像との重み付け加算平均を行なうことによって、前記仮符号化画像を補正する、
付記11に記載の動画像符号化装置。
(付記13)
前記判定手段は、前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが、前記第一の基準よりも度合いが高い第二の基準を満たすか否かを判定し、
前記生成手段は、前記判定手段による判定結果が前記第二の基準を満たすことを示す場合に、前記予測目標画像として前記仮符号化画像を生成し、前記判定手段による判定結果が前記第二の基準を満たさないことを示す場合に、前記予測目標画像として前記仮予測画像を生成する、
付記11または12に記載の動画像符号化装置。
(付記14)
前記判定手段による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレーム及び前記後続フレームに対する符号化を制御する情報を変更することによって、符号化効率あるいは符号化された前記動画像に関する復号後の画質が改善するか否かを、前記対象フレームの特性と前記後続フレームの特性とに基づいて解析し、解析した結果が改善することを示す場合は、前記符号化を制御する情報を変更する変更手段をさらに備える、
付記1乃至13のいずれか一項に記載の動画像符号化装置。
(付記15)
前記符号化を制御する情報は、符号化する順番、ピクチャタイプ、及び、他の前記フレームとの参照関係のうちの少なくともいずれかを含む、
付記14に記載の動画像符号化装置。
(付記16)
情報処理装置によって、
イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得し、
前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定し、
前記フリッカの発生度合いに関する判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する、
動画像符号化方法。
(付記17)
イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得処理と、
前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定処理と、
前記判定処理による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成処理と、
をコンピュータに実行させるための動画像符号化プログラムが格納された記録媒体。
この出願は、2017年7月19日に出願された日本出願特願2017−140109を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本願発明は、デジタル放送、光学ディスクによる映像コンテンツの頒布、インターネット等を経由した映像配信など、幅広い用途での映像情報通信に適用可能である。
10 動画像符号化装置
101 フレームバッファ
102 制御情報決定部
103 減算部
104 量子化部
105 符号化処理部
106 逆量子化部
107 加算部
108 フレームバッファ
109 予測部
11 取得部
12 判定部
13 生成部
131 仮予測部
132 選択部
20 動画像符号化装置
23 生成部
232 選択部
233 仮符号化部
30 動画像符号化装置
32 判定部
320 生成手順
33 生成部
334 選択部
40 動画像符号化装置
44 変更部
50 動画像符号化装置
51 取得部
52 判定部
53 生成部
900 情報処理装置
901 CPU
902 ROM
903 RAM
904 ハードディスク(記憶装置)
905 通信インタフェース
906 バス
907 記録媒体
908 リーダライタ
909 入出力インタフェース

Claims (17)

  1. イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得手段と、
    前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定手段と、
    前記判定手段による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成手段と、
    を備える動画像符号化装置。
  2. 前記取得手段は、前記動画像が有する参照構造における前記対象フレームの位置に応じて、異なる数の前記後続フレームを取得する、
    請求項1に記載の動画像符号化装置。
  3. 前記取得手段は、前記イントラピクチャ、または他の前記フレームから参照されるインターピクチャが現れるまで、前記複数のフレームを符号化する順番において前記対象フレームの次に位置する前記フレームから順番に、前記後続フレームを繰り返し取得する、
    請求項1または2に記載の動画像符号化装置。
  4. 前記判定手段は、前記対象フレームと前記後続フレームとに関して、ピクチャタイプ、フレーム間予測における参照関係、及び、画像の表示特性のうちの少なくともいずれかに基づいて判定する、
    請求項1乃至3のいずれか一項に記載の動画像符号化装置。
  5. 前記判定手段は、前記後続フレームがイントラピクチャである場合、あるいは、前記対象フレームと後続フレームとが共通の前記フレームを参照していない前記インターピクチャである場合に、前記フリッカの発生度合いが前記第一の基準を満たすと判定する、
    請求項4に記載の動画像符号化装置。
  6. 前記生成手段は、生成した前記仮予測画像に対して、前記対象フレームが示す入力画像との重み付け加算平均を行なうことによって、前記仮予測画像を補正する、
    請求項1乃至5のいずれか一項に記載の動画像符号化装置。
  7. 前記生成手段は、前記入力画像との重み付け加算平均を行なうときに用いる重み付けの係数を、固定の比率とする、
    請求項6に記載の動画像符号化装置。
  8. 前記生成手段は、前記入力画像と前記参照フレームとの時間的距離が遠ければ遠いほど前記入力画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、 請求項6に記載の動画像符号化装置。
  9. 前記生成手段は、前記動画像を符号化する際に使用される量子化ステップを表す値が大きければ大きいほど前記仮予測画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、
    請求項6に記載の動画像符号化装置。
  10. 前記判定手段は、前記対象フレームに含まれる所定の大きさのブロック毎に、前記フリッカの発生度合いを算出し、
    前記生成手段は、前記ブロック毎に、前記フリッカの発生度合いが大きければ大きいほど前記仮予測画像の重みが大きくなるように、前記入力画像との重み付け加算平均を行なう、
    請求項6に記載の動画像符号化装置。
  11. 前記生成手段は、前記対象フレームを符号化する際に使用される目標画像及び前記予測目標画像として、前記参照フレームと前記後続フレームとを使用することによって生成した再構築画像に基づく仮符号化画像を生成する、
    請求項1乃至10のいずれか一項に記載の動画像符号化装置。
  12. 前記生成手段は、生成した前記再構築画像に対して、前記対象フレームが示す入力画像との重み付け加算平均を行なうことによって、前記仮符号化画像を補正する、
    請求項11に記載の動画像符号化装置。
  13. 前記判定手段は、前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが、前記第一の基準よりも度合いが大きい第二の基準を満たすか否かを判定し、
    前記生成手段は、前記判定手段による判定結果が前記第二の基準を満たすことを示す場合に、前記予測目標画像として前記仮符号化画像を生成し、前記判定手段による判定結果が前記第二の基準を満たさないことを示す場合に、前記予測目標画像として前記仮予測画像を生成する、
    請求項11または12に記載の動画像符号化装置。
  14. 前記判定手段による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレーム及び前記後続フレームに対する符号化を制御する情報を変更することによって、符号化効率あるいは符号化された前記動画像に関する復号後の画質が改善するか否かを、前記対象フレームの特性と前記後続フレームの特性とに基づいて解析し、解析した結果が改善することを示す場合は、前記符号化を制御する情報を変更する変更手段をさらに備える、
    請求項1乃至13のいずれか一項に記載の動画像符号化装置。
  15. 前記符号化を制御する情報は、符号化する順番、ピクチャタイプ、及び、他の前記フレームとの参照関係のうちの少なくともいずれかを含む、
    請求項14に記載の動画像符号化装置。
  16. 情報処理装置によって、
    イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得し、
    前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定し、
    前記フリッカの発生度合いに関する判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する、
    動画像符号化方法。
  17. イントラピクチャとインターピクチャとを決定された複数のフレームを含む動画像を符号化する際に、前記複数のフレームのうち符号化する対象フレームが前記インターピクチャである場合に、前記複数のフレームを符号化する順番において前記対象フレームに後続する後続フレームを取得する取得処理と、
    前記対象フレームの特性と前記後続フレームの特性とに基づいて、符号化された前記動画像を復号した際に想定されるフリッカの発生度合いが第一の基準を満たすか否かを判定する判定処理と、
    前記判定処理による判定結果が前記第一の基準を満たすことを示す場合に、前記対象フレームを符号化する際に使用される予測目標画像として、前記複数のフレームのうち前記対象フレームによって参照される参照フレームと、前記後続フレームとに基づく仮予測画像を生成する生成処理と、
    をコンピュータに実行させるための動画像符号化プログラムが格納された記録媒体。
JP2019531032A 2017-07-19 2018-07-17 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム Active JP6874844B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017140109 2017-07-19
JP2017140109 2017-07-19
PCT/JP2018/026705 WO2019017327A1 (ja) 2017-07-19 2018-07-17 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラムが格納された記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019017327A1 true JPWO2019017327A1 (ja) 2020-04-16
JP6874844B2 JP6874844B2 (ja) 2021-05-19

Family

ID=65015657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019531032A Active JP6874844B2 (ja) 2017-07-19 2018-07-17 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム

Country Status (3)

Country Link
US (1) US11336889B2 (ja)
JP (1) JP6874844B2 (ja)
WO (1) WO2019017327A1 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4383240B2 (ja) 2004-04-30 2009-12-16 日本放送協会 画面内予測符号化装置、その方法及びそのプログラム
JP2006229411A (ja) 2005-02-16 2006-08-31 Matsushita Electric Ind Co Ltd 画像復号化装置及び画像復号化方法
JP4528694B2 (ja) 2005-08-12 2010-08-18 株式会社東芝 動画像符号化装置
JP4246723B2 (ja) 2005-08-29 2009-04-02 日本電信電話株式会社 フレーム内予測符号化制御方法、フレーム内予測符号化制御装置、フレーム内予測符号化制御プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4449915B2 (ja) 2006-02-08 2010-04-14 ソニー株式会社 符号化装置、符号化方法およびプログラム、並びに、記録媒体
JP4869986B2 (ja) 2007-03-06 2012-02-08 Kddi株式会社 動画像符号化装置
JP2009111647A (ja) 2007-10-29 2009-05-21 Panasonic Corp 動きベクトル検出装置および動きベクトル検出方法
US20100278236A1 (en) 2008-01-17 2010-11-04 Hua Yang Reduced video flicker
US8654844B1 (en) 2008-02-04 2014-02-18 Zenverge, Inc. Intra frame beating effect reduction

Also Published As

Publication number Publication date
US20200221076A1 (en) 2020-07-09
WO2019017327A1 (ja) 2019-01-24
JP6874844B2 (ja) 2021-05-19
US11336889B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
KR102545525B1 (ko) 참조 화상 리스트 변경 정보를 조건부로 시그널링하는 기법
JP4908180B2 (ja) 動画像符号化装置
KR101759461B1 (ko) 부호화 장치, 복호화 장치, 부호화 방법, 복호화 방법, 및 컴퓨터 판독가능 기억 매체
JP5061179B2 (ja) 照明変化補償動き予測符号化および復号化方法とその装置
JP4821723B2 (ja) 動画像符号化装置及びプログラム
KR20110071231A (ko) 부호화 방법, 복호화 방법 및 장치
GB2492778A (en) Motion compensated image coding by combining motion information predictors
KR101147744B1 (ko) 비디오 트랜스 코딩 방법 및 장치와 이를 이용한 pvr
CN102348119B (zh) 预测编码装置及其控制方法
KR101968700B1 (ko) 디지털화된 이미지들의 시퀀스를 코딩하기 위한 방법
RU2734616C1 (ru) Способ декодирования видео с предсказанием и устройство декодирования видео с предсказанием
JP7343817B2 (ja) 符号化装置、符号化方法、及び符号化プログラム
KR20040095398A (ko) 참조 픽처 결정 방법, 그 움직임 보상 방법 및 그 장치
JP6426648B2 (ja) 動画像予測復号方法及び動画像予測復号装置
TWI749297B (zh) 合成式預測及限制性合併技術
JP2010010917A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、及び動画像復号方法
JP6874844B2 (ja) 動画像符号化装置、動画像符号化方法、及び、動画像符号化プログラム
JP2008205865A (ja) スケーラブル動画像符号化方法,装置,そのプログラムおよびその記録媒体
US11184608B2 (en) Image processing apparatus and method
KR100958342B1 (ko) 비디오 부호화/복호화 방법 및 장치
JP2005303487A (ja) 動画像復号装置及び動画像復号プログラム
JP6267929B2 (ja) 画像符号化装置及び画像符号化プログラム
JP5061355B2 (ja) 画像符号化方法、装置およびプログラムならびに画像処理機器
JPH10164594A (ja) 動画像の圧縮符号化方法およびその装置
JP4676474B2 (ja) 画像符号化方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150