JPWO2019244439A1 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JPWO2019244439A1
JPWO2019244439A1 JP2020525283A JP2020525283A JPWO2019244439A1 JP WO2019244439 A1 JPWO2019244439 A1 JP WO2019244439A1 JP 2020525283 A JP2020525283 A JP 2020525283A JP 2020525283 A JP2020525283 A JP 2020525283A JP WO2019244439 A1 JPWO2019244439 A1 JP WO2019244439A1
Authority
JP
Japan
Prior art keywords
image
fisheye
unit
prediction
intra prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020525283A
Other languages
English (en)
Other versions
JP7215480B2 (ja
Inventor
松本 潤一
潤一 松本
厚 坪井
厚 坪井
上野 弘道
弘道 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019244439A1 publication Critical patent/JPWO2019244439A1/ja
Application granted granted Critical
Publication of JP7215480B2 publication Critical patent/JP7215480B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Geometry (AREA)

Abstract

ブロック位置算出部411は、魚眼情報によって入力画像が魚眼画像であることを判別した場合、魚眼中心に対する処理対象ブロックの位置を算出して、算出した位置を示す位置情報をテーブル選択部412へ出力する。テーブル選択部412は、魚眼情報によって入力画像が魚眼画像であることを判別した場合、複数のイントラ予測モードテーブルから、位置情報に基づき処理対象ブロックの位置に応じたイントラ予測モードテーブルを選択して予測画像生成部413へ出力する。予測画像生成部413は、テーブル選択部412から供給されたイントラ予測モードテーブルとフレームメモリ36から選択部37を介して読み出された参照画像データとを用いて方向性予測を行い、イントラ予測モードテーブルで示された予測モードの予測画像データを生成する。歪みを生じた画像の符号化または復号処理を効率よく行える。

Description

この技術は、画像処理装置と画像処理方法に関する。
魚眼レンズを用いて撮影を行うことにより得られた魚眼画像の符号化復号処理では、魚眼レンズよりも画角の狭い標準レンズ等を用いて撮影を行うことにより得られた画像(通常画像)と同様に符号化復号処理を行うことが可能である。しかし、魚眼画像は魚眼歪みすなわち物体が中心から遠ざかるほど中心方向に対して生じた歪みを有する。このため、特許文献1では、レンズの特性に応じて画像の特性を決定し、予め定められた第1のサイズで分割された第1のブロックの画像の特性に基づきブロックサイズを決定して、第1のブロックをさらに決定したブロックサイズで分割して、ブロック毎に予測符号化を行うことで符号化効率の向上がはかられている。
特開2015−050661号公報
ところで、特許文献1において、画像の特性に基づいたブロックサイズで分割されたブロックの予測符号化は、レンズの特性に応じて決定された画像の特性にかかわらず行われている。このため、分割されたブロックの予測符号化を効率よく行うことができないおそれがある。
そこで、この技術では歪みを生じた画像の符号化または復号処理を効率よく行うことができる画像処理装置と画像処理方法を提供することを目的とする。
この技術の第1の側面は、
魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像を生成するイントラ予測部
を備える画像処理装置にある。
この技術においては、魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる。処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向を魚眼画像の魚眼中心に対する処理対象ブロックの位置に応じて変更したテーブルでもよく、処理対象ブロックの位置で生じる魚眼歪みを補正する補正率に基づいて予測方向が変更したテーブルでもよい。また、処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向から魚眼画像の魚眼中心に対する処理対象ブロックの位置に応じて選択した予測方向を示すテーブルでもよく、魚眼中心に対する処理対象ブロックの方向に対して直交する円周方向を密集方向として、所定の複数の予測方向から選択した予測方向を示すテーブルでもよく、魚眼中心から処理対象ブロックまでの距離が長くなるに伴い密集度合いを高くして、所定の複数の予測方向から選択した予測方向を示すテーブルでもよい。
イントラ予測部は、処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像を生成する。また、イントラ予測部は、魚眼画像の魚眼中心を基準として魚眼画像を径方向および周方向に複数の領域に区分して、領域毎にイントラ予測モードテーブルを設けて、イントラ予測部は、処理対象ブロックが含まれる領域に対応するイントラ予測モードテーブルを用いてイントラ予測を行ってもよい。区分された領域には、魚眼中心を対象点として点対称の領域に等しいイントラ予測モードテーブルを設ける。また、魚眼中心を含む領域のイントラ予測モードテーブルは、所定の複数の予測方向を示すテーブルとする。また、魚眼レンズのレンズ特性に応じて、径方向の領域区分数や径方向の領域区分間隔を設定する。
また、入力画像が魚眼画像である場合、入力画像の符号化ストリームに魚眼情報を含める可逆符号化部をさらに備える。魚眼情報は、少なくとも入力画像が魚眼画像であることと魚眼画像の魚眼中心を示す情報を含む。また、魚眼情報に、魚眼画像の取得に用いた魚眼レンズに関する情報を含めてもよい。
また、魚眼画像の符号化ストリームを復号する可逆復号部をさらに備え、可逆復号部は、符号化ストリームに含まれる魚眼情報と最適イントラ予測モードをパースして、イントラ予測部は、可逆復号部で得られた魚眼情報と最適イントラ予測モードに基づき処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いて予測画像を生成する。また、魚眼情報は、少なくとも入力画像が魚眼画像であることと魚眼画像の魚眼中心を示す情報を含み、イントラ予測部は、魚眼画像の魚眼中心に対する処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる。また、魚眼情報は、魚眼画像の取得に用いた魚眼レンズに関する情報を含み、イントラ予測部は、魚眼レンズに関する情報と処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる。
この技術の第2の側面は、
魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像をイントラ予測部で生成すること
を含む画像処理方法にある。
この技術によれば、魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像が生成される。したがって、歪みを生じた画像の符号化または復号処理を効率よく行うことができる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像符号化装置の構成を例示した図である。 イントラ予測部の構成を例示した図である。 魚眼画像と通常画像の歪みの違いを説明するための図である。 魚眼レンズの射影方式を示した図である。 魚眼画像を通常画像に補正するための補正率を射影方式毎に示した図である。 補正率の導出を説明するための図である。 通常画像で用いられるイントラ予測モードテーブルを示す図である。 歪みを生じたイントラ予測モードテーブルを示す図である。 歪テーブルの生成について説明するため図である。 通常画像で用いるイントラ予測モードテーブル(基本テーブル)の予測モードと傾きの関係を示す図である。 イントラ予測の予測方向を説明するための図である。 魚眼画像で用いるイントラ予測モードテーブル(歪テーブル)の予測モードと傾きの関係(θ1=π/4,Km=1.3の場合)を示す図である。 魚眼画像の領域区分を説明するための図である。 画像符号化装置の符号化処理動作を例示したフローチャートである。 イントラ予測処理を例示したフローチャートである。 層数=4の場合の各層における補正率と間隔比率の関係を例示した図である。 画像復号装置の構成を例示した図である。 画像復号装置の動作を例示したフローチャートである。 イントラ予測の予測画像生成処理を示したフローチャートである。 魚眼中心に対する処理対象ブロックの方角に基づいて選択テーブルを生成する場合の動作を例示した図である。 魚眼中心に対する処理対象ブロックの方角と予測モードの選択結果を例示した図である。 魚眼中心に対する処理対象ブロックの方角と魚眼中心からの距離に基づいて選択テーブルを生成する場合の動作を例示した図である。 魚眼中心に対する処理対象ブロックの方角と魚眼中心から処理対象ブロックまでの距離に応じた予測モードの選択結果を例示した図である。 イントラ予測処理を示すフローチャートである。
以下、本技術を実施するための形態について説明する。本願で開示される範囲は、本明細書および図面に記載されている内容だけではなく、出願当時において公知となっている以下の文献に記載されている内容も含まれる。
文献1:AVC規格書("Advanced video coding for generic audiovisual services", ITU-T H.264(04/2017))
文献2:HEVC規格書("High efficiency video coding", ITU-T H.265(12/2016))
文献3:FVC アルゴリズム解説書(Algorithm description of Joint Exploration Test Model 7 (JEM7), 2017-08-19)
つまり、上述の文献に記載されている内容もサポート要件を判断する際の根拠となる。例えば、文献1に記載されているQuad-Tree Block Structure、文献3に記載されているQTBT(Quad Tree Plus Binary Tree)やBlock Structureが実施の形態において直接的な記載がない場合でも、本技術の開示範囲内であり、許請求の範囲のサポート要件を満たす。また、例えば、パース(Parsing)、シンタックス(Syntax)、セマンティクス(Semantics)等の技術用語についても同様に、実施の形態において直接的な記載がない場合でも、本技術の開示範囲内であり、請求の範囲のサポート要件を満たす。
また、本明細書において、画像(ピクチャ)の部分領域や処理単位として説明に用いる「ブロック」(処理部を示すブロックではない)は、特に言及しない限り、ピクチャ内の任意の部分領域を示し、その大きさ、形状、および特性等は限定されない。例えば、「ブロック」には、上述の文献1乃至3に記載のTB(Transform Block)、TU(Transform Unit)、PB(Prediction Block)、PU(Prediction Unit)、SCU(Smallest Coding Unit)、CU(Coding Unit)、LCU(Largest Coding Unit)、CTB(Coding Tree Block)、CTU(Coding Tree Unit)、変換ブロック、サブブロック、マクロブロック、タイル、または、スライス等、任意の部分領域(処理単位)が含まれる。
また、このようなブロックのサイズを指定するに当たって、直接的にブロックサイズを指定するだけでなく、間接的にブロックサイズを指定するようにしてもよい。例えばサイズを識別する識別情報を用いてブロックサイズを指定するようにしてもよい。また、例えば、基準となるブロック(例えばLCUやSCU等)のサイズとの比または差分によってブロックサイズを指定するようにしてもよい。例えば、シンタックス要素等としてブロックサイズを指定する情報を伝送する場合に、その情報として、上述のような間接的にサイズを指定する情報を用いるようにしてもよい。このようにすることにより、その情報の情報量を低減させることができ、符号化効率を向上させることができる場合がある。また、このブロックサイズの指定には、ブロックサイズの範囲の指定(例えば、許容されるブロックサイズの範囲の指定等)も含む。
以下、本技術について以下の順序で説明を行う。
1.画像処理装置について
2.第1の実施の形態
2−1.画像符号化装置の構成
2−2.画像符号化装置の動作
2−2−1.イントラ予測テーブルについて
2−2−2.符号化処理動作について
2−3.画像復号装置の構成
2−4.画像復号装置の動作
3.第2の実施の形態
3−1.画像符号化装置の構成
3−2.画像符号化装置の動作
3−2−1.イントラ予測テーブルについて
3−2−2.符号化処理動作について
4.応用例
<1.画像処理装置について>
画像処理装置では、魚眼レンズを用いて撮像を行うことにより取得された動画像(以下「魚眼画像」ともいう)の符号化処理、またはこの符号化処理で生成された符号化ストリームの復号処理を行う。また、画像処理装置は、魚眼歪みを生じないレンズ(以下「通常レンズ」ともいう)を用いて撮像を行うことにより取得された動画像(以下「通常画像」ともいう)の符号化処理、またはこの符号化処理で生成された符号化ストリームの復号処理も行えるようにする。
<2.第1の実施の形態>
第1の実施の形態では、レンズ歪特性に応じてイントラ予測テーブルを切り替えることで、イントラ予測の符号化効率を向上させる。
<2−1.画像符号化装置の構成>
図1は、魚眼画像の符号化処理を行う画像符号化装置の構成を例示している。画像符号化装置10は、予測処理を用いて画像データの符号化を行い、例えばH.265/HEVC規格に対応した符号化ストリームを生成する。
画像符号化装置10は、画面並べ替えバッファ21、演算部22、直交変換部23、量子化部24、可逆符号化部25、蓄積バッファ26、レート制御部27を有する。また、画像符号化装置10は、逆量子化部31、逆直交変換部32、演算部33、デブロッキングフィルタ34、SAO(Sample Adaptive Offset)フィルタ35、フレームメモリ36、選択部37を有している。さらに、画像符号化装置10は、イントラ予測部41、インター予測部42、予測選択部43を有する。
魚眼画像は、入力画像として画面並べ替えバッファ21に入力される。また、魚眼画像に関する魚眼情報は、イントラ予測部41とインター予測部42、可逆符号化部25に入力される。魚眼情報では、少なくとも入力画像が魚眼画像であることと魚眼画像の魚眼中心を示す情報を含む。例えば入力画像が魚眼画像であることを示すフラグ情報や二次元画像における魚眼中心の位置、魚眼画像の半径等を示す情報を含む。また、魚眼情報には、魚眼画像の取得に用いたレンズに関する情報(例えば射影方式やレンズ名等)を含めてもよい。魚眼画像の取得に用いたレンズに関する情報を入力画像が魚眼画像であることを示す情報として用いてもよい。
画面並べ替えバッファ21は、入力画像を記憶して、記憶した表示順序のフレーム画像を、GOP(Group of Picture)構造に応じて、符号化のための順序(符号化順)に並べ替える。画面並べ替えバッファ21は、符号化順とされたフレーム画像の画像データ(原画像データ)を、演算部22へ出力する。また、画面並べ替えバッファ21は、原画像データをSAOフィルタ35、イントラ予測部41およびインター予測部42へ出力する。
演算部22は、画面並べ替えバッファ21から供給された原画像データから、予測選択部43を介してイントラ予測部41若しくはインター予測部42から供給される予測画像データを画素毎に減算して、予測残差を示す残差データを直交変換部23へ出力する。
例えば、イントラ符号化が行われる画像の場合、演算部22は原画像データからイントラ予測部41で生成された予測画像データを減算する。また、例えば、インター符号化が行われる画像の場合、演算部22は原画像データからインター予測部42で生成された予測画像データを減算する。
直交変換部23は、演算部22から供給される残差データに対して直交変換処理を行う。例えば直交変換部23は、各CTU(Coding Tree Unit)内に設定される1つ以上のTUの各々について、離散コサイン変換または離散サイン変換あるいはカルーネン・レーベ変換等の直交変換を行う。直交変換部23は、直交変換処理を行うことにより得られた周波数領域の変換係数を量子化部24へ出力する。
量子化部24は、直交変換部23が出力する変換係数を量子化する。量子化部24は、変換係数の量子化データを可逆符号化部25へ出力する。また、量子化部24は、生成した量子化データを逆量子化部31にも出力する。
可逆符号化部25は、各CTUについて量子化部24から入力される量子化データの可逆符号化処理、例えばCABAC(Context-Adaptive Binary Arithmetic Coding)の可逆符号化処理を行う。また、可逆符号化部25は、予測選択部43で選択された予測モードに関する情報、例えばイントラ予測情報やインター予測情報などを取得する。さらに、可逆符号化部25は、後述するSAOフィルタ35からフィルタ処理に関するフィルタ情報を取得する。さらに、画像にCTU、CU、TUおよびPUをどのように設定すべきかを示すブロック情報を取得する。可逆符号化部25は、量子化データを符号化するとともに、取得した符号化処理に関するパラメータ情報をH.265/HEVC規格のシンタックス要素として、符号化ストリームのヘッダ情報の一部として蓄積バッファ26に蓄積させる。また、可逆符号化部25は、画像符号化装置10に入力された魚眼情報を、符号化ストリームのシンタックス要素として、あるいは付加情報であるSEI(Supplemental Enhancement Information)として符号化ストリームに含める。
蓄積バッファ26は、可逆符号化部25から供給されたデータを一時的に保持し、所定のタイミングにおいて、符号化された符号化画像として、例えば後段の図示せぬ記録装置や伝送路などに符号化ストリームとして出力する。
レート制御部27は、蓄積バッファ26に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部24の量子化動作のレートを制御する。
逆量子化部31は、量子化部24から供給された変換係数の量子化データを、量子化部24で行われた量子化に対応する方法で逆量子化する。逆量子化部31は、得られた逆量子化データを、逆直交変換部32へ出力する。
逆直交変換部32は、供給された逆量子化データを、直交変換部23で行われた直交変換処理に対応する方法で逆直交変換する。逆直交変換部32は、逆直交変換結果すなわち復元された残差データを、演算部33へ出力する。
演算部33は、逆直交変換部32から供給された残差データに、予測選択部43を介してイントラ予測部41若しくはインター予測部42から供給される予測画像データを加算し、局部的に復号された画像(復号画像)を得る。例えば、残差データが、イントラ符号化が行われる画像に対応する場合、演算部33は、その残差データにイントラ予測部41から供給される予測画像データを加算する。また、例えば、残差データが、インター符号化が行われる画像に対応する場合、演算部33は、その残差データにインター予測部42から供給される予測画像データを加算する。加算結果である復号画像データは、デブロッキングフィルタ34へ出力される。また、復号画像データは参照画像データとしてフレームメモリ36へ出力される。
デブロッキングフィルタ34は、適宜デブロッキングフィルタ処理を行うことにより復号画像データのブロック歪を除去する。デブロッキングフィルタ34は、そのフィルタ処理結果をSAOフィルタ35へ出力する。
SAOフィルタ35は、デブロッキングフィルタ34によるフィルタ後の復号画像データに対して、適応オフセットフィルタ処理(SAO(Sample Adaptive Offset)処理ともいう)を行う。SAOフィルタ35は、SAO処理後の画像をフレームメモリ36へ出力する。
フレームメモリ36に蓄積されている参照画像データは、所定のタイミングで選択部37を介してイントラ予測部41またはインター予測部42に出力される。例えば、イントラ符号化が行われる画像の場合、フレームメモリ36からデブロッキングフィルタ34等によるフィルタ処理が行われていない参照画像データが読み出されて、選択部37を介してイントラ予測部41へ出力される。また、例えば、インター符号化が行われる場合、フレームメモリ36からデブロッキングフィルタ34等によるフィルタ処理が行われている参照画像データが読み出されて、選択部37を介してインター予測部42へ出力される。
イントラ予測部41は、入力画像が魚眼レンズを用いて撮像した魚眼画像である場合、魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行う。処理対象ブロックの位置は、処理対象ブロック内の左上画素の位置とする。また、入力画像が通常画像である場合、所定のイントラ予測モードテーブルを用いてイントラ予測を行う。
図2は、イントラ予測部41の構成を例示している。イントラ予測部41は、ブロック位置算出部411とテーブル選択部412と予測画像生成部413および最適モード決定部414を有している。
ブロック位置算出部411は、魚眼情報によって入力画像が魚眼画像であることを判別した場合、魚眼中心に対する処理対象ブロックの位置(処理対象ブロック内の左上画素の位置)を算出して、算出した位置を示す位置情報をテーブル選択部412へ出力する。
テーブル選択部412は、魚眼情報によって入力画像が魚眼画像であることを判別した場合、外部から供給されたあるいは予め記憶されている複数のイントラ予測モードテーブルから、位置情報に基づき処理対象ブロックの位置に応じたイントラ予測モードテーブルを選択して予測画像生成部413へ出力する。また、テーブル選択部412は、魚眼レンズのレンズ特性(例えば射影方式)毎にイントラ予測モードテーブルが設けられる場合、魚眼情報で示されたレンズ特性と処理対象ブロックの位置に応じたイントラ予測モードテーブルを選択して予測画像生成部413へ出力する。また、テーブル選択部412は、入力画像が通常画像である場合、所定の複数の予測方向を方向性予測の予測モードとするイントラ予測モードテーブル(以下「基本テーブル」ともいう)を予測画像生成部413へ出力する。
予測画像生成部413は、テーブル選択部412から供給されたイントラ予測モードテーブルとフレームメモリ36から選択部37を介して読み出された参照画像データとを用いて方向性予測を行い、イントラ予測モードテーブルで示された全ての予測モードの予測画像データを生成する。また、予測画像生成部413は、処理対象ブロックを予測ブロックサイズとして予測モード毎の予測画像データの生成を、予測ブロックサイズ毎に行う。予測画像生成部413は、生成した予測画像データを最適モード決定部414へ出力する。
最適モード決定部414は、画面並べ替えバッファ21から供給された原画像データと、予測ブロックサイズ毎および予測モード毎の予測画像データを用いてコスト関数値を算出する。さらに、最適モード決定部414は、コスト関数値が最小となる即ち圧縮率が最も高くなるイントラ予測モードと予測ブロックサイズの組み合わせを最適イントラ予測モードおよび最適予測ブロックサイズとして、最適イントラ予測モード等を示すイントラ予測情報を生成する。最適モード決定部414は、最適イントラ予測モードおよび最適予測ブロックサイズで生成された予測画像データとコスト関数値、およびイントラ予測情報を予測選択部43へ出力する。
図1に戻り、インター予測部42は、原画像データおよび復号画像データに基づいて、各CTU内に設定される1つ以上のPUの各々についてインター予測処理(動き検出および動き補償)を実行する。例えば、インター予測部42は、例えばHEVCにより仕様化されている探索範囲に含まれる予測モード候補の各々について、予測誤差および発生する符号量に基づくコスト関数値を評価する。また、インター予測部は、入力画像が通常画像と異なる魚眼画像であることを魚眼情報に基づき判別した場合、魚眼画像に応じて例えばカレント予測ブロックに隣接する周辺ブロックの動きベクトルをスケーリング処理する。インター予測部42は、周辺ブロックのスケーリング処理後の動きベクトルを用いて予測動きベクトルを生成する。また、インター予測部42は、カレント予測ブロックの動きベクトルと予測動きベクトルとの差分ベクトルを生成して、コスト関数値の算出に用いる。次に、インター予測部42は、コスト関数値が最小となる予測モード、すなわち圧縮率が最も高くなる予測モードを、最適インター予測モードとして選択する。また、インター予測部42は、コスト関数値が最小となる差分ベクトルや予測動きベクトルを示す動き情報等を含むインター予測情報を生成する。インター予測部2は、最適インター予測モードと最適予測ブロックで生成された予測画像データとコスト関数値、およびインター予測情報を予測選択部43へ出力する。
予測選択部43は、イントラ予測部41およびインター予測部42から入力されるコスト関数値の比較に基づいて、CTU又はCU等毎に予測モードを設定する。予測選択部43は、イントラ予測モードを設定したブロックについては、イントラ予測部41により生成される予測画像データを演算部22,33へ出力すると共に、イントラ予測情報を可逆符号化部25へ出力する。また、予測選択部43は、インター予測モードを設定したブロックについては、インター予測部42により生成される予測画像データを演算部22,33へ出力すると共に、インター予測情報を可逆符号化部25へ出力する。
<2−2.画像符号化装置の動作>
<2−2−1.イントラ予測テーブルについて>
次に、イントラ予測部41で用いるイントラ予測テーブルについて説明する。図3は、魚眼画像と通常画像の歪みの違いを説明するための図である。被写体OBは、例えば半径が等間隔で相違する同心円であり、同心円の中心を中央位置として被写体OBを通常レンズまたは魚眼レンズを用いて撮像する。図3の(a)は、通常レンズを用いて取得された通常画像、図3の(b)は、魚眼レンズを用いて取得された魚眼画像を示している。
通常画像における被写体OBの同心円は、半径が等間隔で相違した状態として示される。しかし、魚眼画像は、中心から距離が離れるほど中心に向かう歪みが大きくなるという特徴を有しており、被写体OBの同心円は、中心から離れるに伴い半径の間隔が狭くなる。また、歪みは中心方向にのみ生じているため、円の中心とレンズの中心が一致している場合、形は真円のままである。こういった魚眼レンズの特徴は、どのような射影方式を採用している魚眼レンズでも変わらない。したがって、歪みの度合いに基づき魚眼画像を通常画像へ補正することが可能となる。ここで、魚眼レンズの中心からの距離に応じて変化する魚眼歪みを補正する補正率を「K」とすると、補正率Kは式(1)および式(2)の特徴を有する。なお、式(1)は補正率Kが魚眼の中心からの距離rの関数であることを示しており、式(2)は魚眼画像を通常画像に変換すると、絵柄が伸張されることを示している。
K=F(r) ・・・(1)
K>1 ・・・(2)
補正率Kは、例えば魚眼画像と通常画像の特性式に基づき決定できる。図4は魚眼レンズの射影方式を示している。図4の(a)は正射影方式であり、入射角αで入射した光と入射された光が投影される位置yの関係(特性式)は、式(3)で示すことができる。なお、「f」は魚眼レンズの焦点距離である。
r=f・sinα ・・・(3)
図4の(b)は等距離射影方式であり、特性式を式(4)に示す。
r=f・α ・・・(4)
図4の(c)は立体射影方式であり、特性式を式(5)に示す。
r=2f・tan(α/2) ・・・(5)
図4の(d)は等立体角射影方式であり、特性式を式(6)に示す。
r=2f・sin(α/2) ・・・(6)
なお、魚眼歪みを生じないレンズ(以下「通常レンズ」という)の射影方式は、図4の(e)に示す中心射影方式であり、特性式は式(7)である。
r=f・tanα ・・・(7)
魚眼レンズによる被写体像の射影により生じた魚眼歪みを補正するための補正率は、魚眼レンズと通常レンズの特性式に基づいて算出できる。例えば、焦点距離や撮像条件が同一で、レンズだけを変更した場合、補正率Kを式(1)に示すように魚眼の中心からの距離rの関数とするため、αを媒介変数として、魚眼レンズの中心からの距離r(α)と通常レンズの中心からの距離R(α)と補正率K(α)の対応付けを行う。すなわち、補正率K=通常レンズの特性式/魚眼レンズの特性式とする。
図5は、魚眼画像を通常画像に補正するための補正率を射影方式毎に示している。例えば正射影方式の補正率は「1/cosα」となる。また、等距離射影方式の補正率は「tanα/α」、立体射影方式の補正率は「tanα/(2・tan(α/2))」、等立体角射影方式の補正率は「tanα/(2・sin(α/2))となる。
図6は、補正率の導出を説明するための図である。図6の(a)に示すように、入射角αを0≦α≦90°の範囲で変化させ、その際の魚眼レンズと通常レンズの特性式の値(以下「特性値」という)を記録する。そして、補正前の特性値をr0とし、補正後の特性値をr1とすると、補正率(r1/r0)は、図6の(b)に示す特性となる。なお、入射角が0°である場合の補正率は(0/0)となるため定義されないが、魚眼レンズの中心では通常レンズを用いた場合に対する歪みが小さいことから補正率を「1」とする。この図6の(a)と図6の(b)の結果に基づき、特性値r0を基準として補正率(r1/r0)を示すと、特性値r0に対する補正率(r1/r0)の関係は図6の(c)に示す特性となる。また、特性値は焦点距離fによって異なることから、特性値r0の範囲を「0」から「1」までの範囲に正規化すれば、特性値r0を正規化した補正率と焦点距離に基づき所望の特性値r0に対する補正率(r1/r0)を取得できる。なお、補正率は上述の方法に限らず他の方法を用いて算出してもよい。
イントラ予測において、通常画像は特定の方向特性を持たないことから、図7のように、処理対象ブロックの位置がいずれの位置であっても、所定の複数の予測方向を方向性予測の予測モードとしたイントラ予測モードテーブル(基本テーブル)が用いられている。しかし、魚眼画像は上述のように歪みが存在するため方向特性を有する。したがって、歪特性を考慮して魚眼の中心からの方向と距離に応じて基本テーブルを歪ませる方向および強さ変更して、図8に示す歪みを生じさせたイントラ予測モードテーブル(以下「歪テーブル」ともいう)の予測モードを用いて魚眼画像の絵柄に忠実なイントラ予測を行い、基本テーブルを用いた場合に比べて符号化効率の向上を可能とする。なお、図8では、魚眼中心に向かって基本テーブルを圧縮されることで予測方向の粗密が発生する様子を例示しており、圧縮状態を容易に把握できるようにイントラ予測では必要とされていないベクトルの長さも圧縮に応じて調整している。
次に図9を用いて歪テーブルの生成について説明する。魚眼画像における処理対象ブロックの位置Pm(x,y)の歪テーブルを生成する場合、魚眼の中心Pg(xg,yg)からみた位置Pm(x,y)の方向を特定する。具体的には、図9に示すように、魚眼の中心Pg(xg,yg)からみた位置Pm(x,y)の方向を示す角度θを式(8)に基づいて算出する。
tanθ=(y−yg)/(x−xg) ・・・(8)
図10は、通常画像で用いるイントラ予測モードテーブル(基本テーブル)の予測モードと傾きの関係を示している。図10の(a)は予測モード毎の参照方向を示しており、図10の(b)では予測モードの参照方向(傾き)を角度とtanβで予測モード毎に示している。
図11はイントラ予測の予測方向を説明するための図である。図11の(a)は、基本テーブルを用いた場合の予測方向を示している。予測方向tanβは、魚眼中心Pg(xg,yg)を基準とした位置Pm(x,y)の傾きθ1と、傾きθ1を基準とした差分θ2に分けることができる。すなわち「θ=θ1+θ2」となる。また、予測方向の傾きは線分CMを基準にして、水平成分であるcosθ2と、垂直成分であるsinθ2に成分分解できる。
図11の(b)は、歪テーブルを用いる場合を示している。魚眼画像における位置Pm(x,y)を通常画像へ変化する場合の補正率を「Km」とすると、歪テーブルの予測方向tanβdは、魚眼中心Pg(xg,yg)を基準とした位置Pm(x,y)の傾きθ1に、傾きθ1を基準とした差分φを加えればよい。ここで、傾きθ1を基準とした水平成分は、基本テーブルと比べて1/Km倍に圧縮されていることから、tanφは式(9)となる。
tanφ=Km・sinθ2/cosθ2=Km・tanθ2 ・・・(9)
すなわち基本テーブルのtan(θ1+θ2)からtan(θ1+φ)を式(10)に基づき算出することで、位置Pm(x,y)に対応する歪テーブルを生成できる。なお、式(10)においてパラメータaは式(11)で算出される値であり、パラメータbは式(12)で算出される値である。
tan(θ1+φ)=(ba+(1−Km)a+Kmb)
/(Kma+(1−Km)ba+1)・・・(10)
a=tanθ1=(y−yg)/(x−xg) ・・・(11)
b=tan(θ1+θ2) ・・・(12)
図12は、魚眼画像で用いるイントラ予測モードテーブル(歪テーブル)の予測モードと傾きの関係(θ1=π/4,Km=1.3の場合)を示している。図12の歪テーブルでは、図10に示す基本テーブルに対して、予測方向が135°に近づくに伴い密になるように変更されている。
以上のような処理を行えば、処理対象ブロックの位置に応じたイントラ予測モードテーブル(歪テーブル)を処理対象ブロックの位置における補正率と所定のイントラ予測モードテーブル(基準テーブル)に基づき生成できる。
ところで、イントラ予測を行う処理対象ブロックの位置(補正率)に基づいて歪テーブルを生成すると方向性予測の処理コストが大きくなってしまう。また、位置毎に歪テーブルを予め生成して記憶させておく場合、処理コストを抑えることができるが、歪テーブルを記憶するためのメモリ容量が大きくなってしまう。したがって、魚眼画像の領域分けを行い、領域毎に予め歪テーブルを用意して、イントラ予測部41では、処理対象ブロックが属する領域に対応する歪テーブルを用いることで方向性予測の処理コストやメモリ容量を抑える。
図13は、魚眼画像の領域区分を説明するための図である。魚眼画像の領域区分は補正率に基づいて行う。補正率は、魚眼画像の中心からの距離が等しければ等しくなる。したがって、魚眼画像は、魚眼画像の中心を基準として径方向に区分される。また、魚眼画像の区分数(層数ともいう)は、魚眼画像の中心から径方向の補正率の変化、すなわち、魚眼レンズのレンズ特性に応じて設定して、例えば径方向の所定距離に対する補正率変化の最大値が大きくなるに伴い層数を大きくする。
図13の(a)(b)は、補正率に応じて魚眼画像を複数領域に区分した場合を例示している。魚眼画像の中心から径方向の補正率の変化が緩やかである場合、層数を所定数(図13の(a)では層数を「4」)とする。また、魚眼画像の中心から径方向の補正率の変化が急峻である場合、補正率の変化が緩やかである場合に比べて層数を増加する(図13 の(b)では層数を「5」)。
このように、魚眼画像の中心から径方向の補正率の変化に応じて径方向の領域区分数を調整すれば、領域内における補正率の変化が大きくなってしなうことを防ぐことが可能となる。
また、魚眼画像の中心を基準として点対称の位置(対角の位置)では歪みの強さが等しい。したがって、魚眼画像の領域区分では、魚眼画像の中心を通過する直線を領域の境界として、周方向に領域を区分する。なお、魚眼画像の中心を含む領域は歪みが少ないことから、周方向に領域を区分しなくともよく、イントラ予測モードテーブルとして基本テーブルを用いるようにしてもよい。
図13の(c)(d)は、魚眼画像を径方向と周方向に領域区分した場合を例示している。なお、図13の(c)(d)では周方向を8つに区分した場合を例示している。区分された領域については、対応する歪テーブルのインデックス(table_idx)をテーブル情報として付与することで、魚眼画像の画素位置がいずれの領域に属しているかに応じて、画素位置に対応するテーブル情報によって、対応する歪テーブルを選択可能とする。また、魚眼画像の中心を基準として点対称の位置では歪みの強さが等しいことから、魚眼画像の中心を基準として点対称の位置にある領域は同じインデックスを付与する。
各領域に対応する歪テーブルは、領域毎に傾きθ1と補正率Kmを設定して、図11の(b)を用いて説明したように生成する。例えばインデックスtable_idx=10である領域は周方向の中心が角度45°であり、例えば径方向の中心の補正率が「1.3」である場合、傾きをθ1=45°として補正率をKm=1.3として算出した図12に示す歪テーブルを、インデックスtable_idx=10である領域に対応する歪テーブルとする。
このように、魚眼画像の領域区分を行い、区分された領域毎に歪テーブルを設けて、イントラ予測では、処理対象ブロックが属する領域に対応するインデックスの歪テーブルを用いる。
さらに、魚眼レンズには図4に示すように複数の射影方式があり、射影方式によって図5のように補正率が異なる。したがって、魚眼レンズのレンズ特性(例えば射影方式)毎および領域毎に歪テーブルを設けて、魚眼情報で示された魚眼レンズのレンズ特性と処理対象ブロックの位置に応じた歪テーブルを選択するようにしてもよい。魚眼レンズ毎のレンズ特性毎および領域毎の歪テーブルは、予めイントラ予測部41のテーブル選択部412に記憶させてもよく、魚眼情報等と共にテーブル選択部412へ供給してもよい。
<2−2−2.符号化処理動作について>
次に、符号化処理動作について説明する。図14は、画像符号化装置の符号化処理動作を例示したフローチャートである。
ステップST1において画像符号化装置は画面並べ替え処理を行う。画像符号化装置10の画面並べ替えバッファ21は、表示順の入力画像を符号化順に並べ替えて、イントラ予測部41とインター予測部42およびSAOフィルタ35へ出力する。
ステップST2において画像符号化装置はイントラ予測処理を行う。図15はイントラ予測処理を例示したフローチャートである。ステップST21においてイントラ予測部は入力画像が魚眼画像であるか判別する。画像符号化装置10のイントラ予測部41は、魚眼情報によって入力画像が魚眼画像であることを判別した場合にステップST22に進み、入力画像が魚眼画像でないと判別した場合、入力画像は通常画像であるとしてステップST23に進む。
ステップST22においてイントラ予測部は歪テーブルを取得する。イントラ予測部41は、魚眼中心に対する処理対処ブロックの位置に応じた歪テーブルを取得する。また、魚眼画像を複数の領域に区分して領域毎に歪テーブルを設けた場合、イントラ予測部41は、処理対処ブロックが属する領域に対応する歪ブロックを取得する。さらに、魚眼レンズのレンズ特性毎および領域毎に歪テーブルを設けた場合、イントラ予測部41は、魚眼情報で示された魚眼レンズのレンズ特性と処理対象ブロックが属する領域に対応する歪テーブルを取得する。イントラ予測部41は、歪テーブルを取得してステップST24に進む。
ステップST23においてイントラ予測部は基本テーブルを取得する。イントラ予測部41は、入力画像が通常画像であることから基本テーブルを取得してステップST24に進む。
ステップST24においてイントラ予測部は最適イントラ予測モード選択処理を行う。イントラ予測部41は、ステップST22で取得した歪テーブルまたはステップST23で取得した基本テーブルとフレームメモリ36から読み出した参照画像データを用いて方向性予測を行い、歪テーブルまたは基本テーブルで示されたイントラ予測モードで処理対象ブロックの予測画像データを予測ブロックサイズ毎に生成する。イントラ予測部41は、生成した予測画像データと原画像データを用いてコスト関数値を算出する。なお、参照画像データとしては、デブロッキングフィルタ34等によりフィルタ処理されていない復号画像データが用いられる。イントラ予測部41は、算出されたコスト関数値に基づいて、最適イントラ予測モードを選択して、最適イントラ予測モードのイントラ予測により生成された予測画像データとコスト関数値とイントラ予測情報を予測選択部43に出力する。
図14に戻り、ステップST3において画像符号化装置はインター予測処理を行う。インター予測部42は、カレントピクチャに応じて参照ピクチャを取得して、カレントピクチャのカレント予測ブロックが参照ピクチャのいずれの領域に対応するか動き探索を全ての予測モードについて行う。また、インター予測部42は最適インター予測モード選択処理を行い予測モード毎に算出されているコスト関数値を比較して、例えばコスト関数値が最小となる予測モードを最適なインター予測モードと選択する。また、インター予測部42は、予測動きベクトルの算出に用いる動きベクトルを魚眼情報に基づいて調整して、調整後の動きベクトルを用いて予測動きベクトルを算出する。インター予測部42は、選択された最適なインター予測モードで動き補償を行い予測画像データを生成する。さらに、インター予測部42は、最適なインター予測モードで生成した予測画像データとコスト関数値、インター予測情報を予測選択部43へ出力してST4に進む。
ステップST4において画像符号化装置は予測画像選択処理を行う。画像符号化装置10の予測選択部43は、ステップST2およびステップST3で算出されたコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの一方を、最適予測モードに決定する。そして、予測選択部43は、決定した最適予測モードの予測画像データを選択して、演算部22,33へ出力する。なお、予測画像データは、後述するステップST5,ST10の演算に利用される。また、予測選択部43は、最適予測モードのイントラ予測情報またはインター予測情報を可逆符号化部25へ出力する。
ステップST5において画像符号化装置は差分演算処理を行う。画像符号化装置10の演算部22は、ステップST2で並べ替えられた原画像データと、ステップST4で選択された予測画像データとの差分を算出して、差分結果である残差データを直交変換部23へ出力する。
ステップST6において画像符号化装置は直交変換処理を行う。画像符号化装置10の直交変換部23は、演算部22から供給された残差データを直交変換する。具体的には、離散コサイン変換等の直交変換を行い、得られた変換係数を量子化部24へ出力する。
ステップST7において画像符号化装置は量子化処理を行う。画像符号化装置10の量子化部24は、直交変換部23から供給された変換係数を量子化する。この量子化に際しては、後述するステップST16の処理で説明されるように、レートが制御される。
以上のようにして生成された量子化情報は、次のようにして局部的に復号される。すなわち、ステップST8において画像符号化装置は逆量子化処理を行う。画像符号化装置10の逆量子化部31は、量子化部24から出力された量子化データを量子化部24に対応する特性で逆量子化する。
ステップST9において画像符号化装置は逆直交変換処理を行う。画像符号化装置10の逆直交変換部32は、逆量子化部31で生成された逆量子化データを直交変換部23に対応する特性で逆直交変換して残差データを生成して演算部33へ出力する。
ステップST10において画像符号化装置は画像加算処理を行う。画像符号化装置10の演算部33は、予測選択部43から出力された予測画像データを局部的に復号された残差データに加算し、局部的に復号された(すなわち、ローカルデコードされた)画像を生成する。
ステップST11において画像符号化装置はデブロッキングフィルタ処理を行う。画像符号化装置10のデブロッキングフィルタ34は、演算部33から出力された画像データに対して、デブロッキングフィルタ処理を行い、ブロック歪みを除去してSAOフィルタ35とフレームメモリ36へ出力する。
ステップST12において画像符号化装置はSAO処理を行う。画像符号化装置10のSAOフィルタ35は、デブロッキングフィルタ34から出力された画像データに対してSAO処理を行う。このSAO処理により、最大の符号化単位であるLCU毎にSAO処理のタイプと係数が求められて、それらを用いてフィルタ処理が行われる。SAOフィルタ35は、SAO処理後の画像データをフレームメモリ36に記憶させる。また、SAOフィルタ35は、SAO処理に関するパラメータを可逆符号化部25へ出力して、後述するようにステップST14で符号化する。
ステップST13において画像符号化装置は記憶処理を行う。画像符号化装置10のフレームメモリ36は、デブロッキングフィルタ34等でフィルタ処理が行われる前の画像と、デブロッキングフィルタ34等でフィルタ処理が行われた後の画像を記憶する。
一方、上述したステップST7において量子化された変換係数は、可逆符号化部25にも出力される。ステップST14において画像符号化装置は可逆符号化処理を行う。画像符号化装置10の可逆符号化部25は、量子化部24から出力された量子化後の変換係数と、供給された魚眼情報やイントラ予測情報およびインター予測情報等を符号化する。
ステップST15において画像符号化装置は蓄積処理を行う。画像符号化装置10の蓄積バッファ26は、符号化データを蓄積する。蓄積バッファ26に蓄積された符号化データは適宜読み出されて、伝送路等を介して復号側に伝送される。
ステップST16において画像符号化装置はレート制御を行う。画像符号化装置10のレート制御部27は、蓄積バッファ26に蓄積された符号化データがオーバーフローあるいはアンダーフローを生じないように量子化部24の量子化動作のレートを制御する。
このような画像符号化装置によれば、入力画像が魚眼画像であるとき、処理対象ブロックの位置で生じる魚眼歪みに応じて予測方向の粗密が調整された歪テーブルを用いてイントラ予測が行われる。したがって、予測方向の粗密が調整されていない基本テーブルを用いてイントラ予測を行う場合に比べて符号化効率を向上させることができるようになる。また、入力画像が通常画像であるとき符号化ストリームに魚眼情報を含めることで、魚眼情報の有無あるいは魚眼情報に基づき入力画像が通常画像または魚眼画像のいずれであるか画像復号装置で判別できるようになる。また、入力画像が通常画像であるときは基本テーブルを用いたイントラ予測が行われて、入力画像が魚眼画像であるときは歪テーブルを用いてイントラ予測が行われていることを画像復号装置で判別できるようになる。魚眼情報は、例えばシンタックスとして符号化ストリームに含める。また、魚眼情報はシーケンスが切り替わるまで変化しないことから、シーケンスレイヤに魚眼情報を示すシンタックスを設ければよい。
また、魚眼情報に魚眼レンズのレンズ特性を含めれば、魚眼画像の取得に用いた魚眼レンズに対応した歪テーブルを画像符号化装置と画像復号装置で用いて符号化処理や復号処理を行うことができる。さらに、図13に示す層数や分割位置を示す情報をシンタックスとしてシーケンスレイヤに設けてもよい。また、魚眼レンズのレンズ特性に応じて、径方向の領域区分間隔を設定してもよい。例えば、補正率と層数と間隔比率を関係付けてもよい。図16は、層数=4の場合の各層における補正率と間隔比率の関係を例示している。例えば第0層の補正率は「1.0」で、径方向の間隔比率は魚眼半径に対して「0.4」とされている。第1層の補正率は「1.1」で、径方向の間隔比率は魚眼半径に対して「0.3」、第2層の補正率は「1.2」で、径方向の間隔比率は魚眼半径に対して「0.2」、第3層の補正率は「1.3」で、径方向の間隔比率は魚眼半径に対して「0.1」とされている。したがって、層数や分割位置を示す情報に基づき、図13の(c)のように魚眼画像を領域分けすることが可能となり、画像符号化装置で用いた領域毎の歪テーブルを画像復号でも等しく利用できるようになる。
<2−3.画像復号装置の構成>
図17は、魚眼画像の符号化ストリームの復号処理を行う画像復号装置の構成を例示しており、画像復号装置50は、図1に示す画像符号化装置10に対応する画像復号装置である。画像符号化装置10で生成された符号化された符号化ストリームは、画像復号装置50に供給されて復号される。
画像復号装置50は、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、演算部65、デブロッキングフィルタ66、SAOフィルタ67、画面並べ替えバッファ68を有する。また、画像復号装置50は、フレームメモリ71、選択部72、イントラ予測部73、動き補償部74を有する。
蓄積バッファ61は、伝送されてきた符号化ストリームを受け取り蓄積する。この符号化ストリームは、所定のタイミングで読み出されて可逆復号部62へ出力される。
可逆復号部62は、パースを行う機能を有する。可逆復号部62は、符号化ストリームの復号結果に含まれる情報、例えば魚眼情報やイントラ予測情報とインター予測情報およびフィルタ制御情報等をパースし、必要なブロックに供給する。例えば、イントラ予測情報と魚眼情報をイントラ予測部73へ出力し、インター予測情報と魚眼情報を動き補償部74へ出力し、フィルタ制御情報をSAOフィルタ67へ出力する。また、可逆復号部62は、符号化ビットストリームの復号結果に含まれる符号化データとしての量子化係数を、逆量子化部63へ出力する。
逆量子化部63は、可逆復号部62により復号されて得られた量子化データを、図1の量子化部24の量子化方式に対応する方式で逆量子化する。逆量子化部63は、逆量子化されたデータを逆直交変換部64へ出力する。
逆直交変換部64は、図1の直交変換部23の直交変換方式に対応する方式で逆直交変換を行い、画像符号化装置10における直交変換前の残差データに対応する復号残差データを得て演算部65へ出力する。
演算部65には、イントラ予測部73若しくは動き補償部74から予測画像データが供給される。演算部65は、復号残差データと予測画像データとを加算して、画像符号化装置10の演算部22により予測画像データが減算される前の原画像データに対応する復号画像データを得る。演算部65は、その復号画像データをデブロッキングフィルタ66へ出力する。
デブロッキングフィルタ66は、デブロッキングフィルタ処理を行うことにより復号画像のブロック歪を除去する。デブロッキングフィルタ66は、フィルタ処理後の画像データをSAOフィルタ67へ出力する。
SAOフィルタ67は、デブロッキングフィルタ66によるフィルタ後の画像データに対してSAO処理を行う。SAOフィルタ67は、可逆復号部62から供給されるパラメータを用いて、LCU毎に、デブロッキングフィルタ66によるフィルタ後の画像データに対してフィルタ処理を行い、画面並べ替えバッファ68へ出力する。
画面並べ替えバッファ68は、画像の並べ替えを行う。すなわち、図1の画面並べ替えバッファ21により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられる。
SAOフィルタ67の出力は、さらに、フレームメモリ71に供給される。選択部72は、イントラ予測に用いられる画像データをフレームメモリ71から読み出し、イントラ予測部73へ出力する。また、選択部72は、インター処理される画像データと参照される画像データをフレームメモリ71から読み出し、動き補償部74へ出力する。
イントラ予測部73は、画像符号化装置10の図2に示すイントラ予測部41の構成から最適モード決定部414を除いた構成されており、画像復号装置50では予測画像生成部413の動作が画像符号化装置10と異なる。イントラ予測部73は、可逆復号部62から供給された魚眼情報と処理対象ブロックの位置に基づき符号化処理と等しいイントラ予測モードテーブルを選択して、予測画像生成部は、可逆復号部62から供給された最適イントラ予測モードの復号処理をフレームメモリ71から取得した復号画像データを用いて行い、予測画像データを生成して演算部65へ出力する。
動き補償部74は、可逆復号部62符号化ビットストリームの復号結果に含まれる情報をパースして出力された魚眼情報やインター予測情報に基づいて、フレームメモリ71から取得した画像データから予測画像データを生成して演算部65へ出力する。また、動き補償部74は、魚眼画像を復号する場合、画像符号化装置10のインター予測部42と同様に、カレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルの調整を行う。動き補償部74は、調整後の動きベクトルを用いて算出したカレント予測ブロックの動きベクトルを用いて動き補償を行い予測画像データを生成する。
<2−4.画像復号装置の動作>
次に、画像復号装置の実施の形態の動作について説明する、図18は画像復号装置の動作を例示したフローチャートである。
復号処理が開始されると、ステップST31において画像復号装置は蓄積処理を行う。画像復号装置50の蓄積バッファ61は、伝送されてきた符号化ストリームを受け取り蓄積する。
ステップST32において画像復号装置は可逆復号処理を行う。画像復号装置50の可逆復号部62は、蓄積バッファ61から供給される符号化ストリームを復号する。可逆復号部62は、符号化ストリームの復号結果に含まれる情報をパースし、必要なブロックに供給する。可逆復号部62は、魚眼情報やイントラ予測情報をイントラ予測部73へ出力して、魚眼情報やインター予測情報を動き補償部74へ出力する。
ステップST33において画像復号装置は予測画像生成処理を行う。画像復号装置50のイントラ予測部73または動き補償部74は、可逆復号部62から供給されるイントラ予測情報やインター予測情報に対応して、それぞれ予測画像生成処理を行う。
すなわち、イントラ予測部73は可逆復号部62から魚眼情報とイントラ予測情報が供給された場合、符号化ストリームが魚眼画像を示すときは処理対象画素位置に応じた歪テーブルを用いて予測画像データの生成を行い、符号化ストリームが通常画像を示すときは基本テーブルを用いて最適イントラ予測モードで予測画像データの生成を行う。動き補償部74は、可逆復号部62から魚眼情報とインター予測情報が供給された場合、最適インター予測モードで動き補償処理を行い、予測画像データを生成する。図19は、イントラ予測の予測画像生成処理を示したフローチャートである。
ステップST51においてイントラ予測部73は魚眼情報が含まれているか判別する。イントラ予測部73は、符号化ストリームに魚眼情報が含まれている場合はステップST52に進み、魚眼情報が含まれていない場合は通常画像の符号化ストリームと判別してステップST54に進む。
ステップST52においてイントラ予測部73は魚眼画像であるか判別する。イントラ予測部73は、符号化ストリームに含まれた魚眼情報によって魚眼画像であることが示されている場合にステップST53に進み、魚眼画像でないすなわち通常画像であることが示された場合にステップST54に進む。
ステップST53において、イントラ予測部73は、歪テーブルを取得する。イントラ予測部73は、魚眼中心に対する処理対処ブロックの位置に応じた歪テーブルを取得してステップST55に進む。
ステップST54においてイントラ予測部は基本テーブルを取得する。イントラ予測部73は、入力画像が通常画像であることから基本テーブルを取得してステップST55に進む。
ステップST55においてイントラ予測部は予測画像データ生成処理を行う。イントラ予測部73は、フレームメモリ71から読み出した参照画像データとステップST53で取得した歪テーブルまたはステップST54で取得した基本テーブルを用いて、イントラ予測情報で示された最適イントラ予測モードで予測画像データを生成する。イントラ予測部41は、生成した予測画像データを演算部65へ出力する。
図18に戻り、ステップST34において画像復号装置は逆量子化処理を行う。画像復号装置50の逆量子化部63は、可逆復号部62で得られた量子化データを、図1の量子化部24の量子化方式に対応する方式で逆量子化して、逆量子化データを逆直交変換部64へ出力する。
ステップST35において画像復号装置は逆直交変換処理を行う。画像復号装置50の逆直交変換部64は、図1の直交変換部23の直交変換方式に対応する方式で逆直交変換を行い、画像符号化装置10における直交変換前の残差データに対応する復号残差データを得て演算部65へ出力する。
ステップST36において画像復号装置は画像加算処理を行う。画像復号装置50の演算部65は、ステップST33でイントラ予測部73若しくは動き補償部74で生成された予測画像データと、逆直交変換部64から供給された復号残差データを加算して復号画像データを生成する。演算部65は、生成した復号画像データをデブロッキングフィルタ66とフレームメモリ71へ出力する。
ステップST37において画像復号装置はデブロッキングフィルタ処理を行う。画像復号装置50のデブロッキングフィルタ66は、演算部65より出力された画像に対して、デブロッキングフィルタ処理を行う。これによりブロック歪みが除去される。デブロッキングフィルタ66からの復号画像は、SAOフィルタ67へ出力する。
ステップST38において画像復号装置はSAO処理を行う。画像復号装置50のSAOフィルタ67は、可逆復号部62から供給されたSAO処理に関するパラメータを用いて、デブロッキングフィルタ66によるフィルタ後の画像に対して、SAO処理を行う。SAOフィルタ67は、SAO処理後の復号画像データを画面並べ替えバッファ68およびフレームメモリ71へ出力する。
ステップST39において画像復号装置は記憶処理を行う。画像復号装置50のフレームメモリ71は、演算部65から供給されたフィルタ処理前の復号画像データと、デブロッキングフィルタ66とSAOフィルタ67によってフィルタ処理が行われた復号画像データを記憶する。
ステップST40において画像復号装置は画面並べ替え処理を行う。画像復号装置50の画面並べ替えバッファ68は、SAOフィルタ67から供給された復号画像データを蓄積して、蓄積した復号画像データを画像符号化装置10の画面並べ替えバッファ21で並べ替えられる前の表示順序に出力する。
このような復号処理を行えば、上述の画像符号化装置10で生成された符号化ストリームの復号を行い、画像符号化装置10された魚眼画像を画像復号装置50から出力できる。
また、魚眼情報が含まれていない場合、基本テーブルを用いて予測画像データが生成されるので、従来の符号化ストリームの復号処理も行うことができる。
<3.第2の実施の形態>
第2の実施の形態では、イントラ予測において、方向性予測における予測モードを選択的に用いる。また、予測モードの選択では、魚眼画像の歪みに応じて選択する予測モードを決定する。
<3−1.画像符号化装置の構成>
第2の実施の形態の画像符号化装置は、図1に示す第1の実施の形態の画像符号化装置と同様に構成されており、可逆符号化部25とイントラ予測部41の動作が異なる。
可逆符号化部25は、各CTUについて量子化部24から入力される量子化データの可逆符号化処理、例えばCABAC(Context-Adaptive Binary Arithmetic Coding)の可逆符号化処理を行う。また、可逆符号化部25は、魚眼情報、予測選択部43で選択された予測モードのパラメータ、例えばイントラ予測モードを示す情報、またはインター予測モードを示す情報と動き情報などを取得する。さらに、可逆符号化部25は、後述するSAOフィルタ35からフィルタ処理に関するパラメータを取得する。さらに、画像にCTU、CU、TUおよびPUをどのように設定すべきかを示すブロック情報を取得する。可逆符号化部25は、量子化データを符号化するとともに、取得した符号化処理に関する各パラメータをH.265/HEVC規格のシンタックス要素として、符号化ストリームのヘッダ情報の一部として蓄積バッファ26に蓄積させる。また、可逆符号化部25は、画像符号化装置10に入力された魚眼情報を、符号化ストリームのシンタックス要素として、あるいは付加情報であるSEI(Supplemental Enhancement Information)として符号化ストリームに含める。
イントラ予測部41は、図2に示す第1の実施の形態のイントラ予測部と同様に構成されており、テーブル選択部で選択されるイントラ予測モードテーブルが第1の実施の形態と相違する。
ブロック位置算出部411は、入力画像が魚眼画像である場合、魚眼中心に対する処理対象ブロックの位置を算出して、算出した位置を示す位置情報をテーブル選択部412へ出力する。
テーブル選択部412は、入力画像が魚眼画像である場合、位置情報に基づいて魚眼中心に対する処理対象ブロックの位置に応じて予測モードが選択されたイントラ予測モードテーブルを予測画像生成部413へ出力する。また、テーブル選択部412は、入力画像が通常画像である場合、所定のイントラ予測モードテーブルを予測画像生成部413へ出力する。
予測画像生成部413は、フレームメモリ36から選択部37を介して読み出された参照画像データを用いて、テーブル選択部412から供給されたイントラ予測モードテーブルで示された全ての予測モードの予測画像データを生成する。また、予測画像生成部413は、処理対象ブロックを予測ブロックサイズとして各予測モードの予測画像データの生成を予測ブロックサイズ毎に行う。予測画像生成部413は、生成した予測画像データを最適モード決定部414へ出力する。
最適モード決定部414は、画面並べ替えバッファ21から供給された原画像データと、各予測ブロックサイズおよび各予測モードの予測画像データを用いてコスト関数値を算出する。また、最適モード決定部414は、コスト関数値が最小となる即ち圧縮率が最も高くなるイントラ予測モードと予測ブロックサイズの組み合わせを最適イントラ予測モードと予測ブロックの最適サイズとして、最適イントラ予測モードと最適サイズおよび入力画像が魚眼画像である場合に選択したイントラ予測モードテーブルを示すテーブル情報を有するイントラ予測情報を生成する。最適モード決定部414は、最適イントラ予測モードで生成された予測画像データとイントラ予測情報、および最適イントラ予測モードと最適サイズにおけるコスト関数値を予測選択部43へ出力する。
<3−2.画像符号化装置の動作>
<3−2−1.イントラ予測テーブルについて>
魚眼画像は、魚眼中心の方向に画像が歪むことから、上述の図8に示すように、周方向に予測方向が密集する特性を生じる。また、魚眼中心からの距離が長くなるに伴い、密集度合いが高くなる。そこで、第2の実施の形態では、基本テーブルの予測モードから、密集する方向や密集度合いに応じて予測モードを選択したイントラ予測モードテーブル(以下「選択テーブル」という)を予め生成しておき、処理対象ブロックの位置に応じた選択テーブルを用いてイントラ予測を行うことで、基本テーブルを用いた場合よりも効率よくイントラ予測を行う。
選択テーブルは、魚眼中心に対する処理対象ブロックの方角、または方角と魚眼中心から処理対象ブロックまでの距離に応じて生成する。
図20は、魚眼中心に対する処理対象ブロックの方角に基づいて選択テーブルを生成する場合の動作を例示している。処理対象ブロックの位置Paが魚眼中心Pgに対して角度θである場合、角度θは上述したように式(8)で示される値となる。また、円周方向の角度θdは式(13)となる。なお、θ>180°の場合、円周方向の角度θdは、魚眼中心Pgを基準として点対称となる。
θd=(θ±90°) ・・・(13)
選択テーブルは、基本テーブルの予測モードから、角度θdの方向を密集方向としてイントラ予測モードを選択して生成する。
図21は、魚眼中心に対する処理対象ブロックの方角と予測モードの選択結果を例示している。図21の(a)は処理対象ブロックが、図20の(a)に示すように位置Pa1(θ=135°)である場合を例示している。この場合、θd=45°,225°の方向を密集方向として予測モードの選択を行い、例えば方向性予測2,4,7,12,18,24,29,32,34を選択する。
図21の(b)は処理対象ブロックが位置Pa2(θ=90°)である場合を例示している。この場合、θd=180°の方向を密集方向として予測モードの選択を行い、例えば方向性予測2,6,8,10,12,14,18,26,34を選択する。
図21の(c)は処理対象ブロックが位置Pa3(θ=45°)である場合を示している。この場合、θd=135°の方向を密集方向として予測モードの選択を行い、方向性予測2,8,13,16,18,20,23,28,34を選択する。
図21の(d)は処理対象ブロックが位置Pa4(θ=0°)である場合を示している。この場合、θd=90°の方向を密集方向として予測モードの選択を行い、例えば方向性予測2,10,18,21,24,26,28,31,34を選択する。
このように、魚眼中心に対する処理対象ブロックの方角に基づく円周方向を密集方向として予測モードを選択して選択テーブルを生成すれば、基準テーブルを用いる場合に比べてイントラ予測を効率よく行うことができるようになる。
次に、魚眼中心に対する処理対象ブロックの方角と魚眼中心から処理対象ブロックまでの距離に基づいて選択テーブルを生成する場合について説明する。上述の図8に示すように、処理対象ブロックが魚眼画像の中心から離れるに伴い、予測モードの円周方向の密度が高くなる、したがって、イントラ予測部41は、処理対象ブロックが魚眼画像の中心から離れるに伴い、密集度合いが高くなるように予測モードが選択された選択テーブルを用いてイントラ予測を行う。
図22は、魚眼中心に対する処理対象ブロックの方角と魚眼中心からの距離に基づいて選択テーブルを生成する場合の動作を例示している。処理対象ブロックの位置Paが魚眼中心Pgに対して距離GAである場合、距離GAは式(14)で示される値となる。
Figure 2019244439
選択テーブルは、基本テーブルの予測モードから、角度θdの方向を密集方向として距離GAが長くなるに伴い密集度合いが高くなるようにイントラ予測モードテーブルを選択して生成する。
図23は、魚眼中心に対する処理対象ブロックの方角と魚眼中心から処理対象ブロックまでの距離に応じた予測モードの選択結果を例示している。なお、図22の(a)に示すように、魚眼中心からの処理対象ブロックの位置Pa3-1までの距離GAをL1とする。また、魚眼中心からの処理対象ブロックの位置Pa3-2,Pa3-3,Pa3-4までの距離GAをL2(>L1),L3(>L2),L4(>L3)とする。
図23の(a)は処理対象ブロックが位置Pa3-1(θ=45°,GA=L1)である場合を示している。この場合、L1が短い距離であることから、等間隔で予測モードの選択を行い例えば方向性予測2,6,10,14,18,22,26,30,34を選択する。
図23の(b)は処理対象ブロックが位置Pa3-2(θ=45°,GA=L2)である場合を示している。この場合、θd=135°の方向の密度が高く、位置Pa3-1の場合よりも密集度合いが高くなるように予測モードの選択を行い、例えば方向性予測2,7,11,15,18,21,25,29,34を選択する。
図23の(c)は処理対象ブロックが位置Pa3-3(θ=45°,GA=L3)である場合を示している。この場合、θd=135°の方向の密度が高く、位置Pa3-2の場合よりも密集度合いが高くなるように予測モードの選択を行い、例えば方向性予測2,8,13,16,18,20,23,28,34を選択する。
図23の(d)は処理対象ブロックが位置Pa3-4(θ=45°,GA=L4)である場合を示している。この場合、θd=135°の方向の密度が高く、位置Pa3-3の場合よりも密集度合いが高くなるように予測モードの選択を行い、例えば方向性予測2,11,15,17,18,19,21,25,34を選択する。
このように、魚眼中心に対する処理対象ブロックの方角に基づく円周方向を密集方向として、処理対象ブロックの魚眼中心からの距離が長くなるに伴い密集度合いが高くなるように予測モードを選択して選択テーブルを生成すれば、基準テーブルを用いる場合に比べてイントラ予測を効率よく行うことができるようになる。また、魚眼中心に対する処理対象ブロックの方角に基づいて生成される選択テーブルよりも、魚眼画像に対応した予測モードの選択テーブルを生成できる。
ところで、魚眼中心に対する方角と魚眼中心からの距離に応じて基本テーブルから予測モードを選択して選択テーブルを場合、イントラ予測を行う処理対象ブロックの位置に応じて選択テーブルを生成するとイントラ予測の処理コストが大きくなってしまう。また、位置毎に選択テーブルを予め生成して記憶させておく場合、処理コストを抑えることができるが、選択テーブルを記憶するためのメモリ容量が大きくなってしまう。したがって、魚眼画像の領域分けを行い、領域毎に予め選択テーブルを用意して、処理対象ブロックが属する領域に対応する選択テーブルを用いることでイントラ予測の処理コストやメモリ容量を抑えるようにする。
魚眼画像の領域区分は、例えば第1の実施の形態と同様に、補正率に基づき魚眼画像の中心を基準として径方向に行う。また、魚眼画像の区分数(層数ともいう)は、魚眼画像の中心から径方向の補正率の変化に応じて設定して、例えば径方向の所定距離に対する補正率変化の最大値が大きくなるに伴い層数を大きくする。また、魚眼画像の中心を基準として点対称の位置では歪みの強さが等しいことから、魚眼画像の中心を通過する直線を領域の境界として、周方向に領域を区分する。なお、魚眼画像の中心を含む領域は歪みが少ないことから周方向に領域を区分しなくともよく、図21の(a),図23の(a)に示すように、基本テーブルから一定間隔で選択した所定の複数の予測モードを示すイントラ予測モードテーブルを用いるようにしてもよい。
区分された領域については対応するテーブルのインデックス(table_idx)を付与することで、魚眼画像の画素位置がいずれの領域に属しているかに応じて、画素位置に対応するインデックスの選択テーブルを利用できるようにする。また、魚眼画像の中心を基準として点対称の位置では歪みの強さが等しいことから、魚眼画像の中心を基準として点対称の位置にある領域は同じインデックスを付与する。
また、各領域に対応する選択テーブルからなる選択テーブル群を、魚眼画像の生成に用いる魚眼レンズ毎に設けてもよい。魚眼レンズ毎の選択テーブル群は、予め画像符号化装置に記憶させてもよく、魚眼情報等と共に画像符号化装置に供給してもよい。
<3−2−2.符号化処理動作について>
次に、符号化処理動作について説明する。第2の実施の形態の画像符号化装置の符号化処理動作は、図14に示す第1の実施の形態の画像符号化装置の動作と同様であり、ステップST2のイントラ予測処理が異なる。
図24はイントラ予測処理を示すフローチャートである。ステップST61においてイントラ予測部は入力画像が魚眼画像であるか判別する。画像符号化装置10のイントラ予測部41は、魚眼情報によって入力画像が魚眼画像であることを判別した場合にステップST62に進み、入力画像が魚眼画像でないと判別した場合、入力画像は通常画像であるとしてステップST64に進む。
ステップST62においてイントラ予測部はブロック位置を算出する。イントラ予測部41は、魚眼中心に対する処理対象ブロックの方角、または方角と魚眼中心から処理対象ブロックまでの距離を算出してステップST63に進む。
ステップST63においてイントラ予測部はブロック位置に応じて選択テーブルを取得する。イントラ予測部41は、ステップST62で方角を算出した場合、方角に応じた選択テーブルを取得する。また、イントラ予測部41は、ステップST62で方角と距離を算出した場合、方角と距離に応じた選択テーブルを取得する。なお、魚眼中心に近接する位置では歪みがすくないことから、選択テーブルとして基準テーブルを選択してもよい。イントラ予測部41は処理対象ブロックの位置に応じて選択テーブルを取得してステップST65に進む。
ステップST64においてイントラ予測部は基本テーブルを取得する。イントラ予測部41は、入力画像が通常画像であることから基本テーブルを取得してステップST65に進む。
ステップST65においてイントラ予測部は最適イントラ予測モード選択処理を行う。イントラ予測部41は、フレームメモリ36から読み出した参照画像データとステップST63で取得した選択テーブルまたはステップST64で取得した基本テーブルで示された予測モードでイントラ予測を行い、予測画像データを生成する。イントラ予測部41は、生成した予測画像データと原画像データを用いてコスト関数値を算出する。なお、参照画像データとしては、デブロッキングフィルタ34等によりフィルタ処理されていない復号画像データが用いられる。イントラ予測部41は、算出されたコスト関数値に基づいて、最適イントラ予測モードを選択して、最適イントラ予測モードのイントラ予測により生成された予測画像データとパラメータやコスト関数値を予測選択部43に出力する。
なお、画像符号化装置では、上述のように基本テーブルから予測モードを選択して符号化処理を行っているため、画像復号装置では、入力画像が魚眼画像であっても、通常画像の場合と同様に符号化ストリームで示された予測モードでイントラ予測を行い予測画像データを生成すれば魚眼画像を再生できる。
このような第2の実施の形態によれば、イントラ予測において、方向性予測における予測モードを選択的に用いるので、全ての予測モードを用いる場合に比べて効率よくイントラ予測を行うことができるようになる。さらに、入力画像が魚眼画像である場合には、魚眼画像の歪みに応じて予測モードが選択されるので、魚眼画像の歪みを考慮することなく予測モードを選択した場合に比べて、符号化効率を高めることが可能となる。
<4.応用例>
次に、本技術の画像処理装置の応用例について説明する。本技術の画像処理装置は、例えば魚眼レンズを用いて動画像を撮影する撮像装置に適用できる。この場合、撮像装置に画像符号化装置10を設ければ、魚眼画像を効率よく符号化して、符号化ストリームを記録媒体に記録あるいは外部機器に出力できる。また、撮像装置に画像復号装置50を設ければ、符号化ストリームを復号して魚眼画像の記録再生を行うことができる。また、画像符号化装置10を設けた撮像装置を、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載すれば、移動体の周囲全体の画像を効率よく記録あるいは外部機器に伝送することができるようになる。さらに、魚眼レンズを用いて動画像を撮影する機能を有した携帯型電子機器に本技術の画像処理装置を設ければ、記録媒体に魚眼画像を記録する際に、従来よりもデータ量を削減することが可能となる。また、復号処理を行う画像処理装置を画像再生装置に設ければ、全天球画像をヘッドマウントディスプレイ等で表示できるようになる。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像を生成するイントラ予測部を備える画像処理装置。
(2) 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向を前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じて変更したテーブルである(1)に記載の画像処理装置。
(3) 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記処理対象ブロックの位置で生じる魚眼歪みを補正する補正率に基づいて前記予測方向が変更したテーブルである(2)に記載の画像処理装置。
(4) 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向から前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じて選択した予測方向を示すテーブルである(1)に記載の画像処理装置。
(5) 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記魚眼中心に対する処理対象ブロックの方向に対して直交する円周方向を密集方向として、前記所定の複数の予測方向から選択した予測方向を示すテーブルである(4)に記載の画像処理装置。
(6) 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記魚眼中心から処理対象ブロックまでの距離が長くなるに伴い密集度合いを高くして、前記所定の複数の予測方向から選択した予測方向を示すテーブルである(4)または(5)に記載の画像処理装置。
(7) 前記魚眼画像の魚眼中心を基準として前記魚眼画像を径方向および周方向に複数の領域に区分して、領域毎に前記イントラ予測モードテーブルを設けて、
前記イントラ予測部は、前記処理対象ブロックが含まれる領域に対応するイントラ予測モードテーブルを用いてイントラ予測を行う(1)乃至(6)のいずれかに記載の画像処理装置。
(8) 前記魚眼中心を対象点として点対称の領域に、等しいイントラ予測モードテーブルを設けた(7)に記載の画像処理装置。
(9) 前記魚眼中心を含む領域のイントラ予測モードテーブルは、所定の複数の予測方向を示すテーブルである(7)または(8)に記載の画像処理装置。
(10) 前記魚眼レンズのレンズ特性に応じて、前記径方向の領域区分数を設定した(7)乃至(9)のいずれかに記載の画像処理装置。
(11) 前記魚眼レンズのレンズ特性に応じて、前記径方向の領域区分間隔を設定した(7)乃至(10)に記載の画像処理装置。
(12) 入力画像が魚眼画像である場合、前記入力画像の符号化ストリームに魚眼情報を含める可逆符号化部をさらに備える(1)乃至(11)のいずれかに記載の画像処理装置。
(13) 前記魚眼情報は、少なくとも前記入力画像が魚眼画像であることと前記魚眼画像の魚眼中心を示す情報を含む(12)に記載の画像処理装置。
(14) 前記魚眼情報は、前記魚眼画像の取得に用いた魚眼レンズに関する情報を含む(13)に記載の画像処理装置。
(15) 前記魚眼画像の符号化ストリームを復号する可逆復号部をさらに備え、
前記可逆復号部は、前記符号化ストリームに含まれる魚眼情報と最適イントラ予測モードをパースして、
前記イントラ予測部は、前記可逆復号部で得られた魚眼情報と最適イントラ予測モードに基づき処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いて予測画像を生成する(1)乃至(11)のいずれかに記載の画像処理装置。
(16) 前記魚眼情報は、少なくとも前記入力画像が魚眼画像であることと前記魚眼画像の魚眼中心を示す情報を含み、
前記イントラ予測部は、前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる(15)に記載の画像処理装置。
(17) 前記魚眼情報は、前記魚眼画像の取得に用いた魚眼レンズに関する情報を含み、
前記イントラ予測部は、前記魚眼レンズに関する情報と前記処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる(16)に記載の画像処理装置。
この技術の画像処理装置と画像処理方法によれば、魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像が生成される。このため、歪みを生じた画像の符号化または復号処理を効率よく行うことができる。したがって、魚眼画像の記録や再生,伝送等を行う電子機器や移動体装置等に適している。
10・・・画像符号化装置
21,68・・・画面並べ替えバッファ
22,33,65・・・演算部
23・・・直交変換部
24・・・量子化部
25・・・可逆符号化部
26・・・蓄積バッファ
27・・・レート制御部
31,63・・・逆量子化部
32,64・・・逆直交変換部
34,66・・・デブロッキングフィルタ
35,67・・・SAOフィルタ
36,71・・・フレームメモリ
37,72・・・選択部
41・・・イントラ予測部
42・・・インター予測部
43・・・予測選択部
50・・・画像復号装置
61・・・蓄積バッファ
62・・・可逆復号部
73・・・イントラ予測部
74・・・動き補償部
411・・・ブロック位置算出部
412・・・テーブル選択部
413・・・予測画像生成部
414・・・最適モード決定部

Claims (18)

  1. 魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い、予測画像を生成するイントラ予測部
    を備える画像処理装置。
  2. 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向を前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じて変更したテーブルである
    請求項1に記載の画像処理装置。
  3. 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記処理対象ブロックの位置で生じる魚眼歪みを補正する補正率に基づいて前記予測方向が変更したテーブルである
    請求項2に記載の画像処理装置。
  4. 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、所定の複数の予測方向から前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じて選択した予測方向を示すテーブルである
    請求項1に記載の画像処理装置。
  5. 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記魚眼中心に対する処理対象ブロックの方向に対して直交する円周方向を密集方向として、前記所定の複数の予測方向から選択した予測方向を示すテーブルである
    請求項4に記載の画像処理装置。
  6. 前記処理対象ブロックの位置に応じたイントラ予測モードテーブルは、前記魚眼中心から処理対象ブロックまでの距離が長くなるに伴い密集度合いを高くして、前記所定の複数の予測方向から選択した予測方向を示すテーブルである
    請求項4に記載の画像処理装置。
  7. 前記魚眼画像の魚眼中心を基準として前記魚眼画像を径方向および周方向に複数の領域に区分して、領域毎に前記イントラ予測モードテーブルを設けて、
    前記イントラ予測部は、前記処理対象ブロックが含まれる領域に対応するイントラ予測モードテーブルを用いてイントラ予測を行う
    請求項1に記載の画像処理装置。
  8. 前記魚眼中心を対象点として点対称の領域に、等しいイントラ予測モードテーブルを設けた
    請求項7に記載の画像処理装置。
  9. 前記魚眼中心を含む領域のイントラ予測モードテーブルは、所定の複数の予測方向を示すテーブルである
    請求項7に記載の画像処理装置。
  10. 前記魚眼レンズのレンズ特性に応じて、前記径方向の領域区分数を設定した
    請求項7に記載の画像処理装置。
  11. 前記魚眼レンズのレンズ特性に応じて、前記径方向の領域区分間隔を設定した
    請求項7に記載の画像処理装置。
  12. 入力画像が魚眼画像である場合、前記入力画像の符号化ストリームに魚眼情報を含める可逆符号化部をさらに備える
    請求項1に記載の画像処理装置。
  13. 前記魚眼情報は、少なくとも前記入力画像が魚眼画像であることと前記魚眼画像の魚眼中心を示す情報を含む
    請求項1に記載の画像処理装置。
  14. 前記魚眼情報は、前記魚眼画像の取得に用いた魚眼レンズに関する情報を含む
    請求項13に記載の画像処理装置。
  15. 前記魚眼画像の符号化ストリームを復号する可逆復号部をさらに備え、
    前記可逆復号部は、前記符号化ストリームに含まれる魚眼情報と最適イントラ予測モードをパースして、
    前記イントラ予測部は、前記可逆復号部で得られた魚眼情報と最適イントラ予測モードに基づき処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いて予測画像を生成する
    請求項1に記載の画像処理装置。
  16. 前記魚眼情報は、少なくとも前記入力画像が魚眼画像であることと前記魚眼画像の魚眼中心を示す情報を含み、
    前記イントラ予測部は、前記魚眼画像の魚眼中心に対する前記処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる
    請求項15に記載の画像処理装置。
  17. 前記魚眼情報は、前記魚眼画像の取得に用いた魚眼レンズに関する情報を含み、
    前記イントラ予測部は、前記魚眼レンズに関する情報と前記処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いる
    請求項16に記載の画像処理装置。
  18. 魚眼レンズを用いて撮像した魚眼画像における処理対象ブロックの位置に応じたイントラ予測モードテーブルを用いてイントラ予測を行い予測画像をイントラ予測部で生成すること
    を含む画像処理方法。
JP2020525283A 2018-06-21 2019-04-03 画像処理装置と画像処理方法 Active JP7215480B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018117789 2018-06-21
JP2018117789 2018-06-21
PCT/JP2019/014761 WO2019244439A1 (ja) 2018-06-21 2019-04-03 画像処理装置と画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019244439A1 true JPWO2019244439A1 (ja) 2021-07-08
JP7215480B2 JP7215480B2 (ja) 2023-01-31

Family

ID=68983885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020525283A Active JP7215480B2 (ja) 2018-06-21 2019-04-03 画像処理装置と画像処理方法

Country Status (4)

Country Link
US (1) US11818339B2 (ja)
JP (1) JP7215480B2 (ja)
CN (1) CN112352425B (ja)
WO (1) WO2019244439A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295541B2 (en) * 2019-02-13 2022-04-05 Tencent America LLC Method and apparatus of 360 degree camera video processing with targeted view
US20220329837A1 (en) * 2021-04-06 2022-10-13 Lemon Inc. Neural Network-Based Post Filter For Video Coding
CN116563186A (zh) * 2023-05-12 2023-08-08 中山大学 一种基于专用ai感知芯片的实时全景感知系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050661A (ja) * 2013-09-02 2015-03-16 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
WO2017204185A1 (ja) * 2016-05-27 2017-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
WO2018060346A1 (en) * 2016-09-30 2018-04-05 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
WO2018060329A1 (en) * 2016-09-30 2018-04-05 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
US20180103219A1 (en) * 2016-10-12 2018-04-12 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI563469B (en) * 2013-01-02 2016-12-21 Vivotek Inc Image processor and display method for fisheye image thereof
JP2015115901A (ja) * 2013-12-13 2015-06-22 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
US11032545B2 (en) * 2017-06-29 2021-06-08 Qualcomm Incorporated Reducing seam artifacts in 360-degree video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015050661A (ja) * 2013-09-02 2015-03-16 キヤノン株式会社 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
WO2017204185A1 (ja) * 2016-05-27 2017-11-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
WO2018060346A1 (en) * 2016-09-30 2018-04-05 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
WO2018060329A1 (en) * 2016-09-30 2018-04-05 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
US20180103219A1 (en) * 2016-10-12 2018-04-12 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANDREA EICHENSEER AND ANDRE KAUP: "Coding of distortion-corrected fisheye video sequences using H.265/HEVC", 2014 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), JPN6019020991, October 2014 (2014-10-01), pages 4132 - 4136, XP032967407, ISSN: 0004898410, DOI: 10.1109/ICIP.2014.7025839 *
PHILIPPE HANHART, YUWEN HE AND YAN YE: "AHG8: Reference samples derivation using geometry padding for intra coding", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-D0092, JPN6019020993, October 2016 (2016-10-01), pages 1 - 6, ISSN: 0004898411 *

Also Published As

Publication number Publication date
CN112352425B (zh) 2024-02-13
JP7215480B2 (ja) 2023-01-31
CN112352425A (zh) 2021-02-09
US11818339B2 (en) 2023-11-14
US20210168363A1 (en) 2021-06-03
WO2019244439A1 (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
US11902575B2 (en) Image encoding method using a skip mode, and a device using the method
JP7235899B2 (ja) 非分離二次変換に基づいた画像コーディング方法及びその装置
CN105791842B (zh) 图像处理装置和图像处理方法
JP5194833B2 (ja) 符号化装置および方法、記録媒体、並びにプログラム
JP5810700B2 (ja) 画像処理装置及び画像処理方法
JP7215480B2 (ja) 画像処理装置と画像処理方法
JP2010016454A (ja) 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP7440544B2 (ja) 画像デコード方法及びその装置
KR20130124285A (ko) 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램 및 집적 회로
KR102490854B1 (ko) 영상 코딩 시스템에서 어파인 움직임 예측에 기반한 영상 디코딩 방법 및 장치
JP2024023972A (ja) サインデータハイディング関連映像デコーディング方法及びその装置
JP2024063219A (ja) ビデオまたは画像コーディング方法及びその装置
US11245919B2 (en) Image processing device and image processing method
JP2023105160A (ja) 画像コーディングシステムにおいてコンストラクテッドアフィンmvp候補を使用するアフィン動き予測に基づいた画像デコード方法及び装置
RU2806728C2 (ru) Оборудование и способ для кодирования изображений на основе фильтрации
JP5195875B2 (ja) 復号装置及び方法、記録媒体、並びにプログラム
JP7396883B2 (ja) 符号化装置、復号装置、及びプログラム
WO2020170554A1 (ja) 画像処理装置と画像処理方法
TW202349953A (zh) 視訊編解碼方法及其裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151