JP4189358B2 - 画像符号化装置及び方法 - Google Patents

画像符号化装置及び方法 Download PDF

Info

Publication number
JP4189358B2
JP4189358B2 JP2004179823A JP2004179823A JP4189358B2 JP 4189358 B2 JP4189358 B2 JP 4189358B2 JP 2004179823 A JP2004179823 A JP 2004179823A JP 2004179823 A JP2004179823 A JP 2004179823A JP 4189358 B2 JP4189358 B2 JP 4189358B2
Authority
JP
Japan
Prior art keywords
value
attention
attention level
information
deterioration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004179823A
Other languages
English (en)
Other versions
JP2006005650A (ja
Inventor
玲子 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004179823A priority Critical patent/JP4189358B2/ja
Priority to US11/152,258 priority patent/US7502518B2/en
Publication of JP2006005650A publication Critical patent/JP2006005650A/ja
Application granted granted Critical
Publication of JP4189358B2 publication Critical patent/JP4189358B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • H04N19/194Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive involving only two passes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Description

本発明は、画像符号化装置及び方法に関し、動画像または静止画像を量子化するために適切な量子化精度情報を設定する技術に関するものである。
従来のITU−TH.264,ISO/IEC MPEG―2などの動画像符号化標準方式では、マクロブロックと呼ばれる符号化単位の特徴に応じて、個々に最適な符号化モードあるいは量子化パラメータを選択して高画質な圧縮を行うことが可能である。
具体的には、圧縮方式のもっとも基本的な量子化方法として、重要度が高いと判断されたマクロブロックに対しては量子化パラメータである量子化ステップを小さくし、重要度が低いと判断されたブロックに対しては量子化ステップを大きくすることで、符号化効率および画質の改善を得る試みがなされている。
そこで視覚特性を考慮した量子化パラメータの修正方法が提案されている(例えば非特許文献1)。この修正方法は、人間の視覚特性が平坦部の歪みに敏感であるという性質を考慮して、入力画像のアクティビティを計算して、平坦部の量子化ステップを小さく修正する方法である。
他には知覚特性を考慮した映像の符号化方法が提案されている(例えば特許文献1)。この符号化方法は、注目領域から背景領域に向かって画質が次第に低下するようにモデリングを行い、その画質モデリング結果に応じて量子化パラメータを修正する方法である。
International Organisation for Standardisation TestModel Editing Committee,1993. Test Model 5. April. ISO-IEC/JTC1/SC29/WG11/N0400 特開2003−284071号公報
しかしながら、上記非特許文献1に記載された方法では、画面内の平坦部に対して量子化ステップを小さくすることで知覚しやすい部分の量子化歪みの軽減を行っているが、実際に人間が注目する部分は、画像内の平坦部ではない場合が多い。例えば、人の顔などを含み背景が比較的平坦な画像の場合、背景の平坦部よりも人の顔などの平坦ではない部分に注目すると思われる。そして人間の視覚特性では、詳細に見ることができる領域の面積が限られているため、画面内において注目する領域の画質が重視される。しかし、この方法は、注目する領域の量子化ステップを相対的に大きくしてしまうため、注目する領域の主観的な画質が低下するという問題がある。
一方、上記特許文献1に記載された方法では、注目する領域の量子化ステップを相対的に小さくすることで、注目する領域の画質を向上させているが、背景の平坦部の量子化ステップを相対的に大きくしてしまうため、背景の平坦部の知覚しやすい量子化歪みを強調することになり、結果的に全体的な主観画質を低下するという問題がある。
本発明は、上記に鑑みてなされたものであって、符号化時の知覚しやすい部分の画質劣化を軽減させ、かつ人間が視覚的に注目する領域の主観的な画質を向上させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、入力された入力画像情報について、前記入力画像情報内の予め区切られた画面領域の単位である符号化単位毎に量子化を行った後に、符号化を行う画像符号化装置であって、前記入力画像情報について前記符号化単位毎の量子化幅を設定する設定手段と、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における視覚的な注目度合いを示した注目度情報を算出する注目度算出手段と、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素について画質劣化の知覚容易性を示した劣化知覚度情報を算出する劣化知覚度算出手段と、前記注目度算出手段により算出された前記注目度情報及び前記劣化知覚度算出手段により算出された劣化知覚度情報に基づいて、絵柄が平坦でありかつ注目度が高い前記符号化単位については、前記量子化幅を相対的に小さくし、絵柄が平坦ではなく注目度が低い前記符号化単位については、前記量子化幅を相対的に大きくするように、前記設定手段で設定された前記量子化幅を修正する修正手段と、前記修正手段により修正された前記量子化幅により、前記入力画像情報を量子化する量子化手段と、を備え、前記注目度算出手段は、前記符号化単位毎の各画素とその隣接画素との輝度差の最大値が大きくなるほど値が大きくなり、1以上の値である第1の注目度と、前記符号化単位毎の動きが大きくなるほど値が大きくなり、1以上の値である第2の注目度と、前記符号化単位毎の平均色がHSV空間内での明度および彩度に基づいて予め定められた赤色の範囲内である場合には赤色の範囲外である場合よりも値が大きくなり、1以上の値である第3の注目度と、前記符号化単位毎の平均色と画面単位での平均色とのL*a*b空間内での色差が大きいほど値が大きくなり、1以上の値である第4の注目度と、前記符号化単位毎の平均色がHSV空間内での色相に基づいて予め定められた肌色の範囲内である場合に肌色の範囲外である場合よりも値が大きくなり、1以上の値である第5の注目度と、前記符号化単位毎の画面の中央からの距離が大きくなるほど値が大きくなり、1以上の値である第6の注目度と、を求め、前記第1の注目度、前記第2の注目度、前記第3の注目度および前記第4の注目度の相乗平均と前記第5の注目度と前記第6の注目度とを加算して前記符号化単位毎の第7の注目度を求め、前記第7の注目度が大きくなるほど値が大きくなるように前記注目度情報を求める、ことを特徴とする。
また、本発明は、入力された入力画像情報について、前記入力画像情報内の予め区切られた画面領域の単位である符号化単位毎に量子化を行った後に、符号化を行う画像符号化方法であって、前記入力画像情報について前記符号化単位毎の量子化幅を設定する設定ステップと、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における視覚的な注目度合いを数値で示した注目度情報を算出する注目度算出ステップと、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素について画質劣化の知覚容易性を数値で示した劣化知覚度情報を算出する劣化知覚度算出ステップと、前記注目度算出ステップにより算出された前記注目度情報及び前記劣化知覚度算出ステップにより算出された劣化知覚度情報に基づいて、絵柄が平坦でありかつ注目度が高い前記符号化単位については、前記量子化幅を相対的に小さくし、絵柄が平坦ではなく注目度が低い前記符号化単位については、前記量子化幅を相対的に大きくするように、前記設定ステップで設定された前記量子化幅を修正する修正ステップと、前記修正ステップにより修正された前記量子化幅により、前記入力画像情報を量子化する量子化ステップと、を備え、前記注目度算出ステップは、前記符号化単位毎の各画素とその隣接画素との輝度差の最大値が大きくなるほど値が大きくなり、1以上の値である第1の注目度と、前記符号化単位毎の動きが大きくなるほど値が大きくなり、1以上の値である第2の注目度と、前記符号化単位毎の平均色がHSV空間内での明度および彩度に基づいて予め定められた赤色の範囲内である場合には赤色の範囲外である場合よりも値が大きくなり、1以上の値である第3の注目度と、前記符号化単位毎の平均色と画面単位での平均色とのL*a*b空間内での色差が大きいほど値が大きくなり、1以上の値である第4の注目度と、前記符号化単位毎の平均色がHSV空間内での色相に基づいて予め定められた肌色の範囲内である場合に肌色の範囲外である場合よりも値が大きくなり、1以上の値である第5の注目度と、前記符号化単位毎の画面の中央からの距離が大きくなるほど値が大きくなり、1以上の値である第6の注目度と、を求め、前記第1の注目度、前記第2の注目度、前記第3の注目度および前記第4の注目度の相乗平均と前記第5の注目度と前記第6の注目度とを加算して前記符号化単位毎の第7の注目度を求め、前記第7の注目度が大きくなるほど値が大きくなるように前記注目度情報を求める、ことを特徴とする。
本発明によれば、絵柄が平坦でありかつ注目度が高い前記符号化単位については、前記量子化幅を相対的に小さくし、絵柄が平坦ではなく注目度が低い符号化単位については、量子化幅を相対的に大きくするように、注目度情報及び劣化知覚度情報の双方を用いて量子化を修正してから量子化を行うので、注目度情報のみによる修正により発生する、注目しない領域であり且つ劣化を知覚しやすい領域で符号化による画質の劣化を強調する、という事態を防ぎ、劣化知覚度情報のみによる修正で発生する、劣化を知覚しにくい領域であり且つ注目する領域では画質が低下するという事態を防ぎ、注目する領域及び劣化を知覚しやすい領域について適切な量子化が設定されるので、符号化時の知覚しやすい部分の画質劣化を軽減させ、かつ人間が視覚的に注目する領域の主観的な画質を向上させるという効果を奏する。
以下に添付図面を参照して、この発明にかかる画像符号化装置及び方法の最良な実施の形態を詳細に説明する。
図1は、本発明の本実施の形態にかかる画像符号化装置100の構成を示すブロック図である。同図に示すように画像符号化装置100は、減算部101、直交変換部102、量子化部103、エントロピー符号化部104、量子化制御部105、逆量子化部106、逆直交変換部107、加算部108、フレームメモリ109及び予測画像生成部110で構成される。入力される入力画像信号はフレーム単位の動画像信号とする。そして画像符号化装置100はこのような構成を備えることで、入力された入力画像信号について直交変換を行った後に、量子化を行い、さら符号化を行うことにより、入力画像信号を符号化した符号化データを出力する。また、符号化までの処理はマクロブロック単位で行うこととする。このマクロブロックは本発明の符号化単位に相当する。
減算部101は、入力画像信号と、後述する予測画像生成部110から入力された予測画像信号の差分を取り、予測誤差信号を生成し、直交変換部102に出力する。
直交変換部102は、減算部101により生成された予測誤差信号に対して、変換処理を行うことで、予測誤差信号のマクロブロック毎に少数の低域係数に集中させた直交変換係数情報を生成する。そして直交変換部102は生成した直交変換係数情報を出力する。なお、本実施の形態においては変換方式に離散コサイン変換(DCT)を用いることとするが、この変換方式に制限するものではない。
量子化部103は、量子化ステップ設定部121、量子化処理部122で構成され、マクロブロック毎に少数の低域係数に集中させた直交変換係数情報に対して高域係数を削除するための量子化を行う。また、量子化部103は、量子化を行うために量子化制御部105との間で量子化ステップ情報の入出力を行う。そして量子化部103は、量子化が行われた直交変換係数情報を、量子化直交変換係数情報としてエントロピー符号化部104及び逆量子化部106に出力する。次に量子化部103を構成する量子化ステップ設定部121及び量子化処理部122について説明する。
量子化ステップ設定部121は、本発明の設定手段に相当し、直交変換部102から入力された直交変換係数情報におけるマクロブロック毎の直交変換された各係数について割り算するための量子化ステップを設定する。この設定された量子化ステップを量子化ステップ情報として出力する。また量子化ステップが本発明の量子化精度情報に相当する。
量子化処理部122は、本発明の量子化手段に相当し、後述する量子化制御部105から入力された量子化ステップ情報による、修正された量子化ステップにより、直交変換部102から入力された直交変換係数情報を割り算して余りを丸めることで量子化を行う。
量子化制御部105は、劣化知覚度算出部131、注目度算出部132及び量子化ステップ修正部133とから構成される。量子化制御部105は、量子化ステップ設定部121から入力された量子化ステップ情報に対して、入力された入力画像信号あるいは後述する動きベクトル情報などを解析し、利用者の画像劣化の知覚しやすさを示す劣化知覚度及び注目する度合いを示す注目度を算出し、これら劣化知覚度及び注目度に基づいて、量子化ステップを修正して、出力する。この修正を行うことで視覚的に符号化歪みが小さくなり、かつ注目されると思われるブロックの画質が向上する。次に量子化制御部105を構成する劣化知覚度算出部131、注目度算出部132及び量子化ステップ修正部133について説明する。
劣化知覚度算出部131は、本発明の劣化知覚度算出手段に相当し、入力されたフレーム単位の入力画像信号をマクロブロック単位に分割し、各マクロブロックの劣化知覚度を算出する。
符号化時に発生する画質劣化の知覚しやすさとして、相対的に絵が複雑な領域より、平坦な領域の量子化歪みのほうがより知覚されやすいので、本実施の形態においては、劣化知覚度としてマクロブロックの絵柄の複雑さを示すアクティビティを用いる。なお、この劣化知覚度を示すアクティビティの算出方法は後述する。また、アクティビティが本発明の利用者が視覚的に画質劣化を知覚しやすい要素に相当する。
注目度算出部132は、本発明の注目度算出手段に相当し、入力されたフレーム単位の入力画像信号をマクロブロック単位に分割し、入力画像信号と予測画像生成部110から入力された動きベクトル情報により、マクロブロック毎に利用者が視覚的に注目している度合いを数値で示した注目度を算出する。なお、詳細な注目度の算出方法は後述する。また、本実施の形態では注目度を算出するために入力画像信号及び動きベクトル情報を用いることとしたが、どちらか一方により注目度を算出してもよい。
本実施の形態において、人間が注目している画像の特定領域としては、1)合焦程度(焦点が合っているか否かの程度を示す)が他の領域より高い領域、2)特別な色や他の領域とは異色な色を有する領域、3)画面の中心に近い領域、4)他の領域とは異質な動きベクトルを有する領域、とする。そして、これら合焦程度、色、画面内の位置、動きに関する特徴を示す値を算出し、算出された値を注目度とする。なお、合焦程度、色、画面内の位置、動きについての注目度の算出方法及び各々算出された注目度から求められる総合的な注目度の算出方法は後述する。また、合焦程度、色、画面内の位置、動きが本発明の利用者が視覚的に注目する要素に相当する。
また、本実施の形態においては、マクロブロック毎の注目度を合焦程度、色、画面内の位置、動きの各々について算出することとしたが、これらの特徴からのみ注目度を算出すると制限するものではなく、視覚的に注目される度合いを示す特徴を用いるのであればよい。また、これらのうち、いずれかを選択して注目度を算出しても良いし、別の物理的特徴を示す値を用いて算出しても良い。
量子化ステップ修正部133は、本発明の修正手段に相当し、量子化ステップ設定部121から入力された量子化ステップ情報、マクロブロック毎の劣化知覚度及び注目度に基づいて、マクロブロック毎に利用者が知覚しやすい符号化歪みを小さくし、かつ注目されていると思われるブロックの画質が向上するように量子化ステップ情報が保持する量子化ステップを修正し、修正された量子化ステップを量子化ステップ情報として出力する。
本実施の形態において、量子化ステップ修正部133による量子化ステップの修正では、注目度だけではなく、劣化知覚度を用いることとした。従来から用いられた、注目されにくい背景に画質劣化を知覚しやすい平坦な領域が含まれている画像を注目度のみ用いて修正した場合では、注目度が高いマクロブロックの量子化ステップをフレーム内で相対的に小さくし、注目度が低いマクロブロックの量子化ステップをフレーム内で相対的に大きくなるように修正され、結果として非注目領域の知覚されやすい平坦な領域の画質劣化を強調していた。しかし、本実施の形態の量子化ステップ修正部133は、注目度と劣化知覚度の両方に基づいて量子化ステップを修正することで画質劣化の強調を防ぎ、画質を向上させることを可能とした。
逆量子化部106は、量子化部103により出力された量子化直交変換係数情報に対してマクロブロック毎に量子化ステップを掛けることにより、逆量子化を行う。
逆直交変換部107は、逆量子化部106により逆量子化された量子化直交変換係数情報に対してさらに逆直交変換を行い、逆直交変換された情報を加算部108に出力する。
加算部108は、逆直交変換部107から入力された情報に、予測画像信号を加算して、局部復号信号を生成し、フレームメモリ109に出力する。
フレームメモリ109は入力された加算部108から入力された局部復号画像信号を記憶する。
予測画像生成部110は、フレーム内のマクロブロック毎に、入力された入力画像信号とフレームメモリ109に記憶された局部復号画像信号との間のマッチング(例えばブロックマッチング)を行い、もっとも差分が小さくなるような動きベクトルを検出し、この動きベクトルで補償された局部画像信号を用いて予測画像信号を生成する。そして予測画像生成部110は、補償するときに選択された、動きベクトル情報及び予測モード情報を生成された予測画像信号と供に出力する。
エントロピー符号化部104は、量子化部103による量子化直交変換係数情報及び予測画像生成部110により入力された動きベクトル情報と予測モード情報について、入力画像信号の出現確率の偏りを利用して圧縮する(エントロピー符号化を行う)。そしてエントロピー符号化部104は、圧縮して生成された符号化データを伝送系または蓄積系(ともに図示せず)に出力する。また本実施の形態において、圧縮方式として可変長符号方式を用いるが、本発明を可変長符号方式に制限するものではない。
次に、以上により構成された本実施の形態に係る画像符号化装置100において入力された入力画像信号について処理を行い、符号化データを出力するまでの処理について説明する。図2は本実施の形態にかかる画像符号化装置100における入力された入力画像信号について処理を行い、符号化データを出力するまでの全体処理を示すフローチャートである。
減算部101は、入力された入力画像信号から予測画像生成部110から入力された予測画像信号の差分を取ることで予測誤差信号を生成し、出力する(ステップS201)。なお、予測画像生成部110から入力される予測画像信号の生成手順については後述する。
そして直交変換部102は、入力された予測誤差信号に対して直交変換を行い、直交変換された予測誤差信号である直交変換係数情報を出力する(ステップS202)。
量子化部103は、入力された直交変換係数情報に対して量子化を行い、量子化された直交変換係数情報を示す量子化直交変換係数情報を出力する(ステップS203)。量子化部103は、量子化ステップを保持する量子化ステップ情報を量子化制御部105との間で入出力を行い、量子化制御部105により修正された量子化ステップを用いて直交変換係数情報に対して量子化を行う。なお、量子化部103及び量子化制御部105により行われる処理の詳細は後述する。
エントロピー符号化部104は、量子化部103から入力された量子化直交変換係数情報及び予測画像生成部110により入力された動きベクトル情報と予測モード情報についてエントロピー符号化を行い、生成された符号データを出力する(ステップS204)。なお、入力される動きベクトル情報と予測モード情報の生成手順については後述する。
上述した処理手順により注目度及び劣化知覚度に基づいて量子化され、かつ符号化されたデータの取得が可能となる。なお、符号化までの処理手順を上述した処理手順に制限するものではない。
次に、図2のステップS203による量子化部103及び量子化制御部105により入力された直交変換係数情報を量子化するまでの処理について説明する。図3は本実施の形態にかかる画像符号化装置100の量子化部103及び量子化制御部105により入力された直交変換係数情報について量子化するまでの全体処理を示すフローチャートである。
量子化ステップ設定部121は、入力された直交変換係数情報のマクロブロック毎の各係数について割り算するための量子化ステップを設定し、この設定された量子化ステップを量子化ステップ情報として出力する(ステップS301)。
注目度算出部132は、入力画像信号と動きベクトル情報からマクロブロックの注目度を算出する(ステップS302)。上述したとおり、本実施の形態において人間が注目している画像の特定領域は合焦程度、色、画面内の位置、動きとするため、まずこれらについて各々の注目度を算出し、さらに各々の注目度から総合的な注目度を算出する。
合焦程度の特徴についての注目度bの算出方法について説明する。画像内において、一般に焦点が合っている領域では、隣接画素の輝度が急激に変化する部分が有ると考えられる。このため、マクロブロック内に輝度の急激に変化する部分があれば、焦点が合っているとみなし、合焦程度の特徴を示す値を高くする。
このマクロブロックの合焦程度についての注目度bは数(1)式により算出される。
b=(d―dmin)/(dmax―dmin)+1…(1)
dは、当該マクロブロック内のある画素とその隣接画素との輝度差の最大値とし、dmin,dmaxはそれぞれのフレーム単位におけるdの最大値、最小値である。数(1)式によれば、隣接画素との輝度差の最大値dが大きくなるほどbの値が大きくなる。すなわち、焦点が合っている領域ほど、フレーム単位で、bの値が相対的に大きくなる。
なお、合焦程度をマクロブロック内の隣接画素の輝度差を最大値として算出する方法に制限するものではなく、例えばブロック内の画素の輝度の自己相関関係や、直交交換係数の高周波数成分等から算出する方法など、他の方法を用いて算出しても良い。
次に色に関する注目度の算出方法について説明する。色について利用者が注目する場合は、特徴的な色、例えば赤あるいは肌色の場合、そしてフレームなどの単位における平均色との色の違いがある場合が考えられる。そして本手順においては、赤に関する注目度r、肌色に関する注目度sk、フレーム単位における平均色との色の違いによる注目度cdのそれぞれについて算出する。
赤に関する注目度rはブロック内の画素の色の平均値をHSVカラーモデルで表した場合の明度V及び彩度Sにより求めることとする。例えば明度V>0.7であり、かつ彩度S>0.5の場合にr=2とし、それ以外の場合をr=1とする。なお、明度V及び彩度Sは0〜1の間の値をとる。
肌色に関する注目度skはブロック内の画素の色の平均値をHSVカラーモデルで表した場合の色相Hにより求めることとする。例えば0<H<(π/6)の場合に肌色と見なしsk=2とし、それ以外の場合をsk=1とする。なお、色相Hは0〜2πの間の値をとる。
フレーム単位における平均色との色の違いによる注目度cdを求めるために、まずフレーム内で画素の色の平均値をL*a*bカラーモデルで表した値Cframe_avとマクロブロック内の画素の色の平均値をL*a*bカラーモデルで表した値Cblock_avを算出する。そしてCblock_avとCframe_av のL*a*b空間内のブロックにおける色差cを数(2)式により算出する。
c=‖Cblock_av―Cframe_av‖…(2)
そしてcをフレーム内の全てのブロックについて算出し、フレーム内のcの最小値をcminとし、フレーム内のcの最大値をcmaxとする。
そしてフレーム単位における平均色との色の違いによるブロックの注目度cdを数(3)式により算出する。
cd=(c―cmin)/(cmax−cmin)+1…(3)
なお、本実施の形態では、色に関する注目度の算出方法において、赤と肌色を人の視線を引きつける特定色として注目度を設定したが、この2色に制限するものではなく、画像の特徴に応じて、他の色に関する注目度を設定してもよい。また色差による算出方法を、当該マクロブロックの平均色と、フレーム内の平均色とのL*a*b空間での色差が大きいほど、色差に関する注目度が大きくなるような算出方法に制限するものではなく、例えば隣接ブロックの平均色との色差を用いて算出するなど、他の算出方法を用いてもよい。また、色の特徴によって視覚的に注目する度合いが算出できる方法であれば、特定色であるか否による注目度の算出方法あるいは周辺領域との色差による注目度を算出する方法に制限せず、他の特徴を用いて算出しても良い。
次に画面内の位置に関する注目度pの算出方法について説明する。画面内において中心に近づくほど注目度pが高くなると考えられるため、マクロブロックの重心位置と画面内の中心との距離に基づいて画面の位置に関する注目度pを算出する。なお、本手順ではフレーム単位で画面内の位置に関する注目度を求めることとする。
例えば注目度pを数(4)式により算出する。
p=2−(l―lmin)/(lmax―lmin)…(4)
lはマクロブロックの重心位置と画面内の中心との距離を示し、lmaxはフレーム内でのlの最大値であり、またlminはフレーム内でのlの最小値である。そして画面内の位置に関する注目度pを、数(4)式により求めることで当該マクロブロックの重心位置が画面内の中心位置から遠ざかるにつれ、線形に減少することとなる。なお、画面内の位置に関する注目度を数(4)式による算出方法に制限するものではなく、画面内の位置に基づいて注目度を算出する方法であれば、どのような算出方法でもよい。
次にマクロブロックの動きに関する注目度mvの算出方法について説明する。マクロブロックの動きに関する注目度mvを算出するために予測画像生成部110により入力された動きベクトル情報を用いる。まずは当該マクロブロックの動きベクトルvから、動きベクトルの大きさsを数(5)式により算出する。
s=‖v‖+a…(5)
なお、aはカメラワークによる人間の注目点の分布の偏りを考慮した値である。例えばカメラがズームイン動作を行っているような画像の場合には、人間の注目点の分布がズームインの中心部に集まることが知られていることから、ズームインである場合にはaに例えば上述した数(4)式のpを適用し、中心からの距離が近いほど注目度が高くなるような値とすることが可能である。またズームイン以外のカメラワークの場合にはa=0とする。なお、ズームインの場合にのみaの値を設定することに制限するものではなく、ズームイン以外のカメラワークによりaの値を定めても良い。
そして数(5)式により、sをフレーム内の全てのブロックから算出し、フレーム内におけるsの最大値をsmaxとし、sの最小値をsminとする。そしてこれらの値からマクロブロックの動きに関する注目度mvを数(6)式により算出する。
mv=(s−smin)/(smax―smin)+1…(6)
そしてマクロブロックの動きに関する注目度mvは、数(6)式により求めることで当該マクロブロックの動きの大きさに応じて、線形に増減することとなる。
なお、予測画像生成部110により入力された動きベクトル情報を用いた算出に制限するものではなく、例えば、入力画像信号を1フレーム前の入力画像信号のアフィン変換により近似するようなアフィンパラメータを推定し、このパラメータを用いて1フレーム前の入力画像信号を動き補償したあと、ブロックマッチングにより求めた動きベクトルとしてもよい。この方法は、カメラワークによる画像のグローバルな動きを取り除いた動きベクトルを検出することを意味する。このアフィンパラメータの係数により上述したaの値を定めてもよい。他にもフレームやフィールドやスライス単位に含まれるマクロブロックの動きベクトルの向きヒストグラムによりaの値を定めても良い。
そして、以上の各々の注目度から各マクロブロックの総合的な注目度Gを算出する。まずは、上述のマクロブロックごとの合焦程度、色、位置情報、動きの注目度より各ブロックの注目度合いを示すgを数(7)式より算出する。
g=(b×mv×r×cd)^(1/4)+sk+p…(7)
数(7)式においては肌色に関する注目度skと位置に関する注目度pを重視し、合焦程度による注目度b、動きによる注目度mv、赤色に関する注目度r、色差に関する注目度cdの相乗平均に加算した値を各ブロックの注目度合いを示すgとした。この算出方法は、人間の画像を見る際に、人の顔や手などの肌色領域や、画面の中心領域を特に注目することが多いことを考慮したものである。この数(7)式により特に肌色領域及び位置に関する注目度に重点を置いた量子化ステップの修正が可能となる。なお、この数(7)式による算出方法に制限するものではなく、例えばそれぞれの特徴による注目度の平均値による算出方法など、他の算出方法を用いても良い。
そして数(7)式により、gをフレーム内の全てのブロックから算出し、フレーム内におけるgの最大値をgmaxとし、gの最小値をgminとする。そしてこれらの値からマクロブロックの総合的な注目度Gを数(8)式により算出する。
G=(g−gmin)/(gmax―gmin)+1…(8)
そしてマクロブロックの総合的な注目度Gは、数(8)式により求めることでgをフレーム単位で0〜1の範囲にスケーリングした値となる。
なお、マクロブロックの合焦程度などの各々の注目度、あるいは総合的な注目度の算出方法を、上述した式による算出方法に制限するものではない。例えば上述した式のように線形に減少するものではなく、非線形に減少するような別の式により注目度を算出しても良い。また、知覚的に注目する度合いを示す別の物理的特徴を示す値を別の式により算出して、算出された別の物理特徴を示す値により総合的な注目度Gを算出してもよい。なお、本実施の形態においては各々の注目度、あるいは総合的な注目度についてフレーム単位でスケーリングを行ったが、フレーム単位に制限するものではなく、例えばフィールドやスライス単位で行ってもよい。
次に、劣化知覚度算出部131は、入力画像信号からマクロブロックの劣化知覚度を算出する(ステップS303)。上述したとおり、本実施の形態においてマクロブロックの劣化知覚度として絵柄の複雑さを示すアクティビティN_actを用いるので、このアクティビティN_actを算出する。
まずは当該マクロブロックの入力画像の分散値であるVyに1を加えた値をactとする。そしてアクティビティN_actを数(9)式により算出する。
_act=(A×act+ave_act)/(act+A×ave_act)…(9)
またave_actはフレーム単位でのactの平均値であり、AはN_actの値を1/A〜Aの値にスケーリングするための定数であり、後述する係数GAにより適切な量子化ステップに修正できるような定数を設定する。Aの具体的な数値として、例えばA=1.5が考えられるが、本実施の形態はA=1.5に制限するものではない。
数(9)式によりアクティビティN_actは、当該マクロブロックの入力画像の分散が平均よりも小さい場合、つまり絵柄として相対的に平坦な部分の場合、アクティビティN_actは1より小さくなる。逆に、当該マクロブロックの入力画像の分散が平均よりも大きい場合、つまり絵柄として相対的に複雑な部分の場合、アクティビティN_actの値は1より大きくなる。なお、アクティビティN_actが本発明の劣化知覚度情報に相当する。
そして、量子化ステップ修正部133では、ステップS302より算出された注目度及びステップS303により算出された劣化知覚度により、ステップS301で設定された量子化ステップを修正する(ステップS304)。
まずGは0〜1の範囲でスケーリングされた値であり、後の説明を容易にするため数(10)式により1を基準として±0.5増減がある変数G’にする。
G’=1.5―G…(10)
つまり、数(10)式で算出されたG’は、注目度が他のブロックと比べて高いブロックでは1より小さくなり、注目度が0.5以下、すなわち注目度が他のブロックと比べて低いブロックでは1より大きな値となる。なお、G’が本発明の注目度情報に相当する。
次に、マクロブロックの注目度Gと劣化知覚度を示すアクティビティN_actにより量子化ステップを修正するために用いる係数GAを数(11)式により算出する。
GA=G’×N_act…(11)
つまり、数(11)式の係数GAの値は、絵柄が平坦でありかつ注目度が高いマクロブロックでは、1より小さな値となり、逆に絵柄が平坦ではなく注目度が低いブロックでは、1より大きな値となる。
なお、量子化ステップを修正するための係数を得る式を数(11)式に制限するものではなく、他の式により量子化ステップを修正するための係数を得てもよい。
またG’により注目度が他のブロックに比べて高い場合に1より大きくなり、注目度が他のブロックに比べて低い場合に1より小さくなるようにしたが、注目度について他のブロックと比べて大きいか否か判断するための値であるG’を(1.5―G)に制限するものではない。また、後述する変形例におけるG’の値も同様とする。
次に、係数GAを用いて、量子化ステップ情報として量子化ステップ修正部133から入力された量子化ステップQP’を修正して量子化ステップQPを得る。具体的な量子化ステップQPの値は数(12)式により算出される。
QP=GA×QP’…(12)
なお、算出された量子化ステップQPが、整数でない場合は四捨五入により整数に丸められる。なお、四捨五入に制限するものではなく、切り捨てや切り上げにより整数に丸めても良い。
数(12)式により、絵柄が平坦でありかつ注目度が高いマクロブロックについては、量子化ステップを相対的に小さくし、絵柄が平坦ではなく注目度が低いマクロブロックについては、量子化ステップを相対的に大きくする。
そして、量子化処理部122は、ステップS304により修正された量子化ステップを用いて、入力された直交変換係数情報について量子化を行う(ステップS305)。
なお、本実施の形態において量子化する手順を上述の手順に制限するものではない。特にステップS301、ステップS302、ステップS303においては、処理手順の順序を制限するものではなく、例えば同時に行うことにしても良い。
上述した処理手順により、注目度が高いマクロブロックの量子化ステップを小さく修正したあとで、量子化を行うので注目領域の主観画質を向上させることが可能となる。さらに注目度が低いが絵柄が平坦であり知覚しやすいマクロブロックにおいても、より1に近い値に設定されたGAにより量子化ステップを修正するので、本処理手順により量子化ステップが大きすぎるように修正されることもなく、量子化後の画像において非注目領域の知覚されやすい画質劣化の軽減が可能となる。これにより知覚しやすい平坦部の符号化歪みを軽減し、かつ注目領域の主観的な画質を向上させることが可能となる。
次に、量子化直交変換係数情報から予測画像信号を生成するまでの処理について説明する。図4は本実施の形態にかかる入力された量子化直交変換係数情報から予測画像信号を生成するまでの全体処理を示すフローチャートである。
逆量子化部106は、量子化部103より入力された量子化直交変換係数情報についてマクロブロック毎に量子化ステップを掛けることで、逆量子化を行う(ステップS401)。そして逆直交変換部107は、逆量子化された量子化直交変換係数情報について逆直交変換を行う(ステップS402)。
次に加算部108は、予測画像生成部110より入力された予測画像信号とステップS402において逆直交変換された情報を加算して、局部復号画像信号を生成する(ステップS403)。そしてフレームメモリ109は、生成された局部復号画像信号を記憶する(ステップS404)。
そして予測画像生成部110は、フレーム内のマクロブロック毎に、入力画像信号とフレームメモリ109に記憶された局部画像信号との間のマッチングを行い、予測画像信号を生成する(ステップS405)。そして予測画像生成部110は、生成した予測画像信号を、選択された、動きベクトル情報及び予測モード情報と供に出力する。
上述した処理手順により選択された、動きベクトル情報及び予測モード情報は、エントロピー符号化部104により、量子化直交変換係数情報と供に符号化されることとなる。また、予測画像信号は、減算部101において入力画像信号に対して減算処理を行い、データ量の縮小が可能となった。また予測画像信号は、加算部108において逆直交変換された情報に加算することで局部復号画像信号を生成することが可能となった。
また、本実施の形態においては、マクロブロックの劣化知覚度を示す値としてアクティビティを用いることとしたが、符号化時の画質劣化の知覚しやすさを示す値であればよく、アクティビティに制限するものではない、例えば、γ特性に基づく算出方法や、輝度の平均値が小さい方がより劣化を知覚しやすいという特性を用いた算出方法、あるいは他の知覚特性を用いた算出方法など、他の方法を用いて算出してもよい。また、例えばアクティビティやγ特性、輝度値に関する特性などを画質劣化の知覚しやすさに関わる特性を複数用いて劣化知覚度を算出してもよい。
また、アクティビティの算出方法についても数(9)式による算出方法に制限せず、例えばVyの値としてマクロブロックを4分割し、それぞれに含まれる輝度の分散の最小値を用いるなど、他の算出方法を用いても良い。
また、本実施の形態において、マクロブロックを本発明の符号化単位として、マクロブロック毎に予測モードおよび量子化ステップの対を決定することとしたが、これに制限するものではなく、例えば複数のマクロブロック単位、スライス、フィールド、フレーム、ピクチャ、あるいはGOPなど他の単位を用いても良い。
さらに、本実施形態においては動画像について符号化処理を行ったが、静止画像の符号化あるいは他視点画像の符号化に本発明を適用することも可能である。
(変形例)
本発明は、上述した各実施の形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
(変形例1)
上述した実施の形態では、量子化ステップ修正部133により量子化ステップを修正する際に、数(12)式により量子化ステップQP’と係数GAの積により修正していたが、同様の性質を持つ式により量子化ステップQPを算出してもよい。
例えば、数(13)式により量子化ステップを算出することも考えられる。
QP=K・logL(GA)+QP’…(13)
Lは1以上の実数であり、Kは正の実数である必要があり、H.264に適用する場合はL=2,K=6が望ましい値であると考えられる。また、算出された量子化ステップQPが整数でない場合、切り捨てや切り上げあるいは四捨五入等を用いて整数に丸める。この数(13)式を用いることで本実施の形態の数(12)式と同様の効果が得られる。つまり知覚しやすい平坦部の符号化歪みを軽減し、かつ注目領域の主観的な画質を向上させることが可能となった。
(変形例2)
さらに上述した実施の形態においては係数GAを求めるために数(11)式を用いたが、他の算出方法によりGAを算出しても良い。例えばG’が1より大きいか否かにより場合分けしてGAを得る方法がある。
例えばG’≧1の場合にGA=G’とし、G’<1の場合に、GA=N_actとして算出する方法が考えられる。
また、G’≧1の場合にGA=N_actとし、G’<1の場合に、GA=G’として算出する方法が考えられる。
また、G’≧1の場合にGA=G’×N_actとし、G’<1の場合に、GA=N_actとして算出する方法が考えられる。
また、G’≧1の場合にGA=N_actとし、G’<1の場合に、GA=G’×N_actとして算出する方法が考えられる。
これらの算出方法によりGAを求め、上述した実施の形態あるいは変形例1により量子化ステップを算出し、量子化を行うことで、知覚しやすい平坦部の符号化歪みを軽減し、かつ注目領域の主観的な画質を向上させることが可能となる。
以上のように、本発明にかかる画像符号化装置および画像符号化方法は、画像の符号化する装置等に有用であるが、特に画質を向上させるために適切な量子化ステップを設定して量子化を行う動画像の符号化装置に適している。
実施の形態にかかる画像符号化装置の構成を示すブロック図である。 実施の形態にかかる画像符号化装置における入力された入力画像信号について処理を行い、符号化データを出力するまでの全体処理を示すフローチャートである。 実施の形態にかかる画像符号化装置における量子化部及び量子化制御部において入力された直交変換係数情報について量子化するまでの全体処理を示すフローチャートである。 実施の形態にかかる入力された量子化直交変換係数情報から予測画像信号を生成するまでの全体処理を示すフローチャートである。
符号の説明
100 画像符号化装置
101 減算部
102 直交変換部
103 量子化部
104 エントロピー符号化部
105 量子化制御部
106 逆量子化部
107 逆直交変換部
108 加算部
109 フレームメモリ
110 予測画像生成部
121 量子化ステップ設定部
122 量子化処理部
131 劣化知覚度算出部
132 注目度算出部
133 量子化ステップ修正部

Claims (8)

  1. 入力された入力画像情報について、前記入力画像情報内の予め区切られた画面領域の単位である符号化単位毎に量子化を行った後に、符号化を行う画像符号化装置であって、
    前記入力画像情報について前記符号化単位毎の量子化幅を設定する設定手段と、
    前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における視覚的な注目度合いを示した注目度情報を算出する注目度算出手段と、
    前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素について画質劣化の知覚容易性を示した劣化知覚度情報を算出する劣化知覚度算出手段と、
    前記注目度算出手段により算出された前記注目度情報及び前記劣化知覚度算出手段により算出された劣化知覚度情報に基づいて、絵柄が平坦でありかつ注目度が高い前記符号化単位については、前記量子化幅を相対的に小さくし、絵柄が平坦ではなく注目度が低い前記符号化単位については、前記量子化幅を相対的に大きくするように、前記設定手段で設定された前記量子化幅を修正する修正手段と、
    前記修正手段により修正された前記量子化幅により、前記入力画像情報を量子化する量子化手段と、
    を備え
    前記注目度算出手段は、
    前記符号化単位毎の各画素とその隣接画素との輝度差の最大値が大きくなるほど値が大きくなり、1以上の値である第1の注目度と、
    前記符号化単位毎の動きが大きくなるほど値が大きくなり、1以上の値である第2の注目度と、
    前記符号化単位毎の平均色がHSV空間内での明度および彩度に基づいて予め定められた赤色の範囲内である場合には赤色の範囲外である場合よりも値が大きくなり、1以上の値である第3の注目度と、
    前記符号化単位毎の平均色と画面単位での平均色とのL*a*b空間内での色差が大きいほど値が大きくなり、1以上の値である第4の注目度と、
    前記符号化単位毎の平均色がHSV空間内での色相に基づいて予め定められた肌色の範囲内である場合に肌色の範囲外である場合よりも値が大きくなり、1以上の値である第5の注目度と、
    前記符号化単位毎の画面の中央からの距離が大きくなるほど値が大きくなり、1以上の値である第6の注目度と、
    を求め、
    前記第1の注目度、前記第2の注目度、前記第3の注目度および前記第4の注目度の相乗平均と前記第5の注目度と前記第6の注目度とを加算して前記符号化単位毎の第7の注目度を求め、
    前記第7の注目度が大きくなるほど値が大きくなるように前記注目度情報を求める、
    ことを特徴とする画像符号化装置。
  2. 前記修正手段は、前記注目度算出手段により算出された前記入力画像情報内の複数の前記符号化単位間における相対的な注目度の高低を示す前記注目度情報と、前記劣化知覚度算出手段により算出された前記入力画像情報内の複数の前記符号化単位間における相対的な劣化知覚度の高低を示す前記劣化知覚度情報とに従って、前記符号化単位毎に前記設定手段で設定された前記量子化幅を修正すること
    を特徴とする請求項1に記載の画像符号化装置。
  3. 前記注目度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における、数値であり且つ数値が小さくなるほど注目される度合いが高いことを示す前記注目度情報を算出し、
    前記劣化知覚度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素における、数値であり且つ数値が小さくなるほど符号化による画像劣化を知覚しやすいことを示す前記劣化知覚度情報を算出すること
    を特徴とする請求項2に記載の画像符号化装置。
  4. 前記注目度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における、前記画面領域内での最大値と最小値の間に1を含む値となる前記注目度情報を算出し、
    前記劣化知覚度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素における、前記画面領域内での最大値と最小値の間に1を含む値となる前記劣化知覚度度情報を算出し、
    前記修正手段は、前記符号化単位毎の前記量子化幅を、前記注目度情報と前記劣化知覚度情報の積に、前記設定手段により設定された前記量子化幅を乗じて得られた値に修正することを特徴とする請求項3に記載の画像符号化装置。
  5. 前記注目度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における、前記画面領域内での最大値と最小値の間に1を含む値となる前記注目度情報を算出し、
    前記劣化知覚度算出手段は、前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素における、前記画面領域内での最大値と最小値の間に1を含む値となる前記劣化知覚度度情報を算出し、
    前記修正手段は、前記符号化単位毎の前記量子化幅を、前記注目度情報と前記劣化知覚度情報の積の予め定められた1以上の実数の対数に予め定められた正の実数を乗じた値に、前記設定手段により設定された前記量子化幅を加算して得られた値に修正することを特徴とする請求項3に記載の画像符号化装置。
  6. 前記注目度算出手段において、視覚的に注目する要素である前記符号化単位毎の合焦程度情報、色情報、動き情報、位置情報のうち少なくとも1つ以上の要素について注目度を算出すること
    を特徴する請求項1〜5のいずれか一つに記載の画像符号化装置。
  7. 入力された入力画像情報について、前記入力画像情報内の予め区切られた画面領域の単位である符号化単位毎に量子化を行った後に、符号化を行う画像符号化方法であって、
    前記入力画像情報について前記符号化単位毎の量子化幅を設定する設定ステップと、
    前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に注目する要素における視覚的な注目度合いを数値で示した注目度情報を算出する注目度算出ステップと、
    前記入力画像情報について前記符号化単位毎に、予め定められた視覚的に画質劣化を知覚しやすい要素について画質劣化の知覚容易性を数値で示した劣化知覚度情報を算出する劣化知覚度算出ステップと、
    前記注目度算出ステップにより算出された前記注目度情報及び前記劣化知覚度算出ステップにより算出された劣化知覚度情報に基づいて、絵柄が平坦でありかつ注目度が高い前記符号化単位については、前記量子化幅を相対的に小さくし、絵柄が平坦ではなく注目度が低い前記符号化単位については、前記量子化幅を相対的に大きくするように、前記設定ステップで設定された前記量子化幅を修正する修正ステップと、
    前記修正ステップにより修正された前記量子化幅により、前記入力画像情報を量子化する量子化ステップと、
    を備え、
    前記注目度算出ステップは、
    前記符号化単位毎の各画素とその隣接画素との輝度差の最大値が大きくなるほど値が大きくなり、1以上の値である第1の注目度と、
    前記符号化単位毎の動きが大きくなるほど値が大きくなり、1以上の値である第2の注目度と、
    前記符号化単位毎の平均色がHSV空間内での明度および彩度に基づいて予め定められた赤色の範囲内である場合には赤色の範囲外である場合よりも値が大きくなり、1以上の値である第3の注目度と、
    前記符号化単位毎の平均色と画面単位での平均色とのL*a*b空間内での色差が大きいほど値が大きくなり、1以上の値である第4の注目度と、
    前記符号化単位毎の平均色がHSV空間内での色相に基づいて予め定められた肌色の範囲内である場合に肌色の範囲外である場合よりも値が大きくなり、1以上の値である第5の注目度と、
    前記符号化単位毎の画面の中央からの距離が大きくなるほど値が大きくなり、1以上の値である第6の注目度と、
    を求め、
    前記第1の注目度、前記第2の注目度、前記第3の注目度および前記第4の注目度の相乗平均と前記第5の注目度と前記第6の注目度とを加算して前記符号化単位毎の第7の注目度を求め、
    前記第7の注目度が大きくなるほど値が大きくなるように前記注目度情報を求める、
    ことを特徴とする画像符号化方法。
  8. 前記修正ステップは、前記注目度算出ステップにより算出された前記入力画像情報内の複数の前記符号化単位間における相対的な注目度の高低を示す前記注目度情報と、前記劣化知覚度算出ステップにより算出された前記入力画像情報内の複数の前記符号化単位間における相対的な劣化知覚度の高低を示す前記劣化知覚度情報とに従って、前記符号化単位毎に前記設定手段で設定された前記量子化幅を修正すること
    を特徴とする請求項7に記載の画像符号化方法。
JP2004179823A 2004-06-17 2004-06-17 画像符号化装置及び方法 Active JP4189358B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004179823A JP4189358B2 (ja) 2004-06-17 2004-06-17 画像符号化装置及び方法
US11/152,258 US7502518B2 (en) 2004-06-17 2005-06-15 Apparatus and method for coding image based on level of visual attention and level of perceivable image quality distortion, and computer program product therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004179823A JP4189358B2 (ja) 2004-06-17 2004-06-17 画像符号化装置及び方法

Publications (2)

Publication Number Publication Date
JP2006005650A JP2006005650A (ja) 2006-01-05
JP4189358B2 true JP4189358B2 (ja) 2008-12-03

Family

ID=35505806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004179823A Active JP4189358B2 (ja) 2004-06-17 2004-06-17 画像符号化装置及び方法

Country Status (2)

Country Link
US (1) US7502518B2 (ja)
JP (1) JP4189358B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101352393B (zh) * 2008-06-25 2010-11-03 安徽桑乐金股份有限公司 家用双人充气式蒸汽桑拿浴器

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4150730B2 (ja) * 2005-02-14 2008-09-17 株式会社東芝 画像符号化装置、および画像符号化方法
KR101261676B1 (ko) 2006-12-11 2013-05-06 톰슨 라이센싱 이미지를 인코딩하는 방법 및 그 방법을 구현하는 장치
US8363719B2 (en) * 2007-10-29 2013-01-29 Canon Kabushiki Kaisha Encoding apparatus, method of controlling thereof, and computer program
JP4626644B2 (ja) * 2007-11-26 2011-02-09 ソニー株式会社 符号化装置、符号化方法、プログラム、及び、撮像装置
JP5176228B2 (ja) * 2008-03-04 2013-04-03 株式会社メガチップス エンコーダ
JP5505822B2 (ja) * 2008-05-19 2014-05-28 株式会社メガチップス トランスコーダ
US8848788B2 (en) * 2009-05-16 2014-09-30 Thomson Licensing Method and apparatus for joint quantization parameter adjustment
JP5419560B2 (ja) * 2009-06-25 2014-02-19 キヤノン株式会社 撮像装置
JP5363302B2 (ja) * 2009-12-24 2013-12-11 株式会社メガチップス 画像符号化装置及び画像変換装置
JP2013229806A (ja) * 2012-04-26 2013-11-07 Toshiba Corp 遠隔点検装置および監視装置
JP6044234B2 (ja) * 2012-09-28 2016-12-14 沖電気工業株式会社 画像処理装置及び画像処理方法
US9690656B2 (en) * 2015-02-27 2017-06-27 Microsoft Technology Licensing, Llc Data encoding on single-level and variable multi-level cell storage
JP6491628B2 (ja) * 2016-09-23 2019-03-27 日本電信電話株式会社 映像符号化方法、映像符号化装置及び映像符号化プログラム
US11321568B1 (en) * 2018-10-16 2022-05-03 EVES Technology, Inc. Method for real-time integrated t+2D DWT video compression and low-level video analysis within an intelligent camera optionally embedded in an end-to-end AAL system
JP7093015B2 (ja) * 2019-04-24 2022-06-29 日本電信電話株式会社 パノラマ映像合成装置、パノラマ映像合成方法、及びパノラマ映像合成プログラム
CN112218088A (zh) * 2019-07-09 2021-01-12 深圳先进技术研究院 一种图像与视频压缩方法
JP2021057769A (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像データ転送装置、画像表示システム、および画像圧縮方法
CN113742288A (zh) * 2020-05-29 2021-12-03 伊姆西Ip控股有限责任公司 用于数据索引的方法、电子设备和计算机程序产品
WO2022100510A1 (zh) * 2020-11-11 2022-05-19 北京字节跳动网络技术有限公司 一种图像失真评测的方法、装置及计算机设备
CN114584772A (zh) * 2022-05-07 2022-06-03 宁波康达凯能医疗科技有限公司 一种基于视觉注意力的全视场视频编码方法与系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291282A (en) * 1990-04-19 1994-03-01 Olympus Optical Co., Ltd. Image data coding apparatus and method capable of controlling amount of codes
JP3165296B2 (ja) * 1992-12-25 2001-05-14 三菱電機株式会社 フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JPH10164581A (ja) 1996-12-03 1998-06-19 Sony Corp 画像信号符号化方法及び装置、信号記録媒体
JP3232052B2 (ja) * 1997-10-31 2001-11-26 松下電器産業株式会社 画像復号化方法
WO1999043163A2 (en) * 1998-02-20 1999-08-26 Koninklijke Philips Electronics N.V. Method and device for coding a sequence of pictures
EP1473943B1 (en) * 1998-03-05 2009-04-08 Panasonic Corporation Image coding method, image coding and decoding method, image coding apparatus, and image recording and reproduction apparatus
DE10300048B4 (de) 2002-01-05 2005-05-12 Samsung Electronics Co., Ltd., Suwon Verfahren und Vorrichtung zur Bildcodierung und -decodierung
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101352393B (zh) * 2008-06-25 2010-11-03 安徽桑乐金股份有限公司 家用双人充气式蒸汽桑拿浴器

Also Published As

Publication number Publication date
US7502518B2 (en) 2009-03-10
JP2006005650A (ja) 2006-01-05
US20050286786A1 (en) 2005-12-29

Similar Documents

Publication Publication Date Title
JP4189358B2 (ja) 画像符号化装置及び方法
US9756326B2 (en) Video coding method using at least evaluated visual quality and related video coding apparatus
JP5283628B2 (ja) 映像復号方法及び映像符号化方法
US7382932B2 (en) Image processing apparatus and method, and computer program and computer-readable storage medium
JP2007081474A (ja) 画像符号化装置及び方法
US20240121428A1 (en) Prediction image correcting device, image encoding device, image decoding device, and program
US9635359B2 (en) Method and apparatus for determining deblocking filter intensity
JP2006067302A (ja) 画像符号化装置、画像符号化方法および画像符号化プログラム
JP2022087262A (ja) 画像復号装置及び画像復号方法
JP5913929B2 (ja) 動画像符号化装置及びその制御方法、コンピュータプログラム
JP6200220B2 (ja) 画像処理装置、符号化装置、復号装置、及びプログラム
JP2005295371A (ja) ブロックノイズ除去装置
JP2008177916A (ja) 画像符号化装置及び方法
JPH10285589A (ja) 画像符号化装置および方法、ならびに画像符号化制御用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6012307B2 (ja) 動画像符号化装置及びその制御方法、並びに、プログラム
JP2006222861A (ja) 画像符号化装置、画像符号化方法および画像符号化プログラム
JP2006157083A (ja) 画像符号化装置、画像符号化方法、及びコンピュータプログラム
JP2011166357A (ja) 画像符号化装置
JP2018110321A (ja) 動画像符号化装置、動画像符号化プログラム、及び動画像符号化方法
JP2019004304A (ja) 画像符号化装置、画像符号化方法、及び画像符号化プログラム
JP2012156573A (ja) 符号化装置、符号化方法、及び、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071022

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080702

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080909

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120919

Year of fee payment: 4