JP2016058782A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2016058782A
JP2016058782A JP2014181343A JP2014181343A JP2016058782A JP 2016058782 A JP2016058782 A JP 2016058782A JP 2014181343 A JP2014181343 A JP 2014181343A JP 2014181343 A JP2014181343 A JP 2014181343A JP 2016058782 A JP2016058782 A JP 2016058782A
Authority
JP
Japan
Prior art keywords
image
encoding
processed
image processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014181343A
Other languages
English (en)
Inventor
福井 俊之
Toshiyuki Fukui
俊之 福井
大川 浩司
Koji Okawa
浩司 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014181343A priority Critical patent/JP2016058782A/ja
Priority to US14/842,587 priority patent/US9860567B2/en
Publication of JP2016058782A publication Critical patent/JP2016058782A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】 複数の画像を符号化する場合における処理量が増大することがあった。【解決手段】 画像処理装置の画像処理部102は、複数の入力画像に対する画像処理により複数の処理済画像を生成し、副符号化処理部103は、入力画像に対する画像処理により生成された処理済画像を符号化するための参照画像を、処理済画像に対応する入力画像とするか、他の処理済画像とするかを、画像処理に関するパラメータに応じて決定し、副符号化処理部103は、決定に応じた参照画像を参照して処理済画像を符号化する。【選択図】 図3

Description

本発明は画像の符号化に関する。
近年、ネットワークを介して画像を配信し監視目的に用いられるカメラが普及している。このようなカメラの中には目的に応じて様々な画像処理を元画像に施すものが存在する。例えば、カメラが撮像することによって入力される主画像に対して、監視対象物を見やすくするとか、認識処理を行いやすくする等の目的のために画像処理を施した副画像を生成する場合がある。
これらの主画像と副画像の両方をカメラから送出したり、蓄積したりする場合、動画像の圧縮が行われる。動画像の圧縮記録に用いられる符号化方式としては、H.264/MPEG−4 AVC(以下H.264)が知られている。また、近年、H.264の後継としてさらに高効率な符号化方式の国際標準化を行う活動が開始されて、JCT−VC(Joint Collaborative Team on Video Coding)がISO/IECとITU−Tの間で設立された。JCT−VCでは、High Efficiency Video Coding符号化方式(以下、HEVC)の標準化がなされた。
そして、例えば、H.264を拡張したMVC(マルチビューコーディング)規格を用いて複数のストリーム画像を送付するという方法(特許文献1)が提案されている。特許文献1には、複数のビデオストリームのうち、特定のビデオストリームを基本ストリームとして符号化すると共に、別のビデオストリームを、当該基本ストリームを参照して符号化可能な符号化方式で符号化することが記載されている。特許文献1によれば、例えば、ネットワークカメラの撮像画像に対応するビデオストリームを基本ストリームとして符号化し、撮像画像に対してノイズ除去されたビデオストリームを、基本ストリームを参照して符号化可能な符号化方式で符号化できる。
副画像(基本ストリームを参照して符号化可能な符号化方式で符号化されるビデオストリーム)を生成するための画像処理としては、霧霞除去の技術(特許文献2)が知られている。
特開2011−216965号公報 米国特許8340461号明細書
しかしながら、複数の画像を符号化する場合における処理量が増大する恐れがあった。
特に、主画像(撮像画像)から副画像(ノイズ除去済画像)を生成し、それぞれをMVC規格を用いて符号化する場合に処理量が多くなる場合があった。すなわち、副画像の符号化のための参照画像を、主画像と、他の副画像を含む複数の画像を参照して、符号化効率の良いものを採用するようにすると、多くの画像を参照する必要が生じるため、処理量が多くなってしまう。
本発明は上記の問題点に鑑みてなされたものであり、その目的は、画像の符号化の際の処理量を低減することである。
上記課題を解決するため、本発明にかかる画像処理装置は、例えば以下の構成を有する。すなわち、複数の入力画像に対する画像処理により複数の処理済画像を生成する画像処理手段と、前記入力画像に対する前記画像処理により生成された前記処理済画像を符号化するための参照画像を、前記処理済画像に対応する前記入力画像とするか、他の処理済画像とするかを、前記画像処理に関するパラメータに応じて決定する決定手段と、前記決定手段による決定に応じた参照画像を参照して前記処理済画像を符号化する符号化手段とを有する。
本発明による構成によれば、画像の符号化の際の処理量を低減できる。
実施形態の画像処理装置のハード構成を説明するためのブロック図である。 実施形態の画像処理部102の構成を説明するための図である。 実施形態の副符号化処理部103の構成を説明するための図である。 実施形態における画像処理の内容を説明するための図である。 実施形態における画像処理の過程で得られる中間情報の一例を説明するための図である。 実施形態におけるベースビューと非ベースビューの符号化時における参照関係を説明するための図である。 実施形態における予測判定部302の動作を説明するためのフローチャートである。 実施形態の画像処理装置のハード構成を説明するためのブロック図である。 実施形態の画像処理部801の構成を説明するための図である。 実施形態の副符号化処理部802の構成を説明するための図である。
以下、図面を参照して、実施形態を詳細に説明する。
<第1の実施形態>
本発明の実施形態1では、主画像(撮像画像)に対して、ノイズの補正処理、特に霧・霞除去処理を画像処理として施し、主画像と霧・霞除去処理を施した処理済画像の双方を符号化する場合の例を示す。霧・霞除去は、撮像画像を解析することで各領域の霧・霞の濃さを判定し、どのように霧・霞によって光が散乱されているかを霧・霞の濃さに基づいて推定し、推定結果を用いて霧・霞の影響を取り除くことである。ただし、霧・霞除去の内容は、上記の内容に限らず、また、本実施形態で取り扱うノイズの補正処理は、霧・霞除去に限らない。
以下、図面を用いて本実施形態について詳細に説明する。
図1は本実施形態における画像処理装置のハード構成を示すブロック図である。図1に示すように、本実施形態の画像処理装置は、システムバス100、画像入力部101、画像処理部102、副符号化処理部103、主符号化処理部104、フラッシュメモリ105を有する。さらに、本実施形態の画像処理装置は、CPU106、RAM1、RAM2、ネットワークIF部109、及び、外部メモリ110を有する。なお、本実施形態の画像処理装置は、デジタルカメラ、デジタルビデオカメラ、携帯電話、スマートフォン、タブッレット、パーソナルコンピュータ、ハードディスクレコーダ、その他各種家電製品によって実現することが可能である。
100はシステムバスである。本画像処理装置の各機能ブロックは、このシステムバス100を介して接続されている。101は画像入力部である。画像処理装置が撮像部を持つ場合は、カメラのレンズやセンサが画像入力部に対応する。また、画像入力部101が外部のデバイスからビデオ信号入力を受ける場合も考えられる。いずれにせよ、101の画像入力部から時間的に連続した画像が入力される。この入力画像を主画像と呼ぶ。主画像は、システムバス100を経由して、RAM1(107)に転送される。本実施形態では、主画像が、撮像により得られた動画像を構成する各画像である場合の例を中心に説明するが、この例に限らず、例えば、撮像により得られた撮像画像に対して、何かしらの加工がすでになされた画像を主画像として入力してもよい。
102は画像処理部である。画像処理部102は、RAM1(107)から主画像を読み出し、所定の画像処理を主画像に対して施して処理済画像を生成する。生成された処理済画像はシステムバス100を経由して107のRAM1に対して書き戻される。すなわち、画像処理部102は、複数の入力画像のそれぞれに対して画像処理を実行することで、複数の処理済画像を生成する。また、画像処理部102は、画像処理の途中において、中間情報を出力する機能をもつ。本実施形態においては、当該中間情報は、画像処理部102から直接、副符号化処理部103に受け渡される。画像処理部102の詳細については後述する。
103は副符号化処理部である。副符号化処理部103は、画像処理部102が生成した処理済画像をRAM1(107)から読み出し、所定の方式に従って符号化処理を行い、符号化データを生成する。符号化データはシステムバス100を経由して107のRAM1に対して出力される。なお、副符号化処理部103は、処理済画像の符号化の際、画像処理部102から受け渡された中間情報を参照して、符号化に用いる参照画像を決定する。副画像処理部103の詳細については後述する。
104は主符号化処理部である。主符号化処理部104は、画像入力部101が取り込んだ主画像をRAM1(107)から読み出し、所定の方式に従って符号化処理を行う。符号化データはシステムバス100を経由してRAM1(107)に対して出力される。
なお、本実施形態においては、動画像の符号化処理方式として、H.264を拡張したMVC(マルチビューコーディング)規格を用いる場合の例を中心に説明する。しかし符号化方式はMVC規格に限るものではなく、HEVCやSVC(スケーラブルビデオコーディング)規格を用いることも可能である。
105はFlashROMである。FlashROM105は、本システム全体の制御を行うCPU106を起動するためのプログラムや、画像処理及び圧縮処理に必要なパラメータ情報などを記憶している。
106は画像処理装置の制御を行うCPU(Central Processing Unit)である。CPU106は、制御プログラムが置かれているFlashROM105や、CPU処理のワークエリアとしても使用されるRAM1(107)とシステムバス100を介して接続されている。
107はRAM1である。RAM1(107)は入力された主画像や、主画像を画像処理した生成された処理済画像を記憶するために用いられるRAM(Random Access Memory)である。CPUのワークエリアとしても利用される。
108はRAM2である。RAM2(108)は主符号化処理部104、及び副符号化処理部103の出力する参照画像を記憶するためのRAMである。
本実施形態においては、RAM1(107)とRAM2(108)は別個のRAMとして記述しているが、同一のRAMとすることも可能である。その構成は本実施形態によって制限を受けるものではない。
109はネットワークIF部である。符号化された主画像及び符号化された処理済画像は、このネットワークIF部109を介して外部のネットワーク上の機器に対して送出される場合がある。
110はハードディスク、メモリカードなどによって代表される外部メモリ機器である。符号化された主画像及び符号化された処理済画像は、この外部メモリ機器110上に記憶され、必要に応じてネットワークIF部109を介して外部に読み出されるなどして利用されることもある。
図2は本実施形態における画像処理部102の構成の一例を示す図である。図2に示すように、画像処理部102は、画像入力DMAC1(201)、画像解析部202、中間情報バッファ203、画像加工部204、画像出力DMAC1(205)、及び、符号化部IF206を有している。なお、本実施形態においては、画像処理が霧・霞除去処理を例として説明する。霧・霞除去処理は、ノイズ除去のための画像処理の1つである。
図2において、元画像として、主画像(撮像画像)が画像入力DMAC1によってRAM1(107)からシステムバス100を経由して取り込まれる。図2において、実線は主画像及びそれが加工されてできた処理済画像の流れを、点線は後述する中間情報である霧濃度マップ情報に関連するデータの流れを表している。
取り込まれた主画像の例を図4(a)に示す。撮像画像の画角全体が401で示されている。図4(a)において、実線で示されている人物A、B(406)、C(407)及び樹木(402)は、はっきり画像上で見えているものとする。一方、点線で示されている人物D、E(405)及び樹木404、背景の山403は、霧の影響でぼんやりとしか見えていないものとする。
画像入力DMAC1(201)により入力された主画像は、まず画像解析部202に受け渡される。画像解析部202は取り込んだ主画像の各領域の霧の濃さを推定する。霧の濃さの推定方法には輝度の情報を用いる方法、霧の大気内の散乱モデルを利用する方法、霧の発生していない同時刻同画角の画像と比較する方法、画面内の色情報を用いる方法などがある。
例えば、輝度の情報を用いて霧の濃さを推定する場合、輝度が閾値よりも高い領域であって、所定面積よりも広い領域を霧が濃い領域として判定し、それ以外の領域を霧が薄い領域、または霧がない領域として判定することが可能である。輝度に関する閾値を複数設定すれば、霧の濃さのレベルをより細かく判定できる。また、主画像内の輝度の変化によって霧の濃さを判定することも可能である。また、輝度の情報に加えて、霧が発生していないときの同画角の画像や、色情報を用いることも可能である。
画像解析部202は、画像処理がノイズ補正処理であった場合、画像内のノイズの強度を判定する。本実施形態では、ノイズ補正処理の例として霧・霞除去処理を行う場合の例を挙げている。この場合、画像解析部202は霧の濃さを画像上の画素毎に推定(判定)したものを中間情報である霧・霞の濃度分布を示す画像(以下、霧濃度マップと呼ぶ)として出力し、中間情報バッファ203に格納する。ただし、霧の濃さ(ノイズの強度)を画素ごとに推定する代わりに、ブロックごとに推定することも可能であるし、その他の任意の領域ごとに推定することも可能である。すなわち、画像解析部202は、処理済画像に対応する主画像の領域ごとのノイズ強度を判定し、中間情報バッファ203に格納する。
霧濃度マップの例を図5(a)に示す。図5では画面を、縦線が濃い領域501、縦線が薄い領域502、縦線が無い領域503の3つの部分に分けて示している。ここで、縦線が濃い領域ほど霧が濃いと判定されているものとする。図5(a)の場合、領域501の霧濃度が最も濃く、領域503は霧の影響をほとんど受けていないものとする。なお、本実施形態では便宜的に霧の濃度を3段階に分けて表現しているが、より多くの段階で霧濃度が変化するような霧濃度マップを生成しても良い。
図5(b)は、図4(a)における被写体を図5(a)の霧濃度マップ上に配置して、霧の濃度分布と主画像における被写体の見え方の関係を示したものである。図4(a)において、霧の影響でぼんやりとしか見えていない被写体は、図5(a)の領域502及び領域501に存在していることがわかる。
画像処理部102の画像加工部204は、中間情報バッファ203に格納された霧濃度マップを用いて霧除去処理を主画像に対して実施する。画像加工部204は、霧濃度マップの情報を参照することで主画像の領域ごとの霧の濃さを特定し、当該霧の濃さに応じた霧除去処理を行うことが可能である。より具体的には、画像加工部204は、主画像の各領域について、どのように霧によって光が散乱されているかを推定し、その影響を取り除く処理を行うことが可能である。すなわち、本実施形態の画像加工部204は、画像処理として、入力画像(主画像)の領域ごとのノイズ強度に応じたノイズ除去処理を実行する。
図4(b)に処理済画像の例を示す。図4(b)では、図4(a)において実線で示されていた人物A、B(406)、C(407)及び樹木(402)に加え、人物D、E(405)及び樹木404が実線で表されている。すなわち、図4(b)は、人物D、E(405)及び樹木404は霧の影響が軽減され、はっきり見えるようになったことを示している。また、図4(b)の背景の山403を示す点線も、図4(a)における細かい点によるものから粗い線分による点線に代わっている。これは、霧の影響が軽減されたことにより、山403も図4(a)よりは詳細に見えるようにはなったが、実線で示されるほどはっきりと見えるまでは画像が改善されなかったことを示している。
このようにして画像加工部204によって生成された処理済画像は、画像出力DMAC1(205)によって、システムバス100を介してRAM1(107)に出力され、記憶される。
一方、中間情報バッファ203に記憶された霧濃度マップは、符号化部IF206を介して副符号化処理部103へ送られる。副符号化処理部103における中間情報(画像処理に関するパラメータ)としての霧濃度マップのデータの用いられ方に関しては後述する。
次に、主符号化処理部104、及び副符号化処理部103の動作について説明する。本実施形態においては、動画像の符号化処理方式としては、H.264を拡張したMVC規格を用いるものとする。ここで、主符号化処理部104はベースビューを、副符号化処理部103は非ベースビューを符号化するものとする。
図6にベースビューと非ベースビューの符号化の際の参照関係を模式的に表す。Iフレーム、Pフレーム、Bフレームの3つの形式の画像を生成する場合を考える。主画像の1枚目であるBase1(601)は、Iフレームとして符号化される。この場合、参照画像は存在せず、入力された画像の情報のみを使って符号化される。次いで主画像の3枚目であるBase3(603)がPフレームとして、Base1(601)を参照して符号化される。参照関係は図6中の矢印で示される。Base3(603)からBase1(601)へ向かっている矢印が、これらの2つの画像における参照関係を示している。更にベースビューの2枚目のBase2(602)は、Bフレームとして、Base1(601)とBase3(603)の双方を参照して符号化される。Base2(602)からBase1(601)への矢印とBase2(602)からBase3(603)への矢印がその参照関係を示している。ベースビューの4枚目のBase4(604)、5枚目のBase5(605)に関しても同様である。
一方、非ベースビューの符号化の際には、参照画像として、同時刻のベースビューを参照する場合と、前後の時間の非ベースビュー画像を参照する場合の2つの場合が存在する。図6中、例えば非ベースビューのNB3(608)からBase3(603)に向かって伸びている点線の矢印が、同時刻におけるベースビューの参照を示している。一方、非ベースビューのNB3(608)から非ベースビューのNB1(606)に伸びている矢印は、非ベースビュー同士での参照関係を示している。他の矢印に関しても同様である。
本実施形態においては、非ベースビューにおける参照関係は、前述した中間情報(画像処理に関するパラメータ)としての霧濃度マップによって一意的に決められ、非ベースビューの符号化が行われる。その様子を以下図1、3、4、5、6及び7を参照しながら説明する。
ある時刻tにおいて、画像入力部101から入力された主画像を主画像Vtと表すこととする。更に主画像Vtに対して画像処理部102において画像処理を施して得られた処理済画像を処理済画像V’tと表すこととする。図4において、主画像Vtは図4(a)に対応し、処理済画像V’tは図4(b)に対応する。
図1において、主符号化処理部104はRAM1(107)に記憶されている主画像Vtをシステムバス100経由で受け取り、ベースビューとして符号化する。符号化された主画像はRAM1(107)に書き込まれる。また、主符号化処理部104は、ベースビューの符号化の際に利用する局所復号された画像をRAM2(108)に参照画像として保存し、必要に応じて読み出して利用する。
主画像Vtのベースビューとしての符号化が終了すると、次いで処理済画像V’tの非ベースビューとしての符号化が実施される。
図3において、副符号化処理部103は、画像入力DMAC3(304)から符号化すべき処理済画像V’tのデータをRAM1(107)からシステムバス100を経由して受け取る。更に、副符号化処理部103は、画像処理部102から画像処理部IF303経由で霧濃度マップ情報を受け取る。そして、副符号化処理部103は、これから符号化しようとしている領域を、同時刻のベースビューを参照して符号化すべきか、前後の非ベースビューを参照して符号化すべきかを予測判定部302を用いて判定する。図3において、点線は霧濃度マップ情報に関連するデータの流れを、一点鎖線は参照画像に関連するデータの流れを、実線は処理済画像V’tとその符号化済み画像の流れを表している。
図7は、副符号化処理部103の予測判定部302の動作を説明するためのフローチャートである。例えば、図7の処理は、ユーザ操作による符号化処理の開始と共に、開始される。なお、図7の処理の前、又は、図7の処理と並行して、以下の処理が画像処理装置のCPU106により実行される。すなわち、画像入力部101による画像(主画像)の入力、主画像の各領域の画像処理に関するパラメータの特定、特定されたパラメータに応じた画像処理による処理済画像の生成のそれぞれに対応する各ステップが、CPU106により実行される。
また、本実施形態では、画像をMVC規格に沿って符号化する場合の例を中心に説明する。すなわち、本実施形態の画像処理装置は、入力画像を主画像として符号化し、処理済画像を副画像として符号化する。
予測判定部302は、これから符号化すべき処理済画像に対応する参照画像の候補が、ベースビューのみであるか否かを判定する(S701)。予測判定部302は、動画像の1フレーム目の処理済画像を符号化する場合は、参照画像の候補がベースビューのみであると判定する。ただし、1フレーム目の場合に限らず、例えば、ユーザからの特別な指示により、定期的にベースビューのIフレームのみが参照画像となるように設定されても良い。参照画像の候補がベースビューのみであると判定した場合(S701でYes)、S704に遷移し、参照画像として同時刻のベースビューを選択し、予測判定部302は参照画像入力DMAC2(301)に同時刻のベースビューのアドレス設定等の指示を出す。
この指示により、参照画像入力DMAC2(301)は、符号化対象である処理済画像の同時刻の主画像(ベースビュー画像)をRAM2から読み出して符号化部305に渡す。そして、符号化部305は、参照画像入力DMAC2(301)から渡されたベースビュー画像を参照して、符号化対象の処理済画像の符号化を実行する。すなわち、符号化部305は、予測判定部302により決定された画像(主画像または処理済画像)と、符号化対象である処理済画像との差分を算出し、差分データを符号化することで、符号化対象である処理済画像を符号化することが可能である。ただし、差分の算出結果によっては、フレーム内符号化される場合もありうる。
一方、S701において参照画像の候補がベースビューのみでないと判定された場合(S701でNo)、S702に遷移する。S702では、予測判定部302は、符号化対象領域に対応する画像処理に関するパラメータ(ノイズ強度)を、画像処理部IF303を介して入手した中間情報から判定する。言い換えると、予測判定部302は、画像解析部202による画像解析で得られた画像処理に関するパラメータに基づいて、当該画像処理による補正の度合いを推測する。
予測判定部302が補正の度合いが小さいと推定した場合(S702でYes)、S704に遷移し、参照画像として同時刻のベースビューを選択する。一方、予測判定部302が補正の度合いが大きいと推定した場合(S702でNo)は、S703に遷移し、参照画像として時間的に前後の非ベースビューを選択する。
すなわち、本実施形態の予測判定部302は、入力画像(主画像)に対する画像処理により生成された処理済画像(非ベースビュー画像)を符号化するための参照画像を、画像処理に関するパラメータに基づいて決定する。より具体的には、画像処理に関するパラメータに基づいて、画像処理による補正の度合いが小さいと推定される場合は、当該処理済画像に対応する主画像が参照画像として決定される。一方、画像処理に関するパラメータに基づいて、画像処理による補正の度合いが大きいと推定される場合は、当該処理済画像に対して時間的に前後する他の非ベースビュー画像が参照画像として決定される。
ただし、補正の度合いを推定する方法に限らず、例えば、画像処理に関するパラメータ(ノイズ強度)が閾値以上であるか否かによって、参照画像が決定されるようにすることも可能である。この場合、予測判定部302は、符号化対象である処理済画像に対応する入力画像(主画像)の領域ごとのノイズ強度の情報を用いて、参照画像を決定する。より具体的には、予測判定部302は、ノイズ強度が閾値未満の領域については、符号化対象である処理済画像に対応する主画像を参照画像として用いた符号化を符号化部305に実行させる。一方、予測判定部302は、ノイズ強度が閾値より高い領域については、符号化対象である処理済画像に対して時間的に前後する他の処理済画像(非ベースビュー画像)を参照画像として用いた符号化を符号化部305に実行させる。なお本実施形態においては、画像処理は霧・霞除去処理であり、その中間情報(画像処理に関するパラメータ)は霧濃度マップである。
例えば、図5の領域503のように霧濃度が薄い領域に関しては、そもそも補正の必要がないため、霧・霞除去による補正の強度(度合い)は小さい。図4(a)(b)において人物A、B(406)、C(407)及び樹木(402)の見え方はほぼ同じである。このような領域では、ベースビューである主画像Vtと非ベースビューである処理済画像V’tの差は非常に小さい。そのため、予測判定部302は、ベースビュー画像を参照画像として決定する。
一方、図5の501、502のように霧濃度が濃い領域に関しては、霧・霞除去による補正の効果が大きいため、補正により被写体の見え方が変化する。図4において人物D、E(405)、樹木(404)及び背景の山403の見え方は主画像(a)と処理済画像(b)とで大きく異なっている。このような領域では、ベースビューである主画像Vtと非ベースビューである処理済画像V’tの差が大きく、時間的に前後の非ベースビューV’t−1、V’t+1との差の方が小さいことが予想される。そのため、予測判定部302は、符号化対象の処理済画像に対して時間的に前後する非ベースビュー(処理済画像)を参照画像として決定する。
本実施形態において、補正の強度(度合い)は霧の濃さによって特定することが可能である。例えば、前述の例のように図5(a)の領域502の霧濃度を閾値として設定したとする。その場合、予測判定部302は、霧が濃い領域501及び、領域502ついては、補正の強度が大きいと推定する(S702でNo)ので、符号化対象である処理済画像に対して時間的に前後する非ベースビューを参照画像として決定する(S703)。一方、予測判定部302は、霧が薄い領域503に対応する領域については、補正の強度が小さいと推定し(S702でYes)、参照画像としてベースビュー(同時刻の主画像)を決定する(S704)。
なお、符号化は一般的に16×16画素などのマクロブロック(分割領域)単位で行われる。本実施形態の予測判定部302は、参照画像の決定をマクロブロック単位で行う。霧の濃度は段階的に変化するため、予測判定部302は補正度合いの判定を、マクロブロック内(分割領域内)の各画素における霧濃度の平均値や中央値、最頻値などを用いて行う。ただし、この形態に限らず、参照画像の決定を画素単位で行うようにすることも可能であるし、マクロブロックよりも広い範囲ごとに行うようにしてもよい。
上記のような領域毎の参照画像の決定は、予測判定部302が参照画像入力DMAC2(301)に参照先に応じたアドレス設定等の指示を出すことによって実現される。参照用データはRAM2(108)からバスシステム100を介して副符号化処理部103に入力される。画像入力DMAC3(304)から受け取った符号化対象である処理済画像V’tは前述のようにして決定・入力された参照画像を用いて符号化部305によって符号化される。符号化済みの処理済画像V’tの符号化データは、画像出力DMAC3(307)を介してRAM1(107)に記憶される。また、符号化部305は非ベースビューを局所復号した画像を参照画像出力DMAC2(306)からRAM2(108)に出力し、参照画像として記憶させる。
ここで、S704においてベースビューが参照画像として決定された場合について補足する。この場合、処理済画像V’tは主画像Vtに対して画像処理された画像であり、両者には時間的な差がなく、画面内に動きの要素は存在しない。そのため、動きベクトルを0とすることができ、動き探索に必要な処理及びメモリ帯域を削減することが可能になる。
また、予測判定部302から符号化部305に点線の矢印308が延びているが、この矢印308は各符号化処理領域に関して参照画像がどのように選択されたかの情報を伝達するための信号線である。この参照画像の選択に関する情報を予め予測判定部302から符号化部305に伝えることにより、ベースビューが参照画像として決定された場合における符号化部305での処理を少なくすることが可能になり、消費電力削減が可能になる。すなわち、本実施形態の符号化部305は、符号化対象である処理済画像の参照画像として、当該処理済画像と同時刻の主画像(ベースビュー画像)が決定された場合、動き探索を行わず、動きベクトルの情報を0として符号化結果を出力する。
なお、本実施形態においては、主符号化処理部104と副符号化処理部103をそれぞれ別個の処理部として実装する例を示したが、同一の処理部を用いて、主符号化処理と副符号化処理を実施することも可能である。その場合、本実施形態における副符号化処理部103を符号化処理部として実装し、主符号化処理部104が実装されなくなる。そして、その符号化処理部を主符号化部104として用いる場合においては、予測判定部302が参照画像としてベースビューを指定し続けることによって、主画像の符号化が実現される。
また、本実施形態においては、主画像をベースビュー、処理済画像を非ベースビューとして符号化する例を示したが、処理済画像をベースビュー、主画像を非ベースビューとして符号化することも可能である。その場合、処理済画像を主符号化処理部104で、主画像を副符号化処理部103で符号化することによって実現される。
以上説明したように、本実施形態の画像処理装置は、入力画像(主画像)に対する画像処理によって生成された処理済画像を符号化する際に、当該画像処理に関するパラメータに基づいて、符号化のための参照画像を決定する。このようにすれば、処理済画像に対して時間的に前後する処理済画像と主画像の両方を読み出して符号化を行う場合よりも、処理量を低減できる。また、符号化に必要となるメモリ帯域も削減できる。また、処理量が低減される分、消費電力も低減できる。
<第2の実施形態>
本発明の第2の実施形態について、第1の実施形態との差異を中心に説明する。本実施形態では、主画像に対して、第1の画像処理として霧・霞除去処理を実行して処理済画像1を生成し、処理済画像1に対して第2の画像処理として階調補正処理を実行して処理済画像2を生成する。そして、主画像と処理済画像1および2を符号化する例を説明する。
以下、図面を用いて本実施形態について詳細に説明する。図8は本実施形態における画像処理装置のハード構成を示すブロック図である。第1の実施形態の図1と異なる点は、画像処理部、副符号化処理部がそれぞれ画像処理部801−1および2、副符号化処理部802−1および2の2つずつになった点である。また、図1では画像処理部と副符号化処理部との間に中間情報(画像処理に関するパラメータ)を直接受け渡すためのパスが設定されていたが、本実施形態ではそのような直接のパスは存在せず、中間情報はRAM1(107)経由で受け渡される。それ以外の構成要素は図1と同等である。
図9は本実施形態における画像処理部801の構成を示したものである。第1の実施形態の図2同様、実線は主画像及び主画像に対する画像処理により生成された処理済画像の流れを、点線は後述する中間情報である霧濃度マップ情報に関連するデータの流れを表している。第1の実施形態の図2と異なる点は、図2において存在した符号化部IF206がなくなり、中間情報も出力DMAC1(901)を介してRAM1(107)に転送され、RAM1(107)上で副符号化処理部802と共有される点である。中間情報としてのデータの流れは前述のように図9中点線で示されている。
図10は本実施形態における副符号化処理部802を示したものである。第1の実施形態の図3と異なる点は、図3において存在した画像処理部IF303がなくなり、中間情報は入力DMAC2(1001)を介してRAM1(107)から取り込まれ、予測判定部1002に送られることである。中間情報の流れは図10中の点線で示されている。
本実施形態では、画像処理部1(801−1)において霧・霞除去処理が実行され、画像処理部2(801−2)において階調補正処理が実行されるものとする。また、霧・霞除去処理が実行された処理済画像1の符号化を副符号化処理部1(802−1)が行い、階調補正処理が実行された処理済画像2の符号化を副符号化処理部2(802−2)が行うものとする。これらの画像処理は主画像の1フレーム毎に、ほぼ同時並行的にシステム内が進められる。
既に霧・霞除去処理に対応した符号化処理に関しては実施形態1で説明しているので、本実施形態では階調補正処理に対応した符号化処理について説明する。
まず、画像処理の内容と、そこで使われる中間情報との関係について説明する。本実施形態において、階調補正処理に関する中間情報は、入力画像(主画像)の低周波成分の値である。
本実施形態の画像処理部2(801−2)は、注目画素の周囲の明るさに応じて画像を補正する。周囲の明るさについては、注目画素を中心とした画像の低周波成分を推定値として用いる。補正の処理は、以下の数式(1)に基づいて行うことが可能である。
Figure 2016058782
数式(1)では、パラメータとしてγとγを用いている。数式(1)の演算子Avgは、複数の尺度で低周波成分を抽出して処理した結果を平均化する演算を指している。以下、数式(1)のAvg[]内に注目する。
Avg[]内の式で分母にあるFn(x,y)*Y(x,y)が、先に述べた注目画素を中心とした画像の低周波成分である。Avg[]内の式では分子で注目画素の画素値にγを乗じている。また、分母では低周波成分に対してγを乗じている。この式を書き直すと、
Figure 2016058782

となる。
Figure 2016058782

の部分については、γ補正として広く知られている処理なので説明を省略する。ここで、γに1.0を与えた場合、
Figure 2016058782

となる。この時、
Figure 2016058782

は注目画素Y(x,y)に対するゲイン率と解釈することができる。
パラメータγとして、−1<γ<0の値を与えた場合、横軸を低周波成分値、縦軸をゲイン率とすると、上に凸なγ曲線が得られる。従って、低周波成分の値が小さいほどゲイン率は大きく、低周波成分の値が大きいほどゲイン率は小さくなることがわかる。
故に、主画像が大きく補正される(ゲイン率が大きい)かどうかは、この低周波成分の値と処理のパラメータを見ればわかるといえる。γがそれ以外の値の場合には、それに応じて判定すればよい。
上述したような階調補正処理が、画像処理として画像処理部2(801−2)で実施される。画像処理部2の動作を図9を用いて説明する。図9の画像解析部202は、画像入力DMAC1(201)を介して入力した主画像の各画素に対応した低周波成分の大小を算出し、算出結果を低周波成分画像として中間情報バッファ203に書き込む。画像加工部204は中間情報バッファ203に記憶された中間情報としての低周波画像を参照して、画像入力DMAC1(201)から入力される主画像に対して、階調補正処理を実施する。
画像加工部204において階調補正処理された処理済画像2は、出力DMAC1(901)からRAM1(107)に対して出力される。また、一連の画像処理が終了すると、中間情報バッファ203に記憶されていた中間情報としての低周波画像も出力DMAC1(901)経由でRAM1(107)に対して出力される。
次いで、副符号化処理部802−2の動作を図10を用いて説明する。第1の実施形態の図3と同様に、点線は霧濃度マップ情報に関連するデータの流れを、一点鎖線は参照画像に関連するデータの流れを、実線は処理済画像V’tとその符号化済み画像の流れを表している。
図10において、副符号化処理部802−2は、まず、入力DMAC2(1001)を介して、RAM1(107)から中間情報としての低周波画像を取得し、予測判定部1002へ入力する。次いで、画像入力DMAC3(304)は、符号化対象である処理済画像2のデータをRAM1(107)からシステムバス100を経由して受け取る。更に、副符号化処理部802−2の予測判定部302は、先に入力された低周波画像の情報を用いて、符号化対象である領域を、同時刻のベースビュー画像を参照して符号化すべきか、前後の非ベースビューを参照すべきかを判定する。
第2の実施形態の予測判定部302の動作を、図7を用いて説明する。本実施形態では、実行される画像処理が階調補正であり、その補正の度合いは、前述のようにパラメータγと低周波成分の値から推定できる。仮に、−1<γ<0の値を与えた場合、例えば、低周波成分として取りうる最大値の1/3を閾値として定めることが可能である。ただし、閾値は任意の値を設定することが可能である。
主画像の低周波成分の値が閾値より大きい場合、予測判定部1002は、主画像に対応する処理済画像の補正量が小さいと推定し(S702でYes)、同時刻のベースビューを参照画像として決定する(S704)。一方、主画像の低周波成分の値が閾値より小さい場合、予測判定部1002は、主画像に対応する処理済画像の補正量が大きいと推定し(S702でNo)、処理済画像に対して時間的に前後する非ベースビュー画像を参照画像として決定する(S703)。
すなわち、本実施形態の予測判定部1002は、処理済画像の各領域を符号化するための参照画像を、当該処理済画像に対応する入力画像(処理済画像1)の領域ごとの低周波成分の値に応じて決定する。なお、本実施形態では、霧・霞除去の処理を行ってから、階調補正処理を行う例を中心に説明しているが、この例に限らず、例えば、霧・霞除去を行わず、階調補正処理のみを行うようにしてもよい。
なお、符号化は一般的に16×16画素などのマクロブロック単位で行われる。本実施形態の予測判定部1002は、参照画像の決定をマクロブロック単位で行う。低周波成分は段階的に変化するため、予測判定部1002は補正度合いの判定を、マクロブロック内の各画素における低周波成分の平均値や中央値、もしくは最頻値などを用いて行う。ただし、この形態に限らず、参照画像の決定を画素単位で行うようにすることも可能であるし、マクロブロックよりも広い範囲ごとに行うようにしてもよい。
上記のような領域毎の参照画像の決定は、予測判定部1002が入力DMAC2(1001)に参照先に応じたアドレス設定等の指示を出すことによって実現される。参照用データはRAM2(108)からバスシステム100を介して副符号化処理部802入力される。画像入力DMAC3(304)から受け取った符号化対象である処理済画像2は前述のようにして決定・入力された参照画像を用いて符号化部305によって符号化される。符号化済みの処理済画像2の符号化データは、画像出力DMAC3(307)を介してRAM1(107)に転送される。また、符号化部305は非ベースビューを局所復号した画像を参照画像出力DMAC2(306)からRAM2(108)に出力し、参照画像として記憶させる。
このようにして、複数の処理済画像に対して、それぞれの処理に応じた中間情報(画像処理に関するパラメータ)を利用して参照画像を決定し、順次、画像の符号化を進めることが可能である。
なお、本実施形態においては、主符号化処理部と副符号化処理1、2をそれぞれ別個の処理部として実装する例を示したが、同一の処理部を用いて、主符号化処理と副符号化処理1、2を実施することも可能である。その場合、本実施形態における副符号化処理部1(802−1)を符号化処理部として実装し、主符号化処理部104及び副符号化処理部2(802−2)が実装されなくなる。そして、その符号化処理部を主符号化104として用いる場合においては、予測判定部302が参照画像としてベースビューを指定し続けることによって、主画像の符号化が実現される。
また、本実施形態においては、画像処理として2つの異なる画像処理を実行する場合の例を説明したが、同一タイプの画像処理を強度を変えて主画像に対して行い、複数の処理済画像を生成する場合もありうる。そのような場合には、例えば画像処理部801−1を同じ時刻の主画像に対して複数回連続で適用し、生成された複数の処理済画像と中間情報を副符号化処理部802−1および802−2に振り分けて符号化を実施することで、同様の効果を得ることが可能になる。
以上のようにして、副符号化部を用いて処理済画像を符号化する際に、参照すべき画像を予め決めることができるので、処理済画像の符号化のために必要となるメモリ帯域を削減することが可能になる。また、メモリ帯域が削減される分、消費電力も削減することが可能になる。
なお、上記の実施形態では、霧・霞除去がなされた画像を副画像とする場合の例を中心に説明したが、他の画像処理がなされた画像を副画像とすることも可能である。例えば、霧・霞除去とは別のノイズ除去処理や、画像の先鋭化処理がなされた画像を副画像とすることも可能である。また、複数の画像処理がなされた画像を副画像としてもよい。例えば、撮像画像に対して、ノイズ除去処理と、階調補正処理とがなされた画像を副画像とすることも可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像入力部
102 画像処理部
103 副符号化処理部
104 主符号化処理部
105 FlashROM
106 CPU
107 RAM1
108 RAM2
109 ネットワークIF
110 外部メモリ

Claims (11)

  1. 複数の入力画像に対する画像処理により複数の処理済画像を生成する画像処理手段と、
    前記入力画像に対する前記画像処理により生成された前記処理済画像を符号化するための参照画像を、前記処理済画像に対応する前記入力画像とするか、他の処理済画像とするかを、前記画像処理に関するパラメータに応じて決定する決定手段と、
    前記決定手段による決定に応じた参照画像を参照して前記処理済画像を符号化する符号化手段とを有することを特徴とする画像処理装置。
  2. 前記画像処理手段は、前記画像処理として、前記入力画像の領域ごとのノイズ強度に応じたノイズ除去処理を実行し、
    前記決定手段は、前記画像処理に関するパラメータとして、前記処理済画像に対応する前記入力画像の領域ごとのノイズ強度の情報を用いて、前記参照画像を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記処理済画像の各領域のうち、対応する前記入力画像のノイズ強度が閾値以上の領域を符号化するための参照画像を、前記他の処理済画像に決定すると共に、
    前記処理済画像の各領域のうち、前記対応する前記入力画像のノイズ強度が閾値未満の領域を符号化するための参照画像を、前記入力画像に決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像処理手段は、前記画像処理として、前記入力画像の領域ごとの低周波成分の値に応じた階調補正処理を実行し、
    前記決定手段は、前記処理済画像の各領域を符号化するための参照画像を、当該処理済画像に対応する前記入力画像の領域ごとの低周波成分の値に応じて決定することを特徴とする請求項1乃至3のうち、何れか1項に記載の画像処理装置。
  5. 前記処理済画像を符号化するための参照画像を、前記他の処理済画像にすると前記決定手段が決定した場合、前記符号化手段は、前記符号化対象である前記処理済画像よりも時間的に前の処理済画像、及び、時間的に後の処理済画像のうち、少なくとも何れかを参照して前記符号化対象である前記処理済画像を符号化することを特徴とする請求項1乃至4のうち、何れか1項に記載の画像処理装置。
  6. 前記決定手段は、前記処理済画像を構成する分割領域内の複数の画素のそれぞれの前記パラメータの平均値、中央値、及び、最頻値のうち少なくとも何れかに基づいて、当該分割領域の符号化のための参照画像を前記入力画像にするか前記処理済画像にするかを決定することを特徴とする請求項1乃至5のうち、何れか1項に記載の画像処理装置。
  7. 前記符号化手段は、マルチビューコーディングにおける主画像として前記入力画像を符号化し、副画像として前記処理済画像を符号化することを特徴とする請求項1乃至6のうち、何れか1項に記載の画像処理装置。
  8. 画像処理方法であって、
    複数の入力画像に対する画像処理により複数の処理済画像を生成する画像処理工程と、
    前記入力画像に対する前記画像処理により生成された前記処理済画像を符号化するための参照画像を、前記処理済画像に対応する前記入力画像とするか、他の処理済画像とするかを、前記画像処理に関するパラメータに応じて決定する決定工程と、
    前記決定手段による決定に応じた参照画像を参照して前記処理済画像を符号化する符号化工程とを有することを特徴とする画像処理方法。
  9. 前記画像処理工程は、前記画像処理として、前記入力画像の領域ごとのノイズ強度に応じたノイズ除去処理を実行し、
    前記決定工程は、前記画像処理に関するパラメータとして、前記処理済画像に対応する前記入力画像の領域ごとのノイズ強度の情報を用いて、前記参照画像を決定することを特徴とする請求項8に記載の画像処理方法。
  10. 前記決定工程は、前記処理済画像の各領域のうち、対応する前記入力画像のノイズ強度が閾値以上の領域を符号化するための参照画像を、前記他の処理済画像に決定すると共に、
    前記処理済画像の各領域のうち、前記対応する前記入力画像のノイズ強度が閾値未満の領域を符号化するための参照画像を、前記入力画像に決定することを特徴とする請求項9に記載の画像処理方法。
  11. コンピュータを、請求項1乃至7のうち、何れか1項に記載の画像処理装置として動作させるためのプログラム。
JP2014181343A 2014-09-05 2014-09-05 画像処理装置、画像処理方法、及びプログラム Pending JP2016058782A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014181343A JP2016058782A (ja) 2014-09-05 2014-09-05 画像処理装置、画像処理方法、及びプログラム
US14/842,587 US9860567B2 (en) 2014-09-05 2015-09-01 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014181343A JP2016058782A (ja) 2014-09-05 2014-09-05 画像処理装置、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016058782A true JP2016058782A (ja) 2016-04-21

Family

ID=55438747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014181343A Pending JP2016058782A (ja) 2014-09-05 2014-09-05 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9860567B2 (ja)
JP (1) JP2016058782A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6438165B2 (en) * 1998-03-09 2002-08-20 Lg Electronics Method and apparatus for advanced encoder system
WO2011078002A1 (ja) * 2009-12-22 2011-06-30 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8340461B2 (en) 2010-02-01 2012-12-25 Microsoft Corporation Single image haze removal using dark channel priors
JP2011216965A (ja) 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
KR20120095611A (ko) * 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오 부호화/복호화 방법 및 장치
EP2835971A4 (en) * 2012-04-03 2015-04-08 Panasonic Ip Corp America IMAGE ENCODING METHOD, IMAGE DECODING METHOD, IMAGE ENCODING DEVICE, AND IMAGE DECODING DEVICE

Also Published As

Publication number Publication date
US20160073109A1 (en) 2016-03-10
US9860567B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
CN111066326B (zh) 机器学习视频处理系统和方法
CN110267041B (zh) 图像编码方法、装置、电子设备和计算机可读存储介质
EP2002649B1 (en) Electronic video image stabilization
US8374444B2 (en) Method and apparatus for providing higher resolution images in an embedded device
US20180063540A1 (en) Motion estimation for screen remoting scenarios
US9729870B2 (en) Video coding efficiency with camera metadata
US10375407B2 (en) Adaptive thresholding for computer vision on low bitrate compressed video streams
US20160080769A1 (en) Encoding system using motion estimation and encoding method using motion estimation
TW201448571A (zh) 用以移除編碼視頻數據中的編碼瑕疵之自適應過濾機構
JP5766877B2 (ja) 類似度、視覚的品質、および関心に基づくフレーム符号化選択
JP5974089B2 (ja) ビデオ信号のリフレーミング及びエンコーディングのための方法及び装置
JP2008193530A (ja) 画像記録装置、画像記録方法、及びプログラム
US9549187B2 (en) Intra prediction mode determination apparatus, intra prediction mode determination method, and recording medium
JP2015103970A (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像撮影装置
JP2015050661A (ja) 符号化装置、符号化装置の制御方法、及び、コンピュータプログラム
JP2017207818A (ja) 画像処理装置、画像処理方法、プログラム
US10049436B1 (en) Adaptive denoising for real-time video on mobile devices
US10687054B2 (en) Decoupled prediction and coding structure for video encoding
JP6090430B2 (ja) 符号化装置、方法、プログラム、コンピュータシステム、記録媒体
KR20140026397A (ko) 이미지 블록을 복원하고 코딩하는 방법
JP2016058782A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015076765A (ja) 画像処理装置及びその制御方法、並びに、コンピュータプログラム
CN109936741B (zh) 视频编码方法和系统
JP5165084B2 (ja) 画像符号化装置
US20220078437A1 (en) Encoding apparatus and program