JP2019053588A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2019053588A
JP2019053588A JP2017177969A JP2017177969A JP2019053588A JP 2019053588 A JP2019053588 A JP 2019053588A JP 2017177969 A JP2017177969 A JP 2017177969A JP 2017177969 A JP2017177969 A JP 2017177969A JP 2019053588 A JP2019053588 A JP 2019053588A
Authority
JP
Japan
Prior art keywords
patch
blur
image processing
image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017177969A
Other languages
English (en)
Inventor
檜垣 欣成
Kinsei Higaki
欣成 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017177969A priority Critical patent/JP2019053588A/ja
Publication of JP2019053588A publication Critical patent/JP2019053588A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】大気ゆらぎに起因するボケが除去された動画像を生成する。【解決手段】本発明の画像処理装置は、入力された動画像のフレームからパッチを抽出する抽出手段と、前記抽出されたパッチのボケ量を算出する算出手段と、前記算出されたボケ量に基づいて、同一の被写体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループにおける基準パッチを決定する決定手段と、着目パッチと前記基準パッチとのボケ量の差に基づいて前記着目パッチのボケを除去する除去手段と、ボケが除去された前記複数のパッチを統合して出力される動画像のフレームを生成する生成手段と、を備えることを特徴とする。【選択図】図5

Description

本発明は、大気ゆらぎに起因する画像の劣化を補正する画像処理技術に関する。
従来より、大気ゆらぎに起因する画像の劣化を補正する画像処理技術(以下「大気ゆらぎ補正」と記す)が適用された監視カメラシステムなどが知られている。ここで、大気ゆらぎとは、大気の乱流や温度差によって光の屈折率が空間的および時間的に変化する自然現象を指し、一般的に陽炎とも呼ばれる。大気ゆらぎによって光の屈折率が変化してしまうため、大気ゆらぎに起因する画像の劣化は、例えば望遠レンズを備えるカメラで遠方の被写体を撮影した場合に顕著に発生する。このような大気ゆらぎに起因する画像の劣化は、被写体の歪みと、局所ごとに不均一なボケとが重畳的に発生するという特徴がある。さらに、動画像では、大気ゆらぎの影響によってフレームごとに位置と量とが異なるボケが発生してしまう場合がある。
大気ゆらぎ補正を高精度に行うためには、被写体の歪みを補正するための幾何的補正と、局所ごとに不均一なボケを除去するボケ除去との2つの処理を行う必要がある。非特許文献1は、幾何的補正とボケ除去との2つの処理を行う画像処理技術を開示している。非特許文献1に記載のボケ除去処理によれば、動画像のフレームがパッチに分割され、同一位置において時系列的に連続するパッチ群の画素位置ごとに時系列の加重平均値が算出される。そして、最終的に算出された加重平均値を用いて1枚の静止画像が出力される。
X. Zhu,P. Milanfar,"Removing atmospheric turbulence via space―invariant deconvolution",2013,IEEE Trans. on Pattern Analysis and Machine Intelligence,p.157−170
特開2015−041200号公報
しかしながら、非特許文献1に記載の画像処理技術によれば、幾何的補正が施された100フレーム程度からボケが除去された1枚の静止画像が出力されるため、大気ゆらぎに起因するボケが除去された動画像を得ることが困難である。また、被写体が移動物体である場合、被写体の近傍で画像が破綻してしまう。さらに、フレームごとに明るさの変動がある場合、出力される静止画像における明るさが不均一になるという弊害が発生する。
この点、特許文献1には、1枚の入力画像に対して、局所ごとに不均一なボケが除去された1枚の出力画像を生成するボケ除去手法について開示されている。しかしながら、特許文献1に記載のボケ除去手法は、ボケの分布が関数で仮定されるため、大気ゆらぎに起因する複雑なボケの分布を特定することが困難である。
本発明は上記課題に鑑みなされたものであり、大気ゆらぎに起因するボケが除去された動画像を生成することを目的とする。
本発明の画像処理装置は、入力された動画像のフレームからパッチを抽出する抽出手段と、前記抽出されたパッチのボケ量を算出する算出手段と、前記算出されたボケ量に基づいて、同一の被写体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループにおける基準パッチを決定する決定手段と、着目パッチと前記基準パッチとのボケ量の差に基づいて前記着目パッチのボケを除去する除去手段と、ボケが除去された前記複数のパッチを統合して出力される動画像のフレームを生成する生成手段と、を備えることを特徴とする。
本発明によれば、大気ゆらぎに起因するボケが除去された動画像を生成することができる。
実施形態1における画像処理装置のハードウェア構成例を示す図である。 実施形態1における画像処理装置の機能構成例を示すブロック図である。 実施形態1におけるボケ除去手順例を示すフローチャートである。 実施形態1において局所的なボケ量の遷移例を示すグラフである。 実施形態1において局所的なボケが除去される様子を示す模式図である。 実施形態2における画像処理装置の機能構成例を示すブロック図である。 実施形態2におけるボケ除去手順例を示すフローチャートである。 実施形態2における動画像のフレーム例と2値マップ例とを示す模式図である。
以下、本発明を実施するための形態について図面を参照して説明する。ただし、この実施形態に記載されている構成はあくまで例示であり、本発明の範囲を必ずしもそれらに限定する趣旨のものではない。
[実施形態1]
図1は、本実施形態における画像処理装置100のハードウェア構成例を示す図である。本実施形態の画像処理装置100は、CPU101、RAM102、ROM103、2次記憶装置104、入力インターフェース105、出力インターフェース106を含む。画像処理装置100の各構成要素はシステムバス107によって相互に通信可能に接続されている。また、画像処理装置100は、入力インターフェース105を介して外部記憶装置108および操作部110に接続されている。また、画像処理装置100は、出力インターフェース106を介して外部記憶装置108および表示装置109に接続されている。
CPU101は、RAM102をワークメモリとして、ROM103や2次記憶装置104に格納されたプログラムを実行し、システムバス107を介して画像処理装置100の各構成を統括的に制御する。これにより、後述する様々な処理が実行される。2次記憶装置104は、画像処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施形態ではハードディスクドライブが用いられる。CPU101は、システムバス107を介して2次記憶装置104へのデータの書き込みおよび2次記憶装置104に記憶されたデータの読出しを行う。なお、2次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
入力インターフェース105は、例えばUSBやIEEE1394などのシリアルバスインターフェースである。画像処理装置100は、入力インターフェース105を介して、外部装置からデータや命令などの入力を受け付ける。本実施形態では、画像処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また本実施形態では、画像処理装置100は、操作部110に入力されたユーザの指示を、入力インターフェース105を介して取得する。操作部110は、マウスやキーボードなどの入力装置であり、ユーザの指示を受け付けることができる。
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394などのシリアルバスインターフェースである。なお、出力インターフェース106は、例えばDVIやHDMIなどの映像出力端子であってもよい。画像処理装置100は、出力インターフェース106を介して、外部装置にデータなどを出力することができる。本実施形態では、画像処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、CPU101によって処理されたデータ(例えば、画像データ)を出力する。なお、画像処理装置100の構成要素は上記以外にも存在するが、本実施形態の主眼ではないため説明を省略する。
以下、本実施形態における画像処理装置100が実行する処理について、図2に示される機能ブロック図と、図3に示されるフローチャートとを参照して説明する。本実施形態では、カメラで撮影された被写体(すなわち、画像処理装置100に入力された動画像のフレームに含まれる被写体)は全て静止していると仮定する。図2は、本実施形態における画像処理装置100の機能構成例を示すブロック図である。画像処理装置100は、図2に示されるように、画像取得部201、パッチ抽出部202、ボケ量算出部203、パッチグループ選択部204、基準パッチ決定部205、ボケ除去部206、パッチ統合部207、および、画像出力部208を有する。画像取得部201は、記憶領域から複数フレームが含まれる画像データを取得する。パッチ抽出部202は、取得された複数フレームそれぞれからパッチを抽出する。ボケ量算出部203は、抽出されたパッチのボケ量を算出する。パッチグループ選択部204は、時系列的に連続する複数のパッチから構成されるパッチグループを選択する。基準パッチ決定部205は、選択されたパッチグループにおける基準パッチを決定する。ボケ除去部206は、選択されたパッチグループにおける各パッチのボケ量を低減または除去する。パッチ統合部207は、ボケが除去されたパッチを統合して出力される動画像のフレームを生成する。画像出力部208は、ボケが除去された動画像を出力する。図2における各ブロックの機能は、CPU101がROM103などの記憶領域に格納されたプログラムコードをRAM102に読み出して実行することにより実現される。あるいはまた、図2におけるブロックの一部または全部の機能をASICや電子回路などのハードウェアで実現してもよい。これらは図6の機能ブロック図についても同様である。
以下、本実施形態におけるボケ除去手順例について、図3のフローチャートを参照して説明する。図3に示されるフローチャートの処理は、CPU101がROM103などの記憶領域に格納されたプログラムコードをRAM102に読み出して実行することにより実現される。以下の各記号Sは、フローチャートにおけるステップであることを意味する。これらは図7のフローチャートについても同様である。
S301において、画像取得部201は、2次記憶装置104または外部記憶装置108から複数フレームが含まれる画像データを取得する。そして、画像取得部201は、取得した画像データをパッチ抽出部202に送出する。ここで取得される画像データは、例えば、カメラによって撮影された複数フレームが含まれる動画像データである。このような画像データは、現像、圧縮、位置合わせなどの処理が行われた画像であってもよい。
位置合わせ(レジストレーション)は、剛体位置合わせと、非剛体位置合わせとが知られている。剛体位置合わせでは、任意の基準画像を用意し、基準画像と着目画像とにおける静止被写体の特徴点の対応に基づき射影変換行列が推定され、画像全体に射影変換に基づく変形(ワーピング)が行われる。剛体位置合わせにより、カメラのブレに起因したフレーム間の被写体の位置ずれを補正することができる。非剛体位置合わせでは、任意の基準画像と着目画像との間に等間隔に制御点が配置され、2つの画像の距離(類似度)が一定の基準よりも近くなるまで制御点の位置が反復的に更新され、制御点の位置に基づき画像の変形(ワーピング)が行われる。非剛体位置合わせにより、大気ゆらぎに起因する局所的な画像の歪みを除去することができる。これらのような位置合わせと、本実施形態におけるボケ除去とを併用することにより、ゆらぎ補正をより高精度に行うことができる。なお、基準画像は取得した画像の任意の1枚を用いてもよいし、複数フレームの平均をとった画像を用いてもよい。
S302において、パッチ抽出部202は、S301で取得された動画像の各フレームからパッチを抽出する。このパッチは着目フレームにおける一部の領域が抽出されたものであり、着目フレームにおいて互いに重なりを有していてもよい。これらのパッチが着目フレーム全体を埋め尽くすことが望ましい。また、パッチの形状は任意だが全て同一であるものとする。
S303において、ボケ量算出部203は、各パッチのボケ量を算出する。本実施形態において、ボケ量とは、パッチに含まれるボケの程度を定量化した指標である。例えば、パッチにおける画素値の分散を用いた演算結果、パッチにおける画素値の1次微分値、パッチにおける画素値の最大値および最小値を用いた演算結果などがボケ量として算出される。算出されたボケ量のデータは、2次記憶装置104などに保存され、後述の処理で用いられる。
S304において、パッチグループ選択部204は、時系列的に連続する複数のパッチから構成されるパッチグループを選択する。本実施形態において、パッチグループは、動画像のフレームにおいて同一の被写体が含まれる領域が抽出された複数のパッチから構成される。上述の通り、本実施形態では、動画像のフレームに含まれる被写体は全て静止していると仮定されているため、選択されるパッチグループは、各フレームにおける同一の領域が抽出されたパッチ群によって構成される。
S305において、基準パッチ決定部205は、S303で算出された各パッチのボケ量に基づいて、S304で選択されたパッチグループにおける基準パッチを決定する。本実施形態では、パッチグループにおけるパッチのうちボケ量が最も少ないパッチが基準パッチとして決定されるが、基準パッチの決定はこの手法に限定されない。
S306において、ボケ除去部206は、各パッチのボケ量を低減する補正を行う。画像処理技術の分野において、ボケ量を低減する(またはボケを除去する)ための一般的な手法として、デコンボリューション処理が知られている。これは、既知のフィルタが畳み込まれたボケ画像から元の鮮鋭な画像を復元する処理であって、具体的にはフィルタの畳み込み演算の逆演算が行われる。画像データ(パッチ)に対してデコンボリューション処理を施すためには、畳み込み演算で用いられたフィルタが既知である必要があり、本実施形態では、このフィルタを決定するために前述のボケ量が用いられる。
以下に、フィルタを決定する手法の一例を示す。まず、パッチグループにおける各パッチのボケ量と、基準パッチのボケ量との差が算出される。次に、ボケ量の差をパラメータとするフィルタが生成される。例えば、ボケ量の差に所定の変換を行った結果を標準偏差とするガウス関数をフィルタとする手法を適用することができる。あるいはまた、ボケ量の差と、デコンボリューション処理に用いるべきフィルタとの関係を事前に学習しておき、ボケ量の差が与えられた場合に、自動的にフィルタを出力する手法も適用することができる。これらの手法によれば、ボケ量の差に関連付けられたフィルタをルックアップテーブルとして2次記憶装置104または外部記憶装置108に記憶しておき、S306の処理を実行する際に上記フィルタを読み出して参照することができる。
一般的に、画像に含まれるボケは、被写体およびカメラの動きに起因するボケと、光学系や媒質が引き起こす収差に起因するボケとの2つに分類され得る。このうち、本実施形態では、後者のボケを対象としてボケの除去を実行する。特に大気ゆらぎは、収差がランダムかつ高速に変化することに起因するため、等方的なボケが画像に含まれる事になる。この等方的なボケは、等方的な2次元のガウス関数を画像に畳み込む処理によって、上記ボケが含まれる画像に近似した画像を得ることができる。そのため、ボケ量という1次元の量からフィルタという多次元の量を一意に同定することが可能となる。
このようにして生成されたフィルタは、ボケ量の差が大きいほど広がりが大きいという特性を有する。拡がりが大きいフィルタを参照してデコンボリューションを行った場合、画像(パッチ)からボケが除去される効果が大きくなる。デコンボリューションの手法としては、例えばウィーナーフィルタを用いるデコンボリューションが挙げられる。ウィーナーフィルタを用いるデコンボリューションは、具体的には、周波数空間における除算によって畳み込みの逆演算を行う手法であり、前述の方法で決定されたフィルタをフーリエ変換したデータを演算に用いる。ウィーナーフィルタによるパッチのボケ除去は、以下の(式1)および(式2)で表すことができる。
ここで、f(x,y)はボケが除去されたパッチの画素値を表す関数を、g(x,y)はボケ除去前のパッチの画素値を表す関数を、(x,y)はパッチにおける画素位置の座標をそれぞれ表す。そして、(u,v)は周波数座標を、Fは離散フーリエ変換を、h(x,y)はフィルタを、Γは定数を、*は複素共役をそれぞれ表す。
フーリエ変換に基づくデコンボリューションを行う場合、前処理を行わないとパッチの周縁部に縞状の誤ったノイズパターンが発生する。そこで、デコンボリューションの前処理として、パッチ中心からパッチ周縁にかけて強度が単調減少する窓関数をパッチの各画素に乗じる。後述するパッチ統合部207は、デコンボリューション後のパッチを統合する際に、上記窓関数に基づいた重みを乗じる。具体的には、各パッチが互いに一定幅の重なりを有しているものとして、各パッチを上記窓関数に置き換え、重なり部は和をとった規格化関数を生成する。そして、パッチ統合部207は、各パッチに対し独立にデコンボリューションを行い、それらのパッチを重なり部は和をとって合成し、最後に規格化関数で除算する。このように、パッチが統合される際に窓関数が用いられることにより、アーティファクトが抑制された画像を得ることができる。
さらに、このような周波数空間において演算を行う手法以外に、実空間で演算を行う手法を適用してもよい。具体的には、以下の(式3)で与えられるフィルタh(x,y)を各パッチに畳み込む。これにより、フーリエ変換に必要な演算コストを低減させることができる。
また、デコンボリューション以外の手法として、予め基底を学習したデータベースを参照する手法も適用することができる。ここでは、代表的な手法であるスパースコーディングを用いたボケ除去手法について説明する。
スパースコーディングでは、任意の画像のパッチが少数の基底の線形結合でモデル化される。そのため、スパースコーディングでは、多数の画像を用いて基底の集合(以下「辞書」と記す)を学習する必要がある。辞書の学習では、一般的なK−SVD法などを適用することができる。辞書の学習を行う場合、ボケ除去を行う画像に類似しつつ、可能な限りボケが含まれていない大量の画像が用いられることが望ましい。こうして学習された基底に対して、様々なボケ量のフィルタを畳み込むことによりボケ量の異なる複数の辞書を生成することができる。前述の通り、画像に含まれるボケは大気ゆらぎに起因するため、このフィルタとして、例えば等方的な2次元のガウス関数を用いることができる。
次に、ボケ除去の対象となるパッチを既定の個数の基底の線形結合で近似する。これは以下の(式4)で表すことができる。
ここで、aは係数(スカラー定数)を、dは基底を、kはg(x,y)を近似するために用いられる基底の個数を、nはg(x,y)で表されるパッチに対して選択された基底の番号の集合をそれぞれ表す。スパースコーディングでは、全基底数と比較してkの値が非常に小さいことが特徴であるため線形結合が一意に定まる。予め学習された基底d(辞書)と入力パッチg(x,y)とに対して係数aを求める手法は種々存在するが、例えばOrthogonal Matching Pursuitを用いる手法を適用することができる。ここで重要なのは、(式4)の近似に用いられる基底は、パッチg(x,y)と基準パッチとの間の相対ボケ量に対応した辞書から選択されることである。例えば、ボケ量0,1,2,・・・に対応するフィルタによって生成された辞書0,辞書1,辞書2,・・・が予め計算されており、パッチg(x,y)の相対ボケ量が2と算出された場合には、辞書2の基底を用いて(式4)に示される近似を行う。
次に、辞書を参照しつつ(式4)の基底dのそれぞれを辞書0に対応する基底に置き換える。そして係数aを変更することなく線形結合を行うことで、ボケが除去されたパッチf(x,y)を取得することができる。ボケが除去されたパッチf(x,y)を取得する工程は以下の(式5)で表すことができる。
ここで、d0は辞書0の基底を表す。このように、学習済みの基底の交換を行うことによりパッチのボケ除去が実行される。
ここではスパースコーディングを例に、事前学習に基づいてパッチのボケを除去する手法について説明したが、これに限定されることはなく、他の様々な機械学習の手法を適用してもよい。また、パッチのボケ除去は必ずしも基準パッチと同等のボケ量に補正する必要はなく、前述したフィルタや基底の選択により所望のボケ量に補正してよい。例えば、パッチグループにおける各パッチのボケ量が全て既定の範囲にある場合にはボケ除去を行わないということも考えられる。ここまでに示したように、本実施形態のボケ除去手法は、時系列的に連続する複数のパッチを用いることにより、1枚のパッチ(画像)のみを用いた場合よりもボケ除去の効果が大きい。
S307において、全てのパッチグループについてボケ除去が完了したか否かが判定される。全てのパッチグループについてボケ除去が完了している場合(S307:YES)、S308に移行する。全てのパッチグループについてボケ除去が完了していない場合(S307:NO)、再びS304〜S307の処理を繰り返す。
S308において、パッチ統合部207は、パッチグループにおける複数のパッチであって、ボケが除去された複数のパッチを統合して出力される動画像のフレームを生成する。
S309において、画像出力部208は、S308で生成された動画像を出力する。
S309で動画像が出力されると、本フローチャートの処理を終了する。
次に、本実施形態においてフレームに含まれるボケが除去される様子を、図4および図5を参照して説明する。図4は、縦軸をパッチ内ボケ量とし、横軸を時系列とした場合のグラフである。図4のグラフには、時刻t−1においてボケ量B1のボケが発生した画像例と、時刻tにおいてボケ量B0のボケが発生した画像例と、時刻t+1においてボケ量B2のボケが発生した画像例とが模式的に示されている。図4に示される例では、ボケ量B0が最も小さく、ボケ量B1が最も大きい。そして、ボケ量B2は、ボケ量B0よりも大きく、ボケ量B1よりも小さくなっている。このように、同一の被写体を含むパッチであっても、時系列的に連続する複数のパッチそれぞれにおいてボケ量が異なる場合がある。
図5は、本実施形態のボケ除去が適用される前のフレーム群と、適用された後のフレーム群とを示す模式図である。図5において、フレーム500a,510a,520aはボケ除去前のフレーム群である。フレーム500a,510a,520aは、それぞれ時刻t−1,t,t+1で撮影されたフレームであり、それぞれパッチ501a,511a,521aを含む。パッチ501a,511a,521aは、同一の被写体を含み、かつ、時系列的に連続するパッチグループ530aを構成する。図4および図5に示される例では、ボケ量が最も少ないパッチは時刻tに対応するパッチ511aである。上述の通り、基準パッチ決定部205は、パッチグループ530aのなかからボケ量が最も少ないパッチ511aを基準パッチとして決定する。そして、ボケ除去部206は、パッチ511a(基準パッチ)のボケ量B0とパッチ501aのボケ量B1との差に基づき、パッチ501a(着目パッチ)のボケを除去する。同様に、ボケ除去部206は、パッチ511a(基準パッチ)のボケ量B0とパッチ521aのボケ量B2との差に基づき、パッチ521a(着目パッチ)のボケを除去する。
図5において、フレーム500b,510b,520bはそれぞれフレーム500a,510a,520aに対応するフレーム群であって、上記のボケ除去の適用後のフレーム群が示されている。ここでは、フレーム500a,510a,520aに含まれる被写体「建築物」「木」のうち、被写体「建築物」を含むパッチのボケが除去される例が説明されたが、被写体「木」を含むパッチについても同様に処理が行われる(S304〜S307)。そして、パッチ統合部207は、ボケが除去された複数のパッチを統合してフレーム500b,510b,520bを生成する。ボケが除去されたフレーム500b,510b,520bは、画像処理装置100から動画像として出力される。
以上説明した通り、本実施形態のボケ除去手法によれば、時系列的に連続するパッチのボケをそれぞれ除去し、ボケを除去したパッチを統合して出力されるフレームを生成する。そのため、本実施形態のボケ除去手法によれば、大気ゆらぎに起因する画像の劣化、すなわちフレームごとに位置と量とが異なるボケが除去された動画像を生成することができる。
[実施形態2]
実施形態1では、動画像のフレームに含まれる被写体は全て静止していることを前提としてボケを除去する手法について説明した。実施形態2では、被写体が移動する場合、すなわち被写体が移動物体である場合において、パッチに含まれるボケを除去する手法について説明する。以下では、実施形態1と共通する部分については説明を簡略化ないし省略し、本実施形態に特有な点を中心に説明する。
以下、本実施形態におけるボケ除去手順について、図6に示される機能ブロック図と、図7に示されるフローチャートとを参照して説明する。図6は、本実施形態における画像処理装置100の機能構成例を示すブロック図である。画像処理装置100は、実施形態1のブロック群に加えて、移動物体検出部601と、移動物体追跡部602とを有する。移動物体検出部601は、入力された画像データから移動物体を検出する。移動物体追跡部602は、検出された移動物体を追跡する。
図7は、本実施形態におけるボケ除去手順例を示すフローチャートである。
S301において、画像取得部201は、2次記憶装置104または外部記憶装置108から複数フレームが含まれる画像データを取得する。そして、画像取得部201は、取得した画像データを移動物体検出部601に送出する。
ここで、本実施形態において、画像処理装置100に入力される動画像の一例を図8に示す。図8に示されるフレーム800および810は同じ動画像に含まれるフレーム群であり、フレーム800および810の撮影時刻はそれぞれ異なっている。フレーム800,810は、建築物の被写体801a,801bと、車輌の被写体802a,802bとをそれぞれ含む。被写体801a,801bは静止しているためフレーム800,810における位置は同じであるが、被写体802a,802bは移動しているためフレーム800,810における位置はそれぞれ異なっている。また、フレーム800,810それぞれにおいて、パッチ803a,803bは被写体801a,801b上の特定の一点を中心とするパッチであり、パッチ804a,804bは被写体802a,802b上の特定の一点を中心とするパッチである。上述の通り、被写体802a,802bは移動しているため、パッチ804a,804bの位置はフレーム800,810ごとに変化する。図8に示されるように、フレーム810におけるパッチ805の位置は、フレーム800の撮影時刻におけるパッチ804aの位置に存在する。
S701において、移動物体検出部601は、S301で取得された動画像の各フレームから移動物体を検出する。ここで、本実施形態における移動物体を検出する手法について、図8における2値マップ820,830を参照して説明する。2値マップ820,830は、フレーム800,810にそれぞれ対応しており、被写体802a,802bの位置の画素値を8ビットの「255」とし、被写体802a,802b以外の位置の画素値を8ビットの「0」とした画素値のマップである。このように、本実施形態の移動物体検出部601は、フレーム800,810における被写体802a,802bの位置に基づき、移動物体の位置情報を2値マップの形式で出力する。移動物体の位置情報を検出する手法としては、例えば背景差分法が挙げられるが、背景差分法のみには限定されない。
S702において、移動物体追跡部602は、検出された移動物体を追跡する。具体的には、移動物体追跡部602は、移動物体の部位が存在する時刻ごと(フレームごと)の位置(軌跡)を算出する。図8に示される通り、この軌跡の算出は、パッチ804a,804bの中心位置である点806a,806bの座標を時刻ごと(フレームごと)に算出することに相当する。パッチ804a,804bおよび点806a,806bは、図示の都合上それぞれ1箇所のみが示されているが、被写体802a,802bの位置(画素値が「255」である白色領域)であれば任意の位置に設定することができる。移動物体を追跡する手法としては、例えばオプティカルフローが挙げられるが、オプティカルフローのみには限定されない。
S302〜S303の処理は、実施形態1のフローチャート(図3)のものと同じため説明を省略する。なお、移動物体の検出(S701)と移動物体の追跡(S702)とは、S302よりも先に実行される代わりに、S302〜S304の間の任意のタイミングで実行されてもよい。これは、移動物体の検出および移動物体の追跡と、パッチごとのボケ量の算出とは、それぞれ独立した処理であるためである。
S304において、パッチグループ選択部204は、同一の被写体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループを選択する。実施形態1と異なり、本実施形態では、動画像のフレームには移動物体が含まれており、選択されるパッチグループは、S702で算出された軌跡に従って、各フレームにおいて異なる領域が抽出されたパッチ群によって構成される。図8の例を参照して説明すると、パッチ804a,804bはフレーム800,810それぞれにおいて異なる位置に存在しているが、パッチ804a,804bそれぞれの中心(点806a,806b)は軌跡として追跡することができる。そのため、本実施形態のパッチグループ選択部204は、パッチ804a,804bの軌跡を追跡することにより、パッチ804a,804bを同一のパッチグループに属するように選択することができる。一方、パッチ803a,803bの中心位置は、非移動物体上(つまり画素値が「0」の黒色領域)に存在する。そのため、本実施形態のパッチグループ選択部204は、実施形態1と同様に、パッチ803a,803bは同じパッチグループに属するようにパッチグループを選択する。
また、フレーム810におけるパッチ805は、フレーム800においてはパッチ804aに遮蔽されている。このパッチ805のように、移動物体によって一時的に遮蔽されてしまう被写体を含むパッチは、フレームによっては存在しないことになる。本実施形態において、パッチ抽出部202は、動画像のフレームから、移動物体によって遮蔽されている被写体を含むパッチを抽出せず、移動物体によって遮蔽されていない被写体を含むパッチを抽出する。そして、パッチグループ選択部204は、移動物体によって遮蔽されていない被写体を含む複数のパッチから構成されるようにパッチグループを選択する。
再び図7のフローチャートに戻り、S305〜S309の処理は、実施形態1のフローチャート(図3)と同じため、説明を省略する。
以上説明した通り、本実施形態のボケ除去手法によれば、動画像のフレームに移動物体が含まれている場合においても、時系列的に連続するパッチのボケをそれぞれ除去し、ボケを除去したパッチを統合して出力されるフレームを生成することができる。そのため、本実施形態のボケ除去手法によれば、大気ゆらぎに起因するボケが除去された動画像を生成することができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
202・・パッチ抽出部
203・・ボケ量算出部
205・・基準パッチ決定部
206・・ボケ除去部
207・・パッチ統合部

Claims (11)

  1. 入力された動画像のフレームからパッチを抽出する抽出手段と、
    前記抽出されたパッチのボケ量を算出する算出手段と、
    前記算出されたボケ量に基づいて、同一の被写体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループにおける基準パッチを決定する決定手段と、
    着目パッチと前記基準パッチとのボケ量の差に基づいて前記着目パッチのボケを除去する除去手段と、
    ボケが除去された前記複数のパッチを統合して出力される動画像のフレームを生成する生成手段と、を備える
    ことを特徴とする画像処理装置。
  2. 前記算出手段は、前記抽出されたパッチにおける画素値の分散を用いた演算結果、前記抽出されたパッチにおける画素値の1次微分値、前記抽出されたパッチにおける画素値の最大値および最小値を用いた演算結果のうちいずれかを、前記ボケ量として算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記入力された動画像のフレームにおける局所的な歪みを補正する非剛体位置合わせ手段をさらに備えることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記決定手段は、前記複数のパッチのうち、ボケ量が最も少ないパッチを前記基準パッチとして決定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記除去手段は、前記ボケ量の差に関連付けられて記憶されているフィルタをルックアップテーブルから読み出し、前記読み出されたフィルタを用いて前記着目パッチのボケを除去することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記除去手段は、前記ボケ量の差に応じて学習済みの基底の交換を行うことにより前記着目パッチのボケを除去することを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記入力された動画像のフレームから移動物体を検出する検出手段と、
    前記検出された移動物体を追跡する追跡手段と、
    前記追跡した移動物体の軌跡に従って、同一の移動物体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループを選択する選択手段と、をさらに備える
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記追跡手段は、前記検出された移動物体における同一位置を追跡することを特徴とする請求項7に記載の画像処理装置。
  9. 前記選択手段は、前記検出された移動物体によって遮蔽されていない被写体を含む複数のパッチから構成されるように前記パッチグループを選択することを特徴とする請求項7または8に記載の画像処理装置。
  10. 入力された動画像のフレームからパッチを抽出する抽出ステップと、
    前記抽出されたパッチのボケ量を算出する算出ステップと、
    前記算出されたボケ量に基づいて、同一の被写体を含み、かつ、時系列的に連続する複数のパッチから構成されるパッチグループにおける基準パッチを決定する決定ステップと、
    着目パッチと前記基準パッチとのボケ量の差に基づいて前記着目パッチのボケを除去する除去ステップと、
    ボケが除去された前記複数のパッチを統合して出力される動画像のフレームを生成する生成ステップと、を備える
    ことを特徴とする画像処理方法。
  11. コンピュータを、請求項1から請求項9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017177969A 2017-09-15 2017-09-15 画像処理装置、画像処理方法およびプログラム Pending JP2019053588A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017177969A JP2019053588A (ja) 2017-09-15 2017-09-15 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177969A JP2019053588A (ja) 2017-09-15 2017-09-15 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019053588A true JP2019053588A (ja) 2019-04-04

Family

ID=66014265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177969A Pending JP2019053588A (ja) 2017-09-15 2017-09-15 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2019053588A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3846118A1 (en) * 2020-01-06 2021-07-07 Samsung Electronics Co., Ltd. Image display apparatus and image displaying method
KR102565318B1 (ko) * 2022-09-29 2023-08-10 아주대학교 산학협력단 블러 이미지에 포함된 연속적인 이미지의 취득 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3846118A1 (en) * 2020-01-06 2021-07-07 Samsung Electronics Co., Ltd. Image display apparatus and image displaying method
US11735144B2 (en) 2020-01-06 2023-08-22 Samsung Electronics Co., Ltd. Image display apparatus and image displaying method
KR102565318B1 (ko) * 2022-09-29 2023-08-10 아주대학교 산학협력단 블러 이미지에 포함된 연속적인 이미지의 취득 방법 및 장치

Similar Documents

Publication Publication Date Title
Abdelhamed et al. A high-quality denoising dataset for smartphone cameras
EP2372647B1 (en) Image Blur Identification by Image Template Matching
US11188777B2 (en) Image processing method, image processing apparatus, learnt model manufacturing method, and image processing system
EP2785047B1 (en) Image pickup apparatus, image processing system, image pickup system, image processing method, image processing program, and storage medium
JP4982475B2 (ja) 画像処理方法及びコンピュータプログラム
CN109035170B (zh) 基于单网格图分段映射的自适应广角图像校正方法及装置
US10846839B2 (en) Image processing apparatus, image processing method, and storage medium
CN110874827B (zh) 湍流图像复原方法、装置、终端设备及计算机可读介质
JP2014146107A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
Zhou et al. Improved estimation of motion blur parameters for restoration from a single image
JP2015191521A (ja) 画像処理装置、画像処理方法、およびプログラム
US8908988B2 (en) Method and system for recovering a code image including blurring
JP2019053588A (ja) 画像処理装置、画像処理方法およびプログラム
Carbajal et al. Blind motion deblurring with pixel-wise kernel estimation via kernel prediction networks
KR101362183B1 (ko) 카메라 자세 기반의 깊이 영상 노이즈 제거 장치 및 방법
CN113627210A (zh) 条形码图像的生成方法、装置、电子设备及存储介质
US11145033B2 (en) Method and device for image correction
Lavatelli et al. A motion blur compensation algorithm for 2D DIC measurements of deformable bodies
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
US10339637B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for correcting deterioration of image
CN115496673A (zh) 图像处理方法、图像处理装置、图像处理系统、以及存储介质
Min et al. Out-of-focus image deblurring for mobile display vision inspection
KR20070061157A (ko) 모션 블러가 심한 영상의 카메라 자동보정 장치 및 그방법과, 그를 이용한 증강현실 시스템
Wee et al. Derivation of blur-invariant features using orthogonal Legendre moments
Van Vo et al. High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation