JP7009252B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7009252B2
JP7009252B2 JP2018027878A JP2018027878A JP7009252B2 JP 7009252 B2 JP7009252 B2 JP 7009252B2 JP 2018027878 A JP2018027878 A JP 2018027878A JP 2018027878 A JP2018027878 A JP 2018027878A JP 7009252 B2 JP7009252 B2 JP 7009252B2
Authority
JP
Japan
Prior art keywords
likelihood
moving body
region
image
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018027878A
Other languages
English (en)
Other versions
JP2019144803A (ja
Inventor
悟 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018027878A priority Critical patent/JP7009252B2/ja
Priority to US16/272,855 priority patent/US10715729B2/en
Publication of JP2019144803A publication Critical patent/JP2019144803A/ja
Application granted granted Critical
Publication of JP7009252B2 publication Critical patent/JP7009252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Description

本発明は、画像から動体領域を検出する画像処理技術に関する。
近年、複数枚の画像を合成し、その合成画像を記録するデジタルカメラやデジタルビデオカメラといった撮像装置が数多く製品化されている。これらの撮像装置の中には、異なる時間で撮影した複数枚の画像を合成することにより、ランダムノイズを低減した合成画像を生成する機能を持つ撮像装置がある。これにより、ユーザーは、合成されていない1枚画像よりもさらにランダムノイズを低減した合成画像を得ることができる。しかし、このような合成機能を有効(オン)に設定して複数枚の画像を撮影した際に被写体等が移動した場合、その移動した被写体等が多重像になった合成画像が生成されてしまうことがある。このような多重像の生成を抑制するための技術として、被写体等の移動が検出された領域では合成処理を禁止する技術が知られている。
また、移動する被写体等のような動体領域を検出する技術として、例えば特許文献1には、手ぶれ量に応じて決めた縮小率で縮小した複数枚の画像間の差分絶対値を基に動体領域を検出する技術が開示されている。特許文献1の技術では、手ぶれ量を基に画像縮小率を変更することで手ぶれによる静止被写体の位置のずれを軽減するとともに、画像を縮小することでノイズの影響をも軽減して、動体領域の検出精度を向上させている。また、特許文献2には、複数枚の画像の位置合わせ後に残存する位置のずれに応じて低解像度画像(つまり縮小画像)を選択し、その選択した複数枚の低解像度画像間の差分絶対値に基づいて動体領域を検出する技術が開示されている。この特許文献2の技術では、複数枚の画像の位置合わせ後に残存する位置のずれに応じて低解像度画像を選択することにより、手ぶれによる静止被写体の位置のずれを軽減して、動体領域の検出精度を向上させている。
特開2013-62741号公報 特開2011-198241号公報
しかしながら、例えば高感度で撮影した画像のようにランダムノイズが多く含まれる画像の場合、ランダムノイズの影響により画像間の差分絶対値が大きくなるため、動体領域とランダムノイズを区別することが困難になることがある。特に、ランダムノイズに起因する差分絶対値よりも画像間の差分絶対値の方が小さいような場合、動体領域を検出することが困難となって、動体領域を誤検出してしまうことがある。また前述した特許文献1,2のように縮小画像を基に動体領域を検出する場合、その検出した動体領域はその後元の等倍画像まで拡大されることになる。このため、例えば動体領域を誤検出した場合には、動体周辺の静止領域が誤って動体領域として扱われたり、逆に動体領域の一部が誤って静止領域として扱われたりしてしまうことがある。
そこで、本発明は、移動する被写体等の動体領域の検出精度を高めることを目的とする。
本発明は、動体領域を検出する画像処理装置であって、少なくとも2枚の入力画像を基に、画像内の領域の動きを検出すると共に、領域ごとの動体尤度を生成する尤度生成手段と、少なくとも1枚の前記入力画像について、着目領域と前記着目領域の周辺領域との類似度を検出する類似度検出手段と、前記周辺領域の類似度および動体尤度に基づいて、前記着目領域の動体尤度を補正する補正手段と、を有し、前記補正された動体尤度に基づいて前記動体領域を検出することを特徴とする。
本発明によれば、移動する被写体等の動体領域の検出精度を高めることが可能となる。
実施形態の撮像装置の概略構成を示す図である。 合成画像生成部の構成例を示す図である。 合成画像生成部の処理の流れを示すフローチャートである。 基準画像、参照画像及び位置合わせ済み参照画像の一例を示す図である。 基準画像の合成比率カーブを示す図である。 第1実施形態の動体領域検出部の構成例を示す図である。 第1実施形態の動体領域検出部の処理のフローチャートである。 動体尤度カーブを示す図である。 類似度重み係数算出処理の説明に用いる図である。 動体尤度重み係数取得処理の説明に用いる図である。 統合重み係数算出処理の説明に用いる図である。 第2実施形態の動体領域検出部の構成例を示す図である。 第2実施形態の動体領域検出部の処理のフローチャートである。 等倍サイズの画像データの説明に用いる図である。 階層補正動体尤度生成処理の説明に用いる図である。 エッジ度カーブを示す図である。 階層補正動体尤度合成比率カーブを示す図である。
以下、図面を参照しながら本発明の好適な実施形態について説明する。
本発明実施形態に係る画像処理装置は、例えば時間をずらして撮影した複数枚の画像を合成する合成機能を有する撮像装置に適用可能である。合成機能では、異なる時間に撮影された複数枚の画像を合成して合成画像が生成されて記録等される。
図1は、本実施形態の画像処理装置の一適用例である撮像装置100の概略構成を示した図である。図1の撮像装置100において、本実施形態の画像処理装置は、例えば画像処理部107に相当する。例えば合成機能が有効(オン)に設定されている場合、画像処理部107では、後述するような動体尤度および補正動体尤度に基づく画像合成処理が行われる。
図1において、制御部101は、例えばCPUであり、撮像装置100の各構成要素の動作プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することにより撮像装置100の各構成要素の動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100の各構成要素の動作プログラムに加え、各構成要素の動作や後述する各種演算の処理に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100の各構成要素の動作において出力されたデータの一時的な記憶領域として用いられる。後述する合成比率カーブ、動体尤度カーブ、類似度重み係数カーブ、動体尤度重み係数カーブ、統合重み係数カーブ、エッジ度カーブ等は、パラメータとしてROM102に予め記憶されていてもよいし、プログラムの実行により生成されてもよい。
光学系104は、ズームレンズ、フォーカスレンズ等を含むレンズ群により構成され、被写体像等を後述の撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子やカラーフィルタ等を有し、光学系104により撮像部105に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像データをRAM103に出力する。また、A/D変換部106は、制御部101が決定した増幅率(感度情報)に基づき、アナログ画像信号又はデジタル画像信号を増幅する増幅器も有する。
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また本実施形態の場合、画像処理部107は後述する合成画像生成部200を具備している。詳細は後述するが、合成画像生成部200は、RAM103内の複数画像から基準画像と参照画像とを入力画像として取得し、基準画像を基に参照画像の位置合わせを行う。そして、合成画像生成部200は、その位置合わせ済みの参照画像と基準画像とを基に、画像内において移動する被写体等の動き領域を検出する。同じく詳細は後述するが、合成画像生成部200は、基準画像と位置合わせ済み参照画像とに基づいて動体尤度を算出し、更にその動体尤度を補正した補正動体尤度に基づいて、基準画像と位置合わせ済み参照画像を合成して合成画像を生成する。
記録部108は着脱可能なメモリカード等であり、画像処理部107で処理された画像が、RAM103を介し、記録画像として記録される。
表示部109は、LCD等の表示デバイスであり、RAM103及び記録部108に記録した画像やユーザーからの指示を受け付けるための操作ユーザーインターフェイス等を表示する。
その他、図1では図示を省略しているが、撮像装置100は、電源スイッチ、シャッターボタン、メニューボタン、再生ボタンなど、一般的なカメラが備えている各種操作ボタン等も有する。
次に、本実施形態の撮像装置100が有する画像処理部107の動作について、詳細に説明する。ここでは、画像処理部107において、後述する補正動体尤度に基づいて2枚の画像を合成することにより、移動被写体が多重像となるのを抑制しつつランダムノイズが低減された合成画像を生成する画像処理が行われる例を挙げて説明する。
画像処理部107は、図2に示すような合成画像生成部200を有する。
合成画像生成部200は、RAM103に記憶されている2枚の画像データを合成して合成画像を生成する合成機能に含まれる構成であり、図2に示すうように、位置合わせ部201、動体領域検出部202、画像合成部203を有して構成されている。なお、図2の各部間では画像のデータや後述する動体尤度等の値を表す各種情報の送受がなされるが、これ以降は、説明を簡略にするために、それらデータや情報等の表記を省略することとする。このことは、後述する他の構成を示した図の説明においても同様とする。
以下、図1の撮像装置100及び画像処理部107の図2に示した合成画像生成部200において行われる処理について、図3のフローチャートを参照して説明する。なお、以下の図3のフローチャートの説明では、ステップS301~ステップS304をそれぞれS301~S304と略記する。このことは後述する他のフローチャートにおいても同様とする。
図3のS301において、図1に示した撮像装置100の制御部101は、RAM103に記憶されている複数枚の画像のうち、合成の基準となる基準画像と、その基準画像に対して合成される参照画像とを選択して取得する。例えば、制御部101は、画像撮影時においてシャッターボタンが押下された直後の1枚目に撮影した画像を基準画像とし、2枚目以降の画像を参照画像として取得する。そして、S301でRAM103から取得された基準画像と参照画像は、画像処理部107に送られる。
次にS302において、位置合わせ部201は、S301で取得した基準画像と参照画像との間で動きベクトルを検出し、その動きベクトルに基づいて参照画像を幾何変形することにより、参照画像の位置を基準画像と合わせるような位置合わせ処理を行う。
ここで、位置合わせ処理に関して、図4(a)~図4(c)を参照して説明する。図4(a)は基準画像400を示し、図4(b)は参照画像401を示し、図4(c)は位置合わせが行われた後の位置合わせ済み参照画像402を示している。
図4(b)の参照画像401は、図4(a)の基準画像400とは異なる時間(時刻)に撮影された画像であり、例えば撮影時の手ぶれ等により、図4(a)の基準画像400に対して位置や傾きがずれた画像になっているとする。位置合わせ部201は、このような位置や傾きのずれを、位置合わせ処理によって補正する。このため、位置合わせ部201は、先ず、図4(a)の基準画像400と図4(b)の参照画像401との間の大局的な動きを示す動きベクトルを検出する。動きベクトルの検出方法としては、例えば、ブロックマッチング法等が挙げられる。次に、位置合わせ部201は、検出した動きベクトルに基づき、参照画像401を幾何変換するための係数である式(1)のような幾何変換係数Aを算出する。
Figure 0007009252000001
さらに位置合わせ部201は、その幾何変換係数Aを用い、図4(b)の参照画像401に対して、式(2)に示すような幾何変形の演算を行うことにより、図4(c)の位置合わせ済み参照画像402を生成する。なお、式(2)では、参照画像401をI(x座標,y座標)、位置合わせ済み参照画像402をI'(x'座標,y'座標)とする。
Figure 0007009252000002
位置合わせ部201では、このような位置及び傾きを合わせる処理を行うことで、図4(c)の位置合わせ済み参照画像402のように、基準画像400と参照画像401との静止被写体(例えば、建物や木)の位置と傾きを合わせることができる。
図3のフローチャートに説明を戻す。
S303において、動体領域検出部202は、基準画像と位置合わせ済み参照画像とを比較することにより、画像内の動き領域を検出する。さらに動体領域検出部202は、検出した動き領域における基準画像と位置合わせ済み参照画像とに基づいて所定の領域毎(例えば画素毎)に動体尤度を求める。そして、本実施形態の場合、動き領域は、動体である尤もらしさを表す度合い(つまり動体尤度)を多値により表現したデータによって表されるものとする。本実施形態では、検出された動き領域およびその近傍の領域において、動体尤度の値が100以上の画素は動体領域の画素となされ、動体尤度の値が0の画素は動体ではない静止領域の画素となされる。また、動体尤度の値が0より大きくなるほど、その画素は動体領域に含まれる可能性が高くなるとする。さらに、本実施形態の場合、動体領域検出部202は、検出した動体尤度を、後述するように補正して補正動体尤度を生成する。なお、動体領域検出部202における詳細な構成、動体尤度及び補正動体尤度生成処理の詳細については後述する。
次にS304において、画像合成部203は、下記式(3)で示すように、補正動体尤度に基づいて合成比率を設定し、その合成比率を基に、基準画像と位置合わせ済み参照画像とを画素毎に合成して合成画像を生成する。
P=w×Pbase+(1-w)×Pref 式(3)
なお、式(3)において、Pbaseは基準画像の画素値であり、Prefは位置合わせ済み参照画像の画素値、wは基準画像の合成比率、Pは合成画像の画素値である。
ここで、補正動体尤度に基づく合成比率設定処理について、図5を参照して説明する。
図5は、補正動体尤度と基準画像の合成比率との関係を表す合成比率カーブを示した図である。図5の縦軸は基準画像の合成比率を示し、横軸は補正動体尤度を示している。図5の合成比率カーブは、補正動体尤度が高いほど基準画像の合成比率が高くなるように設定されている。
図5に示す合成比率カーブによれば、補正動体尤度の値が100以上の動体領域では基準画像の合成比率が100%に設定され、その動体領域については参照画像の合成処理が禁止される。これにより多重像の生成が抑制されることになる。一方、補正動体尤度の値が0の静止領域では基準画像の合成比率が50%に設定され、その静止領域については基準画像に対して50%の割合で参照画像が合成されることになる。この場合、参照画像の合成によりランダムノイズが低減されることになる。
次に、第1実施形態における動体領域検出部202の詳細な構成と動体尤度及び補正動体尤度生成処理について図6を参照して説明する。
動体領域検出部202は、基準画像のフレームと位置合わせ済み参照画像のフレームとの間のフレーム間差分絶対値に基づいて動体尤度を算出し、さらにその動体尤度を補正して補正動体尤度を生成する。図6に示すように、動体領域検出部202は、尤度算出部600と尤度補正部610を有して構成されている。尤度補正部610は、類似係数算出部611、尤度係数算出部612、統合部613、平均処理部614を有して構成されている。
尤度算出部600には、前述した図1のRAM103から読み出された、基準画像と位置合わせ済み参照画像とが入力される。尤度算出部600に入力される基準画像と位置合わせ済み参照画像は、撮像装置100により撮像された時の解像度の画像であり、縮小処理等(低解像度への解像度変換等)がなされていない画像である。以下、撮像時の解像度を、等倍サイズと表記する。尤度算出部600は、それら等倍サイズの基準画像のフレームと位置合わせ済み参照画像のフレームとの間で画素毎に差分絶対値を算出し、そのフレーム間の画素毎の差分絶対値に基づいて画素毎の動体尤度を生成する。フレーム間の差分絶対値の基づく動体尤度生成処理の詳細は後述する。尤度算出部600により算出された画素毎の動体尤度は、尤度補正部610の尤度係数算出部612と平均処理部614とに送られる。
尤度補正部610の類似係数算出部611には、図1のRAM103から読み出された等倍サイズの基準画像が入力される。類似係数算出部611は、基準画像の各画素の画素値を用い、少なくとも一つの画素からなる着目領域に対する、周辺領域毎の各画素値の類似度、つまり着目座標に対する周辺座標毎の類似度を検出し、それら周辺座標の類似度に応じた類似度重み係数を取得する。類似度検出処理及び類似度重み係数取得処理の詳細は後述する。類似係数算出部611により得られた周辺座標毎の類似度重み係数は、統合部613に送られる。
尤度係数算出部612は、尤度算出部600により画素毎に算出された動体尤度のうち、着目領域に対する各周辺領域の動体尤度、つまり着目座標に対する各周辺座標の動体尤度を基に、周辺座標毎の動体尤度重み係数を取得する。動体尤度重み係数取得処理の詳細は後述する。尤度係数算出部612により得られた周辺座標毎の動体尤度重み係数は、統合部613に送られる。
統合部613は、類似係数算出部611により求められた周辺座標毎の類似度重み係数と、尤度係数算出部612により求められた周辺座標毎の動体尤度重み係数とを基に、周辺座標毎の統合重み係数を取得する。統合重み係数取得処理の詳細は後述する。統合部613により取得された統合重み係数は、平均処理部614に送られる。
平均処理部614は、尤度算出部600により求められた画素毎の動体尤度と、統合部613により求められた統合重み係数とに基づき、着目座標及び周辺座標の各動体尤度を加重加算平均処理することにより補正動体尤度を生成する。
次に、図6に示した動体領域検出部202において行われる動体尤度及び補正動体尤度生成処理について、図7のフローチャートを参照して説明する。
図7のS701において、動体領域検出部202の尤度算出部600は、基準画像と位置合わせ済み参照画像とを取得する。ここでは、例えば前述の図4(a)の基準画像400、図4(c)の位置合わせ済み参照画像402を例に挙げて説明する。前述したように、図4(a)の基準画像400と図4(c)の位置合わせ済み参照画像402は異なる時間に撮影された画像であるため、例えば撮影中に移動した被写体の位置は異なることがある。例えば図4(a)の基準画像400内の人410は図4(c)の位置合わせ済み参照画像402では人420の位置に移動し、同様に基準画像400内の人411は位置合わせ済み参照画像402では人421の位置に移動していて、それぞれ位置が異なる。尤度算出部600は、基準画像と位置合わせ済み参照画像とを比較することにより、画像内において移動した領域を動き領域として検出する。
次にS702において、尤度算出部600は、基準画像と位置合わせ済み参照画像のフレーム間差分絶対値を画素毎に算出し、図8に示すような動体尤度カーブに基づいて画素毎の動体尤度を求める。
図8は、フレーム間差分絶対値と動体尤度との関係を表す動体尤度カーブであり、縦軸が動体尤度を示し、横軸がフレーム間差分絶対値を示している。本実施形態の場合、フレーム間差分絶対値が大きくなるほど、動体尤度が高くなるような動体尤度カーブが設定されている。図8の動体尤度カーブでは、動体尤度が0~200の値で表現されており、200の値が最も高い動体尤度となされている。フレーム間差分絶対値が閾値未満(閾値TH未満)では、動体尤度の値は100から200の間で例えば線形に変化し、フレーム間差分絶対値が閾値以上(閾値TH以上)になると、動体尤度の値は200で一定となる。本実施形態において、動体尤度の値の大きさを図8に示した値のように設定するのは、前述した図5で説明したような理由からである。すなわち前述した図5の合成比率カーブは、補正動体尤度の値が100の場合、基準画像の合成比率が100%になるように設定されている。これは、補正動体尤度の値が100以上の場合に、基準画像に対して参照画像の動体領域の合成を必ず禁止することを意味している。一方で、前述したように、補正動体尤度の値が0では基準画像の合成比率が50%に設定され、これは静止領域では基準画像に対し50%の割合で参照画像を合成させるためのである。この図5に示したような合成比率カーブで基準画像と参照画像の動体領域の合成処理を行えるようにするために、動体尤度及び補正動体尤度の値の大きさは、図8の動体尤度カーブに基づいて設定される。
図7のフローチャートに説明を戻す。
S703において、類似係数算出部611は、基準画像の各画素座標の画素値を用い、着目座標に対する周辺座標毎の類似度を検出し、それら周辺座標毎の類似度に応じた類似度重み係数を取得する。
類似度検出及び類似度重み係数取得処理について、図9(a)と図9(b)を参照して説明する。図9(a)は、類似度検出に用いる画素の位置関係を示す図であり、図中の小さい四角が1画素を示している。また、図中の黒塗り座標の画素は着目座標の画素を表し、白塗り座標の各画素は周辺座標の各画素を表している。図9(b)は、類似度を類似度重み係数に変換する際に用いる類似度重み係数カーブを示す図であり、縦軸が類似度重み係数を示し、横軸が類似度を示している。
類似係数算出部611は、先ず、式(4)に示す演算により、着目座標の画素値と周辺座標の画素値との差分絶対値を画素毎に求め、それら画素毎の差分絶対値に基づき、図9(a)に示した着目座標の画素に対する各周辺座標の画素毎の類似度Siを算出する。なお、類似度とは、着目座標の画素値と周辺座標の画素値とが類似している度合いを示す評価値である。
Si=1÷(|Yc-Ysi|+|Uc-Usi|+|Vc-Vsi|) 式(4)
ここで、式(4)のYcは着目座標の画素の輝度値、Uc及びVcは着目座標の画素の色差値を示し、Ysiは周辺座標の画素の輝度値、Usi及びVsiは周辺座標の画素の色差値を示す。つまり、着目座標の画素値と周辺座標の画素値との間の差分絶対値が大きいほど類似度Siは小さくなり、一方、差分絶対値が小さいほど類似度Siは大きくなる。なお、式(4)の分母が0の場合、つまり、着目座標の画素値と周辺座標の画素値の差分絶対値が0の場合、類似度Siは1.0とする。
次に、類似係数算出部611は、周辺座標毎に算出した類似度と、図9(b)の類似度重み係数カーブとに基づき、類似度重み係数を取得する。図9(b)の例では、類似度が大きくなるほど、類似度重み係数が大きくなるような類似度重み係数カーブを設定している。図9(b)の類似度重み係数カーブにおいて、類似度重み係数は、重み係数を0.0~1.0で表現しており、1.0の値が最も大きい類似度重み係数となっている。また、図9(b)の類似度重み係数カーブの例では、類似度が0.2未満の場合に類似度重み係数の値が0となっている。これは、類似度が小さい周辺座標の動体尤度を除外し、類似度が大きい周辺座標の動体尤度のみが後述する加重加算平均処理されるようにし、移動する被写体周辺の静止被写体の動体尤度が高くなってしまうのを抑制するためである。
例えば前述の図4(a)の基準画像400内の人411の場合、人411の領域を動体領域として検出することが正しい検出結果である。しかしながら、動体尤度を補正した場合に、人411の周辺領域に存在する静止被写体である例えば木や建物まで動体尤度が高くなってしまう可能性がある。このため、図9(b)の類似度重み係数カーブは、類似度が0.2未満の場合に類似度重み係数が0となるように設定され、類似度が大きい周辺座標の動体尤度のみが後述の加重加算平均処理されるようにしている。これにより、画素値が類似している同じ被写体内の動体尤度を用いた動体尤度補正がし易くなり、移動被写体周辺の静止被写体の動体尤度が高くなってしまうのを抑制することができる。
図7のフローチャートに説明を戻す。
S704において、尤度係数算出部612は、尤度算出部600が算出した動体尤度と、図10に示す動体尤度重み係数カーブとに基づき、周辺座標毎に動体尤度重み係数を取得する。図10の例では、動体尤度が高くなるほど、動体尤度重み係数が大きくなるような動体尤度重み係数カーブを設定しており、縦軸が動体尤度重み係数を示し、横軸が動体尤度を示している。図10に示した動体尤度重み係数カーブでは、重み係数を0.0~1.0の値で表現しており、1.0が最も大きい動体尤度重み係数となされている。また、動体尤度が150以上の場合、動体尤度重み係数は1.0となり、動体尤度が100未満の場合、動体尤度重み係数は0.0となり、動体尤度が100から150の間では例えば線形に動体尤度重み係数が変化するようになされている。
なおS702で説明した通り、補正動体尤度の値が100以上の場合、基準画像の合成比率が100%となり、参照画像の動体領域の合成を禁止する処理となる。また、図10に示す動体尤度重み係数カーブは、動体尤度が100以上の場合に、重み係数が0.0よりも大きくなるように設定している。これは、動体尤度が100以上となる周辺座標の動体尤度のみが後述する加重加算平均処理されるようにして、値が100未満の動体尤度をより高く補正するためである。このように、値が100未満の動体尤度をより高く補正することより、基準画像の合成比率をより高くすることができる。また、値が100を超える動体尤度の場合、値が100以上となる周辺座標の動体尤度のみを後述する加重加算平均処理することによって、より低く補正される可能性がある。しかしながら、動体尤度がより低く補正されたとしても、補正動体尤度の値は必ず100以上になるため、基準画像の合成比率は100%となり、参照画像の動体領域の合成を禁止する処理となる。つまり、本実施形態のように動体尤度を補正することにより、動体領域として検出する領域は広がることになる。
次にS705において、統合部613は、前述した周辺座標毎の類似度重み係数と周辺座標毎の動体尤度重み係数とを基に、周辺座標毎の統合重み係数を取得する。
周辺座標の統合重み係数取得方法について、図11(a)と図11(b)を参照して説明する。図11(a)は、類似度重み係数と動体尤度重み係数との乗算値と、統合重み係数との関係を表す統合重み係数カーブを示した図であり、縦軸が統合重み係数を示し、横軸が係数の乗算値を示している。図11(b)は、前述の図9(a)の着目座標及び幕周辺座標に対応した座標毎の統合重み係数の値の例を示した図である。
統合部613は、周辺座標の類似度重み係数と動体尤度重み係数との乗算値を算出し、図11(a)のような統合重み係数カーブに基づいて、周辺座標毎に、図11(b)のような統合重み係数を取得する。図11(a)の例では、類似度重み係数と動体尤度重み係数との乗算値が大きくなるほど、統合重み係数が大きくなるような統合重み係数カーブを設定している。図11(b)に示した統合重み係数カーブでは、重み係数を0.0~1.0で表現しており、1.0の値が最も大きい統合重み係数となっている。例えば、類似度重み係数が1.0で、且つ、動体尤度重み係数が1.0の場合、それらの乗算値は1.0となり、図11(a)の統合重み係数カーブから取得される統合重み係数は1.0となる。また、類似度重み係数と動体尤度重み係数のどちらか一方が0の場合、それらの乗算値も0となり、統合重み係数が0.0となる。つまり、統合部613は、類似度が高く、且つ、動体尤度が高い周辺座標の統合重み係数を大きい値に設定する。
統合部613において、前述のようにして統合重み係数を取得することにより、周辺座標の画素値と類似し、且つ、周辺座標の動体尤度が高い着目座標の動体尤度を高く補正することができるようになる。これにより、動体尤度が低く、正しく動体領域として検出できなかった移動被写体の領域を動体領域として検出し易くなる。一方、周辺座標の画素値と類似しない着目座標の動体尤度は補正されないことになる。これにより、移動被写体周辺の静止領域の動体尤度を高く補正してしまうことを抑制することができる。また、周辺座標の動体尤度が低い着目座標の動体尤度は補正されない。これにより、静止領域に発生するランダムノイズの影響によって、例えば、値が30程度になってしまった動体尤度を高く補正してしまうことを抑制することができる。
次に着目座標の統合重み係数取得処理について、図11(b)を参照して説明する。
統合部613は、図11(b)で示すように着目座標の統合重み係数を最大値の1.0とし、周辺座標の統合重み係数は前述した処理で取得した統合重み係数とする。
なお、着目座標の統合重み係数は1.0に限ったものではない。例えば、着目座標の統合重み係数を1.0よりも小さくすることにより、周辺座標の動体尤度を重視した動体尤度補正を行うことができる。
その後、図7のS705において、平均処理部614は、統合重み係数に基づき、着目座標及び周辺座標の動体尤度を加重加算平均処理することにより補正動体尤度を生成する。具体的には、平均処理部614は、着目座標及び周辺座標の各画素値に統合重み係数を積和演算し、さらに統合重み係数の総和で除算することにより、補正動体尤度を算出する。
なお、動体尤度重み係数カーブは、撮影時の感度情報に応じて変更されても良い。例えば、撮影時の感度が高い場合は、基準画像及び参照画像のランダムノイズの振幅が高くなるため、ランダムノイズによって動体尤度が高くなる傾向がある。このため、ノイズ量に応じて、動体尤度重み係数を変更しても良い。例えば、ノイズ量が多くなる高感度の場合は、撮影時の感度が低感度であった場合に比べて動体尤度重み係数を小さくすることが望ましい。具体的には、撮影時の感度が高感度であった場合には、ノイズ量に応じて、図10で示す動体尤度重み係数カーブの例よりも、動体尤度重み係数カーブの傾きを小さくする、又は、x切片を大きくすることにより、動体尤度重み係数を小さくする。
前述の実施形態では、統合重み係数が0.0~1.0の多値の例を挙げたが、統合重み係数は0.0と1.0のように2値でも良い。これにより、平均処理部614において、重み係数の乗算処理が不要になるため、処理量を減らすことができる。
また前述の実施形態では、着目領域の画素が1画素である例を挙げたが、複数の画素を着目領域として動体尤度の補正を行っても良い。この場合、類似係数算出部611は、着目領域の複数の画素の平均画素値と周辺領域の画素値との間の差分絶対値に基づき類似度を算出する。
また前述の実施形態では、ランダムノイズを低減するために複数枚の画像を合成する合成機能において、前述した補正動体尤度に基づく画像合成を適用する例を挙げたが、補正動体尤度に基づく画像合成の適用例はこれに限ったものではない。例えば、異なる露出で撮影した複数枚の画像を合成することにより、ダイナミックレンジを拡大するいわゆるHDR(ハイダイナミックレンジ)合成機能に対して適用しても良い。この場合、異なる露出で撮影した基準画像と位置合わせ済み参照画像の明るさレベルを合わせた上で、前述した動体領域検出部202に入力することにより、補正動体尤度を算出し、その補正動体尤度に基づく画像合成を行う。
以上説明したように、第1実施形態の画像処理装置は、複数枚の画像間で動体領域を検出する場合において、周辺領域の動体尤度と類似度とに基づき着目領域の動体尤度を補正する。これにより、本実施形態によれば、ランダムノイズと区別が困難な移動被写体の動体尤度を高めることができ、動体領域の検出精度を向上させることができる。
次に、第2実施形態について説明する。
前述した第1実施形態では等倍サイズの基準画像及び位置合わせ済み参照画像を基に補正動体尤度を算出した。これに対し、第2実施形態では、等倍サイズの画像の解像度とは異なる解像度の基準画像及び位置合わせ済み参照画像を基に補正動体尤度を算出する。第2実施形態では、等倍サイズの画像の解像度とは異なる解像度として複数の解像度を設定し、それら解像度毎に、基準画像及び位置合わせ済み参照画像に基づく動体尤度を算出するような階層尤度生成処理を行う。そして第2実施形態では、異なる解像度毎にそれぞれ算出した動体尤度について補正処理を行い、その補正された動体尤度に基づいて、複数枚の画像を合成して合成画像を生成する。以下の説明では、異なる解像度毎にそれぞれ算出して補正した動体尤度を、階層補正動体尤度と呼ぶことにする。
第2実施形態では、階層補正動体尤度を算出することにより、移動被写体周辺の静止領域を動体領域として誤検出してしまうこと、及びランダムノイズを動体領域として誤検出してしまうことを抑制し、より正確に移動被写体を動体領域として検出可能とする。
なお、第2実施形態の画像処理装置の一適用例である撮像装置の構成は、前述した図1と同様の構成であるため、その図示と説明は省略する。第2実施形態の場合、前述の図2における動体領域検出部202の構成及び動作が、第1実施形態とは異なる。第2実施形態において、第1実施形態と同様の動作及び処理が行われる構成については、前述した第1実施形態で用いたのと同じ符号を付してそれらの詳細な説明は省略する。
図12は、第2実施形態における動体領域検出部202の構成例を示した図である。第2実施形態の場合、動体領域検出部202は、異なる解像度毎に、基準画像と位置合わせ済み参照画像との間のフレーム間差分絶対値を算出し、それら解像度毎に算出したフレーム間差分絶対値に基づいて階層補正動体尤度を算出する。このため第2実施形態の動体領域検出部202は、尤度算出部1200~1202、エッジ度算出部1210,1211、尤度補正部610、拡大処理部1220~1224、合成比率算出部1230,1231、尤度合成部1240,1241を有する。なお、図12の尤度補正部610は、前述した図6の尤度補正部610と同様の構成を有する。
尤度算出部1200には、前述した第1実施形態と同様の等倍サイズの基準画像と位置合わせ済み参照画像とが、図1のRAM103から読み出されて入力される。尤度算出部1200は、前述した図6の尤度算出部600と同様に、等倍サイズの基準画像のフレームと位置合わせ済み参照画像のフレームとの間で画素毎に差分絶対値を算出し、そのフレーム間の画素毎の差分絶対値に基づいて画素毎の動体尤度を算出する。本実施形態では、尤度算出部1200により求められた動体尤度を、等倍サイズ動体尤度と呼ぶ。尤度算出部1200から出力された等倍サイズ動体尤度は、尤度合成部1240に送られる。
尤度算出部1201には、撮像時の解像度の基準画像と位置合わせ済み参照画像とをそれぞれ4分の1の解像度に変換した1/4サイズの基準画像と位置合わせ済み参照画像とが入力される。撮像時の解像度の基準画像及び位置合わせ済み参照画像を1/4の解像度に変換する処理は、例えば図示しない解像度変換部により行われ、それら1/4サイズの画像がRAM103に記憶されているとする。不図示の解像度変換部は、例えば動体領域検出部202内に設けられていても良いし、図1の制御部101内に形成されていても良い。尤度算出部1201は、それら1/4サイズの基準画像と位置合わせ済み参照画像とのフレーム間で画素毎に差分絶対値を算出し、その画素毎の差分絶対値に基づいて画素毎の動体尤度を算出する。本実施形態では、尤度算出部1201により1/4サイズの解像度の階層について求められた階層動体尤度を、1/4サイズ動体尤度と呼ぶ。尤度算出部1201から出力された1/4サイズ動体尤度は、尤度補正部610に送られる。
尤度算出部1202には、撮像時の解像度の基準画像と位置合わせ済み参照画像とをそれぞれ16分の1の解像度に変換した1/16サイズの基準画像と位置合わせ済み参照画像とが入力される。1/16の解像度に変換する処理も前述同様に、例えば不図示の解像度変換部により行われ、それら1/16サイズの画像がRAM103に記憶されているとする。尤度算出部1202は、1/16サイズの基準画像と位置合わせ済み参照画像との間のフレーム間差分絶対値を算出し、その差分絶対値に基づき画素毎の動体尤度を算出する。本実施形態では、尤度算出部1202により1/16サイズの解像度の階層について求められた階層動体尤度を、1/16サイズ動体尤度と呼ぶ。尤度算出部1202から出力された1/16サイズ動体尤度は、拡大処理部1223に送られる。
また、1/16サイズの基準画像は、拡大処理部1224により1/4サイズに相当する画像に拡大処理されて、尤度補正部610に送られる。
尤度補正部610は、1/16サイズの基準画像が拡大処理部1224により拡大処理された1/4サイズ相当の基準画像と、尤度算出部1201からの1/4サイズ動体尤度とを基に、前述した第1実施形態で説明したのと同様の処理を行う。尤度補正部610により生成された補正動体尤度(1/4サイズ補正動体尤度とする。)は、尤度合成部1241に送られる。
エッジ度算出部1210は、1/4サイズの基準画像と位置合わせ済み参照画像とについて画素毎にエッジ強度を算出し、それぞれ算出したエッジ強度に基づいて画素毎のエッジ度(以下、1/4サイズエッジ度とする。)を取得する。同様に、エッジ度算出部1211は、1/16サイズの基準画像と位置合わせ済み参照画像とについて画素毎のエッジ強度を算出し、それぞれ算出したエッジ強度に基づいて画素毎のエッジ度(以下、1/16サイズエッジ度とする。)を取得する。エッジ強度の算出処理、及びエッジ強度に応じたエッジ度の取得処理の詳細は後述する。エッジ度算出部1210により求められた1/4サイズエッジ度は拡大処理部1220に送られ、エッジ度算出部1211により求められた1/16サイズエッジ度は拡大処理部1222に送られる。
拡大処理部1220は、1/4サイズエッジ度を等倍サイズに相当するエッジ度に拡大処理し、その拡大処理後のエッジ度を合成比率算出部1230に送る。また、拡大処理部1222は、1/16サイズエッジ度を1/4サイズ相当のエッジ度に拡大処理し、その拡大処理後のエッジ度を合成比率算出部1231に送る。また、拡大処理部1223は、1/16サイズ動体尤度を1/4サイズに相当する動体尤度に拡大処理し、その拡大処理後の動体尤度を尤度合成部1241に送る。なお、これら拡大処理部で行われる拡大処理としては、例えばバイリニア拡大法やバイキュービック拡大法等を用いることができる。
合成比率算出部1230は、1/4サイズエッジ度が等倍サイズに拡大処理されたエッジ度に基づいて、後述する尤度合成部1240が補正動体尤度を合成するために必要な補正動体尤度合成比率を設定する。また、合成比率算出部1231は、1/16サイズエッジ度が1/4サイズに拡大処理されたエッジ度に基づいて、後述する尤度合成部1241が補正動体尤度を合成するのに必要な補正動体尤度合成比率を設定する。合成比率算出部1230にて取得された補正動体尤度合成比率は尤度合成部1240に送られ、合成比率算出部1231にて取得された補正動体尤度合成比率は尤度合成部1241に送られる。
尤度合成部1241は、合成比率算出部1231からの補正動体尤度合成比率に基づいて、拡大処理部1223からの動体尤度または尤度補正部610からの補正動体尤度を合成する。そして、尤度合成部1241による合成処理後の補正動体尤度は、1/4サイズ階層補正動体尤度として拡大処理部1221に送られる。拡大処理部1221は、前述した拡大処理部と同様にして、1/4サイズ階層補正動体尤度を等倍サイズ相当に拡大処理する。そして、拡大処理部1221による拡大処理後の階層補正動体尤度は尤度合成部1240に送られる。
尤度合成部1240は、合成比率算出部1230からの補正動体尤度合成比率を基に、尤度算出部1200からの等倍サイズ動体尤度または拡大処理部1221からの補正動体尤度を合成する。そして、尤度合成部1240による合成処理後の補正動体尤度は、等倍サイズ階層補正動体尤度として、第2実施形態における図2の画像合成部203に送られる。
第2実施形態の画像合成部203では、等倍サイズ階層補正動体尤度に基づいて、前述した第1実施形態と同様にして合成比率を設定し、その合成比率を基に、等倍サイズの基準画像と位置合わせ済み参照画像とを画素毎に合成して合成画像を生成する。
次に、第2実施形態の動体領域検出部202において行われる動体尤度及び補正動体尤度生成処理について、図13のフローチャートを参照して説明する。
図13のS1301において、動体領域検出部202は、等倍サイズの基準画像(例えば図4(a)の基準画像400)と位置合わせ済み参照画像(例えば図4(c)の参照画像402)とを取得する。
次にS1302において、例えば不図示の解像度変換部は、前述した1/4サイズと1/16サイズの低解像度画像を生成するために、等倍サイズの基準画像及び位置合わせ済み参照画像に対し、それぞれ平滑化処理と画素間引き処理とを用いた縮小処理を行う。
以下、縮小処理に関して、図14と図15(a)及び図15(b)を参照して説明する。
図14は、等倍サイズの基準画像1600の画素値と位置合わせ済み参照画像1601の画素値の例を示した図である。また、図14において、縦軸は画素値を示し、横軸は水平座標を示している。図14中の破線1602は等倍サイズの基準画像1600の画素値の例を示し、実線1603は等倍サイズの位置合わせ済み参照画像1601の画素値の例を示している。
本実施形態では、図14に示す等倍サイズの画像に対して縮小処理を行うことで、等倍画像と比べて、縦横それぞれ4分の1の解像度を持つ1/4サイズの画像と16分の1の解像度を持つ1/16サイズの画像とが作成される。縮小方法としては、例えば、バイリニア縮小法やバイキュービック縮小法等を用いることができる。
図15(a)及び図15(b)において、縦軸は画素値を示し、横軸は水平座標を示している。図15(a)は1/16サイズの画像を、図15(b)は1/4サイズの画像を示した図である。図15(a)の図中の破線1700は1/16サイズの基準画像の画素値の例を示し、実線1701は1/16サイズの位置合わせ済み参照画像の画素値の例を示す。また、図15(b)の図中の破線1702は1/4サイズ基準画像の画素値の例を示し、図15(b)の実線1703は1/4サイズ位置合わせ済み参照画像の画素値の例を示す。ここで、図15(a)に示す1/16サイズの基準画像の画素値(破線1700)を見ると、縮小処理により、図15(b)に示す1/4サイズの基準画像の画素値(破線1702)よりも平滑化されているのがわかる。
図13のフローチャートに説明を戻す。
図13のS1303において、尤度算出部1200,1201,1202は、それぞれに対応した各解像度の、基準画像と位置合わせ済み参照画像とのフレーム間差分絶対値を求め、それら差分絶対値に基づいて動体尤度を算出する。
具体的には、尤度算出部1200は、等倍サイズの基準画像と等倍サイズの位置合わせ済み参照画像とで画素毎にフレーム間差分絶対値を算出し、前述の図8に示した動体尤度カーブに基づいて等倍サイズの動体尤度を算出する。
また尤度算出部1201は、1/4サイズの基準画像と位置合わせ済み参照画像とで画素毎にフレーム間差分絶対値を算出し、前述の図8に示した動体尤度カーブに基づき、1/4サイズ動体尤度を取得する。図15(d)は1/4サイズ動体尤度の例を示した図であり、縦軸は動体尤度を示し、横軸は水平座標を示している。図15(d)に示した1/4サイズ動体尤度は、図15(b)の1/4サイズの画像に基づき取得した動体尤度である。
同様に尤度算出部1202は、1/16サイズの基準画像と位置合わせ済み参照画像とで画素毎にフレーム間差分絶対値を算出し、図8の動体尤度カーブに基づき、1/16サイズ動体尤度を取得する。図15(c)は1/16サイズ動体尤度の例を示した図であり、縦軸は動体尤度を示し、横軸は水平座標を示している。図15(c)に示した1/16サイズ動体尤度は、図15(a)の1/16サイズの画像に基づき取得した動体尤度である。
次に図13のS1304において、尤度補正部610は、1/16サイズの基準画像を拡大処理部1224により縦横4倍拡大した1/4サイズ相当の基準画像に基づき、1/4サイズ動体尤度を補正し、1/4サイズ補正動体尤度を生成する。図15(f)は1/4サイズ補正動体尤度の例を示した図であり、縦軸は補正動体尤度を示し、横軸は水平座標を示している。図15(f)の1/4サイズ補正動体尤度は、図15(d)の1/4サイズ動体尤度を、図15(a)の1/16サイズの基準画像を拡大処理部1224で拡大した1/4サイズ相当の基準画像に基づいて補正した補正動体尤度である。なお、尤度補正部610における1/4サイズ動体尤度の補正方法は、第1実施形態で述べたのと同様の補正処理により行われるためその説明は省略する。
次に図13のS1305において、エッジ度算出部1210,1211は、それぞれ対応した解像度の基準画像と位置合わせ済み参照画像から算出したエッジ強度に基づいて、エッジ度を取得する。
エッジ強度算出処理について説明する。エッジ強度は、例えばソーベルフィルタ処理により算出することができ、以下、このソーベルフィルタ処理によるエッジ強度算出処理について説明する。
エッジ強度算出処理では、先ず、例えば着目座標を中心とした上下左右の9座標の画素値に対して、式(5)に示す係数をそれぞれ乗算し、その乗算結果を合計することにより、垂直方向のエッジ強度Svを算出する。同様に、着目座標を中心とした上下左右の9座標の画素値に対して、式(6)に示す係数をそれぞれ乗算し、その乗算結果を合計することにより、水平方向のエッジ強度Shを算出する。
Figure 0007009252000003
Figure 0007009252000004
そして、エッジ強度算出処理では、式(7)に示すように、垂直方向のエッジ強度Svと水平方向のエッジ強度Shの2乗和平方根により、エッジ強度Eを算出する。
Figure 0007009252000005
次に、前述のように算出したエッジ強度に基づいてエッジ度を取得する方法について、図16を参照して説明する。図16は、エッジ強度からエッジ度を求めるのに用いられるエッジ度カーブを示した図であり、縦軸はエッジ度を示し、横軸はエッジ強度を示している。
エッジ度算出部1210は、1/4サイズの基準画像と位置合わせ済み参照画像とについて前述のように画素毎にエッジ強度を算出し、それらエッジ強度のどちらか大きい方のエッジ強度を画素毎に選択する。そして、エッジ度算出部1210は、画素毎に選択したエッジ強度に応じたエッジ度を図16のエッジ度カーブに基づいて取得する。このようにしてエッジ度算出部1210で求めたエッジ度が、1/4サイズエッジ度となる。
同様にエッジ度算出部1211は、1/16サイズの基準画像と位置合わせ済み参照画像とについて画素毎にエッジ強度を算出し、それらのどちらか大きい方のエッジ強度を画素毎に選択する。そして、エッジ度算出部1211は、画素毎に選択したエッジ強度に応じたエッジ度を図16のエッジ度カーブに基づいて取得する。このようにしてエッジ度算出部1211で求めたエッジ度が、1/16サイズエッジ度となる。図15(e)は1/16サイズエッジ度の例を示した図であり、縦軸はエッジ度を示し、横軸は水平座標を示している。図15(e)に示した1/16サイズエッジ度は、S1305で述べたエッジ度取得処理により、図15(a)に示した1/16サイズの画像に基づき得られたエッジ度である。
次に、図13のS1306において、合成比率算出部1230,1231は、前述のようにして取得したエッジ度に基づいて尤度合成部1240,1241がそれぞれ補正動体尤度を合成するために必要な補正動体尤度合成比率を求める。
さらにS1307において、尤度合成部1240,1241は、S1306で取得された補正動体尤度合成比率に基づき補正動体尤度又は動体尤度を合成し、階層補正動体尤度を生成する。
そして、S1308において、尤度合成部1240は、全てのサイズ(つまり各解像度)の補正動体尤度を合成したか否を判定し、全てのサイズの補正動体尤度が合成されていないと判定した場合にはS1306に処理を戻す。これにより、全てのサイズの補正動体尤度の合成がなされたと判定されるまで、S1306及びS1307の処理が繰り返される。
ここで、図13のS1306,S1307,S1308における解像度毎(サイズ毎)の動体尤度合成処理について説明する。
先ず1/4サイズの補正動体尤度合成処理について、前述の図12、図15(g)、図15(h)及び図17を参照して説明する。
合成比率算出部1231は、1/16サイズエッジ度を拡大処理部1222により縦横4倍拡大したエッジ度に基づき、尤度合成部1241で合成する1/4サイズ補正動体尤度の合成比率を設定する。1/16サイズのエッジ度及び動体尤度は、前述のように縦横4倍拡大することによって1/4サイズ相当の解像度となり、合成比率算出部1231で取得する補正動体尤度合成比率も1/4サイズ相当の解像度となる。
図15(g)は1/4サイズの補正動体尤度の合成比率の例を示した図であり、縦軸は1/4サイズ補正動体尤度合成比率を示し、横軸は水平座標を示している。図15(g)に示す1/4サイズ補正動体尤度合成比率は、図15(e)の1/16サイズエッジ度を拡大処理した1/4サイズ相当のエッジ度に基づき、後述の図17から取得される合成比率である。
そして、尤度合成部1241は、1/4サイズ補正動体尤度合成比率に基づき、1/4サイズの補正動体尤度と、1/16サイズの動体尤度を拡大処理部1223により拡大した1/4サイズ相当の動体尤度を、式(8)により合成する。これにより、1/4サイズ階層補正動体尤度が算出される。
MC4=wm4×M4+(1-wm4)×M16 式(8)
なお式(8)において、M4は1/4サイズ補正動体尤度、M16は1/16サイズ動体尤度を拡大処理部1223により縦横4倍拡大した動体尤度、wm4は1/4サイズ補正動体尤度の合成比率、MC4は1/4サイズ階層補正動体尤度である。
図15(h)は1/4サイズの階層補正動体尤度の例を示した図であり、縦軸は1/4サイズ階層補正動体尤度を示し、横軸は水平座標を示している。図15(h)の1/4サイズ階層補正動体尤度は、図15(g)に示した1/4サイズ補正動体尤度の合成比率に基づき、図15(f)の1/4サイズ補正動体尤度と図15(c)の1/16サイズ動体尤度を合成して得られた階層補正動体尤度である。
また図17は、1/4サイズ階層補正動体尤度の合成比率カーブの一例を示した図であり、縦軸は合成比率を示し、横軸はエッジ度を示している。図17に示すように、1/4サイズ階層補正動体尤度の合成比率カーブは、エッジ度が大きいほど1/4サイズ階層補正動体尤度の合成比率が高くなるように設定されている。これにより、1/4サイズ階層補正動体尤度では、エッジ度が小さい平坦部では1/16サイズ動体尤度の合成比率が高くなり、エッジ度が大きいエッジ部では1/4サイズ補正動体尤度の合成比率が高くなる。
また1/16サイズの画像は、縮小処理時の平滑化処理により、1/4サイズの画像よりもランダムノイズが低減されているため、1/16サイズ動体尤度の方がランダムノイズを動きとして誤検出してしまう可能性が低い。つまり、エッジ度が小さい平坦部では、ランダムノイズの影響を受けにくい1/16サイズ動体尤度の合成比率を高くすることにより、ランダムノイズの影響を受け難い1/4サイズ階層補正動体尤度を生成することができる。
具体的には、図15(g)に示す1/4サイズ補正動体尤度の合成比率は、図15(e)の1/16サイズエッジ度が小さい領域で0%を示している。そのため、エッジ度が小さい平坦部では、1/16サイズ動体尤度の合成比率が100%となり、ランダムノイズによる影響を抑制していることが分かる。
一方、移動被写体の輪郭(移動被写体と背景との境界)はエッジ度が大きいため、1/4サイズ補正動体尤度の合成比率が高くなる。そのため、縦横4倍の拡大処理後の1/16サイズ動体尤度に比べ、より移動被写体の輪郭に沿った階層補正動体尤度を生成することができる。
具体的には、図15(h)の1/4サイズ階層補正動体尤度は、図15(c)に示す1/16サイズ動体尤度よりも鮮鋭になっている。これは、移動被写体の輪郭近傍で図15(e)の1/16サイズエッジ度が高くなった影響により、図15(g)の1/4サイズ補正動体尤度の合成比率が高くなったためである。
等倍サイズの動体尤度合成処理についても1/4サイズの場合と同様の処理が行われる。すなわち尤度合成部1240は、1/4サイズエッジ度を縦横4倍拡大したエッジ度に基づき、等倍サイズ動体尤度と、1/4サイズ階層補正動体尤度を縦横4倍拡大した階層補正動体尤度とを合成して、等倍サイズ階層補正動体尤度を生成する。
なお第2実施形態では、例えば1/4サイズ動体尤度、つまり低解像度の画像から算出された動体尤度のみを補正する例について説明したが、これに限ったものではない。例えば、1/4サイズよりもさらに低解像度の画像に対応した1/16サイズの動体尤度を補正しても良い。また、第2実施形態においても第1実施形態同様に等倍サイズの画像に対応した動体尤度の補正が行われても良い。
例えば、等倍サイズ動体尤度は、縮小処理が行われていないためランダムノイズの振幅が大きく、ランダムノイズの動体尤度も高くなる傾向がある。そのため、等倍サイズ動体尤度を補正する場合は、尤度係数算出部612が取得する動体尤度重み係数を1/4サイズよりも小さくすることが望ましい。具体的には、前述の図10に示した動体尤度重み係数カーブの傾きを小さくする、又は、x切片を大きくすることにより、1/4サイズよりも動体尤度重み係数を小さくする。
また、1/16サイズ動体尤度は等倍サイズよりも解像度が低いため、1/16サイズ動体尤度の補正結果は、等倍サイズ換算で広い領域に影響する。そのため、移動被写体と背景の類似度が高い場合に、動体領域の周辺領域まで動体領域として検出してしまう可能性がある。したがって、1/16サイズ動体尤度を補正する場合は、平均処理部614が周辺領域の動体尤度を加重加算平均処理する際に、より小さい周辺領域の動体尤度を加重加算平均処理するようしても良い。例えば、1/4サイズ動体尤度の補正は、5×5画素の周辺領域の動体尤度を加重加算平均処理し、1/16サイズ動体尤度の補正は、3×3画素の周辺領域の動体尤度を加重加算平均処理する。
以上説明したように、第2実施形態においては、階層補正動体尤度を用いることで、移動被写体周辺の静止領域を動体領域として誤検出すること、及びランダムノイズを動体領域として誤検出することを抑制する。したがって、第2実施形態によれば、より正確に移動被写体を動体領域として検出することが可能となる。
前述した第1,第2実施形態の撮像装置は、例えばデジタルカメラ、デジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末などの各種携帯端末、監視カメラ、工業用カメラ、車載カメラ、医療用カメラなどに適用可能である。
なお、前述した実施形態の画像処理部における各処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェアにより実行される場合、例えばROM等に記載されているプログラムをCPUが実行することにより実現される。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:撮像装置、101:制御部、102:ROM、103:RAM、107:画像処理部、200:合成画像生成部、201:位置合わせ部、202:動体領域検出部、203:画像合成部、600:尤度算出部、610:尤度補正部、611:類似係数算出部、612:尤度係数算出部、613:統合部、614:平均処理部

Claims (20)

  1. 動体領域を検出する画像処理装置であって、
    少なくとも2枚の入力画像を基に、画像内の領域の動きを検出すると共に、領域ごとの動体尤度を生成する尤度生成手段と、
    少なくとも1枚の前記入力画像について、着目領域と前記着目領域の周辺領域との類似度を検出する類似度検出手段と、
    前記周辺領域の類似度および動体尤度に基づいて、前記着目領域の動体尤度を補正する補正手段と、を有し、
    前記補正された動体尤度に基づいて前記動体領域を検出することを特徴とする画像処理装置。
  2. 前記補正手段は、前記着目領域の動体尤度を高めるように補正することを特徴とする請求項1に記載の画像処理装置。
  3. 前記尤度生成手段は、少なくとも1枚の前記入力画像を前記画像内の領域の動きを検出する際の基準画像とし、
    前記類似度検出手段は、前記基準画像について前記類似度の検出を行うことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記補正された動体尤度に基づいて、少なくとも2枚の前記入力画像を合成する画像合成手段を有することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記尤度生成手段は、少なくとも1画素からなる前記領域ごとに前記動体尤度を生成し、
    前記類似度検出手段は、少なくとも1画素からなる着目領域の画素値と、前記周辺領域に含まれる少なくとも1画素の画素値との、類似度を検出し、
    前記補正手段は、前記周辺領域の画素の前記類似度および動体尤度に基づいて、前記着目領域の画素の前記動体尤度を補正することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記類似度検出手段は、前記着目領域の画素値と前記周辺領域の画素値との差に基づき、前記類似度を算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記類似度検出手段は、前記着目領域に含まれる1以上の画素の平均画素値と、前記周辺領域に含まれる少なくとも1画素の画素値との差に基づき、前記類似度を算出することを特徴とする請求項6に記載の画像処理装置。
  8. 前記動体尤度を補正するための重み係数を取得する係数取得手段を有し、
    前記補正手段は、前記重み係数に基づいて前記着目領域の前記動体尤度を補正することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記係数取得手段は、前記着目領域および前記周辺領域について前記重み係数を算出し、
    前記補正手段は、前記重み係数に基づき、前記着目領域および前記周辺領域の前記動体尤度を加重加算平均処理して、前記着目領域の前記動体尤度を補正することを特徴とする請求項8に記載の画像処理装置。
  10. 前記係数取得手段は、前記周辺領域の前記類似度および前記動体尤度に基づいて前記重み係数を算出することを特徴とする請求項8または9に記載の画像処理装置。
  11. 前記係数取得手段は、前記周辺領域の前記動体尤度が高いほど、前記周辺領域の前記動体尤度の前記重み係数を大きくすることを特徴とする請求項8から10のいずれか1項に記載の画像処理装置。
  12. 前記係数取得手段は、前記周辺領域の前記類似度が高いほど、前記周辺領域の前記動体尤度の前記重み係数を大きくすることを特徴とする請求項8から10のいずれか1項に記載の画像処理装置。
  13. 前記係数取得手段は、前記周辺領域の前記動体尤度が高く、且つ、前記周辺領域の前記類似度が高い場合に、前記周辺領域の前記動体尤度の重み係数を大きくすることを特徴とする請求項8から10のいずれか1項に記載の画像処理装置。
  14. 前記係数取得手段は、前記入力画像に含まれるノイズ量に応じて前記重み係数を変更することを特徴とする請求項8から13のいずれか1項に記載の画像処理装置。
  15. 前記着目領域は1画素であることを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 前記入力画像の解像度を低く変換した低解像度画像から動体尤度を生成する階層尤度生成手段と、
    前記入力画像のエッジ強度と前記低解像度画像のエッジ強度との、少なくとも一つのエッジ強度に基づくエッジ度を取得するエッジ度取得手段と、
    前記エッジ度を基に合成比率を設定する比率設定手段と、
    前記尤度生成手段が生成した動体尤度と前記階層尤度生成手段が生成した動体尤度とを、前記合成比率に応じて合成する尤度合成手段と、
    をさらに有することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
  17. 前記階層尤度生成手段は、異なる複数の解像度となるように前記変換した複数の低解像度画像を生成することを特徴とする請求項16に記載の画像処理装置。
  18. 前記補正手段は、前記低解像度画像から生成された前記動体尤度について前記補正を行うことを特徴とする請求項16または17に記載の画像処理装置。
  19. 動体領域を検出する画像処理装置が実行する画像処理方法であって、
    少なくとも2枚の入力画像を基に、画像内の領域の動きを検出すると共に、領域ごとの動体尤度を生成する尤度生成工程と、
    少なくとも1枚の前記入力画像について、着目領域と前記着目領域の周辺領域との類似度を検出する類似度検出工程と、
    前記周辺領域の類似度および動体尤度に基づいて、前記着目領域の動体尤度を補正する補正工程と、を有し、
    前記補正された動体尤度に基づいて前記動体領域を検出することを特徴とする画像処理方法。
  20. コンピュータを、請求項1から18のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018027878A 2018-02-20 2018-02-20 画像処理装置、画像処理方法およびプログラム Active JP7009252B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018027878A JP7009252B2 (ja) 2018-02-20 2018-02-20 画像処理装置、画像処理方法およびプログラム
US16/272,855 US10715729B2 (en) 2018-02-20 2019-02-11 Image processing apparatus for detecting moving subject, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027878A JP7009252B2 (ja) 2018-02-20 2018-02-20 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019144803A JP2019144803A (ja) 2019-08-29
JP7009252B2 true JP7009252B2 (ja) 2022-01-25

Family

ID=67617126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027878A Active JP7009252B2 (ja) 2018-02-20 2018-02-20 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10715729B2 (ja)
JP (1) JP7009252B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2588616B (en) * 2019-10-29 2021-10-27 Visidon Oy Image processing method and apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339029A (ja) 2002-05-20 2003-11-28 Sony Corp 動きベクトル補正回路及び方法
JP2004013614A (ja) 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡装置制御方法、および画像認識システム
JP2005250561A (ja) 2004-03-01 2005-09-15 Sony Corp 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2006053823A (ja) 2004-08-13 2006-02-23 National Univ Corp Shizuoka Univ 移動物体を検出するシステムとその方法
JP2011232586A (ja) 2010-04-28 2011-11-17 Panasonic Corp 三次元誤差拡散装置および三次元誤差拡散方法
JP2012198877A (ja) 2011-03-22 2012-10-18 Morpho Inc 動き検出装置、動き検出方法及び動き検出プログラム
JP2013066164A (ja) 2011-09-02 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013243780A (ja) 2013-08-27 2013-12-05 Morpho Inc 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459893B1 (ko) * 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
WO2005084036A1 (ja) * 2004-03-01 2005-09-09 Sony Corporation 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP4482795B2 (ja) * 2004-03-05 2010-06-16 ソニー株式会社 画像処理装置、移動物体追跡方法、移動物体追跡プログラム、監視装置及びゲーム装置
US7982774B2 (en) * 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
FR2875974A1 (fr) * 2004-09-28 2006-03-31 Thomson Licensing Sa Procede et dispositif de codage d'une sequence d'images sources
JP4489033B2 (ja) * 2005-03-25 2010-06-23 三洋電機株式会社 フレームレート変換装置、パン・チルト判定装置および映像装置
JP5048542B2 (ja) * 2008-02-07 2012-10-17 オリンパス株式会社 画像処理装置及び画像処理プログラム
JP4623111B2 (ja) * 2008-03-13 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP4631966B2 (ja) * 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5398612B2 (ja) 2010-03-23 2014-01-29 富士フイルム株式会社 動体検出装置および方法
JP5675229B2 (ja) * 2010-09-02 2015-02-25 キヤノン株式会社 画像処理装置及び画像処理方法
CN103155015B (zh) * 2010-09-08 2014-12-31 丰田自动车株式会社 移动物预测装置、假想活动物预测装置、程序模块、移动物预测方法以及假想活动物预测方法
JP5803467B2 (ja) 2011-09-14 2015-11-04 株式会社リコー 画像処理装置および撮像装置、ならびに画像処理方法
JP5498454B2 (ja) * 2011-09-15 2014-05-21 株式会社東芝 追跡装置、追跡方法およびプログラム
JP5365823B2 (ja) * 2011-10-14 2013-12-11 株式会社モルフォ 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体
CN104041017B (zh) * 2012-01-17 2017-08-11 索尼公司 信息处理设备和方法
KR101783990B1 (ko) * 2012-12-21 2017-10-10 한화테크윈 주식회사 디지털 영상 처리 장치 및 영상의 대표 움직임 예측 방법
JP6160292B2 (ja) * 2013-06-24 2017-07-12 富士通株式会社 画像補正装置、撮像装置及び画像補正用コンピュータプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003339029A (ja) 2002-05-20 2003-11-28 Sony Corp 動きベクトル補正回路及び方法
JP2004013614A (ja) 2002-06-07 2004-01-15 Matsushita Electric Ind Co Ltd 物体追跡装置、物体追跡装置制御方法、および画像認識システム
JP2005250561A (ja) 2004-03-01 2005-09-15 Sony Corp 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2006053823A (ja) 2004-08-13 2006-02-23 National Univ Corp Shizuoka Univ 移動物体を検出するシステムとその方法
JP2011232586A (ja) 2010-04-28 2011-11-17 Panasonic Corp 三次元誤差拡散装置および三次元誤差拡散方法
JP2012198877A (ja) 2011-03-22 2012-10-18 Morpho Inc 動き検出装置、動き検出方法及び動き検出プログラム
JP2013066164A (ja) 2011-09-02 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013243780A (ja) 2013-08-27 2013-12-05 Morpho Inc 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体

Also Published As

Publication number Publication date
JP2019144803A (ja) 2019-08-29
US10715729B2 (en) 2020-07-14
US20190260937A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
US10306141B2 (en) Image processing apparatus and method therefor
US8860848B2 (en) Image processing apparatus and method
EP2704423B1 (en) Image processing apparatus, image processing method, and image processing program
JP4898761B2 (ja) オブジェクト追跡を用いたデジタル画像の手ぶれ補正装置および方法
JP5643563B2 (ja) 画像処理装置及びその制御方法
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
US9007483B2 (en) Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times
JP6833415B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP2019101996A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
JP2019101997A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
JP7009252B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6378496B2 (ja) 画像処理装置、制御方法及び記録媒体
JP7025237B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP6979859B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6120632B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7157526B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2019121981A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6873815B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP5353141B2 (ja) プログラム、カメラ、画像処理装置、及び画像の合焦度算出方法
JP6415228B2 (ja) 画像合成装置および画像合成装置の制御方法
JP5539098B2 (ja) 画像処理装置及びその制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112