JP2018200506A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2018200506A
JP2018200506A JP2017103760A JP2017103760A JP2018200506A JP 2018200506 A JP2018200506 A JP 2018200506A JP 2017103760 A JP2017103760 A JP 2017103760A JP 2017103760 A JP2017103760 A JP 2017103760A JP 2018200506 A JP2018200506 A JP 2018200506A
Authority
JP
Japan
Prior art keywords
image data
pixel
average luminance
pieces
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017103760A
Other languages
English (en)
Other versions
JP6953184B2 (ja
Inventor
洋佑 高田
Yosuke Takada
洋佑 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017103760A priority Critical patent/JP6953184B2/ja
Publication of JP2018200506A publication Critical patent/JP2018200506A/ja
Application granted granted Critical
Publication of JP6953184B2 publication Critical patent/JP6953184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 複数の画像データにおいて、照明による輝度変動の影響を抑制しつつ動体領域を検出する。【解決手段】 N枚(N>3を満たす自然数)の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、前記N枚の画像データそれぞれについて、着目画素について、前記着目画素を含む複数の画素からなる局所領域における平均輝度と前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに輝度差ありと判定され、かつ前記着目画素に対応する平均輝度の標準偏差が所定の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする。【選択図】 図2

Description

本発明は、連続撮影して得られた複数の画像データにおいて動体領域を検出するための画像処理技術に関するものである。
連続撮影により取得した複数の画像データにおいて同座標の画素の輝度の差分を用いて、撮影シーンに含まれる動く被写体(動体)を検出する技術が知られている。具体的には、画像データ間の同座標における輝度の差分を閾値と比較し、差分が閾値よりも大きければ動体を含む画素として検出する。ただし、蛍光灯のフリッカ、照明装置の明滅、太陽光や雲の移動等により明るさが変動する場合、同座標の差分値を用いるだけでは照明による輝度変動も誤って動体領域として検出してしまう。そこで特許文献1では、画像を複数画素から成るブロック単位に分割し、ブロック毎に直交変換を行い、AC成分の水平方向の総和と垂直方向の総和の比率に基づいて動体領域を検出する手法が開示されている。照明による輝度変動は、主にDC成分が変動し、AC成分はあまり変動しない。特許文献1に示される手法によれば、照明の変動による動体領域の誤検出を低減している。
特開2002−259985号公報
しかしながら、画像データにおけるノイズが多い場合、照明の輝度変動もAC成分の変動が大きくなってしまう。その結果特許文献1に開示された方法では、ノイズが多い画像データは動体領域の誤検出が増えてしまう場合がある。また、動体領域が水平もしくは垂直に移動する場合、AC成分の水平方向の総和と垂直方向の総和の比率は変わらないため、動体として検出できない。そこで本発明は、照明変動による輝度変化であるのか動体領域であるのかを高精度に判別する。
上記課題を解決するために本発明は、N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、前記N枚の画像データを取得する取得手段と、前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする。
本発明によれば、複数の画像データにおいて、照明による輝度変動の影響を抑制しつつ動体領域を検出することができる。
第1実施形態における画像処理装置のハードウェア構成を示す図である。 第1実施形態における画像処理装置の論理構成を示す模式図である。 第1実施形態における画像処理の流れを示すフローチャートである。 第1実施形態における局所領域決定を説明するための図である。 第1実施形態における判定処理の流れを示すフローチャートである。 第1実施形態における合成処理の流れを示すフローチャートである。 第2実施形態における画像処理装置の論理構成を示す模式図である。 第2実施形態における画像処理の流れを示すフローチャートである。
以下、添付の図面を参照して、本発明を好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<第1実施形態>
本実施形態では、連続撮影して取得したN枚(NはN>3を満たす自然数)の画像データを用いて基準画像データにおける動体領域を検出し、検出した結果に応じて基準画像データにおけるノイズ低減処理を施す画像処理装置について説明する。具体的には、動体領域には、NonLocalMeansによるノイズ低減処理を、非動体領域には基準画像データと連続する画像データ(参照画像データ)とで対応する画素の輝度の加算平均を用いたノイズ低減処理を施す。なお、連続撮影したN枚の画像データのうち、先頭の画像データを基準画像データとし、基準画像データ以外の画像データを参照画像データとする。本実施形態では、説明を簡略化するために画像データ数NをN=4、扱う全ての画像データを8bit、三脚を用いて撮影したものとする。なお、画像データ数を表す単位として、枚を用いる。また、動体とは、4枚の画像データを取得した瞬間に動きのあった被写体を意味するものとする。
まず第1実施形態における画像処理装置のハードウェア構成について、図1を用いて説明する。図1は本実施形態における画像処理装置のハードウェア構成を示す図である。画像処理装置は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108を備え、各構成部はメインバス109によって相互に接続されている。
CPU101は、画像処理装置内の各部を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ、ワークエリア等として機能するメモリである。また、HDD103は、CPU101によって実行されるプログラム群を格納しているメモリである。なお、HDD103は、フラッシュメモリなどの他の記憶媒体に置き換えてもよい。
汎用インターフェース(I/F)104はUSBコネクタを備えるインターフェースであり、撮像装置105や入力装置106、外部メモリ107が汎用I/F104を介してメインバス109に接続されている。撮像装置105は画像撮影機能を備えたカメラであり、撮影した画像データを画像処理装置に対して出力する。1回の撮影で4回連続して撮影する連写モードを有する。入力装置106は、マウス、キーボードなどの入力装置であり、ユーザは入力装置106を介して画像処理装置に対して指示を入力することができる。外部メモリ107は、HDDやメモリーカードなどの記録媒体であり、画像処理装置から出力されたデータを保存することができる。モニタ108は画像処理装置に備えつけられた液晶ディスプレイであり、画像データやユーザインタフェースなどを表示することができる。メインバス109は、画像処理装置内の各構成部を相互に接続するシステムバスである。
以下、本実施形態における画像処理について図2を用いて説明する。図2は本実施形態の画像処理装置の論理構成を示すブロック図である。なお、本実施形態ではソフトウェアにより実行される論理構成を例に説明するが、各構成の一部またはそのすべてを、専用の回路によって実現することもできる。
図2において、画像データ入力部201は、連続して撮影された4つの画像データを画像処理装置に入力する。画像データはCPU101からの指示に基づき、撮像装置105あるいはHDD103や外部メモリ107から入力される。勿論、撮像装置105で撮影した画像をHDD103などの記憶装置に一旦記憶した後で入力しても構わない。パラメータ入力部202は、画像処理に用いる複数のパラメータを画像処理装置に入力する。パラメータはCPU101からの指示に基づき、HDD103や外部メモリ107から入力される。また、ユーザインタフェース(UI)を介し、キーボードやマウスなどの入力装置106で直接指定しても構わない。パラメータは、平均輝度算出部203が用いる局所領域のサイズと、判定処理部204が用いる閾値とがある。パラメータの詳細な説明については後述する。
平均輝度算出部203は、CPU101からの指示を受け、複数の画像データとパラメータを取得し、画像データにおいてパラメータが示す局所領域のサイズに従って局所領域に含まれる各画素の輝度を平均する。平均輝度算出部203は、画像データにおける平均輝度を示した平均輝度マップを生成する。本実施形態では、4つの画像データが入力されているため、4つの平均輝度マップが生成される。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。
判定処理部204は、CPU101からの指示を受け、画像データ、平均輝度マップおよびパラメータを取得し、基準画像データにおける動体を含む領域(動体領域)を検出する。検出した動体領域は動体領域マップとして、RAM102に記憶される。合成処理部205は、CPU101からの指示を受け、画像データ、動体領域マップおよびパラメータを取得し、合成画像データを生成する。基準画像データにおける各画素について、動体であるか否かに応じて異なる処理によりノイズ低減処理された輝度を算出する。生成した合成画像データはRAM102に記憶される。
画像データ出力部206は、合成処理部205が生成した合成画像データをモニタ108やHDD103になどに出力する。なお、出力先はこれらに限られるものではなく、例えば、汎用I/F104に接続した外部メモリに出力してもよい。
以下、図2を用いて説明した画像処理装置の論理構成における各処理の詳細について、図3に示すフローチャートを用いて説明する。なお、図3に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。また、図2に示す各構成部の一部または全部を、その機能を有する専用の処理回路などとして実現してもよい。
ステップS301において画像データ入力部201は、撮像装置105が連写モードで連続撮影して取得した複数の画像データを画像処理装置に入力する。本実施形態では、4つの画像データのうち最初に撮影された画像データを基準画像データとし、後続の3つの画像データを参照画像データとする。
ステップS302においてパラメータ入力部202が、後に続く処理に必要なパラメータを画像処理装置に入力する。本実施形態において入力するパラメータは、平均輝度マップを生成する際に必要な局所領域のサイズ、輝度差判定用のパラメータ閾値th、ばらつき判定用のパラメータ閾値th2を含む。
ステップS303において平均輝度算出部203は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。平均輝度算出部203は、処理対象画像データにおける着目画素について、パラメータが示すサイズの局所領域を、着目画素を含むように設定し、局所領域に含まれる各画素の輝度の平均値を注目画素の平均輝度として算出する。従って平均輝度マップは、画像データの局所領域における平均値を画素毎に持つマップである。これを4つの全の画像データについて生成する。具体的には、各画像データにおいて着目画素と周辺画素から成る局所領域における平均値をRGB毎に算出する。局所領域のサイズS1はパラメータに基づいて決定され、ここではS1=5とし、5画素×5画素の場合を例に図4を用いて説明する。図4(a)において黒色のブロックで示される画素401は着目画素、灰色のブロックで示される画素群402は周辺画素、太線で囲われた領域403は着目画素401に対して設定された局所領域を表している。局所領域の形状は、矩形領域に限らず、任意の形状でもよく、例えば図4(b)に示すような形状でもよい。局所領域のサイズが大きすぎると、局所領域内に異なる被写体を含みやすくなるため、動体判定精度がさがってしまうため、大きくても15画素×15画素くらいの大きさが望ましい。
ステップS304において判定処理部204は、ステップS303で生成した平均輝度マップに基づいて、基準画像データにおける画素毎に動体を表す画素か否かを判定する。判定処理部204は、判定結果に応じて動体領域を検出し、動体領域マップを生成する。判定処理の詳細については後述する。
ステップS305において合成処理部205は、ステップS304で生成した動体領域マップに基づいて基準画像データと各参照画像データを合成し、合成画像データを生成する。合成処理の詳細については後述する。ステップS306において画像データ出力部206が、ステップS305において生成された合成画像データをモニタ108などに出力する。以上が本実施形態の画像処理装置で行われる処理フローである。
以下、ステップS304で行われる判定処理と、ステップS305で行われる合成処理の詳細を説明する。本実施形態において判定処理部204がステップS304において実行する判定処理について図5用いて説明する。図5は、判定処理の流れを示すフローチャートである。
ステップS501において判定処理部204は、ステップS301で入力した基準画像データにおいて、処理対象とする着目画素を選択する。ステップS502において判定処理部204は、平均輝度マップを参照し着目画素の平均輝度と、各参照画像データにおいて着目画素と同座標にある画素(参照画素)との平均輝度とに差分があるか否かを判定する。具体的にはまず、着目画素と参照画素それぞれの画素位置に対応するRGBごとの平均輝度を平均輝度マップから取得する。そして着目画素の平均輝度から各参照画素の平均輝度を減算し、RGBごとの差分値を算出する。次に、3つの差分値と、ステップS302で入力した輝度差判定用のパラメータ閾値thとを比較して差分値が1つでも閾値以上である場合、判定処理部204は輝度差ありの候補とする。閾値thは、撮影時のISO感度に応じたノイズ分散値σ2から算出した標準偏差σよりも大きいことが望ましく、例えばth=ασ(α=1.5)のように設定する。そして、着目画素において、参照画像データにおける対応画素と輝度差ありの候補とされた数が参照画像データ数の半数以上である場合、最終的に着目画素を輝度差ありの画素として判定する。着目画素が輝度差ありである場合はステップS503へ進み、そうでない場合はステップS504へ進む。なお、参照画像データ数の半数以上としたが、これに限らず参照画像データ数のx%以上(ただし、x≧50)であれば輝度差ありとして判定するなど、閾値は任意に決めてよい。
ステップS503において判定処理部205は、ステップS502において輝度差ありと判定された画素に対し、平均輝度のばらつきに基づいて、動体による輝度変動であるのか、照明による輝度変動であるのかを判定する。図5(b)は、ばらつき判定処理の詳細なフローチャートである。ステップS601において判定処理部204は、ステップS302において入力したばらつき判定用のパラメータ閾値th2を取得する。閾値th2は、撮影時のISO感度に応じたノイズ分散値σ2と、局所領域内のRGBごとの総画素数に基づいて算出することが望ましく、例えばRの場合はβσ2/√Nr(β=3.0)のように設定する。ステップS602において判定処理部204は、参照画像データから、ステップS501において選択した基準画像データの着目画素と同座標にある画素を参照画素として選択する。本実施形態では、3つの参照画素が選択される。ステップS603において判定処理部204は、着目画素と全参照画素それぞれの画素位置に対応する平均輝度を平均輝度マップから取得し、RGB毎に標準偏差σR、σG、σB、を式(1)から算出する。
Figure 2018200506

Mは局所領域に含まれる画素数、r、g、bはそれぞれRGB値であり、
Figure 2018200506

は局所領域に含まれる画素の平均値を示している。
ステップS604において判定処理部204は、ステップS603において算出した3つの標準偏差σR、σG、σBと閾値th2とを比較する。3つの標準偏差σR、σG、σBのうち1つでも閾値以上である場合はステップS605へ進み、そうでない場合はステップS606へ進む。ステップS605において判定処理部204は、着目画素は動体領域であると判定し、動体領域マップの着目画素と同座標の画素に1を出力する。ステップS606におい判定処理部204は、着目画素は静止領域であると判定し、動体領域マップの着目画素と同座標の画素に0を出力する。以上でステップS503のばらつき判定処理を完了する。
ステップS504において判定処理部204は、基準画像データの全画素についてS502、S503の処理が完了したのかを判定し、完了していれば判定処理を終了し、そうでなければステップS501へ進む。以上がステップS304の判定処理の詳細である。
以下、本実施形態において合成処理部205がステップS305において実行する合成処理について図6を用いて説明する。図6は、合成処理の詳細な流れを示すフローチャートである。ステップS701において合成処理部205は、基準画像データにおいて処理対象とする画素を着目画素として選択する。
ステップS702において、動体領域マップを参照し、着目画素が動体領域であるか否かを判定する。着目画素が動体領域である場合はステップS704へ進み、そうでない場合はステップS703へ進む。
ステップS703において、着目画素と3つの参照画素それの輝度を加算平均し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS704において、基準画像データに対してNonLocalMeansを適用し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS705において、全画素がステップS702からS704の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS701へ進む。以上がステップS306の合成処理の詳細である。
以上本実施形態によれば、連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差があり、かつ各画像データにおける平均輝度がばらついている場合にのみ、動体領域の画素として判定される。連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差がない場合、または平均輝度差があってもRGBごとの平均輝度にばらつきがない場合は、動体領域として判定されない。本実施形態では、着目画素を含む局所領域の平均輝度を用いて着目画素が動体か否かを判定している。これにより、ノイズを多く含む画像データであっても、ノイズから受ける影響を低減し、動体判定の精度を高めることができる。さらに、動体の方が、蛍光灯のフリッカや照明装置の明滅になどの照明変動よりも、平均輝度差が大きくなる傾向になる。そこで、基準画像データと参照画像データ間における対応する局所領域における平均輝度差のばらつきがあるか否かを判定することにより、高精度に動体を判定することができる。
なお本実施形態では、動体として検出された領域については、NonLocalMeans法を適用する形態について説明したが、NonLocalMeansに限るものではない。動体として検出された領域については、エッジが含まれる可能性が高いため、NonLocalMeansのようにエッジ保存型ノイズ低減処理を適用することが望ましい。エッジ保存型ノイズ低減処理としては、NonLocalMeans以外にも、バイラテラレルフィルタを用いた処理などがある。
<第2実施形態>
第1実施形態では、着目画素を含む局所領域における平均輝度を用いて動体判定することにより、ノイズによる影響を低減していることを説明した。一般に画像データにおいて、平坦部ではより大きい局所領域に含まれる画素を平均するほど、ノイズの影響を低減できる。一方、局所領域を大きくしすぎると、エッジ部を含む場合異なる被写体の画素の輝度を混在して平均することになってしまうため、動体判定の精度が落ちてしまう。そこで本実施形態では、平均輝度を算出する際、平坦部では局所領域のサイズS1をエッジ部と比べて大きくする方法について説明する。なお、第2実施形態については、第1実施形態と同じ構成、処理については説明を省略する。
図7は、本実施形態における画像処理装置の論理構成を示すブロック図である。図7の画像データ入力部801、パラメータ入力部802、判定処理部805、合成処理部806、画像データ出力部807は、画像データ入力部201、パラメータ入力部202、判定処理部204、合成処理部205、画像データ出力部206と同様である。
エッジ強度算出部803は、CPU101からの指示を受け、画像データとパラメータを取得し、パラメータに基づいて画像データごとに各画素のエッジ強度を示したエッジ強度マップを生成する。生成したエッジ強度マップはRAM102に記憶される。なお、エッジ強度マップの詳細は後述する。平均輝度算出部804は、CPU101からの指示を受け、画像データ、パラメータ、エッジ強度マップを取得し、パラメータとエッジ強度に基づいて画像データごとに各画素の平均輝度を示した平均輝度マップを生成する。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。以下、図7で説明した画像処理装置の論理構成における各処理の詳細について、図8に示すフローチャートを用いて説明する。なお、図8に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。なお、図8に示す各構成部の一部または全部の役割を果たす専用の処理回路などを設けてもよい。
図8(a)に示すフローチャートにおいて、ステップS901、S902、S905〜S907は、それぞれステップS301、S302、S304〜S306と同様である。ステップS903においてエッジ強度算出部803は、基準画像データからエッジ強度マップを生成する。エッジ強度マップは、基準画像データの局所領域における分散値と、予め算出した感度毎のノイズ分散値との比率を画素ごとに持つマップである。以下、エッジ強度マップの生成方法について具体的に説明する。まず、基準画像データにおいて着目画素と近傍の画素からなる局所領域を設定する。局所領域のサイズS1は、第1実施形態のステップS303で説明したようにパラメータに従って決定される。次に、局所領域におけるRGBごとの分散値VR、VG、VB、を、式(2)を用いて算出する。
Figure 2018200506

ここで、Mは局所領域に含まれる画素数、r、g、bはそれぞれRGB値であり、
Figure 2018200506

は局所領域に含まれる画素の平均値を示している。そして、これら分散値Vを、撮影時のISO感度に応じたノイズ分散値σ2で割ることで分散値の比率を算出し、これを着目画素のエッジ強度Eとする。具体的には、式(3)により算出する。エッジ強度は値が大きいほど、鮮鋭度が高く、逆に小さいほど鮮鋭度が低いことを示す指標である。
Figure 2018200506

この処理を基準画像データの全画素について行うことでエッジ強度マップを生成する。なお、エッジ強度の算出方法はこれに限らず、ソーベルフィルタやラプラシアンフィルタなどを使用して算出するなど、エッジ強度に相当する値が算出できれば何でもよい。また、本実施形態では画素毎にRGBそれぞれのエッジ強度を持つが、3つのエッジ強度のうち、最大値や最小値のみを代表のエッジ強度として1つだけエッジ強度を持たせてもよい。
ステップS904において平均輝度算出部804は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。図8(b)は、平均輝度マップ生成処理の詳細な流れを示すフローチャートである。ステップS1001において平均輝度算出部804が、ステップS302で入力された平均輝度マップ生成用のパラメータth3を取得する。ステップS1002において平均輝度算出部804が、ステップS901で入力した基準画像データから処理対象とする着目画素を選択する。
ステップS1003において平均輝度算出部804が、エッジ強度マップに基づいて平均輝度を算出する局所領域のサイズを決定する。エッジ強度が小さい場合、エッジ強度マップを生成したときのサイズS1よりも大きいサイズS2で平均輝度を算出する。具体的にはまず、エッジ強度マップの各画素とその周辺領域を含む局所領域(ここでは9×9画素のブロックとする)についてエッジ強度がパラメータth3以下である画素数をカウントする。次に、局所領域内の総画素数のy%(ここではy=80)以上である場合、着目画素は平坦部であると判断し、サイズS2>サイズS1となるようにサイズS2を決定する。
ステップS1004において平均輝度算出部804が、ステップS1002で決定した局所領域のサイズSに基づいて平均輝度を算出する。ステップS1005は、全画素がステップS1002〜S1004の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS1001へ進む。なお、本実施形態では、サイズS1、S2の2種類のサイズを用いて局所領域の平均輝度を算出したが、より細かく閾値を設定して複数のサイズを使用して各サイズに応じて平均輝度を算出して平均輝度マップを生成してもよい。
<その他の実施形態>
本実施形態では、連続撮影して得た画像データの先頭画像データを基準画像データとしたが、これに限定されない。例えば、各画像データのエッジ強度の総和が最も大きい画像データを基準画像データとしてもよい。
また本実施形態では、1回の撮影で4回連続して撮影する連写モードにより複数の画像データを取得する例を説明した。しかしながら例えば、動画を撮影し複数のフレームを画像データとして取得してもよい。この場合は、時系列的に連続していることが望ましい。あるいは、連写モードではなく、1回の撮影で画像処理のために複数枚画像を取得するような構成であってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (7)

  1. N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、
    前記N枚の画像データを取得する取得手段と、
    前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、
    前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、
    前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、
    前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、
    前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、
    前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理装置。
  2. 前記比較手段は、前記輝度差判定手段により輝度差があると判定された画素に対してのみ、前記着目画素の平均輝度の標準偏差と第2の閾値と比較することを特徴とする請求項1に記載の画像処理装置。
  3. さらに前記基準画像データにおいて、画素ごとにエッジ強度を算出する第3の算出手段を有し、
    前記第1の算出手段は、前記着目画素の局所領域のサイズを、前記第3の算出手段によって算出された前記着目画素のエッジ強度に応じて設定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第3の算出手段は、前記基準画像データが撮影された際に設定された感度ごとのノイズ分散と前記基準画像データの局所領域ごとに算出したノイズ分散との比率により前記エッジ強度を算出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記N枚の画像データは、連続撮影によって取得された画像であることを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
  6. N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理方法であって、
    前記N枚の画像データを取得し、
    前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出し、
    前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定するし、
    前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出し、
    前記着目画素の平均輝度の標準偏差と第2の閾値と比較し、
    前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理方法。
  7. コンピュータを請求項1乃至5の何れか一項に記載された画像処理装置として機能させるためのプログラム
JP2017103760A 2017-05-25 2017-05-25 画像処理装置および画像処理方法 Active JP6953184B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103760A JP6953184B2 (ja) 2017-05-25 2017-05-25 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103760A JP6953184B2 (ja) 2017-05-25 2017-05-25 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2018200506A true JP2018200506A (ja) 2018-12-20
JP6953184B2 JP6953184B2 (ja) 2021-10-27

Family

ID=64668127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103760A Active JP6953184B2 (ja) 2017-05-25 2017-05-25 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP6953184B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055580A (zh) * 2019-12-26 2021-06-29 中兴通讯股份有限公司 环境识别方法、拍摄模式切换方法、终端及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050078747A1 (en) * 2003-10-14 2005-04-14 Honeywell International Inc. Multi-stage moving object segmentation
JP2009044526A (ja) * 2007-08-09 2009-02-26 Toshiba Corp 撮影装置、撮影方法、人物認識装置および人物認識方法
JP2012186593A (ja) * 2011-03-04 2012-09-27 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012203680A (ja) * 2011-03-25 2012-10-22 Secom Co Ltd 画像処理装置
JP2014081676A (ja) * 2012-10-12 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 前景検出装置、前景検出方法及びコンピュータプログラム
US20150029349A1 (en) * 2013-07-23 2015-01-29 Michael BEN ISRAEL Digital image processing
JP2016194778A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2017017637A (ja) * 2015-07-06 2017-01-19 キヤノン株式会社 画像処理装置及び画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050078747A1 (en) * 2003-10-14 2005-04-14 Honeywell International Inc. Multi-stage moving object segmentation
JP2009044526A (ja) * 2007-08-09 2009-02-26 Toshiba Corp 撮影装置、撮影方法、人物認識装置および人物認識方法
JP2012186593A (ja) * 2011-03-04 2012-09-27 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2012203680A (ja) * 2011-03-25 2012-10-22 Secom Co Ltd 画像処理装置
JP2014081676A (ja) * 2012-10-12 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 前景検出装置、前景検出方法及びコンピュータプログラム
US20150029349A1 (en) * 2013-07-23 2015-01-29 Michael BEN ISRAEL Digital image processing
JP2016194778A (ja) * 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
JP2017017637A (ja) * 2015-07-06 2017-01-19 キヤノン株式会社 画像処理装置及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055580A (zh) * 2019-12-26 2021-06-29 中兴通讯股份有限公司 环境识别方法、拍摄模式切换方法、终端及存储介质
CN113055580B (zh) * 2019-12-26 2023-10-03 中兴通讯股份有限公司 环境识别方法、拍摄模式切换方法、终端及存储介质

Also Published As

Publication number Publication date
JP6953184B2 (ja) 2021-10-27

Similar Documents

Publication Publication Date Title
US9569688B2 (en) Apparatus and method of detecting motion mask
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
WO2014106445A1 (zh) 逆光检测方法及设备
US11062464B2 (en) Image processing apparatus, method, and storage medium to derive optical flow
US20180295289A1 (en) Image processing apparatus, method, and storage medium
JP6365355B2 (ja) 画像生成装置および画像生成方法
JP2020077165A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011002882A (ja) 撮像装置、画像処理プログラム、および撮像方法
JP6274876B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6953184B2 (ja) 画像処理装置および画像処理方法
US11164286B2 (en) Image processing apparatus, image processing method, and storage medium
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
JP2020144686A (ja) モデル作成システム、モデル作成方法
JP2019023934A (ja) 追尾装置、カメラ、追尾方法および追尾プログラム
JP2019100937A (ja) 欠陥検査装置及び欠陥検査方法
EP3394834B1 (en) Key lights direction detection
JP6708131B2 (ja) 映像処理装置、映像処理方法及びプログラム
JP2017034608A (ja) 画像処理装置、画像処理方法及びプログラム
JP2017017637A (ja) 画像処理装置及び画像処理方法
US9852352B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor
JP6432163B2 (ja) 追尾装置、カメラ、追尾方法および追尾プログラム
JP2016126576A (ja) 画像処理装置、画像処理方法
JP2015001967A (ja) エッジ検出装置およびエッジ検出方法
JP2024510958A (ja) 方法及び画像キャプチャ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210929

R151 Written notification of patent or utility model registration

Ref document number: 6953184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151