JP6953184B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP6953184B2
JP6953184B2 JP2017103760A JP2017103760A JP6953184B2 JP 6953184 B2 JP6953184 B2 JP 6953184B2 JP 2017103760 A JP2017103760 A JP 2017103760A JP 2017103760 A JP2017103760 A JP 2017103760A JP 6953184 B2 JP6953184 B2 JP 6953184B2
Authority
JP
Japan
Prior art keywords
image data
pixel
interest
image processing
average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017103760A
Other languages
Japanese (ja)
Other versions
JP2018200506A (en
Inventor
洋佑 高田
洋佑 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017103760A priority Critical patent/JP6953184B2/en
Publication of JP2018200506A publication Critical patent/JP2018200506A/en
Application granted granted Critical
Publication of JP6953184B2 publication Critical patent/JP6953184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、連続撮影して得られた複数の画像データにおいて動体領域を検出するための画像処理技術に関するものである。 The present invention relates to an image processing technique for detecting a moving object region in a plurality of image data obtained by continuous shooting.

連続撮影により取得した複数の画像データにおいて同座標の画素の輝度の差分を用いて、撮影シーンに含まれる動く被写体(動体)を検出する技術が知られている。具体的には、画像データ間の同座標における輝度の差分を閾値と比較し、差分が閾値よりも大きければ動体を含む画素として検出する。ただし、蛍光灯のフリッカ、照明装置の明滅、太陽光や雲の移動等により明るさが変動する場合、同座標の差分値を用いるだけでは照明による輝度変動も誤って動体領域として検出してしまう。そこで特許文献1では、画像を複数画素から成るブロック単位に分割し、ブロック毎に直交変換を行い、AC成分の水平方向の総和と垂直方向の総和の比率に基づいて動体領域を検出する手法が開示されている。照明による輝度変動は、主にDC成分が変動し、AC成分はあまり変動しない。特許文献1に示される手法によれば、照明の変動による動体領域の誤検出を低減している。 There is known a technique for detecting a moving subject (moving object) included in a shooting scene by using the difference in the brightness of pixels having the same coordinates in a plurality of image data acquired by continuous shooting. Specifically, the difference in brightness between the image data at the same coordinates is compared with the threshold value, and if the difference is larger than the threshold value, it is detected as a pixel containing a moving object. However, if the brightness fluctuates due to flicker of fluorescent lamps, blinking of the lighting device, movement of sunlight or clouds, etc., the brightness fluctuation due to lighting will be mistakenly detected as a moving object region just by using the difference value of the same coordinates. .. Therefore, in Patent Document 1, a method is used in which an image is divided into blocks composed of a plurality of pixels, orthogonal transformation is performed for each block, and a moving body region is detected based on the ratio of the total sum of the AC components in the horizontal direction and the total sum in the vertical direction. It is disclosed. In the brightness fluctuation due to illumination, the DC component mainly fluctuates, and the AC component does not fluctuate much. According to the method shown in Patent Document 1, erroneous detection of a moving body region due to fluctuations in lighting is reduced.

特開2002−259985号公報JP-A-2002-259985

しかしながら、画像データにおけるノイズが多い場合、照明の輝度変動もAC成分の変動が大きくなってしまう。その結果特許文献1に開示された方法では、ノイズが多い画像データは動体領域の誤検出が増えてしまう場合がある。また、動体領域が水平もしくは垂直に移動する場合、AC成分の水平方向の総和と垂直方向の総和の比率は変わらないため、動体として検出できない。そこで本発明は、照明変動による輝度変化であるのか動体領域であるのかを高精度に判別する。 However, when there is a lot of noise in the image data, the change in the brightness of the illumination also causes a large change in the AC component. As a result, in the method disclosed in Patent Document 1, erroneous detection of a moving body region may increase in image data having a lot of noise. Further, when the moving body region moves horizontally or vertically, the ratio of the total sum of the AC components in the horizontal direction and the total sum in the vertical direction does not change, so that the moving body cannot be detected as a moving body. Therefore, the present invention accurately discriminates whether it is a change in brightness due to illumination fluctuation or a moving object region.

上記課題を解決するために本発明は、N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、前記N枚の画像データを取得する取得手段と、前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする。 In order to solve the above problem, the present invention uses N image data (natural numbers satisfying N> 3) to detect a moving object region in the reference image data, which is one of the N image data. In the image processing device, the acquisition means for acquiring the N image data and the average brightness in the local region composed of a plurality of pixels including the pixel of interest for each of the N image data are averaged by the pixels of interest. The first calculation means for calculating the brightness, the average brightness of the pixel of interest in the reference image data, and the average brightness of the pixel of interest in each of the image data other than the reference image data are the brightness equal to or higher than the first threshold value. A brightness difference determining means for determining whether or not there is a difference, a second calculating means for calculating the standard deviation of the average brightness corresponding to the pixel of interest in each of the N image data, and an average brightness of the pixel of interest. Based on the comparison means for comparing the standard deviation of the above and the second threshold value, the determination result by the brightness difference determination means, and the comparison result by the comparison means, whether or not the pixel of interest is a pixel included in the moving object region is determined. The moving body determining means has a moving body determining means for determining, and the moving body determining means determines that there is a brightness difference for the pixel of interest by the brightness difference determining means, and the standard deviation is equal to or greater than the second threshold value. The pixel of interest is determined to be a pixel included in the moving object region.

本発明によれば、複数の画像データにおいて、照明による輝度変動の影響を抑制しつつ動体領域を検出することができる。 According to the present invention, it is possible to detect a moving object region in a plurality of image data while suppressing the influence of brightness fluctuation due to illumination.

第1実施形態における画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the image processing apparatus in 1st Embodiment. 第1実施形態における画像処理装置の論理構成を示す模式図である。It is a schematic diagram which shows the logical structure of the image processing apparatus in 1st Embodiment. 第1実施形態における画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of image processing in 1st Embodiment. 第1実施形態における局所領域決定を説明するための図である。It is a figure for demonstrating the local region determination in 1st Embodiment. 第1実施形態における判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process in 1st Embodiment. 第1実施形態における合成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of synthesis processing in 1st Embodiment. 第2実施形態における画像処理装置の論理構成を示す模式図である。It is a schematic diagram which shows the logical structure of the image processing apparatus in 2nd Embodiment. 第2実施形態における画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of image processing in 2nd Embodiment.

以下、添付の図面を参照して、本発明を好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings, based on preferred embodiments. The configuration shown in the following embodiments is only an example, and the present invention is not limited to the illustrated configuration.

<第1実施形態>
本実施形態では、連続撮影して取得したN枚(NはN>3を満たす自然数)の画像データを用いて基準画像データにおける動体領域を検出し、検出した結果に応じて基準画像データにおけるノイズ低減処理を施す画像処理装置について説明する。具体的には、動体領域には、NonLocalMeansによるノイズ低減処理を、非動体領域には基準画像データと連続する画像データ(参照画像データ)とで対応する画素の輝度の加算平均を用いたノイズ低減処理を施す。なお、連続撮影したN枚の画像データのうち、先頭の画像データを基準画像データとし、基準画像データ以外の画像データを参照画像データとする。本実施形態では、説明を簡略化するために画像データ数NをN=4、扱う全ての画像データを8bit、三脚を用いて撮影したものとする。なお、画像データ数を表す単位として、枚を用いる。また、動体とは、4枚の画像データを取得した瞬間に動きのあった被写体を意味するものとする。
<First Embodiment>
In the present embodiment, a moving object region in the reference image data is detected using N image data (N is a natural number satisfying N> 3) acquired by continuous shooting, and noise in the reference image data is detected according to the detected result. An image processing apparatus that performs reduction processing will be described. Specifically, noise reduction processing by NonLocalMean is performed in the moving body region, and noise reduction is performed in the non-moving body region by using the summing average of the brightness of the corresponding pixels in the reference image data and the continuous image data (reference image data). Apply processing. Of the N image data taken continuously, the first image data is used as the reference image data, and the image data other than the reference image data is used as the reference image data. In the present embodiment, in order to simplify the explanation, it is assumed that the number of image data N is N = 4, all the image data to be handled are 8 bits, and the image data is photographed using a tripod. A sheet is used as a unit for expressing the number of image data. Further, the moving object means a subject that has moved at the moment when the four image data are acquired.

まず第1実施形態における画像処理装置のハードウェア構成について、図1を用いて説明する。図1は本実施形態における画像処理装置のハードウェア構成を示す図である。画像処理装置は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108を備え、各構成部はメインバス109によって相互に接続されている。 First, the hardware configuration of the image processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a hardware configuration of an image processing device according to the present embodiment. The image processing device includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, and a monitor 108, and each component is connected to each other by a main bus 109.

CPU101は、画像処理装置内の各部を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ、ワークエリア等として機能するメモリである。また、HDD103は、CPU101によって実行されるプログラム群を格納しているメモリである。なお、HDD103は、フラッシュメモリなどの他の記憶媒体に置き換えてもよい。 The CPU 101 is a processor that comprehensively controls each part in the image processing apparatus. The RAM 102 is a memory that functions as a main memory, a work area, or the like of the CPU 101. Further, the HDD 103 is a memory that stores a group of programs executed by the CPU 101. The HDD 103 may be replaced with another storage medium such as a flash memory.

汎用インターフェース(I/F)104はUSBコネクタを備えるインターフェースであり、撮像装置105や入力装置106、外部メモリ107が汎用I/F104を介してメインバス109に接続されている。撮像装置105は画像撮影機能を備えたカメラであり、撮影した画像データを画像処理装置に対して出力する。1回の撮影で4回連続して撮影する連写モードを有する。入力装置106は、マウス、キーボードなどの入力装置であり、ユーザは入力装置106を介して画像処理装置に対して指示を入力することができる。外部メモリ107は、HDDやメモリーカードなどの記録媒体であり、画像処理装置から出力されたデータを保存することができる。モニタ108は画像処理装置に備えつけられた液晶ディスプレイであり、画像データやユーザインタフェースなどを表示することができる。メインバス109は、画像処理装置内の各構成部を相互に接続するシステムバスである。 The general-purpose interface (I / F) 104 is an interface including a USB connector, and the image pickup device 105, the input device 106, and the external memory 107 are connected to the main bus 109 via the general-purpose I / F 104. The image pickup device 105 is a camera having an image shooting function, and outputs the shot image data to the image processing device. It has a continuous shooting mode in which one shot is taken four times in a row. The input device 106 is an input device such as a mouse and a keyboard, and the user can input an instruction to the image processing device via the input device 106. The external memory 107 is a recording medium such as an HDD or a memory card, and can store data output from the image processing device. The monitor 108 is a liquid crystal display provided in the image processing device, and can display image data, a user interface, and the like. The main bus 109 is a system bus that connects each component in the image processing apparatus to each other.

以下、本実施形態における画像処理について図2を用いて説明する。図2は本実施形態の画像処理装置の論理構成を示すブロック図である。なお、本実施形態ではソフトウェアにより実行される論理構成を例に説明するが、各構成の一部またはそのすべてを、専用の回路によって実現することもできる。 Hereinafter, the image processing in the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a logical configuration of the image processing apparatus of the present embodiment. In this embodiment, a logical configuration executed by software will be described as an example, but a part or all of each configuration can be realized by a dedicated circuit.

図2において、画像データ入力部201は、連続して撮影された4つの画像データを画像処理装置に入力する。画像データはCPU101からの指示に基づき、撮像装置105あるいはHDD103や外部メモリ107から入力される。勿論、撮像装置105で撮影した画像をHDD103などの記憶装置に一旦記憶した後で入力しても構わない。パラメータ入力部202は、画像処理に用いる複数のパラメータを画像処理装置に入力する。パラメータはCPU101からの指示に基づき、HDD103や外部メモリ107から入力される。また、ユーザインタフェース(UI)を介し、キーボードやマウスなどの入力装置106で直接指定しても構わない。パラメータは、平均輝度算出部203が用いる局所領域のサイズと、判定処理部204が用いる閾値とがある。パラメータの詳細な説明については後述する。 In FIG. 2, the image data input unit 201 inputs four continuously captured image data to the image processing device. The image data is input from the image pickup apparatus 105, the HDD 103, or the external memory 107 based on the instruction from the CPU 101. Of course, the image taken by the image pickup apparatus 105 may be temporarily stored in a storage device such as HDD 103 and then input. The parameter input unit 202 inputs a plurality of parameters used for image processing to the image processing device. The parameters are input from the HDD 103 or the external memory 107 based on the instructions from the CPU 101. Further, it may be directly specified by an input device 106 such as a keyboard or a mouse via a user interface (UI). The parameters include the size of the local region used by the average luminance calculation unit 203 and the threshold value used by the determination processing unit 204. A detailed description of the parameters will be described later.

平均輝度算出部203は、CPU101からの指示を受け、複数の画像データとパラメータを取得し、画像データにおいてパラメータが示す局所領域のサイズに従って局所領域に含まれる各画素の輝度を平均する。平均輝度算出部203は、画像データにおける平均輝度を示した平均輝度マップを生成する。本実施形態では、4つの画像データが入力されているため、4つの平均輝度マップが生成される。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。 The average brightness calculation unit 203 receives an instruction from the CPU 101, acquires a plurality of image data and parameters, and averages the brightness of each pixel included in the local area according to the size of the local area indicated by the parameter in the image data. The average luminance calculation unit 203 generates an average luminance map showing the average luminance in the image data. In this embodiment, since four image data are input, four average luminance maps are generated. The generated average luminance map is stored in the RAM 102. The details of the average luminance map will be described later.

判定処理部204は、CPU101からの指示を受け、画像データ、平均輝度マップおよびパラメータを取得し、基準画像データにおける動体を含む領域(動体領域)を検出する。検出した動体領域は動体領域マップとして、RAM102に記憶される。合成処理部205は、CPU101からの指示を受け、画像データ、動体領域マップおよびパラメータを取得し、合成画像データを生成する。基準画像データにおける各画素について、動体であるか否かに応じて異なる処理によりノイズ低減処理された輝度を算出する。生成した合成画像データはRAM102に記憶される。 The determination processing unit 204 receives an instruction from the CPU 101, acquires image data, an average luminance map, and parameters, and detects a region (moving object region) including a moving object in the reference image data. The detected moving body area is stored in the RAM 102 as a moving body area map. The synthesis processing unit 205 receives an instruction from the CPU 101, acquires image data, a moving body area map, and parameters, and generates composite image data. For each pixel in the reference image data, the brightness that has been noise-reduced by different processing depending on whether or not it is a moving object is calculated. The generated composite image data is stored in the RAM 102.

画像データ出力部206は、合成処理部205が生成した合成画像データをモニタ108やHDD103になどに出力する。なお、出力先はこれらに限られるものではなく、例えば、汎用I/F104に接続した外部メモリに出力してもよい。 The image data output unit 206 outputs the composite image data generated by the composite processing unit 205 to the monitor 108, the HDD 103, or the like. The output destination is not limited to these, and may be output to, for example, an external memory connected to the general-purpose I / F 104.

以下、図2を用いて説明した画像処理装置の論理構成における各処理の詳細について、図3に示すフローチャートを用いて説明する。なお、図3に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。また、図2に示す各構成部の一部または全部を、その機能を有する専用の処理回路などとして実現してもよい。 Hereinafter, details of each process in the logical configuration of the image processing apparatus described with reference to FIG. 2 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 3 is realized by the CPU 101 executing the program stored in the RAM 102. Further, a part or all of each component shown in FIG. 2 may be realized as a dedicated processing circuit or the like having the function.

ステップS301において画像データ入力部201は、撮像装置105が連写モードで連続撮影して取得した複数の画像データを画像処理装置に入力する。本実施形態では、4つの画像データのうち最初に撮影された画像データを基準画像データとし、後続の3つの画像データを参照画像データとする。 In step S301, the image data input unit 201 inputs a plurality of image data acquired by the image pickup device 105 continuously shooting in the continuous shooting mode to the image processing device. In the present embodiment, the image data taken first among the four image data is used as the reference image data, and the subsequent three image data are used as the reference image data.

ステップS302においてパラメータ入力部202が、後に続く処理に必要なパラメータを画像処理装置に入力する。本実施形態において入力するパラメータは、平均輝度マップを生成する際に必要な局所領域のサイズ、輝度差判定用のパラメータ閾値th、ばらつき判定用のパラメータ閾値th2を含む。 In step S302, the parameter input unit 202 inputs the parameters required for the subsequent processing to the image processing device. The parameters to be input in the present embodiment include the size of the local region required for generating the average luminance map, the parameter threshold value th for determining the luminance difference, and the parameter threshold value th2 for determining variation.

ステップS303において平均輝度算出部203は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。平均輝度算出部203は、処理対象画像データにおける着目画素について、パラメータが示すサイズの局所領域を、着目画素を含むように設定し、局所領域に含まれる各画素の輝度の平均値を注目画素の平均輝度として算出する。従って平均輝度マップは、画像データの局所領域における平均値を画素毎に持つマップである。これを4つの全の画像データについて生成する。具体的には、各画像データにおいて着目画素と周辺画素から成る局所領域における平均値をRGB毎に算出する。局所領域のサイズS1はパラメータに基づいて決定され、ここではS1=5とし、5画素×5画素の場合を例に図4を用いて説明する。図4(a)において黒色のブロックで示される画素401は着目画素、灰色のブロックで示される画素群402は周辺画素、太線で囲われた領域403は着目画素401に対して設定された局所領域を表している。局所領域の形状は、矩形領域に限らず、任意の形状でもよく、例えば図4(b)に示すような形状でもよい。局所領域のサイズが大きすぎると、局所領域内に異なる被写体を含みやすくなるため、動体判定精度がさがってしまうため、大きくても15画素×15画素くらいの大きさが望ましい。 In step S303, the average luminance calculation unit 203 generates an average luminance map for each of the reference image data and each reference image data. The average brightness calculation unit 203 sets a local region of the size indicated by the parameter for the pixel of interest in the image data to be processed so as to include the pixel of interest, and sets the average value of the brightness of each pixel included in the local region as the pixel of interest. Calculated as average brightness. Therefore, the average luminance map is a map having an average value in a local region of image data for each pixel. This is generated for all four image data. Specifically, in each image data, the average value in the local region composed of the pixel of interest and the peripheral pixels is calculated for each RGB. The size S1 of the local region is determined based on the parameters, and here, S1 = 5, and the case of 5 pixels × 5 pixels will be described with reference to FIG. In FIG. 4A, the pixel 401 indicated by the black block is the pixel of interest, the pixel group 402 indicated by the gray block is the peripheral pixel, and the area 403 surrounded by the thick line is the local area set for the pixel 401 of interest. Represents. The shape of the local region is not limited to the rectangular region, and may be any shape, for example, the shape shown in FIG. 4B. If the size of the local region is too large, different subjects are likely to be included in the local region, and the accuracy of moving object determination is lowered. Therefore, a size of at most 15 pixels × 15 pixels is desirable.

ステップS304において判定処理部204は、ステップS303で生成した平均輝度マップに基づいて、基準画像データにおける画素毎に動体を表す画素か否かを判定する。判定処理部204は、判定結果に応じて動体領域を検出し、動体領域マップを生成する。判定処理の詳細については後述する。 In step S304, the determination processing unit 204 determines whether or not each pixel in the reference image data is a pixel representing a moving object, based on the average luminance map generated in step S303. The determination processing unit 204 detects a moving object region according to the determination result and generates a moving object region map. The details of the determination process will be described later.

ステップS305において合成処理部205は、ステップS304で生成した動体領域マップに基づいて基準画像データと各参照画像データを合成し、合成画像データを生成する。合成処理の詳細については後述する。ステップS306において画像データ出力部206が、ステップS305において生成された合成画像データをモニタ108などに出力する。以上が本実施形態の画像処理装置で行われる処理フローである。 In step S305, the synthesis processing unit 205 synthesizes the reference image data and each reference image data based on the moving body region map generated in step S304, and generates the composite image data. The details of the synthesis process will be described later. In step S306, the image data output unit 206 outputs the composite image data generated in step S305 to the monitor 108 or the like. The above is the processing flow performed by the image processing apparatus of the present embodiment.

以下、ステップS304で行われる判定処理と、ステップS305で行われる合成処理の詳細を説明する。本実施形態において判定処理部204がステップS304において実行する判定処理について図5用いて説明する。図5は、判定処理の流れを示すフローチャートである。 Hereinafter, the details of the determination process performed in step S304 and the synthesis process performed in step S305 will be described. The determination process executed by the determination processing unit 204 in step S304 in the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing the flow of the determination process.

ステップS501において判定処理部204は、ステップS301で入力した基準画像データにおいて、処理対象とする着目画素を選択する。ステップS502において判定処理部204は、平均輝度マップを参照し着目画素の平均輝度と、各参照画像データにおいて着目画素と同座標にある画素(参照画素)との平均輝度とに差分があるか否かを判定する。具体的にはまず、着目画素と参照画素それぞれの画素位置に対応するRGBごとの平均輝度を平均輝度マップから取得する。そして着目画素の平均輝度から各参照画素の平均輝度を減算し、RGBごとの差分値を算出する。次に、3つの差分値と、ステップS302で入力した輝度差判定用のパラメータ閾値thとを比較して差分値が1つでも閾値以上である場合、判定処理部204は輝度差ありの候補とする。閾値thは、撮影時のISO感度に応じたノイズ分散値σ2から算出した標準偏差σよりも大きいことが望ましく、例えばth=ασ(α=1.5)のように設定する。そして、着目画素において、参照画像データにおける対応画素と輝度差ありの候補とされた数が参照画像データ数の半数以上である場合、最終的に着目画素を輝度差ありの画素として判定する。着目画素が輝度差ありである場合はステップS503へ進み、そうでない場合はステップS504へ進む。なお、参照画像データ数の半数以上としたが、これに限らず参照画像データ数のx%以上(ただし、x≧50)であれば輝度差ありとして判定するなど、閾値は任意に決めてよい。 In step S501, the determination processing unit 204 selects the pixel of interest to be processed in the reference image data input in step S301. In step S502, the determination processing unit 204 refers to the average luminance map, and whether or not there is a difference between the average luminance of the pixel of interest and the average luminance of the pixel (reference pixel) at the same coordinates as the pixel of interest in each reference image data. Is determined. Specifically, first, the average luminance for each RGB corresponding to the pixel positions of the pixel of interest and the reference pixel is acquired from the average luminance map. Then, the average brightness of each reference pixel is subtracted from the average brightness of the pixel of interest, and the difference value for each RGB is calculated. Next, when the three difference values are compared with the parameter threshold value th for luminance difference determination input in step S302 and even one of the difference values is equal to or greater than the threshold value, the determination processing unit 204 considers the candidate to have a luminance difference. do. The threshold value th is preferably larger than the standard deviation σ calculated from the noise dispersion value σ2 according to the ISO sensitivity at the time of shooting, and is set as, for example, th = ασ (α = 1.5). Then, in the pixel of interest, when the number of candidates having a brightness difference from the corresponding pixel in the reference image data is more than half of the number of reference image data, the pixel of interest is finally determined as a pixel having a brightness difference. If the pixel of interest has a difference in brightness, the process proceeds to step S503, and if not, the process proceeds to step S504. Although the number of reference image data is set to half or more, the threshold value may be arbitrarily determined, for example, if it is x% or more of the number of reference image data (however, x ≧ 50), it is determined that there is a brightness difference. ..

ステップS503において判定処理部205は、ステップS502において輝度差ありと判定された画素に対し、平均輝度のばらつきに基づいて、動体による輝度変動であるのか、照明による輝度変動であるのかを判定する。図5(b)は、ばらつき判定処理の詳細なフローチャートである。ステップS601において判定処理部204は、ステップS302において入力したばらつき判定用のパラメータ閾値th2を取得する。閾値th2は、撮影時のISO感度に応じたノイズ分散値σ2と、局所領域内のRGBごとの総画素数に基づいて算出することが望ましく、例えばRの場合はβ√σ Nr(β=3.0)のように設定する。ステップS602において判定処理部204は、参照画像データから、ステップS501において選択した基準画像データの着目画素と同座標にある画素を参照画素として選択する。本実施形態では、3つの参照画素が選択される。ステップS603において判定処理部204は、着目画素と全参照画素それぞれの画素位置に対応する平均輝度を平均輝度マップから取得し、RGB毎に標準偏差σR、σG、σB、を式(1)から算出する。 In step S503, the determination processing unit 205 determines whether the luminance variation is due to a moving object or the luminance variation for the pixels determined to have the luminance difference in step S502, based on the variation in the average luminance. FIG. 5B is a detailed flowchart of the variation determination process. In step S601, the determination processing unit 204 acquires the variation determination parameter threshold value th2 input in step S302. The threshold value th2 is preferably calculated based on the noise dispersion value σ2 according to the ISO sensitivity at the time of shooting and the total number of pixels for each RGB in the local region. For example, in the case of R, β√ σ 2 / Nr (β). = 3.0) is set. In step S602, the determination processing unit 204 selects a pixel at the same coordinates as the pixel of interest of the reference image data selected in step S501 from the reference image data as a reference pixel. In this embodiment, three reference pixels are selected. In step S603, the determination processing unit 204 acquires the average luminance corresponding to the pixel positions of the pixel of interest and all the reference pixels from the average luminance map, and calculates the standard deviations σR, σG, and σB for each RGB from the equation (1). do.

Figure 0006953184
Figure 0006953184

Figure 0006953184

Nフレーム分のr、g、bの平均値を示している。
Figure 0006953184

Indicates the average value of r, g, and b for N frames.

ステップS604において判定処理部204は、ステップS603において算出した3つの標準偏差σR、σG、σBと閾値th2とを比較する。3つの標準偏差σR、σG、σBのうち1つでも閾値以上である場合はステップS605へ進み、そうでない場合はステップS606へ進む。ステップS605において判定処理部204は、着目画素は動体領域であると判定し、動体領域マップの着目画素と同座標の画素に1を出力する。ステップS606におい判定処理部204は、着目画素は静止領域であると判定し、動体領域マップの着目画素と同座標の画素に0を出力する。以上でステップS503のばらつき判定処理を完了する。 In step S604, the determination processing unit 204 compares the three standard deviations σR, σG, and σB calculated in step S603 with the threshold value th2. If any one of the three standard deviations σR, σG, and σB is equal to or greater than the threshold value, the process proceeds to step S605, and if not, the process proceeds to step S606. In step S605, the determination processing unit 204 determines that the pixel of interest is a moving object region, and outputs 1 to a pixel having the same coordinates as the pixel of interest in the moving object region map. In step S606, the odor determination processing unit 204 determines that the pixel of interest is a stationary region, and outputs 0 to a pixel having the same coordinates as the pixel of interest in the moving object region map. This completes the variation determination process in step S503.

ステップS504において判定処理部204は、基準画像データの全画素についてS502、S503の処理が完了したのかを判定し、完了していれば判定処理を終了し、そうでなければステップS501へ進む。以上がステップS304の判定処理の詳細である。 In step S504, the determination processing unit 204 determines whether the processes of S502 and S503 have been completed for all the pixels of the reference image data, and if so, ends the determination process, and if not, proceeds to step S501. The above is the details of the determination process in step S304.

以下、本実施形態において合成処理部205がステップS305において実行する合成処理について図6を用いて説明する。図6は、合成処理の詳細な流れを示すフローチャートである。ステップS701において合成処理部205は、基準画像データにおいて処理対象とする画素を着目画素として選択する。 Hereinafter, the synthesis process executed by the synthesis processing unit 205 in step S305 in the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a detailed flow of the synthesis process. In step S701, the synthesis processing unit 205 selects a pixel to be processed in the reference image data as a pixel of interest.

ステップS702において、動体領域マップを参照し、着目画素が動体領域であるか否かを判定する。着目画素が動体領域である場合はステップS704へ進み、そうでない場合はステップS703へ進む。 In step S702, the moving body area map is referred to, and it is determined whether or not the pixel of interest is the moving body area. If the pixel of interest is a moving object region, the process proceeds to step S704, and if not, the process proceeds to step S703.

ステップS703において、着目画素と3つの参照画素それの輝度を加算平均し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS704において、基準画像データに対してNonLocalMeansを適用し、計算結果を着目画素のノイズ低減処理後の輝度として出力画像データに出力する。ステップS705において、全画素がステップS702からS704の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS701へ進む。以上がステップS306の合成処理の詳細である。 In step S703, the brightness of the pixel of interest and the brightness of the three reference pixels are added and averaged, and the calculation result is output to the output image data as the brightness of the pixel of interest after the noise reduction processing. In step S704, NonLocalMeans is applied to the reference image data, and the calculation result is output to the output image data as the brightness after the noise reduction processing of the pixel of interest. In step S705, it is determined whether or not all the pixels have completed the processing of steps S702 to S704, and if it is completed, the composition processing is ended, and if not, the process proceeds to step S701. The above is the details of the synthesis process in step S306.

以上本実施形態によれば、連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差があり、かつ各画像データにおける平均輝度がばらついている場合にのみ、動体領域の画素として判定される。連続撮影して取得した複数の画像データ間で着目画素を含む局所領域の平均輝度差がない場合、または平均輝度差があってもRGBごとの平均輝度にばらつきがない場合は、動体領域として判定されない。本実施形態では、着目画素を含む局所領域の平均輝度を用いて着目画素が動体か否かを判定している。これにより、ノイズを多く含む画像データであっても、ノイズから受ける影響を低減し、動体判定の精度を高めることができる。さらに、動体の方が、蛍光灯のフリッカや照明装置の明滅になどの照明変動よりも、平均輝度差が大きくなる傾向になる。そこで、基準画像データと参照画像データ間における対応する局所領域における平均輝度差のばらつきがあるか否かを判定することにより、高精度に動体を判定することができる。 As described above, according to the present embodiment, only when there is an average luminance difference in the local region including the pixel of interest between a plurality of image data acquired by continuous shooting and the average luminance in each image data varies, the moving object region It is determined as a pixel of. If there is no difference in the average brightness of the local region including the pixel of interest between multiple image data acquired by continuous shooting, or if there is no variation in the average brightness for each RGB even if there is a difference in average brightness, it is judged as a moving object region. Not done. In the present embodiment, it is determined whether or not the pixel of interest is a moving object by using the average brightness of the local region including the pixel of interest. As a result, even if the image data contains a lot of noise, the influence of the noise can be reduced and the accuracy of the moving object determination can be improved. Furthermore, moving objects tend to have a larger average luminance difference than lighting fluctuations such as flicker of fluorescent lamps and blinking of lighting devices. Therefore, the moving object can be determined with high accuracy by determining whether or not there is a variation in the average luminance difference in the corresponding local region between the reference image data and the reference image data.

なお本実施形態では、動体として検出された領域については、NonLocalMeans法を適用する形態について説明したが、NonLocalMeansに限るものではない。動体として検出された領域については、エッジが含まれる可能性が高いため、NonLocalMeansのようにエッジ保存型ノイズ低減処理を適用することが望ましい。エッジ保存型ノイズ低減処理としては、NonLocalMeans以外にも、バイラテラレルフィルタを用いた処理などがある。 In the present embodiment, the region to which the NonLocalMeans method is applied has been described for the region detected as a moving body, but the region is not limited to NonLocalMeans. Since there is a high possibility that an edge is included in the region detected as a moving object, it is desirable to apply an edge-preserving noise reduction process such as NonLocalMeans. In addition to NonLocalMeans, the edge-preserving noise reduction process includes a process using a bilateral filter.

<第2実施形態>
第1実施形態では、着目画素を含む局所領域における平均輝度を用いて動体判定することにより、ノイズによる影響を低減していることを説明した。一般に画像データにおいて、平坦部ではより大きい局所領域に含まれる画素を平均するほど、ノイズの影響を低減できる。一方、局所領域を大きくしすぎると、エッジ部を含む場合異なる被写体の画素の輝度を混在して平均することになってしまうため、動体判定の精度が落ちてしまう。そこで本実施形態では、平均輝度を算出する際、平坦部では局所領域のサイズS1をエッジ部と比べて大きくする方法について説明する。なお、第2実施形態については、第1実施形態と同じ構成、処理については説明を省略する。
<Second Embodiment>
In the first embodiment, it has been explained that the influence of noise is reduced by determining the moving object using the average brightness in the local region including the pixel of interest. Generally, in image data, the influence of noise can be reduced by averaging the pixels included in a larger local region in a flat portion. On the other hand, if the local region is made too large, the brightness of the pixels of different subjects will be mixed and averaged when the edge portion is included, so that the accuracy of the moving object determination will be lowered. Therefore, in the present embodiment, when calculating the average brightness, a method of increasing the size S1 of the local region in the flat portion as compared with the edge portion will be described. The second embodiment has the same configuration and processing as the first embodiment, and the description thereof will be omitted.

図7は、本実施形態における画像処理装置の論理構成を示すブロック図である。図7の画像データ入力部801、パラメータ入力部802、判定処理部805、合成処理部806、画像データ出力部807は、画像データ入力部201、パラメータ入力部202、判定処理部204、合成処理部205、画像データ出力部206と同様である。 FIG. 7 is a block diagram showing a logical configuration of the image processing apparatus according to the present embodiment. The image data input unit 801 and the parameter input unit 802, the determination processing unit 805, the composition processing unit 806, and the image data output unit 807 of FIG. 7 are the image data input unit 201, the parameter input unit 202, the determination processing unit 204, and the composition processing unit. 205, the same as the image data output unit 206.

エッジ強度算出部803は、CPU101からの指示を受け、画像データとパラメータを取得し、パラメータに基づいて画像データごとに各画素のエッジ強度を示したエッジ強度マップを生成する。生成したエッジ強度マップはRAM102に記憶される。なお、エッジ強度マップの詳細は後述する。平均輝度算出部804は、CPU101からの指示を受け、画像データ、パラメータ、エッジ強度マップを取得し、パラメータとエッジ強度に基づいて画像データごとに各画素の平均輝度を示した平均輝度マップを生成する。生成した平均輝度マップはRAM102に記憶される。なお、平均輝度マップの詳細は後述する。以下、図7で説明した画像処理装置の論理構成における各処理の詳細について、図8に示すフローチャートを用いて説明する。なお、図8に示す処理は、CPU101がRAM102に格納されたプログラムを実行することによって実現される。なお、図8に示す各構成部の一部または全部の役割を果たす専用の処理回路などを設けてもよい。 The edge strength calculation unit 803 receives an instruction from the CPU 101, acquires image data and parameters, and generates an edge strength map showing the edge strength of each pixel for each image data based on the parameters. The generated edge strength map is stored in the RAM 102. The details of the edge strength map will be described later. The average brightness calculation unit 804 receives an instruction from the CPU 101, acquires image data, parameters, and edge strength maps, and generates an average brightness map showing the average brightness of each pixel for each image data based on the parameters and edge strength. do. The generated average luminance map is stored in the RAM 102. The details of the average luminance map will be described later. Hereinafter, details of each process in the logical configuration of the image processing apparatus described with reference to FIG. 7 will be described with reference to the flowchart shown in FIG. The process shown in FIG. 8 is realized by the CPU 101 executing the program stored in the RAM 102. A dedicated processing circuit or the like that plays a part or all of each component shown in FIG. 8 may be provided.

図8(a)に示すフローチャートにおいて、ステップS901、S902、S905〜S907は、それぞれステップS301、S302、S304〜S306と同様である。ステップS903においてエッジ強度算出部803は、基準画像データからエッジ強度マップを生成する。エッジ強度マップは、基準画像データの局所領域における分散値と、予め算出した感度毎のノイズ分散値との比率を画素ごとに持つマップである。以下、エッジ強度マップの生成方法について具体的に説明する。まず、基準画像データにおいて着目画素と近傍の画素からなる局所領域を設定する。局所領域のサイズS1は、第1実施形態のステップS303で説明したようにパラメータに従って決定される。次に、局所領域におけるRGBごとの分散値VR、VG、VB、を、式(2)を用いて算出する。 In the flowchart shown in FIG. 8A, steps S901, S902, and S905 to S907 are the same as steps S301, S302, and S304 to S306, respectively. In step S903, the edge strength calculation unit 803 generates an edge strength map from the reference image data. The edge intensity map is a map having a ratio of the dispersion value in the local region of the reference image data to the noise dispersion value for each sensitivity calculated in advance for each pixel. Hereinafter, the method of generating the edge strength map will be specifically described. First, in the reference image data, a local region composed of a pixel of interest and a pixel in the vicinity is set. The size S1 of the local region is determined according to the parameters as described in step S303 of the first embodiment. Next, the dispersion values VR, VG, and VB for each RGB in the local region are calculated using the equation (2).

Figure 0006953184

ここで、Mは局所領域に含まれる画素数、r、g、bは局所領域内の画素iのRGB値であり、
Figure 0006953184

Here, M is the number of pixels included in the local region, and r, g, and b are the RGB values of the pixels i in the local region.

Figure 0006953184

は局所領域に含まれる画素のRGB毎の平均値を示している。そして、これら分散値Vを、撮影時のISO感度に応じたノイズ分散値σ2で割ることで分散値の比率を算出し、これを着目画素のエッジ強度Eとする。具体的には、式(3)により算出する。エッジ強度は値が大きいほど、鮮鋭度が高く、逆に小さいほど鮮鋭度が低いことを示す指標である。
Figure 0006953184

Indicates the average value of the pixels included in the local region for each RGB. Then, the ratio of the dispersion values is calculated by dividing these dispersion values V by the noise dispersion value σ2 according to the ISO sensitivity at the time of shooting, and this is used as the edge strength E of the pixel of interest. Specifically, it is calculated by the formula (3). The larger the value of the edge strength, the higher the sharpness, and conversely, the smaller the value, the lower the sharpness.

Figure 0006953184

この処理を基準画像データの全画素について行うことでエッジ強度マップを生成する。なお、エッジ強度の算出方法はこれに限らず、ソーベルフィルタやラプラシアンフィルタなどを使用して算出するなど、エッジ強度に相当する値が算出できれば何でもよい。また、本実施形態では画素毎にRGBそれぞれのエッジ強度を持つが、3つのエッジ強度のうち、最大値や最小値のみを代表のエッジ強度として1つだけエッジ強度を持たせてもよい。
Figure 0006953184

An edge strength map is generated by performing this process for all pixels of the reference image data. The method for calculating the edge strength is not limited to this, and any value can be used as long as a value corresponding to the edge strength can be calculated, such as using a Sobel filter or a Laplacian filter. Further, in the present embodiment, each pixel has an edge strength of each of RGB, but of the three edge strengths, only one edge strength may be provided with only the maximum value or the minimum value as a representative edge strength.

ステップS904において平均輝度算出部804は、基準画像データと各参照画像データそれぞれについて平均輝度マップを生成する。図8(b)は、平均輝度マップ生成処理の詳細な流れを示すフローチャートである。ステップS1001において平均輝度算出部804が、ステップS302で入力された平均輝度マップ生成用のパラメータth3を取得する。ステップS1002において平均輝度算出部804が、ステップS901で入力した基準画像データから処理対象とする着目画素を選択する。 In step S904, the average luminance calculation unit 804 generates an average luminance map for each of the reference image data and each reference image data. FIG. 8B is a flowchart showing a detailed flow of the average luminance map generation process. In step S1001, the average luminance calculation unit 804 acquires the parameter th3 for generating the average luminance map input in step S302. In step S1002, the average luminance calculation unit 804 selects the pixel of interest to be processed from the reference image data input in step S901.

ステップS1003において平均輝度算出部804が、エッジ強度マップに基づいて平均輝度を算出する局所領域のサイズを決定する。エッジ強度が小さい場合、エッジ強度マップを生成したときのサイズS1よりも大きいサイズS2で平均輝度を算出する。具体的にはまず、エッジ強度マップの各画素とその周辺領域を含む局所領域(ここでは9×9画素のブロックとする)についてエッジ強度がパラメータth3以下である画素数をカウントする。次に、局所領域内の総画素数のy%(ここではy=80)以上である場合、着目画素は平坦部であると判断し、サイズS2>サイズS1となるようにサイズS2を決定する。 In step S1003, the average brightness calculation unit 804 determines the size of the local region for which the average brightness is calculated based on the edge intensity map. When the edge strength is small, the average brightness is calculated with a size S2 larger than the size S1 when the edge strength map is generated. Specifically, first, the number of pixels whose edge strength is the parameter th3 or less is counted for each pixel of the edge strength map and a local region (here, a block of 9 × 9 pixels) including the peripheral region thereof. Next, when the total number of pixels in the local region is y% (y = 80 in this case) or more, it is determined that the pixel of interest is a flat portion, and the size S2 is determined so that size S2> size S1. ..

ステップS1004において平均輝度算出部804が、ステップS1002で決定した局所領域のサイズSに基づいて平均輝度を算出する。ステップS1005は、全画素がステップS1002〜S1004の処理を終了したか否かを判定し、完了している場合は合成処理を終了し、そうでない場合はステップS1001へ進む。なお、本実施形態では、サイズS1、S2の2種類のサイズを用いて局所領域の平均輝度を算出したが、より細かく閾値を設定して複数のサイズを使用して各サイズに応じて平均輝度を算出して平均輝度マップを生成してもよい。 In step S1004, the average luminance calculation unit 804 calculates the average luminance based on the size S of the local region determined in step S1002. Step S1005 determines whether or not all the pixels have completed the processes of steps S1002 to S1004, and if so, ends the synthesis process, and if not, proceeds to step S1001. In the present embodiment, the average brightness of the local region is calculated using two sizes, sizes S1 and S2, but the average brightness is calculated according to each size by setting a threshold value more finely and using a plurality of sizes. May be calculated to generate an average luminance map.

<その他の実施形態>
本実施形態では、連続撮影して得た画像データの先頭画像データを基準画像データとしたが、これに限定されない。例えば、各画像データのエッジ強度の総和が最も大きい画像データを基準画像データとしてもよい。
<Other Embodiments>
In the present embodiment, the head image data of the image data obtained by continuous shooting is used as the reference image data, but the present invention is not limited to this. For example, the image data having the largest total edge strength of each image data may be used as the reference image data.

また本実施形態では、1回の撮影で4回連続して撮影する連写モードにより複数の画像データを取得する例を説明した。しかしながら例えば、動画を撮影し複数のフレームを画像データとして取得してもよい。この場合は、時系列的に連続していることが望ましい。あるいは、連写モードではなく、1回の撮影で画像処理のために複数枚画像を取得するような構成であってもよい。 Further, in the present embodiment, an example of acquiring a plurality of image data in a continuous shooting mode in which one shot is taken four times in a row has been described. However, for example, a moving image may be taken and a plurality of frames may be acquired as image data. In this case, it is desirable that they are continuous in chronological order. Alternatively, the configuration may be such that a plurality of images are acquired for image processing in one shooting instead of the continuous shooting mode.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (7)

N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理装置であって、
前記N枚の画像データを取得する取得手段と、
前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出する第1の算出手段と、
前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定する輝度差判定手段と、
前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出する第2の算出手段と、
前記着目画素の平均輝度の標準偏差と第2の閾値と比較する比較手段と、
前記輝度差判定手段による判定結果と前記比較手段による比較の結果とに基づいて、前記着目画素が動体領域に含まれる画素か否かを判定する動体判定手段とを有し、
前記動体判定手段は、前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理装置。
An image processing device that detects a moving object region in reference image data, which is one of the N image data, using N image data (natural numbers satisfying N> 3).
An acquisition means for acquiring the N image data and
For each of the N image data, a first calculation means for calculating the average luminance in a local region composed of a plurality of pixels including the pixel of interest as the average luminance of the pixel of interest.
Luminance difference for determining whether or not there is a luminance difference between the average luminance of the pixel of interest in the reference image data and the average luminance of the pixel of interest in each of the image data other than the reference image data, which is equal to or greater than the first threshold value. Judgment means and
A second calculation means for calculating the standard deviation of the average luminance corresponding to the pixel of interest in each of the N image data, and
A comparison means for comparing the standard deviation of the average brightness of the pixel of interest with the second threshold value, and
It has a moving object determining means for determining whether or not the pixel of interest is a pixel included in the moving object region based on the determination result by the luminance difference determining means and the comparison result by the comparing means.
When the moving object determination means determines that the pixel of interest has a luminance difference by the luminance difference determining means and the standard deviation is equal to or greater than the second threshold value, the pixel of interest is a pixel included in the moving object region. An image processing device characterized in that it is determined to exist.
前記比較手段は、前記輝度差判定手段により輝度差があると判定された画素に対してのみ、前記着目画素の平均輝度の標準偏差と第2の閾値と比較することを特徴とする請求項1に記載の画像処理装置。 The comparison means is characterized in that the standard deviation of the average brightness of the pixel of interest is compared with the second threshold value only for the pixels determined by the luminance difference determination means to have a luminance difference. The image processing apparatus according to. さらに前記基準画像データにおいて、画素ごとにエッジ強度を算出する第3の算出手段を有し、
前記第1の算出手段は、前記着目画素の局所領域のサイズを、前記第3の算出手段によって算出された前記着目画素のエッジ強度に応じて設定することを特徴とする請求項1または2に記載の画像処理装置。
Further, the reference image data has a third calculation means for calculating the edge strength for each pixel.
The first calculation means according to claim 1 or 2, wherein the size of the local region of the pixel of interest is set according to the edge strength of the pixel of interest calculated by the third calculation means. The image processing apparatus described.
前記第3の算出手段は、前記基準画像データが撮影された際に設定された感度ごとのノイズ分散と前記基準画像データの局所領域ごとに算出したノイズ分散との比率により前記エッジ強度を算出することを特徴とする請求項3に記載の画像処理装置。 The third calculation means calculates the edge intensity by the ratio of the noise dispersion for each sensitivity set when the reference image data is captured and the noise dispersion calculated for each local region of the reference image data. The image processing apparatus according to claim 3, wherein the image processing apparatus is characterized by the above. 前記N枚の画像データは、連続撮影によって取得された画像であることを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the N image data are images acquired by continuous shooting. N枚(N>3を満たす自然数)の画像データを用いて、前記N枚の画像データのうちの1つである基準画像データにおける動体領域を検出する画像処理方法であって、
前記N枚の画像データを取得し、
前記N枚の画像データそれぞれについて、着目画素を含む複数の画素からなる局所領域における平均輝度を、前記着目画素の平均輝度として算出し、
前記基準画像データにおける前記着目画素の平均輝度と、前記基準画像データ以外の画像データそれぞれにおける前記着目画素の平均輝度とに、第1の閾値以上の輝度差があるか否かを判定するし、
前記N枚の画像データそれぞれにおける前記着目画素に対応する平均輝度の標準偏差を算出し、
前記着目画素の平均輝度の標準偏差と第2の閾値と比較し、
前記着目画素について前記輝度差判定手段により輝度差ありと判定され、かつ前記標準偏差が前記第2の閾値以上である場合に、前記着目画素は動体領域に含まれる画素であると判定することを特徴とする画像処理方法。
An image processing method for detecting a moving object region in reference image data, which is one of the N image data, using N image data (natural numbers satisfying N> 3).
The N image data are acquired, and the image data is acquired.
For each of the N image data, the average brightness in the local region composed of a plurality of pixels including the pixel of interest is calculated as the average brightness of the pixel of interest.
It is determined whether or not there is a luminance difference of the first threshold value or more between the average luminance of the pixel of interest in the reference image data and the average luminance of the pixel of interest in each of the image data other than the reference image data.
The standard deviation of the average brightness corresponding to the pixel of interest in each of the N image data was calculated.
Comparing the standard deviation of the average brightness of the pixel of interest with the second threshold value,
When the luminance difference determining means determines that the pixel of interest has a luminance difference and the standard deviation is equal to or greater than the second threshold value, it is determined that the pixel of interest is a pixel included in the moving body region. Characteristic image processing method.
コンピュータを請求項1乃至5の何れか一項に記載された画像処理装置として機能させるためのプログラム A program for operating a computer as an image processing device according to any one of claims 1 to 5.
JP2017103760A 2017-05-25 2017-05-25 Image processing device and image processing method Active JP6953184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103760A JP6953184B2 (en) 2017-05-25 2017-05-25 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103760A JP6953184B2 (en) 2017-05-25 2017-05-25 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2018200506A JP2018200506A (en) 2018-12-20
JP6953184B2 true JP6953184B2 (en) 2021-10-27

Family

ID=64668127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103760A Active JP6953184B2 (en) 2017-05-25 2017-05-25 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP6953184B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113055580B (en) * 2019-12-26 2023-10-03 中兴通讯股份有限公司 Environment recognition method, shooting mode switching method, terminal and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050078747A1 (en) * 2003-10-14 2005-04-14 Honeywell International Inc. Multi-stage moving object segmentation
JP2009044526A (en) * 2007-08-09 2009-02-26 Toshiba Corp Photographing device, photographing method, and apparatus and method for recognizing person
JP2012186593A (en) * 2011-03-04 2012-09-27 Sony Corp Image processing system, image processing method, and program
JP5715863B2 (en) * 2011-03-25 2015-05-13 セコム株式会社 Image processing device
JP5873415B2 (en) * 2012-10-12 2016-03-01 日本電信電話株式会社 Foreground detection device, foreground detection method, and computer program
US9363438B2 (en) * 2013-07-23 2016-06-07 Michael BEN ISRAEL Digital image processing
JP6240116B2 (en) * 2015-03-31 2017-11-29 セコム株式会社 Object detection device
JP6584173B2 (en) * 2015-07-06 2019-10-02 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2018200506A (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US10453204B2 (en) Image alignment for burst mode images
KR102428127B1 (en) Apparatus and method detecting motion mask
US20210227139A1 (en) Video stabilization method and apparatus and non-transitory computer-readable medium
JPWO2015190183A1 (en) Image processing system and computer-readable recording medium
JP2011521521A (en) Optimal video selection
EP2959454A1 (en) Method, system and software module for foreground extraction
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
JP2018195084A (en) Image processing apparatus, image processing method, program, and storage medium
CN110572636B (en) Camera contamination detection method and device, storage medium and electronic equipment
JP2015211471A (en) Image processing apparatus and method
JP2007272532A (en) Fire detection apparatus
JP2014102619A (en) Image processing apparatus, image processing method, and computer program
CN112001853A (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
JP6365355B2 (en) Image generating apparatus and image generating method
JP2011002882A (en) Imaging apparatus, image processing program, and imaging method
JP6953184B2 (en) Image processing device and image processing method
JP2021111228A (en) Learning device, learning method, and program
JP7421273B2 (en) Image processing device and its control method and program
CN103841312B (en) Object detecting apparatus and method
KR100828194B1 (en) Apparatus and method for deciding a blurriness of digital pictures, and system for image processing using the same
JP6584173B2 (en) Image processing apparatus and image processing method
JP2017034608A (en) Image processing system, image processing method and program
JP2006031171A (en) Pseudo three-dimensional data generation method, apparatus, program and recording medium
JP2014127763A (en) Image processing apparatus, image processing method, and program
KR101067516B1 (en) Fast shadow removal Method using Normalized Cross CorrelationNCC and Integral Image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210929

R151 Written notification of patent or utility model registration

Ref document number: 6953184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151