JP7157526B2 - IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM - Google Patents

IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7157526B2
JP7157526B2 JP2017235288A JP2017235288A JP7157526B2 JP 7157526 B2 JP7157526 B2 JP 7157526B2 JP 2017235288 A JP2017235288 A JP 2017235288A JP 2017235288 A JP2017235288 A JP 2017235288A JP 7157526 B2 JP7157526 B2 JP 7157526B2
Authority
JP
Japan
Prior art keywords
moving object
reference image
object likelihood
likelihood
imaging range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017235288A
Other languages
Japanese (ja)
Other versions
JP2019101977A5 (en
JP2019101977A (en
Inventor
悟 小林
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017235288A priority Critical patent/JP7157526B2/en
Publication of JP2019101977A publication Critical patent/JP2019101977A/en
Publication of JP2019101977A5 publication Critical patent/JP2019101977A5/ja
Application granted granted Critical
Publication of JP7157526B2 publication Critical patent/JP7157526B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program.

近年、複数枚の画像を合成し、合成画像を記録するデジタルカメラやデジタルビデオカメラといった撮像装置が数多く製品化されている。これらの撮像装置の中には、異なるタイミングで撮影した複数枚の画像を合成することにより、ランダムノイズを低減した合成画像を生成する機能を持つ撮像装置がある。これによりユーザは、合成しない1枚の画像よりもランダムノイズを低減した合成画像を得ることができる。 2. Description of the Related Art In recent years, many imaging apparatuses such as digital cameras and digital video cameras that synthesize a plurality of images and record the synthesized image have been commercialized. Among these imaging apparatuses, there is an imaging apparatus that has a function of synthesizing a plurality of images shot at different timings to generate a synthetic image with reduced random noise. As a result, the user can obtain a composite image with reduced random noise compared to a single image that is not composited.

しかしながら、複数枚の画像を撮影中に被写体が移動した場合、移動した被写体が合成画像において多重像になってしまうことがある。多重像の発生を抑制するために、被写体の移動が検出された領域については、合成処理を禁止する技術が開示されている。特許文献1には、手ぶれ量に応じて決めた縮小率で縮小した複数枚の画像間におけるフレーム間差分絶対値に基づき、動体領域を検出する技術が開示されている。また、特許文献2には、複数枚の画像の位置合わせ後に残存する位置のずれに応じて縮小画像を選択し、選択した複数枚の縮小画像のフレーム間差分絶対値に基づき、動体領域を検出する技術が開示されている。 However, when a subject moves while a plurality of images are being captured, the moved subject may become a multiple image in the composite image. In order to suppress the occurrence of multiple images, a technique has been disclosed that prohibits compositing processing for an area in which movement of an object is detected. Japanese Unexamined Patent Application Publication No. 2002-100003 discloses a technique for detecting a moving object region based on the absolute value of the inter-frame difference between a plurality of images that have been reduced at a reduction ratio determined according to the amount of camera shake. Further, in Patent Document 2, a reduced image is selected according to the positional deviation remaining after alignment of a plurality of images, and a moving object region is detected based on the absolute value of the inter-frame difference of the selected plurality of reduced images. A technique for doing so is disclosed.

フレーム間差分絶対値に基づく動体領域検出においては、例えば、高感度で撮影した画像の場合、ランダムノイズによりフレーム間差分絶対値が大きくなる。そのため、移動被写体とランダムノイズとを区別することが困難となり、ランダムノイズの大きい領域を動体領域として誤検出する可能性がある。 In the moving object region detection based on the inter-frame difference absolute value, for example, in the case of an image shot with high sensitivity, the inter-frame difference absolute value increases due to random noise. Therefore, it becomes difficult to distinguish between a moving object and random noise, and there is a possibility that an area with large random noise is erroneously detected as a moving object area.

そこで、特許文献1では、手ぶれ量を基に画像縮小率を変更することにより、手ぶれによる静止被写体の位置のズレや、ランダムノイズの影響を軽減し、移動被写体領域の検出精度を向上させている。また、特許文献2では、複数枚の画像の位置合わせ後に残存する位置のずれに応じて縮小画像を選択することにより、手ぶれによる静止被写体の位置のズレや、ランダムノイズの影響を軽減し、移動被写体領域の検出精度を向上させている。 Therefore, in Patent Document 1, by changing the image reduction ratio based on the amount of camera shake, the shift in the position of a still subject due to camera shake and the effects of random noise are reduced, and the detection accuracy of the moving subject area is improved. . In addition, in Patent Document 2, by selecting a reduced image according to the positional deviation remaining after aligning a plurality of images, the positional deviation of a still object due to camera shake and the effects of random noise are reduced, and the movement of the subject is reduced. The detection accuracy of the subject area has been improved.

特開2013-62741号公報JP 2013-62741 A 特許第5398612号公報Japanese Patent No. 5398612

しかしながら、縮小画像間のフレーム間差分絶対値に基づき動体領域を検出する場合、縮小画像間で検出した動体領域を元の解像度まで拡大処理することにより、移動被写体周辺の静止領域まで動体領域として検出されてしまうことがある。また、画像を縮小することにより、小さい被写体の画素値の振幅が低くなってしまうため、小さい移動被写体の検出に失敗する可能性がある。 However, when a moving object area is detected based on the absolute value of the inter-frame difference between reduced images, by enlarging the moving object area detected between the reduced images to the original resolution, even the still area around the moving object is detected as the moving object area. There are times when it is done. In addition, by reducing the image, the amplitude of the pixel value of a small subject becomes low, so detection of a small moving subject may fail.

本発明はこのような状況に鑑みてなされたものであり、画像間の画素値の差分に基づく動体領域の検出精度を向上させる技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for improving detection accuracy of a moving object region based on differences in pixel values between images.

上記課題を解決するために、本発明は、所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小手段と、前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得手段と、前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得手段と、前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、を備えることを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention provides a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from the first reference image. reduction means for generating a second reference image and a second reference image by reducing each of the reference images by a first magnification; and pixel values of the first reference image and pixel values of the first reference image and A first moving object likelihood is obtained based on the difference between the pixel values of the first reference image, and a second moving object likelihood is obtained based on the difference between the pixel values of the second reference image and the second reference image. Based on at least one of the first acquisition means for acquiring the moving object likelihood of the first reference image, the first reference image, the second reference image, and the second reference image, a second obtaining means for obtaining an edge degree at each position in the imaging range; and combining the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range. determining means for determining a ratio; and generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range. and synthesizing means for combining images.

なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。 In addition, other features of the present invention will be further clarified by the description in the attached drawings and the following detailed description.

本発明によれば、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。 According to the present invention, it is possible to improve the detection accuracy of a moving object area based on the pixel value difference between images.

撮像装置100の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of the imaging device 100; 画像処理部107が具備する合成画像生成部200の構成を示す図。FIG. 3 is a diagram showing the configuration of a composite image generation unit 200 included in an image processing unit 107; 合成画像生成部200が実行する処理のフローチャート。4 is a flowchart of processing executed by a composite image generation unit 200; 位置合わせ処理について説明する図。4A and 4B are diagrams for explaining alignment processing; FIG. 合成動体尤度と基準画像の合成比率wとの関係を示す図。FIG. 10 is a diagram showing the relationship between the composite moving object likelihood and the composite ratio w of the reference image; 第1の実施形態に係る、動体領域検出部202の構成を示す図。FIG. 4 is a diagram showing the configuration of a moving object region detection unit 202 according to the first embodiment; 第1の実施形態に係る、動体領域検出部202が実行する合成動体尤度算出処理のフローチャート。4 is a flowchart of synthetic moving object likelihood calculation processing executed by a moving object region detection unit 202 according to the first embodiment; 動体尤度算出カーブを示す図。The figure which shows a moving object likelihood calculation curve. エッジ度算出カーブを示す図。The figure which shows an edge degree calculation curve. 動体尤度の合成比率の算出カーブを示す図。The figure which shows the calculation curve of the synthetic|combination ratio of moving object likelihood. 等倍サイズの(縮小前の)基準画像及び参照画像の概念図。FIG. 4 is a conceptual diagram of a standard image and a reference image of the same size (before reduction). (A)(B)縮小された画像データの概念図、(C)(D)動体尤度の概念図、(E)(F)エッジ度の概念図、(G)動体尤度の合成比率の概念図、(H)合成動体尤度の概念図。(A) (B) Conceptual diagram of reduced image data, (C) (D) Conceptual diagram of moving object likelihood, (E) (F) Conceptual diagram of edge degree, (G) Combining ratio of moving object likelihood Conceptual diagram, (H) Conceptual diagram of synthetic moving object likelihood. 高感度撮影時の動体尤度の合成比率の算出カーブを示す図。FIG. 10 is a diagram showing a curve for calculating a composite ratio of moving object likelihoods during high-sensitivity imaging; 3つの異なる解像度での動体尤度、及び最終的な合成動体尤度を示す概要図。Schematic diagram showing the motion likelihood at three different resolutions and the final composite motion likelihood. 第2の実施形態に係る、動体領域検出部202が実行する合成動体尤度算出処理のフローチャート。10 is a flowchart of synthetic moving object likelihood calculation processing executed by a moving object region detection unit 202 according to the second embodiment; 第2の実施形態に係る、動体領域検出部202の構成を示す図。The figure which shows the structure of the moving body area|region detection part 202 which concerns on 2nd Embodiment. 各階層における基準画像と参照画像との間のSADを示す図。FIG. 4 is a diagram showing SAD between a standard image and a reference image in each layer; x1/4階層のSADの合成比率を決定する処理を説明する図。FIG. 10 is a diagram for explaining a process of determining a synthesis ratio of SADs in x1/4 hierarchy; x1/1階層のSADの合成比率を決定する処理を説明する図。FIG. 11 is a diagram for explaining a process of determining a synthesis ratio of SADs in the x1/1 layer; 合成比率変換カーブの設定方法について説明する図。The figure explaining the setting method of a synthetic|combination ratio conversion curve. ISO感度に応じて合成比率変換カーブを変更する処理の具体例を説明する図。FIG. 5 is a diagram for explaining a specific example of processing for changing a synthesis ratio conversion curve according to ISO sensitivity; 図15のS1504におけるSADの差の算出処理の詳細について説明する図。FIG. 16 is a view for explaining details of SAD difference calculation processing in S1504 of FIG. 15;

以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。また、別々の実施形態の中で説明されている特徴を適宜組み合せることも可能である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the technical scope of the present invention is determined by the claims and is not limited by the following individual embodiments. Also, not all combinations of features described in the embodiments are essential to the present invention. It is also possible to combine features described in separate embodiments as appropriate.

[第1の実施形態]
図1は、画像処理装置の一例である撮像装置100の構成を示すブロック図である。図1において、制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの動作プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することにより、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an imaging device 100, which is an example of an image processing device. In FIG. 1, the control unit 101 is, for example, a CPU, reads an operation program of each block provided in the imaging apparatus 100 from a ROM 102 described below, develops it in a RAM 103 described below, and executes it, thereby executing each block included in the imaging apparatus 100. controls the behavior of The ROM 102 is an electrically erasable/recordable non-volatile memory, and stores an operation program for each block included in the imaging apparatus 100 as well as parameters required for the operation of each block. A RAM 103 is a rewritable volatile memory, and is used as a temporary storage area for data output during operation of each block included in the imaging apparatus 100 .

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群を含み、被写体像を後述の撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像部105に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像信号(画像データ)をRAM103に出力する。また、A/D変換部106は、制御部101が決定した増幅率(感度情報)に基づき、アナログ画像信号又はデジタル画像信号を増幅する。 The optical system 104 includes a lens group including a zoom lens and a focus lens, and forms a subject image on an imaging unit 105, which will be described later. The imaging unit 105 is, for example, an imaging device such as a CCD or CMOS sensor. Output. The A/D converter 106 converts the input analog image signal into a digital image signal and outputs the obtained digital image signal (image data) to the RAM 103 . Also, the A/D conversion unit 106 amplifies the analog image signal or the digital image signal based on the amplification factor (sensitivity information) determined by the control unit 101 .

画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、後述する合成画像生成部200を具備し、RAM103に記憶されている複数の画像データを合成し、合成画像を生成する。 The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103 . The image processing unit 107 also includes a composite image generation unit 200, which will be described later, and combines a plurality of image data stored in the RAM 103 to generate a composite image.

記録部108は着脱可能なメモリカード等である。画像処理部107で処理された画像データは、RAM103を介して、記録部108に記録画像として記録される。表示部109は、LCD等の表示デバイスであり、RAM103及び記録部108に記録した画像データや、ユーザからの指示を受け付けるためのユーザインタフェースなどを表示する。 A recording unit 108 is a detachable memory card or the like. Image data processed by the image processing unit 107 is recorded as a recorded image in the recording unit 108 via the RAM 103 . A display unit 109 is a display device such as an LCD, and displays image data recorded in the RAM 103 and the recording unit 108, a user interface for receiving instructions from the user, and the like.

次に、画像処理部107の動作について、詳細に説明を行う。本実施形態では、後述する合成動体尤度に基づいて2枚の画像を合成することにより、ランダムノイズが低減した合成画像を生成する例について説明する。 Next, the operation of the image processing unit 107 will be described in detail. In the present embodiment, an example of generating a composite image with reduced random noise by combining two images based on a composite moving object likelihood, which will be described later, will be described.

図2を参照して、画像処理部107が具備する合成画像生成部200の構成について説明する。合成画像生成部200は、RAM103に記憶されている2枚の画像を合成し、合成画像を生成する。合成画像生成部200は、位置合わせ部201、動体領域検出部202、及び画像合成部203を含む。 The configuration of the composite image generation unit 200 included in the image processing unit 107 will be described with reference to FIG. A composite image generation unit 200 composites two images stored in the RAM 103 to generate a composite image. The composite image generation unit 200 includes an alignment unit 201 , a moving object area detection unit 202 and an image composition unit 203 .

次に、図3を参照して、合成画像生成部200が実行する処理について説明する。S301で、制御部101は、RAM103に記憶されている複数の画像から、合成の基準となる基準画像、及び基準画像に対して合成を行う参照画像を選択する。例えば、制御部101は、撮像装置100のシャッターが押下された直後に撮影された1枚目の画像を基準画像として選択し、2枚目以降の画像を参照画像として選択する。合成画像生成部200は、選択された基準画像及び参照画像をRAM103から取得する。 Next, referring to FIG. 3, processing executed by the synthetic image generation unit 200 will be described. In S<b>301 , the control unit 101 selects a reference image that serves as a reference for synthesis and a reference image that is to be synthesized with respect to the reference image from a plurality of images stored in the RAM 103 . For example, the control unit 101 selects the first image captured immediately after the shutter of the imaging device 100 is pressed as the reference image, and selects the second and subsequent images as the reference image. The composite image generation unit 200 acquires the selected standard image and reference image from the RAM 103 .

S302で、位置合わせ部201は、基準画像と参照画像との間の動きベクトルを検出し、動きベクトルに基づいて参照画像を幾何変換することにより、参照画像の位置を基準画像と合わせる。 In S302, the alignment unit 201 detects a motion vector between the standard image and the reference image, and geometrically transforms the reference image based on the motion vector, thereby aligning the position of the reference image with the standard image.

ここで、図4を参照して、位置合わせ処理について説明する。図4(A)は基準画像を示し、図4(B)は参照画像を示し、図4(C)は位置合わせが行われた参照画像を示す。図4(A)~図4(C)に示す3つの画像は、以下に説明するように被写体の位置が異なるなどの相違はあるが、いずれも所定の撮影範囲を含んでいる。 Alignment processing will now be described with reference to FIG. 4A shows the reference image, FIG. 4B shows the reference image, and FIG. 4C shows the aligned reference image. The three images shown in FIGS. 4(A) to 4(C) are different in that the positions of the subjects are different as described below, but they all include a predetermined shooting range.

図4(B)の参照画像は、図4(A)の基準画像とは異なる時刻に撮影されているため、手ぶれ等により図4(A)の基準画像と位置がずれている。位置合わせ部201は、このような位置のずれを位置合わせ処理により補正する。位置を合わせるために、まず、位置合わせ部201は、基準画像と参照画像との間の大局的な動きを示す動きベクトルを算出する。動きベクトルの算出方法としては、例えば、ブロックマッチング法が挙げられる。次に、位置合わせ部201は、算出した動きベクトルに基づき、参照画像を幾何変換するための係数である、式(1)に示すような幾何変換係数Aを算出する。

Figure 0007157526000001
The reference image in FIG. 4B is taken at a time different from that of the reference image in FIG. 4A, and is out of position with the reference image in FIG. 4A due to camera shake or the like. The alignment unit 201 corrects such a positional deviation by alignment processing. To align the positions, first, the alignment unit 201 calculates a motion vector indicating global motion between the base image and the reference image. A motion vector calculation method includes, for example, a block matching method. Next, the alignment unit 201 calculates a geometric transformation coefficient A as shown in Equation (1), which is a coefficient for geometrically transforming the reference image, based on the calculated motion vector.
Figure 0007157526000001

位置合わせ部201は、幾何変換係数Aを用いて、参照画像に対して式(2)に示すような幾何変換を行うことにより、図4(C)の位置合わせ済み参照画像を生成する。なお、参照画像をI(x座標,y座標)、位置合わせ済み参照画像をI’(x’座標,y’座標)とする。

Figure 0007157526000002
Alignment unit 201 generates the aligned reference image shown in FIG. The reference image is I (x coordinate, y coordinate), and the aligned reference image is I'(x' coordinate, y' coordinate).
Figure 0007157526000002

このような位置合わせ処理により、図4(C)の位置合わせ済み参照画像のように、基準画像と参照画像の静止被写体(例えば、建物や木)の位置を合わせることができる。 Through such alignment processing, positions of still subjects (eg, buildings and trees) in the standard image and the reference image can be aligned as in the aligned reference image in FIG. 4C.

図3に戻り、S303で、動体領域検出部202は、基準画像と位置合わせ済み参照画像(以下、単に「参照画像」とも呼ぶ)とに基づいて動体領域を検出し、合成動体尤度を算出する。本実施形態では、動体領域は、動体尤度と呼ばれる多値で表現されるデータで表すものとする。動体領域検出部202の詳細、及び合成動体尤度算出処理の詳細については後述する。 Returning to FIG. 3 , in S303, the moving object region detection unit 202 detects a moving object region based on the reference image and the aligned reference image (hereinafter also simply referred to as “reference image”), and calculates the synthetic moving object likelihood. do. In the present embodiment, the moving object area is represented by multi-valued data called moving object likelihood. Details of the moving object region detection unit 202 and details of the synthetic moving object likelihood calculation process will be described later.

S304で、画像合成部203は、式(3)で示すように、合成動体尤度に基づいて決定される基準画像の合成比率wに応じて、基準画像と参照画像とを合成し、合成画像を生成する。
P = w × Pbase + (1-w)× Pref ・・・(3)
なお、Pbaseは基準画像の画素値を表し、Prefは参照画像の画素値を表し、wは基準画像の合成比率を表し、Pは合成画像の画素値を表す。
In S304, the image synthesizer 203 synthesizes the reference image and the reference image according to the synthesis ratio w of the reference image determined based on the synthetic moving object likelihood, as shown in Equation (3), to obtain a synthesized image. to generate
P = w × Pbase + (1-w) × Pref (3)
Pbase represents the pixel value of the base image, Pref represents the pixel value of the reference image, w represents the synthesis ratio of the base image, and P represents the pixel value of the synthesized image.

ここで、図5を参照して、基準画像の合成比率wの決定方法について説明する。図5は、合成動体尤度と基準画像の合成比率wとの関係を示す図である。図5の例では、合成動体尤度が大きいほど、基準画像の合成比率wも大きくなる。図5の例では、合成動体尤度が高い動体領域については、基準画像の合成比率が例えば100%(w=1)に設定される。そのため、動体領域の合成処理を実質的に禁止し、多重像の発生を抑制することができる。即ち、合成動体尤度が高い場合、合成画像の画素値として基準画像の画素値が用いられる。一方、合成動体尤度が低い静止領域については、基準画像の合成比率が例えば50%(w=0.5)に設定される。そのため、基準画像と参照画像とを均等に合成し、ランダムノイズを低減することができる。図5から理解できるように、合成動体尤度が小さい場合、基準画像の画素値の合成比率と参照画像の画素値の合成比率との差が小さくなる。 Here, a method for determining the synthesis ratio w of the reference image will be described with reference to FIG. FIG. 5 is a diagram showing the relationship between the composite moving object likelihood and the composite ratio w of the reference image. In the example of FIG. 5, the larger the synthetic moving object likelihood, the larger the synthesis ratio w of the reference image. In the example of FIG. 5, for a moving object region with a high synthetic moving object likelihood, the synthesis ratio of the reference image is set to 100% (w=1), for example. Therefore, it is possible to substantially prohibit the synthesis processing of moving object regions and suppress the occurrence of multiple images. That is, when the composite moving object likelihood is high, the pixel values of the reference image are used as the pixel values of the composite image. On the other hand, for a still region with a low synthesized moving object likelihood, the synthesis ratio of the reference image is set to 50% (w=0.5), for example. Therefore, the standard image and the reference image can be evenly synthesized, and random noise can be reduced. As can be understood from FIG. 5, when the synthesized moving object likelihood is small, the difference between the pixel value synthesis ratio of the reference image and the pixel value synthesis ratio of the reference image becomes small.

次に、図6を参照して、動体領域検出部202の構成について説明する。動体領域検出部202は、動体尤度算出部600、601、602、エッジ度算出部610、611、拡大処理部620、621、622、623、合成比率算出部630、631、動体尤度合成部640、641、及び縮小処理部650を有する。動体領域検出部202は、基準画像と参照画像との間のフレーム間差分絶対値に基づき、合成動体尤度を算出する。 Next, referring to FIG. 6, the configuration of moving object region detection section 202 will be described. The moving object region detection unit 202 includes moving object likelihood calculation units 600, 601, 602, edge level calculation units 610, 611, enlargement processing units 620, 621, 622, 623, synthesis ratio calculation units 630, 631, and a moving object likelihood synthesis unit. 640 , 641 and a reduction processing unit 650 . A moving object area detection unit 202 calculates a synthetic moving object likelihood based on the inter-frame difference absolute value between the standard image and the reference image.

次に、図7を参照して、動体領域検出部202が実行する合成動体尤度算出処理について説明する。S701で、動体領域検出部202は、基準画像及び参照画像を取得する。基準画像及び参照画像の例を、図4(A)及び図4(C)に示す。図4(A)は基準画像を示す図であり、図4(C)は参照画像(位置合わせ済み参照画像)を示す図である。基準画像と参照画像とは異なる時刻に撮影されているため、撮影中に移動した被写体の位置は異なる。図4(A)及び図4(C)の例では、図4(A)の基準画像の人410は、図4(C)の人420の位置に移動し、図4(A)の基準画像の人411は、図4(C)の参照画像の人421の位置に移動している。動体領域検出部202は、このような移動している領域を動体領域として検出する。 Next, synthetic moving object likelihood calculation processing executed by the moving object region detection unit 202 will be described with reference to FIG. In S701, the moving object region detection unit 202 acquires a standard image and a reference image. Examples of the base image and the reference image are shown in FIGS. 4(A) and 4(C). FIG. 4A is a diagram showing a reference image, and FIG. 4C is a diagram showing a reference image (registered reference image). Since the base image and the reference image are shot at different times, the positions of the subject that moved during the shooting are different. 4A and 4C, the person 410 in the reference image of FIG. 4A moves to the position of the person 420 in FIG. The person 411 has moved to the position of the person 421 in the reference image of FIG. 4(C). The moving object area detection unit 202 detects such a moving area as a moving object area.

S702で、縮小処理部650は、基準画像及び参照画像に対して縮小処理を行うことにより、縮小された基準画像及び参照画像を生成する。具体的には、縮小処理部650は、縦横の画素数が1/4倍に縮小された基準画像(以下、「1/4サイズ基準画像」とも呼ぶ)及び参照画像(以下、「1/4サイズ参照画像」とも呼ぶ)を生成する。また、縮小処理部650は、基準画像及び参照画像に対して縮小処理を行うことにより、縦横の画素数が1/16倍に縮小された基準画像(以下、「1/16サイズ基準画像」とも呼ぶ)及び参照画像(以下、「1/16サイズ参照画像」とも呼ぶ)も生成する。なお、以下では、縮小前の基準画像及び参照画像を、それぞれ「等倍サイズ基準画像」及び「等倍サイズ参照画像」とも呼ぶ。 In S702, the reduction processing unit 650 generates a reduced standard image and reference image by performing reduction processing on the standard image and the reference image. Specifically, the reduction processing unit 650 reduces the number of vertical and horizontal pixels by a factor of 1/4 (hereinafter also referred to as a “1/4 size reference image”) and a reference image (hereinafter referred to as a “1/4 size standard image”). (also called a "size reference image"). Further, the reduction processing unit 650 performs reduction processing on the standard image and the reference image, thereby reducing the number of vertical and horizontal pixels to a standard image (hereinafter, also referred to as a “1/16 size standard image”). ) and a reference image (hereinafter also referred to as a “1/16 size reference image”) are also generated. Note that the standard image and the reference image before reduction are hereinafter also referred to as a "same size standard image" and a "same size reference image", respectively.

図11、図12(A)、及び図12(B)を参照して、縮小処理の詳細について説明する。図11は、等倍サイズの(縮小前の)基準画像及び参照画像の概念図である。以下では、説明を簡単にするために、図11に示す基準画像1100及び参照画像1101に基づいて各種処理の説明を行う。図11において、破線1102は、基準画像1100の画素値の例を示し、実線1103は、参照画像1101の画素値の例を示す。縮小処理部650は、平滑化処理及び画素間引き処理により、基準画像1100及び参照画像1101を縮小する。利用可能な縮小方法として、例えば、バイリニア縮小法やバイキュービック縮小法が挙げられる。 Details of the reduction process will be described with reference to FIGS. 11, 12A, and 12B. FIG. 11 is a conceptual diagram of a standard image and a reference image of the same size (before reduction). To simplify the explanation, various types of processing will be explained based on the base image 1100 and the reference image 1101 shown in FIG. In FIG. 11 , a dashed line 1102 indicates an example of pixel values of the reference image 1100 and a solid line 1103 indicates an example of pixel values of the reference image 1101 . A reduction processing unit 650 reduces the standard image 1100 and the reference image 1101 by smoothing processing and pixel thinning processing. Available reduction methods include, for example, bilinear and bicubic reduction methods.

図12(A)に1/16サイズの画像データ、図12(B)に1/4サイズの画像データを示す。図12(A)の破線1200は、1/16サイズ基準画像の画素値の例を示し、図12(A)の実線1201は、1/16サイズ参照画像の画素値の例を示す。また、図12(B)の破線1202は、1/4サイズ基準画像の画素値の例を示し、図12(B)の実線1203は、1/4サイズ参照画像の画素値の例を示す。図12(A)及び図12(B)において、水平座標は、図11に示す縮小前の水平座標と対応するように拡大して図示されている。これは、後述する図12(C)~(H)においても同様である。 FIG. 12A shows 1/16 size image data, and FIG. 12B shows 1/4 size image data. A dashed line 1200 in FIG. 12A indicates an example of pixel values of a 1/16 size reference image, and a solid line 1201 in FIG. 12A indicates an example of pixel values of a 1/16 size reference image. A dashed line 1202 in FIG. 12B indicates an example of pixel values of a 1/4 size reference image, and a solid line 1203 in FIG. 12B indicates an example of pixel values of a 1/4 size reference image. 12A and 12B, the horizontal coordinates are shown enlarged so as to correspond to the horizontal coordinates before reduction shown in FIG. This also applies to FIGS. 12(C) to 12(H), which will be described later.

図12(B)に示す1/4サイズ基準画像の画素値1200は、縮小処理により、図11に示す基準画像1100の画素値1102よりも平滑化されている。また、図12(A)に示す1/16サイズ基準画像の画素値1200は、縮小処理により、図12(B)に示す1/4サイズ基準画像の画素値1202よりも更に平滑化されている。 A pixel value 1200 of the 1/4 size reference image shown in FIG. 12B is smoothed by reduction processing more than a pixel value 1102 of the reference image 1100 shown in FIG. Also, the pixel value 1200 of the 1/16 size reference image shown in FIG. 12(A) is further smoothed by reduction processing than the pixel value 1202 of the 1/4 size reference image shown in FIG. 12(B). .

図7に戻り、S703で、動体尤度算出部600、601、602は、対応する解像度(サイズ)の基準画像と参照画像との間のフレーム間差分絶対値を画素毎に算出し、フレーム間差分絶対値に基づいて動体尤度を算出する。換言すると、動体尤度算出部600、601、602は、基準画像及び参照画像が含む所定の撮影範囲の各位置についてフレーム間差分絶対値を算出し、動体尤度を算出する。具体的には、動体尤度算出部600は、等倍サイズ基準画像と等倍サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(A)に示すような動体尤度算出カーブに基づき等倍サイズ動体尤度を算出する。また、動体尤度算出部601は、1/4サイズ基準画像と1/4サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(B)に示すような動体尤度算出カーブに基づき1/4サイズ動体尤度を算出する。また、動体尤度算出部602は、1/16サイズ基準画像と1/16サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(C)に示すような動体尤度算出カーブに基づき1/16サイズ動体尤度を算出する。 Returning to FIG. 7, in S703, the moving object likelihood calculation units 600, 601, and 602 calculate, for each pixel, the inter-frame difference absolute value between the standard image and the reference image with the corresponding resolution (size). A moving object likelihood is calculated based on the absolute difference value. In other words, the moving object likelihood calculation units 600, 601, and 602 calculate the inter-frame difference absolute value for each position in a predetermined shooting range included in the standard image and the reference image, and calculate the moving object likelihood. Specifically, the moving object likelihood calculation unit 600 calculates the inter-frame difference absolute value between the same-size reference image and the same-size reference image for each pixel, and calculates the moving object likelihood as shown in FIG. A normal size moving object likelihood is calculated based on the curve. Further, the moving object likelihood calculation unit 601 calculates the inter-frame difference absolute value between the 1/4 size reference image and the 1/4 size reference image for each pixel, and calculates the moving object likelihood calculation curve as shown in FIG. A 1/4 size moving object likelihood is calculated based on. Further, the moving object likelihood calculation unit 602 calculates the inter-frame difference absolute value between the 1/16 size reference image and the 1/16 size reference image for each pixel, and calculates the moving object likelihood calculation curve as shown in FIG. 1/16 size moving object likelihood is calculated based on.

1/16サイズ動体尤度及び1/4サイズ動体尤度の例を図12(C)及び(D)に示す。図12(C)に示す1/16サイズ動体尤度は、図12(A)に示す1/16サイズの画像データに基づいて算出された動体尤度である。図12(D)に示す1/4サイズ動体尤度は、図12(B)に示す1/4サイズの画像データに基づいて算出された動体尤度である。 Examples of 1/16 size moving object likelihood and 1/4 size moving object likelihood are shown in FIGS. The 1/16 size moving object likelihood shown in FIG. 12(C) is the moving object likelihood calculated based on the 1/16 size image data shown in FIG. 12(A). The 1/4 size moving object likelihood shown in FIG. 12(D) is the moving object likelihood calculated based on the 1/4 size image data shown in FIG. 12(B).

なお、図8(A)~(C)に示すように画像データの解像度(サイズ)に応じて動体尤度算出カーブの形状を変えている理由は、ランダムノイズを動きと誤検出する可能性を低減するためである。基準画像と参照画像との間のフレーム間差分絶対値は、被写体の動きだけではなく、ランダムノイズによっても大きくなる。ここで、1/4サイズの画像データや1/16サイズの画像データは、縮小処理時の平滑化処理により等倍サイズの画像データよりもランダムノイズが低減されている。そのため、ランダムノイズがより低減されている、より低解像度の画像データのための動体尤度算出カーブほど、閾値TH1及びTH2を小さい値にする。一方、ランダムノイズがより多い、より高解像度の画像データのための動体尤度算出カーブほど、閾値TH1及びTH2を大きい値にする。 The reason for changing the shape of the moving object likelihood calculation curve according to the resolution (size) of the image data as shown in FIGS. This is to reduce The inter-frame difference absolute value between the standard image and the reference image increases not only due to movement of the subject but also due to random noise. 1/4 size image data and 1/16 size image data have less random noise than normal size image data due to smoothing processing during reduction processing. Therefore, the thresholds TH1 and TH2 are set to smaller values for moving object likelihood calculation curves for lower resolution image data in which random noise is further reduced. On the other hand, the thresholds TH1 and TH2 are set to larger values for moving object likelihood calculation curves for higher resolution image data with more random noise.

具体的には、図8(A)のように、等倍サイズの動体尤度算出カーブの場合は、ランダムノイズを動きと誤検出しないように、閾値TH1及びTH2を比較的大きい値とする。また、図8(C)のように、1/16サイズの動体尤度算出カーブの場合は、ランダムノイズは低減されているので、被写体の動きを精度よく検出するため、閾値TH1及びTH2を比較的小さい値とする。 Specifically, as shown in FIG. 8A, in the case of the same-size moving object likelihood calculation curve, the thresholds TH1 and TH2 are set to relatively large values so as not to erroneously detect random noise as motion. In addition, as shown in FIG. 8C, in the case of a 1/16 size moving object likelihood calculation curve, random noise is reduced. a relatively small value.

このように、フレーム間差分絶対値を算出する画像データの解像度に応じて、動体尤度算出カーブの閾値を変えることにより、ランダムノイズによる動きの誤検出を低減し、被写体の動きを精度よく検出することが可能となる。 In this way, by changing the threshold value of the moving object likelihood calculation curve according to the resolution of the image data for calculating the absolute value of the inter-frame difference, erroneous detection of motion due to random noise can be reduced, and the motion of the subject can be accurately detected. It becomes possible to

図7に戻り、S704で、エッジ度算出部610、611は、対応する解像度(サイズ)の基準画像と参照画像のエッジ強度に基づき、画素毎にエッジ度を算出する。即ち、エッジ度算出部610、611は、基準画像及び参照画像が含む所定の撮影範囲の各位置についてエッジ度を算出する。 Returning to FIG. 7, in S704, the edge degree calculation units 610 and 611 calculate the edge degree for each pixel based on the edge strength of the standard image and the reference image with corresponding resolutions (sizes). That is, the edge degree calculation units 610 and 611 calculate the edge degree for each position in a predetermined shooting range included in the standard image and the reference image.

以下、エッジ度の算出方法について詳細に説明する。但し、本実施形態のエッジ度の算出方法は以下に示す具体例に限定されない。撮影範囲の各位置についてエッジの状態(エッジの有無やコントラストの強度など)を示す指標となる値を算出可能な方法であれば、任意の算出方法を採用可能である。 A method for calculating the edge degree will be described in detail below. However, the edge degree calculation method of this embodiment is not limited to the specific examples shown below. Any calculation method can be employed as long as it can calculate a value that serves as an index indicating the edge state (existence of edge, intensity of contrast, etc.) for each position in the imaging range.

まず、エッジ強度の算出方法について説明する。エッジ強度は、例えば、ソーベルフィルタ処理により算出する。ソーベルフィルタ処理について説明する。まず、注目画素を中心とした上下左右の9つの画素値に対して、式(4)に示す係数をそれぞれ乗算し、乗算結果を合計することにより、垂直方向のエッジ強度Svを算出する。同様に、注目画素を中心とした上下左右の9つの画素値に対して、式(5)に示す係数をそれぞれ乗算し、乗算結果を合計することにより、水平方向のエッジ強度Shを算出する。そして、式(6)に示すように、垂直方向のエッジ強度Svと水平方向のエッジ強度Shの2乗和平方根により、エッジ強度Eを算出する。

Figure 0007157526000003
Figure 0007157526000004
Figure 0007157526000005
First, a method for calculating edge strength will be described. Edge strength is calculated by, for example, Sobel filtering. Sobel filter processing will be described. First, the vertical edge strength Sv is calculated by multiplying the nine pixel values above, below, to the left and right of the pixel of interest by the coefficients shown in Equation (4), respectively, and summing the multiplication results. Similarly, the horizontal edge strength Sh is calculated by multiplying the nine pixel values above, below, to the left, and to the right of the pixel of interest by the coefficients shown in Equation (5), respectively, and summing the multiplication results. Then, as shown in equation (6), the edge strength E is calculated from the square root of the sum of the squares of the vertical edge strength Sv and the horizontal edge strength Sh.
Figure 0007157526000003
Figure 0007157526000004
Figure 0007157526000005

エッジ度算出部610は、1/4サイズ基準画像と1/4サイズ参照画像の画素毎にエッジ強度を算出し、画素毎に、1/4サイズ基準画像のエッジ強度と1/4サイズ参照画像のエッジ強度のうちの大きい方を選択する。そして、エッジ度算出部610は、図9に示すようなエッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出する。これにより、1/4サイズのエッジ度が得られる。また、エッジ度算出部611は、1/16サイズ基準画像と1/16サイズ参照画像の画素毎にエッジ強度を算出し、画素毎に、1/16サイズ基準画像のエッジ強度と1/16サイズ参照画像のエッジ強度のうちの大きい方を選択する。そして、エッジ度算出部611は、図9に示すようなエッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出する。これにより、1/16サイズのエッジ度が得られる。 The edge degree calculation unit 610 calculates the edge strength for each pixel of the 1/4 size reference image and the 1/4 size reference image, and calculates the edge strength of the 1/4 size reference image and the 1/4 size reference image for each pixel. , whichever is greater. The edginess calculator 610 then calculates the edginess from the selected edge strength based on the edginess calculation curve shown in FIG. This gives a 1/4 size edge degree. Further, the edge degree calculation unit 611 calculates the edge strength for each pixel of the 1/16 size reference image and the 1/16 size reference image, and calculates the edge strength of the 1/16 size reference image and the 1/16 size reference image for each pixel. Select the larger edge strength of the reference image. Then, the edge degree calculation unit 611 calculates the edge degree from the selected edge strength based on the edge degree calculation curve shown in FIG. This gives an edge degree of 1/16 size.

1/16サイズのエッジ度及び1/4サイズのエッジ度の例を、それぞれ図12(E)及び図12(F)に示す。図12(E)に示す1/16サイズエッジ度は、図12(A)に示す1/16サイズの画像データに基づいて算出されたエッジ度である。図12(F)に示す1/4サイズエッジ度は、図12(B)に示す1/4サイズの画像データに基づいて算出されたエッジ度である。 Examples of 1/16 size edge degree and 1/4 size edge degree are shown in FIGS. 12(E) and 12(F), respectively. The 1/16 size edge degree shown in FIG. 12(E) is an edge degree calculated based on the 1/16 size image data shown in FIG. 12(A). The 1/4 size edge degree shown in FIG. 12(F) is the edge degree calculated based on the 1/4 size image data shown in FIG. 12(B).

なお、上の説明では、エッジ度算出部610、611は、基準画像のエッジ強度と参照画像のエッジ強度のうち大きい方を選択し、エッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出するものとした。しかしながら、エッジ度の算出方法はこれに限定されない。例えば、エッジ度算出部610、611は、画素毎に基準画像と参照画像のエッジ強度の平均値を求め、エッジ度算出カーブに基づき、エッジ強度の平均値からエッジ度を算出してもよい。或いは、エッジ度算出部610、611は、画素毎に基準画像のエッジ強度のみを算出し、エッジ度算出カーブに基づき、基準画像のエッジ強度からエッジ度を算出してもよい。 Note that in the above description, the edge level calculation units 610 and 611 select the larger one of the edge level of the reference image and the edge level of the reference image, and calculate the edge level from the selected edge level based on the edge level calculation curve. calculated. However, the edge degree calculation method is not limited to this. For example, the edge level calculation units 610 and 611 may obtain the average value of the edge strengths of the standard image and the reference image for each pixel, and calculate the edge level from the average value of the edge strengths based on the edge level calculation curve. Alternatively, the edge degree calculation units 610 and 611 may calculate only the edge strength of the reference image for each pixel, and calculate the edge degree from the edge strength of the reference image based on the edge degree calculation curve.

図7に戻り、S705で、動体領域検出部202は、拡大処理部620、622、及び合成比率算出部630、631を用いて、画素毎に(即ち、所定の撮影範囲の各位置について)、エッジ度に基づき等倍サイズ合成比率及び1/4サイズ合成比率を算出する。S705の処理の詳細は後述する。 Returning to FIG. 7, in S705, the moving object region detection unit 202 uses the enlargement processing units 620 and 622 and the synthesis ratio calculation units 630 and 631 for each pixel (that is, for each position in the predetermined shooting range), A 1/4 size synthesis ratio and a 1/4 size synthesis ratio are calculated based on the edge degree. Details of the processing of S705 will be described later.

S706で、動体領域検出部202は、拡大処理部621、623、及び動体尤度合成部640、641を用いて、画素毎に(即ち、所定の撮影範囲の各位置について)、小さいサイズから順に動体尤度を合成する。この合成は、等倍サイズ合成比率及び1/4サイズ合成比率に従って行われる。 In step S706, the moving object region detection unit 202 uses the enlargement processing units 621 and 623 and the moving object likelihood combining units 640 and 641 to perform pixel-by-pixel (that is, each position in the predetermined shooting range) sequentially from the smallest size. Synthesize moving object likelihoods. This synthesis is performed according to the 1/4 size synthesis ratio and the 1/4 size synthesis ratio.

ここで、図10及び図12を参照して、S705及びS706の処理の詳細について説明する。まず、1/16サイズ動体尤度及び1/4サイズ動体尤度の合成に関係する処理について説明する。拡大処理部622は、1/16サイズエッジ度を縦横4倍に拡大する。この拡大により、1/16サイズエッジ度は、1/4サイズ相当の解像度を持つようになる。合成比率算出部631は、拡大された1/16サイズエッジ度に基づき、1/4サイズ合成比率を算出する。1/4サイズ合成比率は、拡大された1/16サイズエッジ度と同様、1/4サイズ相当の解像度を持つ。 Here, details of the processing of S705 and S706 will be described with reference to FIGS. 10 and 12. FIG. First, processing related to synthesis of the 1/16 size moving object likelihood and the 1/4 size moving object likelihood will be described. The enlargement processing unit 622 enlarges the 1/16 size edge degree to 4 times vertically and horizontally. By this enlargement, the 1/16 size edge degree has a resolution equivalent to 1/4 size. A synthesis ratio calculation unit 631 calculates a 1/4 size synthesis ratio based on the enlarged 1/16 size edge degree. The 1/4 size synthesis ratio has a resolution equivalent to 1/4 size, like the enlarged 1/16 size edge degree.

ここで、1/4サイズ合成比率の算出カーブの例を図10(B)に示す。合成比率算出部631は、1/4サイズ合成比率の算出カーブに基づき、拡大された1/16サイズエッジ度から1/4サイズ合成比率を算出する。1/4サイズ合成比率の算出カーブは、図10(B)に示すように、エッジ度が大きいほど1/4サイズ動体尤度の合成比率が高くなるように設計されている。これにより、エッジ度が小さい平坦部では、1/16サイズ動体尤度の合成比率が高くなり、エッジ度が大きいエッジ部では、1/4サイズ動体尤度の合成比率が高くなる。1/16サイズの画像データは、縮小処理時の平滑化処理により、1/4サイズの画像データよりもランダムノイズが低減されている。そのため、1/16サイズ動体尤度の方が、1/4サイズ動体尤度よりも、ランダムノイズを動きとして誤検出してしまう可能性が低い。従って、エッジ度が小さい平坦部では、ランダムノイズの悪影響を受けにくい1/16サイズ動体尤度の合成比率を高くすることにより、ランダムノイズの悪影響を受けにくい合成動体尤度を生成することができる。 Here, FIG. 10B shows an example of a curve for calculating the 1/4 size synthesis ratio. The synthesis ratio calculator 631 calculates a 1/4 size synthesis ratio from the enlarged 1/16 size edge degree based on the 1/4 size synthesis ratio calculation curve. As shown in FIG. 10B, the curve for calculating the 1/4 size synthesis ratio is designed such that the higher the edge degree, the higher the synthesis ratio of the 1/4 size moving object likelihood. As a result, the synthesis ratio of the 1/16 size moving object likelihood is high in flat portions with a small edge degree, and the synthesis ratio of the 1/4 size moving object likelihood is high in an edge portion with a high edge degree. The 1/16 size image data has less random noise than the 1/4 size image data due to smoothing processing during reduction processing. Therefore, the 1/16 size moving object likelihood is less likely to erroneously detect random noise as motion than the 1/4 size moving object likelihood. Therefore, in a flat portion with a small edge degree, by increasing the synthesis ratio of 1/16 size moving object likelihoods that are less likely to be adversely affected by random noise, it is possible to generate synthetic moving object likelihoods that are less likely to be adversely affected by random noise. .

1/4サイズ合成比率の例を図12(G)に示す。図12(G)に示す1/4サイズ合成比率は、図12(E)に示す1/16サイズエッジ度に基づき算出された合成比率である。1/4サイズ合成比率は、1/16サイズエッジ度が小さい領域で0%を示している。そのため、エッジ度が小さい平坦部では、1/16サイズ動体尤度の合成比率が100%となり、ランダムノイズによる悪影響を抑制することができる。一方、移動被写体の輪郭(移動被写体と背景との境界)はエッジ度が大きいため、1/4サイズ動体尤度の合成比率が高くなる。そのため、1/4サイズ合成動体尤度は、単純に縦横を4倍に拡大した1/16サイズ動体尤度に比べ、移動被写体の輪郭により正確に対応した値となる。 An example of the 1/4 size synthesis ratio is shown in FIG. 12(G). The 1/4 size composite ratio shown in FIG. 12(G) is a composite ratio calculated based on the 1/16 size edge degree shown in FIG. 12(E). The 1/4 size synthesis ratio indicates 0% in areas where the 1/16 size edge degree is small. Therefore, in a flat portion with a small edge degree, the synthesis ratio of the 1/16 size moving object likelihood is 100%, and the adverse effects of random noise can be suppressed. On the other hand, since the outline of the moving subject (the boundary between the moving subject and the background) has a high degree of edge, the combination ratio of the 1/4 size moving subject likelihood is high. Therefore, the 1/4 size composite moving object likelihood is a value that more accurately corresponds to the contour of the moving subject than the 1/16 size moving object likelihood that is simply expanded vertically and horizontally by four times.

拡大処理部623は、1/16サイズ動体尤度を縦横4倍に拡大する。この拡大により、1/16サイズ動体尤度は、1/4サイズ相当の解像度を持つようになる。動体尤度合成部641は、1/4サイズ合成比率に基づき、1/4サイズ動体尤度と拡大された1/16サイズ動体尤度とを合成し、1/4サイズ合成動体尤度を生成する。この合成は、下記の式(7)に従って行われる。
MC4 = wm4×M4+(1-wm4)×M16 ・・・(7)
ここで、M4は1/4サイズ動体尤度を表し、M16は拡大された1/16サイズ動体尤度を表し、wm4は1/4サイズ合成比率を表し、MC4は1/4サイズ合成動体尤度を表す。
The enlargement processing unit 623 enlarges the 1/16 size moving object likelihood four times vertically and horizontally. As a result of this enlargement, the 1/16 size moving object likelihood has a resolution corresponding to 1/4 size. Based on the 1/4 size synthesis ratio, the moving object likelihood synthesizing unit 641 synthesizes the 1/4 size moving object likelihood and the expanded 1/16 size moving object likelihood to generate a 1/4 size synthetic moving object likelihood. do. This synthesis is performed according to Equation (7) below.
MC4 = wm4 x M4 + (1 - wm4) x M16 (7)
Here, M4 represents the 1/4 size moving object likelihood, M16 represents the expanded 1/16 size moving object likelihood, wm4 represents the 1/4 size combining ratio, and MC4 represents the 1/4 size combining moving object likelihood. represents degrees.

1/4サイズ合成動体尤度の例を図12(H)に示す。図12(H)に示す1/4サイズ合成動体尤度は、図12(G)に示す1/4サイズ合成比率に基づき、図12(C)に示す1/16サイズ動体尤度(拡大後)と図12(D)に示す1/4サイズ動体尤度とを合成することにより得られたものである。図12(H)に示す1/4サイズ合成動体尤度は、図12(C)に示す1/16サイズ動体尤度よりもエッジ付近のコントラストが鮮鋭になっている。これは、移動被写体の輪郭近傍で1/16サイズエッジ度(図12(E)参照)が高くなった影響により、1/4サイズ合成比率(図12(G)参照)が高くなったためである。 FIG. 12(H) shows an example of the 1/4 size synthetic moving object likelihood. The 1/4 size synthetic moving object likelihood shown in FIG. 12(H) is based on the 1/4 size synthetic ratio shown in FIG. ) and the 1/4 size moving object likelihood shown in FIG. 12(D). The 1/4 size synthetic moving object likelihood shown in FIG. 12(H) has a sharper contrast near the edge than the 1/16 size moving object likelihood shown in FIG. 12(C). This is because the 1/16 size edge rate (see FIG. 12(E)) increases near the contour of the moving subject, resulting in a higher 1/4 size synthesis ratio (see FIG. 12(G)). .

次に、1/4サイズ動体尤度及び1/4サイズ合成動体尤度の合成に関係する処理について説明する。拡大処理部620は、1/4サイズエッジ度を縦横4倍に拡大する。この拡大により、1/4サイズエッジ度は、等倍サイズ相当の解像度を持つようになる。合成比率算出部630は、拡大された1/4サイズエッジ度に基づき、等倍サイズ合成比率を算出する。等倍サイズ合成比率は、拡大された1/4サイズエッジ度と同様、等倍サイズ相当の解像度を持つ。 Next, processing related to synthesis of the 1/4 size moving object likelihood and the 1/4 size synthetic moving object likelihood will be described. The enlargement processing unit 620 enlarges the 1/4 size edge degree vertically and horizontally four times. Due to this enlargement, the 1/4 size edge degree has a resolution equivalent to the full size. Composite ratio calculation section 630 calculates the same size composite ratio based on the enlarged 1/4 size edge degree. The same size compositing ratio has a resolution equivalent to the same size as the enlarged 1/4 size edge degree.

ここで、等倍サイズ合成比率の算出カーブの例を図10(A)に示す。合成比率算出部630は、等倍サイズ合成比率の算出カーブに基づき、拡大された1/4サイズエッジ度から等倍サイズ合成比率を算出する。等倍サイズ合成比率の算出カーブは、図10(A)に示すように、エッジ度が中程度の所定範囲内の場合に等倍サイズ動体尤度の合成比率が高くなるように設計されている。このような設計を行う理由は2つある。 Here, FIG. 10A shows an example of a curve for calculating the same-size synthesis ratio. Composite ratio calculation section 630 calculates the same size composite ratio from the enlarged 1/4 size edge degree based on the calculation curve for the same size composite ratio. As shown in FIG. 10A, the curve for calculating the same-size synthesis ratio is designed so that the synthesis ratio of the same-size moving object likelihood becomes high when the edge degree is within a medium predetermined range. . There are two reasons for such a design.

1つ目の理由は、エッジ度が大きくなる高コントラストエッジの微小な位置ズレや被写体の動きを過敏に動きとして検出することを抑制するためである。等倍サイズの基準画像及び参照画像においては、コントラストが高いエッジの位置が微小にでもずれていると、動体尤度が大きくなる。このような領域について合成動体尤度が高くなり、図3のS304においてこのような領域に対する合成処理が行われない場合、ノイズ低減がなされない。そのため、最終的に得られる合成画像において、微小に位置がずれている高コントラストエッジがノイジーになってしまう。そこで、図10(A)に示すように、高コントラストエッジ領域については、等倍サイズ動体尤度ではなく、より低解像度(サイズ)の動体尤度の合成比率が高くなるように、等倍サイズ合成比率の算出カーブは設計されている。 The first reason is to suppress sensitive detection of a minute positional shift of a high-contrast edge and movement of a subject, which increases the degree of edge, as movement. In the same-size standard image and reference image, if the position of the high-contrast edge deviates even slightly, the moving object likelihood increases. If the synthetic moving object likelihood is high for such an area and the synthetic processing for such an area is not performed in S304 of FIG. 3, noise reduction is not performed. As a result, high-contrast edges that are slightly misaligned become noisy in the finally obtained synthesized image. Therefore, as shown in FIG. 10A, for the high-contrast edge region, instead of using the same-size moving object likelihood, the moving object likelihood of a lower resolution (size) is used to increase the synthesis ratio of the same-size moving object likelihood. The composite ratio calculation curve is designed.

2つ目の理由は、エッジ度が小さい被写体の動きを検出するためである。エッジ度が小さい被写体としては、例えば、低コントラストエッジを持つ被写体、細い線を持つ被写体、ドット状の小さい被写体などが挙げられる。低コントラストエッジ領域では、被写体が移動しても、フレーム間差分絶対値は比較的小さい。縮小処理を行うことによりフレーム間差分絶対値が更に小さくなるため、1/4サイズ動体尤度や1/16サイズ動体尤度にはこのような被写体の動きが含まれていない可能性がある。そこで、エッジ度が小さい被写体の動きは、等倍サイズ動体尤度に基づいて判定する必要がある。そこで、図10(A)に示すように、エッジ度が中程度の所定範囲(第2の範囲)内にある低コントラストエッジ領域に対して、等倍サイズ動体尤度の合成比率が高く設定されている。一方、エッジ度が小さい所定範囲(第1の範囲)内にある平坦部については、1/4サイズ動体尤度及び1/16サイズ動体尤度に基づく1/4サイズ合成動体尤度の合成比率が高く設定されている。同様に、エッジ度が大きい所定範囲(第3の範囲)内にある高コントラストエッジについては、1/4サイズ動体尤度及び1/16サイズ動体尤度に基づく1/4サイズ合成動体尤度の合成比率が高く設定されている。これにより、ランダムノイズの悪影響を受けにくい等倍サイズ合成動体尤度を生成することができる。 The second reason is to detect motion of a subject with a low edge degree. Subjects with a low edge degree include, for example, subjects with low-contrast edges, subjects with thin lines, subjects with small dots, and the like. In the low-contrast edge region, even if the subject moves, the inter-frame difference absolute value is relatively small. Since the absolute value of the inter-frame difference is further reduced by performing the reduction processing, there is a possibility that the 1/4 size moving object likelihood and the 1/16 size moving object likelihood do not include such motion of the subject. Therefore, it is necessary to determine the motion of a subject with a low edge degree based on the same-size moving object likelihood. Therefore, as shown in FIG. 10A, the synthetic ratio of the same-size moving object likelihood is set high for a low-contrast edge region within a predetermined range (second range) with a medium edge degree. ing. On the other hand, for flat portions within a predetermined range (first range) where the edge degree is small, the composite ratio of the 1/4 size composite moving object likelihood based on the 1/4 size moving object likelihood and the 1/16 size moving object likelihood is set high. Similarly, for high-contrast edges within a predetermined range (third range) where the edge degree is large, the 1/4 size synthetic moving object likelihood based on the 1/4 size moving object likelihood and the 1/16 size moving object likelihood The composition ratio is set high. As a result, it is possible to generate the same-size synthetic moving object likelihood that is less likely to be adversely affected by random noise.

なお、合成比率算出部630は、図10(A)に示す算出カーブの代わりに図10(B)に示す算出カーブを用いてもよい。同様に、合成比率算出部631は、図10(B)に示す算出カーブの代わりに図10(A)に示す算出カーブを用いてもよい。 Note that the combining ratio calculator 630 may use the calculation curve shown in FIG. 10B instead of the calculation curve shown in FIG. 10A. Similarly, the combining ratio calculator 631 may use the calculation curve shown in FIG. 10(A) instead of the calculation curve shown in FIG. 10(B).

拡大処理部621は、1/4サイズ合成動体尤度を縦横4倍に拡大する。この拡大により、1/4サイズ動体尤度は、等倍サイズ相当の解像度を持つようになる。動体尤度合成部640は、等倍サイズ動体尤度の合成比率に基づき、等倍サイズ動体尤度と拡大された1/4サイズ合成動体尤度とを合成し、等倍サイズ合成動体尤度を生成する。この合成は、下記の式(8)に従って行われる。
MC1 = wm1×M1+(1-wm1)×MC4’ ・・・(8)
ここで、M1は等倍サイズ動体尤度を表し、MC4’は拡大された1/4サイズ合成動体尤度を表し、wm1は等倍サイズ動体尤度の合成比率を表し、MC1は等倍サイズ合成動体尤度を表す。
The enlargement processing unit 621 enlarges the 1/4 size synthetic moving object likelihood four times vertically and horizontally. By this enlargement, the 1/4 size moving object likelihood has a resolution corresponding to the same size. A moving object likelihood synthesizing unit 640 synthesizes the same size moving object likelihood and the enlarged 1/4 size synthetic moving object likelihood based on the synthetic ratio of the same size moving object likelihood, and obtains the same size synthetic moving object likelihood. to generate This synthesis is performed according to Equation (8) below.
MC1 = wm1 x M1 + (1 - wm1) x MC4' (8)
Here, M1 represents the same-size moving object likelihood, MC4′ represents the enlarged 1/4-size combined moving-object likelihood, wm1 represents the combining ratio of the same-size moving object likelihood, and MC1 represents the same-size moving object likelihood. represents the synthetic moving object likelihood.

こうして得られた等倍サイズ合成動体尤度、図3のS304において基準画像の合成比率wを決定するために用いられる。 The same-size synthetic moving object likelihood thus obtained is used to determine the synthetic ratio w of the reference image in S304 of FIG.

ところで、上での説明では、等倍サイズ、1/4サイズ、及び1/16サイズの異なる3種類の解像度(サイズ)の画像データに基づき最終的な合成動体尤度(等倍サイズ合成動体尤度)を算出するものとした。しかしながら、合成動体尤度を算出するための画像データの解像度の組み合わせはこれに限定されない。例えば、倍率(縮小率)は1/4倍に限らず、1/2倍でもよい。また、解像度の種類は3種類に限定されず、例えば4種類以上の解像度の画像データ、又は異なる2種類の解像度の画像データに基づいて合成動体尤度を算出してもよい。 By the way, in the above description, the final synthetic moving object likelihood (same size synthetic moving object likelihood degree) shall be calculated. However, the combination of image data resolutions for calculating the composite moving object likelihood is not limited to this. For example, the magnification (reduction rate) is not limited to 1/4, and may be 1/2. Also, the types of resolutions are not limited to three types. For example, the synthetic moving object likelihood may be calculated based on image data with four or more types of resolutions, or image data with two different types of resolutions.

また、上の説明では、等倍サイズ合成比率の算出カーブのみが、図10(A)に示すように、エッジ度が中程度の所定範囲である低コントラストエッジ領域に対して、等倍サイズ動体尤度の合成比率を高くするように設計されているものとした。しかしながら、合成比率の算出カーブの設計はこれに限定されない。例えば、合成動体尤度を算出する際に、より高解像度画像から所定数の解像度の動体尤度を合成する場合は、図10(A)のような合成比率の算出カーブを用いてもよい。具体例として、等倍サイズの次に小さい画像データの倍率(縮小率)が1/2倍であって、異なる5種類の解像度の画像データに基づいて合成動体尤度を算出する場合を考える。この場合、等倍サイズ合成動体尤度及び1/2サイズ合成動体尤度を算出する際は、図10(A)のような合成比率の算出カーブを用いてもよい。また、これ以外の倍率(例えば、1/4サイズ及び1/8サイズ)の合成動体尤度を算出する際は、図10(B)のような合成比率の算出カーブを用いてもよい。 Further, in the above description, only the curve for calculating the same-size synthesis ratio is applied to a low-contrast edge region, which is a predetermined range with an intermediate degree of edge, as shown in FIG. 10A. It was assumed that it was designed to increase the composite ratio of likelihoods. However, the design of the synthesis ratio calculation curve is not limited to this. For example, when calculating the synthetic moving object likelihood, when synthesizing moving object likelihoods with a predetermined number of resolutions from higher resolution images, a synthesis ratio calculation curve as shown in FIG. 10A may be used. As a specific example, consider a case where the magnification (reduction rate) of the next smallest image data after the normal size is 1/2, and the composite moving object likelihood is calculated based on image data with five different resolutions. In this case, when calculating the 1/2 size synthetic moving object likelihood and the 1/2 size synthetic moving object likelihood, a synthesis ratio calculation curve as shown in FIG. 10A may be used. Also, when calculating the synthetic moving object likelihood of other magnifications (for example, 1/4 size and 1/8 size), a synthetic ratio calculation curve as shown in FIG. 10B may be used.

また、合成比率算出部630、631が用いる合成比率の算出カーブは、撮影時の感度情報に応じて変更してもよい。感度が高い場合の合成比率の算出カーブの例を図13に示す。感度が高い場合、基準画像及び参照画像のランダムノイズの度合いが大きくなる(振幅が高くなる)ため、ランダムノイズを動きと誤検出する可能性が上昇する。そのため、ランダムノイズの影響を受けにくい、より低解像度の画像データに基づいて算出した動体尤度の合成比率を高くする。図13(B)は、基準画像及び参照画像が高感度で撮影された場合に、合成比率算出部631が使用する1/4サイズ合成比率の算出カーブの例を示す。図10(B)と比較すると、1/4サイズ合成比率の上限が50%に制限されている。これにより、エッジ度が大きい場合でも1/16サイズ動体尤度の合成比率が50%となる。従って、より低解像度の画像データに基づいて算出した動体尤度の合成比率が高くなる。図13(A)は、基準画像及び参照画像が高感度で撮影された場合に、合成比率算出部630が使用する等倍サイズ合成比率の算出カーブの例を示す。図10(A)と比較すると、等倍サイズ合成比率の上限が50%に制限されている。これにより、低コントラストエッジの場合でも1/4サイズ動体尤度の合成比率が50%となる。従って、より低解像度の画像データに基づいて算出した動体尤度の合成比率が高くなる。なお、基準画像及び参照画像の撮影時の感度が相異なる場合、合成比率算出部630、631は、基準画像及び参照画像の少なくとも一方の撮影時の感度に基づいて算出カーブを変更してもよい。 Further, the combining ratio calculation curve used by the combining ratio calculation units 630 and 631 may be changed according to the sensitivity information at the time of shooting. FIG. 13 shows an example of a curve for calculating a synthesis ratio when sensitivity is high. When the sensitivity is high, the degree of random noise in the standard image and the reference image increases (increases in amplitude), so the possibility of erroneously detecting random noise as motion increases. Therefore, the composite ratio of the moving object likelihood calculated based on lower resolution image data, which is less susceptible to random noise, is increased. FIG. 13B shows an example of a curve for calculating the 1/4 size composition ratio used by the composition ratio calculator 631 when the standard image and the reference image are shot at high sensitivity. Compared to FIG. 10B, the upper limit of the 1/4 size synthesis ratio is limited to 50%. As a result, even when the edge degree is large, the synthesis ratio of the 1/16 size moving object likelihood is 50%. Therefore, the composite ratio of the moving object likelihood calculated based on the lower resolution image data is increased. FIG. 13A shows an example of a curve for calculating the same-size composite ratio used by the composite ratio calculator 630 when the standard image and the reference image are captured at high sensitivity. Compared to FIG. 10A, the upper limit of the same size composition ratio is limited to 50%. As a result, even in the case of low-contrast edges, the synthesis ratio of the 1/4 size moving object likelihood is 50%. Therefore, the composite ratio of the moving object likelihood calculated based on the lower resolution image data is increased. Note that if the reference image and the reference image have different sensitivities when photographed, the combining ratio calculation units 630 and 631 may change the calculation curve based on the sensitivity when photographing at least one of the standard image and the reference image. .

また、上の説明では、より低解像度の画像データで算出したエッジ度を拡大して動体尤度の合成比率を算出するものとしたが、合成比率の算出方法はこれに限定されない。例えば、図6において、合成比率算出部631は、エッジ度算出部611が算出する1/16サイズエッジ度を縦横4倍に拡大したエッジ度とエッジ度算出部610が算出する1/4サイズエッジ度の両方に基づき、合成比率を算出してもよい。この場合、例えば、合成比率算出部631は、1/16サイズエッジ度を縦横4倍に拡大したエッジ度と1/4サイズエッジ度の平均、又はどちらか大きい方のエッジ度に基づき、合成比率を算出する。このような方法で合成比率を算出することにより、エッジ近傍のエッジ度がより大きくなるため、エッジ近傍において1/4サイズ動体尤度の合成比率が高くなる。そのため、移動被写体の輪郭により正確に沿った合成動体尤度を算出することができる。更に一般化すると、エッジ度算出部610は、等倍サイズ基準画像、等倍サイズ参照画像、1/4サイズ基準画像、及び1/4サイズ参照画像の少なくともいずれかに基づいて、合成比率算出部630が使用するエッジ度を算出することができる。また、エッジ度算出部611は、1/4サイズ基準画像、1/4サイズ参照画像、1/16サイズ基準画像、及び1/16サイズ参照画像の少なくともいずれかに基づいて、合成比率算出部631が使用するエッジ度を算出することができる。 Further, in the above description, the edge degree calculated with image data of lower resolution is expanded to calculate the composite ratio of the moving object likelihood, but the calculation method of the composite ratio is not limited to this. For example, in FIG. 6, the synthesis ratio calculation unit 631 calculates the edge degree obtained by expanding the 1/16 size edge degree calculated by the edge degree calculation unit 611 by four times vertically and horizontally, and the 1/4 size edge degree calculated by the edge degree calculation unit 610. A composite ratio may be calculated based on both degrees. In this case, for example, the synthesis ratio calculation unit 631 calculates the synthesis ratio based on the average of the edge degree obtained by enlarging the 1/16 size edge degree by four times vertically and horizontally and the 1/4 size edge degree, or based on whichever is larger. Calculate By calculating the synthesis ratio by such a method, the degree of edge near the edge increases, so the synthesis ratio of the 1/4 size moving object likelihood increases near the edge. Therefore, it is possible to calculate the synthetic moving object likelihood along the contour of the moving object more accurately. Further generalizing, the edge degree calculation unit 610 calculates the composite ratio calculation unit 630 can be used to calculate the edge measure. Further, the edge degree calculation unit 611 calculates the composite ratio calculation unit 631 based on at least one of the 1/4 size reference image, the 1/4 size reference image, the 1/16 size reference image, and the 1/16 size reference image. can calculate the edge measure used by .

また、上の説明では、エッジ度を算出する際に、エッジ強度の算出元となった画像データの種類に関わらず同一のエッジ度算出カーブ(図9参照)を使用するものとした。しかし、エッジ度算出カーブは様々な条件に応じて変化してもよい。例えば、動体尤度算出カーブと同様に、エッジ強度の算出元となった画像データの解像度に応じて、エッジ度算出カーブを変えてもよい。例えば、図8の動体尤度算出カーブと同様に、ランダムノイズがより低減されている、より低解像度のエッジ度算出カーブほど、エッジ度算出カーブの閾値を小さい値にする。一方、ランダムノイズが低減されていないより高解像度のエッジ度算出カーブほど、エッジ度算出カーブの閾値を大きい値にする。このように、エッジ強度の算出元となった画像データの解像度に応じてエッジ度算出カーブを変えることにより、ランダムノイズをエッジと誤検出してしまうことを抑制することができる。 Further, in the above description, the same edge degree calculation curve (see FIG. 9) is used when calculating the edge degree regardless of the type of image data from which the edge strength is calculated. However, the edge degree calculation curve may change according to various conditions. For example, similar to the moving object likelihood calculation curve, the edge degree calculation curve may be changed according to the resolution of the image data from which the edge strength was calculated. For example, as with the moving object likelihood calculation curve in FIG. 8, the lower the resolution of the edge degree calculation curve, in which the random noise is reduced, the smaller the threshold value of the edge degree calculation curve. On the other hand, the higher the resolution of the edge degree calculation curve in which the random noise is not reduced, the larger the threshold of the edge degree calculation curve. In this way, by changing the edge degree calculation curve according to the resolution of the image data from which the edge strength is calculated, it is possible to prevent random noise from being erroneously detected as an edge.

また、上の説明では、等倍サイズ合成動体尤度を、ランダムノイズを低減するために基準画像及び参照画像を合成する際に使用するものとしたが、等倍サイズ合成動体尤度の用途はこれに限定されない。例えば、異なる露出で撮影した複数の画像を合成することによりダイナミックレンジを拡大するHDR合成機能のために等倍サイズ合成動体尤度を使用してもよい。この場合、異なる露出で撮影した基準画像と参照画像の明るさレベルを合わせ、動体領域検出部202に入力することにより、等倍サイズ合成動体尤度を算出することができる。 Also, in the above explanation, the same-size synthetic moving object likelihood is used when synthesizing the standard image and the reference image to reduce random noise, but the usage of the same-size synthetic moving object likelihood is It is not limited to this. For example, the same size synthetic moving object likelihood may be used for an HDR compositing function that expands the dynamic range by compositing multiple images taken with different exposures. In this case, by matching the brightness levels of the standard image and the reference image captured at different exposures and inputting them to the moving object region detection unit 202, the same size combined moving object likelihood can be calculated.

以上説明したように、第1の実施形態によれば、撮像装置100は、基準画像及び参照画像から、縮小された基準画像及び参照画像を生成する。そして、撮像装置100は、基準画像と参照画像の差分に基づいて第1の動体尤度を生成し、縮小された基準画像と参照画像の差分に基づいて第2の動体尤度を生成する。そして、撮像装置100は、撮影範囲の各位置のエッジ度に基づいて決定される合成比率に従って第1の動体尤度と第2の動体尤度とを合成する。これにより、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。 As described above, according to the first embodiment, the imaging device 100 generates reduced standard images and reference images from standard images and reference images. Then, the imaging device 100 generates a first moving object likelihood based on the difference between the base image and the reference image, and generates a second moving object likelihood based on the difference between the reduced base image and the reference image. Then, the imaging device 100 synthesizes the first moving object likelihood and the second moving object likelihood according to a synthesis ratio determined based on the edge degree of each position in the imaging range. This makes it possible to improve the detection accuracy of a moving object region based on the pixel value difference between images.

[第2の実施形態]
第1の実施形態では、エッジ度に基づいて決定される合成比率に従って動体尤度を合成する構成について説明した。一方、第2の実施形態では、上位階層の動体尤度と下位階層の動体尤度との差に基づいて決定される合成比率に従って動体尤度を合成する構成について説明する。ここで言う「階層」とは、基準画像及び参照画像に関する特定の倍率(縮小率)を意味する。
[Second embodiment]
1st Embodiment demonstrated the structure which synthesize|combines moving object likelihood according to the compositing ratio determined based on edge degree. On the other hand, in the second embodiment, a configuration will be described in which moving object likelihoods are synthesized according to a synthesis ratio determined based on the difference between the moving object likelihoods of the upper layer and the moving object likelihoods of the lower layer. The term "hierarchy" used herein means a specific magnification (reduction ratio) for the standard image and the reference image.

第2の実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1及び図2参照)。但し、図2の動体領域検出部202の詳細な構成は、第1の実施形態では図6に示す構成であったが、第2の実施形態では図16に示す構成である。また、図3のS303において実行される処理は、第1の実施形態では図7に示す処理であったが、第2の実施形態では図15に示す処理が実行される。また、図3のS304における画像合成処理は、第1の実施形態では図7に示す処理により生成される合成動体尤度に従って行われたが、第2の実施形態では図15に示す処理により生成される合成動体尤度に従って行われる。以下、主に第1の実施形態と異なる点について説明する。 In the second embodiment, the basic configuration of an imaging device 100 is the same as in the first embodiment (see FIGS. 1 and 2). However, although the detailed configuration of the moving object region detection unit 202 in FIG. 2 was the configuration shown in FIG. 6 in the first embodiment, it is the configuration shown in FIG. 16 in the second embodiment. Also, the processing executed in S303 of FIG. 3 was the processing shown in FIG. 7 in the first embodiment, but the processing shown in FIG. 15 is executed in the second embodiment. In addition, the image synthesizing process in S304 of FIG. 3 is performed according to the synthetic moving object likelihood generated by the process shown in FIG. 7 in the first embodiment, but in the second embodiment it is generated by the process shown in FIG. It is performed according to the synthetic moving object likelihood that is calculated. Differences from the first embodiment will be mainly described below.

最初に、図4及び図14を参照して、階層動体検出の概要を説明する。図14は、3つの異なる解像度での動体尤度、及び最終的な合成動体尤度を示す概要図である。本実施形態では、撮像装置100は、基準画像の画素値と参照画像の画素値との差分に基づく動体尤度として、基準画像と参照画像との間の差分絶対値和(SAD)を用いるものとする。しかしながら、撮像装置100は、第1の実施形態と同様の動体尤度を用いてもよい。即ち、撮像装置100は、基準画像と参照画像との間のフレーム間差分絶対値を画素毎に算出し、図8(A)~(C)に示す動体尤度算出カーブに従って動体尤度を算出してもよい。 First, with reference to FIGS. 4 and 14, an outline of hierarchical moving body detection will be described. FIG. 14 is a schematic diagram showing the motion likelihood at three different resolutions and the final composite motion likelihood. In the present embodiment, the imaging apparatus 100 uses the sum of absolute differences (SAD) between the standard image and the reference image as the moving object likelihood based on the difference between the pixel values of the standard image and the reference image. and However, the imaging device 100 may use the same moving object likelihood as in the first embodiment. That is, the imaging apparatus 100 calculates the inter-frame difference absolute value between the base image and the reference image for each pixel, and calculates the moving object likelihood according to the moving object likelihood calculation curves shown in FIGS. You may

撮像装置100は、図4(A)の基準画像及び図4(C)の位置合わせ済み参照画像について、各階層のSADを算出する(図14の「x1/16階層のSAD」、「x1/4階層のSAD」、及び「x1/1階層(等倍階層)のSAD」参照)。そして、撮像装置100は、各階層のSADを合成することにより、合成SAD(合成動体尤度)を生成する(図14の「合成SAD」参照)。なお、図14において、白色の領域は、フレーム間で差分が発生し、動体領域として検出された領域を表わす。また、「x1/16階層」、「x1/4階層」、及び「x1/1階層(等倍階層)」は、それぞれ、第1の実施形態で述べた1/16サイズ、1/4サイズ、等倍サイズに対応する。 The imaging apparatus 100 calculates the SAD of each layer for the reference image in FIG. 4A and the aligned reference image in FIG. 4-hierarchy SAD” and “x1/1-hierarchy (same size hierarchy) SAD”). Then, the imaging device 100 generates a synthesized SAD (synthesized moving object likelihood) by synthesizing the SADs of each layer (see “Synthetic SAD” in FIG. 14). In FIG. 14, white areas represent areas where differences occur between frames and are detected as moving object areas. In addition, "x1/16 layer", "x1/4 layer", and "x1/1 layer (same size layer)" are respectively 1/16 size, 1/4 size, and 1/4 size described in the first embodiment. Corresponds to the same size.

図14において、位置1401~1404は、同じ背景領域の位置を表し、位置1411~1414は、同じ人領域の位置を表わす。位置1401~1403を見ると、解像度が高い階層ほど背景領域に多くの差分が検出されていることが分かる。これは、ノイズが画像データに乗ることで、被写体が動かなくても画像間の差分が検出されていることが要因である。逆に解像度が低い階層では、ノイズによる耐性が強く、ノイズが差分情報として検出されにくくなる。しかしながら、解像度が荒くなることで、動きが発生している領域については、実際よりも大きな領域が検出されやすい。例えば、位置1411では、位置1413に比べて大きな動体領域が検出されている。中間解像度に対応する位置1402や位置1412では、ノイズの耐性がやや強く、動体領域の輪郭も移動被写体の輪郭に比較的沿っている。即ち、中間解像度の階層は、高解像度の階層と低解像度の階層との間の特徴を持つ。これらの異なる階層のSADを合成することで、図14の「合成SAD」に示すような情報を得ることができる。これにより、ノイズ耐性が強く、かつ移動被写体の輪郭に沿った動体領域を検出することが可能となる。 In FIG. 14, positions 1401-1404 represent the same background region positions, and positions 1411-1414 represent the same person region positions. Looking at the positions 1401 to 1403, it can be seen that more differences are detected in the background area in higher resolution layers. This is because the difference between the images is detected even if the subject does not move because noise is added to the image data. Conversely, in a layer with a low resolution, resistance to noise is strong, and noise is less likely to be detected as differential information. However, as the resolution becomes coarser, a motion-occurring region is likely to be detected as being larger than it actually is. For example, at position 1411, a larger moving object area than at position 1413 is detected. At positions 1402 and 1412 corresponding to the intermediate resolution, the noise resistance is somewhat high, and the outline of the moving object area is relatively along the outline of the moving subject. That is, the intermediate resolution hierarchy has characteristics between the high resolution hierarchy and the low resolution hierarchy. By synthesizing the SADs of these different hierarchies, it is possible to obtain information as shown in "composite SAD" in FIG. As a result, it is possible to detect a moving object area along the contour of a moving subject with high noise resistance.

次に、図15及び図16を参照して、動体領域検出部202が実行する合成動体尤度算出処理について説明する。S1501で、動体領域検出部202は、図7のS701と同様に、基準画像及び参照画像を取得する。 Next, synthetic moving object likelihood calculation processing executed by the moving object region detection unit 202 will be described with reference to FIGS. 15 and 16. FIG. In S1501, the moving object region detection unit 202 acquires a standard image and a reference image, as in S701 of FIG.

S1502で、縮小処理部1650は、基準画像及び参照画像に対して縮小処理を行うことにより、縮小された基準画像及び参照画像を生成する。具体的には、縮小処理部1650は、図7のS702と同様に、1/4サイズ基準画像、1/4サイズ参照画像、1/16サイズ基準画像、及び1/16サイズ参照画像を生成する。 In S1502, the reduction processing unit 1650 generates a reduced base image and reference image by performing reduction processing on the base image and the reference image. Specifically, the reduction processing unit 1650 generates a 1/4 size reference image, a 1/4 size reference image, a 1/16 size reference image, and a 1/16 size reference image, as in S702 of FIG. .

S1503で、SAD算出部1611、1612、1613は、対応する解像度(サイズ)の基準画像と参照画像との間のSADを算出する。例えば、SAD算出部1611、1612、1613は、着目画素周辺の画素(例えば、着目画素周辺の3x3画素)も含めた差分絶対値和(SAD:Sum of Absolute Difference)を算出する。 In S1503, the SAD calculators 1611, 1612, and 1613 calculate the SAD between the base image and the reference image with corresponding resolutions (sizes). For example, the SAD calculators 1611, 1612, and 1613 calculate the sum of absolute differences (SAD) including pixels around the pixel of interest (for example, 3×3 pixels around the pixel of interest).

S1504で、動体領域検出部202は、拡大処理部1621、1622、及びSAD算出部1612、1613を用いて、階層間のSADの差を算出する。具体的には、拡大処理部1621、1622は、SAD算出部1612、1613により算出されたSADを縦横4倍に拡大する。この拡大により、SAD算出部1612により算出されたSADは、等倍サイズ相当の解像度を持ち、SAD算出部1613により算出されたSADは、1/4サイズ相当の解像度を持つようになる。次に、合成比率算出部1631、1632は、階層間のSADの差を算出する。具体的には、合成比率算出部1631は、SAD算出部1611により算出されたSADと、SAD算出部1612により算出され拡大処理部1621により拡大されたSADとの差を算出する。また、合成比率算出部1632は、SAD算出部1612により算出されたSADと、SAD算出部1613により算出され拡大処理部1622により拡大されたSADとの差を算出する。S1504における算出処理の詳細については、図21を参照して後述する。 In S<b>1504 , the moving object region detection unit 202 uses the enlargement processing units 1621 and 1622 and the SAD calculation units 1612 and 1613 to calculate the SAD difference between layers. Specifically, the enlargement processing units 1621 and 1622 enlarge the SAD calculated by the SAD calculation units 1612 and 1613 vertically and horizontally four times. As a result of this enlargement, the SAD calculated by the SAD calculation unit 1612 has a resolution equivalent to the same size as the SAD calculation unit 1613, and the SAD calculated by the SAD calculation unit 1613 has a resolution equivalent to 1/4 size. Next, the synthesis ratio calculators 1631 and 1632 calculate the difference in SAD between hierarchies. Specifically, the synthesis ratio calculator 1631 calculates the difference between the SAD calculated by the SAD calculator 1611 and the SAD calculated by the SAD calculator 1612 and expanded by the expansion processor 1621 . The synthesis ratio calculator 1632 also calculates the difference between the SAD calculated by the SAD calculator 1612 and the SAD calculated by the SAD calculator 1613 and expanded by the expansion processor 1622 . Details of the calculation process in S1504 will be described later with reference to FIG.

S1505で、合成比率算出部1631、1632は、S1504において算出されたSADの差に基づく閾値判定を行うことにより、合成比率を算出する。 In S1505, the synthesis ratio calculation units 1631 and 1632 calculate the synthesis ratio by performing threshold determination based on the SAD difference calculated in S1504.

S1506で、動体領域検出部202は、拡大処理部1623、1624、及びSAD合成部1641、1642を用いて、下位階層から順にSADを合成する。具体的には、拡大処理部1623は、SAD算出部1613により算出されたSADを縦横4倍に拡大する。この拡大により、SAD算出部1613により算出されたSADは、1/4サイズ相当の解像度を持つようになる。そして、SAD合成部1642は、SAD算出部1612により算出されたSADと、SAD算出部1613により算出され拡大処理部1623により拡大されたSADとを合成することにより、1/4サイズ合成SADを生成する。この合成は、合成比率算出部1632により算出された合成比率に従って行われる。次に、拡大処理部1624は、SAD合成部1642により生成された1/4サイズ合成SADを縦横4倍に拡大する。この拡大により、1/4サイズ合成SADは、等倍サイズ相当の解像度を持つようになる。そして、SAD合成部1641は、SAD算出部1611により算出されたSADと、拡大処理部1624により拡大された1/4サイズ合成SADとを合成することにより、等倍サイズ合成SADを生成する。この合成は、合成比率算出部1631により算出された合成比率に従って行われる。こうして生成された等倍サイズ合成SADは、図3のS304における合成処理のために使用される。 In S1506, the moving object region detection unit 202 uses the enlargement processing units 1623 and 1624 and the SAD synthesis units 1641 and 1642 to synthesize SADs in order from the lower hierarchy. Specifically, the enlargement processing unit 1623 enlarges the SAD calculated by the SAD calculation unit 1613 vertically and horizontally four times. Due to this enlargement, the SAD calculated by the SAD calculator 1613 has a resolution corresponding to 1/4 size. Then, the SAD synthesizing unit 1642 synthesizes the SAD calculated by the SAD calculating unit 1612 and the SAD calculated by the SAD calculating unit 1613 and enlarged by the enlarging processing unit 1623 to generate a 1/4 size synthetic SAD. do. This synthesis is performed according to the synthesis ratio calculated by the synthesis ratio calculator 1632 . Next, the enlargement processing unit 1624 enlarges the 1/4 size synthesized SAD generated by the SAD synthesis unit 1642 four times vertically and horizontally. Due to this enlargement, the 1/4 size composite SAD has a resolution equivalent to the same size. Then, the SAD synthesizing unit 1641 synthesizes the SAD calculated by the SAD calculating unit 1611 and the ¼ size synthetic SAD enlarged by the enlargement processing unit 1624 to generate the same size synthetic SAD. This synthesis is performed according to the synthesis ratio calculated by the synthesis ratio calculator 1631 . The same-size composite SAD thus generated is used for the composite processing in S304 of FIG.

上記の合成比率に従うSADの合成処理は、例えば下記の式(9)に従って実行することができる。
上位階層SAD×合成比率+下位階層SAD×(1-合成比率) ・・・(9)
ここで、0≦合成比率≦1である。また、「上位階層SAD」は、合成対象の2階層のうち解像度が大きい画像データの階層のSADを意味し、「下位階層SAD」は、合成対象の2階層のうち解像度が小さい画像データの階層のSADを意味する。但し、下位階層と更に下位の階層との間でSADの合成が行われる場合、「下位階層SAD」は、下位階層の合成SADに対応する。
The SAD synthesis processing according to the above synthesis ratio can be executed, for example, according to the following equation (9).
Upper layer SAD×synthesis ratio+lower layer SAD×(1−synthesis ratio) (9)
Here, 0≦synthesis ratio≦1. In addition, the “upper layer SAD” means the SAD of the image data layer with the higher resolution among the two layers to be synthesized, and the “lower layer SAD” is the layer of the image data with the lower resolution among the two layers to be synthesized. of SAD. However, when SAD synthesis is performed between a lower hierarchy and a further lower hierarchy, the "lower hierarchy SAD" corresponds to the synthesized SAD of the lower hierarchy.

式(9)の合成比率は、階層間のSADの差が大きいほど大きくなるように決定される。従って、式(9)の合成処理によれば、階層間のSADの差が大きいほど、得られる合成SADにおける上位階層SADの重みが大きくなる。 The combination ratio in equation (9) is determined so as to increase as the difference in SAD between layers increases. Therefore, according to the synthesizing process of Equation (9), the greater the difference in SAD between hierarchies, the greater the weight of the upper hierarchical SAD in the resulting synthesized SAD.

次に、図17、図18A、及び図18Bを参照して、合成比率算出部1631、1632の動作について詳細に説明する。なお、各階層の基準画像及び参照画像の画素値については、第1の実施形態と同様、図11及び図12(A)~(B)に示す画素値を用いる。図17(A)は、x1/1階層における基準画像と参照画像との間のSAD1713を示す。図17(B)は、x1/4階層における基準画像と参照画像との間のSAD1723を示す。図17(C)は、x1/16階層における基準画像と参照画像との間のSAD1733を示す。 Next, operations of the combining ratio calculation units 1631 and 1632 will be described in detail with reference to FIGS. 17, 18A, and 18B. As for the pixel values of the standard image and the reference image of each layer, the pixel values shown in FIGS. 11 and 12(A) to (B) are used as in the first embodiment. FIG. 17(A) shows the SAD 1713 between the base image and the reference image in the x1/1 hierarchy. FIG. 17(B) shows the SAD 1723 between the base image and the reference image in the x1/4 hierarchy. FIG. 17(C) shows the SAD 1733 between the base image and the reference image in the x1/16 layer.

合成比率算出部1632は、x1/16階層のSADとx1/4階層のSADとを合成するための合成比率を算出する。このときの合成比率は、x1/16階層のSADとx1/4階層のSADの差に基づいて算出される。なお、前述の通り、x1/16階層のSADは、拡大処理部1622により縦横4倍に拡大される。図18Aに示すように、合成比率算出部1632は、x1/16階層のSAD1733とx1/4階層のSAD1723との差1811を算出する。なお、差1811は厳密には差分絶対値であるが、単純化のため「差」と表記するものとする。SADの差1811が大きい領域では、下位階層(x1/16階層)において実際よりも広い動体領域が検出されている可能性がある。そのため、合成比率算出部1632は、SADの差1811が大きい領域では上位階層(x1/4階層)の合成比率が大きくなるように制御する。これは、合成比率変換カーブ1821を用いることにより実現可能である。合成比率変換カーブ1821は、SADの差に関して下限閾値1822及び上限閾値1823を持ち、これら2つの閾値の間で0%から100%の値を持つ。合成比率算出部1632は、合成比率変換カーブ1821に従って、SADの差1811を合成比率1831に変換する。 The synthesis ratio calculation unit 1632 calculates a synthesis ratio for synthesizing the x1/16 layer SAD and the x1/4 layer SAD. The synthesis ratio at this time is calculated based on the difference between the SAD of the x1/16 layer and the SAD of the x1/4 layer. As described above, the x1/16 layer SAD is enlarged vertically and horizontally by the enlargement processing unit 1622 four times. As shown in FIG. 18A, the synthesis ratio calculator 1632 calculates a difference 1811 between the SAD 1733 of the x1/16 layer and the SAD 1723 of the x1/4 layer. Strictly speaking, the difference 1811 is a difference absolute value, but for the sake of simplification, it is written as "difference". In a region where the SAD difference 1811 is large, there is a possibility that a moving object region wider than it actually is detected in the lower hierarchy (x1/16 hierarchy). Therefore, the synthesis ratio calculation unit 1632 performs control so that the synthesis ratio of the upper hierarchy (x1/4 hierarchy) is increased in the region where the SAD difference 1811 is large. This can be accomplished by using a composite ratio conversion curve 1821. FIG. Composite ratio conversion curve 1821 has a lower threshold 1822 and an upper threshold 1823 for the SAD difference, with values between 0% and 100% between these two thresholds. The synthesis ratio calculator 1632 converts the SAD difference 1811 into a synthesis ratio 1831 according to the synthesis ratio conversion curve 1821 .

同様に、合成比率算出部1631は、x1/4階層のSADとx1/1階層のSADとを合成するための合成比率を算出する。このときの合成比率は、x1/4階層のSADとx1/1階層のSADの差に基づいて算出される。なお、前述の通り、x1/4階層のSADは、拡大処理部1621により縦横4倍に拡大される。図18Bに示すように、合成比率算出部1631は、x1/4階層のSAD1723とx1/1階層のSAD1713との差1851を算出する。なお、差1851は厳密には差分絶対値であるが、単純化のため「差」と表記するものとする。SADの差1851が大きい領域では、下位階層(x1/4階層)において実際よりも広い動体領域が検出されている可能性がある。そのため、合成比率算出部1631は、SADの差1851が大きい領域では上位階層(x1/1階層)の合成比率が大きくなるように制御する。これは、合成比率変換カーブ1861を用いることにより実現可能である。合成比率変換カーブ1861は、SADの差に関して下限閾値1862及び上限閾値1863を持ち、これら2つの閾値の間で0%から100%の値を持つ。合成比率算出部1631は、合成比率変換カーブ1861に従って、SADの差1851を合成比率1871に変換する。 Similarly, the synthesis ratio calculation unit 1631 calculates a synthesis ratio for synthesizing the x1/4 layer SAD and the x1/1 layer SAD. The synthesis ratio at this time is calculated based on the difference between the SAD of the x1/4 layer and the SAD of the x1/1 layer. As described above, the x1/4 layer SAD is enlarged vertically and horizontally four times by the enlargement processing unit 1621 . As shown in FIG. 18B, the synthesis ratio calculator 1631 calculates a difference 1851 between the SAD 1723 of the x1/4 layer and the SAD 1713 of the x1/1 layer. Strictly speaking, the difference 1851 is a difference absolute value, but for the sake of simplification, it is written as "difference". In a region where the SAD difference 1851 is large, there is a possibility that a moving object region wider than it actually is detected in the lower hierarchy (x1/4 hierarchy). Therefore, the synthesis ratio calculation unit 1631 performs control so that the synthesis ratio of the upper hierarchy (x1/1 hierarchy) is increased in the region where the SAD difference 1851 is large. This can be accomplished by using a composite ratio conversion curve 1861. FIG. Composite ratio conversion curve 1861 has a lower threshold 1862 and an upper threshold 1863 for the SAD difference, with values between 0% and 100% between these two thresholds. The synthesis ratio calculator 1631 converts the SAD difference 1851 into a synthesis ratio 1871 according to the synthesis ratio conversion curve 1861 .

なお、図21を参照して後述する通り、SADの差1811、1851は、着目画素の周辺画素(周辺位置の画素)のSADも含めて算出される。そのため、図18Aにおいて、特定の水平座標におけるSADの差1811は、その座標におけるx1/4階層のSAD1723とx1/16階層のSAD1733の差に必ずしも一致しない。同様に、図18Bにおいて、特定の水平座標におけるSADの差1851は、その座標におけるx1/1階層のSAD1713とx1/4階層のSAD1723の差に必ずしも一致しない。 As will be described later with reference to FIG. 21, the SAD differences 1811 and 1851 are calculated including the SADs of peripheral pixels (pixels at peripheral positions) of the pixel of interest. Therefore, in FIG. 18A, the SAD difference 1811 at a particular horizontal coordinate does not necessarily match the difference between the x1/4 layer SAD 1723 and the x1/16 layer SAD 1733 at that coordinate. Similarly, in FIG. 18B, the SAD difference 1851 at a particular horizontal coordinate does not necessarily match the difference between the x1/1 layer SAD 1713 and the x1/4 layer SAD 1723 at that coordinate.

解像度の低い基準画像及び参照画像に基づいて算出されたSADを用いると、移動被写体の輪郭よりも外側まで動体領域として検出される。上述のように上位階層のSADと下位階層のSADの差が大きい領域について上位階層のSADの合成比率を大きくすることにより、移動被写体の輪郭にフィットさせた動体領域を高精度で検出することが可能となる。 Using the SAD calculated based on the low-resolution standard image and the reference image detects the area outside the outline of the moving object as a moving object area. As described above, by increasing the composition ratio of the SAD of the upper hierarchy for the region where the difference between the SAD of the upper hierarchy and the SAD of the lower hierarchy is large, the moving object region fitted to the contour of the moving subject can be detected with high accuracy. It becomes possible.

なお、合成比率算出部1631、1632は同一形状の合成比率変換カーブを用いてもよいが、図18A及び図18Bに示すように異なる形状の合成比率変換カーブを用いてもよい。各解像度のSADをみると、より解像度が低い階層ほどSADの大きい領域(動体領域)が移動被写体のエッジ周辺に広がる傾向があり、より解像度の高い階層ほどSADの大きい領域(動体領域)がエッジ周辺に広がらずエッジにフィットする傾向がある。この傾向に鑑み、合成比率算出部1632が用いる合成比率変換カーブを、合成比率算出部1631が用いる合成比率変換カーブと比べて、上位階層の合成比率がより高くなるように設定する。 The synthesis ratio calculators 1631 and 1632 may use synthesis ratio conversion curves of the same shape, or may use synthesis ratio conversion curves of different shapes as shown in FIGS. 18A and 18B. Looking at the SAD of each resolution, the area with large SAD (moving object area) tends to spread around the edge of the moving object in the layer with lower resolution, and the area with large SAD (moving object area) tends to spread around the edge of the moving object in the layer with higher resolution. It tends to fit the edge without spreading around. In view of this tendency, the composition ratio conversion curve used by the composition ratio calculation unit 1632 is set so that the composition ratio of the upper hierarchy is higher than the composition ratio conversion curve used by the composition ratio calculation unit 1631 .

図19を参照して、合成比率変換カーブの設定方法について説明する。図19は、合成比率変換カーブの3つのパターンを示している。符号1901は、初期設定時の合成比率変換カーブ、符号1902は、上位階層の合成比率がより高くなるように構成された合成比率変換カーブ、符号1903は、上位階層の合成比率がより低くなるように構成された合成比率変換カーブを示す。x1/1階層の合成比率をより高くしたい場合、合成比率算出部1631は、合成比率変換カーブの形状を符号1901で示す形状から符号1902で示す形状に変更する。これを実現するには、例えば、合成比率算出部1631は、下限閾値1822を下限閾値1862よりも低い値に設定し、上限閾値1823を上限閾値1863よりも低い値に設定する。これにより、小さなSADの差が発生した場合でも、合成比率算出部1632は、合成比率算出部1631と比べて上位階層の重みが高くなるように制御することができる。これにより、解像度毎に最適な合成比率変換カーブを用いることが可能となる。 A method of setting the synthesis ratio conversion curve will be described with reference to FIG. FIG. 19 shows three patterns of synthetic ratio conversion curves. Reference numeral 1901 denotes a synthesis ratio conversion curve at the time of initial setting; reference numeral 1902, a synthesis ratio conversion curve configured to increase the synthesis ratio of the upper hierarchy; 2 shows a composite ratio transformation curve configured in FIG. When it is desired to increase the composition ratio of the x1/1 layer, the composition ratio calculation unit 1631 changes the shape of the composition ratio conversion curve from the shape indicated by reference numeral 1901 to the shape indicated by reference numeral 1902 . To achieve this, for example, the synthesis ratio calculation unit 1631 sets the lower limit threshold 1822 to a value lower than the lower limit threshold 1862 and sets the upper limit threshold 1823 to a value lower than the upper limit threshold 1863 . As a result, even when a small SAD difference occurs, the synthesis ratio calculation unit 1632 can perform control so that the weight of the upper layer is higher than that of the synthesis ratio calculation unit 1631 . This makes it possible to use the optimum synthesis ratio conversion curve for each resolution.

また、ISO感度に応じて合成比率変換カーブの形状を変更してもよい。感度が低い場合にはノイズが少なくなるため、合成比率算出部1631、1632は、下限閾値及び上限閾値をより小さな値に設定する。反対に、感度が高い場合にはノイズが多くなるため、合成比率算出部1631、1632は、下限閾値及び上限閾値をより大きな値に設定する。 Also, the shape of the synthesis ratio conversion curve may be changed according to the ISO sensitivity. When the sensitivity is low, noise decreases, so the synthesis ratio calculation units 1631 and 1632 set the lower limit threshold and the upper limit threshold to smaller values. Conversely, when the sensitivity is high, noise increases, so the combination ratio calculation units 1631 and 1632 set the lower limit threshold and the upper limit threshold to larger values.

図20を参照して、ISO感度に応じて合成比率変換カーブを変更する処理の具体例を説明する。図20(A)は、合成比率変換カーブの初期設定を規定するパラメータを示す。図20(B)は、このパラメータを変更した時に閾値調整が必要な項目を示す。撮影感度をISO800からISO400に下げると、ノイズに対する耐性が向上する。そのため、符号2001により示すように、合成比率算出部1631、1632は、合成比率変換カーブの下限閾値及び上限閾値を小さい値に設定する(図19の符号1901の形状から符号1902の形状に変更する)。反対に、撮影感度をISO800からISO1600に上げると、ノイズに対する耐性が低下する。そのため、符号2002により示すように、合成比率算出部1631、1632は、合成比率変換カーブの下限閾値及び上限閾値を大きい値に設定する(図19の符号1901の形状から符号1903の形状に変更する)。なお、基準画像及び参照画像の撮影時の感度が相異なる場合、合成比率算出部1631、1632は、基準画像及び参照画像の少なくとも一方の撮影時の感度に基づいて合成比率変換カーブを変更してもよい。 A specific example of processing for changing the synthesis ratio conversion curve according to the ISO sensitivity will be described with reference to FIG. FIG. 20(A) shows parameters that define the initial setting of the synthesis ratio conversion curve. FIG. 20B shows items that require threshold adjustment when this parameter is changed. Lowering the shooting sensitivity from ISO 800 to ISO 400 improves resistance to noise. Therefore, as indicated by reference numeral 2001, the synthesis ratio calculation units 1631 and 1632 set the lower limit threshold value and the upper threshold value of the synthesis ratio conversion curve to small values (the shape indicated by reference numeral 1901 in FIG. 19 is changed to the shape indicated by reference numeral 1902). ). Conversely, if the shooting sensitivity is increased from ISO800 to ISO1600, the resistance to noise will decrease. Therefore, as indicated by reference numeral 2002, the synthesis ratio calculation units 1631 and 1632 set large values for the lower limit threshold value and the upper threshold value of the synthesis ratio conversion curve (the shape indicated by reference numeral 1901 in FIG. 19 is changed to the shape indicated by reference numeral 1903). ). Note that if the reference image and the reference image have different sensitivities when photographed, the composition ratio calculation units 1631 and 1632 change the composition ratio conversion curve based on the sensitivity when photographing at least one of the standard image and the reference image. good too.

次に、図21を参照して、図15のS1504におけるSADの差の算出処理の詳細について説明する。図21(A)及び図21(B)は、動体領域を含んだ基準画像及び参照画像の概念図である。前述の通り、合成比率算出部1631、1632は、上位階層のSADと拡大された下位階層のSADの差を算出する。このとき、合成比率算出部1631、1632は、着目画素だけでなく、着目画素の周囲画素のSADも加味してSADの差を算出する。図21では、説明を簡単にするために、SADの差を2値で表現する(差が大きい領域は1、差が小さい領域は0)。以下では、x1/4階層のSADとx1/16階層のSADの差に関して説明を行うが、x1/1階層のSADとx1/4階層のSADの差に関しても同様である。 Next, details of the SAD difference calculation processing in S1504 of FIG. 15 will be described with reference to FIG. FIGS. 21(A) and 21(B) are conceptual diagrams of a base image and a reference image including moving object regions. As described above, the synthesis ratio calculators 1631 and 1632 calculate the difference between the upper layer SAD and the enlarged lower layer SAD. At this time, the synthesis ratio calculation units 1631 and 1632 calculate the SAD difference by considering not only the SAD of the pixel of interest but also the SAD of the surrounding pixels of the pixel of interest. In FIG. 21, to simplify the explanation, the SAD difference is represented by a binary value (1 in areas where the difference is large and 0 in areas where the difference is small). Although the difference between the x1/4 layer SAD and the x1/16 layer SAD will be described below, the same applies to the difference between the x1/1 layer SAD and the x1/4 layer SAD.

上位階層(x1/4階層)のSADは、動体領域の検出範囲が相対的に小さいため、人物内部などのテクスチャが少なくなりやすい。そのため、SADの値は小さくなりやすいため、動体領域の検出漏れが発生しやすい。例えば、領域2111と領域2113の差分として、図21(C)及び図21(D)に示すSAD2121が算出される。反対に、下位階層(x1/16階層)では動体領域の検出範囲が相対的に大きいため、SADが大きくなりやすい。例えば、領域2101と領域2103の差分として、図21(C)及び図21(D)に示すSAD2122が算出される。その後、着目画素についてx1/16階層のSAD(拡大後)とx1/4階層のSADの差を算出した場合、図21(C)に示す差2131が得られる。差2131によれば、階層間のSADの差が大きい。そのため、差2131に基づいて合成比率を決定すると、x1/4階層のSADの重みが大きくなる。その結果、移動被写体の内部など、動体領域のうちフレーム間差分が小さくなる部分について、動体領域の検出漏れが発生する可能性がある。 Since the SAD of the higher hierarchy (x1/4 hierarchy) has a relatively small detection range for moving object regions, the texture of the inside of a person tends to be small. As a result, the SAD value tends to be small, so detection failure of the moving object region tends to occur. For example, SAD 2121 shown in FIGS. 21C and 21D is calculated as the difference between the areas 2111 and 2113 . On the contrary, in the lower hierarchy (x1/16 hierarchy), the detection range of the moving object area is relatively large, so the SAD tends to increase. For example, SAD 2122 shown in FIGS. 21C and 21D is calculated as the difference between the areas 2101 and 2103 . After that, when calculating the difference between the SAD of the x1/16th layer (after enlargement) and the SAD of the x1/4th layer for the pixel of interest, a difference 2131 shown in FIG. 21C is obtained. According to the difference 2131, the difference in SAD between hierarchies is large. Therefore, if the combining ratio is determined based on the difference 2131, the weight of the SAD in the x1/4 hierarchy is increased. As a result, there is a possibility that detection omission of the moving object region may occur in a portion of the moving object region where the inter-frame difference is small, such as inside a moving object.

そこで、合成比率算出部1632は、図21(D)に示すように、着目画素の周辺画素のSADも含めて、x1/4階層のSADとx1/16階層のSADの差を算出する。具体的には、合成比率算出部1632は、x1/4階層のSADとx1/16階層のSADそれぞれについて、着目画素及び周辺画素のSADの平均値を算出し、平均値同士の差の絶対値を算出する。これにより、図21(D)に示す差2132が得られる。差2132は、階層間のSADに差がないことを示す。そのため、差2132に基づいて合成比率を決定すると、x1/16階層のSADの重みが大きくなる。その結果、動体領域の検出漏れが抑制される。 Therefore, as shown in FIG. 21D, the synthesis ratio calculation unit 1632 calculates the difference between the SAD of the x1/4 layer and the SAD of the x1/16 layer, including the SAD of the pixels surrounding the pixel of interest. Specifically, the synthesis ratio calculation unit 1632 calculates the average value of the SADs of the pixel of interest and the surrounding pixels for each of the SAD of the x1/4 layer and the SAD of the x1/16 layer, and calculates the absolute value of the difference between the average values. Calculate As a result, a difference 2132 shown in FIG. 21(D) is obtained. A difference 2132 indicates that there is no difference in SAD between tiers. Therefore, if the combining ratio is determined based on the difference 2132, the weight of the SAD in the x1/16 hierarchy is increased. As a result, detection omission of the moving object region is suppressed.

なお、合成比率算出部1632は、着目画素の周辺画素のSADを参照する代わりに、メディアンフィルタやローパスフィルタをそれぞれの階層のSADに掛ける処理を行い、その後、階層間のSADの差を算出してもよい。 Note that the synthesis ratio calculation unit 1632 performs a process of applying a median filter or a low-pass filter to the SAD of each layer instead of referring to the SADs of the pixels surrounding the pixel of interest, and then calculates the difference in SAD between layers. may

以上説明したように、第2の実施形態によれば、撮像装置100は、基準画像及び参照画像から、縮小された基準画像及び参照画像を生成する。そして、撮像装置100は、基準画像と参照画像の差分に基づいて第1の動体尤度を生成し、縮小された基準画像と参照画像の差分に基づいて第2の動体尤度を生成する。そして、撮像装置100は、第1の動体尤度と第2の動体尤度の差に基づいて決定される合成比率に従って第1の動体尤度と第2の動体尤度とを合成する。これにより、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。 As described above, according to the second embodiment, the imaging device 100 generates reduced standard images and reference images from the standard images and reference images. Then, the imaging device 100 generates a first moving object likelihood based on the difference between the base image and the reference image, and generates a second moving object likelihood based on the difference between the reduced base image and the reference image. Then, the imaging device 100 synthesizes the first moving object likelihood and the second moving object likelihood according to a synthesis ratio determined based on the difference between the first moving object likelihood and the second moving object likelihood. This makes it possible to improve the detection accuracy of a moving object region based on the pixel value difference between images.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100…撮像装置、202…動体領域検出部、600、601、602…動体尤度算出部、610、611…エッジ度算出部、630、631…合成比率算出部、640、641…動体尤度合成部、650…縮小処理部 Reference Signs List 100: Imaging device 202: Moving object region detection unit 600, 601, 602: Moving object likelihood calculation unit 610, 611: Edge level calculation unit 630, 631: Synthesis ratio calculation unit 640, 641: Moving object likelihood synthesis section 650 ... reduction processing section

Claims (17)

所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小手段と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得手段と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得手段と、
前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、
を備えることを特徴とする画像処理装置。
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; reduction means for generating a second reference image and a second reference image by
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; a first obtaining means for obtaining a second moving object likelihood based on a difference between a value and a pixel value of the second reference image;
a second step of obtaining an edge degree at each position of the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; a means for obtaining the
determining means for determining a synthesis ratio of the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range;
synthesizing means for generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range;
An image processing device comprising:
前記決定手段は、前記エッジ度が第1の範囲より大きく第3の範囲より小さい第2の範囲にある場合、前記エッジ度が前記第1の範囲又は前記第3の範囲にある場合よりも前記第1の動体尤度の合成比率が大きくなるように、前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する
ことを特徴とする請求項1に記載の画像処理装置。
When the edge degree is in a second range that is larger than the first range and smaller than the third range, the determining means determines that when the edge degree is in the first range or the third range, the 2. The image processing apparatus according to claim 1, wherein a synthesis ratio of said first moving object likelihood and said second moving object likelihood is determined such that a synthesis ratio of said first moving object likelihood is large. .
前記決定手段は、前記エッジ度が大きいほど前記第1の動体尤度の合成比率が大きくなるように、前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する
ことを特徴とする請求項1に記載の画像処理装置。
wherein the determination means determines the synthesis ratio of the first moving object likelihood and the second moving object likelihood such that the synthesis ratio of the first moving object likelihood increases as the edge degree increases. 2. The image processing apparatus according to claim 1.
前記決定手段は、前記エッジ度に加えて前記第1の基準画像及び前記第1の参照画像の少なくとも一方のランダムノイズの度合いに基づいて、前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The determining means determines the first moving object likelihood and the second moving object likelihood based on the degree of random noise in at least one of the first reference image and the first reference image in addition to the edge degree. 4. The image processing apparatus according to any one of claims 1 to 3, wherein a combination ratio of degrees is determined.
前記決定手段は、前記第1の基準画像及び前記第1の参照画像の少なくとも一方のランダムノイズの度合いとして、前記第1の基準画像及び前記第1の参照画像の少なくとも一方の撮影時の感度を用いる
ことを特徴とする請求項4に記載の画像処理装置。
The determining means determines the sensitivity of at least one of the first standard image and the first reference image at the time of shooting as the degree of random noise in at least one of the first standard image and the first reference image. 5. The image processing apparatus according to claim 4, characterized in that:
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小手段と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する第1の取得手段と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第1のエッジ度を取得し、前記第2の基準画像、前記第2の参照画像、前記第3の基準画像、及び前記第3の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第2のエッジ度を取得する第2の取得手段と、
前記撮影範囲の各位置について、前記第2のエッジ度に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成手段と、
を備え、
前記決定手段は、前記撮影範囲の各位置について、前記第1のエッジ度に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成手段は、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理装置。
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction means for generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image a first acquisition means for acquiring a third moving object likelihood;
obtaining a first edge degree for each position in the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; and a second edge degree at each position in the photographing range based on at least one of the second reference image, the second reference image, the third reference image, and the third reference image a second acquisition means for acquiring
determining means for determining a first synthesis ratio of the second moving object likelihood and the third moving object likelihood based on the second edge degree for each position in the imaging range;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; means and
with
The determining means determines a second synthesis ratio of the first moving object likelihood and the first synthetic moving object likelihood based on the first edge degree for each position in the imaging range,
The synthesizing means synthesizes the first moving object likelihood and the first synthetic moving object likelihood according to the determined second synthesis ratio for each position in the imaging range, thereby producing a second synthetic moving object. An image processing device characterized by generating a likelihood.
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小手段と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する取得手段と、
前記撮影範囲の各位置について、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、
を備えることを特徴とする画像処理装置。
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; reduction means for generating a second reference image and a second reference image by
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; acquisition means for acquiring a second moving object likelihood based on the difference between the value and the pixel value of the second reference image;
Determination of determining a composite ratio of the first moving object likelihood and the second moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood for each position in the imaging range. means and
synthesizing means for generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range;
An image processing device comprising:
前記決定手段は、前記第1の動体尤度と前記第2の動体尤度の差分絶対値が大きいほど前記第1の動体尤度の合成比率が大きくなるように、前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する
ことを特徴とする請求項7に記載の画像処理装置。
The determining means determines the first moving object likelihood and the second moving object likelihood so that the larger the difference absolute value between the first moving object likelihood and the second moving object likelihood, the larger the synthetic ratio of the first moving object likelihood. 8. The image processing apparatus according to claim 7, wherein a combining ratio of the second moving object likelihood and the second moving object likelihood is determined.
前記決定手段は、前記第1の動体尤度と前記第2の動体尤度の差に加えて前記第1の基準画像及び前記第1の参照画像の少なくとも一方の撮影時の感度に基づいて、前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する
ことを特徴とする請求項7又は8に記載の画像処理装置。
The determining means, based on the difference between the first moving object likelihood and the second moving object likelihood and the sensitivity at the time of shooting of at least one of the first reference image and the first reference image, 9. The image processing apparatus according to claim 7, wherein a composite ratio of said first moving object likelihood and said second moving object likelihood is determined.
前記決定手段は、前記撮影範囲の各位置について、前記位置及びその周辺位置に対応する前記第1の動体尤度及び前記第2の動体尤度に基づいて、前記第1の動体尤度と前記第2の動体尤度の差を算出する
ことを特徴とする請求項7乃至9のいずれか1項に記載の画像処理装置。
The determination means determines the first moving object likelihood and the 10. The image processing apparatus according to any one of claims 7 to 9, wherein a difference between second moving object likelihoods is calculated.
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小手段と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する取得手段と、
前記撮影範囲の各位置について、前記第2の動体尤度と前記第3の動体尤度の差に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成手段と、
を備え、
前記決定手段は、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成手段は、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理装置。
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction means for generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image Acquisition means for acquiring a third moving object likelihood;
A first synthetic ratio of the second moving object likelihood and the third moving object likelihood is calculated based on a difference between the second moving object likelihood and the third moving object likelihood for each position in the imaging range. a determining means for determining;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; means and
with
The determining means determines a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood. ,
The synthesizing means synthesizes the first moving object likelihood and the first synthetic moving object likelihood according to the determined second synthesis ratio for each position in the imaging range, thereby producing a second synthetic moving object. An image processing device characterized by generating a likelihood.
請求項1乃至11のいずれか1項に記載の画像処理装置と、
前記第1の基準画像及び前記第1の参照画像を生成する撮像手段と、
を備えることを特徴とする撮像装置。
An image processing device according to any one of claims 1 to 11;
imaging means for generating the first standard image and the first reference image;
An imaging device comprising:
画像処理装置が実行する画像処理方法であって、
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得工程と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得工程と、
前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成工程と、
を備えることを特徴とする画像処理方法。
An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; a reduction step to thereby generate a second reference image and a second reference image;
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; a first obtaining step of obtaining a second moving object likelihood based on a difference between a value and a pixel value of the second reference image;
a second step of obtaining an edge degree at each position of the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; a step of obtaining
a determination step of determining a synthesis ratio of the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range;
a synthesizing step of synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range to generate a synthesized moving object likelihood;
An image processing method comprising:
画像処理装置が実行する画像処理方法であって、
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する第1の取得工程と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第1のエッジ度を取得し、前記第2の基準画像、前記第2の参照画像、前記第3の基準画像、及び前記第3の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第2のエッジ度を取得する第2の取得工程と、
前記撮影範囲の各位置について、前記第2のエッジ度に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成工程と、
を備え、
前記決定工程では、前記撮影範囲の各位置について、前記第1のエッジ度に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成工程では、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理方法。
An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction step of generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image A first acquisition step of acquiring a third moving object likelihood;
obtaining a first edge degree for each position in the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; and a second edge degree at each position in the photographing range based on at least one of the second reference image, the second reference image, the third reference image, and the third reference image a second obtaining step of obtaining
a determination step of determining a first synthesis ratio of the second moving object likelihood and the third moving object likelihood based on the second edge degree for each position in the imaging range;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; process and
with
In the determination step, for each position in the imaging range, a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood is determined based on the first edge degree;
In the synthesizing step, the first moving object likelihood and the first synthesized moving object likelihood are synthesized in accordance with the determined second synthesis ratio for each position in the imaging range to obtain a second synthetic moving object. An image processing method characterized by generating a likelihood.
画像処理装置が実行する画像処理方法であって、
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する取得工程と、
前記撮影範囲の各位置について、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成工程と、
を備えることを特徴とする画像処理方法。
An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; a reduction step to thereby generate a second reference image and a second reference image;
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; an obtaining step of obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image;
Determination of determining a composite ratio of the first moving object likelihood and the second moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood for each position in the imaging range. process and
a synthesizing step of synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range to generate a synthesized moving object likelihood;
An image processing method comprising:
画像処理装置が実行する画像処理方法であって、
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する取得工程と、
前記撮影範囲の各位置について、前記第2の動体尤度と前記第3の動体尤度の差に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成工程と、
を備え、
前記決定工程では、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成工程では、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理方法。
An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction step of generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image an acquisition step of acquiring a third moving object likelihood;
A first synthetic ratio of the second moving object likelihood and the third moving object likelihood is calculated based on a difference between the second moving object likelihood and the third moving object likelihood for each position in the imaging range. a decision step of deciding;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; process and
with
In the determining step, a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood is determined based on a difference between the first moving object likelihood and the second moving object likelihood. ,
In the synthesizing step, the first moving object likelihood and the first synthesized moving object likelihood are synthesized in accordance with the determined second synthesis ratio for each position in the imaging range to obtain a second synthetic moving object. An image processing method characterized by generating a likelihood.
コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 11.
JP2017235288A 2017-12-07 2017-12-07 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM Active JP7157526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017235288A JP7157526B2 (en) 2017-12-07 2017-12-07 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235288A JP7157526B2 (en) 2017-12-07 2017-12-07 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (3)

Publication Number Publication Date
JP2019101977A JP2019101977A (en) 2019-06-24
JP2019101977A5 JP2019101977A5 (en) 2021-01-21
JP7157526B2 true JP7157526B2 (en) 2022-10-20

Family

ID=66973956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235288A Active JP7157526B2 (en) 2017-12-07 2017-12-07 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7157526B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343483A (en) 2003-05-16 2004-12-02 Acutelogic Corp Device and method for correcting camera-shake and device for detecting camera shake
JP2009164857A (en) 2007-12-29 2009-07-23 Morpho Inc Image data processing method, and image processing apparatus
JP2013062741A (en) 2011-09-14 2013-04-04 Ricoh Co Ltd Image processing apparatus, imaging apparatus, and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343483A (en) 2003-05-16 2004-12-02 Acutelogic Corp Device and method for correcting camera-shake and device for detecting camera shake
JP2009164857A (en) 2007-12-29 2009-07-23 Morpho Inc Image data processing method, and image processing apparatus
JP2013062741A (en) 2011-09-14 2013-04-04 Ricoh Co Ltd Image processing apparatus, imaging apparatus, and image processing method

Also Published As

Publication number Publication date
JP2019101977A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
KR101036787B1 (en) Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device
US8508605B2 (en) Method and apparatus for image stabilization
KR101643607B1 (en) Method and apparatus for generating of image data
JP5687553B2 (en) Image composition apparatus, image composition method, and image composition program
WO2013054607A1 (en) Image processing device, image processing method, image processing program, and recording medium
JP5978949B2 (en) Image composition apparatus and computer program for image composition
JP2009118483A (en) Device and method for correcting camera shake in digital by using object tracking
JP6074254B2 (en) Image processing apparatus and control method thereof
JP2012208553A (en) Image processing device, image processing method, and program
JP5603798B2 (en) Defect detection apparatus, defect detection method, and computer program
JP2008077501A (en) Image processing device and image processing control program
JP5882702B2 (en) Imaging device
JP6904842B2 (en) Image processing device, image processing method
JP2020061080A (en) Image processing device, imaging device, and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP2009088935A (en) Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP7157526B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6614824B2 (en) Image processing apparatus, image processing system, imaging apparatus, image processing method, and program
JP7009252B2 (en) Image processing equipment, image processing methods and programs
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP5340021B2 (en) Image processing apparatus, image processing method, and program
JP7427398B2 (en) Image processing device, image processing method, image processing system and program
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201204

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221007

R151 Written notification of patent or utility model registration

Ref document number: 7157526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151