JP7157526B2 - IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM - Google Patents
IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP7157526B2 JP7157526B2 JP2017235288A JP2017235288A JP7157526B2 JP 7157526 B2 JP7157526 B2 JP 7157526B2 JP 2017235288 A JP2017235288 A JP 2017235288A JP 2017235288 A JP2017235288 A JP 2017235288A JP 7157526 B2 JP7157526 B2 JP 7157526B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- reference image
- object likelihood
- likelihood
- imaging range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and a program.
近年、複数枚の画像を合成し、合成画像を記録するデジタルカメラやデジタルビデオカメラといった撮像装置が数多く製品化されている。これらの撮像装置の中には、異なるタイミングで撮影した複数枚の画像を合成することにより、ランダムノイズを低減した合成画像を生成する機能を持つ撮像装置がある。これによりユーザは、合成しない1枚の画像よりもランダムノイズを低減した合成画像を得ることができる。 2. Description of the Related Art In recent years, many imaging apparatuses such as digital cameras and digital video cameras that synthesize a plurality of images and record the synthesized image have been commercialized. Among these imaging apparatuses, there is an imaging apparatus that has a function of synthesizing a plurality of images shot at different timings to generate a synthetic image with reduced random noise. As a result, the user can obtain a composite image with reduced random noise compared to a single image that is not composited.
しかしながら、複数枚の画像を撮影中に被写体が移動した場合、移動した被写体が合成画像において多重像になってしまうことがある。多重像の発生を抑制するために、被写体の移動が検出された領域については、合成処理を禁止する技術が開示されている。特許文献1には、手ぶれ量に応じて決めた縮小率で縮小した複数枚の画像間におけるフレーム間差分絶対値に基づき、動体領域を検出する技術が開示されている。また、特許文献2には、複数枚の画像の位置合わせ後に残存する位置のずれに応じて縮小画像を選択し、選択した複数枚の縮小画像のフレーム間差分絶対値に基づき、動体領域を検出する技術が開示されている。
However, when a subject moves while a plurality of images are being captured, the moved subject may become a multiple image in the composite image. In order to suppress the occurrence of multiple images, a technique has been disclosed that prohibits compositing processing for an area in which movement of an object is detected. Japanese Unexamined Patent Application Publication No. 2002-100003 discloses a technique for detecting a moving object region based on the absolute value of the inter-frame difference between a plurality of images that have been reduced at a reduction ratio determined according to the amount of camera shake. Further, in
フレーム間差分絶対値に基づく動体領域検出においては、例えば、高感度で撮影した画像の場合、ランダムノイズによりフレーム間差分絶対値が大きくなる。そのため、移動被写体とランダムノイズとを区別することが困難となり、ランダムノイズの大きい領域を動体領域として誤検出する可能性がある。 In the moving object region detection based on the inter-frame difference absolute value, for example, in the case of an image shot with high sensitivity, the inter-frame difference absolute value increases due to random noise. Therefore, it becomes difficult to distinguish between a moving object and random noise, and there is a possibility that an area with large random noise is erroneously detected as a moving object area.
そこで、特許文献1では、手ぶれ量を基に画像縮小率を変更することにより、手ぶれによる静止被写体の位置のズレや、ランダムノイズの影響を軽減し、移動被写体領域の検出精度を向上させている。また、特許文献2では、複数枚の画像の位置合わせ後に残存する位置のずれに応じて縮小画像を選択することにより、手ぶれによる静止被写体の位置のズレや、ランダムノイズの影響を軽減し、移動被写体領域の検出精度を向上させている。
Therefore, in
しかしながら、縮小画像間のフレーム間差分絶対値に基づき動体領域を検出する場合、縮小画像間で検出した動体領域を元の解像度まで拡大処理することにより、移動被写体周辺の静止領域まで動体領域として検出されてしまうことがある。また、画像を縮小することにより、小さい被写体の画素値の振幅が低くなってしまうため、小さい移動被写体の検出に失敗する可能性がある。 However, when a moving object area is detected based on the absolute value of the inter-frame difference between reduced images, by enlarging the moving object area detected between the reduced images to the original resolution, even the still area around the moving object is detected as the moving object area. There are times when it is done. In addition, by reducing the image, the amplitude of the pixel value of a small subject becomes low, so detection of a small moving subject may fail.
本発明はこのような状況に鑑みてなされたものであり、画像間の画素値の差分に基づく動体領域の検出精度を向上させる技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for improving detection accuracy of a moving object region based on differences in pixel values between images.
上記課題を解決するために、本発明は、所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小手段と、前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得手段と、前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得手段と、前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、を備えることを特徴とする画像処理装置を提供する。 In order to solve the above problems, the present invention provides a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from the first reference image. reduction means for generating a second reference image and a second reference image by reducing each of the reference images by a first magnification; and pixel values of the first reference image and pixel values of the first reference image and A first moving object likelihood is obtained based on the difference between the pixel values of the first reference image, and a second moving object likelihood is obtained based on the difference between the pixel values of the second reference image and the second reference image. Based on at least one of the first acquisition means for acquiring the moving object likelihood of the first reference image, the first reference image, the second reference image, and the second reference image, a second obtaining means for obtaining an edge degree at each position in the imaging range; and combining the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range. determining means for determining a ratio; and generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range. and synthesizing means for combining images.
なお、その他の本発明の特徴は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。 In addition, other features of the present invention will be further clarified by the description in the attached drawings and the following detailed description.
本発明によれば、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。 According to the present invention, it is possible to improve the detection accuracy of a moving object area based on the pixel value difference between images.
以下、添付図面を参照して、本発明の実施形態を説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。また、別々の実施形態の中で説明されている特徴を適宜組み合せることも可能である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the technical scope of the present invention is determined by the claims and is not limited by the following individual embodiments. Also, not all combinations of features described in the embodiments are essential to the present invention. It is also possible to combine features described in separate embodiments as appropriate.
[第1の実施形態]
図1は、画像処理装置の一例である撮像装置100の構成を示すブロック図である。図1において、制御部101は、例えばCPUであり、撮像装置100が備える各ブロックの動作プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することにより、撮像装置100が備える各ブロックの動作を制御する。ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、撮像装置100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群を含み、被写体像を後述の撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、光学系104により撮像部105に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像信号(画像データ)をRAM103に出力する。また、A/D変換部106は、制御部101が決定した増幅率(感度情報)に基づき、アナログ画像信号又はデジタル画像信号を増幅する。
The optical system 104 includes a lens group including a zoom lens and a focus lens, and forms a subject image on an
画像処理部107は、RAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、ガンマ処理など、様々な画像処理を適用する。また、画像処理部107は、後述する合成画像生成部200を具備し、RAM103に記憶されている複数の画像データを合成し、合成画像を生成する。
The
記録部108は着脱可能なメモリカード等である。画像処理部107で処理された画像データは、RAM103を介して、記録部108に記録画像として記録される。表示部109は、LCD等の表示デバイスであり、RAM103及び記録部108に記録した画像データや、ユーザからの指示を受け付けるためのユーザインタフェースなどを表示する。
A
次に、画像処理部107の動作について、詳細に説明を行う。本実施形態では、後述する合成動体尤度に基づいて2枚の画像を合成することにより、ランダムノイズが低減した合成画像を生成する例について説明する。
Next, the operation of the
図2を参照して、画像処理部107が具備する合成画像生成部200の構成について説明する。合成画像生成部200は、RAM103に記憶されている2枚の画像を合成し、合成画像を生成する。合成画像生成部200は、位置合わせ部201、動体領域検出部202、及び画像合成部203を含む。
The configuration of the composite
次に、図3を参照して、合成画像生成部200が実行する処理について説明する。S301で、制御部101は、RAM103に記憶されている複数の画像から、合成の基準となる基準画像、及び基準画像に対して合成を行う参照画像を選択する。例えば、制御部101は、撮像装置100のシャッターが押下された直後に撮影された1枚目の画像を基準画像として選択し、2枚目以降の画像を参照画像として選択する。合成画像生成部200は、選択された基準画像及び参照画像をRAM103から取得する。
Next, referring to FIG. 3, processing executed by the synthetic
S302で、位置合わせ部201は、基準画像と参照画像との間の動きベクトルを検出し、動きベクトルに基づいて参照画像を幾何変換することにより、参照画像の位置を基準画像と合わせる。
In S302, the
ここで、図4を参照して、位置合わせ処理について説明する。図4(A)は基準画像を示し、図4(B)は参照画像を示し、図4(C)は位置合わせが行われた参照画像を示す。図4(A)~図4(C)に示す3つの画像は、以下に説明するように被写体の位置が異なるなどの相違はあるが、いずれも所定の撮影範囲を含んでいる。 Alignment processing will now be described with reference to FIG. 4A shows the reference image, FIG. 4B shows the reference image, and FIG. 4C shows the aligned reference image. The three images shown in FIGS. 4(A) to 4(C) are different in that the positions of the subjects are different as described below, but they all include a predetermined shooting range.
図4(B)の参照画像は、図4(A)の基準画像とは異なる時刻に撮影されているため、手ぶれ等により図4(A)の基準画像と位置がずれている。位置合わせ部201は、このような位置のずれを位置合わせ処理により補正する。位置を合わせるために、まず、位置合わせ部201は、基準画像と参照画像との間の大局的な動きを示す動きベクトルを算出する。動きベクトルの算出方法としては、例えば、ブロックマッチング法が挙げられる。次に、位置合わせ部201は、算出した動きベクトルに基づき、参照画像を幾何変換するための係数である、式(1)に示すような幾何変換係数Aを算出する。
The reference image in FIG. 4B is taken at a time different from that of the reference image in FIG. 4A, and is out of position with the reference image in FIG. 4A due to camera shake or the like. The
位置合わせ部201は、幾何変換係数Aを用いて、参照画像に対して式(2)に示すような幾何変換を行うことにより、図4(C)の位置合わせ済み参照画像を生成する。なお、参照画像をI(x座標,y座標)、位置合わせ済み参照画像をI’(x’座標,y’座標)とする。
このような位置合わせ処理により、図4(C)の位置合わせ済み参照画像のように、基準画像と参照画像の静止被写体(例えば、建物や木)の位置を合わせることができる。 Through such alignment processing, positions of still subjects (eg, buildings and trees) in the standard image and the reference image can be aligned as in the aligned reference image in FIG. 4C.
図3に戻り、S303で、動体領域検出部202は、基準画像と位置合わせ済み参照画像(以下、単に「参照画像」とも呼ぶ)とに基づいて動体領域を検出し、合成動体尤度を算出する。本実施形態では、動体領域は、動体尤度と呼ばれる多値で表現されるデータで表すものとする。動体領域検出部202の詳細、及び合成動体尤度算出処理の詳細については後述する。
Returning to FIG. 3 , in S303, the moving object
S304で、画像合成部203は、式(3)で示すように、合成動体尤度に基づいて決定される基準画像の合成比率wに応じて、基準画像と参照画像とを合成し、合成画像を生成する。
P = w × Pbase + (1-w)× Pref ・・・(3)
なお、Pbaseは基準画像の画素値を表し、Prefは参照画像の画素値を表し、wは基準画像の合成比率を表し、Pは合成画像の画素値を表す。
In S304, the
P = w × Pbase + (1-w) × Pref (3)
Pbase represents the pixel value of the base image, Pref represents the pixel value of the reference image, w represents the synthesis ratio of the base image, and P represents the pixel value of the synthesized image.
ここで、図5を参照して、基準画像の合成比率wの決定方法について説明する。図5は、合成動体尤度と基準画像の合成比率wとの関係を示す図である。図5の例では、合成動体尤度が大きいほど、基準画像の合成比率wも大きくなる。図5の例では、合成動体尤度が高い動体領域については、基準画像の合成比率が例えば100%(w=1)に設定される。そのため、動体領域の合成処理を実質的に禁止し、多重像の発生を抑制することができる。即ち、合成動体尤度が高い場合、合成画像の画素値として基準画像の画素値が用いられる。一方、合成動体尤度が低い静止領域については、基準画像の合成比率が例えば50%(w=0.5)に設定される。そのため、基準画像と参照画像とを均等に合成し、ランダムノイズを低減することができる。図5から理解できるように、合成動体尤度が小さい場合、基準画像の画素値の合成比率と参照画像の画素値の合成比率との差が小さくなる。 Here, a method for determining the synthesis ratio w of the reference image will be described with reference to FIG. FIG. 5 is a diagram showing the relationship between the composite moving object likelihood and the composite ratio w of the reference image. In the example of FIG. 5, the larger the synthetic moving object likelihood, the larger the synthesis ratio w of the reference image. In the example of FIG. 5, for a moving object region with a high synthetic moving object likelihood, the synthesis ratio of the reference image is set to 100% (w=1), for example. Therefore, it is possible to substantially prohibit the synthesis processing of moving object regions and suppress the occurrence of multiple images. That is, when the composite moving object likelihood is high, the pixel values of the reference image are used as the pixel values of the composite image. On the other hand, for a still region with a low synthesized moving object likelihood, the synthesis ratio of the reference image is set to 50% (w=0.5), for example. Therefore, the standard image and the reference image can be evenly synthesized, and random noise can be reduced. As can be understood from FIG. 5, when the synthesized moving object likelihood is small, the difference between the pixel value synthesis ratio of the reference image and the pixel value synthesis ratio of the reference image becomes small.
次に、図6を参照して、動体領域検出部202の構成について説明する。動体領域検出部202は、動体尤度算出部600、601、602、エッジ度算出部610、611、拡大処理部620、621、622、623、合成比率算出部630、631、動体尤度合成部640、641、及び縮小処理部650を有する。動体領域検出部202は、基準画像と参照画像との間のフレーム間差分絶対値に基づき、合成動体尤度を算出する。
Next, referring to FIG. 6, the configuration of moving object
次に、図7を参照して、動体領域検出部202が実行する合成動体尤度算出処理について説明する。S701で、動体領域検出部202は、基準画像及び参照画像を取得する。基準画像及び参照画像の例を、図4(A)及び図4(C)に示す。図4(A)は基準画像を示す図であり、図4(C)は参照画像(位置合わせ済み参照画像)を示す図である。基準画像と参照画像とは異なる時刻に撮影されているため、撮影中に移動した被写体の位置は異なる。図4(A)及び図4(C)の例では、図4(A)の基準画像の人410は、図4(C)の人420の位置に移動し、図4(A)の基準画像の人411は、図4(C)の参照画像の人421の位置に移動している。動体領域検出部202は、このような移動している領域を動体領域として検出する。
Next, synthetic moving object likelihood calculation processing executed by the moving object
S702で、縮小処理部650は、基準画像及び参照画像に対して縮小処理を行うことにより、縮小された基準画像及び参照画像を生成する。具体的には、縮小処理部650は、縦横の画素数が1/4倍に縮小された基準画像(以下、「1/4サイズ基準画像」とも呼ぶ)及び参照画像(以下、「1/4サイズ参照画像」とも呼ぶ)を生成する。また、縮小処理部650は、基準画像及び参照画像に対して縮小処理を行うことにより、縦横の画素数が1/16倍に縮小された基準画像(以下、「1/16サイズ基準画像」とも呼ぶ)及び参照画像(以下、「1/16サイズ参照画像」とも呼ぶ)も生成する。なお、以下では、縮小前の基準画像及び参照画像を、それぞれ「等倍サイズ基準画像」及び「等倍サイズ参照画像」とも呼ぶ。
In S702, the
図11、図12(A)、及び図12(B)を参照して、縮小処理の詳細について説明する。図11は、等倍サイズの(縮小前の)基準画像及び参照画像の概念図である。以下では、説明を簡単にするために、図11に示す基準画像1100及び参照画像1101に基づいて各種処理の説明を行う。図11において、破線1102は、基準画像1100の画素値の例を示し、実線1103は、参照画像1101の画素値の例を示す。縮小処理部650は、平滑化処理及び画素間引き処理により、基準画像1100及び参照画像1101を縮小する。利用可能な縮小方法として、例えば、バイリニア縮小法やバイキュービック縮小法が挙げられる。
Details of the reduction process will be described with reference to FIGS. 11, 12A, and 12B. FIG. 11 is a conceptual diagram of a standard image and a reference image of the same size (before reduction). To simplify the explanation, various types of processing will be explained based on the
図12(A)に1/16サイズの画像データ、図12(B)に1/4サイズの画像データを示す。図12(A)の破線1200は、1/16サイズ基準画像の画素値の例を示し、図12(A)の実線1201は、1/16サイズ参照画像の画素値の例を示す。また、図12(B)の破線1202は、1/4サイズ基準画像の画素値の例を示し、図12(B)の実線1203は、1/4サイズ参照画像の画素値の例を示す。図12(A)及び図12(B)において、水平座標は、図11に示す縮小前の水平座標と対応するように拡大して図示されている。これは、後述する図12(C)~(H)においても同様である。
FIG. 12A shows 1/16 size image data, and FIG. 12B shows 1/4 size image data. A dashed
図12(B)に示す1/4サイズ基準画像の画素値1200は、縮小処理により、図11に示す基準画像1100の画素値1102よりも平滑化されている。また、図12(A)に示す1/16サイズ基準画像の画素値1200は、縮小処理により、図12(B)に示す1/4サイズ基準画像の画素値1202よりも更に平滑化されている。
A
図7に戻り、S703で、動体尤度算出部600、601、602は、対応する解像度(サイズ)の基準画像と参照画像との間のフレーム間差分絶対値を画素毎に算出し、フレーム間差分絶対値に基づいて動体尤度を算出する。換言すると、動体尤度算出部600、601、602は、基準画像及び参照画像が含む所定の撮影範囲の各位置についてフレーム間差分絶対値を算出し、動体尤度を算出する。具体的には、動体尤度算出部600は、等倍サイズ基準画像と等倍サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(A)に示すような動体尤度算出カーブに基づき等倍サイズ動体尤度を算出する。また、動体尤度算出部601は、1/4サイズ基準画像と1/4サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(B)に示すような動体尤度算出カーブに基づき1/4サイズ動体尤度を算出する。また、動体尤度算出部602は、1/16サイズ基準画像と1/16サイズ参照画像のフレーム間差分絶対値を画素毎に算出し、図8(C)に示すような動体尤度算出カーブに基づき1/16サイズ動体尤度を算出する。
Returning to FIG. 7, in S703, the moving object
1/16サイズ動体尤度及び1/4サイズ動体尤度の例を図12(C)及び(D)に示す。図12(C)に示す1/16サイズ動体尤度は、図12(A)に示す1/16サイズの画像データに基づいて算出された動体尤度である。図12(D)に示す1/4サイズ動体尤度は、図12(B)に示す1/4サイズの画像データに基づいて算出された動体尤度である。 Examples of 1/16 size moving object likelihood and 1/4 size moving object likelihood are shown in FIGS. The 1/16 size moving object likelihood shown in FIG. 12(C) is the moving object likelihood calculated based on the 1/16 size image data shown in FIG. 12(A). The 1/4 size moving object likelihood shown in FIG. 12(D) is the moving object likelihood calculated based on the 1/4 size image data shown in FIG. 12(B).
なお、図8(A)~(C)に示すように画像データの解像度(サイズ)に応じて動体尤度算出カーブの形状を変えている理由は、ランダムノイズを動きと誤検出する可能性を低減するためである。基準画像と参照画像との間のフレーム間差分絶対値は、被写体の動きだけではなく、ランダムノイズによっても大きくなる。ここで、1/4サイズの画像データや1/16サイズの画像データは、縮小処理時の平滑化処理により等倍サイズの画像データよりもランダムノイズが低減されている。そのため、ランダムノイズがより低減されている、より低解像度の画像データのための動体尤度算出カーブほど、閾値TH1及びTH2を小さい値にする。一方、ランダムノイズがより多い、より高解像度の画像データのための動体尤度算出カーブほど、閾値TH1及びTH2を大きい値にする。 The reason for changing the shape of the moving object likelihood calculation curve according to the resolution (size) of the image data as shown in FIGS. This is to reduce The inter-frame difference absolute value between the standard image and the reference image increases not only due to movement of the subject but also due to random noise. 1/4 size image data and 1/16 size image data have less random noise than normal size image data due to smoothing processing during reduction processing. Therefore, the thresholds TH1 and TH2 are set to smaller values for moving object likelihood calculation curves for lower resolution image data in which random noise is further reduced. On the other hand, the thresholds TH1 and TH2 are set to larger values for moving object likelihood calculation curves for higher resolution image data with more random noise.
具体的には、図8(A)のように、等倍サイズの動体尤度算出カーブの場合は、ランダムノイズを動きと誤検出しないように、閾値TH1及びTH2を比較的大きい値とする。また、図8(C)のように、1/16サイズの動体尤度算出カーブの場合は、ランダムノイズは低減されているので、被写体の動きを精度よく検出するため、閾値TH1及びTH2を比較的小さい値とする。 Specifically, as shown in FIG. 8A, in the case of the same-size moving object likelihood calculation curve, the thresholds TH1 and TH2 are set to relatively large values so as not to erroneously detect random noise as motion. In addition, as shown in FIG. 8C, in the case of a 1/16 size moving object likelihood calculation curve, random noise is reduced. a relatively small value.
このように、フレーム間差分絶対値を算出する画像データの解像度に応じて、動体尤度算出カーブの閾値を変えることにより、ランダムノイズによる動きの誤検出を低減し、被写体の動きを精度よく検出することが可能となる。 In this way, by changing the threshold value of the moving object likelihood calculation curve according to the resolution of the image data for calculating the absolute value of the inter-frame difference, erroneous detection of motion due to random noise can be reduced, and the motion of the subject can be accurately detected. It becomes possible to
図7に戻り、S704で、エッジ度算出部610、611は、対応する解像度(サイズ)の基準画像と参照画像のエッジ強度に基づき、画素毎にエッジ度を算出する。即ち、エッジ度算出部610、611は、基準画像及び参照画像が含む所定の撮影範囲の各位置についてエッジ度を算出する。
Returning to FIG. 7, in S704, the edge
以下、エッジ度の算出方法について詳細に説明する。但し、本実施形態のエッジ度の算出方法は以下に示す具体例に限定されない。撮影範囲の各位置についてエッジの状態(エッジの有無やコントラストの強度など)を示す指標となる値を算出可能な方法であれば、任意の算出方法を採用可能である。 A method for calculating the edge degree will be described in detail below. However, the edge degree calculation method of this embodiment is not limited to the specific examples shown below. Any calculation method can be employed as long as it can calculate a value that serves as an index indicating the edge state (existence of edge, intensity of contrast, etc.) for each position in the imaging range.
まず、エッジ強度の算出方法について説明する。エッジ強度は、例えば、ソーベルフィルタ処理により算出する。ソーベルフィルタ処理について説明する。まず、注目画素を中心とした上下左右の9つの画素値に対して、式(4)に示す係数をそれぞれ乗算し、乗算結果を合計することにより、垂直方向のエッジ強度Svを算出する。同様に、注目画素を中心とした上下左右の9つの画素値に対して、式(5)に示す係数をそれぞれ乗算し、乗算結果を合計することにより、水平方向のエッジ強度Shを算出する。そして、式(6)に示すように、垂直方向のエッジ強度Svと水平方向のエッジ強度Shの2乗和平方根により、エッジ強度Eを算出する。
First, a method for calculating edge strength will be described. Edge strength is calculated by, for example, Sobel filtering. Sobel filter processing will be described. First, the vertical edge strength Sv is calculated by multiplying the nine pixel values above, below, to the left and right of the pixel of interest by the coefficients shown in Equation (4), respectively, and summing the multiplication results. Similarly, the horizontal edge strength Sh is calculated by multiplying the nine pixel values above, below, to the left, and to the right of the pixel of interest by the coefficients shown in Equation (5), respectively, and summing the multiplication results. Then, as shown in equation (6), the edge strength E is calculated from the square root of the sum of the squares of the vertical edge strength Sv and the horizontal edge strength Sh.
エッジ度算出部610は、1/4サイズ基準画像と1/4サイズ参照画像の画素毎にエッジ強度を算出し、画素毎に、1/4サイズ基準画像のエッジ強度と1/4サイズ参照画像のエッジ強度のうちの大きい方を選択する。そして、エッジ度算出部610は、図9に示すようなエッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出する。これにより、1/4サイズのエッジ度が得られる。また、エッジ度算出部611は、1/16サイズ基準画像と1/16サイズ参照画像の画素毎にエッジ強度を算出し、画素毎に、1/16サイズ基準画像のエッジ強度と1/16サイズ参照画像のエッジ強度のうちの大きい方を選択する。そして、エッジ度算出部611は、図9に示すようなエッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出する。これにより、1/16サイズのエッジ度が得られる。
The edge
1/16サイズのエッジ度及び1/4サイズのエッジ度の例を、それぞれ図12(E)及び図12(F)に示す。図12(E)に示す1/16サイズエッジ度は、図12(A)に示す1/16サイズの画像データに基づいて算出されたエッジ度である。図12(F)に示す1/4サイズエッジ度は、図12(B)に示す1/4サイズの画像データに基づいて算出されたエッジ度である。 Examples of 1/16 size edge degree and 1/4 size edge degree are shown in FIGS. 12(E) and 12(F), respectively. The 1/16 size edge degree shown in FIG. 12(E) is an edge degree calculated based on the 1/16 size image data shown in FIG. 12(A). The 1/4 size edge degree shown in FIG. 12(F) is the edge degree calculated based on the 1/4 size image data shown in FIG. 12(B).
なお、上の説明では、エッジ度算出部610、611は、基準画像のエッジ強度と参照画像のエッジ強度のうち大きい方を選択し、エッジ度算出カーブに基づき、選択したエッジ強度からエッジ度を算出するものとした。しかしながら、エッジ度の算出方法はこれに限定されない。例えば、エッジ度算出部610、611は、画素毎に基準画像と参照画像のエッジ強度の平均値を求め、エッジ度算出カーブに基づき、エッジ強度の平均値からエッジ度を算出してもよい。或いは、エッジ度算出部610、611は、画素毎に基準画像のエッジ強度のみを算出し、エッジ度算出カーブに基づき、基準画像のエッジ強度からエッジ度を算出してもよい。
Note that in the above description, the edge
図7に戻り、S705で、動体領域検出部202は、拡大処理部620、622、及び合成比率算出部630、631を用いて、画素毎に(即ち、所定の撮影範囲の各位置について)、エッジ度に基づき等倍サイズ合成比率及び1/4サイズ合成比率を算出する。S705の処理の詳細は後述する。
Returning to FIG. 7, in S705, the moving object
S706で、動体領域検出部202は、拡大処理部621、623、及び動体尤度合成部640、641を用いて、画素毎に(即ち、所定の撮影範囲の各位置について)、小さいサイズから順に動体尤度を合成する。この合成は、等倍サイズ合成比率及び1/4サイズ合成比率に従って行われる。
In step S706, the moving object
ここで、図10及び図12を参照して、S705及びS706の処理の詳細について説明する。まず、1/16サイズ動体尤度及び1/4サイズ動体尤度の合成に関係する処理について説明する。拡大処理部622は、1/16サイズエッジ度を縦横4倍に拡大する。この拡大により、1/16サイズエッジ度は、1/4サイズ相当の解像度を持つようになる。合成比率算出部631は、拡大された1/16サイズエッジ度に基づき、1/4サイズ合成比率を算出する。1/4サイズ合成比率は、拡大された1/16サイズエッジ度と同様、1/4サイズ相当の解像度を持つ。
Here, details of the processing of S705 and S706 will be described with reference to FIGS. 10 and 12. FIG. First, processing related to synthesis of the 1/16 size moving object likelihood and the 1/4 size moving object likelihood will be described. The
ここで、1/4サイズ合成比率の算出カーブの例を図10(B)に示す。合成比率算出部631は、1/4サイズ合成比率の算出カーブに基づき、拡大された1/16サイズエッジ度から1/4サイズ合成比率を算出する。1/4サイズ合成比率の算出カーブは、図10(B)に示すように、エッジ度が大きいほど1/4サイズ動体尤度の合成比率が高くなるように設計されている。これにより、エッジ度が小さい平坦部では、1/16サイズ動体尤度の合成比率が高くなり、エッジ度が大きいエッジ部では、1/4サイズ動体尤度の合成比率が高くなる。1/16サイズの画像データは、縮小処理時の平滑化処理により、1/4サイズの画像データよりもランダムノイズが低減されている。そのため、1/16サイズ動体尤度の方が、1/4サイズ動体尤度よりも、ランダムノイズを動きとして誤検出してしまう可能性が低い。従って、エッジ度が小さい平坦部では、ランダムノイズの悪影響を受けにくい1/16サイズ動体尤度の合成比率を高くすることにより、ランダムノイズの悪影響を受けにくい合成動体尤度を生成することができる。 Here, FIG. 10B shows an example of a curve for calculating the 1/4 size synthesis ratio. The synthesis ratio calculator 631 calculates a 1/4 size synthesis ratio from the enlarged 1/16 size edge degree based on the 1/4 size synthesis ratio calculation curve. As shown in FIG. 10B, the curve for calculating the 1/4 size synthesis ratio is designed such that the higher the edge degree, the higher the synthesis ratio of the 1/4 size moving object likelihood. As a result, the synthesis ratio of the 1/16 size moving object likelihood is high in flat portions with a small edge degree, and the synthesis ratio of the 1/4 size moving object likelihood is high in an edge portion with a high edge degree. The 1/16 size image data has less random noise than the 1/4 size image data due to smoothing processing during reduction processing. Therefore, the 1/16 size moving object likelihood is less likely to erroneously detect random noise as motion than the 1/4 size moving object likelihood. Therefore, in a flat portion with a small edge degree, by increasing the synthesis ratio of 1/16 size moving object likelihoods that are less likely to be adversely affected by random noise, it is possible to generate synthetic moving object likelihoods that are less likely to be adversely affected by random noise. .
1/4サイズ合成比率の例を図12(G)に示す。図12(G)に示す1/4サイズ合成比率は、図12(E)に示す1/16サイズエッジ度に基づき算出された合成比率である。1/4サイズ合成比率は、1/16サイズエッジ度が小さい領域で0%を示している。そのため、エッジ度が小さい平坦部では、1/16サイズ動体尤度の合成比率が100%となり、ランダムノイズによる悪影響を抑制することができる。一方、移動被写体の輪郭(移動被写体と背景との境界)はエッジ度が大きいため、1/4サイズ動体尤度の合成比率が高くなる。そのため、1/4サイズ合成動体尤度は、単純に縦横を4倍に拡大した1/16サイズ動体尤度に比べ、移動被写体の輪郭により正確に対応した値となる。 An example of the 1/4 size synthesis ratio is shown in FIG. 12(G). The 1/4 size composite ratio shown in FIG. 12(G) is a composite ratio calculated based on the 1/16 size edge degree shown in FIG. 12(E). The 1/4 size synthesis ratio indicates 0% in areas where the 1/16 size edge degree is small. Therefore, in a flat portion with a small edge degree, the synthesis ratio of the 1/16 size moving object likelihood is 100%, and the adverse effects of random noise can be suppressed. On the other hand, since the outline of the moving subject (the boundary between the moving subject and the background) has a high degree of edge, the combination ratio of the 1/4 size moving subject likelihood is high. Therefore, the 1/4 size composite moving object likelihood is a value that more accurately corresponds to the contour of the moving subject than the 1/16 size moving object likelihood that is simply expanded vertically and horizontally by four times.
拡大処理部623は、1/16サイズ動体尤度を縦横4倍に拡大する。この拡大により、1/16サイズ動体尤度は、1/4サイズ相当の解像度を持つようになる。動体尤度合成部641は、1/4サイズ合成比率に基づき、1/4サイズ動体尤度と拡大された1/16サイズ動体尤度とを合成し、1/4サイズ合成動体尤度を生成する。この合成は、下記の式(7)に従って行われる。
MC4 = wm4×M4+(1-wm4)×M16 ・・・(7)
ここで、M4は1/4サイズ動体尤度を表し、M16は拡大された1/16サイズ動体尤度を表し、wm4は1/4サイズ合成比率を表し、MC4は1/4サイズ合成動体尤度を表す。
The
MC4 = wm4 x M4 + (1 - wm4) x M16 (7)
Here, M4 represents the 1/4 size moving object likelihood, M16 represents the expanded 1/16 size moving object likelihood, wm4 represents the 1/4 size combining ratio, and MC4 represents the 1/4 size combining moving object likelihood. represents degrees.
1/4サイズ合成動体尤度の例を図12(H)に示す。図12(H)に示す1/4サイズ合成動体尤度は、図12(G)に示す1/4サイズ合成比率に基づき、図12(C)に示す1/16サイズ動体尤度(拡大後)と図12(D)に示す1/4サイズ動体尤度とを合成することにより得られたものである。図12(H)に示す1/4サイズ合成動体尤度は、図12(C)に示す1/16サイズ動体尤度よりもエッジ付近のコントラストが鮮鋭になっている。これは、移動被写体の輪郭近傍で1/16サイズエッジ度(図12(E)参照)が高くなった影響により、1/4サイズ合成比率(図12(G)参照)が高くなったためである。 FIG. 12(H) shows an example of the 1/4 size synthetic moving object likelihood. The 1/4 size synthetic moving object likelihood shown in FIG. 12(H) is based on the 1/4 size synthetic ratio shown in FIG. ) and the 1/4 size moving object likelihood shown in FIG. 12(D). The 1/4 size synthetic moving object likelihood shown in FIG. 12(H) has a sharper contrast near the edge than the 1/16 size moving object likelihood shown in FIG. 12(C). This is because the 1/16 size edge rate (see FIG. 12(E)) increases near the contour of the moving subject, resulting in a higher 1/4 size synthesis ratio (see FIG. 12(G)). .
次に、1/4サイズ動体尤度及び1/4サイズ合成動体尤度の合成に関係する処理について説明する。拡大処理部620は、1/4サイズエッジ度を縦横4倍に拡大する。この拡大により、1/4サイズエッジ度は、等倍サイズ相当の解像度を持つようになる。合成比率算出部630は、拡大された1/4サイズエッジ度に基づき、等倍サイズ合成比率を算出する。等倍サイズ合成比率は、拡大された1/4サイズエッジ度と同様、等倍サイズ相当の解像度を持つ。
Next, processing related to synthesis of the 1/4 size moving object likelihood and the 1/4 size synthetic moving object likelihood will be described. The
ここで、等倍サイズ合成比率の算出カーブの例を図10(A)に示す。合成比率算出部630は、等倍サイズ合成比率の算出カーブに基づき、拡大された1/4サイズエッジ度から等倍サイズ合成比率を算出する。等倍サイズ合成比率の算出カーブは、図10(A)に示すように、エッジ度が中程度の所定範囲内の場合に等倍サイズ動体尤度の合成比率が高くなるように設計されている。このような設計を行う理由は2つある。
Here, FIG. 10A shows an example of a curve for calculating the same-size synthesis ratio. Composite
1つ目の理由は、エッジ度が大きくなる高コントラストエッジの微小な位置ズレや被写体の動きを過敏に動きとして検出することを抑制するためである。等倍サイズの基準画像及び参照画像においては、コントラストが高いエッジの位置が微小にでもずれていると、動体尤度が大きくなる。このような領域について合成動体尤度が高くなり、図3のS304においてこのような領域に対する合成処理が行われない場合、ノイズ低減がなされない。そのため、最終的に得られる合成画像において、微小に位置がずれている高コントラストエッジがノイジーになってしまう。そこで、図10(A)に示すように、高コントラストエッジ領域については、等倍サイズ動体尤度ではなく、より低解像度(サイズ)の動体尤度の合成比率が高くなるように、等倍サイズ合成比率の算出カーブは設計されている。 The first reason is to suppress sensitive detection of a minute positional shift of a high-contrast edge and movement of a subject, which increases the degree of edge, as movement. In the same-size standard image and reference image, if the position of the high-contrast edge deviates even slightly, the moving object likelihood increases. If the synthetic moving object likelihood is high for such an area and the synthetic processing for such an area is not performed in S304 of FIG. 3, noise reduction is not performed. As a result, high-contrast edges that are slightly misaligned become noisy in the finally obtained synthesized image. Therefore, as shown in FIG. 10A, for the high-contrast edge region, instead of using the same-size moving object likelihood, the moving object likelihood of a lower resolution (size) is used to increase the synthesis ratio of the same-size moving object likelihood. The composite ratio calculation curve is designed.
2つ目の理由は、エッジ度が小さい被写体の動きを検出するためである。エッジ度が小さい被写体としては、例えば、低コントラストエッジを持つ被写体、細い線を持つ被写体、ドット状の小さい被写体などが挙げられる。低コントラストエッジ領域では、被写体が移動しても、フレーム間差分絶対値は比較的小さい。縮小処理を行うことによりフレーム間差分絶対値が更に小さくなるため、1/4サイズ動体尤度や1/16サイズ動体尤度にはこのような被写体の動きが含まれていない可能性がある。そこで、エッジ度が小さい被写体の動きは、等倍サイズ動体尤度に基づいて判定する必要がある。そこで、図10(A)に示すように、エッジ度が中程度の所定範囲(第2の範囲)内にある低コントラストエッジ領域に対して、等倍サイズ動体尤度の合成比率が高く設定されている。一方、エッジ度が小さい所定範囲(第1の範囲)内にある平坦部については、1/4サイズ動体尤度及び1/16サイズ動体尤度に基づく1/4サイズ合成動体尤度の合成比率が高く設定されている。同様に、エッジ度が大きい所定範囲(第3の範囲)内にある高コントラストエッジについては、1/4サイズ動体尤度及び1/16サイズ動体尤度に基づく1/4サイズ合成動体尤度の合成比率が高く設定されている。これにより、ランダムノイズの悪影響を受けにくい等倍サイズ合成動体尤度を生成することができる。 The second reason is to detect motion of a subject with a low edge degree. Subjects with a low edge degree include, for example, subjects with low-contrast edges, subjects with thin lines, subjects with small dots, and the like. In the low-contrast edge region, even if the subject moves, the inter-frame difference absolute value is relatively small. Since the absolute value of the inter-frame difference is further reduced by performing the reduction processing, there is a possibility that the 1/4 size moving object likelihood and the 1/16 size moving object likelihood do not include such motion of the subject. Therefore, it is necessary to determine the motion of a subject with a low edge degree based on the same-size moving object likelihood. Therefore, as shown in FIG. 10A, the synthetic ratio of the same-size moving object likelihood is set high for a low-contrast edge region within a predetermined range (second range) with a medium edge degree. ing. On the other hand, for flat portions within a predetermined range (first range) where the edge degree is small, the composite ratio of the 1/4 size composite moving object likelihood based on the 1/4 size moving object likelihood and the 1/16 size moving object likelihood is set high. Similarly, for high-contrast edges within a predetermined range (third range) where the edge degree is large, the 1/4 size synthetic moving object likelihood based on the 1/4 size moving object likelihood and the 1/16 size moving object likelihood The composition ratio is set high. As a result, it is possible to generate the same-size synthetic moving object likelihood that is less likely to be adversely affected by random noise.
なお、合成比率算出部630は、図10(A)に示す算出カーブの代わりに図10(B)に示す算出カーブを用いてもよい。同様に、合成比率算出部631は、図10(B)に示す算出カーブの代わりに図10(A)に示す算出カーブを用いてもよい。
Note that the combining
拡大処理部621は、1/4サイズ合成動体尤度を縦横4倍に拡大する。この拡大により、1/4サイズ動体尤度は、等倍サイズ相当の解像度を持つようになる。動体尤度合成部640は、等倍サイズ動体尤度の合成比率に基づき、等倍サイズ動体尤度と拡大された1/4サイズ合成動体尤度とを合成し、等倍サイズ合成動体尤度を生成する。この合成は、下記の式(8)に従って行われる。
MC1 = wm1×M1+(1-wm1)×MC4’ ・・・(8)
ここで、M1は等倍サイズ動体尤度を表し、MC4’は拡大された1/4サイズ合成動体尤度を表し、wm1は等倍サイズ動体尤度の合成比率を表し、MC1は等倍サイズ合成動体尤度を表す。
The
MC1 = wm1 x M1 + (1 - wm1) x MC4' (8)
Here, M1 represents the same-size moving object likelihood, MC4′ represents the enlarged 1/4-size combined moving-object likelihood, wm1 represents the combining ratio of the same-size moving object likelihood, and MC1 represents the same-size moving object likelihood. represents the synthetic moving object likelihood.
こうして得られた等倍サイズ合成動体尤度、図3のS304において基準画像の合成比率wを決定するために用いられる。 The same-size synthetic moving object likelihood thus obtained is used to determine the synthetic ratio w of the reference image in S304 of FIG.
ところで、上での説明では、等倍サイズ、1/4サイズ、及び1/16サイズの異なる3種類の解像度(サイズ)の画像データに基づき最終的な合成動体尤度(等倍サイズ合成動体尤度)を算出するものとした。しかしながら、合成動体尤度を算出するための画像データの解像度の組み合わせはこれに限定されない。例えば、倍率(縮小率)は1/4倍に限らず、1/2倍でもよい。また、解像度の種類は3種類に限定されず、例えば4種類以上の解像度の画像データ、又は異なる2種類の解像度の画像データに基づいて合成動体尤度を算出してもよい。 By the way, in the above description, the final synthetic moving object likelihood (same size synthetic moving object likelihood degree) shall be calculated. However, the combination of image data resolutions for calculating the composite moving object likelihood is not limited to this. For example, the magnification (reduction rate) is not limited to 1/4, and may be 1/2. Also, the types of resolutions are not limited to three types. For example, the synthetic moving object likelihood may be calculated based on image data with four or more types of resolutions, or image data with two different types of resolutions.
また、上の説明では、等倍サイズ合成比率の算出カーブのみが、図10(A)に示すように、エッジ度が中程度の所定範囲である低コントラストエッジ領域に対して、等倍サイズ動体尤度の合成比率を高くするように設計されているものとした。しかしながら、合成比率の算出カーブの設計はこれに限定されない。例えば、合成動体尤度を算出する際に、より高解像度画像から所定数の解像度の動体尤度を合成する場合は、図10(A)のような合成比率の算出カーブを用いてもよい。具体例として、等倍サイズの次に小さい画像データの倍率(縮小率)が1/2倍であって、異なる5種類の解像度の画像データに基づいて合成動体尤度を算出する場合を考える。この場合、等倍サイズ合成動体尤度及び1/2サイズ合成動体尤度を算出する際は、図10(A)のような合成比率の算出カーブを用いてもよい。また、これ以外の倍率(例えば、1/4サイズ及び1/8サイズ)の合成動体尤度を算出する際は、図10(B)のような合成比率の算出カーブを用いてもよい。 Further, in the above description, only the curve for calculating the same-size synthesis ratio is applied to a low-contrast edge region, which is a predetermined range with an intermediate degree of edge, as shown in FIG. 10A. It was assumed that it was designed to increase the composite ratio of likelihoods. However, the design of the synthesis ratio calculation curve is not limited to this. For example, when calculating the synthetic moving object likelihood, when synthesizing moving object likelihoods with a predetermined number of resolutions from higher resolution images, a synthesis ratio calculation curve as shown in FIG. 10A may be used. As a specific example, consider a case where the magnification (reduction rate) of the next smallest image data after the normal size is 1/2, and the composite moving object likelihood is calculated based on image data with five different resolutions. In this case, when calculating the 1/2 size synthetic moving object likelihood and the 1/2 size synthetic moving object likelihood, a synthesis ratio calculation curve as shown in FIG. 10A may be used. Also, when calculating the synthetic moving object likelihood of other magnifications (for example, 1/4 size and 1/8 size), a synthetic ratio calculation curve as shown in FIG. 10B may be used.
また、合成比率算出部630、631が用いる合成比率の算出カーブは、撮影時の感度情報に応じて変更してもよい。感度が高い場合の合成比率の算出カーブの例を図13に示す。感度が高い場合、基準画像及び参照画像のランダムノイズの度合いが大きくなる(振幅が高くなる)ため、ランダムノイズを動きと誤検出する可能性が上昇する。そのため、ランダムノイズの影響を受けにくい、より低解像度の画像データに基づいて算出した動体尤度の合成比率を高くする。図13(B)は、基準画像及び参照画像が高感度で撮影された場合に、合成比率算出部631が使用する1/4サイズ合成比率の算出カーブの例を示す。図10(B)と比較すると、1/4サイズ合成比率の上限が50%に制限されている。これにより、エッジ度が大きい場合でも1/16サイズ動体尤度の合成比率が50%となる。従って、より低解像度の画像データに基づいて算出した動体尤度の合成比率が高くなる。図13(A)は、基準画像及び参照画像が高感度で撮影された場合に、合成比率算出部630が使用する等倍サイズ合成比率の算出カーブの例を示す。図10(A)と比較すると、等倍サイズ合成比率の上限が50%に制限されている。これにより、低コントラストエッジの場合でも1/4サイズ動体尤度の合成比率が50%となる。従って、より低解像度の画像データに基づいて算出した動体尤度の合成比率が高くなる。なお、基準画像及び参照画像の撮影時の感度が相異なる場合、合成比率算出部630、631は、基準画像及び参照画像の少なくとも一方の撮影時の感度に基づいて算出カーブを変更してもよい。
Further, the combining ratio calculation curve used by the combining
また、上の説明では、より低解像度の画像データで算出したエッジ度を拡大して動体尤度の合成比率を算出するものとしたが、合成比率の算出方法はこれに限定されない。例えば、図6において、合成比率算出部631は、エッジ度算出部611が算出する1/16サイズエッジ度を縦横4倍に拡大したエッジ度とエッジ度算出部610が算出する1/4サイズエッジ度の両方に基づき、合成比率を算出してもよい。この場合、例えば、合成比率算出部631は、1/16サイズエッジ度を縦横4倍に拡大したエッジ度と1/4サイズエッジ度の平均、又はどちらか大きい方のエッジ度に基づき、合成比率を算出する。このような方法で合成比率を算出することにより、エッジ近傍のエッジ度がより大きくなるため、エッジ近傍において1/4サイズ動体尤度の合成比率が高くなる。そのため、移動被写体の輪郭により正確に沿った合成動体尤度を算出することができる。更に一般化すると、エッジ度算出部610は、等倍サイズ基準画像、等倍サイズ参照画像、1/4サイズ基準画像、及び1/4サイズ参照画像の少なくともいずれかに基づいて、合成比率算出部630が使用するエッジ度を算出することができる。また、エッジ度算出部611は、1/4サイズ基準画像、1/4サイズ参照画像、1/16サイズ基準画像、及び1/16サイズ参照画像の少なくともいずれかに基づいて、合成比率算出部631が使用するエッジ度を算出することができる。
Further, in the above description, the edge degree calculated with image data of lower resolution is expanded to calculate the composite ratio of the moving object likelihood, but the calculation method of the composite ratio is not limited to this. For example, in FIG. 6, the synthesis ratio calculation unit 631 calculates the edge degree obtained by expanding the 1/16 size edge degree calculated by the edge
また、上の説明では、エッジ度を算出する際に、エッジ強度の算出元となった画像データの種類に関わらず同一のエッジ度算出カーブ(図9参照)を使用するものとした。しかし、エッジ度算出カーブは様々な条件に応じて変化してもよい。例えば、動体尤度算出カーブと同様に、エッジ強度の算出元となった画像データの解像度に応じて、エッジ度算出カーブを変えてもよい。例えば、図8の動体尤度算出カーブと同様に、ランダムノイズがより低減されている、より低解像度のエッジ度算出カーブほど、エッジ度算出カーブの閾値を小さい値にする。一方、ランダムノイズが低減されていないより高解像度のエッジ度算出カーブほど、エッジ度算出カーブの閾値を大きい値にする。このように、エッジ強度の算出元となった画像データの解像度に応じてエッジ度算出カーブを変えることにより、ランダムノイズをエッジと誤検出してしまうことを抑制することができる。 Further, in the above description, the same edge degree calculation curve (see FIG. 9) is used when calculating the edge degree regardless of the type of image data from which the edge strength is calculated. However, the edge degree calculation curve may change according to various conditions. For example, similar to the moving object likelihood calculation curve, the edge degree calculation curve may be changed according to the resolution of the image data from which the edge strength was calculated. For example, as with the moving object likelihood calculation curve in FIG. 8, the lower the resolution of the edge degree calculation curve, in which the random noise is reduced, the smaller the threshold value of the edge degree calculation curve. On the other hand, the higher the resolution of the edge degree calculation curve in which the random noise is not reduced, the larger the threshold of the edge degree calculation curve. In this way, by changing the edge degree calculation curve according to the resolution of the image data from which the edge strength is calculated, it is possible to prevent random noise from being erroneously detected as an edge.
また、上の説明では、等倍サイズ合成動体尤度を、ランダムノイズを低減するために基準画像及び参照画像を合成する際に使用するものとしたが、等倍サイズ合成動体尤度の用途はこれに限定されない。例えば、異なる露出で撮影した複数の画像を合成することによりダイナミックレンジを拡大するHDR合成機能のために等倍サイズ合成動体尤度を使用してもよい。この場合、異なる露出で撮影した基準画像と参照画像の明るさレベルを合わせ、動体領域検出部202に入力することにより、等倍サイズ合成動体尤度を算出することができる。
Also, in the above explanation, the same-size synthetic moving object likelihood is used when synthesizing the standard image and the reference image to reduce random noise, but the usage of the same-size synthetic moving object likelihood is It is not limited to this. For example, the same size synthetic moving object likelihood may be used for an HDR compositing function that expands the dynamic range by compositing multiple images taken with different exposures. In this case, by matching the brightness levels of the standard image and the reference image captured at different exposures and inputting them to the moving object
以上説明したように、第1の実施形態によれば、撮像装置100は、基準画像及び参照画像から、縮小された基準画像及び参照画像を生成する。そして、撮像装置100は、基準画像と参照画像の差分に基づいて第1の動体尤度を生成し、縮小された基準画像と参照画像の差分に基づいて第2の動体尤度を生成する。そして、撮像装置100は、撮影範囲の各位置のエッジ度に基づいて決定される合成比率に従って第1の動体尤度と第2の動体尤度とを合成する。これにより、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。
As described above, according to the first embodiment, the
[第2の実施形態]
第1の実施形態では、エッジ度に基づいて決定される合成比率に従って動体尤度を合成する構成について説明した。一方、第2の実施形態では、上位階層の動体尤度と下位階層の動体尤度との差に基づいて決定される合成比率に従って動体尤度を合成する構成について説明する。ここで言う「階層」とは、基準画像及び参照画像に関する特定の倍率(縮小率)を意味する。
[Second embodiment]
1st Embodiment demonstrated the structure which synthesize|combines moving object likelihood according to the compositing ratio determined based on edge degree. On the other hand, in the second embodiment, a configuration will be described in which moving object likelihoods are synthesized according to a synthesis ratio determined based on the difference between the moving object likelihoods of the upper layer and the moving object likelihoods of the lower layer. The term "hierarchy" used herein means a specific magnification (reduction ratio) for the standard image and the reference image.
第2の実施形態において、撮像装置100の基本的な構成は第1の実施形態と同様である(図1及び図2参照)。但し、図2の動体領域検出部202の詳細な構成は、第1の実施形態では図6に示す構成であったが、第2の実施形態では図16に示す構成である。また、図3のS303において実行される処理は、第1の実施形態では図7に示す処理であったが、第2の実施形態では図15に示す処理が実行される。また、図3のS304における画像合成処理は、第1の実施形態では図7に示す処理により生成される合成動体尤度に従って行われたが、第2の実施形態では図15に示す処理により生成される合成動体尤度に従って行われる。以下、主に第1の実施形態と異なる点について説明する。
In the second embodiment, the basic configuration of an
最初に、図4及び図14を参照して、階層動体検出の概要を説明する。図14は、3つの異なる解像度での動体尤度、及び最終的な合成動体尤度を示す概要図である。本実施形態では、撮像装置100は、基準画像の画素値と参照画像の画素値との差分に基づく動体尤度として、基準画像と参照画像との間の差分絶対値和(SAD)を用いるものとする。しかしながら、撮像装置100は、第1の実施形態と同様の動体尤度を用いてもよい。即ち、撮像装置100は、基準画像と参照画像との間のフレーム間差分絶対値を画素毎に算出し、図8(A)~(C)に示す動体尤度算出カーブに従って動体尤度を算出してもよい。
First, with reference to FIGS. 4 and 14, an outline of hierarchical moving body detection will be described. FIG. 14 is a schematic diagram showing the motion likelihood at three different resolutions and the final composite motion likelihood. In the present embodiment, the
撮像装置100は、図4(A)の基準画像及び図4(C)の位置合わせ済み参照画像について、各階層のSADを算出する(図14の「x1/16階層のSAD」、「x1/4階層のSAD」、及び「x1/1階層(等倍階層)のSAD」参照)。そして、撮像装置100は、各階層のSADを合成することにより、合成SAD(合成動体尤度)を生成する(図14の「合成SAD」参照)。なお、図14において、白色の領域は、フレーム間で差分が発生し、動体領域として検出された領域を表わす。また、「x1/16階層」、「x1/4階層」、及び「x1/1階層(等倍階層)」は、それぞれ、第1の実施形態で述べた1/16サイズ、1/4サイズ、等倍サイズに対応する。
The
図14において、位置1401~1404は、同じ背景領域の位置を表し、位置1411~1414は、同じ人領域の位置を表わす。位置1401~1403を見ると、解像度が高い階層ほど背景領域に多くの差分が検出されていることが分かる。これは、ノイズが画像データに乗ることで、被写体が動かなくても画像間の差分が検出されていることが要因である。逆に解像度が低い階層では、ノイズによる耐性が強く、ノイズが差分情報として検出されにくくなる。しかしながら、解像度が荒くなることで、動きが発生している領域については、実際よりも大きな領域が検出されやすい。例えば、位置1411では、位置1413に比べて大きな動体領域が検出されている。中間解像度に対応する位置1402や位置1412では、ノイズの耐性がやや強く、動体領域の輪郭も移動被写体の輪郭に比較的沿っている。即ち、中間解像度の階層は、高解像度の階層と低解像度の階層との間の特徴を持つ。これらの異なる階層のSADを合成することで、図14の「合成SAD」に示すような情報を得ることができる。これにより、ノイズ耐性が強く、かつ移動被写体の輪郭に沿った動体領域を検出することが可能となる。
In FIG. 14, positions 1401-1404 represent the same background region positions, and positions 1411-1414 represent the same person region positions. Looking at the
次に、図15及び図16を参照して、動体領域検出部202が実行する合成動体尤度算出処理について説明する。S1501で、動体領域検出部202は、図7のS701と同様に、基準画像及び参照画像を取得する。
Next, synthetic moving object likelihood calculation processing executed by the moving object
S1502で、縮小処理部1650は、基準画像及び参照画像に対して縮小処理を行うことにより、縮小された基準画像及び参照画像を生成する。具体的には、縮小処理部1650は、図7のS702と同様に、1/4サイズ基準画像、1/4サイズ参照画像、1/16サイズ基準画像、及び1/16サイズ参照画像を生成する。 In S1502, the reduction processing unit 1650 generates a reduced base image and reference image by performing reduction processing on the base image and the reference image. Specifically, the reduction processing unit 1650 generates a 1/4 size reference image, a 1/4 size reference image, a 1/16 size reference image, and a 1/16 size reference image, as in S702 of FIG. .
S1503で、SAD算出部1611、1612、1613は、対応する解像度(サイズ)の基準画像と参照画像との間のSADを算出する。例えば、SAD算出部1611、1612、1613は、着目画素周辺の画素(例えば、着目画素周辺の3x3画素)も含めた差分絶対値和(SAD:Sum of Absolute Difference)を算出する。
In S1503, the
S1504で、動体領域検出部202は、拡大処理部1621、1622、及びSAD算出部1612、1613を用いて、階層間のSADの差を算出する。具体的には、拡大処理部1621、1622は、SAD算出部1612、1613により算出されたSADを縦横4倍に拡大する。この拡大により、SAD算出部1612により算出されたSADは、等倍サイズ相当の解像度を持ち、SAD算出部1613により算出されたSADは、1/4サイズ相当の解像度を持つようになる。次に、合成比率算出部1631、1632は、階層間のSADの差を算出する。具体的には、合成比率算出部1631は、SAD算出部1611により算出されたSADと、SAD算出部1612により算出され拡大処理部1621により拡大されたSADとの差を算出する。また、合成比率算出部1632は、SAD算出部1612により算出されたSADと、SAD算出部1613により算出され拡大処理部1622により拡大されたSADとの差を算出する。S1504における算出処理の詳細については、図21を参照して後述する。
In S<b>1504 , the moving object
S1505で、合成比率算出部1631、1632は、S1504において算出されたSADの差に基づく閾値判定を行うことにより、合成比率を算出する。
In S1505, the synthesis
S1506で、動体領域検出部202は、拡大処理部1623、1624、及びSAD合成部1641、1642を用いて、下位階層から順にSADを合成する。具体的には、拡大処理部1623は、SAD算出部1613により算出されたSADを縦横4倍に拡大する。この拡大により、SAD算出部1613により算出されたSADは、1/4サイズ相当の解像度を持つようになる。そして、SAD合成部1642は、SAD算出部1612により算出されたSADと、SAD算出部1613により算出され拡大処理部1623により拡大されたSADとを合成することにより、1/4サイズ合成SADを生成する。この合成は、合成比率算出部1632により算出された合成比率に従って行われる。次に、拡大処理部1624は、SAD合成部1642により生成された1/4サイズ合成SADを縦横4倍に拡大する。この拡大により、1/4サイズ合成SADは、等倍サイズ相当の解像度を持つようになる。そして、SAD合成部1641は、SAD算出部1611により算出されたSADと、拡大処理部1624により拡大された1/4サイズ合成SADとを合成することにより、等倍サイズ合成SADを生成する。この合成は、合成比率算出部1631により算出された合成比率に従って行われる。こうして生成された等倍サイズ合成SADは、図3のS304における合成処理のために使用される。
In S1506, the moving object
上記の合成比率に従うSADの合成処理は、例えば下記の式(9)に従って実行することができる。
上位階層SAD×合成比率+下位階層SAD×(1-合成比率) ・・・(9)
ここで、0≦合成比率≦1である。また、「上位階層SAD」は、合成対象の2階層のうち解像度が大きい画像データの階層のSADを意味し、「下位階層SAD」は、合成対象の2階層のうち解像度が小さい画像データの階層のSADを意味する。但し、下位階層と更に下位の階層との間でSADの合成が行われる場合、「下位階層SAD」は、下位階層の合成SADに対応する。
The SAD synthesis processing according to the above synthesis ratio can be executed, for example, according to the following equation (9).
Upper layer SAD×synthesis ratio+lower layer SAD×(1−synthesis ratio) (9)
Here, 0≦synthesis ratio≦1. In addition, the “upper layer SAD” means the SAD of the image data layer with the higher resolution among the two layers to be synthesized, and the “lower layer SAD” is the layer of the image data with the lower resolution among the two layers to be synthesized. of SAD. However, when SAD synthesis is performed between a lower hierarchy and a further lower hierarchy, the "lower hierarchy SAD" corresponds to the synthesized SAD of the lower hierarchy.
式(9)の合成比率は、階層間のSADの差が大きいほど大きくなるように決定される。従って、式(9)の合成処理によれば、階層間のSADの差が大きいほど、得られる合成SADにおける上位階層SADの重みが大きくなる。 The combination ratio in equation (9) is determined so as to increase as the difference in SAD between layers increases. Therefore, according to the synthesizing process of Equation (9), the greater the difference in SAD between hierarchies, the greater the weight of the upper hierarchical SAD in the resulting synthesized SAD.
次に、図17、図18A、及び図18Bを参照して、合成比率算出部1631、1632の動作について詳細に説明する。なお、各階層の基準画像及び参照画像の画素値については、第1の実施形態と同様、図11及び図12(A)~(B)に示す画素値を用いる。図17(A)は、x1/1階層における基準画像と参照画像との間のSAD1713を示す。図17(B)は、x1/4階層における基準画像と参照画像との間のSAD1723を示す。図17(C)は、x1/16階層における基準画像と参照画像との間のSAD1733を示す。
Next, operations of the combining
合成比率算出部1632は、x1/16階層のSADとx1/4階層のSADとを合成するための合成比率を算出する。このときの合成比率は、x1/16階層のSADとx1/4階層のSADの差に基づいて算出される。なお、前述の通り、x1/16階層のSADは、拡大処理部1622により縦横4倍に拡大される。図18Aに示すように、合成比率算出部1632は、x1/16階層のSAD1733とx1/4階層のSAD1723との差1811を算出する。なお、差1811は厳密には差分絶対値であるが、単純化のため「差」と表記するものとする。SADの差1811が大きい領域では、下位階層(x1/16階層)において実際よりも広い動体領域が検出されている可能性がある。そのため、合成比率算出部1632は、SADの差1811が大きい領域では上位階層(x1/4階層)の合成比率が大きくなるように制御する。これは、合成比率変換カーブ1821を用いることにより実現可能である。合成比率変換カーブ1821は、SADの差に関して下限閾値1822及び上限閾値1823を持ち、これら2つの閾値の間で0%から100%の値を持つ。合成比率算出部1632は、合成比率変換カーブ1821に従って、SADの差1811を合成比率1831に変換する。
The synthesis
同様に、合成比率算出部1631は、x1/4階層のSADとx1/1階層のSADとを合成するための合成比率を算出する。このときの合成比率は、x1/4階層のSADとx1/1階層のSADの差に基づいて算出される。なお、前述の通り、x1/4階層のSADは、拡大処理部1621により縦横4倍に拡大される。図18Bに示すように、合成比率算出部1631は、x1/4階層のSAD1723とx1/1階層のSAD1713との差1851を算出する。なお、差1851は厳密には差分絶対値であるが、単純化のため「差」と表記するものとする。SADの差1851が大きい領域では、下位階層(x1/4階層)において実際よりも広い動体領域が検出されている可能性がある。そのため、合成比率算出部1631は、SADの差1851が大きい領域では上位階層(x1/1階層)の合成比率が大きくなるように制御する。これは、合成比率変換カーブ1861を用いることにより実現可能である。合成比率変換カーブ1861は、SADの差に関して下限閾値1862及び上限閾値1863を持ち、これら2つの閾値の間で0%から100%の値を持つ。合成比率算出部1631は、合成比率変換カーブ1861に従って、SADの差1851を合成比率1871に変換する。
Similarly, the synthesis
なお、図21を参照して後述する通り、SADの差1811、1851は、着目画素の周辺画素(周辺位置の画素)のSADも含めて算出される。そのため、図18Aにおいて、特定の水平座標におけるSADの差1811は、その座標におけるx1/4階層のSAD1723とx1/16階層のSAD1733の差に必ずしも一致しない。同様に、図18Bにおいて、特定の水平座標におけるSADの差1851は、その座標におけるx1/1階層のSAD1713とx1/4階層のSAD1723の差に必ずしも一致しない。
As will be described later with reference to FIG. 21, the
解像度の低い基準画像及び参照画像に基づいて算出されたSADを用いると、移動被写体の輪郭よりも外側まで動体領域として検出される。上述のように上位階層のSADと下位階層のSADの差が大きい領域について上位階層のSADの合成比率を大きくすることにより、移動被写体の輪郭にフィットさせた動体領域を高精度で検出することが可能となる。 Using the SAD calculated based on the low-resolution standard image and the reference image detects the area outside the outline of the moving object as a moving object area. As described above, by increasing the composition ratio of the SAD of the upper hierarchy for the region where the difference between the SAD of the upper hierarchy and the SAD of the lower hierarchy is large, the moving object region fitted to the contour of the moving subject can be detected with high accuracy. It becomes possible.
なお、合成比率算出部1631、1632は同一形状の合成比率変換カーブを用いてもよいが、図18A及び図18Bに示すように異なる形状の合成比率変換カーブを用いてもよい。各解像度のSADをみると、より解像度が低い階層ほどSADの大きい領域(動体領域)が移動被写体のエッジ周辺に広がる傾向があり、より解像度の高い階層ほどSADの大きい領域(動体領域)がエッジ周辺に広がらずエッジにフィットする傾向がある。この傾向に鑑み、合成比率算出部1632が用いる合成比率変換カーブを、合成比率算出部1631が用いる合成比率変換カーブと比べて、上位階層の合成比率がより高くなるように設定する。
The
図19を参照して、合成比率変換カーブの設定方法について説明する。図19は、合成比率変換カーブの3つのパターンを示している。符号1901は、初期設定時の合成比率変換カーブ、符号1902は、上位階層の合成比率がより高くなるように構成された合成比率変換カーブ、符号1903は、上位階層の合成比率がより低くなるように構成された合成比率変換カーブを示す。x1/1階層の合成比率をより高くしたい場合、合成比率算出部1631は、合成比率変換カーブの形状を符号1901で示す形状から符号1902で示す形状に変更する。これを実現するには、例えば、合成比率算出部1631は、下限閾値1822を下限閾値1862よりも低い値に設定し、上限閾値1823を上限閾値1863よりも低い値に設定する。これにより、小さなSADの差が発生した場合でも、合成比率算出部1632は、合成比率算出部1631と比べて上位階層の重みが高くなるように制御することができる。これにより、解像度毎に最適な合成比率変換カーブを用いることが可能となる。
A method of setting the synthesis ratio conversion curve will be described with reference to FIG. FIG. 19 shows three patterns of synthetic ratio conversion curves.
また、ISO感度に応じて合成比率変換カーブの形状を変更してもよい。感度が低い場合にはノイズが少なくなるため、合成比率算出部1631、1632は、下限閾値及び上限閾値をより小さな値に設定する。反対に、感度が高い場合にはノイズが多くなるため、合成比率算出部1631、1632は、下限閾値及び上限閾値をより大きな値に設定する。
Also, the shape of the synthesis ratio conversion curve may be changed according to the ISO sensitivity. When the sensitivity is low, noise decreases, so the synthesis
図20を参照して、ISO感度に応じて合成比率変換カーブを変更する処理の具体例を説明する。図20(A)は、合成比率変換カーブの初期設定を規定するパラメータを示す。図20(B)は、このパラメータを変更した時に閾値調整が必要な項目を示す。撮影感度をISO800からISO400に下げると、ノイズに対する耐性が向上する。そのため、符号2001により示すように、合成比率算出部1631、1632は、合成比率変換カーブの下限閾値及び上限閾値を小さい値に設定する(図19の符号1901の形状から符号1902の形状に変更する)。反対に、撮影感度をISO800からISO1600に上げると、ノイズに対する耐性が低下する。そのため、符号2002により示すように、合成比率算出部1631、1632は、合成比率変換カーブの下限閾値及び上限閾値を大きい値に設定する(図19の符号1901の形状から符号1903の形状に変更する)。なお、基準画像及び参照画像の撮影時の感度が相異なる場合、合成比率算出部1631、1632は、基準画像及び参照画像の少なくとも一方の撮影時の感度に基づいて合成比率変換カーブを変更してもよい。
A specific example of processing for changing the synthesis ratio conversion curve according to the ISO sensitivity will be described with reference to FIG. FIG. 20(A) shows parameters that define the initial setting of the synthesis ratio conversion curve. FIG. 20B shows items that require threshold adjustment when this parameter is changed. Lowering the shooting sensitivity from
次に、図21を参照して、図15のS1504におけるSADの差の算出処理の詳細について説明する。図21(A)及び図21(B)は、動体領域を含んだ基準画像及び参照画像の概念図である。前述の通り、合成比率算出部1631、1632は、上位階層のSADと拡大された下位階層のSADの差を算出する。このとき、合成比率算出部1631、1632は、着目画素だけでなく、着目画素の周囲画素のSADも加味してSADの差を算出する。図21では、説明を簡単にするために、SADの差を2値で表現する(差が大きい領域は1、差が小さい領域は0)。以下では、x1/4階層のSADとx1/16階層のSADの差に関して説明を行うが、x1/1階層のSADとx1/4階層のSADの差に関しても同様である。
Next, details of the SAD difference calculation processing in S1504 of FIG. 15 will be described with reference to FIG. FIGS. 21(A) and 21(B) are conceptual diagrams of a base image and a reference image including moving object regions. As described above, the
上位階層(x1/4階層)のSADは、動体領域の検出範囲が相対的に小さいため、人物内部などのテクスチャが少なくなりやすい。そのため、SADの値は小さくなりやすいため、動体領域の検出漏れが発生しやすい。例えば、領域2111と領域2113の差分として、図21(C)及び図21(D)に示すSAD2121が算出される。反対に、下位階層(x1/16階層)では動体領域の検出範囲が相対的に大きいため、SADが大きくなりやすい。例えば、領域2101と領域2103の差分として、図21(C)及び図21(D)に示すSAD2122が算出される。その後、着目画素についてx1/16階層のSAD(拡大後)とx1/4階層のSADの差を算出した場合、図21(C)に示す差2131が得られる。差2131によれば、階層間のSADの差が大きい。そのため、差2131に基づいて合成比率を決定すると、x1/4階層のSADの重みが大きくなる。その結果、移動被写体の内部など、動体領域のうちフレーム間差分が小さくなる部分について、動体領域の検出漏れが発生する可能性がある。
Since the SAD of the higher hierarchy (x1/4 hierarchy) has a relatively small detection range for moving object regions, the texture of the inside of a person tends to be small. As a result, the SAD value tends to be small, so detection failure of the moving object region tends to occur. For example,
そこで、合成比率算出部1632は、図21(D)に示すように、着目画素の周辺画素のSADも含めて、x1/4階層のSADとx1/16階層のSADの差を算出する。具体的には、合成比率算出部1632は、x1/4階層のSADとx1/16階層のSADそれぞれについて、着目画素及び周辺画素のSADの平均値を算出し、平均値同士の差の絶対値を算出する。これにより、図21(D)に示す差2132が得られる。差2132は、階層間のSADに差がないことを示す。そのため、差2132に基づいて合成比率を決定すると、x1/16階層のSADの重みが大きくなる。その結果、動体領域の検出漏れが抑制される。
Therefore, as shown in FIG. 21D, the synthesis
なお、合成比率算出部1632は、着目画素の周辺画素のSADを参照する代わりに、メディアンフィルタやローパスフィルタをそれぞれの階層のSADに掛ける処理を行い、その後、階層間のSADの差を算出してもよい。
Note that the synthesis
以上説明したように、第2の実施形態によれば、撮像装置100は、基準画像及び参照画像から、縮小された基準画像及び参照画像を生成する。そして、撮像装置100は、基準画像と参照画像の差分に基づいて第1の動体尤度を生成し、縮小された基準画像と参照画像の差分に基づいて第2の動体尤度を生成する。そして、撮像装置100は、第1の動体尤度と第2の動体尤度の差に基づいて決定される合成比率に従って第1の動体尤度と第2の動体尤度とを合成する。これにより、画像間の画素値の差分に基づく動体領域の検出精度を向上させることが可能となる。
As described above, according to the second embodiment, the
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
100…撮像装置、202…動体領域検出部、600、601、602…動体尤度算出部、610、611…エッジ度算出部、630、631…合成比率算出部、640、641…動体尤度合成部、650…縮小処理部
Reference Signs List 100: Imaging device 202: Moving object
Claims (17)
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得手段と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得手段と、
前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、
を備えることを特徴とする画像処理装置。 reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; reduction means for generating a second reference image and a second reference image by
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; a first obtaining means for obtaining a second moving object likelihood based on a difference between a value and a pixel value of the second reference image;
a second step of obtaining an edge degree at each position of the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; a means for obtaining the
determining means for determining a synthesis ratio of the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range;
synthesizing means for generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range;
An image processing device comprising:
ことを特徴とする請求項1に記載の画像処理装置。 When the edge degree is in a second range that is larger than the first range and smaller than the third range, the determining means determines that when the edge degree is in the first range or the third range, the 2. The image processing apparatus according to claim 1, wherein a synthesis ratio of said first moving object likelihood and said second moving object likelihood is determined such that a synthesis ratio of said first moving object likelihood is large. .
ことを特徴とする請求項1に記載の画像処理装置。 wherein the determination means determines the synthesis ratio of the first moving object likelihood and the second moving object likelihood such that the synthesis ratio of the first moving object likelihood increases as the edge degree increases. 2. The image processing apparatus according to claim 1.
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The determining means determines the first moving object likelihood and the second moving object likelihood based on the degree of random noise in at least one of the first reference image and the first reference image in addition to the edge degree. 4. The image processing apparatus according to any one of claims 1 to 3, wherein a combination ratio of degrees is determined.
ことを特徴とする請求項4に記載の画像処理装置。 The determining means determines the sensitivity of at least one of the first standard image and the first reference image at the time of shooting as the degree of random noise in at least one of the first standard image and the first reference image. 5. The image processing apparatus according to claim 4, characterized in that:
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する第1の取得手段と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第1のエッジ度を取得し、前記第2の基準画像、前記第2の参照画像、前記第3の基準画像、及び前記第3の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第2のエッジ度を取得する第2の取得手段と、
前記撮影範囲の各位置について、前記第2のエッジ度に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成手段と、
を備え、
前記決定手段は、前記撮影範囲の各位置について、前記第1のエッジ度に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成手段は、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理装置。 reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction means for generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image a first acquisition means for acquiring a third moving object likelihood;
obtaining a first edge degree for each position in the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; and a second edge degree at each position in the photographing range based on at least one of the second reference image, the second reference image, the third reference image, and the third reference image a second acquisition means for acquiring
determining means for determining a first synthesis ratio of the second moving object likelihood and the third moving object likelihood based on the second edge degree for each position in the imaging range;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; means and
with
The determining means determines a second synthesis ratio of the first moving object likelihood and the first synthetic moving object likelihood based on the first edge degree for each position in the imaging range,
The synthesizing means synthesizes the first moving object likelihood and the first synthetic moving object likelihood according to the determined second synthesis ratio for each position in the imaging range, thereby producing a second synthetic moving object. An image processing device characterized by generating a likelihood.
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する取得手段と、
前記撮影範囲の各位置について、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成手段と、
を備えることを特徴とする画像処理装置。 reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; reduction means for generating a second reference image and a second reference image by
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; acquisition means for acquiring a second moving object likelihood based on the difference between the value and the pixel value of the second reference image;
Determination of determining a composite ratio of the first moving object likelihood and the second moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood for each position in the imaging range. means and
synthesizing means for generating a synthesized moving object likelihood by synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range;
An image processing device comprising:
ことを特徴とする請求項7に記載の画像処理装置。 The determining means determines the first moving object likelihood and the second moving object likelihood so that the larger the difference absolute value between the first moving object likelihood and the second moving object likelihood, the larger the synthetic ratio of the first moving object likelihood. 8. The image processing apparatus according to claim 7, wherein a combining ratio of the second moving object likelihood and the second moving object likelihood is determined.
ことを特徴とする請求項7又は8に記載の画像処理装置。 The determining means, based on the difference between the first moving object likelihood and the second moving object likelihood and the sensitivity at the time of shooting of at least one of the first reference image and the first reference image, 9. The image processing apparatus according to claim 7, wherein a composite ratio of said first moving object likelihood and said second moving object likelihood is determined.
ことを特徴とする請求項7乃至9のいずれか1項に記載の画像処理装置。 The determination means determines the first moving object likelihood and the 10. The image processing apparatus according to any one of claims 7 to 9, wherein a difference between second moving object likelihoods is calculated.
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する取得手段と、
前記撮影範囲の各位置について、前記第2の動体尤度と前記第3の動体尤度の差に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定手段と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成手段と、
を備え、
前記決定手段は、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成手段は、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理装置。 reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction means for generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image Acquisition means for acquiring a third moving object likelihood;
A first synthetic ratio of the second moving object likelihood and the third moving object likelihood is calculated based on a difference between the second moving object likelihood and the third moving object likelihood for each position in the imaging range. a determining means for determining;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; means and
with
The determining means determines a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood. ,
The synthesizing means synthesizes the first moving object likelihood and the first synthetic moving object likelihood according to the determined second synthesis ratio for each position in the imaging range, thereby producing a second synthetic moving object. An image processing device characterized by generating a likelihood.
前記第1の基準画像及び前記第1の参照画像を生成する撮像手段と、
を備えることを特徴とする撮像装置。 An image processing device according to any one of claims 1 to 11;
imaging means for generating the first standard image and the first reference image;
An imaging device comprising:
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する第1の取得工程と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置のエッジ度を取得する第2の取得工程と、
前記撮影範囲の各位置について、前記エッジ度に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成工程と、
を備えることを特徴とする画像処理方法。 An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; a reduction step to thereby generate a second reference image and a second reference image;
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; a first obtaining step of obtaining a second moving object likelihood based on a difference between a value and a pixel value of the second reference image;
a second step of obtaining an edge degree at each position of the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; a step of obtaining
a determination step of determining a synthesis ratio of the first moving object likelihood and the second moving object likelihood based on the edge degree for each position in the imaging range;
a synthesizing step of synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range to generate a synthesized moving object likelihood;
An image processing method comprising:
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する第1の取得工程と、
前記第1の基準画像、前記第1の参照画像、前記第2の基準画像、及び前記第2の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第1のエッジ度を取得し、前記第2の基準画像、前記第2の参照画像、前記第3の基準画像、及び前記第3の参照画像の少なくともいずれかに基づいて、前記撮影範囲の各位置の第2のエッジ度を取得する第2の取得工程と、
前記撮影範囲の各位置について、前記第2のエッジ度に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成工程と、
を備え、
前記決定工程では、前記撮影範囲の各位置について、前記第1のエッジ度に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成工程では、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理方法。 An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction step of generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image A first acquisition step of acquiring a third moving object likelihood;
obtaining a first edge degree for each position in the imaging range based on at least one of the first reference image, the first reference image, the second reference image, and the second reference image; and a second edge degree at each position in the photographing range based on at least one of the second reference image, the second reference image, the third reference image, and the third reference image a second obtaining step of obtaining
a determination step of determining a first synthesis ratio of the second moving object likelihood and the third moving object likelihood based on the second edge degree for each position in the imaging range;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; process and
with
In the determination step, for each position in the imaging range, a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood is determined based on the first edge degree;
In the synthesizing step, the first moving object likelihood and the first synthesized moving object likelihood are synthesized in accordance with the determined second synthesis ratio for each position in the imaging range to obtain a second synthetic moving object. An image processing method characterized by generating a likelihood.
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得する取得工程と、
前記撮影範囲の各位置について、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第2の動体尤度の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された合成比率に従って前記第1の動体尤度と前記第2の動体尤度とを合成することにより合成動体尤度を生成する合成工程と、
を備えることを特徴とする画像処理方法。 An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; a reduction step to thereby generate a second reference image and a second reference image;
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; an obtaining step of obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image;
Determination of determining a composite ratio of the first moving object likelihood and the second moving object likelihood based on a difference between the first moving object likelihood and the second moving object likelihood for each position in the imaging range. process and
a synthesizing step of synthesizing the first moving object likelihood and the second moving object likelihood according to the determined synthesis ratio for each position in the imaging range to generate a synthesized moving object likelihood;
An image processing method comprising:
所定の撮影範囲を含んだ第1の基準画像及び前記第1の基準画像とは異なる時刻に撮影された、前記所定の撮影範囲を含んだ第1の参照画像それぞれを第1の倍率で縮小することにより第2の基準画像及び第2の参照画像を生成し、前記第1の基準画像及び前記第1の参照画像それぞれを前記第1の倍率より小さい第2の倍率で縮小することにより第3の基準画像及び第3の参照画像を生成する縮小工程と、
前記撮影範囲の各位置について、前記第1の基準画像の画素値と前記第1の参照画像の画素値の差分に基づいて第1の動体尤度を取得し、前記第2の基準画像の画素値と前記第2の参照画像の画素値の差分に基づいて第2の動体尤度を取得し、前記第3の基準画像の画素値と前記第3の参照画像の画素値の差分に基づいて第3の動体尤度を取得する取得工程と、
前記撮影範囲の各位置について、前記第2の動体尤度と前記第3の動体尤度の差に基づいて前記第2の動体尤度及び前記第3の動体尤度の第1の合成比率を決定する決定工程と、
前記撮影範囲の各位置について、前記決定された第1の合成比率に従って前記第2の動体尤度と前記第3の動体尤度とを合成することにより第1の合成動体尤度を生成する合成工程と、
を備え、
前記決定工程では、前記第1の動体尤度と前記第2の動体尤度の差に基づいて前記第1の動体尤度及び前記第1の合成動体尤度の第2の合成比率を決定し、
前記合成工程では、前記撮影範囲の各位置について、前記決定された第2の合成比率に従って前記第1の動体尤度と前記第1の合成動体尤度とを合成することにより第2の合成動体尤度を生成する
ことを特徴とする画像処理方法。 An image processing method executed by an image processing device,
reducing each of a first reference image including a predetermined imaging range and a first reference image including the predetermined imaging range captured at a time different from that of the first reference image by a first magnification; to generate a second standard image and a second reference image, and reduce the first standard image and the first reference image by a second magnification smaller than the first magnification, thereby reducing the third a reduction step of generating a reference image and a third reference image of
obtaining a first moving object likelihood based on a difference between a pixel value of the first reference image and a pixel value of the first reference image for each position in the imaging range; obtaining a second moving object likelihood based on the difference between the value and the pixel value of the second reference image, and based on the difference between the pixel value of the third reference image and the pixel value of the third reference image an acquisition step of acquiring a third moving object likelihood;
A first synthetic ratio of the second moving object likelihood and the third moving object likelihood is calculated based on a difference between the second moving object likelihood and the third moving object likelihood for each position in the imaging range. a decision step of deciding;
combining the second moving object likelihood and the third moving object likelihood according to the determined first combination ratio for each position in the imaging range to generate a first combined moving object likelihood; process and
with
In the determining step, a second synthetic ratio of the first moving object likelihood and the first combined moving object likelihood is determined based on a difference between the first moving object likelihood and the second moving object likelihood. ,
In the synthesizing step, the first moving object likelihood and the first synthesized moving object likelihood are synthesized in accordance with the determined second synthesis ratio for each position in the imaging range to obtain a second synthetic moving object. An image processing method characterized by generating a likelihood.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017235288A JP7157526B2 (en) | 2017-12-07 | 2017-12-07 | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017235288A JP7157526B2 (en) | 2017-12-07 | 2017-12-07 | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019101977A JP2019101977A (en) | 2019-06-24 |
JP2019101977A5 JP2019101977A5 (en) | 2021-01-21 |
JP7157526B2 true JP7157526B2 (en) | 2022-10-20 |
Family
ID=66973956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017235288A Active JP7157526B2 (en) | 2017-12-07 | 2017-12-07 | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7157526B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004343483A (en) | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2009164857A (en) | 2007-12-29 | 2009-07-23 | Morpho Inc | Image data processing method, and image processing apparatus |
JP2013062741A (en) | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | Image processing apparatus, imaging apparatus, and image processing method |
-
2017
- 2017-12-07 JP JP2017235288A patent/JP7157526B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004343483A (en) | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2009164857A (en) | 2007-12-29 | 2009-07-23 | Morpho Inc | Image data processing method, and image processing apparatus |
JP2013062741A (en) | 2011-09-14 | 2013-04-04 | Ricoh Co Ltd | Image processing apparatus, imaging apparatus, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2019101977A (en) | 2019-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101036787B1 (en) | Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device | |
US8508605B2 (en) | Method and apparatus for image stabilization | |
KR101643607B1 (en) | Method and apparatus for generating of image data | |
JP5687553B2 (en) | Image composition apparatus, image composition method, and image composition program | |
WO2013054607A1 (en) | Image processing device, image processing method, image processing program, and recording medium | |
JP5978949B2 (en) | Image composition apparatus and computer program for image composition | |
JP2009118483A (en) | Device and method for correcting camera shake in digital by using object tracking | |
JP6074254B2 (en) | Image processing apparatus and control method thereof | |
JP2012208553A (en) | Image processing device, image processing method, and program | |
JP5603798B2 (en) | Defect detection apparatus, defect detection method, and computer program | |
JP2008077501A (en) | Image processing device and image processing control program | |
JP5882702B2 (en) | Imaging device | |
JP6904842B2 (en) | Image processing device, image processing method | |
JP2020061080A (en) | Image processing device, imaging device, and image processing method | |
JP6604908B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6541501B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD | |
JP2009088935A (en) | Image recording apparatus, image correcting apparatus, and image pickup apparatus | |
JP5566199B2 (en) | Image processing apparatus, control method therefor, and program | |
JP7157526B2 (en) | IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6614824B2 (en) | Image processing apparatus, image processing system, imaging apparatus, image processing method, and program | |
JP7009252B2 (en) | Image processing equipment, image processing methods and programs | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP5340021B2 (en) | Image processing apparatus, image processing method, and program | |
JP7427398B2 (en) | Image processing device, image processing method, image processing system and program | |
JP6604783B2 (en) | Image processing apparatus, imaging apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201204 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221007 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7157526 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |