JP6120632B2 - Image processing apparatus, image processing method, and image processing program - Google Patents
Image processing apparatus, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6120632B2 JP6120632B2 JP2013062189A JP2013062189A JP6120632B2 JP 6120632 B2 JP6120632 B2 JP 6120632B2 JP 2013062189 A JP2013062189 A JP 2013062189A JP 2013062189 A JP2013062189 A JP 2013062189A JP 6120632 B2 JP6120632 B2 JP 6120632B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- size
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
本発明は、例えばデジタルカメラ等で連続して撮影された画像に含まれる局所的な移動領域を検出する画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for detecting a local moving area included in images continuously captured by, for example, a digital camera.
デジタルカメラ等で撮影された複数のフレーム画像を用いて、連続する画像において局所的に移動する被写体を検出する画像処理装置が知られている。また、複数枚の画像を合成する際に、移動体領域の検出結果を合成処理に反映することにより、適切な画像合成を行う画像処理装置が知られている。 2. Description of the Related Art Image processing apparatuses that detect a subject that moves locally in successive images using a plurality of frame images photographed by a digital camera or the like are known. There is also known an image processing apparatus that performs appropriate image composition by reflecting a detection result of a moving object region in composition processing when combining a plurality of images.
移動する被写体が含まれる領域を検出する技術に関しては、例えば、ある特定の移動体をパターンマッチングすることにより、位置を検出する手段や、分割したブロックあるいは画素ごとに複数枚の画像の差分値を用いて動きを検出する方法が知られている。 With regard to a technique for detecting an area including a moving subject, for example, by performing pattern matching on a specific moving body, a means for detecting a position, or a difference value of a plurality of images for each divided block or pixel is obtained. A method of detecting motion using this method is known.
しかし、目標となる移動体とその背景が同じような輝度を示す場合には、1値(例えば輝度)のみに基づいて的確に移動体を検出することは困難である。また、分割したブロックごとに移動体の動き検出をする際、分割の単位が大きいと、小さな移動体の検出を精度よく行えず、分割の単位が小さいと、処理時間が増大する等の問題がある。 However, when the target moving body and the background thereof have the same luminance, it is difficult to accurately detect the moving body based on only one value (for example, luminance). In addition, when detecting the movement of a moving object for each divided block, if the unit of division is large, detection of a small moving object cannot be performed accurately, and if the unit of division is small, there is a problem that processing time increases. is there.
そこで、移動体の検出において、複数の情報、例えば輝度平均、エッジ密度、各色成分などを用いる手段や、ブロックを分割するときの分割サイズを領域ごとに変える手段が提案されている。 Therefore, means for using a plurality of pieces of information, for example, luminance average, edge density, each color component, and the like, and means for changing the division size for dividing a block for each area have been proposed.
例えば特許文献1では、2枚の画像を所定サイズに分割したブロックごとの動きベクトルを算出し、そのベクトルの分布から移動体の領域を検出する手段が開示されている。 For example, Patent Document 1 discloses means for calculating a motion vector for each block obtained by dividing two images into a predetermined size, and detecting a moving object region from the vector distribution.
また、特許文献2では、複数枚の画像を所定サイズに分割したブロックごとの類似度から移動体を含むブロックを検出し、連続する検出ブロックを基に分割のサイズを変えて、さらに移動体領域を検出する手段が開示されている。 Further, in Patent Document 2, a block including a moving object is detected from the similarity of each block obtained by dividing a plurality of images into a predetermined size, and the size of the division is changed based on successive detection blocks. Means for detecting are disclosed.
更に、特許文献3では、画像データをブロック単位で符号化するときのブロックサイズをブロックの分散値を基に変える手段が開示されている。 Furthermore, Patent Document 3 discloses means for changing the block size when encoding image data in units of blocks based on the variance value of the blocks.
しかし、上記特許文献1では、移動体が画面内から消失あるいは新たに侵入したときに得られる動きベクトルが不確かなものとなり、その結果、正しい移動体の検出結果が得られない可能性がある。 However, in Patent Document 1, the motion vector obtained when the moving object disappears or newly enters from the screen becomes uncertain, and as a result, there is a possibility that a correct moving object detection result cannot be obtained.
また、上記特許文献2では、連続するブロック内に移動体が存在したときに細かいブロックサイズで動き判定を行うため、小さい移動体や動きの小さい移動体の検出精度が低下する可能性がある。 Further, in Patent Document 2, since the motion determination is performed with a fine block size when a moving body exists in a continuous block, there is a possibility that the detection accuracy of a small moving body or a moving body with a small motion may be lowered.
更に、上記特許文献3では、高周波領域に対してはブロックのサイズが大きくならないことから、移動体の検出結果がばらつき、複数枚の画像合成に適用したときに二重像が現れ、画質が劣化する可能性がある。 Furthermore, in Patent Document 3, since the block size does not increase in the high frequency region, the detection result of the moving object varies, and a double image appears when applied to the synthesis of a plurality of images, and the image quality deteriorates. there's a possibility that.
そこで、本発明は、大小複数の移動体に対して、誤検出を抑えながら移動体の微小な動きを精度よく検出する仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism for accurately detecting a minute movement of a moving body while suppressing erroneous detection for a plurality of large and small moving bodies.
上記目的を達成するために、本発明の画像処理装置は、第1の画像データ、及び第2の画像データをそれぞれ複数の領域に分割する分割手段と、前記分割手段により分割された各領域の周波数情報を取得するとともに、前記第1の画像データ、及び前記第2の画像データの同じ領域から得られる周波数情報がいずれも高周波のとき、前記同じ領域のサイズを小さく設定する設定手段と、前記第1の画像データ、及び前記第2の画像データの撮影時のシャッタ速度と感度とを取得するとともに、取得した前記シャッタ速度が予め定めた値より遅い場合、及び/又は前記感度が予め定めた値より高い場合は、前記設定手段で設定した前記領域のサイズを大きいサイズに変更する変更手段と、前記変更手段によりサイズが変更された後の前記第1の画像データ、及び前記第2の画像データの各領域に動きがあったか否かを判定する判定手段と、を備えることを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention includes a dividing unit that divides each of the first image data and the second image data into a plurality of regions, and each of the regions divided by the dividing unit. Setting means for obtaining the frequency information, and setting the size of the same region to be small when the frequency information obtained from the same region of the first image data and the second image data is both high frequency; The shutter speed and sensitivity at the time of shooting the first image data and the second image data are acquired, and when the acquired shutter speed is slower than a predetermined value and / or the sensitivity is predetermined. If the value is higher than the value, a changing unit that changes the size of the area set by the setting unit to a larger size, and the first after the size is changed by the changing unit Characterized in that it comprises an image data, and a determination unit configured to determine whether there is motion in the region of the second image data.
本発明によれば、大小複数の移動体に対して、誤検出を抑えながら移動体の微小な動きを精度よく検出することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to detect the small motion of a moving body with high precision, suppressing a misdetection with respect to the large and small moving body.
以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態である画像処理装置の概略構成例を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration example of an image processing apparatus according to the first embodiment of the present invention.
図1に示すように、本実施形態の画像処理装置は、画像入力部100、被写体検出部101、ブロックサイズ決定部102、周波数解析部103、撮影情報取得部104、画像分割部110、動き判定部130、及び画像合成部140を備える。 As shown in FIG. 1, the image processing apparatus according to the present embodiment includes an image input unit 100, a subject detection unit 101, a block size determination unit 102, a frequency analysis unit 103, a shooting information acquisition unit 104, an image division unit 110, and a motion determination. Unit 130 and image composition unit 140.
画像入力部100には、デジタルカメラ等の撮像装置で連続して撮影された画像が順次入力される。被写体検出部101は、入力された画像から特定の被写体の位置を検出する。ブロックサイズ決定部102は、入力された画像を領域ごとに分割するときのブロックサイズを決定する。周波数解析部103は、入力された画像の周波数情報を取得する。 In the image input unit 100, images continuously captured by an imaging device such as a digital camera are sequentially input. The subject detection unit 101 detects the position of a specific subject from the input image. The block size determination unit 102 determines a block size when the input image is divided for each region. The frequency analysis unit 103 acquires frequency information of the input image.
撮影情報取得部104は、入力された画像からISO感度・絞り値・Tv値など撮影時の情報を取得する。画像分割部110は、入力された画像に対してH(水平)およびV(垂直)方向に所定サイズのブロックに分割する。動き判定部130は、画像分割部110で分割されたブロックごとに移動体が含まれる領域があるかを判定する。画像合成部140は、複数枚の画像を合成して合成画像を生成する。 The shooting information acquisition unit 104 acquires information at the time of shooting such as ISO sensitivity, aperture value, and Tv value from the input image. The image dividing unit 110 divides an input image into blocks of a predetermined size in the H (horizontal) and V (vertical) directions. The motion determination unit 130 determines whether there is an area including a moving object for each block divided by the image division unit 110. The image composition unit 140 composes a plurality of images and generates a composite image.
次に、図2を参照して、上記構成の画像処理装置の動作例について説明する。図2での各処理は、画像処理装置のROMやハードディスク等に記憶された画像処理プログラムがRAMにロードされて、CPUにより実行される。 Next, an operation example of the image processing apparatus having the above configuration will be described with reference to FIG. Each process in FIG. 2 is executed by the CPU by loading an image processing program stored in a ROM, a hard disk, or the like of the image processing apparatus into the RAM.
ステップS200では、CPUは、画像入力部100から複数の画像が入力されると、ステップS210に進む。なお、ここでは、デジタルカメラ等の撮像装置で連続して撮影された2枚の画像300,310(図3参照)が順次入力されたものとする。ここで、画像300は、本発明の第1の画像データの一例に相当し、画像310は、本発明の第2の画像データの一例に相当する。 In step S200, when a plurality of images are input from the image input unit 100, the CPU proceeds to step S210. Here, it is assumed that two images 300 and 310 (see FIG. 3) successively captured by an imaging device such as a digital camera are sequentially input. Here, the image 300 corresponds to an example of the first image data of the present invention, and the image 310 corresponds to an example of the second image data of the present invention.
ステップS210では、CPUは、被写体検出部101により2枚の画像300,310に人物の顔が検出されたかを判定する。ここでは、人物の顔が検出されなかったものとして、ステップS220に進む。 In step S <b> 210, the CPU determines whether a human face is detected in the two images 300 and 310 by the subject detection unit 101. Here, assuming that the face of a person has not been detected, the process proceeds to step S220.
ステップS220では、CPUは、ブロックサイズ決定部102により、2枚の画像300,310について、ブロックサイズを決定し、ステップS230に進む。具体的には、CPUは、ブロックサイズ決定部102により、予め定められたブロックサイズとして入力画像をH(水平)方向に14分割、V(垂直)方向に10分割するようにブロックサイズを決定する。 In step S220, the CPU determines the block size for the two images 300 and 310 by the block size determination unit 102, and proceeds to step S230. Specifically, the CPU determines the block size by the block size determination unit 102 so that the input image is divided into 14 in the H (horizontal) direction and 10 in the V (vertical) direction as a predetermined block size. .
ステップS230では、CPUは、画像分割部110により、画像300,310をステップS220で決定したブロックサイズで分割し、ステップS240に進む。 In step S230, the CPU divides the images 300 and 310 with the block size determined in step S220 by the image dividing unit 110, and proceeds to step S240.
図4(a)に示す画像301、及び図4(b)に示す画像311は、それぞれ図3(a)に示す画像300、及び図3(b)に示す画像310をブロック数が14×10個となるように分割したものである。ここで、一つのブロックサイズは、128×128画素である。図4(c)に示す画像320は、分割したブロックに対して番号(座標)を付したものである。 The image 301 shown in FIG. 4A and the image 311 shown in FIG. 4B have the number of blocks of 14 × 10 from the image 300 shown in FIG. 3A and the image 310 shown in FIG. It is divided so that it becomes a piece. Here, one block size is 128 × 128 pixels. An image 320 shown in FIG. 4C is obtained by assigning numbers (coordinates) to the divided blocks.
ステップS240では、CPUは、周波数解析部103により、ステップS230で分割された各ブロックに対して、特定の周波数帯域を抽出するバンドパスフィルタ等の公知の技術を用いて周波数情報を取得する。そして、CPUは、取得した周波数情報に基づき、ブロックサイズを設定し、ステップS250に進む。 In step S240, the CPU uses the frequency analysis unit 103 to obtain frequency information using a known technique such as a bandpass filter that extracts a specific frequency band for each block divided in step S230. Then, the CPU sets a block size based on the acquired frequency information, and proceeds to step S250.
ステップS240では、具体的には、周波数解析部103により取得した周波数情報に基づき、各ブロックごとに高周波、中周波、低周波の3種類の帯域に分類する。ここで、2枚の画像301,311の同じブロック領域から得られる周波数情報が異なった場合には、より低周波であると分類された結果を用いる。これは、移動体が含まれる領域に対しては、背景ではなくその被写体の周波数情報をブロックサイズに反映させるためである。さらに分類された周波数帯域に応じて、ブロックサイズを高周波:64×64画素、中周波:128×128画素、低周波:256×256画素と定める。 In step S240, specifically, based on the frequency information acquired by the frequency analysis unit 103, each block is classified into three types of bands: high frequency, medium frequency, and low frequency. Here, when the frequency information obtained from the same block area of the two images 301 and 311 is different, the result classified as lower frequency is used. This is because the frequency information of the subject, not the background, is reflected in the block size for the area including the moving object. Further, according to the classified frequency band, the block size is determined as high frequency: 64 × 64 pixels, medium frequency: 128 × 128 pixels, and low frequency: 256 × 256 pixels.
図5及び図6を参照して、ステップS240の処理について更に詳述する。図5は、初期ブロックサイズとして128×128画素に分割されたブロックにおいて、偶数ラインにあるブロックの周波数情報を基に、各ブロックを分割あるいは結合する処理を示すフローチャート図である。 With reference to FIG.5 and FIG.6, the process of step S240 is further explained in full detail. FIG. 5 is a flowchart showing a process of dividing or combining the blocks based on the frequency information of the blocks on the even lines in the block divided into 128 × 128 pixels as the initial block size.
図5において、ステップS241では、CPUは、着目ブロックの周波数情報が高周波、中周波、低周波のいずれの領域であるかを判定する。そして、CPUは、着目ブロックの周波数情報が高周波領域と判定した場合は、ステップS242に進み、低周波領域と判定した場合は、ステップS243に進む。また、CPUは、着目ブロックの周波数情報が中周波領域と判定した場合は、各ブロックを分割あるいは結合することなく、処理を終了する。 In FIG. 5, in step S <b> 241, the CPU determines whether the frequency information of the target block is a high frequency, medium frequency, or low frequency region. The CPU proceeds to step S242 if the frequency information of the block of interest is determined to be a high frequency region, and proceeds to step S243 if it is determined to be a low frequency region. On the other hand, if the CPU determines that the frequency information of the block of interest is the middle frequency region, the CPU ends the process without dividing or combining the blocks.
ステップS242では、CPUは、高周波領域であると判定したブロックに対して、H(水平)、V(垂直)方向にそれぞれ×1/2に分割し、処理を終了する。 In step S242, the CPU divides the block determined to be in the high frequency region into x1 / 2 in the H (horizontal) and V (vertical) directions, and ends the process.
ステップS243では、CPUは、低周波領域であると判定されたブロックに対して、右、下、及び右下に位置するブロックが低周波領域であるかどうかを判定する。そして、CPUは、右、下、及び右下に位置するブロックが低周波領域であると判定した場合は、ステップS244に進み、低周波領域でないと判定した場合は、各ブロックを分割あるいは結合することなく、処理を終了する。 In step S243, the CPU determines whether or not the blocks positioned on the right, the lower, and the lower right are in the low frequency region with respect to the block determined to be in the low frequency region. If the CPU determines that the right, lower, and lower right blocks are in the low frequency area, the CPU proceeds to step S244. If the CPU determines that the blocks are not in the low frequency area, the CPU divides or combines the blocks. The process is finished without.
ステップS244では、CPUは、ステップS243で低周波領域と判定した4つのブロックを結合し、新たなブロックとし、処理を終了する。 In step S244, the CPU combines the four blocks determined as the low frequency region in step S243 to form new blocks, and ends the process.
以上の処理を偶数ラインの全ブロックに対して行った後、奇数ラインにあるブロックの周波数情報を基に、各ブロックを分割あるいは結合していく。図6は、初期ブロックサイズとして128×128画素に分割されたブロックにおいて、奇数ラインにあるブロックの周波数情報を基に、各ブロックを分割あるいは結合する処理を示すフローチャート図である。 After the above processing is performed for all blocks of even lines, the blocks are divided or combined based on the frequency information of the blocks on the odd lines. FIG. 6 is a flowchart showing a process of dividing or combining the blocks based on the frequency information of the blocks on the odd lines in the block divided into 128 × 128 pixels as the initial block size.
図6において、ステップS245では、CPUは、着目ブロックの周波数情報が高周波、中周波、低周波のいずれの領域であるかを判定する。そして、CPUは、着目ブロックの周波数情報が高周波領域と判定した場合は、ステップS246に進み、低周波領域と判定した場合は、ステップS247に進む。また、CPUは、着目ブロックの周波数情報が中周波領域と判定した場合は、各ブロックを分割あるいは結合することなく、処理を終了する。 In FIG. 6, in step S245, the CPU determines whether the frequency information of the block of interest is a high frequency, medium frequency, or low frequency region. If the CPU determines that the frequency information of the block of interest is a high frequency region, the CPU proceeds to step S246. If the CPU determines that the frequency information is a low frequency region, the CPU proceeds to step S247. On the other hand, if the CPU determines that the frequency information of the block of interest is the middle frequency region, the CPU ends the process without dividing or combining the blocks.
ステップS246では、CPUは、高周波領域であると判定したブロックに対して、H(水平)、V(垂直)方向にそれぞれ×1/2に分割し、処理を終了する。 In step S246, the CPU divides the block determined to be in the high frequency region into x1 / 2 in the H (horizontal) and V (vertical) directions, and ends the process.
ステップS247では、CPUは、低周波領域であると判定されたブロックに対して、右、下、及び右下に位置するブロックが低周波領域で、かつ未結合であるかどうかを判定する。そして、CPUは、右、下、及び右下に位置するブロックが低周波領域で、かつ未結合であると判定した場合は、ステップS248に進み、低周波領域で、かつ未結合でないと判定した場合は、各ブロックを分割あるいは結合することなく、処理を終了する。 In step S247, the CPU determines whether or not the blocks located on the right, the lower, and the lower right are in the low frequency region and are uncombined with respect to the block determined to be in the low frequency region. If the CPU determines that the blocks located on the right, lower, and lower right are in the low frequency region and are not combined, the CPU proceeds to step S248 and determines that the block is in the low frequency region and is not unconnected. In this case, the process is terminated without dividing or combining the blocks.
ステップS248では、CPUは、ステップS247で低周波領域で、かつ未結合である判定した4つのブロックを結合し、新たなブロックとし、処理を終了する。 In step S248, the CPU combines the four blocks determined to be uncombined in the low frequency region in step S247 to form new blocks, and ends the process.
以上の処理を奇数ラインの全ブロックに対して行うことにより、全領域に対するブロックサイズを設定する。これにより、後述する動き判定処理の際、高周波な領域であるほどわずかな動き量に対しても敏感度を高くすることができ、移動体の微小な動きを検出しやすくすることが可能となる。 By performing the above processing for all blocks of odd lines, the block size for all regions is set. As a result, in the motion determination process described later, the sensitivity can be increased even with a small amount of motion as the frequency is higher, and it is possible to easily detect minute motions of the moving body. .
図2に戻って、ステップS250では、CPUは、撮影情報取得部104により、入力画像300,310の撮影時のTv値(シャッタ速度)とISO感度を取得する。そして、CPUは、取得したTv値とISO感度に基づき、ステップS240で決定したブロックサイズに変更して、ステップS260に進む。 Returning to FIG. 2, in step S <b> 250, the CPU acquires the Tv value (shutter speed) and ISO sensitivity at the time of shooting the input images 300 and 310 using the shooting information acquisition unit 104. Then, the CPU changes to the block size determined in step S240 based on the acquired Tv value and ISO sensitivity, and proceeds to step S260.
ステップS250では、具体的には、ステップS240で設定したブロックサイズに対し、撮影された画像のTv値が予め定められた値である1/125秒以上、即ち、シャッタ速度が遅い場合は、H、V方向をそれぞれ2倍する。また、ステップS240で決定したブロックサイズに対し、撮影された画像のTv値が予め定められた値である1/640秒より小さい場合は、H、V方向をそれぞれ1/2倍する。 In step S250, specifically, when the Tv value of the captured image is 1/125 seconds or more which is a predetermined value with respect to the block size set in step S240, that is, when the shutter speed is slow, H , V direction is doubled respectively. If the Tv value of the photographed image is smaller than the predetermined value of 1/640 seconds with respect to the block size determined in step S240, the H and V directions are each halved.
これは、2枚の画像300,310の撮影間隔が短い場合には動き量も小さいことから、後述する動き判定処理の際、わずかな動き量に対しても敏感度を高くすることで動きを検出しやすくするためである。ただし、ここでは、撮影情報取得部104により取得したTv値が1/250であったとして、ブロックサイズの変更は行わない。 This is because the amount of motion is small when the shooting interval between the two images 300 and 310 is short, so that the motion can be controlled by increasing the sensitivity to even a small amount of motion during the motion determination process described later. This is to facilitate detection. However, the block size is not changed here, assuming that the Tv value acquired by the imaging information acquisition unit 104 is 1/250.
また、ステップS240で決定したブロックサイズに対し、撮影された画像の感度がISO800以上である場合には、H、V方向をそれぞれ2倍する。これは、後述する動き判定処理の際、高感度時にノイズの影響による誤判定を抑えるためである。 If the sensitivity of the captured image is ISO 800 or more with respect to the block size determined in step S240, the H and V directions are each doubled. This is to suppress erroneous determination due to the influence of noise at the time of high sensitivity during the motion determination process described later.
図7に、撮影情報取得部104により取得したTv値及びISO感度に基づくブロックサイズの変更例を示す。図8は、ステップS250で最終的に決定された各周波数領域のブロックサイズに応じて分割された画像例を示す図である。図8に示すように、木の葉などの高周波な領域は、64×64画素と小さなブロックサイズで分割され、背景の空などの低周波な領域は、256×256画素と大きなブロックサイズで分割されていることがわかる。 FIG. 7 shows an example of changing the block size based on the Tv value acquired by the imaging information acquisition unit 104 and the ISO sensitivity. FIG. 8 is a diagram illustrating an example of an image divided according to the block size of each frequency region finally determined in step S250. As shown in FIG. 8, a high frequency area such as a leaf is divided by a small block size of 64 × 64 pixels, and a low frequency area such as a background sky is divided by a large block size of 256 × 256 pixels. I understand that.
ステップS260では、CPUは、動き判定部130により、入力画像300,310に対して、分割されたブロックごとに動きがあったか否かを判定し、ステップS270に進む。 In step S260, the CPU determines whether or not there is movement for each of the divided blocks with respect to the input images 300 and 310 by the movement determination unit 130, and proceeds to step S270.
ステップS260では、具体的には、動き判定部130は、画像301,311における同じ領域のブロック画像に対して、1画素毎に輝度成分と色差成分の差分絶対値をそれぞれ算出し、さらにブロック内の総和を求める。そして、動き判定部130は、ステップS220で決定されたブロックごとの輝度成分及び色差成分の差分絶対値の総和を閾値と比較し、差分絶対値の総和の少なくとも一つが閾値以上であれば、そのブロックは移動体の領域であると判定する。すなわち、次式(1)乃至(3)のうち、いずれか一つでも満たせば、移動体の領域であると判定する。 In step S260, specifically, the motion determination unit 130 calculates the absolute value of the difference between the luminance component and the color difference component for each pixel with respect to the block images in the same region in the images 301 and 311, and further, Find the sum of. Then, the motion determination unit 130 compares the sum of absolute differences of the luminance component and color difference component for each block determined in step S220 with a threshold, and if at least one of the sum of absolute differences is equal to or greater than the threshold, It is determined that the block is an area of the moving body. That is, if any one of the following equations (1) to (3) is satisfied, it is determined that the region is a moving object.
上式(1)乃至(3)において、Img1及びImg2は、それぞれ入力された1枚目の画像300と2枚目の画像310の画素値の輝度成分(Y)及び色差成分(U,V)を示すものであり、ブロック内の全画素について差分絶対値を算出し、総和を求める。また、Th_Y,Th_U,Th_Vは、判定のための輝度成分、色差成分の閾値である。 In the above formulas (1) to (3), Img1 and Img2 are the luminance component (Y) and color difference components (U, V) of the pixel values of the input first image 300 and second image 310, respectively. The difference absolute value is calculated for all the pixels in the block, and the sum is obtained. Th_Y, Th_U, and Th_V are threshold values for luminance components and color difference components for determination.
図9(a)は、動き判定部130により、移動体が含まれると判定された領域600a〜600cを有する画像600を示す図である。図9(a)に示すように、車と人が動いている領域に対しては上記差分絶対値の総和が大きくなり、移動体領域と判定されていることがわかる。 FIG. 9A is a diagram illustrating an image 600 having regions 600 a to 600 c that are determined by the motion determination unit 130 to include a moving object. As shown in FIG. 9 (a), it can be seen that the sum of the absolute values of the differences is large for the region where the car and the person are moving, and is determined to be a moving body region.
ステップS270では、CPUは、ステップS260で得られたブロックごとの動き判定結果を用いて、画像合成部140により、画像300,310に対して合成処理を行い、処理を終了する。 In step S270, the CPU performs a composition process on the images 300 and 310 by the image composition unit 140 using the motion determination result for each block obtained in step S260, and ends the process.
ここでの合成処理に際し、画像合成部140は、動き判定部130により移動体が含まれると判定されなかった領域に対しては、画像300,310の画素の平均値を新たな画素値として出力する。これにより、ノイズを抑えた合成画像を得ることができる。また、画像合成部140は、動き判定部130により移動体が含まれると判定された領域に対しては、合成を行わず画像300の画素値をそのまま出力する。これにより、合成によって二重像が現れるのを防ぐことが可能となる。 In the synthesis process here, the image synthesis unit 140 outputs the average value of the pixels of the images 300 and 310 as a new pixel value for the area that is not determined to be included by the motion determination unit 130. To do. As a result, a composite image with reduced noise can be obtained. The image composition unit 140 outputs the pixel value of the image 300 as it is without performing composition for the region determined by the motion determination unit 130 to include the moving object. This makes it possible to prevent a double image from appearing due to the synthesis.
なお、本実施形態では、ブロック数が14×10個となるように入力画像を分割した場合を例示したが、ブロック数を14×10個より多くあるいは少なくしてもよい。また、本実施形態では、全てのブロックを正方ブロックとしたが、高周波領域の分布に応じて、縦長あるいは横長のブロックとしてもよい。 In this embodiment, the case where the input image is divided so that the number of blocks is 14 × 10 is exemplified, but the number of blocks may be larger or smaller than 14 × 10. In this embodiment, all blocks are square blocks, but may be vertically or horizontally long blocks depending on the distribution of the high frequency region.
更に、本実施形態では、移動体が含まれると判定されなかった領域に対して画像を合成する際に、画像300,310の画素の平均値を出力する場合を例示したが、上記差分絶対値の総和から算出した重み係数を基に加重加算する構成としてもよい。 Furthermore, in the present embodiment, the case where the average value of the pixels of the images 300 and 310 is output when the image is synthesized with respect to the area that is not determined to include the moving object is illustrated. Alternatively, the weighted addition may be performed based on the weighting coefficient calculated from the sum of the above.
また、画像から針葉樹のような特定の高周波領域を検出する手段を備える場合、その領域内の動き判定結果がばらついていたときには、領域全体に対して動いていると判定するようにしても良い。 In addition, when a unit for detecting a specific high-frequency region such as a coniferous tree from an image is provided, it may be determined that the region is moving with respect to the entire region when the motion determination result in the region varies.
すなわち、入力された画像における領域ごとの周波数および色情報を解析し、高周波かつ感度信号の値が大きい場合には、針葉樹であると判定し、領域の位置および大きさを出力する手段を備えるものとする。図9(b)は、針葉樹が検出された画像610を示す図である。葉の動きによってステップS260の動き判定処理で図9(c)に示す検出結果620が得られたとき、合成時に2枚の入力画像の切り替わりが目立って不自然に見える可能性がある。 That is, the frequency and color information for each region in the input image is analyzed, and when the value of the high frequency signal and the sensitivity signal is large, it is determined that the tree is a conifer and includes means for outputting the position and size of the region And FIG. 9B is a diagram illustrating an image 610 in which a conifer is detected. When the detection result 620 shown in FIG. 9C is obtained by the movement determination process in step S260 due to the movement of the leaves, there is a possibility that the switching of the two input images is noticeable and unnatural at the time of synthesis.
そこで、針葉樹領域で一つでも動いていると判定されたブロックが存在する場合には、図9(c)に示す判定結果630のように、領域全体を動いていると判定することにより、上述したような不自然さを抑えることが可能となる。 Therefore, when there is a block determined to be moving even in the coniferous region, it is determined that the entire region is moving as in the determination result 630 illustrated in FIG. It is possible to suppress such unnaturalness.
以上説明したように、本実施形態では、移動体領域の検出をブロック単位に行う場合に、分割するブロックサイズを被写体の周波数情報およびTv値、感度などの撮影情報に応じて変更する。これにより、大小複数の移動体に対して、誤検出を抑えながら移動体の微小な動きを精度よく検出することが可能となる。また、複数枚の画像を合成する場合においても、移動している被写体が二重になることなく、合成画像を生成することが可能となる。 As described above, in the present embodiment, when the moving object region is detected in units of blocks, the block size to be divided is changed according to the frequency information of the subject and the shooting information such as Tv value and sensitivity. As a result, it is possible to accurately detect a minute movement of the moving body while suppressing erroneous detection for a plurality of large and small moving bodies. Further, even when a plurality of images are combined, it is possible to generate a combined image without the moving subject being doubled.
(第2の実施形態)
次に、図10乃至図13等を参照して、本発明の第2の実施形態である画像処理装置について説明する。なお、本実施形態では、上記第1の実施形態の図及び符号を流用しつつ、上記第1の実施形態と重複する部分については詳細な説明を省略する。
(Second Embodiment)
Next, an image processing apparatus according to the second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, detailed description of the same parts as those in the first embodiment will be omitted while diverting the drawings and symbols of the first embodiment.
本実施形態の画像処理装置では、図2のステップS210で被写体検出部101により2枚の画像から人物の顔が検出された場合を例に採る。 In the image processing apparatus according to the present embodiment, a case where a human face is detected from two images by the subject detection unit 101 in step S210 of FIG. 2 is taken as an example.
ステップS200では、CPUは、画像入力部100から画像が入力されると、ステップS210に進む。なお、ここでは、デジタルカメラ等の撮像装置で連続して撮影された2枚の画像700,710(図10(a)及び図10(b)参照)が順次入力されたものとする。 In step S200, when an image is input from the image input unit 100, the CPU proceeds to step S210. Here, it is assumed that two images 700 and 710 (see FIG. 10A and FIG. 10B) successively captured by an imaging device such as a digital camera are sequentially input.
ステップS210では、CPUは、被写体検出部101により2枚の画像700,710に人物の顔が検出されたかを公知の顔画像認識回路等を用いて判定する。ここでは、人物の顔が検出されたものとして、ステップS220に進む。図10(c)に示す画像701、及び図10(d)に示す画像711は、それぞれ図10(a)に示す画像700、及び図10(b)に示す画像710に対して顔領域が検出された結果を示したものである。 In step S210, the CPU determines whether a human face is detected in the two images 700 and 710 by the subject detection unit 101 using a known face image recognition circuit or the like. Here, it is assumed that a human face has been detected, and the process proceeds to step S220. In the image 701 shown in FIG. 10C and the image 711 shown in FIG. 10D, the face areas are detected with respect to the image 700 shown in FIG. 10A and the image 710 shown in FIG. 10B, respectively. The results are shown.
ここで、被写体検出部101は、画像から顔が検出された場合、検出した顔および目の座標位置および大きさを出力する。このとき、顔領域の大きさとして、768×640画素が得られたものとする。 Here, when a face is detected from the image, the subject detection unit 101 outputs the detected face and eye coordinate positions and sizes. At this time, it is assumed that 768 × 640 pixels are obtained as the size of the face region.
ステップS220では、CPUは、ブロックサイズ決定部102により、2枚の画像700,710について、ブロックサイズを決定し、ステップS230に進む。ステップS220では、ブロックサイズ決定部102は、目の領域に対しては被写体検出部101の出力を基に目の位置と大きさを決定し、口の領域に対しては被写体検出部101の出力を基に口の位置と大きさを推定する。そして、ブロックサイズ決定部102は、動きが予想される目及び口がそれぞれ包含されるようなブロックサイズとして、256×128画素を設定する。これにより、目の瞬きや口の動きを一つの領域として検出する。 In step S220, the CPU determines the block size for the two images 700 and 710 by the block size determination unit 102, and proceeds to step S230. In step S220, the block size determination unit 102 determines the position and size of the eyes based on the output of the subject detection unit 101 for the eye region, and the output of the subject detection unit 101 for the mouth region. To estimate the position and size of the mouth. Then, the block size determination unit 102 sets 256 × 128 pixels as a block size that includes each of the eyes and mouth that are expected to move. Thereby, blinking of eyes and movement of the mouth are detected as one area.
また、ブロックサイズ決定部102は、顔領域における目および口以外の領域に対しては、64×64画素と小さなブロックサイズを設定する。これは、人物のわずかな動き量に対しても敏感度を高くすることで動きを検出しやすくするためである。 The block size determination unit 102 sets a small block size of 64 × 64 pixels for the area other than the eyes and mouth in the face area. This is to make it easier to detect a motion by increasing the sensitivity to a slight amount of motion of a person.
ステップS230では、CPUは、画像分割部110により、画像700,710を所定のブロックサイズで分割し、ステップS240に進む。ここで、画像分割部110は、顔領域に対してはステップS220で決定されたブロックサイズで分割し、顔領域以外の領域に対しては、上記第1の実施形態と同様に、128×128画素のブロックサイズで分割する。 In step S230, the CPU divides the images 700 and 710 by a predetermined block size by the image dividing unit 110, and proceeds to step S240. Here, the image dividing unit 110 divides the face area with the block size determined in step S220, and for the area other than the face area, 128 × 128 as in the first embodiment. Divide by pixel block size.
ステップS240では、CPUは、周波数解析部103により、ステップS230で分割された各ブロックに対して、特定の周波数帯域を抽出するバンドパスフィルタ等の公知の技術を用いて周波数情報を取得する。そして、CPUは、上記第1の実施形態と同様に、取得した周波数情報に基づき、ブロックサイズを決定し、ステップS250に進む。 In step S240, the CPU uses the frequency analysis unit 103 to obtain frequency information using a known technique such as a bandpass filter that extracts a specific frequency band for each block divided in step S230. Then, similarly to the first embodiment, the CPU determines a block size based on the acquired frequency information, and proceeds to step S250.
ステップS250では、CPUは、撮影情報取得部104により、入力画像700,710の撮影時のTv値とISO感度を取得する。そして、CPUは、取得したTv値とISO感度に基づき、ステップS240で決定したブロックサイズに変更して、ステップS260に進む。 In step S250, the CPU acquires the Tv value and ISO sensitivity at the time of shooting of the input images 700 and 710 by the shooting information acquisition unit 104. Then, the CPU changes to the block size determined in step S240 based on the acquired Tv value and ISO sensitivity, and proceeds to step S260.
本実施形態では、Tv値が1/30であったことから、ステップS240で決定したブロックサイズに対してH、V方向にそれぞれ2倍する。ただし、顔領域および目および口などの顔器官領域に対しては、Tv値に応じてブロックサイズを変更せず、高感度(ISO800以上)時にのみブロックサイズをH、V方向にそれぞれ2倍する。これは、ポートレート撮影などでは人物の顔は動き量が小さい場合が多いことから、顔領域における動き検出に対しては、ステップS240で決定されたブロックサイズを用いることでわずかな動きも検出できるようにするためである。 In the present embodiment, since the Tv value is 1/30, the block size determined in step S240 is doubled in the H and V directions. However, for face regions and facial organ regions such as eyes and mouth, the block size is not changed according to the Tv value, and the block size is doubled in the H and V directions only at high sensitivity (ISO 800 or higher). . This is because, in portrait photography and the like, a person's face often has a small amount of motion, and for the motion detection in the face area, a slight motion can be detected by using the block size determined in step S240. It is for doing so.
図11に、撮影情報取得部104により取得したTv値及びISO感度に基づくブロックサイズの変更例を示す。図12は、ステップS250で最終的に決定された各周波数領域のブロックサイズに応じて分割された画像例を示す図である。図12に示すように、人物の顔領域においては、撮影情報に関わらず各器官の大きさに応じたブロックサイズで分割されており、各器官以外の領域においては、64×64画素の固定サイズで分割されていることがわかる。 FIG. 11 shows an example of changing the block size based on the Tv value acquired by the photographing information acquisition unit 104 and the ISO sensitivity. FIG. 12 is a diagram illustrating an example of an image divided according to the block size of each frequency region finally determined in step S250. As shown in FIG. 12, the face area of a person is divided by a block size corresponding to the size of each organ regardless of imaging information, and a fixed size of 64 × 64 pixels is used in the area other than each organ. You can see that it is divided by.
ステップS260では、CPUは、動き判定部130により、上記第1の実施形態と同様にして、入力画像700,710に対して、分割されたブロックごとに動きがあったか否かを判定し、ステップS270に進む。 In step S260, the CPU uses the motion determination unit 130 to determine whether or not there has been a motion for each divided block with respect to the input images 700 and 710, as in the first embodiment, and step S270. Proceed to
図13は、動き判定部130により、移動体が含まれると判定された領域800a,800bを有する画像800を示す図である。図13に示すように、瞬きが起きた目の領域、及びわずかに動いた顔の周辺領域において、2枚の画像700,710の上記差分絶対値の総和が大きくなり、動き判定がなされていることがわかる。 FIG. 13 is a diagram illustrating an image 800 having regions 800a and 800b determined by the motion determination unit 130 to include moving objects. As shown in FIG. 13, the sum of the absolute values of the difference between the two images 700 and 710 is large and the motion is determined in the area where the eye blinks and the peripheral area of the slightly moved face. I understand that.
ステップS270では、CPUは、ステップS260で得られたブロックごとの動き判定結果を用いて、上記第1の実施形態と同様して、画像合成部140により、画像700,710に対して合成処理を行い、処理を終了する。 In step S270, using the motion determination result for each block obtained in step S260, the CPU performs a composition process on the images 700 and 710 by the image composition unit 140 in the same manner as in the first embodiment. To end the process.
ここで、2回の撮影期間に人物が瞬きをした場合、画像合成部140は、目の領域に対しては合成処理を行わず画像700の画素値をそのまま出力することにより、合成によって画像が不自然になるのを防ぐことが可能となる。図14は、画像合成部140により合成された画像を示す図である。図14に示すように、移動体の領域に対して二重に合成されることなく、2枚の画像700,710を合成できていることがわかる。 Here, when a person blinks during the two shooting periods, the image composition unit 140 outputs the pixel value of the image 700 as it is without performing the composition process on the eye region, so that the image is obtained by composition. It becomes possible to prevent becoming unnatural. FIG. 14 is a diagram illustrating an image synthesized by the image synthesis unit 140. As shown in FIG. 14, it can be seen that two images 700 and 710 can be synthesized without being double-synthesized with respect to the area of the moving object.
なお、本実施形態では、被写体の特徴部位として、人物の顔を検出する場合を例示したが、検出する特徴部位は、顔に限定されない。また、移動体領域と判定されたブロックに一つでも顔の領域を含むブロックが存在した場合には、顔の領域を含む全てのブロックを移動体領域と判定するようにしてもよい。画像合成時に、顔の領域全体に対して1枚の入力画像を用いることで、動きの影響を受けずに、より自然な合成画像を得ることが可能となる。 In the present embodiment, the case where a human face is detected as the characteristic part of the subject is illustrated, but the characteristic part to be detected is not limited to the face. Further, if there is at least one block including the face area among the blocks determined as the moving body area, all the blocks including the face area may be determined as the moving body area. By using one input image for the entire face area at the time of image synthesis, it is possible to obtain a more natural synthesized image without being affected by movement.
また、入力された画像を予め定められたフレームレートで電子ファインダに表示して公知の技術により移動体を追尾する手段を備える場合は、得られる移動体の動く方向と速さに基づきブロックサイズを決定しても良い。移動体を含む領域に対して適切なブロックサイズを適用することにより、高精度に動きを検出することが可能となる。 In addition, when a means for displaying the input image on the electronic finder at a predetermined frame rate and tracking the moving body by a known technique is provided, the block size is determined based on the moving direction and speed of the obtained moving body. You may decide. By applying an appropriate block size to the area including the moving object, it is possible to detect motion with high accuracy.
以上説明したように、本実施形態では、移動体領域の検出をブロック単位に行う場合に、分割するブロックサイズを検出した被写体の特徴部位の大きさに応じて変更する。これにより、大小複数の移動体に対して、誤検出を抑えながら移動体の微小な動きを精度よく検出することが可能となる。また、複数枚の画像を合成する場合においても、移動している被写体が二重になることなく合成画像を生成することが可能となる。 As described above, in the present embodiment, when the moving body region is detected in units of blocks, the block size to be divided is changed according to the size of the characteristic part of the detected subject. As a result, it is possible to accurately detect a minute movement of the moving body while suppressing erroneous detection for a plurality of large and small moving bodies. Further, even when a plurality of images are combined, it is possible to generate a combined image without the moving subject being doubled.
なお、本発明は、上記各実施形態に例示したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。 In addition, this invention is not limited to what was illustrated by said each embodiment, In the range which does not deviate from the summary of this invention, it can change suitably.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ(CPU,プロセッサ)にて実行することでも実現できる。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. It can also be realized by executing software (program) acquired via a network or various storage media on a personal computer (CPU, processor).
100 画像入力部
101 被写体検出部
102 ブロックサイズ決定部
103 周波数解析部
104 撮影情報取得部
110 画像分割部
130 動き判定部
140 画像合成部
DESCRIPTION OF SYMBOLS 100 Image input part 101 Subject detection part 102 Block size determination part 103 Frequency analysis part 104 Shooting information acquisition part 110 Image division part 130 Motion determination part 140 Image composition part
Claims (6)
前記分割手段により分割された各領域の周波数情報を取得するとともに、前記第1の画像データ、及び前記第2の画像データの同じ領域から得られる周波数情報がいずれも高周波のとき、前記同じ領域のサイズを小さく設定する設定手段と、
前記第1の画像データ、及び前記第2の画像データの撮影時のシャッタ速度と感度とを取得するとともに、取得した前記シャッタ速度が予め定めた値より遅い場合、及び/又は前記感度が予め定めた値より高い場合は、前記設定手段で設定した前記領域のサイズを大きいサイズに変更する変更手段と、
前記変更手段によりサイズが変更された後の前記第1の画像データ、及び前記第2の画像データの各領域に動きがあったか否かを判定する判定手段と、を備えることを特徴とする画像処理装置。 Dividing means for dividing the first image data and the second image data into a plurality of regions,
While acquiring the frequency information of each area | region divided | segmented by the said division means, when all the frequency information obtained from the same area | region of said 1st image data and said 2nd image data is high frequency, Setting means for setting the size small;
The shutter speed and sensitivity at the time of shooting of the first image data and the second image data are acquired, and when the acquired shutter speed is slower than a predetermined value, and / or the sensitivity is predetermined. A change means for changing the size of the area set by the setting means to a larger size,
Image processing comprising: determination means for determining whether or not each area of the first image data and the second image data after the size is changed by the changing means has moved. apparatus.
前記合成手段は、前記合成処理に際して、前記判定手段により動きがあったと判定されなかった領域に対しては、前記第1の画像データ、及び前記第2の画像データの画素の平均値を新たな画素値として出力し、前記判定手段により動きがあったと判定された領域に対しては、合成を行わず前記第1の画像データの画素値をそのまま出力する、ことを特徴とする請求項1に記載の画像処理装置。 Based on a determination result by the determination unit, comprising a combining unit that combines the first image data and the second image data;
The synthesizing unit newly sets an average value of pixels of the first image data and the second image data for an area that has not been determined to have moved by the determining unit during the synthesizing process. The pixel value of the first image data is output as it is without being synthesized for an area which is output as a pixel value and determined to have moved by the determination means. The image processing apparatus described.
前記分割手段は、前記検出手段により検出された特徴部位のうち、動きが予想される部位を含む領域のサイズが前記特徴部位の領域以外の領域のサイズより大きくなるように分割することを特徴とする請求項1又は2に記載の画像処理装置。 Detecting means for detecting a characteristic part of a subject and a part where movement of the characteristic part is expected from the first image data and the second image data;
The dividing unit divides the feature part detected by the detection unit so that a size of a region including a part that is expected to move is larger than a size of a region other than the region of the feature part. The image processing apparatus according to claim 1 or 2.
前記分割ステップで分割された各領域の周波数情報を取得するとともに、前記第1の画像データ、及び前記第2の画像データの同じ領域から得られる周波数情報がいずれも高周波のとき、前記同じ領域のサイズを小さく設定する設定ステップと、
前記第1の画像データ、及び前記第2の画像データの撮影時のシャッタ速度と感度とを取得するとともに、取得した前記シャッタ速度が予め定めた値より遅い場合、及び/又は前記感度が予め定めた値より高い場合は、前記設定ステップで設定した前記領域のサイズを大きいサイズに変更する変更ステップと、
前記変更ステップでサイズが変更された後の前記第1の画像データ、及び前記第2の画像データの各領域に動きがあったか否かを判定する判定ステップと、を備えることを特徴とする画像処理方法。 A dividing step of dividing each of the first image data and the second image data into a plurality of regions;
While acquiring the frequency information of each area | region divided | segmented by the said division | segmentation step, when all the frequency information obtained from the same area | region of said 1st image data and said 2nd image data is high frequency, A setting step to set the size small,
The shutter speed and sensitivity at the time of shooting of the first image data and the second image data are acquired, and when the acquired shutter speed is slower than a predetermined value, and / or the sensitivity is predetermined. A change step for changing the size of the area set in the setting step to a larger size,
A determination step for determining whether or not there is a movement in each area of the first image data and the second image data after the size is changed in the changing step. Method.
前記分割ステップで分割された各領域の周波数情報を取得するとともに、前記第1の画像データ、及び前記第2の画像データの同じ領域から得られる周波数情報がいずれも高周波のとき、前記同じ領域のサイズを小さく設定する設定ステップと、
前記第1の画像データ、及び前記第2の画像データの撮影時のシャッタ速度と感度とを取得するとともに、取得した前記シャッタ速度が予め定めた値より遅い場合、及び/又は前記感度が予め定めた値より高い場合は、前記設定ステップで設定した前記領域のサイズを大きいサイズに変更する変更ステップと、
前記変更ステップでサイズが変更された後の前記第1の画像データ、及び前記第2の画像データの各領域に動きがあったか否かを判定する判定ステップと、をコンピュータに実行させることを特徴とする画像処理プログラム。 A dividing step of dividing each of the first image data and the second image data into a plurality of regions;
While acquiring the frequency information of each area | region divided | segmented by the said division | segmentation step, when all the frequency information obtained from the same area | region of said 1st image data and said 2nd image data is high frequency, A setting step to set the size small,
The shutter speed and sensitivity at the time of shooting of the first image data and the second image data are acquired, and when the acquired shutter speed is slower than a predetermined value, and / or the sensitivity is predetermined. A change step for changing the size of the area set in the setting step to a larger size,
Determining whether or not there is a movement in each area of the first image data and the second image data after the size is changed in the changing step; Image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013062189A JP6120632B2 (en) | 2013-03-25 | 2013-03-25 | Image processing apparatus, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013062189A JP6120632B2 (en) | 2013-03-25 | 2013-03-25 | Image processing apparatus, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014186634A JP2014186634A (en) | 2014-10-02 |
JP6120632B2 true JP6120632B2 (en) | 2017-04-26 |
Family
ID=51834122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013062189A Expired - Fee Related JP6120632B2 (en) | 2013-03-25 | 2013-03-25 | Image processing apparatus, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6120632B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107408302B (en) * | 2015-03-02 | 2020-09-01 | 三菱电机株式会社 | Image processing apparatus, image processing method, and program |
JP6727890B2 (en) * | 2016-04-08 | 2020-07-22 | オリンパス株式会社 | Image recognition device, image recognition method, and image recognition program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03140070A (en) * | 1989-10-26 | 1991-06-14 | Canon Inc | Moving vector detector |
JP4628712B2 (en) * | 2004-07-09 | 2011-02-09 | 財団法人生産技術研究奨励会 | Method and apparatus for recognizing moving object on image |
JP5727873B2 (en) * | 2011-06-10 | 2015-06-03 | 日本放送協会 | Motion vector detection device, encoding device, and program thereof |
-
2013
- 2013-03-25 JP JP2013062189A patent/JP6120632B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014186634A (en) | 2014-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102740082B (en) | Image processing apparatus and control method | |
KR101643607B1 (en) | Method and apparatus for generating of image data | |
JP5397481B2 (en) | Image sorting apparatus and image sorting method | |
US9007483B2 (en) | Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times | |
JP6833415B2 (en) | Image processing equipment, image processing methods, and programs | |
CN110661977B (en) | Subject detection method and apparatus, electronic device, and computer-readable storage medium | |
CN105931213B (en) | The method that high dynamic range video based on edge detection and frame difference method removes ghost | |
JP3866957B2 (en) | Image synthesizer | |
CN110796041A (en) | Subject recognition method and device, electronic equipment and computer-readable storage medium | |
JP2010114752A (en) | Device and method of imaging and program | |
JP2010187348A (en) | Apparatus, method and program for image processing | |
JP7374582B2 (en) | Image processing device, image generation method and program | |
JP6120632B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7418697B2 (en) | Image processing device and image processing program | |
JP2019101997A (en) | Image processing apparatus and image processing method reducing noise by composing plural captured images | |
CN117058183A (en) | Image processing method and device based on double cameras, electronic equipment and storage medium | |
CN107251089B (en) | Image processing method for motion detection and compensation | |
EP3796216A1 (en) | Image processing apparatus, image processing method, and program | |
JP6579764B2 (en) | Image processing apparatus, image processing method, and program | |
JP7009252B2 (en) | Image processing equipment, image processing methods and programs | |
JP6063680B2 (en) | Image generation apparatus, image generation method, imaging apparatus, and imaging method | |
JPH06133298A (en) | Motion vector detector | |
JP7029654B2 (en) | Projection imaging system, measuring device and projection imaging method | |
JP6808446B2 (en) | Image processing equipment, image processing methods and programs | |
JP7214407B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170328 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6120632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |