JP2009027437A - Image processor, image processing method and imaging device - Google Patents

Image processor, image processing method and imaging device Download PDF

Info

Publication number
JP2009027437A
JP2009027437A JP2007188315A JP2007188315A JP2009027437A JP 2009027437 A JP2009027437 A JP 2009027437A JP 2007188315 A JP2007188315 A JP 2007188315A JP 2007188315 A JP2007188315 A JP 2007188315A JP 2009027437 A JP2009027437 A JP 2009027437A
Authority
JP
Japan
Prior art keywords
vector
pattern matching
moving object
correction vector
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007188315A
Other languages
Japanese (ja)
Inventor
Mitsuo Kubo
光生 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007188315A priority Critical patent/JP2009027437A/en
Publication of JP2009027437A publication Critical patent/JP2009027437A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor, image processing method and imaging device which can obtain a more appropriate motion vector when a mobile moves in a z direction of an imaging area while taking a moving image. <P>SOLUTION: When the motion vector of a mobile T is detected based on image data obtained by taking an image, a frame obtained by cutting out a predetermined region where at least part of the mobile T is taken in image data is divided into a plurality of areas b0 to b3, and a correction vector search range R is set for each of the plurality of areas b0 to b3. Further, a moving component of the mobile T in the correction vector search range R is detected as correction vectors V0 to V3 for each of the plurality of areas b0 to b3, the motion vector is combined with the correction vectors V0 to V3, and the composited vector is newly set as the motion vector. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、特に、動画撮像時に移動する被写体を追尾する動体追尾機能に用いられるパターンマッチング処理を行う画像処理装置,画像処理方法、及び該画像処理装置を備えた撮像装置に関する。   In particular, the present invention relates to an image processing apparatus, an image processing method, and an imaging apparatus including the image processing apparatus that perform pattern matching processing used for a moving body tracking function that tracks a moving subject during moving image capturing.

現在、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置には、動画撮影機能を有するものがある。撮影機能を有する撮像装置は、撮像エリア内で移動する被写体を追尾して撮影を行う動体追尾機能を有するものがある。例えば、撮像時に使用者の撮像装置本体を持つ手が振れることに起因して、撮像エリアに映っている被写体の位置が移動してしまう、いわゆる手振れが生じてしまうことを防止するため、動体追尾処理を行っている。   Currently, some imaging apparatuses such as digital still cameras and digital video cameras have a moving image shooting function. Some imaging apparatuses having a photographing function have a moving body tracking function for performing photographing while tracking a subject moving within an imaging area. For example, in order to prevent a so-called camera shake that causes the position of the subject in the imaging area to move due to the shaking of the user's hand holding the imaging device body during imaging, moving object tracking Processing is in progress.

動体追尾処理は、撮像エリアにおける所定の切り出し位置(以下、フレームという。)に写っている被写体のパターンマッチング処理を行うことで移動ベクトルを算出し、該移動ベクトルに基づいてメモリに記録された撮像画像の次フレームの被写体の位置を制御する。   In the moving body tracking process, a movement vector is calculated by performing a pattern matching process on a subject in a predetermined cutout position (hereinafter referred to as a frame) in an imaging area, and an imaging recorded in a memory based on the movement vector. Controls the position of the subject in the next frame of the image.

従来、移動物体の検出を行う画像処理方法としては、例えば、下記特許文献に示すものがある。
下記特許文献1は、ズームや旋回を行っている状態において得られる画像に画像処理を行って移動物体の検出を行うものであるが、カメラの移動(フレームワーク)を推定し、この推定に基づいて過去の画像に対して変形を加える処理を行い、現在の画像と比較している。
下記特許文献2は、カメラのズーム倍率が大きい場合には、探索範囲を広くし、ズーム倍率が小さい場合には、探索範囲を狭くする方法である。
Conventionally, as an image processing method for detecting a moving object, for example, there are methods shown in the following patent documents.
Japanese Patent Application Laid-Open No. 2004-228561 performs image processing on an image obtained in a zooming or turning state to detect a moving object. Based on this estimation, the camera movement (framework) is estimated. Then, a process for modifying the past image is performed and compared with the current image.
Japanese Patent Application Laid-Open No. 2004-228561 is a method of widening the search range when the zoom magnification of the camera is large, and narrowing the search range when the zoom magnification is small.

特開2002−344960号公報JP 2002-344960 A 特願2006−059943号Japanese Patent Application No. 2006-059943

ところで、移動物体の移動ベクトルを検出する際には、撮像エリアに平行な2次元方向(x−y方向)に対する移動物体の位置の移動だけでなく、撮像エリアをx方向及びy方向とによって規定される2次元平面としてとらえた状態においてz方向への移動成分を考慮する必要がある。図11は、撮像エリアにおける移動物体の移動の状態を説明する図である。図11では、撮像エリアにおいて、追尾画像エリアの前フレームで捉えられていた移動物体Tが、現フレームを設定したときに、撮像エリアに対して図中右上方向と奥行き方向の手前側に移動した状態を示している。このとき、従来のパターンマッチング処理によって前フレームと現フレームとのそれぞれの物体Tの位置を比較し、移動ベクトルを検出する。   By the way, when detecting the movement vector of the moving object, not only the movement of the position of the moving object in the two-dimensional direction (xy direction) parallel to the imaging area but also the imaging area is defined by the x direction and the y direction. It is necessary to consider a moving component in the z direction in the state of being regarded as a two-dimensional plane. FIG. 11 is a diagram illustrating a state of movement of a moving object in the imaging area. In FIG. 11, in the imaging area, the moving object T captured in the previous frame of the tracking image area moves to the upper right direction in the drawing and the near side in the depth direction with respect to the imaging area when the current frame is set. Indicates the state. At this time, the position of each object T in the previous frame and the current frame is compared by a conventional pattern matching process to detect a movement vector.

しかし、図11のように移動物体Tがz方向へも移動している場合には、移動ベクトルには誤差が含まれる。理由としては、パターンマッチング処理では、対象となる移動物体における特徴部分に相関が強くなる傾向があり、図11において、顔の口の部分を特長部分とすると、z方向に移動して撮像エリアに対して実質拡大又は縮小して表示されるようになる口の輪郭部分への相関が高くなることで移動ベクトルの誤検出成分が検出され、誤った移動ベクトルが検出されてしまうことがある。図12は、フレームに対する移動物体の位置を説明する図である。図12(a)は、正しいフレーム位置と移動物体Tとの位置を示す図である。図12(b)は、現フレームに対する移動物体の位置を説明する図である。従来のパターンマッチング処理では、移動ベクトルに、図12(a)のフレーム位置と図12(b)のフレーム位置との差に相等する誤差が含まれている。このように、従来では、動画撮像時に、移動物体のz方向に対する移動に起因して適正な移動ベクトルを得ることができないため、動体追尾処理のときのフレーム位置に誤差が生じるという点で改善の余地があった。   However, when the moving object T is also moving in the z direction as shown in FIG. 11, the moving vector includes an error. The reason is that in the pattern matching process, there is a tendency that the correlation is strong in the characteristic part of the target moving object, and in FIG. On the other hand, when the correlation with the outline portion of the mouth that is displayed substantially enlarged or reduced is increased, an erroneous detection component of the movement vector may be detected, and an erroneous movement vector may be detected. FIG. 12 is a diagram illustrating the position of the moving object with respect to the frame. FIG. 12A is a diagram showing the correct frame position and the position of the moving object T. FIG. FIG. 12B is a diagram illustrating the position of the moving object with respect to the current frame. In the conventional pattern matching process, an error equivalent to the difference between the frame position in FIG. 12A and the frame position in FIG. 12B is included in the movement vector. Thus, conventionally, when moving images are captured, an appropriate movement vector cannot be obtained due to the movement of the moving object in the z direction, so that an improvement occurs in that an error occurs in the frame position during moving object tracking processing. There was room.

本発明は、上記事情に鑑みてなされたもので、その目的は、動画撮像時に移動物体が撮像エリアのz方向に移動する場合に、より適正な移動ベクトルを得ることができる画像処理装置,画像処理方法及び撮像装置を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus and an image that can obtain a more appropriate movement vector when a moving object moves in the z direction of an imaging area during moving image capturing. A processing method and an imaging apparatus are provided.

本発明の上記目的は、下記構成によって達成される。
(1)撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理装置であって、
前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを複数のエリアに分割し、分割された前記複数のエリアごとに補正ベクトル探索範囲を設定する探索範囲設定手段と、
前記複数のエリアそれぞれについて前記補正ベクトル探索範囲における前記移動物体の移動成分を補正ベクトルとして検出する補正ベクトル検出手段と、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルとして設定するベクトル合成手段とを備えていることを特徴とする画像処理装置。
(2)前記画像データの輝度情報を取得する輝度情報取得手段と、
前記移動ベクトルを検出するパターンマッチング処理を実行するパターンマッチング処理手段と、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別する判別手段とを備えていることを特徴とする上記(1)に記載の画像処理装置。
(3)前記パターンマッチング処理手段が、パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値以内である場合に、パターンマッチング処理を実行することを特徴とする上記(2)に記載の画像処理装置。
(4)撮像素子で撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理装置を備えた撮像装置であって、
前記画像処理装置が、前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを分割し、分割されたエリアごとに複数の補正ベクトル探索範囲を設定する探索範囲設定手段と、
前記複数の補正ベクトル探索範囲のそれぞれについて、前記移動物体の移動成分を補正ベクトルとして検出する補正ベクトル検出手段と、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルとして設定するベクトル合成手段とを備えていることを特徴とする撮像装置。
(5)前記画像処理装置が、前記画像データの輝度情報を取得する輝度情報取得手段と、
前記移動ベクトルを検出するパターンマッチング処理を実行するパターンマッチング処理手段と、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別する判別手段とを備えていることを特徴とする上記(4)に記載の撮像装置。
(6)前記パターンマッチング処理手段が、パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値以内である場合に、パターンマッチング処理を実行することを特徴とする上記(5)に記載の撮像装置。
(7)撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理方法であって、
前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを分割し、分割されたエリアごとに複数の補正ベクトル探索範囲を設定するステップと、
前記複数の補正ベクトル探索範囲のそれぞれについて、前記移動物体の移動成分を補正ベクトルとして検出するステップと、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルと設定するステップを有することを特徴とする画像処理方法。
(8)前記画像データの輝度情報を取得するステップと、
前記移動ベクトルを検出するパターンマッチング処理を実行するステップと、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別するステップとを有することを特徴とする上記(7)に記載の画像処理方法。
(9)パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値以内である場合に、パターンマッチング処理を実行するステップを有することを特徴とする上記(8)に記載の画像処理方法。
The above object of the present invention is achieved by the following configurations.
(1) An image processing apparatus that detects a movement vector of a moving object based on image data obtained by imaging,
A search range setting that divides a frame obtained by cutting out a predetermined area in which at least a part of the moving object is imaged in the image data into a plurality of areas and sets a correction vector search range for each of the divided areas Means,
Correction vector detection means for detecting, as a correction vector, a moving component of the moving object in the correction vector search range for each of the plurality of areas;
An image processing apparatus comprising: a vector synthesizing unit that synthesizes the movement vector and the correction vector, and newly sets the synthesized vector as the movement vector.
(2) luminance information acquisition means for acquiring luminance information of the image data;
Pattern matching processing means for executing pattern matching processing for detecting the movement vector;
The image processing apparatus according to (1), further comprising: a determination unit that determines whether or not the correction vector is detected based on the luminance information.
(3) The pattern matching processing means compares the luminance ranges of a plurality of frames targeted for the pattern matching processing, and executes the pattern matching processing when the luminance range is within a preset threshold value. The image processing apparatus according to (2), characterized in that it is characterized in that
(4) An imaging apparatus including an image processing apparatus that detects a movement vector of a moving object based on image data obtained by imaging with an imaging element,
A search range in which the image processing device divides a frame obtained by cutting out a predetermined region in which at least a part of the moving object is imaged in the image data, and sets a plurality of correction vector search ranges for each of the divided areas. Setting means;
Correction vector detecting means for detecting a moving component of the moving object as a correction vector for each of the plurality of correction vector search ranges;
An image pickup apparatus comprising: vector combining means for combining the movement vector and the correction vector, and newly setting the combined vector as the movement vector.
(5) The luminance information acquisition means for acquiring luminance information of the image data by the image processing device;
Pattern matching processing means for executing pattern matching processing for detecting the movement vector;
The imaging apparatus according to (4), further comprising: a determination unit that determines whether to detect the correction vector based on the luminance information.
(6) The pattern matching processing means compares the luminance ranges of a plurality of frames targeted for pattern matching processing, and executes the pattern matching processing when the luminance range is within a preset threshold value. The imaging apparatus according to (5) above, which is characterized.
(7) An image processing method for detecting a movement vector of a moving object based on image data obtained by imaging,
Dividing a frame obtained by cutting out a predetermined area in which at least a part of the moving object is imaged in the image data, and setting a plurality of correction vector search ranges for each divided area;
Detecting a moving component of the moving object as a correction vector for each of the plurality of correction vector search ranges;
An image processing method comprising: synthesizing the movement vector and the correction vector, and newly setting the synthesized vector as the movement vector.
(8) obtaining luminance information of the image data;
Performing a pattern matching process for detecting the movement vector;
The image processing method according to (7), further comprising a step of determining whether or not to detect the correction vector based on the luminance information.
(9) The method includes a step of performing pattern matching processing when the luminance ranges of a plurality of frames to be subjected to pattern matching processing are compared with each other and the luminance range is within a preset threshold value. The image processing method according to (8).

本発明によれば、画像データのフレームを複数のエリアに分割し、分割されたエリアごとに移動物体の移動成分を補正ベクトルとして検出し、エリアごとに検出された補正ベクトルを、パターンマッチングにより予め検出された移動ベクトルと合成する。エリアごとに移動物体の補正ベクトルを検出することによって、移動物体の一部の特徴部分に対して相関が高くなることに起因して移動ベクトルに誤差成分が含まれる場合に、移動ベクトルと補正ベクトルとを合成して得られる新規な移動ベクトルを設定し、誤差成分を除去することができる。このため、移動物体が撮像エリアに対してz方向に移動した場合に、従来のパターンマッチング処理で検出される移動ベクトルに比べてより適正な移動ベクトルを得ることができる。   According to the present invention, a frame of image data is divided into a plurality of areas, a moving component of a moving object is detected as a correction vector for each divided area, and the correction vector detected for each area is preliminarily obtained by pattern matching. It combines with the detected movement vector. When the correction vector of the moving object is detected for each area, and the error component is included in the movement vector due to a high correlation with a part of the feature of the moving object, the movement vector and the correction vector A new movement vector obtained by synthesizing and can be set, and an error component can be removed. For this reason, when the moving object moves in the z direction with respect to the imaging area, a more appropriate movement vector can be obtained as compared with the movement vector detected by the conventional pattern matching processing.

本発明によれば、動画撮像時に移動物体が撮像エリアのz方向に移動する場合に、より適正な移動ベクトルを得ることができる画像処理装置,画像処理方法及び撮像装置を提供できる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and an imaging apparatus that can obtain a more appropriate movement vector when a moving object moves in the z direction of the imaging area during moving image imaging.

以下、本発明の実施形態を図面に基づいて詳しく説明する。
図1は、本発明の実施形態を説明するための撮像装置の一例としてのデジタルカメラの概略構成を示すブロック図である。同図に示すデジタルカメラ100は、撮影レンズ1aおよび撮像素子1bを含む撮像部1と、アナログ信号処理部2と、A/D変換部3と、駆動部4と、レンズ駆動部5と、デジタル信号処理部6と、圧縮/伸張処理部7と、表示部8と、システム制御部(CPU)9と、内部メモリ10と、メディアインタフェース11と、記録メディア12と、操作部13と、パターンマッチング装置15とを備える。デジタル信号処理部6、圧縮/伸張処理部7、表示部8、システム制御部9、内部メモリ10、メディアインタフェース11、及びパターンマッチング装置15は、システムバス14に接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a digital camera as an example of an imaging apparatus for explaining an embodiment of the present invention. A digital camera 100 shown in FIG. 1 includes an imaging unit 1 including a photographing lens 1a and an imaging element 1b, an analog signal processing unit 2, an A / D conversion unit 3, a driving unit 4, a lens driving unit 5, and a digital camera. Signal processing unit 6, compression / decompression processing unit 7, display unit 8, system control unit (CPU) 9, internal memory 10, media interface 11, recording medium 12, operation unit 13, pattern matching Device 15. The digital signal processing unit 6, compression / decompression processing unit 7, display unit 8, system control unit 9, internal memory 10, media interface 11, and pattern matching device 15 are connected to a system bus 14.

撮像部1は、ズームレンズや撮影レンズを含む光学系1aと、CCD型やCMOS型の固体撮像素子等の撮像素子1bとによって被写体を撮像するものであり、アナログの撮像信号を出力する。アナログ信号処理部2は、撮像部1で得られた撮像信号に所定のアナログ信号処理を施す。A/D変換部3は、アナログ信号処理部2で処理後のアナログ信号をデジタル信号に変換する。   The imaging unit 1 images a subject with an optical system 1a including a zoom lens and a photographing lens, and an imaging element 1b such as a CCD type or CMOS type solid-state imaging element, and outputs an analog imaging signal. The analog signal processing unit 2 performs predetermined analog signal processing on the imaging signal obtained by the imaging unit 1. The A / D conversion unit 3 converts the analog signal processed by the analog signal processing unit 2 into a digital signal.

駆動部4は、デジタルカメラ100が撮影モード(被写体を撮影して撮影画像データの記録が可能なモード)に設定されると、システム制御部9から供給される駆動パルスによって、固体撮像素子1b、アナログ信号処理部2、及びA/D変換部3を駆動する。デジタルカメラ100は動画撮影モードと静止画撮影モードが設定可能である。   When the digital camera 100 is set to a photographing mode (a mode in which a subject can be photographed and photographed image data can be recorded), the driving unit 4 is driven by a solid-state imaging device 1b, The analog signal processing unit 2 and the A / D conversion unit 3 are driven. The digital camera 100 can set a moving image shooting mode and a still image shooting mode.

レンズ駆動部5は、操作部13から光学ズーム倍率の変更指示がなされると、その指示に応じて光学系1aに含まれるズームレンズを移動させて撮像素子1bに設定する撮影倍率を変更する。レンズ駆動部5はシステム制御部9によって制御される。   When an instruction to change the optical zoom magnification is given from the operation unit 13, the lens driving unit 5 moves the zoom lens included in the optical system 1a in accordance with the instruction and changes the photographing magnification set in the image sensor 1b. The lens driving unit 5 is controlled by the system control unit 9.

デジタル信号処理部6は、A/D変換部3からのデジタル信号に対して、操作部13によって設定された動作モードに応じたデジタル信号処理を行って撮影画像データを生成する。デジタル信号処理部6が行う処理には、黒レベル補正処理(OB処理)、リニアマトリクス補正処理、ホワイトバランス調整処理、ガンマ補正処理、同時化処理等が含まれる。デジタル信号処理部6は、例えばDSPで構成される。動画撮影モードに設定された場合、デジタル信号処理部6からは、所定のフレームレートで例えば最大解像度の画像データが順次出力されて、これらが内部メモリ10に記憶される。デジタル信号処理部9は、操作部13から電子ズーム倍率の変更指示がなされると、その指示に応じて画像処理を行って撮像素子1bに設定する撮影倍率を変更する。   The digital signal processing unit 6 performs digital signal processing corresponding to the operation mode set by the operation unit 13 on the digital signal from the A / D conversion unit 3 to generate photographed image data. The processing performed by the digital signal processing unit 6 includes black level correction processing (OB processing), linear matrix correction processing, white balance adjustment processing, gamma correction processing, and synchronization processing. The digital signal processing unit 6 is configured by a DSP, for example. When the moving image shooting mode is set, the digital signal processing unit 6 sequentially outputs, for example, maximum resolution image data at a predetermined frame rate, and stores these in the internal memory 10. When an instruction to change the electronic zoom magnification is given from the operation unit 13, the digital signal processing unit 9 performs image processing according to the instruction and changes the photographing magnification set in the image sensor 1 b.

圧縮/伸張処理部7は、デジタル信号処理部6で生成された撮影画像データに対して圧縮処理を施すとともに、記録メディア12から得られた圧縮画像データに対して伸張処理を施す。   The compression / decompression processing unit 7 performs compression processing on the captured image data generated by the digital signal processing unit 6 and performs expansion processing on the compressed image data obtained from the recording medium 12.

表示部8は、例えばLCD表示装置を含んで構成され、撮影されてデジタル信号処理を経た撮影画像データに基づく画像を表示する。記録メディア12に記録された圧縮画像データを伸張処理して得た画像データに基づく画像の表示も行う。また、撮影モード時のスルー画像、デジタルカメラの各種状態、操作に関する情報の表示等も可能である。   The display unit 8 includes an LCD display device, for example, and displays an image based on photographed image data that has been photographed and subjected to digital signal processing. An image is also displayed based on the image data obtained by decompressing the compressed image data recorded on the recording medium 12. It is also possible to display a through image in the shooting mode, various states of the digital camera, information on operations, and the like.

システム制御部9は、所定のプログラムによって動作するプロセッサを主体に構成され、撮影動作を含むデジタルカメラ100全体の統括制御を行う。システム制御部9は、操作部13から撮影倍率の変更指示があると、この指示をレンズ駆動部5やデジタル信号処理部6に通知して、撮影倍率の変更制御を行う。   The system control unit 9 is mainly configured by a processor that operates according to a predetermined program, and performs overall control of the entire digital camera 100 including shooting operations. When there is an instruction to change the photographing magnification from the operation unit 13, the system control unit 9 notifies the lens driving unit 5 and the digital signal processing unit 6 of this instruction, and performs control to change the photographing magnification.

内部メモリ10は、例えばDRAMであり、パターンマッチング装置15、デジタル信号処理部6、及びシステム制御部9のワークメモリとして利用される他、記録メディア12に記録される撮影画像データを一時的に記憶するバッファメモリや表示部8への表示用画像データのバッファメモリとしても利用される。メディアインタフェース11は、メモリカード等の記録メディア12との間のデータの入出力を行うものである。   The internal memory 10 is, for example, a DRAM and is used as a work memory for the pattern matching device 15, the digital signal processing unit 6, and the system control unit 9, and temporarily stores captured image data recorded on the recording medium 12. It is also used as a buffer memory for displaying image data for display on the display unit 8. The media interface 11 inputs / outputs data to / from a recording medium 12 such as a memory card.

操作部13は、デジタルカメラ使用時の各種操作を行うものであり、撮影指示を行うためのレリーズボタン(図示せず)を含む。   The operation unit 13 performs various operations when using the digital camera, and includes a release button (not shown) for instructing photographing.

図2は、図1に示すパターンマッチング装置15の概略構成を示すブロック図である。パターンマッチング装置15は、撮像した画像データの輝度情報を取得する輝度情報取得部21と、パターンマッチング処理を実行するパターンマッチング処理部22と、輝度情報取得部21で取得した輝度情報に基づいて後処理で述べる補正ベクトルの検出を行うか否かを判別する判別部23とを有している。   FIG. 2 is a block diagram showing a schematic configuration of the pattern matching device 15 shown in FIG. The pattern matching device 15 is based on the luminance information acquisition unit 21 that acquires luminance information of captured image data, the pattern matching processing unit 22 that executes pattern matching processing, and the luminance information acquired by the luminance information acquisition unit 21. And a determination unit 23 for determining whether or not to detect a correction vector described in the processing.

また、パターンマッチング装置15は、パターンマッチング処理部22によって検出された移動ベクトルを補正するため、補正ベクトルを算出して移動ベクトルと合成する処理するため、更に、探索範囲設定部31と、補正ベクトル検出部32と、ベクトル合成部33と、フレーム位置決定部34とを有している。なお、補正ベクトルを検出して移動ベクトルと合成する処理については後述する。   The pattern matching device 15 further calculates a correction vector and combines it with the movement vector in order to correct the movement vector detected by the pattern matching processing unit 22, and further includes a search range setting unit 31 and a correction vector. A detection unit 32, a vector synthesis unit 33, and a frame position determination unit 34 are included. The process of detecting the correction vector and combining it with the movement vector will be described later.

画像装置輝度情報取得部21で取得された輝度情報や、パターンマッチング処理部22で検出された移動ベクトルは、記憶手段として機能するメモリ35に記憶され、必要に応じて読み出される。なお、メモリ35は、図1に示す撮像装置100のフレームメモリ10を用いることもできる。   The luminance information acquired by the image device luminance information acquisition unit 21 and the movement vector detected by the pattern matching processing unit 22 are stored in the memory 35 functioning as a storage unit, and are read out as necessary. As the memory 35, the frame memory 10 of the imaging apparatus 100 shown in FIG. 1 can be used.

次に、補正ベクトルを検出する手順を説明する。
図3は、移動物体が移動する前のフレームを示す図である。図4は、移動物体が移動した後のフレームを示す図である。
図3に示すように、フレームF0は、画像データにおける、移動物体Tが撮像された所定の領域を切り出した部分を示している。なお、図3のフレームF0は、動画撮像時において前フレームに相等し、図4のフレームF1が現フレームを示している。
Next, a procedure for detecting a correction vector will be described.
FIG. 3 is a diagram illustrating a frame before the moving object moves. FIG. 4 is a diagram illustrating the frame after the moving object has moved.
As illustrated in FIG. 3, the frame F <b> 0 indicates a portion obtained by cutting out a predetermined area where the moving object T is captured in the image data. Note that the frame F0 in FIG. 3 is equivalent to the previous frame at the time of moving image capturing, and the frame F1 in FIG. 4 indicates the current frame.

補正ベクトルを検出する前に、フレームF0,F1を複数(ここでは、一例として4つとする。)のエリアb0〜b3に分割する。本実施形態では、フレームF0は、縦方向及び横方向を等間隔に2つに分割することで、それぞれ面積の等しい4つのエリアに分割している。図4で、フレームF1の分割されたエリアは、図3のフレームF0の分割したエリアにそれぞれ相当している。   Before detecting the correction vector, the frames F0 and F1 are divided into a plurality of areas (here, four as an example) b0 to b3. In the present embodiment, the frame F0 is divided into four equal areas by dividing the frame F0 into two at equal intervals in the vertical and horizontal directions. In FIG. 4, the divided areas of the frame F1 correspond to the divided areas of the frame F0 of FIG.

パターンマッチング処理部22によって、フレームF0,F1の移動物体Tの移動ベクトルを検出した後、パターンマッチング装置15の探索範囲設定部31においてフレームF0において分割されたエリアごとに、フレームF1を含めたその周囲に補正ベクトル探索範囲Rを新たに設定する。   After detecting the movement vector of the moving object T in the frames F0 and F1 by the pattern matching processing unit 22, each of the areas divided in the frame F0 in the search range setting unit 31 of the pattern matching device 15 includes the frame F1. A correction vector search range R is newly set around.

図5から図8は、分割されたエリアに対する探索範囲において補正ベクトルを検出する手順を説明する図である。
図5(a)に示すように、探索範囲設定部31が、左上に位置するエリアb0に対して、該エリアb0を含み、且つ、広い面積の補正ベクトル探索範囲Rを設定する。次に、補正ベクトル検出部32が、フレームF0のエリアb0内に撮像された移動物体Tの一部と、図5(b)に示すフレームF1の時点における移動物体Tとをパターンマッチング処理することで補正ベクトルV0を検出する。
5 to 8 are diagrams for explaining the procedure for detecting the correction vector in the search range for the divided areas.
As shown in FIG. 5A, the search range setting unit 31 sets a correction vector search range R that includes the area b0 and has a wide area with respect to the area b0 located at the upper left. Next, the correction vector detection unit 32 performs pattern matching processing on a part of the moving object T imaged in the area b0 of the frame F0 and the moving object T at the time point of the frame F1 shown in FIG. To detect the correction vector V0.

続いて、図6(a)に示すように、探索範囲設定部31が右上に位置するエリアb1に対して、該エリアb1を含み、且つ、広い面積の補正ベクトル探索範囲Rを設定する。次に、補正ベクトル検出部32がフレームF0のエリアb1内に撮像された移動物体Tの一部と、図6(b)に示すフレームF1の時点における移動物体Tとをパターンマッチング処理することで補正ベクトルV1を検出する。同様に、図7(a)に示すように、左下に位置するエリアb2に対して、該エリアb2を含み、且つ、広い面積の補正ベクトル探索範囲Rを設定する。次に、フレームF0のエリアb1内に撮像された移動物体Tの一部と、図7(b)に示すフレームF1の時点における移動物体Tとをパターンマッチング処理することで補正ベクトルV2を検出する。同様に、図8(a)に示すように、右下に位置するエリアb3に対して、該エリアb3を含み、且つ、広い面積の補正ベクトル探索範囲Rを設定する。次に、フレームF0のエリアb3内に撮像された移動物体Tの一部と、図8(b)に示すフレームF1の時点における移動物体Tとをパターンマッチング処理することで補正ベクトルV3を検出する。   Subsequently, as shown in FIG. 6A, the search range setting unit 31 sets a correction vector search range R that includes the area b1 and has a wide area with respect to the area b1 located on the upper right. Next, the correction vector detection unit 32 performs pattern matching processing on a part of the moving object T imaged in the area b1 of the frame F0 and the moving object T at the time point of the frame F1 shown in FIG. A correction vector V1 is detected. Similarly, as shown in FIG. 7A, a correction vector search range R including the area b2 and having a wide area is set for the area b2 located at the lower left. Next, the correction vector V2 is detected by performing pattern matching processing on a part of the moving object T imaged in the area b1 of the frame F0 and the moving object T at the time of the frame F1 shown in FIG. 7B. . Similarly, as shown in FIG. 8A, a correction vector search range R including the area b3 and having a wide area is set for the area b3 located at the lower right. Next, the correction vector V3 is detected by performing pattern matching processing on a part of the moving object T imaged in the area b3 of the frame F0 and the moving object T at the time of the frame F1 shown in FIG. 8B. .

次に、ベクトル合成部33において、エリアb0〜b3ごとに検出された補正ベクトルV0〜V3と、予めフレームF0とフレームF1とのパターンマッチング処理によって検出されている移動ベクトルとを合成する。合成によって算出されたベクトルを新規な移動ベクトルに設定する。   Next, the vector combining unit 33 combines the correction vectors V0 to V3 detected for the areas b0 to b3 and the movement vector detected in advance by the pattern matching process between the frames F0 and F1. The vector calculated by the synthesis is set as a new movement vector.

そして、新規の移動ベクトルに基づいて、フレーム位置決定部34が正しいフレーム位置を決定する。フレーム位置は、位置情報としてメモリ35に記憶される。   Then, based on the new movement vector, the frame position determination unit 34 determines the correct frame position. The frame position is stored in the memory 35 as position information.

本発明によれば、画像データのフレームF0を複数のエリアb0〜b3に分割し、分割されたエリアb0〜b3ごとに移動物体Tの移動成分を補正ベクトルV0〜V3として検出し、エリアb0〜b3ごとに検出された補正ベクトルV0〜V3を、パターンマッチングにより予め検出された移動ベクトルと合成する。エリアb0〜b3ごとに移動物体の補正ベクトルV0〜V3を検出することで、移動物体Tの一部の特徴部分に対して相関が高くなることに起因して移動ベクトルに誤差成分が含まれる場合に、移動ベクトルと補正ベクトルV0〜V3とを合成して得られる新規な移動ベクトルを設定することで、誤差成分を除去することができる。このため、移動物体Tが撮像エリアに対してz方向に移動した場合に、従来のパターンマッチング処理で検出される移動ベクトルに比べてより適正な移動ベクトルを得ることができる。   According to the present invention, the frame F0 of the image data is divided into a plurality of areas b0 to b3, the moving components of the moving object T are detected as the correction vectors V0 to V3 for each of the divided areas b0 to b3, and the areas b0 to b3 are detected. The correction vectors V0 to V3 detected for each b3 are combined with the movement vector detected in advance by pattern matching. When the correction vector V0 to V3 of the moving object is detected for each of the areas b0 to b3, and an error component is included in the moving vector due to a high correlation with a part of the characteristic part of the moving object T In addition, an error component can be removed by setting a new movement vector obtained by combining the movement vector and the correction vectors V0 to V3. For this reason, when the moving object T moves in the z direction with respect to the imaging area, a more appropriate movement vector can be obtained as compared with the movement vector detected by the conventional pattern matching processing.

上記実施形態では、パターンマッチング装置15を備えた撮像装置の構成を説明したが、パターンマッチング装置15は、撮像装置に備えられている必要はなく、単体で本発明にかかる画像処理装置とすることもできる。この場合、外部の撮像装置で撮像した画像データを画像処理装置に入力した後、画像処理装置において、移動ベクトル及び補正ベクトルV0〜V3を検出する。   In the above embodiment, the configuration of the imaging device including the pattern matching device 15 has been described. However, the pattern matching device 15 does not have to be provided in the imaging device, and is a single image processing device according to the present invention. You can also. In this case, after the image data picked up by the external image pickup device is input to the image processing device, the image processing device detects the movement vector and the correction vectors V0 to V3.

次に、本実施形態の撮像装置を用いて、本発明にかかる画像処理方法の手順を説明する。
図9及び図10は、本発明にかかる画像処理方法の手順を示すフローチャートである。
Next, the procedure of the image processing method according to the present invention will be described using the imaging apparatus of the present embodiment.
9 and 10 are flowcharts showing the procedure of the image processing method according to the present invention.

最初に、撮像素子1bで撮像された画像データをアナログ信号処理,A/D変換、及び、デジタル信号処理した後、パターンマッチング装置15に入力する。   First, the image data picked up by the image pickup device 1 b is subjected to analog signal processing, A / D conversion, and digital signal processing, and then input to the pattern matching device 15.

パターンマッチング装置15の輝度情報取得部21では、入力された画像データから輝度情報として、輝度レンジ、及び、輝度差の絶対値の総和の最小値Minを算出する。   The luminance information acquisition unit 21 of the pattern matching device 15 calculates a luminance range and a minimum value Min of the sum of absolute values of luminance differences as luminance information from the input image data.

ここで、輝度レンジとは、画像データにおいてパターンマッチング処理の対象となる範囲内のうち、最も高い輝度値と最も低い輝度値との差を意味する。輝度レンジが大きい場合には、パターンマッチング処理の探索範囲の画像の変化が大きいことを表し、輝度レンジが小さい場合には、パターンマッチング処理の探索範囲の画像の変化が小さいことを表している。   Here, the luminance range means a difference between the highest luminance value and the lowest luminance value in a range to be subjected to pattern matching processing in image data. When the brightness range is large, it indicates that the change in the image in the search range of the pattern matching process is large, and when the brightness range is small, it indicates that the change in the image in the search range of the pattern matching process is small.

輝度レンジの算出は、処理時間短縮のため、後述するパターンマッチング処理と同時に実行してもよい。   The calculation of the luminance range may be performed simultaneously with the pattern matching process described later in order to shorten the processing time.

輝度差の絶対値の総和の最小値Minは、フレーム間の探索する範囲における輝度差をフレームの画素を所定の画素(例えば、1画素)づつずらして算出し、算出された全ての輝度差を総和として算出する。そして、その総和が最も小さい値をとるものを最小値Minとして設定する。輝度差の絶対値の総和の最小値Minは、移動ベクトルの信頼度として用いられる。輝度差の絶対値の総和の最小値Minが小さいほど、相関が高く、信頼度が高いことを表している。   The minimum value Min of the sum of absolute values of the luminance differences is calculated by shifting the luminance difference in the search range between frames by a predetermined pixel (for example, one pixel), and all the calculated luminance differences are calculated. Calculate as the sum. Then, the value having the smallest sum is set as the minimum value Min. The minimum value Min of the sum of absolute values of luminance differences is used as the reliability of the movement vector. The smaller the minimum value Min of the sum of absolute values of luminance differences, the higher the correlation and the higher the reliability.

輝度レンジ、及び、輝度差の絶対値の総和の最小値Minを算出した後、判別部23で輝度レンジが予め設定された閾値Aより大きいか否かを判別する。ここで、輝度レンジが閾値Aより小さいと判別された場合には、入力された画像データの輝度変化が小さく、検出される移動ベクトルの精度が低下することから、補正ベクトルの検出を行わず、処理不能と判定し、次の画像の入力する処理を続ける。   After calculating the luminance range and the minimum sum Min of the absolute values of the luminance differences, the determination unit 23 determines whether the luminance range is greater than a preset threshold A. Here, when it is determined that the luminance range is smaller than the threshold value A, the luminance change of the input image data is small, and the accuracy of the detected motion vector is reduced. Therefore, the correction vector is not detected, It is determined that processing is impossible, and processing for inputting the next image is continued.

輝度レンジが閾値Aより大きいと判別された場合には、パターンマッチング処理部22においてフレーム間のパターンマッチング処理を実行し、移動ベクトルを検出する。   When it is determined that the luminance range is larger than the threshold value A, the pattern matching processing unit 22 performs a pattern matching process between frames and detects a movement vector.

移動ベクトルを検出した後、先に算出された輝度差の絶対値の総和の最小値Minが予め設定された閾値Bより小さいか否かを判別する。最小値Minが閾値Bよりも小さい場合には、パターンマッチング処理で検出された移動ベクトルを採用し、補正ベクトルV0〜V3を検出するステップを実行することなく、移動物体Tの追尾処理を実行する。   After detecting the movement vector, it is determined whether or not the minimum value Min of the sum of absolute values of the previously calculated luminance difference is smaller than a preset threshold value B. When the minimum value Min is smaller than the threshold value B, the moving vector detected by the pattern matching process is adopted, and the tracking process of the moving object T is executed without executing the steps of detecting the correction vectors V0 to V3. .

一方、輝度差の絶対値の総和の最小値Minが閾値B以上である場合には、補正ベクトルを検出するフローを実行する。具体的には、探索範囲設定部31において、フレームF0を複数のエリアb0〜b3に分割し、分割された複数のエリアb0〜b3ごとに補正ベクトル探索範囲Rを設定する。なお、輝度差の絶対値の総和の最小値Minと閾値Bとの比較はパターンマッチング処理と同時またはそれよりも先に実行してもよい。   On the other hand, when the minimum value Min of the sum of absolute values of luminance differences is equal to or greater than the threshold value B, a flow for detecting a correction vector is executed. Specifically, the search range setting unit 31 divides the frame F0 into a plurality of areas b0 to b3, and sets a correction vector search range R for each of the divided areas b0 to b3. Note that the comparison between the minimum value Min of the sum of the absolute values of the luminance differences and the threshold value B may be performed simultaneously with or before the pattern matching process.

そして、複数のエリアb0〜b3それぞれについて、補正ベクトル検出部32において補正ベクトル探索範囲Rにおける移動物体Tの移動成分を補正ベクトルV0〜V3として検出する。   For each of the plurality of areas b0 to b3, the correction vector detection unit 32 detects the moving components of the moving object T in the correction vector search range R as correction vectors V0 to V3.

補正ベクトルV0〜V3を検出した後、ベクトル合成部33において、先にパターンマッチング処理で検出された移動ベクトルと、補正ベクトルV0〜V3とを合成する。フレーム位置決定部34において、合成されたベクトルを新規に移動ベクトルとして用いることで、動体追尾によるフレームの位置を決定する。   After detecting the correction vectors V0 to V3, the vector combining unit 33 combines the movement vectors previously detected by the pattern matching process and the correction vectors V0 to V3. The frame position determination unit 34 uses the synthesized vector as a new movement vector to determine the frame position by moving object tracking.

エリアb0〜b3ごとに移動物体の補正ベクトルV0〜V3を検出することによって、移動物体Tの一部の特徴部分に対して相関が高くなることに起因して移動ベクトルに誤差成分が含まれる場合に、移動ベクトルと補正ベクトルV0〜V3とを合成して得られる新規な移動ベクトルを設定し、誤差成分を除去することができる。このため、移動物体Tが撮像エリアに対してz方向に移動した場合に、従来のパターンマッチング処理で検出される移動ベクトルに比べてより適正な移動ベクトルを得ることができる。   When the correction vector V0 to V3 of the moving object is detected for each of the areas b0 to b3, and an error component is included in the moving vector due to a high correlation with a part of the feature of the moving object T In addition, a new movement vector obtained by combining the movement vector and the correction vectors V0 to V3 can be set to remove the error component. For this reason, when the moving object T moves in the z direction with respect to the imaging area, a more appropriate movement vector can be obtained as compared with the movement vector detected by the conventional pattern matching processing.

撮像装置の構成の概略構成を示す図である。It is a figure which shows schematic structure of a structure of an imaging device. パターンマッチング装置の概略構成を示す図である。It is a figure which shows schematic structure of a pattern matching apparatus. 移動物体が移動する前のフレームを示す図である。It is a figure which shows the flame | frame before a moving object moves. 移動物体が移動した後のフレームを示す図である。It is a figure which shows the frame after a moving object moved. 分割されたエリアに対する探索範囲において補正ベクトルを検出する手順を説明する図である。It is a figure explaining the procedure which detects a correction vector in the search range with respect to the divided area. 分割されたエリアに対する探索範囲において補正ベクトルを検出する手順を説明する図である。It is a figure explaining the procedure which detects a correction vector in the search range with respect to the divided area. 分割されたエリアに対する探索範囲において補正ベクトルを検出する手順を説明する図である。It is a figure explaining the procedure which detects a correction vector in the search range with respect to the divided area. 分割されたエリアに対する探索範囲において補正ベクトルを検出する手順を説明する図である。It is a figure explaining the procedure which detects a correction vector in the search range with respect to the divided area. 画像処理方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of an image processing method. 画像処理方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of an image processing method. 撮像エリアにおける移動物体の移動の状態を説明する図である。It is a figure explaining the state of the movement of the moving object in an imaging area. フレームに対する移動物体の位置を説明する図である。It is a figure explaining the position of the moving object with respect to a flame | frame.

符号の説明Explanation of symbols

15 パターンマッチング装置(画像処理装置)
100 デジタルカメラ(撮像装置)
b0〜b3 分割されたエリア
F0,F1 フレーム
T 移動物体
V0〜V3 補正ベクトル
15 Pattern matching device (image processing device)
100 Digital camera (imaging device)
b0 to b3 Divided areas F0 and F1 Frame T Moving object V0 to V3 Correction vector

Claims (9)

撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理装置であって、
前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを複数のエリアに分割し、分割された前記複数のエリアごとに補正ベクトル探索範囲を設定する探索範囲設定手段と、
前記複数のエリアそれぞれについて前記補正ベクトル探索範囲における前記移動物体の移動成分を補正ベクトルとして検出する補正ベクトル検出手段と、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルとして設定するベクトル合成手段とを備えていることを特徴とする画像処理装置。
An image processing apparatus that detects a movement vector of a moving object based on image data obtained by imaging,
A search range setting that divides a frame obtained by cutting out a predetermined area in which at least a part of the moving object is imaged in the image data into a plurality of areas and sets a correction vector search range for each of the divided areas Means,
Correction vector detection means for detecting, as a correction vector, a moving component of the moving object in the correction vector search range for each of the plurality of areas;
An image processing apparatus comprising: a vector synthesizing unit that synthesizes the movement vector and the correction vector, and newly sets the synthesized vector as the movement vector.
前記画像データの輝度情報を取得する輝度情報取得手段と、
前記移動ベクトルを検出するパターンマッチング処理を実行するパターンマッチング処理手段と、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別する判別手段とを備えていることを特徴とする請求項1に記載の画像処理装置。
Luminance information acquisition means for acquiring luminance information of the image data;
Pattern matching processing means for executing pattern matching processing for detecting the movement vector;
The image processing apparatus according to claim 1, further comprising: a determination unit that determines whether to detect the correction vector based on the luminance information.
前記パターンマッチング処理手段が、パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値より大きい場合に、パターンマッチング処理を実行することを特徴とする請求項2に記載の画像処理装置。   The pattern matching processing unit compares the luminance ranges of a plurality of frames targeted for pattern matching processing, and executes the pattern matching processing when the luminance range is larger than a preset threshold value. Item 3. The image processing apparatus according to Item 2. 撮像素子で撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理装置を備えた撮像装置であって、
前記画像処理装置が、前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを分割し、分割されたエリアごとに複数の補正ベクトル探索範囲を設定する探索範囲設定手段と、
前記複数の補正ベクトル探索範囲のそれぞれについて、前記移動物体の移動成分を補正ベクトルとして検出する補正ベクトル検出手段と、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルとして設定するベクトル合成手段とを備えていることを特徴とする撮像装置。
An imaging apparatus including an image processing apparatus that detects a movement vector of a moving object based on image data obtained by imaging with an imaging element,
A search range in which the image processing device divides a frame obtained by cutting out a predetermined region in which at least a part of the moving object is imaged in the image data, and sets a plurality of correction vector search ranges for each of the divided areas. Setting means;
Correction vector detecting means for detecting a moving component of the moving object as a correction vector for each of the plurality of correction vector search ranges;
An image pickup apparatus comprising: vector combining means for combining the movement vector and the correction vector, and newly setting the combined vector as the movement vector.
前記画像処理装置が、前記画像データの輝度情報を取得する輝度情報取得手段と、
前記移動ベクトルを検出するパターンマッチング処理を実行するパターンマッチング処理手段と、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別する判別手段とを備えていることを特徴とする請求項4に記載の撮像装置。
Luminance information acquisition means for the image processing apparatus to acquire luminance information of the image data;
Pattern matching processing means for executing pattern matching processing for detecting the movement vector;
The imaging apparatus according to claim 4, further comprising: a determination unit that determines whether to detect the correction vector based on the luminance information.
前記パターンマッチング処理手段が、パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値より大きい場合に、パターンマッチング処理を実行することを特徴とする請求項5に記載の撮像装置。   The pattern matching processing unit compares the luminance ranges of a plurality of frames targeted for pattern matching processing, and executes the pattern matching processing when the luminance range is larger than a preset threshold value. Item 6. The imaging device according to Item 5. 撮像して得られる画像データに基づいて、移動物体の移動ベクトルを検出する画像処理方法であって、
前記画像データにおける、前記移動物体の少なくとも一部が撮像された所定の領域を切り出したフレームを分割し、分割されたエリアごとに複数の補正ベクトル探索範囲を設定するステップと、
前記複数の補正ベクトル探索範囲のそれぞれについて、前記移動物体の移動成分を補正ベクトルとして検出するステップと、
前記移動ベクトルと前記補正ベクトルとを合成し、合成されたベクトルを新規に前記移動ベクトルと設定するステップを有することを特徴とする画像処理方法。
An image processing method for detecting a movement vector of a moving object based on image data obtained by imaging,
Dividing a frame obtained by cutting out a predetermined area in which at least a part of the moving object is imaged in the image data, and setting a plurality of correction vector search ranges for each divided area;
Detecting a moving component of the moving object as a correction vector for each of the plurality of correction vector search ranges;
An image processing method comprising: synthesizing the movement vector and the correction vector, and newly setting the synthesized vector as the movement vector.
前記画像データの輝度情報を取得するステップと、
前記移動ベクトルを検出するパターンマッチング処理を実行するステップと、
前記輝度情報に基づいて、前記補正ベクトルを検出するか否かを判別するステップとを有することを特徴とする請求項7に記載の画像処理方法。
Obtaining luminance information of the image data;
Performing a pattern matching process for detecting the movement vector;
The image processing method according to claim 7, further comprising a step of determining whether or not to detect the correction vector based on the luminance information.
パターンマッチング処理に対象となる複数のフレーム同士の輝度レンジを比較して前記輝度レンジが予め設定した閾値より大きい場合に、パターンマッチング処理を実行するステップを有することを特徴とする請求項8に記載の画像処理方法。
9. The method according to claim 8, further comprising the step of performing pattern matching processing when the luminance ranges of a plurality of frames targeted for pattern matching processing are compared and the luminance range is greater than a preset threshold value. Image processing method.
JP2007188315A 2007-07-19 2007-07-19 Image processor, image processing method and imaging device Abandoned JP2009027437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007188315A JP2009027437A (en) 2007-07-19 2007-07-19 Image processor, image processing method and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007188315A JP2009027437A (en) 2007-07-19 2007-07-19 Image processor, image processing method and imaging device

Publications (1)

Publication Number Publication Date
JP2009027437A true JP2009027437A (en) 2009-02-05

Family

ID=40398828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007188315A Abandoned JP2009027437A (en) 2007-07-19 2007-07-19 Image processor, image processing method and imaging device

Country Status (1)

Country Link
JP (1) JP2009027437A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090311A1 (en) 2009-02-09 2010-08-12 日本電気株式会社 Path control system, path control device, communication device, path control method, and program
US9501815B2 (en) 2012-05-18 2016-11-22 Thomson Licensing Processing panoramic pictures
US10142541B2 (en) 2016-03-23 2018-11-27 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, and control method of image processing apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191347A (en) * 1996-12-27 1998-07-21 Casio Comput Co Ltd Motion detector, motion detecting method and storage medium
JPH11150670A (en) * 1997-09-10 1999-06-02 Ricoh Co Ltd Camera device
JP2003196787A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2004229150A (en) * 2003-01-27 2004-08-12 Nec Corp Motion vector searching method and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191347A (en) * 1996-12-27 1998-07-21 Casio Comput Co Ltd Motion detector, motion detecting method and storage medium
JPH11150670A (en) * 1997-09-10 1999-06-02 Ricoh Co Ltd Camera device
JP2003196787A (en) * 2001-12-26 2003-07-11 Tietech Co Ltd Method and device for detecting moving object
JP2004229150A (en) * 2003-01-27 2004-08-12 Nec Corp Motion vector searching method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010090311A1 (en) 2009-02-09 2010-08-12 日本電気株式会社 Path control system, path control device, communication device, path control method, and program
US9501815B2 (en) 2012-05-18 2016-11-22 Thomson Licensing Processing panoramic pictures
US10142541B2 (en) 2016-03-23 2018-11-27 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, and control method of image processing apparatus

Similar Documents

Publication Publication Date Title
KR101062502B1 (en) Image pickup device having a panning mode for picking up panning images
US9456135B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US8004570B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
US20140098187A1 (en) Image processing device, image processing method, and program
US20080101710A1 (en) Image processing device and imaging device
US10359498B2 (en) Image pickup apparatus having function of generating simulation image,control method therefor, and storage medium
JP6222514B2 (en) Image processing apparatus, imaging apparatus, and computer program
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
JP2011029735A (en) Image processor, imaging device, and image processing method
JP2011029735A5 (en)
JP2015012480A (en) Image processing apparatus and image processing method
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP2011130328A (en) Image processing apparatus, method and program
JP2010114752A (en) Device and method of imaging and program
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP6037224B2 (en) Image processing apparatus, imaging apparatus, and program
JP6336341B2 (en) Imaging apparatus, control method therefor, program, and storage medium
US10401174B2 (en) Posture estimating apparatus for estimating posture, posture estimating method and recording medium
JP4953770B2 (en) Imaging device
JP2011066827A (en) Image processing apparatus, image processing method and program
JP2009027437A (en) Image processor, image processing method and imaging device
JP5267279B2 (en) Image composition apparatus and program
JP4774857B2 (en) Image processing apparatus and program
JP2008160274A (en) Motion vector detection method, its apparatus and its program, electronic hand-blur correction method, its apparatus and its program, as well as imaging apparatus
KR20180028962A (en) Method and Device for detecting image wobbling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110713