JP4701111B2 - Pattern matching system and subject tracking system - Google Patents

Pattern matching system and subject tracking system Download PDF

Info

Publication number
JP4701111B2
JP4701111B2 JP2006072652A JP2006072652A JP4701111B2 JP 4701111 B2 JP4701111 B2 JP 4701111B2 JP 2006072652 A JP2006072652 A JP 2006072652A JP 2006072652 A JP2006072652 A JP 2006072652A JP 4701111 B2 JP4701111 B2 JP 4701111B2
Authority
JP
Japan
Prior art keywords
image
area
region
unit
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006072652A
Other languages
Japanese (ja)
Other versions
JP2007249640A (en
Inventor
康裕 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2006072652A priority Critical patent/JP4701111B2/en
Priority to US11/686,561 priority patent/US8023744B2/en
Publication of JP2007249640A publication Critical patent/JP2007249640A/en
Application granted granted Critical
Publication of JP4701111B2 publication Critical patent/JP4701111B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数の画像の一致性の高さを判定するパターンマッチングシステムと、パターンマッチングシステムを用いて連続的に撮像される撮影画像における特定の被写体の移動を追尾する被写体追尾システムに関する。   The present invention relates to a pattern matching system that determines the degree of coincidence of a plurality of images, and a subject tracking system that tracks the movement of a specific subject in captured images that are continuously captured using the pattern matching system.

複数の画像の一致性を判定するパターンマッチングシステムが知られている。パターンマッチングは、連続的に撮像される複数の画像において移動する被写体の追尾などにも用いられている。   There is known a pattern matching system that determines the coincidence of a plurality of images. Pattern matching is also used for tracking a moving subject in a plurality of images that are continuously captured.

パターンマッチングシステムでは、画像を細かく分割し、両画像において相対的な位置が同じ分割した領域の輝度などを比較し、輝度が一致する領域の数によって画像の一致性を判定している。   In the pattern matching system, images are divided finely, the luminance of divided regions having the same relative position in both images is compared, and the matching of the images is determined by the number of regions having the same luminance.

比較する領域が多いほど判定の正確性が高まる一方で、比較する領域が多いほどパターンマッチングシステムには取り扱うビット数の大きなデジタル演算器を用いる必要があった。一方で必要以上のビット数を取り扱い可能であっても、使われずに無駄になることもあった。   The more areas to be compared, the higher the accuracy of determination. On the other hand, the more areas to be compared, the digital matching unit having a larger number of bits to be handled needs to be used for the pattern matching system. On the other hand, even if it was possible to handle more bits than necessary, it could be wasted without being used.

したがって、本発明では演算効率が高く、デジタル演算器を有効に活用可能なパターンマッチングシステムの提供を目的とする。   Therefore, an object of the present invention is to provide a pattern matching system that has high calculation efficiency and can effectively use a digital calculator.

本発明のパターンマッチングシステムは、第1の画像と第2の画像との一致性の高さを示すための判定値を出力するパターンマッチングシステムであって、第1、第2の画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号によって形成され第1、第2の画像に対応する第1、第2の画像データをデジタルデータとして取得する取得部と、第1、第2の画像における同じ位置のパターン領域の領域信号の信号強度を比較する比較部と、比較部による比較において領域信号の信号強度の差の絶対値が予め定められる基準値以下となるパターン領域の数に応じて変わる判定値を算出する判定部と、判定値を出力する出力部とを備えることを特徴としている。   The pattern matching system of the present invention is a pattern matching system that outputs a determination value for indicating the degree of coincidence between a first image and a second image, and forms first and second images. An acquisition unit that acquires, as digital data, first and second image data corresponding to the first and second images formed by region signals whose signal intensity changes according to the luminance of each of the power-of-two pattern regions; The absolute value of the difference between the signal strengths of the region signals in the comparison by the comparison unit that compares the signal strengths of the region signals of the pattern regions at the same position in the first and second images is equal to or less than a predetermined reference value. A determination unit that calculates a determination value that changes according to the number of pattern regions and an output unit that outputs the determination value are provided.

さらに、第1、第2の画像データにおける領域信号の信号強度の2値化を行なう2値化部を備え、比較部は第1、第2の画像における同じ位置のパターン領域の領域信号の2値化された信号強度を比較することが好ましい。   Further, a binarization unit for binarizing the signal strength of the region signal in the first and second image data is provided, and the comparison unit 2 of the region signal of the pattern region at the same position in the first and second images. It is preferable to compare the quantified signal strengths.

また、第1の画像または第2の画像全体の輝度が第1の閾値より低いときにパターン領域の大きさを広くすることが好ましい。   In addition, it is preferable to increase the size of the pattern region when the luminance of the entire first image or the second image is lower than the first threshold value.

また、取得部はパターン領域を形成する複数の画素それぞれの輝度に応じて信号強度の変わる画素信号を受信する受信部と単一のパターン領域を形成する複数の画素の画素信号に基づいて領域信号を生成する領域信号生成部とを有し、第1の画像または第2の画像全体の輝度が第1の閾値より低いときに取得部は大きさが拡大されたパターン領域によって形成される大パターン領域全体の輝度に応じて信号強度の変わる大領域信号を生成し、比較部は第1の画像または第2の画像全体の輝度が第1の閾値より低いときに第1、第2の画像における同じ位置の大パターン領域の大領域信号の信号強度を比較し、判定部は大領域信号の信号強度の差の絶対値が基準値以下となる大パターン領域の数に応じて変わる判定値を算出することが好ましい。   The acquisition unit receives a pixel signal whose signal intensity changes according to the luminance of each of the plurality of pixels forming the pattern region, and the region signal based on the pixel signal of the plurality of pixels forming the single pattern region. A large pattern formed by a pattern region whose size is enlarged when the luminance of the first image or the entire second image is lower than the first threshold value. A large area signal whose signal intensity changes according to the luminance of the entire area is generated, and the comparison unit determines whether the first image or the second image has a luminance lower than the first threshold value when the luminance of the first image or the entire second image is lower than the first threshold. The signal intensity of large area signals in the large pattern area at the same position is compared, and the decision unit calculates a decision value that changes according to the number of large pattern areas where the absolute value of the difference in signal intensity of the large area signal is below the reference value Preferably

本発明の被写体追尾システムは、連続的に撮像される撮影画像内における特定の被写体である追尾対象体の移動を追尾する被写体追尾システムであって、撮影画像における定められた一部の領域を追尾対象体を追尾するための追尾領域に初期設定する初期設定部と、追尾領域から第1、第2の方向に移動した領域である第1、第2の候補領域を設定する候補領域設定部と、第1のタイミングで撮像された撮影画像における追尾領域の画像である基準画像を検出し第1のタイミングの後の第2のタイミングで撮像された撮影画像における第1、第2の候補領域の画像である第1、第2の候補画像を検出する画像検出部と、基準画像及び第1、第2の候補画像に基づいて基準画像及び第1、第2の候補画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号を生成する領域信号生成部と、基準画像と第1の画像または第2の画像における同じ位置の前記パターン領域の領域信号の信号強度を比較する比較部と、比較部による比較において領域信号の信号強度の差の絶対値が予め定められる基準値以下となるパターン領域の数に応じて変わる判定値を算出する第1の判定部と、基準画像と第1の画像または第2の画像とについての判定値に基づいて第1のタイミングから第2のタイミングにおける追尾対象体の移動方向を第1、第2の方向のいずれであるかを判定する第2の判定部と、第2の判定部に追尾対象体の移動方向として判定された方向に移動した候補領域を追尾領域として再設定する再設定部とを備えることを特徴としている。   The subject tracking system of the present invention is a subject tracking system that tracks the movement of a tracking target object, which is a specific subject, in captured images that are continuously captured, and tracks a predetermined area in the captured image. An initial setting unit that initially sets a tracking area for tracking the object, and a candidate area setting unit that sets first and second candidate areas that are areas moved in the first and second directions from the tracking area; The reference image that is the image of the tracking region in the captured image captured at the first timing is detected, and the first and second candidate regions in the captured image captured at the second timing after the first timing are detected. An image detection unit for detecting first and second candidate images, and a power of 2 for forming the reference image and the first and second candidate images based on the reference image and the first and second candidate images Pattern areas Compare the signal intensity of the area signal of the pattern area at the same position in the reference image and the first image or the second image, with the area signal generation unit that generates an area signal whose signal intensity changes according to each luminance. A comparison unit, a first determination unit that calculates a determination value that changes according to the number of pattern regions in which the absolute value of the difference in signal strength of the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit, and a reference It is determined whether the moving direction of the tracking target object from the first timing to the second timing is the first or second direction based on the determination value for the image and the first image or the second image. And a resetting unit that resets the candidate area that has moved in the direction determined as the movement direction of the tracking target object as the tracking area.

また、候補領域設定部は追尾対象体の光学像を撮像素子の受光面に結像させるための撮影光学系の焦点距離の長さに応じて、追尾領域から第1、第2の候補領域までの移動距離を長く設定することが好ましい。   In addition, the candidate area setting unit extends from the tracking area to the first and second candidate areas in accordance with the length of the focal length of the photographing optical system for forming an optical image of the tracking target object on the light receiving surface of the image sensor. It is preferable to set a long movement distance.

また、追尾対象体の光学像を撮像素子に受光させるときの露出を撮像素子に入射する光学像の一部の輝度に応じて調整可能な露出調整システムを備え、パターン領域の輝度が露出量の調整を行うための光学像の一部の輝度として使用されることが好ましい。   In addition, an exposure adjustment system is provided that can adjust the exposure when the optical image of the tracking target is received by the imaging device according to the luminance of a part of the optical image incident on the imaging device, and the luminance of the pattern area is the exposure amount. It is preferably used as the luminance of a part of the optical image for performing the adjustment.

本発明によれば、2のべき乗個の情報に基づいてパターンマッチングを行なうのでパターンマッチングシステムに用いるデジタル演算器を効率的に使用することが可能になる。   According to the present invention, since pattern matching is performed based on power-of-two pieces of information, it is possible to efficiently use a digital computing unit used in a pattern matching system.

以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態を適用したパターンマッチングシステムにより被写体の追尾を行なう被写体追尾システムを有するデジタルカメラの内部構成を概略的に示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram schematically showing an internal configuration of a digital camera having a subject tracking system that tracks a subject by a pattern matching system to which an embodiment of the present invention is applied.

デジタルカメラ10は、撮影光学系11、撮像素子12、AFE(Analog Front End)13、DSP(Digital Signal Processor)14、操作入力部15、ズーム駆動部16、及びフォーカス駆動部17等によって構成される。   The digital camera 10 includes a photographing optical system 11, an image sensor 12, an AFE (Analog Front End) 13, a DSP (Digital Signal Processor) 14, an operation input unit 15, a zoom drive unit 16, a focus drive unit 17, and the like. .

撮影光学系11は、撮像素子12に光学的に接続される。撮影光学系11を透過する被写体の光学像が撮像素子12の受光面に入射される。撮像素子12は、例えばCCDである。受光面において被写体の光学像が受光されることにより、光学像に相当する画像信号が生成される。   The photographing optical system 11 is optically connected to the image sensor 12. An optical image of a subject passing through the photographing optical system 11 is incident on the light receiving surface of the image sensor 12. The image sensor 12 is, for example, a CCD. When the optical image of the subject is received on the light receiving surface, an image signal corresponding to the optical image is generated.

撮影光学系11は、変倍レンズ11aやフォーカスレンズ11bなどの複数のレンズにより構成される。変倍レンズ11a及びフォーカスレンズ11bは光軸方向に移動自在である。   The photographing optical system 11 includes a plurality of lenses such as a variable power lens 11a and a focus lens 11b. The variable magnification lens 11a and the focus lens 11b are movable in the optical axis direction.

変倍レンズ11aとフォーカスレンズ11bとによってズーム光学系が形成されており、両者を相対的に移動させることにより撮影光学系11の焦点距離を調整可能である。焦点距離の調整にはフォーカスレンズ11aを移動させることにより被写体像を撮像素子12の受光面に結像させることが出来る。   A zoom optical system is formed by the variable magnification lens 11a and the focus lens 11b, and the focal length of the photographing optical system 11 can be adjusted by relatively moving both of them. To adjust the focal length, the subject image can be formed on the light receiving surface of the image sensor 12 by moving the focus lens 11a.

変倍レンズ11a及びフォーカスレンズ11bは、操作者により手動で光軸方向に移動させることが可能である。或いは、変倍レンズ11a及びフォーカスレンズ11bはズーム駆動部16に駆動されることにより、移動させることも可能である。また、フォーカスレンズ11bがフォーカス駆動部17に駆動されることにより被写体像の合焦が実行される。なお、合焦位置調整は、後述するようにオートフォーカス(AF)機能を実行することにより自動的に行わせることが可能である。   The zoom lens 11a and the focus lens 11b can be manually moved in the optical axis direction by an operator. Alternatively, the zoom lens 11 a and the focus lens 11 b can be moved by being driven by the zoom drive unit 16. In addition, the focus lens 11b is driven by the focus drive unit 17 so that the subject image is focused. The focus position adjustment can be automatically performed by executing an autofocus (AF) function as will be described later.

撮影光学系11と撮像素子12の間には、絞り18とシャッタ19とが配置される。絞り18の開度を調整することにより、撮像素子12の受光面に入射する光の照度が調整される。シャッタ19の開閉により被写体光束の通過と遮光が切替えられる。絞り18は絞り駆動部20によって駆動され、開度調整が行なわれる。シャッタ19はシャッタ駆動部21によって駆動され、開閉が実行される。   A diaphragm 18 and a shutter 19 are disposed between the photographing optical system 11 and the image sensor 12. By adjusting the opening of the diaphragm 18, the illuminance of light incident on the light receiving surface of the image sensor 12 is adjusted. Passing and blocking of the subject light beam are switched by opening and closing the shutter 19. The aperture 18 is driven by an aperture drive unit 20 to adjust the opening. The shutter 19 is driven by a shutter drive unit 21 to be opened and closed.

なお、ズーム駆動部16、フォーカス駆動部17、絞り駆動部20、及びシャッタ駆動部21は、DSP14に接続され、それぞれの動作は、DSP14によって制御される。   The zoom drive unit 16, the focus drive unit 17, the aperture drive unit 20, and the shutter drive unit 21 are connected to the DSP 14, and their operations are controlled by the DSP 14.

撮像素子12は、AFE13を介してDSP14に接続される。DSP14からAFE13にクロック信号が出力される。AFE13は、クロック信号に基づいてフレーム信号及び撮像素子駆動信号を生成する。撮像素子駆動信号は撮像素子12に送信される。撮像素子12は、撮像素子駆動信号に基づいてフレーム信号に同期した画像信号を生成する。   The image sensor 12 is connected to the DSP 14 via the AFE 13. A clock signal is output from the DSP 14 to the AFE 13. The AFE 13 generates a frame signal and an image sensor driving signal based on the clock signal. The image sensor drive signal is transmitted to the image sensor 12. The image sensor 12 generates an image signal synchronized with the frame signal based on the image sensor drive signal.

なお、撮像素子12の受光面には、マトリックス状に画素が配列される。例えば、有効画素領域にはm×nに等分割された位置それぞれに画素が配列される。各画素における受光量に応じて画素信号が生成される。画像信号は、有効画素領域における複数の画素が生成する複数の画素信号によって形成される。   Note that pixels are arranged in a matrix on the light receiving surface of the image sensor 12. For example, in the effective pixel region, pixels are arranged at each of the positions equally divided into m × n. A pixel signal is generated according to the amount of light received at each pixel. The image signal is formed by a plurality of pixel signals generated by a plurality of pixels in the effective pixel region.

生成した画像信号はAFE13に送信される。画像信号はAFE13において相関二重サンプリング、ゲイン調整、及びA/D変換が施され、画像データに変換される。画像データはDSP14に送信される。   The generated image signal is transmitted to the AFE 13. The image signal is subjected to correlated double sampling, gain adjustment, and A / D conversion in the AFE 13 to be converted into image data. The image data is transmitted to the DSP 14.

DSP14には、信号処理の作業用のメモリであるDRAM(Dynamic Random Access Memory)22が接続される。DSP14に送信された画像データは、DRAM22に一時格納される。DSP14により、DRAM22に格納された画像データに対して所定のデータ処理が施される。   The DSP 14 is connected to a DRAM (Dynamic Random Access Memory) 22 which is a memory for signal processing work. The image data transmitted to the DSP 14 is temporarily stored in the DRAM 22. The DSP 14 performs predetermined data processing on the image data stored in the DRAM 22.

DSP14には、液晶モニタ23が接続される。所定のデータ処理が施された画像データは、液晶モニタ23に送信される。送信された画像データに相当する画像が液晶モニタ23に表示可能である。   A liquid crystal monitor 23 is connected to the DSP 14. Image data that has undergone predetermined data processing is transmitted to the liquid crystal monitor 23. An image corresponding to the transmitted image data can be displayed on the liquid crystal monitor 23.

また、DSP14には、外部カードインターフェース24が接続される。後述するレリーズ動作を実行するときに、所定の信号処理の施された画像データは外部カードインターフェース24に接続される外部メモリ(図示せず)に格納される。   An external card interface 24 is connected to the DSP 14. When a release operation described later is executed, image data subjected to predetermined signal processing is stored in an external memory (not shown) connected to the external card interface 24.

また、DSP14には、デジタルカメラ10を操作するためのコマンド入力を行なうための操作入力部15が接続される。操作入力部15は、レリーズボタン(図示せず)、多機能十字キー(図示せず)、電源ボタン(図示せず)などによって構成される。操作者による操作入力部15へのコマンド入力に応じて、DSP14はデジタルカメラ10の各部位に必要な動作を行なわせる。   The DSP 14 is connected to an operation input unit 15 for inputting a command for operating the digital camera 10. The operation input unit 15 includes a release button (not shown), a multi-function cross key (not shown), a power button (not shown), and the like. In response to a command input to the operation input unit 15 by the operator, the DSP 14 causes each part of the digital camera 10 to perform a necessary operation.

例えば、レリーズボタンを半押しすることにより第1のスイッチ(図示せず)がONに切替わり、露出調整及び合焦位置調整が行われる。   For example, when a release button is half-pressed, a first switch (not shown) is turned ON, and exposure adjustment and focus position adjustment are performed.

露出調整において、先ず画像データに基づいて有効画素領域の受光量が検出される。次に、検出した受光量に基づいて露出調整、例えば絞り18の開度調整、シャッタスピード調整、及びDSP24におけるゲイン調整が行なわれる。   In the exposure adjustment, first, the amount of received light in the effective pixel region is detected based on the image data. Next, exposure adjustment, for example, aperture opening adjustment, shutter speed adjustment, and gain adjustment in the DSP 24 are performed based on the detected amount of received light.

なお、受光量の検出は、有効画素領域の全体、または一部の領域の検出が可能である。また、有効画素領域の一部の領域の受光量に重み付けを行い、周囲の領域の受光量との平均値に基づいての露出調整を行う重点露出調整を行うことも可能である。   In addition, the detection of the amount of received light can detect the entire effective pixel region or a partial region. It is also possible to perform weighted exposure adjustment that weights the received light amount of a part of the effective pixel region and performs exposure adjustment based on an average value with the received light amount of the surrounding regions.

合焦位置調整において、後述するように所望の被写体光束を撮像素子12の受光面に結像させるように、フォーカスレンズ11bが駆動される。   In the focus position adjustment, the focus lens 11b is driven so as to form a desired subject light beam on the light receiving surface of the image sensor 12, as will be described later.

また、レリーズボタンを全押しすることにより第2のスイッチ(図示せず)がONに切替わりシャッタ19の開閉、静止画像の撮像を行なうように撮像素子12が駆動される。   Further, when the release button is fully pressed, a second switch (not shown) is turned on, and the image sensor 12 is driven so as to open and close the shutter 19 and capture a still image.

DSP14の内部構成について、図2を用いてさらに詳細に説明する。図2は、DSP14の内部構成を概略的に示すブロック図である。DSP14には、前段データ処理部14p1、後段データ処理部14p2、追尾部30(被写体追尾システム)、AF調整部14a、及び制御部14cによって構成される。   The internal configuration of the DSP 14 will be described in more detail with reference to FIG. FIG. 2 is a block diagram schematically showing the internal configuration of the DSP 14. The DSP 14 includes a front data processing unit 14p1, a rear data processing unit 14p2, a tracking unit 30 (subject tracking system), an AF adjustment unit 14a, and a control unit 14c.

前段データ処理部14p1には、AFE13から画像データが送信される。前段データ処理部14p1によって画像データはDRAM22に格納される。また、画像データに対して、色補間処理、ホワイトバランス処理、及び輝度信号生成処理等の所定のデータ処理が施される。また、所定のデータ処理の施された画像データは、後段データ処理部14p2に送信される。   Image data is transmitted from the AFE 13 to the upstream data processing unit 14p1. Image data is stored in the DRAM 22 by the pre-stage data processing unit 14p1. The image data is subjected to predetermined data processing such as color interpolation processing, white balance processing, and luminance signal generation processing. Further, the image data that has been subjected to the predetermined data processing is transmitted to the subsequent data processing unit 14p2.

後段データ処理部14p2においても、画像データに対してクランプ処理やブランキング処理等の所定のデータ処理が施される。後段データ処理部14p2において所定のデータ処理を施した画像データは液晶モニタ23及び外部カードインターフェース24を介して外部メモリに送信される。   Also in the subsequent data processing unit 14p2, predetermined data processing such as clamping processing and blanking processing is performed on the image data. Image data subjected to predetermined data processing in the subsequent data processing unit 14p2 is transmitted to the external memory via the liquid crystal monitor 23 and the external card interface 24.

追尾部30及びAF調整部14aにも、前段データ処理部14p1から画像データが送信される。送信された画像データに基づいて、追尾部30及びAF調整部14aにより、所望の被写体を撮像素子12の受光面に結像させるためのフォーカスレンズ11bの駆動位置が求められる。   Image data is also transmitted from the pre-stage data processing unit 14p1 to the tracking unit 30 and the AF adjustment unit 14a. Based on the transmitted image data, the tracking unit 30 and the AF adjustment unit 14a determine the drive position of the focus lens 11b for forming an image of a desired subject on the light receiving surface of the image sensor 12.

更に説明すると、追尾部30により、撮影画像全体の中の何処かの領域がスキャン領域(追尾領域)に設定される。なお、スキャン領域とは、受光面に合焦させる所望の被写体を含ませるための領域である。所望の被写体である追尾対象体が撮影画像の中で移動する場合には、移動する領域を連続的にスキャン領域に設定することにより、追尾対象体を追尾することが可能である。   More specifically, the tracking unit 30 sets some area in the entire captured image as a scan area (tracking area). The scan area is an area for including a desired subject to be focused on the light receiving surface. When a tracking target object that is a desired subject moves in a captured image, it is possible to track the tracking target object by continuously setting the moving area as a scan area.

AF調整部14aにより、スキャン領域に含まれる被写体を受光面に結像させるためのフォーカスレンズ11bの駆動位置が求められる。なお、フォーカスレンズ11bの駆動位置は、コントラスト方式、すなわち、フォーカスレンズを移動させながらスキャン領域のコントラストを検出し、コントラストを最大にさせるフォーカスレンズの位置をフォーカスレンズ駆動位置として求める方式に基づいて、実行される。   The AF adjustment unit 14a obtains the drive position of the focus lens 11b for forming an image of the subject included in the scan area on the light receiving surface. The drive position of the focus lens 11b is based on a contrast method, that is, a method of detecting the contrast of the scan area while moving the focus lens and obtaining the focus lens position that maximizes the contrast as the focus lens drive position. Executed.

なお、フォーカスレンズ11bの駆動位置は、従来公知のいかなるAF動作により求められても良い。例えば、公知の位相差方式によって焦点検出を行なわせる構成と組合わせても良い。   The driving position of the focus lens 11b may be obtained by any conventionally known AF operation. For example, it may be combined with a configuration in which focus detection is performed by a known phase difference method.

デジタルカメラ10には、撮影画像全体の中の特定の位置の被写体を合焦させる固定AF機能と撮影画像の中で移動中の被写体を合焦させる追尾AF機能とが設けられる。いずれかのAF機能を実行させるかは、操作入力部15に対するコマンド入力により選択可能である。   The digital camera 10 is provided with a fixed AF function that focuses a subject at a specific position in the entire captured image and a tracking AF function that focuses a moving subject in the captured image. Which AF function is to be executed can be selected by a command input to the operation input unit 15.

制御部14cには、操作入力部15からコマンド入力に応じた入力信号が送信される。受信した入力信号に応じて、前段データ処理部14p1、後段データ処理部14p2、追尾部30、及びAF調整部14aの動作の制御及びデジタルカメラ10の各部位の制御が、制御部14cによって実行される。   An input signal corresponding to a command input is transmitted from the operation input unit 15 to the control unit 14c. In accordance with the received input signal, the control unit 14c controls the operation of the front-stage data processing unit 14p1, the rear-stage data processing unit 14p2, the tracking unit 30, and the AF adjustment unit 14a and the respective parts of the digital camera 10. The

例えば、前述の露出調整を行うときに、絞り駆動部20による絞り18の駆動は、制御部14cに制御される。また、シャッタ19の開閉を行うときに、シャッタ駆動部21によるシャッタ19の開閉は、制御部14cにより制御される。   For example, when performing the exposure adjustment described above, the driving of the diaphragm 18 by the diaphragm driving unit 20 is controlled by the control unit 14c. Further, when the shutter 19 is opened and closed, the opening and closing of the shutter 19 by the shutter driving unit 21 is controlled by the control unit 14c.

また、合焦位置調整を行うときに、フォーカス駆動部17によるフォーカスレンズ11bの駆動は、制御部14cにより制御される。制御部14cには、AF調整部14aが求めたフォーカスレンズ11bの駆動位置に相当するレンズ位置信号が送信される。制御部14cによるフォーカス駆動部17の制御は、レンズ位置信号に基づいて実行される。   Further, when the focus position adjustment is performed, the driving of the focus lens 11b by the focus driving unit 17 is controlled by the control unit 14c. A lens position signal corresponding to the drive position of the focus lens 11b obtained by the AF adjustment unit 14a is transmitted to the control unit 14c. The control of the focus driving unit 17 by the control unit 14c is executed based on the lens position signal.

次に、追尾部30の構成及び動作について、図3〜図5を用いて詳細に説明する。図3は、追尾部30の内部構成を概略的に示すブロック図である。追尾部30は、画素ブロック算出部31、スキャン領域初期設定部32、候補領域設定部33、画像認識部34、及びスキャン領域設定部35によって構成される。なお、各部位の動作は制御部14cにより制御される。   Next, the configuration and operation of the tracking unit 30 will be described in detail with reference to FIGS. FIG. 3 is a block diagram schematically showing the internal configuration of the tracking unit 30. The tracking unit 30 includes a pixel block calculation unit 31, a scan region initial setting unit 32, a candidate region setting unit 33, an image recognition unit 34, and a scan region setting unit 35. In addition, operation | movement of each site | part is controlled by the control part 14c.

追尾AF機能を実行するときには、前段データ処理部14p1から有効画素領域の各画素の輝度がデータとして、画素ブロック算出部31に入力される。画素ブロック算出部31では、追尾の処理を容易にするために画素ブロック小または画素ブロック大の輝度が計算される。   When the tracking AF function is executed, the luminance of each pixel in the effective pixel area is input to the pixel block calculation unit 31 from the previous data processing unit 14p1 as data. The pixel block calculation unit 31 calculates the luminance of the pixel block small or the pixel block large in order to facilitate the tracking process.

画素ブロック小12bとは、図4に示すように、有効画素領域AAを例えば20×20に等分割した領域であって、互いに隣合う複数の画素12p、例えば10×10個の画素12pによって形成される。画素ブロック小12bの輝度は、画素ブロック小12bを形成する画素12pの輝度の平均値を算出することにより求められる。画素ブロック小12bの輝度はデータとして画像認識部34に送られる。   As shown in FIG. 4, the small pixel block 12b is an area obtained by equally dividing the effective pixel area AA into, for example, 20 × 20, and is formed by a plurality of adjacent pixels 12p, for example, 10 × 10 pixels 12p. Is done. The luminance of the pixel block small 12b is obtained by calculating the average value of the luminances of the pixels 12p forming the pixel block small 12b. The luminance of the small pixel block 12b is sent to the image recognition unit 34 as data.

画素ブロック大12Bとは、図5に示すように、有効画素領域AAを例えば10×10に等分割した領域であって、互いに隣合う複数の画素12p、例えば20×20個の画素12pによって形成される。画素ブロック大12Bの輝度は、画素ブロック大12Bを形成する画素12pの輝度の平均値を算出することにより求められる。画素ブロック大12Bの輝度はデータとして画像認識部34に送られる。   As shown in FIG. 5, the large pixel block 12B is an area obtained by equally dividing the effective pixel area AA into, for example, 10 × 10, and is formed by a plurality of adjacent pixels 12p, for example, 20 × 20 pixels 12p. Is done. The luminance of the pixel block size 12B is obtained by calculating the average value of the luminance values of the pixels 12p forming the pixel block size 12B. The luminance of the pixel block size 12B is sent as data to the image recognition unit 34.

なお、画素ブロック小12bまたは画素ブロック大12Bにおける受光量は、前述した露出調整における有効画素領域AAの一部の領域の受光量の検出にも用いられる。すなわち、画素ブロック小12bまたは画素ブロック大12Bを一部の領域として受光量を検出し、スポット測光や一部重点測光等の測光が行なわれる。   Note that the amount of received light in the pixel block small 12b or the pixel block large 12B is also used to detect the amount of received light in a part of the effective pixel area AA in the exposure adjustment described above. That is, the received light amount is detected using the pixel block small 12b or the pixel block large 12B as a partial region, and photometry such as spot photometry or partial weight photometry is performed.

AF機能を実行するときには、スキャン領域初期設定部32により撮像素子12の有効画素領域AAの中心がスキャン領域の中心に重なるように、スキャン領域の位置が定められる。さらに、有効画素領域全体の輝度に基づいて、スキャン領域の大きさが定められる。中心の位置及び大きさが定められることによりスキャン領域の初期設定が行なわれる。   When executing the AF function, the scan area initial setting unit 32 determines the position of the scan area so that the center of the effective pixel area AA of the image sensor 12 overlaps the center of the scan area. Furthermore, the size of the scan area is determined based on the luminance of the entire effective pixel area. By setting the position and size of the center, the scan area is initially set.

スキャン領域初期設定部32には、前段データ処理部14p1から有効画素領域AA全体の輝度がデータとして送られる。有効画素領域AA全体の輝度が第1の閾値より大きいときには、スキャン領域SAの大きさは2の5乗である32個の画素ブロック小12bの大きさに定められる。又、その形状は、図6に示すように、6行6列の画素ブロック小12bにより形成される矩形の4隅の画素ブロック小12bを除いた形状に定められる。   The brightness of the entire effective pixel area AA is sent to the scan area initial setting section 32 as data from the preceding data processing section 14p1. When the luminance of the entire effective pixel area AA is larger than the first threshold value, the size of the scan area SA is determined to be the size of 32 pixel block small 12b which is a power of 2. Further, as shown in FIG. 6, the shape is determined to be a shape excluding the pixel block small 12b at the four corners of the rectangle formed by the pixel block small 12b of 6 rows and 6 columns.

一方、有効画素領域AA全体の輝度が第1の閾値より小さいときには、スキャン領域SAの大きさは2の5乗である32個の画素ブロック大12Bの大きさに定められる。又、その形状は、図7に示すように、6行6列の画素ブロック大12Bにより形成される矩形の4隅の画素ブロック大12Bを除いた形状に定められる。   On the other hand, when the luminance of the entire effective pixel area AA is smaller than the first threshold value, the size of the scan area SA is determined to be the size of 32 pixel blocks large 12B, which is 2 5. Further, as shown in FIG. 7, the shape is determined to be a shape excluding the pixel block size 12B at the four corners of the rectangle formed by the 6 × 6 pixel block size 12B.

なお、有効画素領域AAには縦方向と横方向に延びる2つの画素ブロック小12bまたは画素ブロック大12Bの境界線があるが(図6、図7参照)、その交点のいずれかをスキャン領域SAの中心Cに定め、任意の位置にスキャン領域SAを設定可能である。スキャン領域SAの設定は操作入力部15に対するコマンド入力により行われる。   Note that the effective pixel area AA has a boundary line between two small pixel blocks 12b or large pixel blocks 12B extending in the vertical and horizontal directions (see FIG. 6 and FIG. 7). The scan area SA can be set at an arbitrary position. The scan area SA is set by inputting a command to the operation input unit 15.

初期設定されたスキャン領域SAがデータとして、候補領域設定部33に送信される。候補領域設定部33では、スキャン領域SAから周囲の8方向に移動させたスキャン領域SAと同一の形状の領域が候補領域に設定される。   The initially set scan area SA is transmitted to the candidate area setting unit 33 as data. In the candidate area setting unit 33, an area having the same shape as the scan area SA moved in the surrounding eight directions from the scan area SA is set as the candidate area.

候補領域として設定するためのスキャン領域からの方向は、第1〜第8の方向が定められている。図6、図7において、上下左右の4方向がそれぞれ第1、第5、第3、第7の方向に定められる。また、左上方向、左下方向、右下方向、右上方向がそれぞれ第2、第4、第6、第8の方向に定められる。   The first to eighth directions are defined as directions from the scan area for setting as a candidate area. 6 and 7, the four directions of up, down, left, and right are defined as the first, fifth, third, and seventh directions, respectively. Further, the upper left direction, the lower left direction, the lower right direction, and the upper right direction are defined as the second, fourth, sixth, and eighth directions, respectively.

第1〜第8の候補領域それぞれのスキャン領域SAからの移動距離は、焦点距離に応じて変えられる。焦点距離が長くなるに応じて移動距離も長くなるように変えられる。例えば、焦点距離が最小であるときには、移動距離は画素ブロック小12bまたは画素ブロック大12Bの一つ分に決められる。   The moving distance from the scan area SA of each of the first to eighth candidate areas can be changed according to the focal length. As the focal length becomes longer, the moving distance becomes longer. For example, when the focal length is minimum, the moving distance is determined to be one pixel block small 12b or one pixel block large 12B.

以下にスキャン領域SAが32個の画素ブロック小12bにより形成されるときの第1〜第8の候補領域CA1〜CA8の位置について例示する。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして第1〜第8の候補領域CA1〜CA8の位置が定められる。   Hereinafter, the positions of the first to eighth candidate areas CA1 to CA8 when the scan area SA is formed by 32 pixel block small 12b will be exemplified. Note that the positions of the first to eighth candidate areas CA1 to CA8 are similarly determined when the scan area SA is formed by 32 large pixel blocks 12B.

スキャン領域SAから第1の方向に画素ブロック小12b一つ分移動させた領域が第1の候補領域CA1に設定される(図8参照)。スキャン領域SAから第2の方向に画素ブロック小12b一つ分移動させた領域が第2の候補領域CA2に設定される(図9参照)。スキャン領域SAから第3の方向に画素ブロック小12b一つ分移動させた領域が第3の候補領域CA3に設定される(図10参照)。スキャン領域SAから第4の方向に画素ブロック小12b一つ分移動させた領域が第4の候補領域CA4に設定される(図11参照)。スキャン領域SAから第5の方向に画素ブロック小12b一つ分移動させた領域が第5の候補領域CA5に設定される(図12参照)。スキャン領域SAから第6の方向に画素ブロック小12b一つ分移動させた領域が第6の候補領域CA6に設定される(図13参照)。スキャン領域SAから第7の方向に画素ブロック小12b一つ分移動させた領域が第7の候補領CA7に設定される(図14参照)。スキャン領域SAから第8の方向に画素ブロック小12b一つ分移動させた領域が第8の候補領域CA8に設定される(図15参照)。   A region moved by one small pixel block 12b in the first direction from the scan region SA is set as the first candidate region CA1 (see FIG. 8). A region moved by one small pixel block 12b in the second direction from the scan region SA is set as the second candidate region CA2 (see FIG. 9). A region moved by one small pixel block 12b in the third direction from the scan region SA is set as the third candidate region CA3 (see FIG. 10). An area moved by one small pixel block 12b in the fourth direction from the scan area SA is set as the fourth candidate area CA4 (see FIG. 11). A region moved by one small pixel block 12b in the fifth direction from the scan region SA is set as the fifth candidate region CA5 (see FIG. 12). A region moved by one small pixel block 12b in the sixth direction from the scan region SA is set as a sixth candidate region CA6 (see FIG. 13). A region moved by one small pixel block 12b in the seventh direction from the scan region SA is set as a seventh candidate region CA7 (see FIG. 14). A region moved by one small pixel block 12b in the eighth direction from the scan region SA is set as the eighth candidate region CA8 (see FIG. 15).

焦点距離が最小値から長くなるにつれて、移動距離である画素ブロック小12bまたは画素ブロック大12Bの数は2、3、4、・・・に定められ、第1〜第8の方向で定められた移動距離の位置に第1〜第8の候補領域CA1〜CA8が設定される。   As the focal length becomes longer from the minimum value, the number of small pixel block 12b or large pixel block 12B, which is the moving distance, is determined to be 2, 3, 4,... And determined in the first to eighth directions. First to eighth candidate areas CA1 to CA8 are set at the positions of the movement distances.

設定された第1〜第8の候補領域CA1〜CA8がデータとして、画像認識部34に送信される。また、スキャン領域初期設定部32に初期設定されたスキャン領域SAがデータとして、画像認識部34にも送信される。さらに、画像認識部34には、AFE13から画像データが送られる。   The set first to eighth candidate areas CA1 to CA8 are transmitted to the image recognition unit 34 as data. Further, the scan area SA initially set in the scan area initial setting unit 32 is also transmitted as data to the image recognition unit 34. Further, image data is sent from the AFE 13 to the image recognition unit 34.

画像認識部34では、各フレームの画像データの中からスキャン領域SA及び第1〜第8の候補領域CA1〜CA8における画像に相当するデータ成分が抽出される。なお、抽出されるデータ成分は、各領域を形成する画素ブロック小12bまたは画素ブロック大12Bの輝度に相当する。   The image recognition unit 34 extracts data components corresponding to images in the scan area SA and the first to eighth candidate areas CA1 to CA8 from the image data of each frame. The extracted data component corresponds to the luminance of the pixel block small 12b or the pixel block large 12B forming each region.

例えば、第1のタイミングで送られる画像データにおけるスキャン領域SAでは、図16に示すように、左から右、上から下の画素ブロック小12bの順番に、120、30、60、55、70、110、100、70、40、105、40、85、95、65、25、40、150、120、60、30、25、45、100、120、110、95、80、50、90、75、80、20が輝度として抽出される。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして画素ブロック大12Bにおける輝度が抽出される。   For example, in the scan area SA in the image data sent at the first timing, as shown in FIG. 16, 120, 30, 60, 55, 70, 120, 30, 60, 55, 70, 110, 100, 70, 40, 105, 40, 85, 95, 65, 25, 40, 150, 120, 60, 30, 25, 45, 100, 120, 110, 95, 80, 50, 90, 75, 80 and 20 are extracted as luminance. Note that the luminance in the pixel block size 12B is similarly extracted when the scan area SA is formed by 32 pixel block sizes 12B.

抽出されたデータ成分に基づいて、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8における各画素ブロック小12bまたは画素ブロック大12Bの輝度の2値化が行なわれる。すなわち、各領域に含まれる複数の画素ブロック小12bまたは画素ブロック大12Bにおける輝度の平均値が求められ、平均値より大きな輝度である画素ブロック小12bまたは画素ブロック大12Bの輝度は1に変換され、平均値より小さな輝度である画素ブロック小12bまたは画素ブロック大12Bの輝度は0に変換される。   Based on the extracted data components, the luminance of each pixel block small 12b or pixel block large 12B in the scan area SA and the first to eighth candidate areas CA1 to CA8 is binarized. That is, the average value of the luminance in the plurality of small pixel blocks 12b or the large pixel block 12B included in each region is obtained, and the luminance of the small pixel block 12b or the large pixel block 12B that is larger than the average value is converted to 1. The luminance of the pixel block small 12b or the pixel block large 12B having a luminance smaller than the average value is converted to zero.

例えば図16に示したスキャン領域の輝度の平均値は73.75であり、それぞれの画素ブロック小12bの輝度は2値化により図17に示すように、左から右、上から下の画素ブロック小12bまたは画素ブロック大12Bの順番に1、0、0、0、0、1、1、0、0、1、0、1、1、0、0、0、1、1、0、0、0、0、1、1、1、1、1、0、1、1、1、0に変換される。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして画素ブロック大12Bにおける輝度の2値化が行なわれる。   For example, the average value of the brightness of the scan area shown in FIG. 16 is 73.75, and the brightness of each pixel block small 12b is binarized, as shown in FIG. 1, 0, 0, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 0, 0, in order of small 12b or large pixel block 12B Converted to 0, 0, 1, 1, 1, 1, 1, 0, 1, 1, 1, 0. When the scan area SA is formed by 32 large pixel blocks 12B, the binarization of the luminance in the large pixel block 12B is performed in the same manner.

2値化された各画素ブロック小12bまたは画素ブロック大12Bの輝度はデータとして、領域毎にスキャン領域設定部35に送られる。スキャン領域設定部35では、スキャン領域SAに含まれる被写体が次のタイミングの撮像により生成される画像データにおいて、第1〜第8の候補領域CA1〜CA8のいずれに移動したかが推測される。   The binarized luminance of each pixel block small 12b or pixel block large 12B is sent as data to the scan region setting unit 35 for each region. In the scan area setting unit 35, it is estimated which of the first to eighth candidate areas CA1 to CA8 has moved in the image data generated by imaging at the next timing of the subject included in the scan area SA.

なお、この推測は、スキャン領域SAにおける各画素ブロック小12bまたは大画素ブロック大12Bの2値化された輝度と次のタイミングの画像データの第1〜第8の候補領域CA1〜CA8それぞれにおける各画素ブロック小12bまたは画素ブロック大12Bの2値化された輝度とに基づいて行なわれる。   This estimation is based on the binarized luminance of each pixel block small 12b or large pixel block large 12B in the scan area SA and each of the first to eighth candidate areas CA1 to CA8 of the image data at the next timing. This is performed based on the binarized luminance of the pixel block small 12b or the pixel block large 12B.

第1〜第8の候補領域CA1〜CA8の中からの選択は、第1〜第8の判定値の算出及び第1〜第8の判定値に基づく判定によって行なわれる。それぞれの動作について以下に詳細に説明する。   Selection from the first to eighth candidate areas CA1 to CA8 is performed by calculation of the first to eighth determination values and determination based on the first to eighth determination values. Each operation will be described in detail below.

第1〜第8の判定値とは、スキャン領域SAの画像と第1〜第8の候補領域CA1〜CA8それぞれの画像との一致性を示す計算値である。第1〜第8の判定値は、スキャン領域SA内と第1〜第8の候補領域CA1〜CA8内において相対的に同じ位置にある画素ブロック小12bまたは画素ブロック大12Bにおける2値化された輝度を比較し、不一致となる画素ブロック小12bまたは画素ブロック大12Bの個数を数えることにより算出される。従って、第1〜第8の判定値が低い程、スキャン領域SAの画像との一致性が高いと推測される。   The first to eighth determination values are calculated values indicating the coincidence between the image of the scan area SA and each of the first to eighth candidate areas CA1 to CA8. The first to eighth determination values are binarized in the pixel block small 12b or the pixel block large 12B that are relatively in the same position in the scan area SA and in the first to eighth candidate areas CA1 to CA8. It is calculated by comparing the luminance and counting the number of pixel block small 12b or pixel block large 12B that do not match. Therefore, it is estimated that the lower the first to eighth determination values, the higher the consistency with the image in the scan area SA.

スキャン領域設定部35はEXOR回路(図示せず)を有しており、両画素ブロック小12bまたは両画素ブロック大12Bにおける2値化された輝度がEXOR回路に入力される。両画素ブロック小12bまたは両画素ブロック大12Bにおける2値化された輝度が一致するときには0が返され、2値化された輝度が異なるときには1が返される。   The scan area setting unit 35 has an EXOR circuit (not shown), and the binarized luminance in both the pixel block small 12b or both pixel block large 12B is input to the EXOR circuit. 0 is returned when the binarized luminances in both the pixel block small 12b or the both pixel block large 12B match, and 1 is returned when the binarized luminances are different.

例えば、第1の候補領域CA1における2値化された輝度は、図18に示すような値を有している。スキャン領域SA内と第1の候補領域CA1内の相対的位置が同じ画素ブロック小12bすべてに対して、2値化された輝度がEXOR回路に入力されると、左から右、上からの下の画素ブロック小12bの順番に1、0、0、1、1、0、0、1、0、1、1、0、0、0、0、1、0、1、0、1、0、0、0、0、1、0、0、0、1、0、0、0の値が出力される。スキャン領域SAと第1の候補領域CA1との比較において、EXOR回路から1の値が出力された回数が第1の判定値U(exor)として数えられる。   For example, the binarized luminance in the first candidate area CA1 has a value as shown in FIG. When the binarized luminance is input to the EXOR circuit for all the pixel block small 12b having the same relative position in the scan area SA and the first candidate area CA1, the left to right and the top to bottom 1, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, The values 0, 0, 0, 1, 0, 0, 0, 1, 0, 0, 0 are output. In the comparison between the scan area SA and the first candidate area CA1, the number of times the value of 1 is output from the EXOR circuit is counted as the first determination value U (exor).

同様に、スキャン領域SAと第2の候補領域CA2との比較が行なわれ、EXOR回路から1の値が出力された回数が第2の判定値UL(exor)として数えられる。同様に、スキャン領域SAと第3の候補領域CA3との比較が行なわれ、EXOR回路から1の値が出力された回数が第3の判定値L(exor)として数えられる。同様に、スキャン領域SAと第4の候補領域CA4との比較が行なわれ、EXOR回路から1の値が出力された回数が第4の判定値DL(exor)として数えられる。同様に、スキャン領域SAと第5の候補領域CA5との比較が行なわれ、EXOR回路から1の値が出力された回数外第5の判定値D(exor)として数えられる。同様に、スキャン領域SAと第6の候補領域CA6との比較が行なわれ、EXOR回路から1の値が出力された回数が第6の判定値DR(exor)として数えられる。同様に、スキャン領域SAと第7の候補領域CA7との比較が行なわれ、EXOR回路から1の値が出力された回数が第7の判定値R(exor)として数えられる。同様に、スキャン領域SAと第8の候補領域CA8との比較が行なわれ、EXOR回路から1の値が出力された回数が第8の判定値UR(exor)として数えられる。   Similarly, the scan area SA and the second candidate area CA2 are compared, and the number of times a value of 1 is output from the EXOR circuit is counted as the second determination value UL (exor). Similarly, the scan area SA is compared with the third candidate area CA3, and the number of times the value of 1 is output from the EXOR circuit is counted as the third determination value L (exor). Similarly, the scan area SA is compared with the fourth candidate area CA4, and the number of times the value of 1 is output from the EXOR circuit is counted as the fourth determination value DL (exor). Similarly, the scan area SA and the fifth candidate area CA5 are compared, and counted as the fifth determination value D (exor) outside the number of times when a value of 1 is output from the EXOR circuit. Similarly, the scan area SA is compared with the sixth candidate area CA6, and the number of times the value of 1 is output from the EXOR circuit is counted as the sixth determination value DR (exor). Similarly, the scan area SA is compared with the seventh candidate area CA7, and the number of times that a value of 1 is output from the EXOR circuit is counted as the seventh determination value R (exor). Similarly, the scan area SA is compared with the eighth candidate area CA8, and the number of times the value of 1 is output from the EXOR circuit is counted as the eighth determination value UR (exor).

第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)の最小値が判定される。最小値であると判定された判定値に対応する候補領域が被写体の移動した領域であると判定され、選択される。選択された候補領域は、スキャン領域SAとして再設定される。   Minimum values of the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), UR (exor) Is determined. The candidate area corresponding to the determination value determined to be the minimum value is determined to be the area where the subject has moved and is selected. The selected candidate area is reset as the scan area SA.

なお、固定AF機能を実行させるときには、追尾部30の中でスキャン領域初期設定部32のみが駆動され、画素ブロック算出部31、候補領域設定部33、画像認識部34、及びスキャン領域設定部35の駆動は停止される。   When the fixed AF function is executed, only the scan region initial setting unit 32 is driven in the tracking unit 30, and the pixel block calculation unit 31, the candidate region setting unit 33, the image recognition unit 34, and the scan region setting unit 35 are driven. Is stopped.

スキャン領域初期設定部32の駆動により設定されたスキャン領域SAは画像認識部34及びスキャン領域設定部35を介してAF調整部23aにデータとして送られる。なお、追尾AF機能と異なり、スキャン領域SAは最初に設定されたスキャン領域SAのまま固定される。   The scan area SA set by driving the scan area initial setting section 32 is sent as data to the AF adjustment section 23a via the image recognition section 34 and the scan area setting section 35. Note that, unlike the tracking AF function, the scan area SA is fixed to the scan area SA set first.

次に、追尾AF機能を実行するときに追尾部30において行なわれるスキャン領域SAの設定のために行なわれる処理を図19、図20のフローチャートを用いて説明する。図19は、スキャン領域SAの設定のために行なわれる処理を説明するための第1のフローチャートである。図20は、スキャン領域SAの設定のために行われる処理を説明するための第2のフローチャートである。   Next, the process performed for setting the scan area SA performed in the tracking unit 30 when the tracking AF function is executed will be described with reference to the flowcharts of FIGS. 19 and 20. FIG. 19 is a first flowchart for explaining the process performed for setting the scan area SA. FIG. 20 is a second flowchart for explaining the process performed for setting the scan area SA.

追尾AF機能を実行させるとき、すなわち追尾AF機能実行に切替えるコマンド入力をした後にレリーズボタンが半押しされたときに本処理が開始される。なお、本処理は、デジタルカメラ10の電源がOFFに切替えられるか、追尾AF機能の実行が解除されるまで繰返される。   This process is started when the tracking AF function is executed, that is, when the release button is half-pressed after inputting a command for switching to the tracking AF function execution. This process is repeated until the digital camera 10 is turned off or the tracking AF function is canceled.

ステップS100において、スキャン領域SAの位置の初期設定が行なわれる。操作者によるコマンド入力により定められた撮影画像の枠内の点を中心Cとしてスキャン領域SAの位置が設定される。   In step S100, the initial position of the scan area SA is set. The position of the scan area SA is set with the point C within the frame of the captured image determined by the command input by the operator as the center C.

次のステップS101において、1フレームの画像データが受信され、次のステップS102に進む。ステップS102では、測光が行われる。測光を行うときに、先ず前段データ処理部14p1から各画素12pにおける受光量がスキャン領域初期設定部32に送られる。1フレームの画像データにおける各画素12pの受光量に基づいて、スキャン領域初期設定部32では、有効画素領域AA全体の輝度が求められる。   In the next step S101, one frame of image data is received, and the process proceeds to the next step S102. In step S102, photometry is performed. When performing photometry, first, the received light amount at each pixel 12p is sent from the preceding data processing unit 14p1 to the scan region initial setting unit 32. Based on the amount of light received by each pixel 12p in one frame of image data, the scan area initial setting unit 32 calculates the luminance of the entire effective pixel area AA.

有効画素領域AA全体の輝度が求められると、ステップS103に進む。ステップS103では、ステップS102において求めた輝度が第1の閾値と比較される。   When the luminance of the entire effective pixel area AA is obtained, the process proceeds to step S103. In step S103, the luminance obtained in step S102 is compared with a first threshold value.

有効画素領域AA全体の輝度が第1の閾値より大きいときは、ステップS104に進む。ステップS104では、画素ブロックフラッグPBが0に設定される。有効画素領域AA全体の輝度が第1の閾値より小さいときは、ステップS105に進む。ステップS105では、画素ブロックフラッグPBが1に設定される。   When the luminance of the entire effective pixel area AA is larger than the first threshold value, the process proceeds to step S104. In step S104, the pixel block flag PB is set to zero. When the luminance of the entire effective pixel area AA is smaller than the first threshold value, the process proceeds to step S105. In step S105, the pixel block flag PB is set to 1.

ステップS104またはステップS105の終了後に、ステップS106に進む。ステップS106では、ステップS100において設定された位置と、ステップS104またはステップS105において設定された画素ブロックとに応じたスキャン領域SAが設定される。   After step S104 or step S105 ends, the process proceeds to step S106. In step S106, a scan area SA corresponding to the position set in step S100 and the pixel block set in step S104 or step S105 is set.

次のステップS107では、撮影光学系11の焦点距離が検出される。先ず、ズーム駆動部16により、変倍レンズ11aとフォーカスレンズ11bとの相対的位置がズーム段として検出される。検出されたズーム段はデータとして、制御部14cを介して候補領域設定部33に送信される。候補領域設定部33では、ズーム段に対応する焦点距離が検出される。   In the next step S107, the focal length of the photographing optical system 11 is detected. First, the relative position between the zoom lens 11a and the focus lens 11b is detected by the zoom drive unit 16 as a zoom stage. The detected zoom level is transmitted as data to the candidate area setting unit 33 via the control unit 14c. The candidate area setting unit 33 detects the focal length corresponding to the zoom stage.

焦点距離が検出されると、次のステップS108において焦点距離に応じて、スキャン領域から候補領域までの移動距離が定められる。移動距離が定められると、ステップS104またはステップS105において設定された画素ブロックと移動距離とに応じて、第1〜第8の候補領域が設定される。   When the focal length is detected, the moving distance from the scan area to the candidate area is determined according to the focal distance in the next step S108. When the movement distance is determined, the first to eighth candidate areas are set according to the pixel block and the movement distance set in step S104 or step S105.

第1〜第8の候補領域CA1〜CA8の設定の終了後、ステップS109に進む。ステップS109では、画素ブロックフラッグPBが0であるか1であるかの判定が行なわれる。   After the setting of the first to eighth candidate areas CA1 to CA8 is completed, the process proceeds to step S109. In step S109, it is determined whether the pixel block flag PB is 0 or 1.

画素ブロックフラッグPBが0であるときにはステップS110に進み、スキャン領域SAにおける画素ブロック小12bの輝度の2値化が行なわれる。画素ブロックフラッグPBが1であるときにはステップS111に進み、スキャン領域SAにおける画素ブロック大12Bの輝度の2値化が行なわれる。   When the pixel block flag PB is 0, the process proceeds to step S110, where the luminance of the pixel block small 12b in the scan area SA is binarized. When the pixel block flag PB is 1, the process proceeds to step S111, and the luminance of the pixel block size 12B in the scan area SA is binarized.

ステップS110またはステップS111の終了後に、ステップS112に進む。ステップS112では、次のタイミングで生成される1フレームの画像データが受信される。画像データの受信後にステップS113に進み、画素ブロックフラッグPBが0であるか1であるかの判定が行なわれる。   It progresses to step S112 after completion | finish of step S110 or step S111. In step S112, one frame of image data generated at the next timing is received. After receiving the image data, the process proceeds to step S113, where it is determined whether the pixel block flag PB is 0 or 1.

画素ブロックフラッグPBが0であるときにはステップS114に進み、第1〜第8の候補領域CA1〜CA8における画素ブロック小12bの輝度の2値化が行なわれる。画素ブロックフラッグPBが1であるときにはステップS115に進み、第1〜第8の候補領域CA1〜CA8における画素ブロック大12Bの輝度の2値化が行なわれる。   When the pixel block flag PB is 0, the process proceeds to step S114, and the luminance of the pixel block small 12b in the first to eighth candidate areas CA1 to CA8 is binarized. When the pixel block flag PB is 1, the process proceeds to step S115, and the luminance of the pixel block size 12B in the first to eighth candidate areas CA1 to CA8 is binarized.

ステップS114またはステップS115の終了後に、ステップS116に進む。ステップS116では、スキャン領域SAにおける2値化された輝度と第1〜第8の候補領域CA1〜CA8における2値化された輝度とに基づいて、第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)が算出される。   It progresses to step S116 after completion | finish of step S114 or step S115. In step S116, the first to eighth determination values U (exor) based on the binarized luminance in the scan area SA and the binarized luminance in the first to eighth candidate areas CA1 to CA8. , UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), and UR (exor) are calculated.

第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)を求めるとステップS117に進む。ステップS117では、第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)の中の最小値がいずれであるかの判定が行なわれる。判定値が最小となる判定値に対応する候補領域が新たなスキャン領域SAの位置として設定される。   When the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), and UR (exor) are obtained. The process proceeds to step S117. In step S117, the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), UR (exor) ) Is determined which is the minimum value. A candidate area corresponding to the determination value having the smallest determination value is set as the position of the new scan area SA.

ステップS117を終了するとステップS102に戻り、以後ステップS102〜ステップS117の処理が繰返される。したがって、ステップS117、ステップS102〜ステップS106の処理の繰返しにより、スキャン領域SAが再設定される。   When step S117 is completed, the process returns to step S102, and the processes of step S102 to step S117 are repeated thereafter. Therefore, the scan area SA is reset by repeating the processes of step S117 and steps S102 to S106.

以上のような構成である本実施形態のパターンマッチングシステムによれば、パターンマッチングシステムに用いるデジタル演算器を有効に活用可能になる。デジタル演算器の取扱うビット数は2のべき乗であり、2の5乗の画素ブロック小12bまたは画素ブロック大12Bの輝度の算出、2値化、及び判定値の算出において必要な取扱いビット数とデジタル演算器の取扱うビット数に一致させることが可能だからである。   According to the pattern matching system of the present embodiment having the above-described configuration, it is possible to effectively use the digital arithmetic unit used in the pattern matching system. The number of bits handled by the digital computing unit is a power of 2, and the number of bits handled and the number of bits necessary for calculating the luminance of the pixel block small 12b or the pixel block large 12B of 2 to the power of 2, and binarization, and calculating the determination value This is because it is possible to match the number of bits handled by the arithmetic unit.

また、本実施形態のパターンマッチングシステムによれば、各画素ブロックの輝度を2値化するので、パターンマッチングの安定性を向上させることが可能になる。例えば、蛍光灯のようにフリッカの生じる光源をスキャン領域または候補領域に受光させるときに、全体の一致性が高くても局所的な一致性が低くなることがあるが、2値化により局所的な不一致性が低減化されるので、安定性の向上が図られるのである。   Further, according to the pattern matching system of the present embodiment, the luminance of each pixel block is binarized, so that the stability of pattern matching can be improved. For example, when a light source that generates flicker, such as a fluorescent lamp, is received by a scan area or a candidate area, local consistency may be low even if the overall consistency is high. Since the inconsistency is reduced, the stability is improved.

また、本実施形態のパターンマッチングシステムによれば、有効画素領域AA全体の明るさに応じて、パターンマッチングに用いる画素ブロックの大きさを切替えるので、ノイズによる誤判定を低減化させることが可能になる。全体の受光量が低いときには画素信号の信号強度に対するノイズが大きくなる。しかし、画素ブロックを大きくすることにより画素ブロックの輝度を求めるのに用いる画素の数を増やすので、ノイズの影響が画素ブロック全体で中和されることになる。   Further, according to the pattern matching system of the present embodiment, since the size of the pixel block used for pattern matching is switched according to the brightness of the entire effective pixel area AA, it is possible to reduce erroneous determination due to noise. Become. When the total amount of received light is low, noise with respect to the signal intensity of the pixel signal increases. However, since the number of pixels used for obtaining the luminance of the pixel block is increased by increasing the size of the pixel block, the influence of noise is neutralized in the entire pixel block.

また、本実施形態の被写体追尾システムによれば、撮影光学系11の焦点距離に応じてスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離を変化させるので、被写体追尾の正確性を向上させることが可能である。同じ移動中の被写体の画像上の移動速度は、焦点距離が長くなるほど速くなるためである。   Further, according to the subject tracking system of the present embodiment, the movement distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is changed according to the focal length of the photographing optical system 11, so It is possible to improve accuracy. This is because the moving speed of the same moving subject on the image increases as the focal length increases.

また、本実施形態の被写体追尾システムによれば、スポット測光や一部重点測光等における受光量を検出するための領域に画素ブロック小12bまたは画素ブロック大12Bにおける輝度が用いられるので、別々に演算を行なう場合に比べて処理の高速化を図ることが可能になる。   Further, according to the subject tracking system of the present embodiment, the luminance in the pixel block small 12b or the pixel block large 12B is used for the area for detecting the received light amount in spot metering, partial weight metering, etc. It is possible to increase the processing speed as compared with the case of performing.

なお、本実施形態において、スキャン領域SAまたは候補領域を形成する画素ブロック小12bまたは画素ブロック大12Bの数は2の5乗である32個であるが、パターンマッチングシステムに用いるデジタル演算器の取扱い可能ビット数と同じ2のべき乗個の画素ブロックにしても良い。   In this embodiment, the number of small pixel blocks 12b or large pixel blocks 12B that form the scan area SA or candidate area is 32, which is the fifth power of 2, but is handled by a digital computing unit used in the pattern matching system. The number of pixel blocks may be a power of 2 that is the same as the number of possible bits.

なお、本実施形態において、被写体の移動方向が第1〜第8の方向の8方向のいずれであるかを判定する構成であるが、複数の方向の中から判定される構成であればよい。   In the present embodiment, the configuration is such that the moving direction of the subject is one of the eight directions of the first to eighth directions. However, any configuration may be used as long as it is determined from a plurality of directions.

また、本実施形態において、変倍レンズがワイド端にあるときにスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離は、1画素ブロック小12b又は画素ブロック大12Bであるが、移動させる画素ブロック小12bまたは画素ブロック大12Bの数はいくつであっても良い。焦点距離に応じて移動距離を長く変化させる構成であれば、本実施形態と同様の効果を得ることが可能である。   In the present embodiment, when the zoom lens is at the wide end, the moving distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is one pixel block small 12b or one pixel block large 12B. However, the number of pixel block small 12b or pixel block large 12B to be moved may be any number. An effect similar to that of the present embodiment can be obtained as long as the moving distance is changed in accordance with the focal length.

また、本実施形態において、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8の形状は十字形であるがどのような形状であっても良い。   Further, in the present embodiment, the shapes of the scan area SA and the first to eighth candidate areas CA1 to CA8 are cross-shaped, but any shape may be used.

また、本実施形態において、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8における画素ブロック12bの輝度の2値化が行なわれているが、2値化でなくても所定の数によって階層化しても良い。更には、階層化しなくても良い。ただし、2値化又は階層化を行なうことにより前述のような効果を得ることが可能になる。   In the present embodiment, the luminance of the pixel block 12b in the scan area SA and the first to eighth candidate areas CA1 to CA8 is binarized. It may be hierarchized. Furthermore, it does not have to be hierarchized. However, the above-described effects can be obtained by binarization or hierarchization.

あるいは、本実施形態において、画素ブロック12b、12Bの輝度を3以上の階層化する場合や、階層化を行なわない場合はスキャン領域SAと各候補領域における同じ位置の画素ブロックの輝度の差の絶対値が予め定められた基準値以下のときに0を返して、各判定値を算出する構成であっても良い。本実施形態のように2値化された輝度の場合は、基準値を0に設定することに相当している。   Alternatively, in the present embodiment, when the luminance of the pixel blocks 12b and 12B is hierarchized by three or more, or when hierarchization is not performed, the absolute difference in luminance between the pixel block at the same position in the scan area SA and each candidate area A configuration may be used in which each determination value is calculated by returning 0 when the value is equal to or less than a predetermined reference value. In the case of binarized luminance as in the present embodiment, this corresponds to setting the reference value to 0.

また、本実施形態において、有効画素領域AA全体の明るさに応じて、パターンマッチングに用いる画素ブロックの大きさを2段階に切替えるが、何段階で切替えても良い。或いは、切替えなくてもデジタル演算器の有効活用を行なう効果を発揮することは可能である。ただし、明るさに応じた切替えにより前述のような効果を得ることが可能になる。   Further, in the present embodiment, the size of the pixel block used for pattern matching is switched in two stages according to the brightness of the entire effective pixel area AA, but it may be switched in any number of stages. Alternatively, it is possible to exhibit the effect of effectively using the digital arithmetic unit without switching. However, the above-described effects can be obtained by switching according to the brightness.

また、本実施形態において有効画素領域AA全体の明るさに応じてパターンマッチングに用いる画素ブロックの大きさを切替える構成であるが、有効画素領域AAの一部の明るさに応じて切替える構成であっても良い。   In this embodiment, the size of the pixel block used for pattern matching is switched according to the brightness of the entire effective pixel area AA, but the configuration is switched according to the brightness of a part of the effective pixel area AA. May be.

また、本実施形態において、撮影光学系の焦点距離に応じてスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離を変化させる構成であるが、させなくても、デジタル演算器の有効活用を行なう効果を発揮することは可能である。ただし、焦点距離に応じて移動距離を変化させることにより、前述のような効果を得ることが可能になる。   In the present embodiment, the moving distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is changed according to the focal length of the photographing optical system. It is possible to demonstrate the effect of effective use of the vessel. However, the effects as described above can be obtained by changing the movement distance according to the focal length.

また、本実施形態において、画素ブロックをスポット測光や一部重点測光等における受光量を検出するための領域としても用いる構成であるが、ホワイトバランスを演算するために受光量を検出するための領域としても用いる構成であっても良い。或いは用いなくてもデジタル演算器の有効活用を行う効果を発揮することが可能である。ただし、一部の領域毎の受光量に基づいて演算を行なう場合に、画素ブロックの輝度を共用することにより全体の処理速度の高速化を図ることが可能である。   In the present embodiment, the pixel block is also used as an area for detecting the amount of received light in spot metering, partial weight metering, etc., but the area for detecting the amount of received light in order to calculate white balance The structure used also as may be sufficient. Alternatively, it is possible to exhibit the effect of effectively using the digital arithmetic unit without using it. However, when the calculation is performed based on the amount of received light for each of the areas, it is possible to increase the overall processing speed by sharing the luminance of the pixel block.

また、本実施形態において、EXOR回路を用いて、スキャン領域SAと第1〜第8の候補領域CA1〜CA8における画素ブロック小12bの2値化された輝度が一致しているか否かを判定させているが、例えばEXNOR回路を用いて判定を行なわせても良い。また、他のいずれの手段により一致しているか否かの判定を行なっても良い。   In the present embodiment, the EXOR circuit is used to determine whether or not the binarized luminances of the pixel block small 12b in the scan area SA and the first to eighth candidate areas CA1 to CA8 match. However, the determination may be made using, for example, an EXNOR circuit. Moreover, you may determine whether it corresponds by any other means.

また、本実施形態において、画素ブロック12b、12Bにおける輝度に基づいて、スキャン領域SAと第1〜第8の候補領域CA1〜CA8の一致性を示す判定値を算出する構成であるが、輝度でなくてもよく、例えばGカラーフィルタに覆われた画素から出力される緑色の画素信号の信号強度によって判定値を算出する構成であってもよい。さらには別の色信号である画素信号の信号強度によって判定値を算出する構成であっても良い。   In the present embodiment, the determination value indicating the coincidence between the scan area SA and the first to eighth candidate areas CA1 to CA8 is calculated based on the luminance in the pixel blocks 12b and 12B. For example, the determination value may be calculated based on the signal intensity of the green pixel signal output from the pixel covered with the G color filter. Further, the determination value may be calculated based on the signal intensity of a pixel signal that is another color signal.

また、本実施形態において、撮像素子12の有効画素領域AAには画素がマトリックス状に配列される構成であるが、2次元状に配列されていればよい。   In the present embodiment, the pixels are arranged in a matrix in the effective pixel area AA of the image sensor 12, but it is sufficient that the pixels are arranged in a two-dimensional manner.

また、本実施形態において、追尾部30により所望の被写体を追尾させ、追尾している被写体に対してAF機能を実行させる構成であるが、追尾部30による追尾機能を他の機能に適用することは可能である。例えば、所望の被写体を追尾し、モニタ上に被写体とともに追尾されていることが表示される監視カメラや、移動する被写体を追尾させ、追尾している被写体に対して自動露出補正を行なうカメラなどにも適用可能である。   In the present embodiment, the tracking unit 30 tracks a desired subject, and the AF function is executed on the tracked subject. However, the tracking function by the tracking unit 30 is applied to other functions. Is possible. For example, a monitoring camera that tracks a desired subject and displays that the subject is being tracked on the monitor, a camera that tracks a moving subject, and performs automatic exposure correction on the tracked subject. Is also applicable.

また、本実施形態において、パターンマッチングを被写体の追尾に利用する構成であるが、例えば、顔面認証システム等に適用することも可能である。   In the present embodiment, the pattern matching is used for tracking the subject, but can be applied to, for example, a face authentication system.

本発明の一実施形態を適用したパターンマッチングシステムにより被写体の追尾を行なう被写体追尾システムを有するデジタルカメラの内部構成を概略的に示すブロック図である。1 is a block diagram schematically showing an internal configuration of a digital camera having a subject tracking system that tracks a subject by a pattern matching system to which an embodiment of the present invention is applied. FIG. DSPの内部構成を概略的に示すブロック図である。It is a block diagram which shows schematically the internal structure of DSP. 追尾部の内部構成を概略的に示すブロック図である。It is a block diagram which shows roughly the internal structure of a tracking part. 画素ブロック小の構成を示す図である。It is a figure which shows the structure of a pixel block small. 画素ブロック大の構成を示す図である。It is a figure which shows the structure of a pixel block size. 画素ブロック小によって形成されるスキャン領域の形状を説明するための図である。It is a figure for demonstrating the shape of the scanning area | region formed by pixel block small. 画素ブロック大によって形成されるスキャン領域の形状を説明するための図である。It is a figure for demonstrating the shape of the scanning area | region formed by pixel block size. スキャン領域に対する第1の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 1st candidate area | region with respect to a scanning area | region. スキャン領域に対する第2の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 2nd candidate area | region with respect to a scanning area | region. スキャン領域に対する第3の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 3rd candidate area | region with respect to a scanning area | region. スキャン領域に対する第4の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 4th candidate area | region with respect to a scanning area | region. スキャン領域に対する第5の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 5th candidate area | region with respect to a scanning area | region. スキャン領域に対する第6の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 6th candidate area | region with respect to a scanning area | region. スキャン領域に対する第7の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 7th candidate area | region with respect to a scanning area | region. スキャン領域に対する第8の候補領域の位置関係を示す図である。It is a figure which shows the positional relationship of the 8th candidate area | region with respect to a scanning area | region. スキャン領域における画素ブロック小毎の輝度の一例を示す図である。It is a figure which shows an example of the brightness | luminance for every pixel block small in a scanning area | region. 図16に示すスキャン領域の画素ブロック小についての2値化した輝度を示す図である。It is a figure which shows the binarized brightness | luminance about the pixel block small of the scanning area | region shown in FIG. 第1の候補領域における画素ブロック小毎の2値化した輝度の一例を示す図である。It is a figure which shows an example of the binarized brightness | luminance for every small pixel block in a 1st candidate area | region. スキャン領域の設定のために行なわれる処理を説明するための第1のフローチャートである。It is a 1st flowchart for demonstrating the process performed for the setting of a scanning area | region. スキャン領域の設定のために行なわれる処理を説明するための第2のフローチャートである。It is a 2nd flowchart for demonstrating the process performed for the setting of a scanning area | region.

符号の説明Explanation of symbols

10 デジタルカメラ
11a 変倍レンズ
11b フォーカスレンズ
12b、12B 画素ブロック小、画素ブロック大
12p 画素
14 DSP(Digital Signal Processor)
14p1 前段データ処理部
16 ズーム駆動部
17 フォーカス駆動部
30 追尾部
31 画素ブロック算出部
32 スキャン領域初期設定部
33 候補領域設定部
34 画像認識部
35 スキャン領域設定部
AA 有効画素領域
C スキャン領域の中心
CA1〜CA8 第1〜第8の候補領域
SA スキャン領域
DESCRIPTION OF SYMBOLS 10 Digital camera 11a Variable magnification lens 11b Focus lens 12b, 12B Small pixel block, Large pixel block 12p Pixel 14 DSP (Digital Signal Processor)
14p1 Pre-stage data processing unit 16 Zoom drive unit 17 Focus drive unit 30 Tracking unit 31 Pixel block calculation unit 32 Scan region initial setting unit 33 Candidate region setting unit 34 Image recognition unit 35 Scan region setting unit AA Effective pixel region C Center of scan region CA1 to CA8 1st to 8th candidate area SA scan area

Claims (6)

第1の画像と第2の画像との一致性の高さを示すための判定値を出力するパターンマッチングシステムであって、
前記第1、第2の画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号によって形成され、前記第1、第2の画像に対応する第1、第2の画像データをデジタルデータとして取得する取得部と、
前記第1、第2の画像における同じ位置の前記パターン領域の前記領域信号の信号強度を比較する比較部と、
前記比較部による比較において前記領域信号の信号強度の差の絶対値が予め定められる基準値以下となる前記パターン領域の数に応じて変わる前記判定値を算出する判定部と、 前記判定値を出力する出力部とを備え
前記第1の画像または前記第2の画像全体の輝度が第1の閾値より低いときに、前記パターン領域の大きさを広くすることを特徴とするパターンマッチングシステム。
A pattern matching system that outputs a determination value for indicating a high degree of coincidence between a first image and a second image,
The first and second images corresponding to the first and second images are formed by region signals whose signal intensity changes according to the luminance of each of the power-of-two pattern regions that form the first and second images. An acquisition unit for acquiring the image data as digital data;
A comparison unit for comparing signal strengths of the region signals of the pattern region at the same position in the first and second images;
A determination unit that calculates the determination value that varies according to the number of the pattern regions in which the absolute value of the signal intensity difference between the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit; and outputs the determination value and an output unit that,
The pattern matching system , wherein when the luminance of the first image or the whole of the second image is lower than a first threshold, the size of the pattern region is widened .
前記第1、第2の画像データにおける前記領域信号の信号強度の2値化を行なう2値化部を備え、前記比較部は前記第1、第2の画像における同じ位置の前記パターン領域の前記領域信号の2値化された前記信号強度を比較することを特徴とする請求項1に記載のパターンマッチングシステム。   A binarization unit that binarizes signal intensity of the region signal in the first and second image data, and the comparison unit includes the pattern region at the same position in the first and second images; The pattern matching system according to claim 1, wherein the binarized signal intensities of region signals are compared. 前記取得部は、前記パターン領域を形成する複数の画素それぞれの輝度に応じて信号強度の変わる画素信号を受信する受信部と、単一の前記パターン領域を形成する複数の画素の前記画素信号に基づいて前記領域信号を生成する領域信号生成部とを有し、
前記第1の画像または前記第2の画像全体の輝度が前記第1の閾値より低いときに、前記取得部は大きさの拡大されたパターン領域によって形成される大パターン領域全体の輝度に応じて信号強度の変わる大領域信号を生成し、
前記比較部は、前記第1の画像または前記第2の画像全体の輝度が前記第1の閾値より低いときに、前記第1、第2の画像における同じ位置の前記大パターン領域の前記大領域信号の信号強度を比較し、
前記判定部は、前記大領域信号の信号強度の差の絶対値が前記基準値以下となる前記大パターン領域の数に応じて変わる前記判定値を算出する
ことを特徴とする請求項1または請求項2に記載のパターンマッチングシステム。
The acquisition unit receives a pixel signal whose signal intensity changes according to the luminance of each of the plurality of pixels forming the pattern region, and the pixel signal of the plurality of pixels forming the single pattern region. An area signal generation unit for generating the area signal based on
When the luminance of the entire first image or the second image is lower than the first threshold, the acquisition unit responds to the luminance of the entire large pattern area formed by the enlarged pattern area. Generate large area signals with varying signal strength,
When the luminance of the first image or the entire second image is lower than the first threshold, the comparison unit is configured to have the large area of the large pattern area at the same position in the first and second images. Compare the signal strength of the signals,
The said determination part calculates the said determination value which changes according to the number of the said large pattern area | region where the absolute value of the signal strength difference of the said large area signal becomes below the said reference value. Item 3. The pattern matching system according to Item 2.
連続的に撮像される撮影画像内における特定の被写体である追尾対象体の移動を追尾する被写体追尾システムであって、A subject tracking system that tracks the movement of a tracking target that is a specific subject in continuously captured images,
前記撮影画像における定められた一部の領域を、前記追尾対象体を追尾するための追尾領域に初期設定する初期設定部と、An initial setting unit that initially sets a predetermined part of the captured image as a tracking region for tracking the tracking object;
前記追尾領域から第1、第2の方向に移動した領域である第1、第2の候補領域を設定する候補領域設定部と、A candidate area setting unit for setting first and second candidate areas that are areas moved in the first and second directions from the tracking area;
第1のタイミングで撮像された前記撮影画像における前記追尾領域の画像である基準画像を検出し、前記第1のタイミングの後の第2のタイミングで撮像された前記撮影画像における前記第1、第2の候補領域の画像である第1、第2の候補画像を検出する画像検出部と、A reference image that is an image of the tracking area in the captured image captured at the first timing is detected, and the first and second images in the captured image captured at a second timing after the first timing are detected. An image detection unit for detecting first and second candidate images that are images of two candidate areas;
前記基準画像及び前記第1、第2の候補画像に基づいて、前記基準画像及び前記第1、第2の候補画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号を生成する領域信号生成部と、Based on the reference image and the first and second candidate images, the signal intensity changes according to the luminance of each of the power-of-two pattern regions forming the reference image and the first and second candidate images. An area signal generator for generating an area signal;
前記基準画像と、前記第1の候補画像または前記第2の候補画像における同じ位置の前記パターン領域の前記領域信号の信号強度を比較する比較部と、A comparison unit that compares the signal intensity of the region signal of the pattern region at the same position in the first candidate image or the second candidate image with the reference image;
前記比較部による比較において前記領域信号の信号強度の差の絶対値が予め定められる基準値以下となる前記パターン領域の数に応じて変わる判定値を算出する第1の判定部と、A first determination unit that calculates a determination value that changes according to the number of pattern regions in which the absolute value of the signal intensity difference between the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit;
前記基準画像と前記第1の画像または前記第2の画像とについての前記判定値に基づいて、前記第1のタイミングから前記第2のタイミングにおける前記追尾対象体の移動方向を前記第1、第2の方向のいずれであるかを判定する第2の判定部と、Based on the determination value for the reference image and the first image or the second image, the moving direction of the tracking target object from the first timing to the second timing is changed to the first and second. A second determination unit that determines which of the two directions;
前記第2の判定部に前記追尾対象体の移動方向として判定された方向に移動した候補領域を追尾領域として再設定する再設定部とを備え、The second determination unit includes a resetting unit that resets a candidate area that has moved in the direction determined as the movement direction of the tracking target object as a tracking area,
前記基準画像、前記第1の候補画像または前記第2の候補画像全体の輝度が第1の閾値より低いときに、前記パターン領域の大きさを広くするWhen the brightness of the reference image, the first candidate image, or the entire second candidate image is lower than a first threshold, the size of the pattern area is increased.
ことを特徴とする被写体追尾システム。Subject tracking system.
前記候補領域設定部は、前記追尾対象体の光学像を撮像素子の受光面に結像させるための撮影光学系の焦点距離の長さに応じて、前記追尾領域から前記第1、第2の候補領域までの移動距離を長く設定することを特徴とする請求項4に記載の被写体追尾システム。 The candidate area setting unit is configured to change the first and second from the tracking area according to a focal length of an imaging optical system for forming an optical image of the tracking target object on a light receiving surface of an imaging element. The subject tracking system according to claim 4, wherein the moving distance to the candidate area is set to be long . 前記追尾対象体の光学像を撮像素子に受光させるときの露出を、前記撮像素子に入射する光学像の一部の輝度に応じて調整可能な露出調整システムを備え、
前記パターン領域の輝度が、前記露出量の調整を行うための前記光学像の一部の輝度として使用される
ことを特徴とする請求項4または請求項5に記載の被写体追尾システム。
An exposure adjustment system capable of adjusting the exposure when the optical image of the tracking object is received by the image sensor in accordance with the luminance of a part of the optical image incident on the image sensor;
The subject tracking system according to claim 4 or 5 , wherein the brightness of the pattern area is used as a brightness of a part of the optical image for adjusting the exposure amount .
JP2006072652A 2006-03-16 2006-03-16 Pattern matching system and subject tracking system Expired - Fee Related JP4701111B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006072652A JP4701111B2 (en) 2006-03-16 2006-03-16 Pattern matching system and subject tracking system
US11/686,561 US8023744B2 (en) 2006-03-16 2007-03-15 Pattern matching system and targeted object pursuit system using light quantities in designated areas of images to be compared

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006072652A JP4701111B2 (en) 2006-03-16 2006-03-16 Pattern matching system and subject tracking system

Publications (2)

Publication Number Publication Date
JP2007249640A JP2007249640A (en) 2007-09-27
JP4701111B2 true JP4701111B2 (en) 2011-06-15

Family

ID=38517892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006072652A Expired - Fee Related JP4701111B2 (en) 2006-03-16 2006-03-16 Pattern matching system and subject tracking system

Country Status (2)

Country Link
US (1) US8023744B2 (en)
JP (1) JP4701111B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345162B2 (en) * 2007-07-31 2013-01-01 Verint Systems Inc. Systems and methods for triggering an out of focus alert
CN102469928B (en) * 2009-08-28 2014-12-17 奥林巴斯医疗株式会社 Receiver system
US20110075935A1 (en) * 2009-09-25 2011-03-31 Sony Corporation Method to measure local image similarity based on the l1 distance measure
JP5834253B2 (en) * 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
CN113822152A (en) * 2021-08-09 2021-12-21 中标慧安信息技术股份有限公司 Method for monitoring clothing condition of commercial tenant of food in market
CN117243699B (en) * 2023-11-14 2024-03-15 杭州三坛医疗科技有限公司 Displacement detection method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01169583A (en) * 1987-12-24 1989-07-04 Fujitsu Ltd Pattern matching device
JPH09231358A (en) * 1996-02-21 1997-09-05 Canon Inc Device and method for extracting corresponding point of picture
JP2004104656A (en) * 2002-09-12 2004-04-02 Toshiba Corp Motion vector detection method, frame interpolation image creation method, and image display system
JP2005045383A (en) * 2003-07-24 2005-02-17 Hitachi Kokusai Electric Inc Object tracking apparatus
JP2005338352A (en) * 2004-05-26 2005-12-08 Fujinon Corp Autofocus system
JP2007251636A (en) * 2006-03-16 2007-09-27 Pentax Corp Object tracking system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493465B2 (en) * 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US6590999B1 (en) * 2000-02-14 2003-07-08 Siemens Corporate Research, Inc. Real-time tracking of non-rigid objects using mean shift
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
JP2002372664A (en) 2001-06-15 2002-12-26 Canon Inc Moving body region discriminating system, method of discriminating moving body region and focusing device
JP3992177B2 (en) * 2001-11-29 2007-10-17 株式会社リコー Image processing apparatus, image processing method, and computer program
US7113616B2 (en) * 2001-12-05 2006-09-26 Hitachi Kokusai Electric Inc. Object tracking method and apparatus using template matching
US7454040B2 (en) * 2003-08-29 2008-11-18 Hewlett-Packard Development Company, L.P. Systems and methods of detecting and correcting redeye in an image suitable for embedded applications

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01169583A (en) * 1987-12-24 1989-07-04 Fujitsu Ltd Pattern matching device
JPH09231358A (en) * 1996-02-21 1997-09-05 Canon Inc Device and method for extracting corresponding point of picture
JP2004104656A (en) * 2002-09-12 2004-04-02 Toshiba Corp Motion vector detection method, frame interpolation image creation method, and image display system
JP2005045383A (en) * 2003-07-24 2005-02-17 Hitachi Kokusai Electric Inc Object tracking apparatus
JP2005338352A (en) * 2004-05-26 2005-12-08 Fujinon Corp Autofocus system
JP2007251636A (en) * 2006-03-16 2007-09-27 Pentax Corp Object tracking system

Also Published As

Publication number Publication date
US20070217686A1 (en) 2007-09-20
JP2007249640A (en) 2007-09-27
US8023744B2 (en) 2011-09-20

Similar Documents

Publication Publication Date Title
US8243191B2 (en) Imaging apparatus and imaging control method for focusing by determining a focusing position
JP5564987B2 (en) Subject tracking device and imaging device
JP4874669B2 (en) Autofocus unit and digital camera
JP4930509B2 (en) Image tracking device, image tracking method, and camera
US9538067B2 (en) Imaging sensor capable of detecting phase difference of focus
JP4662873B2 (en) Pattern matching system
CN101605208A (en) Image processing equipment, imaging device, image processing method and program
JP4701111B2 (en) Pattern matching system and subject tracking system
JP2008046354A (en) Object tracking device and camera
JP2012049773A (en) Imaging apparatus and method, and program
JP2007036775A (en) Imaging apparatus and focus control apparatus
JP4573789B2 (en) Subject tracking system
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP7158841B2 (en) Imaging device, imaging method, program, recording medium, and image processing device
US10798285B2 (en) Image processing apparatus, method, and medium to perform alignment of a plurality of images based on conversion coefficient while finely moving an in-focus position
JP2010134309A (en) Autofocus device, autofocus method and imaging apparatus
JP5930792B2 (en) Imaging apparatus and control method thereof
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
JP2014003417A (en) Image pickup device
JP5928024B2 (en) Image processing apparatus, image processing method, and program
JP2009159356A (en) Subject tracing apparatus, subject tracing program and subject tracing method
JP2016072968A (en) Imaging apparatus and imaging method
JP2015204579A (en) Imaging apparatus
JP2010147694A (en) Image tracking apparatus, imaging apparatus, and image tracking method
JP2018116139A (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4701111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees