JP5426874B2 - Auto focus system - Google Patents

Auto focus system Download PDF

Info

Publication number
JP5426874B2
JP5426874B2 JP2008326185A JP2008326185A JP5426874B2 JP 5426874 B2 JP5426874 B2 JP 5426874B2 JP 2008326185 A JP2008326185 A JP 2008326185A JP 2008326185 A JP2008326185 A JP 2008326185A JP 5426874 B2 JP5426874 B2 JP 5426874B2
Authority
JP
Japan
Prior art keywords
image
reference pattern
captured
tracking target
correlation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008326185A
Other languages
Japanese (ja)
Other versions
JP2010145965A (en
Inventor
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008326185A priority Critical patent/JP5426874B2/en
Publication of JP2010145965A publication Critical patent/JP2010145965A/en
Application granted granted Critical
Publication of JP5426874B2 publication Critical patent/JP5426874B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、オートフォーカスシステムに係り、特に、パターンマッチングで撮影画像中の人物をピント合わせの対象として追尾し、AF枠を自動追尾するシステムに関する。   The present invention relates to an autofocus system, and more particularly, to a system for automatically tracking an AF frame by tracking a person in a captured image by pattern matching as a focusing target.

従来、カメラのフォーカスを自動的に合わせるオートフォーカス(AF)システムにおいては、どこにフォーカスを合わせるか(どこにピントを合わせるか)をカメラに対して指示しなければならない。このとき、一般のカメラなどでは、フォーカスを合わせる位置は撮影範囲のセンターに固定されていて、例えば撮影範囲の中央にいる人物等にフォーカスが合うようになっていた。そして、オートフォーカス(AF)の方式としては、撮像素子により取り込まれた画像信号から被写体画像のコントラストを検出し、そのコントラストが最も高くなるように撮影レンズのフォーカスを制御することによって最良ピント状態に自動でピント合わせをするコントラスト方式が採用されていた。   Conventionally, in an autofocus (AF) system that automatically adjusts the focus of a camera, the camera must be instructed where to focus (where to focus). At this time, in a general camera or the like, the position to be focused is fixed at the center of the shooting range, and for example, the person in the center of the shooting range is focused. As an autofocus (AF) method, the contrast of the subject image is detected from the image signal captured by the image sensor, and the focus of the photographing lens is controlled so that the contrast becomes the highest, thereby achieving the best focus state. A contrast method that automatically focuses was used.

なお、カメラの撮影範囲のうちAFの対象とする被写体の範囲、又はカメラの撮影画像を再生した場合の撮影画像の画面のうちAFの対象とする被写体の画面上での範囲をAFエリアといい、そのAFエリアの輪郭を示す枠をAF枠という。   The range of the subject to be AF in the shooting range of the camera or the range on the screen of the subject to be AF in the screen of the shot image when the shot image of the camera is reproduced is called an AF area. A frame indicating the outline of the AF area is called an AF frame.

ところで、動いている被写体を撮影する場合などにおいては、このようにフォーカスを合わせる位置が固定されていては都合が悪い。そこで、例えば、テレビカメラなどで、スポーツのように被写体の動きの激しいシーンを撮影する場合において、撮影画像中からピントを合わせる対象被写体を検出して追尾するために、フォーカス対象(合焦対象)の被写体の画像を基準パターンとして記憶し、新たに取り込んだフレームの撮影画像においてその基準パターン画像と最も合致する画像をパターンマッチングにより検出し、対象被写体の位置を検出するようにしたものが知られている(例えば、特許文献1等参照)。
特開2006−258944号公報
By the way, when shooting a moving subject, it is inconvenient if the focus position is fixed as described above. Therefore, for example, when shooting a scene where the movement of a subject is intense, such as sports, with a TV camera or the like, a focus target (focus target) is used to detect and track the target subject to be focused from within the captured image. The image of the subject is memorized as a reference pattern, and the image that best matches the reference pattern image in the captured image of the newly captured frame is detected by pattern matching, and the position of the target subject is detected. (See, for example, Patent Document 1).
JP 2006-258944 A

しかしながら、上記従来のように、AF枠を自動追尾するシステムにおいて、パターンマッチングで人物を追尾した場合、画面内に複数の人物が存在して、その人物同士が互いに交差したようなときに、追尾不能となってしまう虞れがあるという問題がある。   However, in the system that automatically tracks the AF frame as described above, when a person is tracked by pattern matching, there are a plurality of persons on the screen, and when the persons cross each other, the tracking is performed. There is a problem that it may become impossible.

本発明は、このような事情に鑑みてなされたもので、AF枠を自動追尾するシステムにおいて、パターンマッチングで人物を追尾する際、画面内で複数の人物同士が交差しても確実に追尾対象を追尾することができるオートフォーカスシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and in a system for automatically tracking an AF frame, when tracking a person by pattern matching, even if a plurality of persons intersect in the screen, the tracking target is surely An object of the present invention is to provide an autofocus system capable of tracking a camera.

前記目的を達成するために、請求項1に記載の発明は、光学系により結像された被写体像を撮像する撮像手段と、前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、前記撮像手段によって撮像された画像範囲内の被写体の移動に合わせて前記AFエリアを移動させる追尾手段と、追尾対象の画像である第1の基準パターンと第2の基準パターンとを登録する基準パターン登録手段と、前記撮像手段により撮像された撮影画像の中から、前記基準パターンに最も合致する画像を検出する合致画像検出手段と、前記合致画像検出手段により検出された画像の前記基準パターンに対する合致の度合いを示す相関値を算出する手段と、追尾対象が移動したか否かを判断する手段と、を備え、最初に、追尾対象である同じ画像が前記第1の基準パターンと第2の基準パターンとして登録され、その後、前記撮像手段により撮像された撮影画像が取り込まれて、前記第2の基準パターンに最も合致する画像が検出され、検出された画像と前記第2の基準パターンとの相関値が算出されて第1の閾値と比較され、前記第2の基準パターンとの相関値が前記第1の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動され、その後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、前記第2の基準パターンとの相関値が第1の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第1の基準パターンに最も合致する画像が検出され、検出された撮影画像と前記第1の基準パターンとの相関値が算出されて第2の閾値と比較され、前記第1の基準パターンとの相関値が前記第2の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動され、その後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれることを特徴とするオートフォーカスシステムを提供する。
前記目的を達成するために、請求項2に記載の発明は、光学系により結像された被写体像を撮像する撮像手段と、前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、前記撮像手段によって撮像された画像範囲内の被写体の移動に合わせて前記AFエリアを移動させる追尾手段と、追尾対象の画像である第1の基準パターンAと第2の基準パターンBと第3の基準パターンCを登録する基準パターン登録手段と、前記撮像手段により撮像された撮影画像の中から、前記基準パターンに最も合致する画像を検出する合致画像検出手段と、前記合致画像検出手段により検出された画像の前記基準パターンに対する合致の度合いを示す相関値を算出する手段と、追尾対象が移動したか否かを判断する手段と、を備え、最初に、追尾対象である同じ画像が前記第1の基準パターンAと第2の基準パターンBと第3の基準パターンCとして登録され、その後、前記撮像手段により撮像された撮影画像が取り込まれて、前記第3の基準パターンCに最も合致する画像が検出され、検出された画像と前記第3の基準パターンCとの相関値が算出されて第1の閾値と比較され、前記第3の基準パターンCとの相関値が前記第1の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、前記第3の基準パターンCとの相関値が前記第1の閾値以下の場合、前記第3の基準パターンCとの相関値が第2の閾値と比較され、前記第3の基準パターンCとの相関値が前記第2の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、前記第3の基準パターンCとの相関値が前記第2の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第1の基準パターンに最も合致する画像が検出され、検出された撮影画像と前記第1の基準パターンとの相関値が算出されて第3の閾値と比較され、前記第1の基準パターンとの相関値が前記第3の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、前記第1の基準パターンAとの相関値が前記第3の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第2の基準パターンBに最も合致する画像が検出され、検出された撮影画像と前記第2の基準パターンBとの相関値が算出されて第4の閾値と比較され、前記第2の基準パターンBとの相関値が前記第4の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれることを特徴とするオートフォーカスシステムを提供する。
In order to achieve the above object, the invention according to claim 1 is directed to an imaging unit that captures a subject image formed by an optical system, and a predetermined AF area among the captured images captured by the imaging unit. Auto focus means for adjusting the focus of the optical system so that the subject is in focus, tracking means for moving the AF area in accordance with the movement of the subject within the image range imaged by the imaging means, and a tracking target A reference pattern registration means for registering the first reference pattern and the second reference pattern, which are images of the image, and a match for detecting an image that best matches the reference pattern from the captured images captured by the imaging means means for calculating the image detection means, a correlation value indicating the degree of matching with respect to the reference pattern of the image detected by the matching image detection means, tracking And means for elephant determines whether moved, the, first, the same image is tracking target is registered as the first reference pattern and the second reference pattern, then it is imaged by the imaging means A captured image is captured, an image that best matches the second reference pattern is detected, a correlation value between the detected image and the second reference pattern is calculated and compared with a first threshold value, When the correlation value with the second reference pattern is larger than the first threshold value, it is determined whether or not the tracking target is moving. When the tracking target is moving, the matching image detection unit detects the tracking target. When the second reference pattern is updated with the image, the AF area is moved in accordance with the tracking target after movement, and then the next captured image is captured, and the tracking target is not moving, When the next captured image is captured as it is and the correlation value with the second reference pattern is equal to or less than the first threshold value, the best match with the first reference pattern among the captured images captured by the imaging unit A correlation value between the detected captured image and the first reference pattern is calculated and compared with a second threshold value, and the correlation value with the first reference pattern is calculated as the second threshold value. If larger, it is determined whether or not the tracking target is moving. If the tracking target is moving, the second reference pattern is updated with the image detected by the matching image detection means, and after the movement The AF area is moved according to the tracking target, and then the next captured image is captured. If the tracking target is not moved, the next captured image is captured as it is. Provide a system.
In order to achieve the above object, the invention according to claim 2 includes an imaging unit that captures a subject image formed by an optical system, and a predetermined AF area among the captured images captured by the imaging unit. Auto focus means for adjusting the focus of the optical system so that the subject is in focus, tracking means for moving the AF area in accordance with the movement of the subject within the image range imaged by the imaging means, and a tracking target The reference pattern registration means for registering the first reference pattern A, the second reference pattern B, and the third reference pattern C, which are the images of the image, and the reference pattern out of the captured images picked up by the image pickup means. Matching image detecting means for detecting the best matching image and correlation indicating the degree of matching of the image detected by the matching image detecting means with the reference pattern And means for determining whether or not the tracking target has moved. First, the same image as the tracking target is the first reference pattern A, the second reference pattern B, and the third reference image. The reference image is registered as a reference pattern C, and then a captured image captured by the imaging unit is captured, and an image that most closely matches the third reference pattern C is detected. The detected image and the third reference When the correlation value with the pattern C is calculated and compared with the first threshold value and the correlation value with the third reference pattern C is larger than the first threshold value, the correlation value with the pattern C is detected by the image detected by the matching image detection means. After the second reference pattern B is updated, it is determined whether or not the tracking target is moving. If the tracking target is moving, the third reference is determined based on the image detected by the matching image detection unit. Patter When the tracking area is updated and the AF area is moved in accordance with the tracking target after movement, the next captured image is captured. If the tracking target is not moved, the next captured image is captured as it is. When the correlation value with the third reference pattern C is not more than the first threshold value, the correlation value with the third reference pattern C is compared with the second threshold value, and the third reference pattern C and Is greater than the second threshold value, it is determined whether or not the tracking target is moving. If the tracking target is moving, the third reference is determined based on the image detected by the matching image detection means. After the pattern C is updated and the AF area is moved according to the tracking target after movement, the next captured image is captured, and when the tracking target is not moved, the next captured image is captured as it is. The above When the correlation value with the third reference pattern C is less than or equal to the second threshold value, an image that most closely matches the first reference pattern is detected from the captured images captured by the imaging unit and detected. When the correlation value between the captured image and the first reference pattern is calculated and compared with a third threshold value, and the correlation value with the first reference pattern is greater than the third threshold value, the matched image detection means After the second reference pattern B is updated with the image detected by the above, it is determined whether or not the tracking target is moving, and when the tracking target is moving, the image detected by the matching image detection means When the third reference pattern C is updated and the AF area is moved in accordance with the tracking target after movement, the next captured image is captured and the tracking target is not moved. When the next photographed image is captured and the correlation value with the first reference pattern A is equal to or smaller than the third threshold value, the second reference pattern B is the largest among the photographed images picked up by the image pickup means. A matching image is detected, a correlation value between the detected captured image and the second reference pattern B is calculated and compared with a fourth threshold value, and a correlation value with the second reference pattern B is If the threshold value is larger than 4, after the second reference pattern B is updated with the image detected by the matched image detecting means, it is determined whether or not the tracking target is moving, and the tracking target is moving. In this case, the third reference pattern C is updated with the image detected by the matching image detection means, and the AF area is moved according to the tracking target after movement, and then the next photographed image is captured. If the tracking target is not moving, to provide an autofocus system that it is characterized in that the following photographic image is captured.

これにより、AF枠を自動追尾するシステムにおいて、パターンマッチングで人物を追尾する際、画面内で複数の人物同士が交差しても確実に追尾対象を追尾することが可能となる。   As a result, in the system that automatically tracks the AF frame, when a person is tracked by pattern matching, the tracking target can be reliably tracked even if a plurality of persons intersect in the screen.

以上説明したように、本発明によれば、AF枠を自動追尾するシステムにおいて、パターンマッチングで人物を追尾する際、画面内で複数の人物同士が交差しても確実に追尾対象を追尾することが可能となる。   As described above, according to the present invention, when a person is tracked by pattern matching in a system for automatically tracking an AF frame, the tracking target is reliably tracked even if a plurality of persons intersect in the screen. Is possible.

以下、添付図面を参照して、本発明に係るオートフォーカスシステムについて詳細に説明する。   Hereinafter, an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係るオートフォーカスシステムが適用されたビデオカメラシステムの一実施形態の全体構成を示したブロック図である。このビデオカメラシステムは、例えば、放送用テレビカメラでの撮影に用いられる撮像システムである。   FIG. 1 is a block diagram showing the overall configuration of an embodiment of a video camera system to which an autofocus system according to the present invention is applied. This video camera system is, for example, an imaging system used for shooting with a broadcast television camera.

図1に示すように、本実施形態のビデオカメラシステム1は、テレビカメラ10、画像処理ユニット18等を有して構成されている。   As shown in FIG. 1, the video camera system 1 according to the present embodiment includes a television camera 10, an image processing unit 18, and the like.

テレビカメラ10は、ハイビジョンテレビ[HD(High Definition)TV]方式に対応したHDカメラからなるカメラ本体12と、カメラ本体12のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置14とから構成される。なお、図示は省略するが、カメラ本体12は雲台上に旋回方向(パン)及び上下傾動方向(チルト)に移動可能に支承されている。   The television camera 10 includes a camera body 12 composed of an HD camera compatible with a high-definition television [HD (High Definition) TV] system, and a lens device 14 having a photographing lens (optical system) attached to a lens mount of the camera body 12. It consists of. Although not shown, the camera body 12 is supported on the platform so as to be movable in a turning direction (pan) and a vertical tilt direction (tilt).

カメラ本体12には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置14の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施されてHDTV方式の映像信号(HDTV信号)として、カメラ本体12の映像信号出力端子等から外部に出力される。   The camera body 12 is equipped with an image sensor (for example, a CCD), a required signal processing circuit, and the like, and an image formed by the photographing lens of the lens device 14 is subjected to signal processing after being photoelectrically converted by the image sensor. Necessary signal processing is performed by the circuit and output as an HDTV video signal (HDTV signal) from the video signal output terminal of the camera body 12 to the outside.

また、カメラ本体12は、ビューファインダ13を備えており、テレビカメラ10により現在撮影されている映像等がビューファインダ13に表示されるようになっている。また、ビューファインダ13には、各種情報が表示されるようになっており、例えば、後述のオートフォーカスにおいてピント合わせの対象範囲となるAF枠が撮影映像に重畳されて表示されるようになっている。   In addition, the camera body 12 includes a viewfinder 13 so that an image currently captured by the television camera 10 is displayed on the viewfinder 13. Also, various information is displayed on the viewfinder 13, and for example, an AF frame that is a focus target range in autofocus described later is displayed superimposed on the captured video. Yes.

レンズ装置14は、カメラ本体12のレンズマウントに装着される撮影レンズ(ズームレンズ)24を備えている。撮影レンズ24により、被写体16がカメラ本体12の撮像素子の撮像面に結像されるようになっている。撮影レンズ24には、図示を省略するが、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、モータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、またズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。   The lens device 14 includes a photographing lens (zoom lens) 24 that is attached to the lens mount of the camera body 12. The subject 16 is imaged on the imaging surface of the imaging element of the camera body 12 by the photographing lens 24. Although not shown, the photographic lens 24 is provided with movable parts for adjusting photographing conditions such as a focus lens group, a zoom lens group, and a diaphragm as constituent parts thereof. Servo mechanism) is electrically driven. For example, the focus lens group and the zoom lens group move in the optical axis direction, the focus (subject distance) adjustment is performed by moving the focus lens group, and the focal length (zoom magnification) is adjusted by moving the zoom lens group. Adjustments are made.

なお、オートフォーカス(AF)に関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作手段(レンズ装置14に接続されるコントローラの操作手段等)から操作者の操作に従って出力されるコントール信号に基づいて可動部の動作が制御されるが詳細は省略する。   In a system related to autofocus (AF), it is sufficient that at least the focus lens group can be driven electrically, and the other movable parts may be driven only manually. Further, when the predetermined movable part is electrically driven in accordance with the operation of the operator, it is based on a control signal output in accordance with the operation of the operator from an operating means (not shown) such as an operating means of a controller connected to the lens device 14. Thus, the operation of the movable part is controlled, but details are omitted.

また、レンズ装置14には、AFユニット26及び図示しないレンズCPU等が搭載されている。レンズCPUはレンズ装置14全体を統括制御するものである。また、AFユニット26は、AFによるフォーカス制御(自動ピント調整)を行うために必要な情報を取得するための処理部であり、図示を省略するが、AF処理部、AF用撮像回路等から構成されている。AF用撮像回路はAF処理用の映像信号を取得するためにレンズ装置14に配置されており、撮像素子CCD等の撮像素子(AF用撮像素子という)やAF用撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。なお、AF用撮像回路から出力される映像信号は輝度信号である。   The lens device 14 includes an AF unit 26 and a lens CPU (not shown). The lens CPU controls the entire lens device 14. The AF unit 26 is a processing unit for acquiring information necessary for performing AF focus control (automatic focus adjustment). Although not shown, the AF unit 26 includes an AF processing unit, an AF imaging circuit, and the like. Has been. The AF image pickup circuit is disposed in the lens device 14 to acquire an image signal for AF processing. An image pickup device such as an image pickup device CCD (referred to as an image pickup device for AF) or an output signal of the AF image pickup device is used in a predetermined format. And a processing circuit for outputting as a video signal. The video signal output from the AF imaging circuit is a luminance signal.

AF用撮像素子の撮像面には、撮影レンズ24の光路上に配置されたハーフミラー等によってカメラ本体12の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラ本体12の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラ本体12の撮像素子により取り込まれる被写体画像と一致している。なお、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラ本体12の撮像素子の撮影範囲を包含する大きな範囲であってもよい。   On the image pickup surface of the AF image pickup device, subject light branched from the subject light incident on the image pickup device of the camera main body 12 is imaged by a half mirror or the like disposed on the optical path of the taking lens 24. . The shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera body 12. The subject image captured by the image sensor matches the subject image captured by the image sensor of the camera body 12. It should be noted that the shooting ranges of the two do not have to coincide completely, and for example, the shooting range of the AF image sensor may be a larger range including the shooting range of the image sensor of the camera body 12.

AF処理部は、AF用撮像回路から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象とするAFエリアに対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPUに与えられる。   The AF processing unit acquires a video signal from the AF imaging circuit, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to the AF area targeted for AF is extracted from the high-frequency component signal. Accumulate one screen (one frame) at a time. The integrated value obtained for each screen in this way indicates the level of contrast of the subject image, and is given to the lens CPU as a focus evaluation value.

レンズCPUは、AFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を、後述するように画像処理ユニット18から取得し、そのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部から取得する。   The lens CPU obtains AF frame information (AF frame information) indicating the range (contour) of the AF area from the image processing unit 18 as will be described later, and the range within the AF frame specified by the AF frame information is obtained. The AF area is designated as the AF area. Then, the focus evaluation value obtained from the image (video signal) in the AF area is acquired from the AF processing unit.

このようにしてAF用撮像回路から1画面分の映像信号が取得されるごとに(AF処理部で焦点評価値が求められるごとに)AF処理部から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AF枠内の被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。   In this way, every time a video signal for one screen is acquired from the AF imaging circuit (each time the focus evaluation value is obtained by the AF processing unit), the focus evaluation value is acquired from the AF processing unit, and the acquired focus is obtained. The focus lens group is controlled so that the evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF frame is maximum. For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF frame is automatically focused.

なお、上述のAF処理部は、焦点評価値を算出するためにレンズ装置に搭載されたAF用撮像素子から映像信号を取得しているが、カメラ本体12の撮像素子より撮影された映像の映像信号をカメラ本体12から取得するような構成としてもよい。また、AF枠内の被写体に自動でピントを合わせるためのAF手段はどのようなものであってもよい。   Note that the above-described AF processing unit obtains a video signal from the AF image sensor mounted on the lens apparatus in order to calculate the focus evaluation value, but the video image captured by the image sensor of the camera body 12 It is good also as a structure which acquires a signal from the camera main body 12. FIG. Also, any AF means for automatically focusing on the subject within the AF frame may be used.

また、カメラ本体12とレンズ装置14、レンズ装置14と後述の画像処理ユニット18とは、各装置に設けられたシリアル通信コネクタが直接的又はケーブル等を介して接続される。これによって、カメラ本体12とレンズ装置14とが、それぞれに設けられたシリアル通信インターフェイス(SCI)12a及び14aを介して様々な情報の送受信をシリアル通信により行うようになっている。また、レンズ装置14と画像処理ユニット18とが、それぞれに設けられたシリアル通信インターフェイス14a及び30aとの間で様々な情報の送受信をシリアル通信により行うようになっている。   In addition, the camera body 12 and the lens device 14, and the lens device 14 and an image processing unit 18 described later are connected to each other directly or via a cable or the like. As a result, the camera body 12 and the lens device 14 transmit and receive various kinds of information by serial communication via serial communication interfaces (SCI) 12a and 14a provided respectively. In addition, the lens device 14 and the image processing unit 18 transmit and receive various kinds of information to and from the serial communication interfaces 14a and 30a provided in the respective units by serial communication.

また、カメラ本体12の映像出力コネクタと画像処理ユニット18の映像入力コネクタとが、ダウンコンバータ28を介してケーブルで接続される。これによって、カメラ本体12の映像出力コネクタから出力されたHDTV信号は、ダウンコンバータ28によって、標準テレビ[NTSC(National Television System Committee)]方式の映像信号(SDTV信号)に変換(ダウンコンバート)されて、画像処理ユニット18に入力されるようになっている。   Further, the video output connector of the camera body 12 and the video input connector of the image processing unit 18 are connected via a down converter 28 with a cable. As a result, the HDTV signal output from the video output connector of the camera body 12 is converted (down-converted) into a standard television [NTSC (National Television System Committee)] video signal (SDTV signal) by the down converter 28. Are input to the image processing unit 18.

詳しくは後述するが、画像処理ユニット18は、撮像された被写体画像中の被写体人物について顔認証を行い、それがオートフォーカスをかけて自動追尾するように設定された被写体(フォーカス対象)であると認定された場合には、AFユニット26を通じてレンズ装置14をオートフォーカス制御するものである。   As will be described in detail later, the image processing unit 18 performs face authentication on the subject person in the captured subject image, and indicates that it is a subject (focus target) set to automatically track with autofocus. If it is certified, the lens device 14 is autofocus controlled through the AF unit 26.

また、顔認証を行い、現在撮影中の被写体がオートフォーカスをかけて自動追尾する対象であるか否かを判定するためには、HDTV信号による高精細な画像である必要はなく、標準テレビ方式の映像信号(SDTV信号)の画像で充分であるので、上述したように、カメラ本体12から出力されたHDTV信号をダウンコンバータ28によってSDTV信号に変換するようにしたものである。   In addition, in order to perform face authentication and determine whether or not the subject currently being shot is an object to be automatically tracked with autofocus, it is not necessary to be a high-definition image using an HDTV signal. Therefore, as described above, the HDTV signal output from the camera body 12 is converted into the SDTV signal by the down converter 28.

画像処理ユニット18は、上記のようにレンズ装置14のAFユニット26によりAFによるフォーカス制御を実施する際のAF枠の範囲(位置、大きさ、形状(縦横比))の指定を行うための装置であり、テレビカメラ10の撮影画像(撮影画面)内でのAF枠の範囲を指定するAF枠情報が画像処理ユニット18からレンズ装置14に上記シリアル通信により与えられるようになっている。AFユニット26では、画像処理ユニット18からのAF枠情報に基づいてAF枠の範囲を設定して上記のようにAFの処理を実行する。   The image processing unit 18 is a device for designating the range (position, size, shape (aspect ratio)) of the AF frame when the AF unit 26 of the lens device 14 performs focus control by AF as described above. Thus, AF frame information for designating the range of the AF frame in the photographed image (photographing screen) of the television camera 10 is given from the image processing unit 18 to the lens device 14 by the serial communication. The AF unit 26 sets the range of the AF frame based on the AF frame information from the image processing unit 18 and executes the AF process as described above.

画像処理ユニット18は、主としてメインボード30、パターンマッチング処理演算ボード32、顔認証処理演算ボード34から構成されている。メインボード30、パターンマッチング処理演算ボード32、顔認証処理演算ボード34の各々にはCPU38、50、52が搭載されており、各ボード毎に個別の演算処理が行われると共に、各CPU38、50、52は、バスや制御線で接続され、相互にデータのやり取りや、演算処理の同期等が図られるようになっている。また、画像処理ユニット18は、顔認証処理を行うための顔認証データを格納した顔認証データカード74を有している。   The image processing unit 18 mainly includes a main board 30, a pattern matching processing calculation board 32, and a face authentication processing calculation board 34. The main board 30, the pattern matching processing calculation board 32, and the face authentication processing calculation board 34 are equipped with CPUs 38, 50, and 52, and individual calculation processing is performed for each board, and each of the CPUs 38, 50, 52 are connected by a bus or a control line so that data can be exchanged and arithmetic processing can be synchronized with each other. The image processing unit 18 includes a face authentication data card 74 that stores face authentication data for performing face authentication processing.

画像処理ユニット18における処理は、メインボード30において統括的に行われるようになっている。そのメインボード30には、演算処理を行う上記CPU38の他に、SCI30a、デコーダ(A/D変換器)36、スーパーインポーザ42、RAM40等が搭載されている。   The processing in the image processing unit 18 is performed on the main board 30 in an integrated manner. The main board 30 is equipped with an SCI 30a, a decoder (A / D converter) 36, a superimposer 42, a RAM 40, and the like, in addition to the CPU 38 that performs arithmetic processing.

SCI30aは、上述のようにレンズ装置14のSCI14aとの間でシリアル通信を行うためのインターフェイス回路であり、上記AF枠情報等をレンズ装置14に送信する。   The SCI 30a is an interface circuit for performing serial communication with the SCI 14a of the lens device 14 as described above, and transmits the AF frame information and the like to the lens device 14.

デコーダ36は、上記ダウンコンバータ28から画像処理ユニット18に入力されるテレビカメラ10において撮影映像の映像信号(SDTV信号)を、画像処理ユニット18においてデジタル処理可能なデータに変換するための回路であり、アナログのSDTV信号をデジタルデータの映像信号に変換するA/D変換処理等を行っている。   The decoder 36 is a circuit for converting a video signal (SDTV signal) of a captured video input to the image processing unit 18 from the down converter 28 into data that can be digitally processed by the image processing unit 18. A / D conversion processing for converting an analog SDTV signal into a video signal of digital data is performed.

RAM40は、CPU38の演算処理において使用するデータを一時的に格納するメモリである。   The RAM 40 is a memory that temporarily stores data used in the arithmetic processing of the CPU 38.

一方、パターンマッチング処理演算ボード32や顔認証処理演算ボード34は、パターンマッチングと顔検出・認証処理を個別に行うための演算ボードであり、各々、演算処理を行うCPU50、52の他に画像データを一時的に格納するVRAM54、56等を備えている。   On the other hand, the pattern matching processing calculation board 32 and the face authentication processing calculation board 34 are calculation boards for individually performing pattern matching and face detection / authentication processing. In addition to the CPUs 50 and 52 that perform calculation processing, image data VRAM 54, 56, etc. are temporarily stored.

また、画像処理ユニット18には、操作部20が一体的に設けられ、又は、操作部20の一部又は全ての操作部材が画像処理ユニット18とは別体の装置に設けられてケーブル等で接続されている。   The image processing unit 18 is provided with an operation unit 20 integrally, or a part or all of the operation members of the operation unit 20 are provided in a separate device from the image processing unit 18 and are connected by a cable or the like. It is connected.

詳細は省略するが、操作部20には、AF枠の位置をユーザの手動操作により上下左右に移動させるための位置操作部材60(例えば、ジョイスティックやトラックボール)、AF枠の大きさを手動操作により変更するためのサイズ操作部材62(例えば、ツマミ)、AF枠の形状を手動操作により変更するための形状操作部材64(例えば、ツマミ)、自動追尾の開始を指示する追尾開始スイッチ68、自動追尾の停止を指示する追尾停止スイッチ70が設けられており、これらの操作部材60、62、64、68、70の設定状態が、画像処理ユニット18におけるメインボード30のCPU38により読み取られるようになっている。   Although details are omitted, the operation unit 20 includes a position operation member 60 (for example, a joystick or a trackball) for moving the position of the AF frame up and down and left and right manually by the user, and manually operating the size of the AF frame. A size operation member 62 (for example, a knob) for changing the shape of the AF frame, a shape operation member 64 (for example, the knob) for changing the shape of the AF frame by manual operation, a tracking start switch 68 for instructing the start of automatic tracking, automatic A tracking stop switch 70 for instructing the stop of tracking is provided, and the setting states of these operation members 60, 62, 64, 68, 70 are read by the CPU 38 of the main board 30 in the image processing unit 18. ing.

なお、タッチパネル付LCD66は、AF枠の自動追尾に関するモード等の設定をタッチ操作で入力できるようにしたもので、画像処理ユニット18のCPU38によりLCD66に表示される画像は、設定内容に応じて適宜切り換えられるようになっている。   The LCD 66 with a touch panel is configured so that settings such as a mode related to automatic tracking of the AF frame can be input by a touch operation. An image displayed on the LCD 66 by the CPU 38 of the image processing unit 18 is appropriately selected according to the setting content. It can be switched.

また、タッチパネル付LCD66に表示される画像は、メインボード30のスーパーインポーザ42を介して与えられるようになっており、そのスーパーインポーザ42では、デコーダ36から与えられるテレビカメラ10の撮影映像の映像信号と、CPU38で生成される画像信号の合成が行えるようになっている。これによって、カメラ本体12に設定されているビューファインダ13と同様にテレビカメラ10で撮影されている撮影映像と現在設定されているAF枠の画像とを重畳させた映像をタッチパネル付LCD66に表示させることが可能であり、この画面上でのタッチ操作により、ユーザは、上記操作部材60、62、64、68、70で行うのと同様の操作を行うことができるようになっている。   Further, the image displayed on the LCD 66 with a touch panel is given via the superimposer 42 of the main board 30, and the superimposer 42 takes a video image taken by the TV camera 10 given from the decoder 36. The video signal and the image signal generated by the CPU 38 can be synthesized. As a result, similar to the viewfinder 13 set in the camera body 12, an image obtained by superimposing the captured image captured by the television camera 10 and the image of the AF frame currently set is displayed on the LCD 66 with a touch panel. The user can perform the same operation as that performed by the operation members 60, 62, 64, 68 and 70 by the touch operation on the screen.

また、操作部20には、タッチパネル付LCD66の他に、外部モニタ72が設けられており、タッチパネル付LCD66に表示されるのと同じ画像が表示されるようになっている。そして、外部モニタ72は、カメラマン以外の例えばフォーカスマンなどがこれを見て、そのタッチパネル機能により適宜指示を入力することができるようになっている。   In addition to the LCD 66 with a touch panel, the operation unit 20 is provided with an external monitor 72 so that the same image as that displayed on the LCD 66 with a touch panel is displayed. The external monitor 72 allows a focus man other than the cameraman, for example, to see it and input an appropriate instruction using the touch panel function.

本実施形態は、AF枠を自動追尾するシステムにおいて、パターンマッチングで人物を追尾した場合に、画面内に複数の人物がいて、その人物同士が交差したときにも追尾不能とはならずに、追尾対象を確実に追尾することができるようにしたものである。   In this embodiment, in a system for automatically tracking an AF frame, when a person is tracked by pattern matching, there are a plurality of persons on the screen, and even when the persons cross each other, tracking is not impossible. The tracking target can be reliably tracked.

次に、フローチャートに沿って本発明に係るオートフォーカスシステムの作用について説明する。   Next, the operation of the autofocus system according to the present invention will be described with reference to a flowchart.

図2は、本発明の一実施形態の作用を示すフローチャートである。   FIG. 2 is a flowchart showing the operation of one embodiment of the present invention.

まず、図2のステップS100において、カメラマンは撮影を開始するにあたり、ビューファインダ13あるいはタッチパネル付LCD66の画面に表示された映像及びAF枠を見ながら操作部20の位置操作部材60、サイズ操作部材62、形状操作部材64等の操作部材を操作し、ピント合わせの対象として追尾する対象物がAF枠の範囲に収まるようにAF枠の範囲を設定する。これによって、レンズ装置14のレンズCPUにおけるAFの処理によりその対象物にピントが合わせられる。   First, in step S100 of FIG. 2, when the photographer starts shooting, the position operation member 60 and the size operation member 62 of the operation unit 20 are viewed while viewing the image and the AF frame displayed on the screen of the viewfinder 13 or the LCD 66 with the touch panel. Then, the operation member such as the shape operation member 64 is operated, and the range of the AF frame is set so that the object to be tracked as the focus adjustment target falls within the range of the AF frame. As a result, the object is brought into focus by AF processing in the lens CPU of the lens device 14.

ステップS102において追尾がスタートすると、ステップS104において、画像処理ユニット18のCPU38は、レンズ装置14のAFユニット26(AF処理部)から与えられる映像信号から1画面分(1フレーム分)の撮影画像を取り込む。   When tracking starts in step S102, in step S104, the CPU 38 of the image processing unit 18 captures a captured image for one screen (one frame) from the video signal supplied from the AF unit 26 (AF processing unit) of the lens device 14. take in.

そして、ステップS106、S108、S110において、それぞれ後でパターンマッチングに用いられる基準パターンを登録するためのバッファを確保して、当初取り込まれた撮影画像から得られた追尾対象である同じ画像をそれぞれに格納し、基準パターンA、基準パターンB、基準パターンCとする。ここで基準パターンBや基準パターンCは今後取り込まれた画像に応じて、基準パターンCは最新の画像として、また基準パターンBはその次に最新の画像に近い画像としてそれぞれ更新されるが、基準パターンAは最初に登録した基準パターンとしてずっと保存される。   In steps S106, S108, and S110, a buffer for registering a reference pattern to be used later for pattern matching is secured, and the same target image to be tracked obtained from the originally captured image is obtained. Stored as reference pattern A, reference pattern B, and reference pattern C. Here, the reference pattern B and the reference pattern C are updated as the latest image, and the reference pattern B is updated as the image closest to the latest image, depending on the image captured in the future. Pattern A is always stored as the first registered reference pattern.

次にステップS112において、画像処理ユニット18は、前回の画像取り込みから所定時間経過した後に1画面分の撮影画像を前回と同様に取り込む。   In step S112, the image processing unit 18 captures one screen of the captured image in the same manner as the previous time after a predetermined time has elapsed since the previous image capture.

次にステップS114において、今取り込んだ撮影画像と、最新の画像として登録された基準パターンCとに対して、パターンマッチング処理演算ボード50においてパターンマッチング処理を行い、いわば2つの画像の類似度を表す相関値を算出する。   Next, in step S114, pattern matching processing is performed in the pattern matching processing calculation board 50 on the captured image that has been captured and the reference pattern C registered as the latest image, so that the similarity between the two images is expressed. A correlation value is calculated.

ここで一般に、2つの確率変数X、Yの相関値(相関係数)γxyとは、これらの共分散μxyと、各確率変数の標準偏差σx、及びσyの積σx・σyとの比を言う。   In general, the correlation value (correlation coefficient) γxy of the two random variables X and Y is a ratio of the covariance μxy to the product σx · σy of the standard deviation σx and σy of each random variable. .

すなわち、相関値γxy=μxy/σx・σyである。   That is, the correlation value γxy = μxy / σx · σy.

従ってこの場合には、相関値cは、例えば以下のように定義される。すなわち、座標(x,y)における基準パターン画像の画素値がf(x,y)であり、これと比較される撮影画像の画素値がg(x,y)であるとする。また、撮影画像を基準パターン画像からx方向にm、及びy方向にnだけずらした画素値をg(m+x,n+y)とし、f(x,y)及びg(m+x,n+y)を確率変数と考えて、この撮影画像を基準パターン画像に重ねたときの両者の相関値をc(m,n)とする。   Therefore, in this case, the correlation value c is defined as follows, for example. That is, it is assumed that the pixel value of the reference pattern image at the coordinates (x, y) is f (x, y), and the pixel value of the captured image compared with this is g (x, y). A pixel value obtained by shifting the captured image by m in the x direction and n in the y direction from the reference pattern image is defined as g (m + x, n + y), and f (x, y) and g (m + x, n + y) are defined as random variables. Considering this, assume that the correlation value between the captured image and the reference pattern image is c (m, n).

所定の領域における基準パターン画像及び撮影画像の画素値の平均値をそれぞれfav、gavとすると、相関値c(m,n)は、以下の式(1)で定義される。 When the average values of the pixel values of the reference pattern image and the photographed image in a predetermined area are respectively f av and g av , the correlation value c (m, n) is defined by the following equation (1).

c(m,n)
={ Σ(|f(x,y)−fav|×|g(m+x,n+y)−gav|)
/(Σ|f(x,y)−fav|×Σ|g(m+x,n+y)−gav|1/2
・・・(1)
ここで、式(1)中のΣは、所定領域におけるx及びyについての和を表す。
c (m, n)
= {Σ (| f (x, y) −f av | × | g (m + x, n + y) −g av |)
/ (Σ | f (x, y) −f av | 2 × Σ | g (m + x, n + y) −g av | 2 ) 1/2 }
... (1)
Here, Σ in equation (1) represents the sum of x and y in a predetermined region.

相関値は0と1との間の値をとり、相関が高い(すなわち2つの画像が類似している程)1に近い値をとる。   The correlation value takes a value between 0 and 1, and takes a value close to 1 when the correlation is high (that is, the more similar the two images are).

次にステップS116において、今求めた相関値cが90%より大きい(すなわち、相関値cが0.9より大)か否か判断する。   Next, in step S116, it is determined whether or not the correlation value c just found is greater than 90% (that is, the correlation value c is greater than 0.9).

その結果相関値cが90%より大のとき、すなわち今取り込んだ撮影画像が基準パターンCとよく類似している場合には、次のステップS118において、この撮影画像で基準パターンBを更新する。もしこれが基準パターンBのはじめての更新である場合には、それまで基準パターンBには、基準パターンAに登録されているものと同じ最初の撮影画像が登録されており、それをより新しい画像で置き換えることとなる。   As a result, when the correlation value c is greater than 90%, that is, when the captured image that has been captured is very similar to the reference pattern C, the reference pattern B is updated with the captured image in the next step S118. If this is the first update of the reference pattern B, the reference image B has been registered with the same first photographed image as that registered in the reference pattern A until then. Will be replaced.

次に、ステップS120において、上で算出された相関値c(m,n)により、追尾対象が移動したか否か判断する。m、nが0でないところで相関値c(m,n)が高くなっている場合には、追尾対象が画像上で、いままでの(x,y)の位置から(m+x,n+y)の位置まで移動したことになる。   Next, in step S120, it is determined whether the tracking target has moved based on the correlation value c (m, n) calculated above. When the correlation value c (m, n) is high when m and n are not 0, the tracking target is from the position (x, y) so far to the position (m + x, n + y) on the image. It has moved.

追尾対象が移動していると判断された場合には、次のステップS122において、この最新の画像によって基準パターンCを更新する。   If it is determined that the tracking target is moving, the reference pattern C is updated with the latest image in the next step S122.

そして、追尾対象が移動している場合には、次のステップS124において、移動後の追尾対象に合わせてAF枠を更新する。   If the tracking target is moving, the AF frame is updated in accordance with the tracking target after the movement in the next step S124.

また追尾対象が移動していない場合には、基準パターンCもAF枠も更新せずに、ステップS112に戻り次の画像を取り込み、同様の処理を繰り返す。   If the tracking target has not moved, the process returns to step S112 without updating the reference pattern C and the AF frame, and the same process is repeated.

また一方、ステップS116において、相関値c(m,n)が90%より大きくないと判断された場合には、次にステップS126において、今度は相関値c(m,n)が80%より大きいか否か判断する。   On the other hand, if it is determined in step S116 that the correlation value c (m, n) is not greater than 90%, then in step S126, the correlation value c (m, n) is now greater than 80%. Determine whether or not.

そして相関値c(m,n)が80%より大きいと判断された場合には、基準パターンBを更新することなく、ステップS120へ進み、追尾対象が移動したか否か判断し、移動している場合には、その次のステップS122において、この撮影画像で基準パターンCを更新する。   If it is determined that the correlation value c (m, n) is greater than 80%, the process proceeds to step S120 without updating the reference pattern B, and it is determined whether or not the tracking target has moved. If there is, the reference pattern C is updated with the captured image in the next step S122.

また、ステップS116において、相関値c(m,n)が80%より大きくないと判断された場合には、ステップS128において、この撮影画像を基準パターンAとパターンマッチングを行い、このときの相関値を計算する。   If it is determined in step S116 that the correlation value c (m, n) is not greater than 80%, the captured image is subjected to pattern matching with the reference pattern A in step S128, and the correlation value at this time is determined. Calculate

ステップS130において、この撮影画像と基準パターンAとの相関値が80%より大きいか否か判断する。   In step S130, it is determined whether or not the correlation value between the captured image and the reference pattern A is greater than 80%.

このとき、この相関値が80%より大きい場合には、次のステップS132において、この撮影画像で基準パターンBを更新する。その後はステップS120へ進み、撮影画像が移動したか否か判断する。   At this time, if the correlation value is greater than 80%, the reference pattern B is updated with the captured image in the next step S132. Thereafter, the process proceeds to step S120, and it is determined whether or not the photographed image has moved.

また、ステップS130において、相関値が80%より大きくないと判断された場合には、ステップ134において、この撮影画像と基準パターンBとでパターンマッチングを行い、このときの相関値を算出する。   If it is determined in step S130 that the correlation value is not greater than 80%, pattern matching is performed between the captured image and the reference pattern B in step 134, and the correlation value at this time is calculated.

そして、この撮影画像と基準パターンBとの相関値が80%より大きい場合には、ステップS132に進み、この撮影画像で基準パターンBを更新する。このように、相関値が下がる前の画像を記憶しておくようにする。その後ステップS120へ進み、追尾対象が移動したか否か判断する。   If the correlation value between the captured image and the reference pattern B is greater than 80%, the process proceeds to step S132, and the reference pattern B is updated with the captured image. In this way, the image before the correlation value is lowered is stored. Thereafter, the process proceeds to step S120, where it is determined whether the tracking target has moved.

また、ステップS136において、この撮影画像と基準パターンBとの相関値が80%より大きくない場合には、もうこの撮影画像は追尾対象ではないと判断して、このように相関値が下がったら追尾を中止するとともに、ステップS112に戻り、次の画像取り込みを行い、最初と相関値が下がる前に格納した基準パターンとのパターンマッチングを繰り返していく。そして、相関値が上がったら画面中から追尾対象が再び検出されたとして追尾を再開するようにする。   In step S136, if the correlation value between the captured image and the reference pattern B is not greater than 80%, it is determined that the captured image is no longer a tracking target, and if the correlation value decreases in this way, tracking is performed. , The process returns to step S112, the next image is captured, and the pattern matching with the reference pattern stored before the correlation value decreases is repeated. When the correlation value increases, tracking is resumed assuming that the tracking target is detected again from the screen.

結局、基準パターンB、Cには、相関値が所定値以上に下がる直前の画像が常に登録され、特に基準パターンCには、常に、最初の登録画像とある程度の類似度を有する最新の画像が登録されることとなる。   After all, the images immediately before the correlation value falls below a predetermined value are always registered in the reference patterns B and C, and in particular, the latest image having a certain degree of similarity with the first registered image is always registered in the reference pattern C. It will be registered.

以上フローチャートに沿って説明したが、これを図3に示す具体例に即して説明することとする。   The description has been given with reference to the flowchart, and this will be described according to a specific example shown in FIG.

まず図3(a)に示すように、今撮影画面中の人物Pを追尾しているものとし、人物Pの顔の部分にAF枠90が表示されている。この顔の画像が最初の基準パターンとして登録されている。その後パターンマッチングに使用する基準パターンは、一定の周期で更新される。   First, as shown in FIG. 3A, it is assumed that the person P in the current shooting screen is being tracked, and an AF frame 90 is displayed on the face portion of the person P. This face image is registered as the first reference pattern. Thereafter, the reference pattern used for pattern matching is updated at a constant cycle.

なお、ここで一定の周期とは、パターンマッチングの1サイクルが速すぎると相関値が下がらないため、人物が交差しても追尾してしまうので、数サイクルにつき、1回更新するぐらいの程度が好ましい。   Note that the constant period here means that if one cycle of pattern matching is too fast, the correlation value will not decrease, and tracking will occur even if people cross, so it will only be updated once every several cycles. preferable.

次に図3(b)に示すように、人物Pが移動して人物Qと交差するような状況が生じたとする。このとき、AF枠90には人物P以外の物体も入ってきて、このAF枠90内の画像を最初の基準パターンとパターンマッチングした場合には、相関値が1(100%)よりもかなり低くなってしまう。そして人物Pがさらに移動して人物Qの陰に隠れると相関値は0に近い値となり、追尾が中止される。   Next, as shown in FIG. 3B, it is assumed that a situation occurs in which the person P moves and intersects the person Q. At this time, an object other than the person P also enters the AF frame 90, and when the image in the AF frame 90 is pattern-matched with the first reference pattern, the correlation value is considerably lower than 1 (100%). turn into. When the person P further moves and hides behind the person Q, the correlation value becomes a value close to 0, and the tracking is stopped.

そして、相関値が下がる前の基準パターンを記憶しておき、その後は相関値が下がる前に記憶した基準パターンとのパターンマッチングを繰り返すようにする。   Then, the reference pattern before the correlation value decreases is stored, and thereafter, pattern matching with the reference pattern stored before the correlation value decreases is repeated.

そして、図3(c)に示すように、さらに人物Pが移動して人物Qの向こう側に再び姿を現し、相関値が下がる前に記憶した基準パターンとパターンマッチングを行った結果、相関値がまた上がった場合には、人物Pの顔に対してAF枠90を再度設定して追尾を再開する。   Then, as shown in FIG. 3C, as a result of performing pattern matching with the reference pattern stored before the person P moves and reappears behind the person Q and the correlation value decreases, the correlation value is obtained. Is again raised, the AF frame 90 is set again for the face of the person P, and tracking is resumed.

このように本実施形態においては、相関値が所定値より下がった場合には、追尾を中止するようにしたため、人物が交差したような場合に、今まで追尾していた人物とは違う人物の追尾を始めてしまうというような追尾の失敗を防止することができる。   As described above, in the present embodiment, when the correlation value falls below a predetermined value, the tracking is stopped. Therefore, when a person crosses, the person who is different from the person who has been tracked so far It is possible to prevent tracking failure such as starting tracking.

次に、本発明の他の実施形態について説明する。上で説明した実施形態においては、3つの基準パターンA、B、Cを用いたが、これから説明する実施形態は、2つの基準パターンA、Cのみを用いるものである。   Next, another embodiment of the present invention will be described. In the embodiment described above, three reference patterns A, B, and C are used. However, in the embodiment described below, only two reference patterns A and C are used.

図4は、本発明の他の実施形態の作用を示すフローチャートであり、以下このフローチャートに沿って説明する。   FIG. 4 is a flowchart showing the operation of another embodiment of the present invention, which will be described below with reference to this flowchart.

まず図4のステップS200において、カメラマンはAF枠を設定する。そして、ステップS202で追尾をスタートし、ステップS204で画像を取り込む。そして、ステップS206、S208において、この取り込んだ撮影画像を基準パターンA及び基準パターンCとして登録する。   First, in step S200 of FIG. 4, the cameraman sets an AF frame. In step S202, tracking is started, and an image is captured in step S204. In step S206 and S208, the captured images are registered as a reference pattern A and a reference pattern C.

前述した実施形態と同様に、基準パターンAは追尾対象を示す最初の画像であり、更新されることなくこのままずっと保存される。一方基準パターンCは、最新の画像が格納されるように常に更新される。   Similar to the above-described embodiment, the reference pattern A is the first image indicating the tracking target, and is stored as it is without being updated. On the other hand, the reference pattern C is constantly updated so that the latest image is stored.

ステップS210において、一定の時間間隔で撮影画像が取り込まれる。そして、ステップS212において、今取り込まれた撮影画像と基準パターンCとでパターンマッチング処理が行われ、相関値が算出される。   In step S210, captured images are captured at regular time intervals. In step S212, pattern matching processing is performed on the captured image that has been captured and the reference pattern C, and a correlation value is calculated.

そして、ステップS214において、算出された相関値が90%より大きいか否か判断される。   In step S214, it is determined whether the calculated correlation value is greater than 90%.

その結果、相関値が90%よりも大きいと判断された場合には、ステップS216において、追尾対象が撮影画面内で移動したか否か判断する。   As a result, if it is determined that the correlation value is greater than 90%, it is determined in step S216 whether or not the tracking target has moved within the shooting screen.

そして、追尾対象が移動したと判断された場合には、ステップS218において、現在の撮影画像で基準パターンCを更新する。このように、相関値が下がる前の画像を基準パターンCとして記憶するようにする。さらに、ステップS220において、撮影画面内で移動した追尾対象に合わせてAF枠も更新する。その後、ステップS210に戻り次の画像を取り込み、上と同様の処理を繰り返す。   If it is determined that the tracking target has moved, the reference pattern C is updated with the current captured image in step S218. In this way, the image before the correlation value is lowered is stored as the reference pattern C. Further, in step S220, the AF frame is also updated in accordance with the tracking target moved within the shooting screen. Thereafter, the process returns to step S210, the next image is captured, and the same processing as above is repeated.

また、追尾対象が移動していない場合には、基準パターンCもAF枠も更新することなく、ステップS210に戻り次の画像を取り込み、上の処理を繰り返す。   If the tracking target is not moved, the process returns to step S210 without updating the reference pattern C and the AF frame, and the next process is repeated.

一方、ステップS214で相関値が90%よりも大きくないと判断された場合には、ステップS222において、撮影画像と最初に登録された基準パターンAとの間でパターンマッチングが行われる。   On the other hand, if it is determined in step S214 that the correlation value is not greater than 90%, pattern matching is performed between the captured image and the first registered reference pattern A in step S222.

これは、ステップS214における判断で、すでに更新され最新のものとなっている基準パターンCとではマッチングせず、追尾対象を見失ったと判断して、再度追尾開始当初の画像と比較することで追尾対象を再発見して追尾を再開しようとするものである。   This is because the determination in step S214 does not match the reference pattern C that has already been updated and is the latest one, determines that the tracking target has been lost, and compares the tracking target with the image at the beginning of tracking again. Is to rediscover and resume tracking.

そして、ステップS224において、上で撮影画像と基準パターンAとをパターンマッチングして算出した相関値が80%より大きいか否か判断する。   In step S224, it is determined whether or not the correlation value calculated by pattern matching the captured image and the reference pattern A is greater than 80%.

この相関値が80%より大きい場合には、ステップS216に進み、追尾対象が撮影画面内で移動したか否か判断し、以下前と同じ処理を行う。   If the correlation value is greater than 80%, the process proceeds to step S216, where it is determined whether the tracking target has moved within the shooting screen, and the same processing as before is performed.

また、相関値が80%より大きくない場合には、例えば、追尾していた人物の前に他の人物が交差するなどして相関値が下がってしまったような場合で、このような場合には追尾を中止して、ステップS210に戻り次の画像を取り込み、再び最初の基準パターンAが検出されたら追尾を再開し、上の処理を繰り返すようにする。   Further, when the correlation value is not larger than 80%, for example, when the correlation value is lowered due to, for example, another person crossing in front of the person being tracked, in such a case Stops tracking, returns to step S210, captures the next image, resumes tracking when the first reference pattern A is detected again, and repeats the above processing.

以上説明した本発明の実施形態においては、最初の登録画像をずっと保持する基準パターンと常に最新の画像を記憶する基準パターンの少なくとも2つの基準パターンを持ち、通常は最新の基準パターンと撮影画像とでパターンマッチングを行い、追尾対象を追尾して行く。そしてパターンマッチングにより相関値を算出し、この相関値が一定値より大きい場合には、そのときの画像で基準パターンを更新することにより、常に一つの基準パターンには最新の画像が記憶される。また、相関値が一定値より小さくなった場合には、追尾を中止する。そして、次の撮影画像を取り込み、最初の基準パターンとパターンマッチングを行い、最初の追尾対象が検出された場合に、再び追尾を開始するようにする。   In the embodiment of the present invention described above, there are at least two reference patterns, that is, a reference pattern that always holds the first registered image and a reference pattern that always stores the latest image. Perform pattern matching with, and track the tracking target. Then, a correlation value is calculated by pattern matching, and if this correlation value is larger than a certain value, the latest pattern is always stored in one reference pattern by updating the reference pattern with the image at that time. Further, when the correlation value becomes smaller than a certain value, tracking is stopped. Then, the next captured image is captured, pattern matching with the first reference pattern is performed, and tracking is started again when the first tracking target is detected.

このようにして、結局、相関値が一定値より小さくなって追尾を中止するときの直前の画像が一つの基準パターンに記憶されるようになっている。   In this way, the correlation value becomes smaller than a certain value, and the image immediately before the tracking is stopped is stored in one reference pattern.

これにより、人物が交差して追尾対象を見失ってしまうような場合でも、一旦追尾を中止し、その後最初の追尾対象が検出されたら追尾を再開することで、追尾対象でないものを追尾してしまうような追尾の失敗を防止することができる。   As a result, even if a person crosses and loses sight of the tracking target, tracking is temporarily stopped and then tracking is resumed when the first tracking target is detected, thereby tracking what is not the tracking target. Such a tracking failure can be prevented.

以上、本発明のオートフォーカスシステムについて詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。   The autofocus system of the present invention has been described in detail above, but the present invention is not limited to the above examples, and various improvements and modifications may be made without departing from the scope of the present invention. Of course.

本発明に係るオートフォーカスシステムが適用されたビデオカメラシステムの一実施形態の全体構成を示したブロック図である。1 is a block diagram showing an overall configuration of an embodiment of a video camera system to which an autofocus system according to the present invention is applied. 本発明の一実施形態の作用を示すフローチャートである。It is a flowchart which shows the effect | action of one Embodiment of this invention. (a)〜(c)は、本実施形態の作用を具体例で示す説明図である。(A)-(c) is explanatory drawing which shows the effect | action of this embodiment by a specific example. 本発明の他の実施形態の作用を示すフローチャートである。It is a flowchart which shows the effect | action of other embodiment of this invention.

符号の説明Explanation of symbols

1…ビデオカメラシステム、10…テレビカメラ、12…カメラ本体、13…ビューファインダ、14…レンズ装置、16…被写体、18…画像処理ユニット、20…操作部、24…撮影レンズ、26…AFユニット、28…ダウンコンバータ、30…メインボード、32…パターンマッチング処理演算ボード、34…顔認証処理演算ボード、66…タッチパネル付LCD、72…外部モニタ   DESCRIPTION OF SYMBOLS 1 ... Video camera system, 10 ... Television camera, 12 ... Camera body, 13 ... Viewfinder, 14 ... Lens apparatus, 16 ... Subject, 18 ... Image processing unit, 20 ... Operation part, 24 ... Shooting lens, 26 ... AF unit 28 ... down converter, 30 ... main board, 32 ... pattern matching processing calculation board, 34 ... face authentication processing calculation board, 66 ... LCD with touch panel, 72 ... external monitor

Claims (2)

光学系により結像された被写体像を撮像する撮像手段と、
前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、
前記撮像手段によって撮像された画像範囲内の被写体の移動に合わせて前記AFエリアを移動させる追尾手段と、
追尾対象の画像である第1の基準パターンと第2の基準パターンとを登録する基準パターン登録手段と、
前記撮像手段により撮像された撮影画像の中から、前記基準パターンに最も合致する画像を検出する合致画像検出手段と、
前記合致画像検出手段により検出された画像の前記基準パターンに対する合致の度合いを示す相関値を算出する手段と、
追尾対象が移動したか否かを判断する手段と、
を備え、
最初に、追尾対象である同じ画像が前記第1の基準パターンと第2の基準パターンとして登録され、
その後、前記撮像手段により撮像された撮影画像が取り込まれて、前記第2の基準パターンに最も合致する画像が検出され、検出された画像と前記第2の基準パターンとの相関値が算出されて第1の閾値と比較され、前記第2の基準パターンとの相関値が前記第1の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動され、その後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、
前記第2の基準パターンとの相関値が第1の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第1の基準パターンに最も合致する画像が検出され、検出された撮影画像と前記第1の基準パターンとの相関値が算出されて第2の閾値と比較され、前記第1の基準パターンとの相関値が前記第2の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動され、その後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれることを特徴とするオートフォーカスシステム。
Imaging means for imaging a subject image formed by an optical system;
Auto focus means for adjusting the focus of the optical system so that a subject in a predetermined AF area out of the captured image captured by the imaging means is in focus;
Tracking means for moving the AF area in accordance with movement of a subject within an image range imaged by the imaging means;
Reference pattern registration means for registering a first reference pattern and a second reference pattern which are images to be tracked ;
Matched image detection means for detecting an image that best matches the reference pattern from the captured images captured by the imaging means;
Means for calculating a correlation value indicating a degree of match of the image detected by the match image detection means with respect to the reference pattern;
Means for determining whether or not the tracking target has moved;
With
First, the same image to be tracked is registered as the first reference pattern and the second reference pattern,
Thereafter, the captured image captured by the imaging unit is captured, an image that best matches the second reference pattern is detected, and a correlation value between the detected image and the second reference pattern is calculated. If the correlation value with the second reference pattern is larger than the first threshold value compared with the first threshold value, it is determined whether the tracking target is moving, and when the tracking target is moving, The second reference pattern is updated with the image detected by the coincidence image detecting means, the AF area is moved according to the tracking target after the movement, and then the next captured image is captured, and the tracking target is If it has not moved, the next shot image is imported as is,
When the correlation value with the second reference pattern is equal to or less than a first threshold value, an image that best matches the first reference pattern is detected from the captured images captured by the imaging unit, and the detected captured image When the correlation value between the image and the first reference pattern is calculated and compared with a second threshold value, and the correlation value with the first reference pattern is greater than the second threshold value, the tracking target moves If the tracking target is moving, the second reference pattern is updated with the image detected by the matched image detecting means, and the AF area is adjusted to the tracking target after the movement. An autofocus system that is moved, and then captures the next captured image, and captures the next captured image as it is when the tracking target has not moved .
光学系により結像された被写体像を撮像する撮像手段と、
前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、
前記撮像手段によって撮像された画像範囲内の被写体の移動に合わせて前記AFエリアを移動させる追尾手段と、
追尾対象の画像である第1の基準パターンAと第2の基準パターンBと第3の基準パターンCを登録する基準パターン登録手段と、
前記撮像手段により撮像された撮影画像の中から、前記基準パターンに最も合致する画像を検出する合致画像検出手段と、
前記合致画像検出手段により検出された画像の前記基準パターンに対する合致の度合いを示す相関値を算出する手段と、
追尾対象が移動したか否かを判断する手段と、
を備え、
最初に、追尾対象である同じ画像が前記第1の基準パターンAと第2の基準パターンBと第3の基準パターンCとして登録され、
その後、前記撮像手段により撮像された撮影画像が取り込まれて、前記第3の基準パターンCに最も合致する画像が検出され、検出された画像と前記第3の基準パターンCとの相関値が算出されて第1の閾値と比較され、前記第3の基準パターンCとの相関値が前記第1の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、
前記第3の基準パターンCとの相関値が前記第1の閾値以下の場合、前記第3の基準パターンCとの相関値が第2の閾値と比較され、前記第3の基準パターンCとの相関値が前記第2の閾値より大きい場合、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、
前記第3の基準パターンCとの相関値が前記第2の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第1の基準パターンに最も合致する画像が検出され、検出された撮影画像と前記第1の基準パターンとの相関値が算出されて第3の閾値と比較され、前記第1の基準パターンとの相関値が前記第3の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれ、
前記第1の基準パターンAとの相関値が前記第3の閾値以下の場合、前記撮像手段により撮像された撮影画像の中から前記第2の基準パターンBに最も合致する画像が検出され、検出された撮影画像と前記第2の基準パターンBとの相関値が算出されて第4の閾値と比較され、前記第2の基準パターンBとの相関値が前記第4の閾値より大きい場合、前記合致画像検出手段により検出された画像により前記第2の基準パターンBが更新された後、追尾対象が移動しているか否か判断され、追尾対象が移動している場合、前記合致画像検出手段により検出された画像により前記第3の基準パターンCが更新されるとともに、移動後の追尾対象に合わせて前記AFエリアが移動された後、次の撮影画像が取り込まれ、追尾対象が移動していない場合、そのまま次の撮影画像が取り込まれることを特徴とするオートフォーカスシステム。
Imaging means for imaging a subject image formed by an optical system;
Auto focus means for adjusting the focus of the optical system so that a subject in a predetermined AF area out of the captured image captured by the imaging means is in focus;
Tracking means for moving the AF area in accordance with movement of a subject within an image range imaged by the imaging means;
Reference pattern registration means for registering the first reference pattern A, the second reference pattern B, and the third reference pattern C, which are images to be tracked ;
Matched image detection means for detecting an image that best matches the reference pattern from the captured images captured by the imaging means;
Means for calculating a correlation value indicating a degree of match of the image detected by the match image detection means with respect to the reference pattern;
Means for determining whether or not the tracking target has moved;
With
First, the same image to be tracked is registered as the first reference pattern A, the second reference pattern B, and the third reference pattern C,
Thereafter, a captured image captured by the imaging unit is captured, an image that best matches the third reference pattern C is detected, and a correlation value between the detected image and the third reference pattern C is calculated. When the correlation value with the third reference pattern C is larger than the first threshold value, the second reference pattern B is determined by the image detected by the matched image detecting means. After the update, it is determined whether or not the tracking target is moving, and when the tracking target is moving, the third reference pattern C is updated with the image detected by the matching image detection means, After the AF area is moved according to the tracking target after movement, the next captured image is captured, and when the tracking target is not moving, the next captured image is captured as it is,
When the correlation value with the third reference pattern C is equal to or less than the first threshold value, the correlation value with the third reference pattern C is compared with the second threshold value, and the third reference pattern C is compared with the third reference pattern C. When the correlation value is larger than the second threshold value, it is determined whether or not the tracking target is moving. When the tracking target is moving, the third reference pattern is detected based on the image detected by the matching image detection unit. When C is updated and the AF area is moved in accordance with the tracking target after movement, the next captured image is captured, and when the tracking target is not moved, the next captured image is captured as it is,
When the correlation value with the third reference pattern C is less than or equal to the second threshold value, an image that most closely matches the first reference pattern is detected from the captured images captured by the imaging unit. If the correlation value between the captured image and the first reference pattern is calculated and compared with a third threshold value, and the correlation value with the first reference pattern is greater than the third threshold value, the matched image detection After the second reference pattern B is updated with the image detected by the means, it is determined whether or not the tracking target is moving. If the tracking target is moving, the matching image detection means detects the moving target. When the third reference pattern C is updated with the image and the AF area is moved in accordance with the moved tracking target, the next captured image is captured and the tracking target is not moved. Mom next photographic image is captured,
When the correlation value with the first reference pattern A is equal to or smaller than the third threshold value, an image that most closely matches the second reference pattern B is detected from the captured images captured by the imaging unit, and is detected. If the correlation value between the captured image and the second reference pattern B is calculated and compared with a fourth threshold value, and the correlation value with the second reference pattern B is greater than the fourth threshold value, After the second reference pattern B is updated with the image detected by the matching image detection means, it is determined whether or not the tracking target is moving. If the tracking target is moving, the matching image detection means The third reference pattern C is updated with the detected image, and after the AF area is moved in accordance with the tracking target after movement, the next captured image is captured and the tracking target is not moved. Place Autofocus system as characterized by the next captured image is captured.
JP2008326185A 2008-12-22 2008-12-22 Auto focus system Expired - Fee Related JP5426874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008326185A JP5426874B2 (en) 2008-12-22 2008-12-22 Auto focus system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008326185A JP5426874B2 (en) 2008-12-22 2008-12-22 Auto focus system

Publications (2)

Publication Number Publication Date
JP2010145965A JP2010145965A (en) 2010-07-01
JP5426874B2 true JP5426874B2 (en) 2014-02-26

Family

ID=42566430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008326185A Expired - Fee Related JP5426874B2 (en) 2008-12-22 2008-12-22 Auto focus system

Country Status (1)

Country Link
JP (1) JP5426874B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5167236B2 (en) * 2009-12-21 2013-03-21 キヤノン株式会社 Subject tracking device and control method thereof
JP6039184B2 (en) * 2012-01-06 2016-12-07 キヤノン株式会社 Automatic focusing device, imaging device, and automatic focusing method
US9124800B2 (en) * 2012-02-13 2015-09-01 Htc Corporation Auto burst image capture method applied to a mobile device, method for tracking an object applied to a mobile device, and related mobile device
JP5222429B2 (en) * 2012-10-18 2013-06-26 キヤノン株式会社 Subject tracking device and control method thereof
CN108460787B (en) 2018-03-06 2020-11-27 北京市商汤科技开发有限公司 Target tracking method and apparatus, electronic device, program, and storage medium
WO2019170024A1 (en) 2018-03-06 2019-09-12 北京市商汤科技开发有限公司 Target tracking method and apparatus, and electronic device and storage medium
WO2024062971A1 (en) * 2022-09-22 2024-03-28 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4283532B2 (en) * 2002-12-25 2009-06-24 パナソニック株式会社 Image recognition apparatus and method
JP2006258944A (en) * 2005-03-15 2006-09-28 Fujinon Corp Autofocus system
JP5087264B2 (en) * 2005-12-08 2012-12-05 株式会社トプコン Image processing apparatus and method
JP4961965B2 (en) * 2006-11-15 2012-06-27 株式会社ニコン Subject tracking program, subject tracking device, and camera

Also Published As

Publication number Publication date
JP2010145965A (en) 2010-07-01

Similar Documents

Publication Publication Date Title
JP4525089B2 (en) Auto focus system
US7590343B2 (en) Autofocus system
JP5455361B2 (en) Auto focus system
EP1601189A2 (en) Autofocus system
JP5426874B2 (en) Auto focus system
JP2010096962A (en) Auto focus system with af frame auto-tracking function
JP2006267221A (en) Auto focus system
JP5384172B2 (en) Auto focus system
JP2010230870A (en) Auto focus system
JP2006058431A (en) Autofocusing system
JP2010117663A (en) Autofocus system
JP4596246B2 (en) Auto focus system
JP2005338352A (en) Autofocus system
JP2006267220A (en) Auto focus system
JP4902577B2 (en) Auto focus system
JP2006258943A (en) Autofocus system
JP2009229588A (en) Autofocus system
JP2010117487A (en) Autofocus system
JP2010096963A (en) Auto focus system with af frame auto-tracking function
JP4568916B2 (en) Auto focus system
JP5048559B2 (en) Auto focus system
JP2009229586A (en) Autofocus system
JP5384173B2 (en) Auto focus system
JP2010087676A (en) Video camera system having feature determination function
JP5457008B2 (en) Autofocus system with AF frame auto-tracking function

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5426874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees