JP2010096963A - Auto focus system with af frame auto-tracking function - Google Patents

Auto focus system with af frame auto-tracking function Download PDF

Info

Publication number
JP2010096963A
JP2010096963A JP2008267294A JP2008267294A JP2010096963A JP 2010096963 A JP2010096963 A JP 2010096963A JP 2008267294 A JP2008267294 A JP 2008267294A JP 2008267294 A JP2008267294 A JP 2008267294A JP 2010096963 A JP2010096963 A JP 2010096963A
Authority
JP
Japan
Prior art keywords
frame
image
face
subject
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008267294A
Other languages
Japanese (ja)
Inventor
Kunio Tanida
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2008267294A priority Critical patent/JP2010096963A/en
Priority to US12/545,171 priority patent/US8237847B2/en
Priority to EP09011283.0A priority patent/EP2178291B1/en
Publication of JP2010096963A publication Critical patent/JP2010096963A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an auto focus system with an AF frame auto-tracking function which performs both a face detecting processing and a pattern matching processing to track a face image of a person when the face image of the person is tracked as an auto focus target, thereby more reliably tracking the face image. <P>SOLUTION: When a user sets an AF frame such that an object tracked as an auto focus target is in the AF frame (S100), an auto-tracking processing starts to detect a face image from an imported captured image (S110). Then, it is determined whether the face image is detected from a peripheral range of the AF frame (S112). If the face image is detected, the position of the AF frame is changed on the basis of the position of the face image (S118). At the same time, if the face image is not detected from the peripheral range, the pattern matching processing is performed (S114). The position of the AF frame is changed to the position of the object which is the tracking target detected by the pattern matching processing (S118). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明はAF枠自動追尾機能を備えたオートフォーカスシステムに係り、特にオートフォーカス(AF)によりピントを合わせる被写体の対象範囲とするAFエリア(AF枠)を撮影画面上で移動する所定の被写体に追尾させるAF枠自動追尾機能を備えたオートフォーカスシステムに関する。   The present invention relates to an autofocus system having an AF frame auto-tracking function, and particularly to an AF area (AF frame) that is a target range of a subject to be focused by autofocus (AF) as a predetermined subject that moves on a shooting screen. The present invention relates to an autofocus system having an AF frame automatic tracking function for tracking.

放送用又は業務用のテレビカメラシステムにおいて、所望の被写体に自動でピントを合わせるオートフォーカス機能を備えたものが知られている。この種のカメラシステムでは、一般にコントラスト方式のAFが採用されており、撮影映像のコントラストの高さを検出し、そのコントラストが最大(極大)となるように撮影光学系のフォーカスを制御することにより行われている。   2. Description of the Related Art Broadcast or commercial television camera systems are known that have an autofocus function that automatically focuses on a desired subject. This type of camera system generally employs contrast AF, and detects the height of the contrast of the captured image and controls the focus of the photographic optical system so that the contrast becomes maximum (maximum). Has been done.

また、AFによりピントを合わせる被写体の対象範囲は、通常は撮影映像の画面全体ではなく、AFエリアと称する一部の範囲に限定されており、そのAFエリア内の撮影画像(被写体画像)のコントラストが最大となるようにフォーカスを制御することによって、AFエリア内の被写体にピントが合わせられるようになっている。   In addition, the target range of the subject to be focused by AF is usually limited to a part of the range called the AF area, not the entire screen of the captured video, and the contrast of the captured image (subject image) in the AF area. By controlling the focus so as to maximize the focus, the subject in the AF area can be focused.

尚、本明細書では、AFエリアの輪郭を示す枠をAF枠と称するものとする。   In the present specification, a frame indicating the outline of the AF area is referred to as an AF frame.

更に、特許文献1には、撮影映像の画面内で移動する所望の被写体に対してAF枠を自動で追尾させ、その被写体にピントを合わせ続けるようにしたAF枠自動追尾機能を備えたオートフォーカスシステムが記載されている。AF枠の自動追尾は、撮影画像の中から追尾する被写体の画像を検出して、検出した位置にAF枠を移動させることにより行われる。その追尾する被写体の画像を検出する方法として、特許文献1では、追尾する被写体の画像を基準パターンとして記憶し、撮影画像の中から基準パターンに一致する画像をパターンマッチング処理により検出する方法が採用されている。   Further, Patent Document 1 discloses an autofocus provided with an AF frame automatic tracking function that automatically tracks an AF frame for a desired subject moving within a screen of a captured video and keeps focusing on the subject. The system is described. Automatic tracking of the AF frame is performed by detecting the image of the subject to be tracked from the captured image and moving the AF frame to the detected position. As a method for detecting the image of the subject to be tracked, Patent Document 1 employs a method in which the image of the subject to be tracked is stored as a reference pattern, and an image matching the reference pattern is detected from captured images by pattern matching processing. Has been.

また、他の方法として、追尾する被写体が人物の顔である場合には、追尾する被写体の画像として周知の顔検出処理により顔画像を検出する方法も採用することができる。
特開2006−258944号公報
As another method, when the subject to be tracked is a human face, a method of detecting a face image by a well-known face detection process as the image of the subject to be tracked can be employed.
JP 2006-258944 A

ところで、顔検出処理により検出した顔画像を追尾する場合には、その顔が例えば正面から上下左右の30度以上の向きに変化すると、顔画像であることが認識できず、追尾不要になる恐れがある。   By the way, when tracking a face image detected by the face detection process, if the face changes, for example, in the direction of 30 degrees above, below, left, or right from the front, the face image cannot be recognized, and tracking may not be necessary. There is.

一方、パターンマチング処理により所定の被写体を追尾する場合には、処理に時間がかかり、移動の速い被写体を追尾することが難しい場合もある。   On the other hand, when a predetermined subject is tracked by pattern matching processing, the processing takes time, and it may be difficult to track a fast moving subject.

本発明は、このような事情に鑑みてなされたもので、AFの対象として人物の顔(顔画像)を追尾する場合に、従来と比べてより確実その顔画像を追尾することができるAF枠自動追尾機能を備えたオートフォーカスシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and when tracking a human face (face image) as an AF target, the AF frame can track the face image more reliably than in the past. An object of the present invention is to provide an autofocus system having an automatic tracking function.

前記目的を達成するために、請求項1に係るAF枠自動追尾機能を備えたオートフォーカスシステムは、撮像手段により撮影される被写体の範囲のうちAF枠に対応する範囲内の被写体にピントが合うように、前記撮像手段に被写体像を結像する撮影光学系のフォーカスを制御するオートフォーカス手段と、前記撮像手段により得られる撮影画像の中から人物の顔の画像を検出する顔検出処理手段と、追尾対象の被写体の画像として記憶された基準パターン画像を用いて、前記撮像手段により得られる撮影画像の中から、前記追尾対象の被写体の画像をパターンマッチング処理により検出するパターンマッチング処理手段と、前記AF枠内に人物の顔の画像が含まれる場合に、前記撮像手段により得られた撮影画像に対して前記顔検出処理手段により検出された顔の画像の位置に基づいて前記AF枠の位置を決定する第1のAF枠決定手段と、前記撮像手段により得られる撮影画像に対して、前記パターンマッチング処理手段により検出された前記追尾対象の被写体の画像の位置に基づいて前記AF枠の位置を決定する第2のAF枠決定手段と、前記第1のAF枠決定手段と前記第2のAF枠決定手段のうち、いずれか一方を優先のAF枠決定手段とし、前記AF枠を、前記優先のAF枠決定手段により決定された位置に変更すると共に、前記優先のAF枠決定手段による前記AF枠の位置の決定が不能な状況となった場合には、前記AF枠を、他方のAF枠決定手段により決定された位置に変更するAF枠変更手段と、を備えたことを特徴としている。   In order to achieve the above object, an autofocus system having an AF frame automatic tracking function according to claim 1 focuses on a subject within a range corresponding to the AF frame in a range of subjects photographed by an imaging unit. As described above, an autofocus unit that controls the focus of a photographic optical system that forms a subject image on the imaging unit, and a face detection processing unit that detects an image of a person's face from the captured images obtained by the imaging unit Using a reference pattern image stored as an image of the subject to be tracked, a pattern matching processing unit for detecting an image of the subject to be tracked by a pattern matching process from a captured image obtained by the imaging unit; When a face image of a person is included in the AF frame, the face detection processing procedure is performed on the captured image obtained by the imaging unit. First AF frame determining means for determining the position of the AF frame based on the position of the face image detected by the step, and the pattern matching processing means for the captured image obtained by the imaging means. Which of the second AF frame determining means for determining the position of the AF frame based on the position of the image of the subject to be tracked, the first AF frame determining means, and the second AF frame determining means Either one is used as a priority AF frame determination means, the AF frame is changed to the position determined by the priority AF frame determination means, and the position of the AF frame cannot be determined by the priority AF frame determination means. When the situation becomes unsatisfactory, there is provided an AF frame changing means for changing the AF frame to a position determined by the other AF frame determining means.

請求項2に係るAF枠自動追尾機能を備えたオートフォーカスシステムは、請求項1に記載の発明において、 前記AF枠変更手段は、前記第1のAF枠決定手段を前記優先のAF枠決定手段とすることを特徴としている。   The autofocus system having an AF frame auto-tracking function according to claim 2 is the invention according to claim 1, wherein the AF frame changing unit is configured to replace the first AF frame determining unit with the priority AF frame determining unit. It is characterized by that.

本発明によれば、人物の顔(顔画像)を追尾対象とする場合に、顔検出処理とパターンマッチング処理のうち適切に追尾対象の顔画像を検出することできる処理方法によってAF枠の位置が変更されるため、一方の処理による自動追尾が不能な状況となっても顔画像の追尾が適切に行われるようになる。   According to the present invention, when a person's face (face image) is a tracking target, the position of the AF frame is determined by a processing method that can appropriately detect the tracking target face image among the face detection processing and the pattern matching processing. Since the change is made, the face image is appropriately tracked even when automatic tracking by one process is impossible.

本発明によれば、AFの対象として人物の顔(顔画像)を追尾する場合に、従来と比べてより確実その顔画像を追尾することができる。   According to the present invention, when a person's face (face image) is tracked as an AF target, the face image can be tracked more reliably than in the past.

以下、添付図面を参照して、本発明に係るAF枠自動追尾機能を備えたオートフォーカスシステムについて詳細に説明する。   Hereinafter, an autofocus system having an AF frame automatic tracking function according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明が適用されたビデオカメラシステムの全体構成を示したブロック図である。このビデオカメラシステムは、例えば、放送用テレビカメラでの撮影に用いられる撮像システムである。   FIG. 1 is a block diagram showing the overall configuration of a video camera system to which the present invention is applied. This video camera system is, for example, an imaging system used for shooting with a broadcast television camera.

同図に示すように、本実施形態のビデオカメラシステム1は、テレビカメラ10、画像処理ユニット18等を有して構成されている。   As shown in the figure, the video camera system 1 of the present embodiment includes a television camera 10, an image processing unit 18, and the like.

テレビカメラ10は、ハイビジョンテレビ[HD(High Definition)TV]方式に対応したHDカメラからなるカメラ本体12と、カメラ本体12のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置14とから構成される。   The television camera 10 includes a camera body 12 composed of an HD camera compatible with a high-definition television [HD (High Definition) TV] system, and a lens device 14 having a photographing lens (optical system) attached to a lens mount of the camera body 12. It consists of.

カメラ本体12には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置14の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施されてHDTV方式の映像信号(HDTV信号)として、カメラ本体12の映像信号出力端子等から外部に出力される。   The camera body 12 is equipped with an image sensor (for example, a CCD), a required signal processing circuit, and the like, and an image formed by the photographing lens of the lens device 14 is subjected to signal processing after being photoelectrically converted by the image sensor. Necessary signal processing is performed by the circuit and output as an HDTV video signal (HDTV signal) from the video signal output terminal of the camera body 12 to the outside.

また、カメラ本体12は、ビューファインダ13を備えており、テレビカメラ10により現在撮影されている映像等がビューファインダ13に表示されるようになっている。また、ビューファインダ13には、各種情報が表示されるようになっており、例えば、後述のオートフォーカスにおいてピント合わせの対象範囲となるAF枠が撮影映像に重畳されて表示されるようになっている。   In addition, the camera body 12 includes a viewfinder 13 so that an image currently captured by the television camera 10 is displayed on the viewfinder 13. Also, various information is displayed on the viewfinder 13, and for example, an AF frame that is a focus target range in autofocus described later is displayed superimposed on the captured video. Yes.

レンズ装置14は、カメラ本体12のレンズマウントに装着される撮影レンズ(ズームレンズ)24を備えている。撮影レンズ24により、被写体16がカメラ本体12の撮像素子の撮像面に結像されるようになっている。撮影レンズ24には、図示を省略するが、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、モータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、またズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。   The lens device 14 includes a photographing lens (zoom lens) 24 that is attached to the lens mount of the camera body 12. The subject 16 is imaged on the imaging surface of the imaging element of the camera body 12 by the photographing lens 24. Although not shown, the photographic lens 24 is provided with movable parts for adjusting photographing conditions such as a focus lens group, a zoom lens group, and a diaphragm as constituent parts thereof. Servo mechanism) is electrically driven. For example, the focus lens group and the zoom lens group move in the optical axis direction, the focus (subject distance) adjustment is performed by moving the focus lens group, and the focal length (zoom magnification) is adjusted by moving the zoom lens group. Adjustments are made.

なお、オートフォーカス(AF)に関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作手段(レンズ装置14に接続されるコントローラの操作手段等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。   In a system related to autofocus (AF), it is sufficient that at least the focus lens group can be driven electrically, and the other movable parts may be driven only manually. Further, when the predetermined movable portion is electrically driven according to the operation of the operator, it is based on a control signal output according to the operation of the operator from an operation means (not shown) such as an operation means of a controller connected to the lens device 14. Thus, the operation of the movable part is controlled, but details are omitted.

また、レンズ装置14には、AFユニット26及び図示しないレンズCPU等が搭載されている。レンズCPUはレンズ装置14全体を統括制御するものである。また、AFユニット26は、AFによるフォーカス制御(自動ピント調整)を行うために必要な情報を取得するための処理部であり、図示を省略するが、AF処理部、AF用撮像回路等から構成されている。AF用撮像回路はAF処理用の映像信号を取得するためにレンズ装置14に配置されており、撮像素子CCD等の撮像素子(AF用撮像素子という)やAF用撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。なお、AF用撮像回路から出力される映像信号は輝度信号である。   The lens device 14 includes an AF unit 26 and a lens CPU (not shown). The lens CPU controls the entire lens device 14. The AF unit 26 is a processing unit for acquiring information necessary for performing AF focus control (automatic focus adjustment). Although not shown, the AF unit 26 includes an AF processing unit, an AF imaging circuit, and the like. Has been. The AF image pickup circuit is disposed in the lens device 14 to acquire an image signal for AF processing. An image pickup device such as an image pickup device CCD (referred to as an image pickup device for AF) or an output signal of the AF image pickup device is used in a predetermined format. And a processing circuit for outputting as a video signal. The video signal output from the AF imaging circuit is a luminance signal.

AF用撮像素子の撮像面には、撮影レンズ24の光路上に配置されたハーフミラー等によってカメラ本体12の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラ本体12の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラ本体12の撮像素子により取り込まれる被写体画像と一致している。なお、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラ本体12の撮像素子の撮影範囲を包含する大きな範囲であってもよい。   On the image pickup surface of the AF image pickup device, subject light branched from the subject light incident on the image pickup device of the camera main body 12 is imaged by a half mirror or the like disposed on the optical path of the taking lens 24. . The shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera body 12. The subject image captured by the image sensor matches the subject image captured by the image sensor of the camera body 12. It should be noted that the shooting ranges of the two do not have to coincide completely, and for example, the shooting range of the AF image sensor may be a larger range including the shooting range of the image sensor of the camera body 12.

AF処理部は、AF用撮像回路から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象とするAFエリアに対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPUに与えられる。   The AF processing unit acquires a video signal from the AF imaging circuit, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to the AF area targeted for AF is extracted from the high-frequency component signal. Accumulate one screen (one frame) at a time. The integrated value obtained for each screen in this way indicates the level of contrast of the subject image, and is given to the lens CPU as a focus evaluation value.

レンズCPUは、AFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を、後述するように画像処理ユニット18から取得し、そのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部から取得する。   The lens CPU obtains AF frame information (AF frame information) indicating the range (contour) of the AF area from the image processing unit 18 as will be described later, and the range within the AF frame specified by the AF frame information is obtained. The AF area is designated as the AF area. Then, the focus evaluation value obtained from the image (video signal) in the AF area is acquired from the AF processing unit.

このようにしてAF用撮像回路から1画面分の映像信号が取得されるごとに(AF処理部で焦点評価値が求められるごとに)AF処理部から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AF枠内の被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。   In this way, every time a video signal for one screen is acquired from the AF imaging circuit (each time the focus evaluation value is obtained by the AF processing unit), the focus evaluation value is acquired from the AF processing unit, and the acquired focus is obtained. The focus lens group is controlled so that the evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF frame is maximum. For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF frame is automatically focused.

尚、上述のAF処理部は、焦点評価値を算出するためにレンズ装置に搭載されたAF用撮像素子から映像信号を取得しているが、カメラ本体12の撮像素子より撮影された映像の映像信号をカメラ本体12から取得するような構成としてもよい。また、AF枠内の被写体に自動でピントを合わせるためのAFの手段はどのようなものであってもよい。   The above-described AF processing unit obtains a video signal from the AF image sensor mounted on the lens device in order to calculate the focus evaluation value, but the video image captured by the image sensor of the camera body 12 is used. It is good also as a structure which acquires a signal from the camera main body 12. FIG. Further, any AF means for automatically focusing on the subject within the AF frame may be used.

また、カメラ本体12とレンズ装置14、レンズ装置14と後述の画像処理ユニット18とは、各装置に設けられたシリアル通信コネクタが直接的又はケーブル等を介して接続される。これによって、カメラ本体12とレンズ装置14とが、それぞれに設けられたシリアル通信インターフェイス(SCI)12a及び14aを介して様々な情報の送受信をシリアル通信により行うようになっている。また、レンズ装置14と画像処理ユニット18とが、それぞれに設けられたシリアル通信インターフェイス14a及び30aとの間で様々な情報の送受信をシリアル通信により行うようになっている。   In addition, the camera body 12 and the lens device 14, and the lens device 14 and an image processing unit 18 described later are connected to each other directly or via a cable or the like. As a result, the camera body 12 and the lens device 14 transmit and receive various kinds of information by serial communication via serial communication interfaces (SCI) 12a and 14a provided respectively. In addition, the lens device 14 and the image processing unit 18 transmit and receive various kinds of information to and from the serial communication interfaces 14a and 30a provided in the respective units by serial communication.

また、カメラ本体12の映像出力コネクタと画像処理ユニット18の映像入力コネクタとが、ダウンコンバータ28を介してケーブルで接続される。これによって、カメラ本体12の映像出力コネクタから出力されたHDTV信号は、ダウンコンバータ28によって、標準テレビ[NTSC(National Television System Committee)]方式の映像信号(SDTV信号)に変換(ダウンコンバート)されて、画像処理ユニット18に入力されるようになっている。   Further, the video output connector of the camera body 12 and the video input connector of the image processing unit 18 are connected via a down converter 28 with a cable. As a result, the HDTV signal output from the video output connector of the camera body 12 is converted (down-converted) into a standard television [NTSC (National Television System Committee)] video signal (SDTV signal) by the down converter 28. Are input to the image processing unit 18.

画像処理ユニット18は、上記のようにレンズ装置14のAFユニット26によりAFによるフォーカス制御を実施する際のAF枠の範囲(位置、大きさ、形状(縦横比))の指定を行うための装置であり、テレビカメラ10の撮影画像(撮影画面)内でのAF枠の範囲を指定するAF枠情報が画像処理ユニット18からレンズ装置14に上記シリアル通信により与えられるようになっている。AFユニット26では、画像処理ユニット18からのAF枠情報に基づいてAF枠の範囲を設定して上記のようにAFの処理を実行する。   The image processing unit 18 is a device for designating the range (position, size, shape (aspect ratio)) of the AF frame when the AF unit 26 of the lens device 14 performs focus control by AF as described above. Thus, AF frame information for designating the range of the AF frame in the photographed image (photographing screen) of the television camera 10 is given from the image processing unit 18 to the lens device 14 by the serial communication. The AF unit 26 sets the range of the AF frame based on the AF frame information from the image processing unit 18 and executes the AF process as described above.

画像処理ユニット18は、主としてメインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34から構成されている。メインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34の各々にはCPU38、50、52が搭載されており、各ボード毎に個別の演算処理が行われると共に、各CPU38、50、52は、バスや制御線で接続され、相互にデータのやり取りや、演算処理の同期等が図られるようになっている。   The image processing unit 18 mainly includes a main board 30, a pattern matching processing calculation board 32, and a face detection processing calculation board 34. The main board 30, the pattern matching processing calculation board 32, and the face detection processing calculation board 34 are equipped with CPUs 38, 50, and 52, and individual calculation processing is performed for each board, and each CPU 38, 50, 52 are connected by a bus or a control line so that data can be exchanged and arithmetic processing can be synchronized with each other.

画像処理ユニット18における処理は、メインボード30において統括的に行われるようになっている。そのメインボード30には、演算処理を行う上記CPU38の他に、SCI30a、デコーダ(A/D変換器)36、スーパーインポーザ42、RAM40等が搭載されている。   The processing in the image processing unit 18 is performed on the main board 30 in an integrated manner. The main board 30 is equipped with an SCI 30a, a decoder (A / D converter) 36, a superimposer 42, a RAM 40, and the like, in addition to the CPU 38 that performs arithmetic processing.

SCI30aは、上述のようにレンズ装置14のSCI14aとの間でシリアル通信を行うためのインターフェイス回路であり、上記AF枠情報等をレンズ装置14に送信する。   The SCI 30a is an interface circuit for performing serial communication with the SCI 14a of the lens device 14 as described above, and transmits the AF frame information and the like to the lens device 14.

デコーダ36は、上記ダウンコンバータ28から画像処理ユニット18に入力されるテレビカメラ10において撮影映像の映像信号(SDTV信号)を、画像処理ユニット18においてデジタル処理可能なデータに変換するための回路であり、アナログのSDTV信号をデジタルデータの映像信号に変換するA/D変換処理等を行っている。   The decoder 36 is a circuit for converting a video signal (SDTV signal) of a captured video input to the image processing unit 18 from the down converter 28 into data that can be digitally processed by the image processing unit 18. A / D conversion processing for converting an analog SDTV signal into a video signal of digital data is performed.

RAM40は、CPU38の演算処理において使用するデータを一時的に格納するメモリである。   The RAM 40 is a memory that temporarily stores data used in the arithmetic processing of the CPU 38.

一方、パターンマッチング処理演算ボード32や顔検出処理演算ボード34は、パターンマッチングと顔検出処理を個別に行うための演算ボードであり、各々、演算処理を行うCPU50、52の他に画像データを一時的に格納するVRAM54、56等を備えている。   On the other hand, the pattern matching processing calculation board 32 and the face detection processing calculation board 34 are calculation boards for individually performing pattern matching and face detection processing, and temporarily store image data in addition to the CPUs 50 and 52 that perform calculation processing. VRAMs 54, 56 and the like for storing them are provided.

また、画像処理ユニット18には、操作部20が一体的に設けられ、又は、操作部20の一部又は全ての操作部材が画像処理ユニット18とは別体の装置に設けられてケーブル等で接続されている。   The image processing unit 18 is provided with an operation unit 20 integrally, or a part or all of the operation members of the operation unit 20 are provided in a separate device from the image processing unit 18 and are connected by a cable or the like. It is connected.

詳細は省略するが、操作部20には、AF枠の位置をユーザの手動操作により上下左右に移動させるための位置操作部材60(例えば、ジョイスティックやトラックボール)、AF枠の大きさを手動操作により変更するためのサイズ操作部材62(例えば、ツマミ)、AF枠の形状を手動操作により変更するための形状操作部材64(例えば、ツマミ)、自動追尾の開始を指示する追尾開始スイッチ68、自動追尾の停止を指示する追尾停止スイッチ70が設けられており、これらの操作部材60、62、64、68、70の設定状態が、画像処理ユニット18におけるメインボード30のCPU38により読み取られるようになっている。   Although details are omitted, the operation unit 20 includes a position operation member 60 (for example, a joystick or a trackball) for moving the position of the AF frame up and down and left and right manually by the user, and manually operating the size of the AF frame. A size operation member 62 (for example, a knob) for changing the shape of the AF frame, a shape operation member 64 (for example, the knob) for changing the shape of the AF frame by manual operation, a tracking start switch 68 for instructing the start of automatic tracking, automatic A tracking stop switch 70 for instructing the stop of tracking is provided, and the setting states of these operation members 60, 62, 64, 68, 70 are read by the CPU 38 of the main board 30 in the image processing unit 18. ing.

尚、タッチパネル付きLCD66は、AF枠の自動追尾に関するモード等の設定をタッチ操作で入力できるようにしたもので、画像処理ユニット18のCPU38によりLCD66に表示される画像は、設定内容に応じて適宜切り換えられるようになっている。   Note that the LCD 66 with a touch panel is configured so that settings such as a mode related to automatic tracking of the AF frame can be input by a touch operation, and an image displayed on the LCD 66 by the CPU 38 of the image processing unit 18 is appropriately determined according to the setting contents. It can be switched.

また、タッチパネル付きLCD66に表示される画像は、メインボード30のスーパーインポーザ42を介して与えられるようになっており、そのスーパーインポーザ42では、デコーダ36から与えられるテレビカメラ10の撮影映像の映像信号と、CPU38で生成される画像信号の合成が行えるようになっている。これによって、カメラ本体12に設定されているビューファインダ13と同様にテレビカメラ10で撮影されている撮影映像と現在設定されているAF枠の画像とを重畳させた映像をタッチパネル付きLCD66に表示させることが可能であり、この画面上でのタッチ操作により、ユーザは、上記操作部材60、62、64、68、70で行うのと同様の操作を行うことができるようになっている。   Further, the image displayed on the LCD 66 with the touch panel is given via the superimposer 42 of the main board 30, and the superimposer 42 takes a video image of the TV camera 10 given from the decoder 36. The video signal and the image signal generated by the CPU 38 can be synthesized. As a result, similar to the viewfinder 13 set in the camera body 12, an image obtained by superimposing the captured image captured by the television camera 10 and the image of the currently set AF frame is displayed on the LCD 66 with a touch panel. The user can perform the same operation as that performed by the operation members 60, 62, 64, 68 and 70 by the touch operation on the screen.

以上のような構成を有する本実施の形態の画像処理ユニット18においてレンズ装置14に指定するAF枠を設定する処理(AF枠設定処理)について、いくつかの態様を順に説明する。   In the image processing unit 18 of the present embodiment having the above-described configuration, several aspects of the process of setting an AF frame to be designated for the lens device 14 (AF frame setting process) will be described in order.

AF枠設定処理の第1の実施の形態について図2のフロ−チャートを用いて説明する。本実施の形態は、人物の顔をAFによりピントを合わせる対象として追尾する場合に、AF枠の範囲をその追尾する顔に適合するように自動で変更するものである。尚、AF枠の範囲とは、AF枠の位置、大きさ、形状(縦横比)によって決まるAF枠内の範囲を示し、AF枠の範囲の変更とは、その位置、大きさ、形状のうち少なくとも一つの要素を変更することを示す。   A first embodiment of the AF frame setting process will be described with reference to the flowchart of FIG. In this embodiment, when a person's face is tracked as an object to be focused by AF, the range of the AF frame is automatically changed so as to match the face to be tracked. The AF frame range refers to the range within the AF frame determined by the position, size, and shape (aspect ratio) of the AF frame. The change of the AF frame range refers to the position, size, and shape of the AF frame. Indicates that at least one element is to be changed.

まず、ユーザは、AFの対象として追尾させたい被写体が含まれるように操作部20を操作して初期のAF枠を指定する。このときユーザは、図3(A)に示すように所定の人物の顔を追尾する被写体としてAF枠100をその顔画像102を含むように指定するものとすると共に、AF枠内には一人の顔のみを含むように設定し、複数人の顔を含むようなAF枠の指定は想定しないものとする。尚、顔の一部がAF枠内に含まれるような場合もその顔はAF枠内に含まれるものとして扱う。   First, the user operates the operation unit 20 to designate an initial AF frame so that a subject to be tracked as an AF target is included. At this time, as shown in FIG. 3A, the user designates the AF frame 100 as a subject for tracking the face of a predetermined person so as to include the face image 102, and one person is included in the AF frame. It is assumed that the AF frame is set so as to include only the face and the AF frame including a plurality of faces is not assumed. Even when a part of the face is included in the AF frame, the face is handled as being included in the AF frame.

このようなユーザの操作に基づいてメインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップS12)。尚、自動追尾処理は、例えば、操作部20の追尾開始スイッチ68がオンされると開始する。   Based on such user operation, the CPU 38 of the main board 30 sets an AF frame to be transmitted to the lens device 14 (step S10). Then, the CPU 38 starts an AF frame automatic tracking process (step S12). Note that the automatic tracking process starts, for example, when the tracking start switch 68 of the operation unit 20 is turned on.

自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(ステップS14)。   When the automatic tracking process is started, the CPU 38 converts the image data of the captured image for one frame (one frame) to the face detection processing calculation board 34 based on the video signal of the captured video that is converted into digital data by the decoder 36 and output. Capture (step S14).

そして、顔検出処理演算ボード34のCPU52の顔検出処理により、撮影画像の中から顔の画像(顔画像)を検出する顔検出処理を行うと共にAF枠内に含まれる顔画像を検出する(ステップS16)。   Then, face detection processing for detecting a face image (face image) from the photographed image is performed by the face detection processing of the CPU 52 of the face detection processing calculation board 34, and a face image included in the AF frame is detected (step) S16).

続いて、AF枠内に含まれる顔画像の位置、大きさ、形状に応じて、その顔全体を含み、かつ、他の被写体をできるだけ含まないAF枠(即ち、顔全体を含む最小のAF枠)の位置、大きさ、形状を求め、レンズ装置14に送信するAF枠をその求めたAF枠に更新する(ステップS18)。図3(A)のようにAF枠をユーザが指定した場合、このステップS18の更新によって図3(B)のように顔画像102の大きさに適合した大きさのAF枠100に更新される。   Subsequently, according to the position, size, and shape of the face image included in the AF frame, an AF frame that includes the entire face and does not include other subjects as much as possible (that is, the smallest AF frame that includes the entire face). ) Is obtained, and the AF frame transmitted to the lens device 14 is updated to the obtained AF frame (step S18). When the user designates an AF frame as shown in FIG. 3A, the AF frame 100 having a size suitable for the size of the face image 102 as shown in FIG. .

このようにして顔画像に合わせてAF枠を更新すると、そのAF枠内の画像データを後述のパターンマッチング処理における基準パターンの画像データとして設定する(ステップS20)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。   When the AF frame is updated in accordance with the face image in this way, the image data in the AF frame is set as the image data of the reference pattern in the pattern matching process described later (step S20). Note that the image data of the reference pattern need not completely match the size of the AF frame, and may be image data in a range larger or smaller than the AF frame.

以上の処理が終了すると、以下のステップS22からステップS36までの処理を繰り返し、AF枠内の顔画像を追尾すると共に、追尾する顔画像の大きさに合わせてAFの大きさ(サイズ)を更新する。尚、下記においてAF枠の大きさという場合には、AF枠の形状も含むものとし、AF枠の縦横比も顔画像に合わせて更新されるものとしてもよいし、AF枠の縦横比は一定としてもよい。   When the above processing is completed, the processing from step S22 to step S36 below is repeated to track the face image in the AF frame and update the AF size (size) according to the size of the face image to be tracked. To do. In the following description, the size of the AF frame includes the shape of the AF frame, the aspect ratio of the AF frame may be updated in accordance with the face image, and the aspect ratio of the AF frame is assumed to be constant. Also good.

まず、ステップS22において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。   First, in step S <b> 22, the CPU 38 captures image data of a captured image for one frame from the decoder 36 into the pattern matching processing calculation board 32 and the face detection processing calculation board 34.

そして、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS24)。   Then, the CPU 50 of the pattern matching processing calculation board 32 detects an image that matches the reference pattern from the photographed images, and executes a pattern matching process for detecting the position (step S24).

CPU38は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否かを判定する(ステップS26)。ここで、顔画像が移動したとの判定には、顔画像が、ズーミング又は被写体の前後移動によって拡大又は縮小された場合も含む。   The CPU 38 determines whether or not the image of the reference pattern, that is, the face image to be tracked has moved within the captured image as a result of the pattern matching process in step S24 (step S26). Here, the determination that the face image has moved includes a case where the face image has been enlarged or reduced by zooming or moving the subject back and forth.

ステップS26においてNOと判定した場合には、ステップS22の処理に戻る。   When it determines with NO in step S26, it returns to the process of step S22.

一方、YESと判定した場合には、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS28)、AF枠の近傍範囲内に顔画像が検出されたか否かを判定する(ステップS30)。   On the other hand, if YES is determined, the CPU 52 of the face detection processing calculation board 34 performs face detection processing for detecting a face image from the photographed image (step S28), and the face image is within the vicinity of the AF frame. It is determined whether or not it has been detected (step S30).

このステップS30の判定処理によりYESと判定した場合には、AF枠の大きさを、検出した顔画像に適合する大きさ、即ち、顔全体を含む最小の大きさに変更(更新)すると共に(ステップS32)、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS34)。これによって、例えば、撮影画像が図3(B)から図3(C)のように変更され、追尾する顔画像の位置と大きさが変化した場合には、図3(C)のようにAF枠100の位置と大きさが変更され、顔画像102の位置と大きさに適合したものに変更される。   If it is determined YES in step S30, the size of the AF frame is changed (updated) to a size suitable for the detected face image, that is, the minimum size including the entire face ( In step S32, the position of the AF frame is changed (updated) to the position of the detected face image (step S34). As a result, for example, when the photographed image is changed from FIG. 3B to FIG. 3C and the position and size of the face image to be tracked change, AF is performed as shown in FIG. The position and size of the frame 100 are changed, and the frame 100 is changed to one that matches the position and size of the face image 102.

ステップS30の判定処理によりNOと判定した場合には、AF枠の大きさを変更することなく、ステップS24のパターンマッチング処理において検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS34)。尚、ステップS30においてYESと判定した場合のステップS34の処理においてもパターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更するようにしてもよい。   If NO is determined in the determination process in step S30, the position of the AF frame is changed (updated) to the position of the image of the reference pattern detected in the pattern matching process in step S24 without changing the size of the AF frame. (Step S34). Note that the position of the AF frame may be changed to the position of the image of the reference pattern detected by the pattern matching process also in the process of step S34 when it is determined YES in step S30.

ステップS34の処理によりAF枠の更新が終了すると、そのAF枠内の画像を基準パターンの画像として更新し(ステップS36)、ステップS22の処理に戻る。   When the update of the AF frame is completed by the process in step S34, the image in the AF frame is updated as the image of the reference pattern (step S36), and the process returns to step S22.

尚、上記フローチャートの処理では、パターンマッチング処理(ステップS24)と顔検出処理(ステップS28)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。   In the process of the above flowchart, the pattern matching process (step S24) and the face detection process (step S28) can be performed in order, and these processes need to be performed individually by a plurality of arithmetic units as shown in FIG. However, both processings may be performed in the main board 30, and an arithmetic board dedicated to image processing other than the main board 30 is provided, and both processes or the main board 30 and the arithmetic board One of each process may be performed.

また、顔画像の大きさ等に応じて変更するAF枠の範囲は、必ずしも上記のように顔画像全体を含む最小の範囲とするものに限らない。AF枠内の被写体を対象とするAFにより、その顔画像にピントが適切に合わせられるような範囲、即ち、顔画像の位置及び大きさに適合するものであればよい。   Further, the range of the AF frame to be changed according to the size of the face image is not necessarily limited to the minimum range including the entire face image as described above. Any range may be used as long as it is suitable for a range in which the face image can be properly focused by AF targeting the subject in the AF frame, that is, the position and size of the face image.

以上のAF枠設定処理の第1の実施の形態によれば、AF枠内の被写体をパターンマッチング処理により自動追尾する際に、AF枠内に人物の顔が含まれる場合には、その顔の位置及び大きさに適合するようにAF枠の範囲が変更される。そのため、ユーザは、人物の顔を追尾対象としたい場合であっても、背景画像をできるだけ含まないように初期におけるAF枠の設定を正確に行う手間や時間が不要となる。また、ズーム操作により追尾する顔画像の大きさが変化した場合でも、その顔画像に適合するようにAF枠の範囲が変更されるため、AF枠内の背景画像によってAFによるピント合わせが適切に行われなくなるという不具合や、自動追尾が適切に行われなくなるという不具合が軽減される。   According to the first embodiment of the AF frame setting process described above, when the subject in the AF frame is automatically tracked by the pattern matching process, if the AF frame includes a human face, The range of the AF frame is changed to match the position and size. For this reason, even when the user wants to track a person's face, the time and effort for accurately setting the initial AF frame so as not to include the background image as much as possible are not required. Even when the size of the face image to be tracked changes due to the zoom operation, the AF frame range is changed to match the face image, so that AF focusing is appropriately performed using the background image in the AF frame. Inconveniences that are not performed and problems that automatic tracking is not appropriately performed are reduced.

次に、AF枠設定処理の第2の実施の形態について図4(A)〜(C)のフローチャートを用いて説明する。本実施の形態では、第1の実施の形態で示した処理において、パターンマッチング処理と顔検出処理をパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行い、追尾処理の高速化を図るようにしたものである。   Next, a second embodiment of the AF frame setting process will be described with reference to the flowcharts of FIGS. In the present embodiment, in the processing shown in the first embodiment, the pattern matching processing and the face detection processing are performed in parallel by the pattern matching processing calculation board 32 and the face detection processing calculation board 34, and the tracking processing is performed at high speed. It is intended to make it easier.

図4(A)、図4(B)、図4(C)は各々、メインボード30のCPU38、パターンマッチング処理演算ボード32のCPU50、顔検出処理演算ボード34のCPU52において行われる処理の処理手順を示している。また、第1の実施の形態の図2のフローチャートに示した処理と処理内容が同一のものには図2のフローチャートと同一の符号を付し、詳細な説明を省略する。   4 (A), 4 (B), and 4 (C) are processing procedures of processes performed by the CPU 38 of the main board 30, the CPU 50 of the pattern matching processing calculation board 32, and the CPU 52 of the face detection processing calculation board 34, respectively. Is shown. 2 that are the same as those shown in the flowchart of FIG. 2 of the first embodiment are denoted by the same reference numerals as those of the flowchart of FIG.

まず、ユーザは、第1の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(図4(A)のステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(図4(A)のステップ12)。   First, as in the first embodiment, the user operates the operation unit 20 to specify an initial AF frame so that the subject tracked as an AF target is included. Based on this designation, the CPU 38 of the main board 30 sets an AF frame to be transmitted to the lens device 14 (step S10 in FIG. 4A). Then, the CPU 38 starts an AF frame automatic tracking process (step 12 in FIG. 4A).

自動追尾処理を開始すると、CPU38は、AF枠の位置、大きさ、形状に基づいて、パターンマッチング処理における基準パターンの位置、大きさ、形状を設定する(図4(A)のステップS50)。尚、この基準パターンの位置、大きさ、形状を特定するデータを、以下、基準パターン座標というものとする。   When the automatic tracking process is started, the CPU 38 sets the position, size, and shape of the reference pattern in the pattern matching process based on the position, size, and shape of the AF frame (step S50 in FIG. 4A). The data specifying the position, size, and shape of the reference pattern is hereinafter referred to as reference pattern coordinates.

次に、CPU38は、基準パターン座標をパターンマッチング処理演算ボード32のCPU50に送信する(図4(A)のステップS52)。   Next, the CPU 38 transmits the reference pattern coordinates to the CPU 50 of the pattern matching processing calculation board 32 (step S52 in FIG. 4A).

一方、パターンマッチング処理演算ボード32のCPU50は、メインボード30のCPU38から基準パターン座標を受信すると(図4(B)のステップS70)、以下のステップS72〜S82(ステップS72、S24、S26、S80、S82)の処理を繰り返し実行する。但し、一回目の処理では、ステップS70で受信した基準パターン座標に基づいて、ステップS72とステップ80の処理により、撮影画像の基準パターンの画像データを設定する。   On the other hand, when the CPU 50 of the pattern matching processing calculation board 32 receives the reference pattern coordinates from the CPU 38 of the main board 30 (step S70 in FIG. 4B), the following steps S72 to S82 (steps S72, S24, S26, S80). , S82) is repeatedly executed. However, in the first process, based on the reference pattern coordinates received in step S70, the image data of the reference pattern of the captured image is set by the processes in steps S72 and 80.

CPU50は、基準パターンの画像データを設定した後、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS72)。そして、CPU50は、その撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(図4(B)のステップS24)。   The CPU 50 sets the image data of the reference pattern, and then converts the image data of the captured image for one frame (one frame) from the image signal of the captured image that is converted into digital data by the decoder 36 and output the pattern matching processing. The data is taken into the board 32 (step S72). Then, the CPU 50 detects an image matching the reference pattern from the photographed image, and executes a pattern matching process for detecting the position (step S24 in FIG. 4B).

続いて、CPU50は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否か判定する(図4(B)のステップS26)。   Subsequently, as a result of the pattern matching process in step S24, the CPU 50 determines whether or not the image of the reference pattern, that is, the face image to be tracked has moved within the captured image (step S26 in FIG. 4B).

ステップS30においてNOと判定した場合には、ステップS24の処理に戻る。   When it determines with NO in step S30, it returns to the process of step S24.

一方、YESと判定した場合には、検出した基準パターンの画像を新たな基準パターンの画像として更新し(図4(B)のステップS80)、基準パターン座標をメインボード30のCPU38に送信する(図4(B)のステップS82)。そして、ステップS72の処理に戻る。   On the other hand, if YES is determined, the detected reference pattern image is updated as a new reference pattern image (step S80 in FIG. 4B), and the reference pattern coordinates are transmitted to the CPU 38 of the main board 30 (see FIG. 4). Step S82 in FIG. Then, the process returns to step S72.

パターンマッチング処理演算ボード32のCPU50では、以上のステップS72〜ステップS82の処理が繰り返し実行される。   The CPU 50 of the pattern matching processing calculation board 32 repeatedly executes the processes in steps S72 to S82 described above.

また、顔検出処理演算ボード34のCPU52は、メインボード30のCPU38からの指示により(図示せず)、パターンマッチング処理演算ボード32におけるパターンマッチング処理の開始と共に、処理を開始し、図4(C)のステップS90〜ステップS94(S90、S28、S92、S94)の処理を繰り返し実行する。   Further, the CPU 52 of the face detection processing calculation board 34 starts the processing together with the start of the pattern matching processing in the pattern matching processing calculation board 32 in accordance with an instruction from the CPU 38 of the main board 30 (not shown). ) Steps S90 to S94 (S90, S28, S92, S94) are repeatedly executed.

即ち、顔検出処理演算ボード34のCPU52は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(図4(C)のステップS90)。   That is, the CPU 52 of the face detection processing calculation board 34 converts the image data of one frame (one frame) of the shot image into the face detection processing calculation board based on the video signal of the shot video that is converted into digital data by the decoder 36 and output. 34 (step S90 in FIG. 4C).

続いて、撮影画像の中から顔画像を検出する顔検出処理を行い(図4(C)のステップS28)、顔画像が検出されたか否かを判定する(図4(C)のステップS92)。   Subsequently, face detection processing for detecting a face image from the captured image is performed (step S28 in FIG. 4C), and it is determined whether or not a face image is detected (step S92 in FIG. 4C). .

このステップS92によりNOと判定した場合にはステップS90の処理に戻り、YESと判定した場合には、検出した顔画像の位置(座標)、大きさを示す情報をメインボード30のCPU38に送信し(ステップS94)、ステップS90の処理に戻る。   If NO is determined in step S92, the process returns to step S90. If YES is determined, information indicating the position (coordinates) and size of the detected face image is transmitted to the CPU 38 of the main board 30. (Step S94), the process returns to Step S90.

顔検出処理演算ボード34のCPU52では、以上のステップS90〜ステップS94の処理が繰り返し実行される。   The CPU 52 of the face detection processing calculation board 34 repeatedly executes the processes in steps S90 to S94 described above.

メインボード30のCPU38は、図4(A)の上記ステップS52の処理の後、ステップS54〜S34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。   The CPU 38 of the main board 30 repeatedly executes the processes of steps S54 to S34 (S54, S56, S30, S32, S34) after the process of step S52 in FIG.

まず、パターンマッチング処理演算ボード32から、図4(B)のステップS82の処理により送信される基準パターン座標を受信する(図4(A)のステップS54)。   First, the reference pattern coordinates transmitted by the process of step S82 of FIG. 4B are received from the pattern matching processing calculation board 32 (step S54 of FIG. 4A).

続いて、顔検出処理演算ボード34から、図4(C)のステップS94の処理により送信される顔画像の位置、大きさの情報を受信する(図4(A)のステップS56)。   Subsequently, information on the position and size of the face image transmitted by the process of step S94 in FIG. 4C is received from the face detection processing calculation board 34 (step S56 in FIG. 4A).

そして、CPU38は、現在のAF枠の位置の近傍において検出された顔画像があるか否かを判定する(図4(A)のステップS30)。   Then, the CPU 38 determines whether or not there is a face image detected in the vicinity of the current AF frame position (step S30 in FIG. 4A).

このステップS30においてNOと判定した場合には、ステップS54により取得した基準パターン座標に基づいてAF枠の位置を変更(更新)する(図4(A)のステップS34)。   If it is determined NO in step S30, the position of the AF frame is changed (updated) based on the reference pattern coordinates acquired in step S54 (step S34 in FIG. 4A).

一方、ステップS30においてYESと判定した場合には、AF枠の大きさを、AF枠の位置の近傍において検出された顔画像に合わせた大きさに変更する(更新)すると共に(図4(A)のステップS32)、AF枠の位置をその顔画像の位置に変更(更新)する(図4(A)のステップS34)。   On the other hand, if YES is determined in step S30, the size of the AF frame is changed (updated) to match the face image detected in the vicinity of the position of the AF frame (FIG. 4A). ) In step S32), the position of the AF frame is changed (updated) to the position of the face image (step S34 in FIG. 4A).

ステップS34の処理が終了すると、ステップS54の処理に戻り、ステップS54〜ステップS34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。   When the process of step S34 ends, the process returns to step S54, and the processes of steps S54 to S34 (S54, S56, S30, S32, S34) are repeatedly executed.

以上の処理により、パターンマッチング処理演算ボード32でのパターンマッチング処理と、顔検出処理演算ボード34での顔検出処理とが、分散して行われると共に並行して行われ、時間の要する画像処理によりAF枠の追尾が遅れるという不具合が軽減される。   With the above processing, the pattern matching processing in the pattern matching processing calculation board 32 and the face detection processing in the face detection processing calculation board 34 are performed in a distributed manner and in parallel, and time-consuming image processing is performed. The problem that AF frame tracking is delayed is reduced.

次に、AF枠設定処理の第3の実施の形態について図5のフローチャートを用いて説明する。本実施の形態では、パターンマッチング処理によるAF枠の自動追尾と顔検出処理によるAF枠の自動追尾のうち、顔検出処理によるAF枠の自動追尾を優先して行い、顔検出処理によるAF枠の自動追尾が不能な状況となった場合に、パターンマッチング処理による自動追尾を行うようにしたものである。   Next, a third embodiment of the AF frame setting process will be described with reference to the flowchart of FIG. In the present embodiment, among AF frame automatic tracking by pattern matching processing and AF frame automatic tracking by face detection processing, priority is given to automatic AF frame tracking by face detection processing, and AF frame tracking by face detection processing is prioritized. When automatic tracking becomes impossible, automatic tracking is performed by pattern matching processing.

まず、ユーザは、第1及び第2の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS100)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップ102)。   First, as in the first and second embodiments, the user operates the operation unit 20 to specify an initial AF frame so that a subject tracked as an AF target is included. Based on this designation, the CPU 38 of the main board 30 sets an AF frame to be transmitted to the lens device 14 (step S100). Then, the CPU 38 starts an AF frame automatic tracking process (step 102).

自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS104)。   When the automatic tracking process is started, the CPU 38 converts the image data of the captured image for one frame (one frame) to the pattern matching processing calculation board 32 based on the video signal of the captured video that is converted into digital data by the decoder 36 and output. Capture (step S104).

そして、その撮影画像においてAF枠内の画像データをパターンマッチング処理における基準パターンの画像データとして設定する(ステップS106)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。   Then, the image data in the AF frame in the captured image is set as the image data of the reference pattern in the pattern matching process (step S106). Note that the image data of the reference pattern need not completely match the size of the AF frame, and may be image data in a range larger or smaller than the AF frame.

以上の処理が終了すると、以下のステップS108〜ステップS120の処理を繰り返し、AF枠内の顔画像を追尾する。   When the above processing is completed, the following steps S108 to S120 are repeated to track the face image in the AF frame.

まず、ステップS108において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。   First, in step S <b> 108, the CPU 38 captures image data of a captured image for one frame from the decoder 36 into the pattern matching processing calculation board 32 and the face detection processing calculation board 34.

そして、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS110)、AF枠内(又はAF枠の近傍範囲内)に顔画像が検出されたか否かを判定する(ステップS112)。   Then, the CPU 52 of the face detection processing calculation board 34 performs face detection processing for detecting a face image from the photographed image (step S110), and the face image is detected within the AF frame (or within the vicinity of the AF frame). It is determined whether or not (step S112).

このステップS112の判定処理によりYESと判定した場合には、S110で検出された顔画像の位置が撮影画像内で移動したか否かを判定する(ステップS116)。NOと判定した場合にはステップS108の処理に戻り、YESと判定した場合には、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。尚、第1、第2の実施の形態と同様にAF枠の大きさを、検出した顔画像に合わせた大きさに変更(更新)してもよい。   If YES is determined in the determination process in step S112, it is determined whether or not the position of the face image detected in S110 has moved within the captured image (step S116). If NO is determined, the process returns to step S108. If YES is determined, the position of the AF frame is changed (updated) to the position of the detected face image (step S118). Further, the image in the AF frame is updated as a reference pattern image (step S120), and the process returns to step S108. As in the first and second embodiments, the size of the AF frame may be changed (updated) to a size that matches the detected face image.

一方、ステップS112においてNOと判定した場合には、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS114)。   On the other hand, if NO is determined in step S112, the CPU 50 of the pattern matching processing calculation board 32 detects an image that matches the reference pattern from the photographed image, and executes a pattern matching process for detecting the position ( Step S114).

そして、CPU38は、ステップS114のパターンマッチング処理の結果、基準パターンの画像が、撮影画像内で移動したか否かを判定する(ステップS116)。   Then, the CPU 38 determines whether or not the image of the reference pattern has moved within the captured image as a result of the pattern matching process in step S114 (step S116).

ステップS116においてNOと判定した場合には、ステップS108の処理に戻る。   When it determines with NO in step S116, it returns to the process of step S108.

一方、YESと判定した場合には、パターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。   On the other hand, if YES is determined, the position of the AF frame is changed (updated) to the position of the image of the reference pattern detected by the pattern matching process (step S118). Further, the image in the AF frame is updated as a reference pattern image (step S120), and the process returns to step S108.

尚、上記フローチャートの処理では、パターンマッチング処理(ステップS114)と顔検出処理(ステップS110)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。   In the process of the flowchart, the pattern matching process (step S114) and the face detection process (step S110) can be performed in order, and these processes need to be performed individually by a plurality of arithmetic units as shown in FIG. However, both processings may be performed in the main board 30, and an arithmetic board dedicated to image processing other than the main board 30 is provided, and both processing, or the main board 30 and the arithmetic board are provided with this arithmetic board. One of each process may be performed.

また、第2の実施の形態のようにパターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並列して実行し、各々の結果をメインボード30のCPU38が必要時に取得するようにしてよい。   Further, as in the second embodiment, the pattern matching process and the face detection process are executed in parallel by the pattern matching process calculation board 32 and the face detection process calculation board 34, and each result is obtained by the CPU 38 of the main board 30. May be obtained when needed.

また、上記処理では、顔検出処理により顔画像が検出されている場合には優先的に顔検出処理によるAF枠の自動追尾を実行する態様であるが、パターンマッチング処理により基準パターンが検出されている場合には優先的にパターンマッチング処理によるAF枠の自動追尾を実行し、パターンマッチング処理が不能な状況となったときに顔検出処理によるAF枠の自動追尾を実行するようにしてもよい。   In the above process, when a face image is detected by the face detection process, the AF frame is automatically tracked preferentially by the face detection process. However, the reference pattern is detected by the pattern matching process. If it is, the AF frame automatic tracking by the pattern matching process may be executed preferentially, and the AF frame automatic tracking by the face detection process may be executed when the pattern matching process becomes impossible.

以上のAF枠設定処理の第3の実施の形態によれば、例えば、追尾する人物の顔が上下左右の正面(カメラ側)と異なる方向に向いてしまい、顔検出が不能となった場合であっても、パターンマッチング処理により自動追尾が適切に行われるため、自動追尾の信頼性が向上する。   According to the third embodiment of the AF frame setting process described above, for example, the face of the person to be tracked faces in a different direction from the top, bottom, left, and right fronts (camera side), and face detection becomes impossible. Even in such a case, since the automatic tracking is appropriately performed by the pattern matching process, the reliability of the automatic tracking is improved.

尚、本第3の実施の形態においても第2の実施の形態と同様に、パターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行うようにすることは可能であり、これにより処理時間の短縮が図れる。   In the third embodiment, similarly to the second embodiment, the pattern matching process and the face detection process are performed in parallel by the pattern matching process calculation board 32 and the face detection process calculation board 34. It is possible to reduce the processing time.

本発明が適用されたビデオカメラシステムの全体構成を示したブロック図。1 is a block diagram showing the overall configuration of a video camera system to which the present invention is applied. AF枠設定処理の第1の実施の形態の処理手順を示したフローチャート。The flowchart which showed the process sequence of 1st Embodiment of AF frame setting processing. AF枠設定処理の第1の実施の形態の説明に使用した説明図。Explanatory drawing used for description of 1st Embodiment of AF frame setting processing. AF枠設定処理の第2の実施の形態の処理手順を示したフローチャート。The flowchart which showed the process sequence of 2nd Embodiment of AF frame setting processing. AF枠設定処理の第3の実施の形態の処理手順を示したフローチャート。The flowchart which showed the process sequence of 3rd Embodiment of AF frame setting processing.

符号の説明Explanation of symbols

1…ビデオカメラシステム、10…テレビカメラ、12…カメラ本体、14…レンズ装置、16…被写体、18…画像処理ユニット、20…操作部、24…撮影レンズ、26…AFユニット、30…メインボード、32…パターンマッチング処理演算ボード、34…顔検出処理演算ボード、36…デコーダ、38…CPU、40…RAM、42…スーパーインポーザ   DESCRIPTION OF SYMBOLS 1 ... Video camera system, 10 ... Television camera, 12 ... Camera body, 14 ... Lens apparatus, 16 ... Subject, 18 ... Image processing unit, 20 ... Operation part, 24 ... Shooting lens, 26 ... AF unit, 30 ... Main board 32 ... Pattern matching processing calculation board, 34 ... Face detection processing calculation board, 36 ... Decoder, 38 ... CPU, 40 ... RAM, 42 ... Superimposer

Claims (2)

撮像手段により撮影される被写体の範囲のうちAF枠に対応する範囲内の被写体にピントが合うように、前記撮像手段に被写体像を結像する撮影光学系のフォーカスを制御するオートフォーカス手段と、
前記撮像手段により得られる撮影画像の中から人物の顔の画像を検出する顔検出処理手段と、
追尾対象の被写体の画像として記憶された基準パターン画像を用いて、前記撮像手段により得られる撮影画像の中から、前記追尾対象の被写体の画像をパターンマッチング処理により検出するパターンマッチング処理手段と、
前記AF枠内に人物の顔の画像が含まれる場合に、前記撮像手段により得られた撮影画像に対して前記顔検出処理手段により検出された顔の画像の位置に基づいて前記AF枠の位置を決定する第1のAF枠決定手段と、
前記撮像手段により得られる撮影画像に対して、前記パターンマッチング処理手段により検出された前記追尾対象の被写体の画像の位置に基づいて前記AF枠の位置を決定する第2のAF枠決定手段と、
前記第1のAF枠決定手段と前記第2のAF枠決定手段のうち、いずれか一方を優先のAF枠決定手段とし、前記AF枠を、前記優先のAF枠決定手段により決定された位置に変更すると共に、前記優先のAF枠決定手段による前記AF枠の位置の決定が不能な状況となった場合には、前記AF枠を、他方のAF枠決定手段により決定された位置に変更するAF枠変更手段と、
を備えたことを特徴とするAF枠自動追尾機能を備えたオートフォーカスシステム。
An autofocus unit that controls the focus of a photographing optical system that forms a subject image on the imaging unit so that a subject within a range corresponding to the AF frame in a range of the subject captured by the imaging unit is focused;
A face detection processing means for detecting an image of a person's face from a photographed image obtained by the imaging means;
Pattern matching processing means for detecting, by pattern matching processing, an image of the subject to be tracked from a captured image obtained by the imaging means using a reference pattern image stored as an image of the subject to be tracked;
The position of the AF frame based on the position of the face image detected by the face detection processing unit with respect to the photographed image obtained by the imaging unit when the AF frame includes a human face image First AF frame determining means for determining
Second AF frame determining means for determining the position of the AF frame based on the position of the image of the subject to be tracked detected by the pattern matching processing means with respect to the captured image obtained by the imaging means;
Either one of the first AF frame determination means and the second AF frame determination means is set as a priority AF frame determination means, and the AF frame is set at a position determined by the priority AF frame determination means. When the AF frame position cannot be determined by the priority AF frame determination means, the AF frame is changed to the position determined by the other AF frame determination means. Frame changing means,
An autofocus system equipped with an AF frame automatic tracking function, characterized by comprising
前記AF枠変更手段は、前記第1のAF枠決定手段を前記優先のAF枠決定手段とすることを特徴とする請求項1のAF枠自動追尾機能を備えたオートフォーカスシステム。   2. The autofocus system having an AF frame automatic tracking function according to claim 1, wherein the AF frame changing means uses the first AF frame determining means as the priority AF frame determining means.
JP2008267294A 2008-10-16 2008-10-16 Auto focus system with af frame auto-tracking function Pending JP2010096963A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008267294A JP2010096963A (en) 2008-10-16 2008-10-16 Auto focus system with af frame auto-tracking function
US12/545,171 US8237847B2 (en) 2008-10-16 2009-08-21 Auto focus system having AF frame auto-tracking function
EP09011283.0A EP2178291B1 (en) 2008-10-16 2009-09-02 Auto focus system having of frame auto-tracking function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008267294A JP2010096963A (en) 2008-10-16 2008-10-16 Auto focus system with af frame auto-tracking function

Publications (1)

Publication Number Publication Date
JP2010096963A true JP2010096963A (en) 2010-04-30

Family

ID=42258692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008267294A Pending JP2010096963A (en) 2008-10-16 2008-10-16 Auto focus system with af frame auto-tracking function

Country Status (1)

Country Link
JP (1) JP2010096963A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137583A (en) * 2013-01-18 2014-07-28 Olympus Imaging Corp Focus adjustment device
US9191569B2 (en) 2011-06-30 2015-11-17 Canon Kabushiki Kaisha Imaging apparatus having object detection function and method for controlling imaging apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267220A (en) * 2005-03-22 2006-10-05 Fujinon Corp Auto focus system
JP2006319596A (en) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd Imaging apparatus and imaging method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267220A (en) * 2005-03-22 2006-10-05 Fujinon Corp Auto focus system
JP2006319596A (en) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd Imaging apparatus and imaging method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191569B2 (en) 2011-06-30 2015-11-17 Canon Kabushiki Kaisha Imaging apparatus having object detection function and method for controlling imaging apparatus
JP2014137583A (en) * 2013-01-18 2014-07-28 Olympus Imaging Corp Focus adjustment device

Similar Documents

Publication Publication Date Title
JP2010096962A (en) Auto focus system with af frame auto-tracking function
JP4525089B2 (en) Auto focus system
US7590343B2 (en) Autofocus system
JP5473551B2 (en) Auto focus system
JP5455361B2 (en) Auto focus system
JP2010124120A (en) Autofocus system
JP2006267221A (en) Auto focus system
JP2011027847A (en) Af frame automatic tracking system
JP5384172B2 (en) Auto focus system
JP5426874B2 (en) Auto focus system
JP4596246B2 (en) Auto focus system
JP2010230870A (en) Auto focus system
JP2006058431A (en) Autofocusing system
EP2178291B1 (en) Auto focus system having of frame auto-tracking function
JP2006267220A (en) Auto focus system
JP5081133B2 (en) Auto focus system
JP2006258943A (en) Autofocus system
JP2010096963A (en) Auto focus system with af frame auto-tracking function
EP2187625B1 (en) Autofocus system
JP5457008B2 (en) Autofocus system with AF frame auto-tracking function
JP5276538B2 (en) AF frame automatic tracking system
JP5384173B2 (en) Auto focus system
JP2011022499A (en) Autofocus system
JP2006195341A (en) Autofocus system
JP2010122366A (en) Auto focus system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130415