JP2009229569A - Autofocus system - Google Patents

Autofocus system Download PDF

Info

Publication number
JP2009229569A
JP2009229569A JP2008072065A JP2008072065A JP2009229569A JP 2009229569 A JP2009229569 A JP 2009229569A JP 2008072065 A JP2008072065 A JP 2008072065A JP 2008072065 A JP2008072065 A JP 2008072065A JP 2009229569 A JP2009229569 A JP 2009229569A
Authority
JP
Japan
Prior art keywords
image
tracking
face
registered
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008072065A
Other languages
Japanese (ja)
Inventor
Tokuji Kanayama
篤司 金山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2008072065A priority Critical patent/JP2009229569A/en
Priority to US12/370,922 priority patent/US8265474B2/en
Priority to EP09002038A priority patent/EP2104338A3/en
Publication of JP2009229569A publication Critical patent/JP2009229569A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autofocus system that can set a predetermined subject as an automatically tracking subject as a target of AF while reproducing the zooming and focusing to preset position. <P>SOLUTION: In the tracking device 16, the zoom and focus preset positions are registered according to pattern data of a face of a person set as the tracking target. When a shot switch 114b is turned on, the zooming and the focusing are set to the preset position and also the face image of the person whose pattern data is registered is set to the tracking target which is tracked as the target of AF. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、オートフォーカスシステムに係り、特に、カメラの撮影範囲のうちオートフォーカス(AF)の対象とする位置(範囲)を自動で移動させて所望の物体(人物)を追尾しながらピント合わせをすることができるオートフォーカスシステムに関する。   The present invention relates to an autofocus system, and in particular, to focus while tracking a desired object (person) by automatically moving a position (range) targeted for autofocus (AF) within a shooting range of a camera. It can be related to autofocus system.

従来、例えばテレビカメラなどで、サッカーやフィギュアスケートあるいは競馬など、被写体の動きの激しいシーンを撮影する場合において、被写体にピントを合わせる目的でオートフォーカス(AF)エリアが被写体の動きについて行くAFエリア自動追尾システムが知られている(例えば、特許文献1等参照)。   Conventionally, when shooting a scene where the subject moves rapidly, such as soccer, figure skating, or horse racing, for example, with a TV camera, the auto focus (AF) area automatically follows the subject's movement to focus on the subject. Tracking systems are known (see, for example, Patent Document 1).

テレビカメラのように撮像素子(CCD等)により被写体の画像を電気信号(画像信号)に変換する撮像システムでは、オートフォーカス(AF)の方式として一般的にコントラスト方式が採用されている。コントラスト方式は、撮像素子により取り込まれた画像信号から被写体画像のコントラストを検出し、そのコントラストが最も高くなるように撮影レンズのフォーカスを制御することによって最良ピント状態に自動でピント合わせを行う方式である。   In an imaging system that converts an image of a subject into an electrical signal (image signal) by an imaging device (CCD or the like) like a television camera, a contrast method is generally employed as an autofocus (AF) method. The contrast method is a method of automatically focusing to the best focus state by detecting the contrast of the subject image from the image signal captured by the image sensor and controlling the focus of the photographic lens so that the contrast becomes the highest. is there.

コントラスト方式のようなAFでは、カメラの撮影範囲内にある被写体の全体をAFの対象とするのではなく、撮影範囲のうちの一部の範囲にある被写体のみを対象とすることが多い。コントラスト方式のAFでは、撮像素子の撮像エリア全体により取り込まれた画像信号のうち、AFの対象とする範囲の画像信号を抽出し、その抽出した範囲の画像信号のコントラストが最も高くなるようにフォーカスを制御することによってAFの対象を一部の範囲の被写体のみに限定している。尚、本明細書ではカメラの撮影範囲のうちAFの対象とする被写体の範囲、又はカメラの撮影画像のうちAFの対象とする被写体の画像範囲をAFエリアといい、そのAFエリアの輪郭を示す枠をAF枠というものとする。   In AF such as a contrast method, the entire subject within the shooting range of the camera is not targeted for AF, but only the subject within a part of the shooting range is often targeted. In contrast-based AF, an image signal in a range targeted for AF is extracted from image signals captured by the entire imaging area of the image sensor, and focus is performed so that the contrast of the image signal in the extracted range is the highest. By controlling this, the target of AF is limited to only a certain range of subjects. In this specification, the range of the subject to be AF in the shooting range of the camera or the image range of the subject to be AF in the shot image of the camera is referred to as an AF area, and the outline of the AF area is shown. The frame is called an AF frame.

放送用のレンズシステムでは、例えばフィギュアスケートのように動きの速い被写体を画面内に納めるべくカメラマンがパン/チルト(P/T)、ズーム操作をするが、そのような状況でAFエリアを動かすことは非常に困難である。このような場合に、上記のようなAFエリア自動追尾システムが有効である。
特開2006−267221号公報
In a lens system for broadcasting, for example, a cameraman performs pan / tilt (P / T) and zoom operations so that a fast-moving subject such as a figure skate is placed on the screen. In such a situation, the AF area is moved. Is very difficult. In such a case, the AF area automatic tracking system as described above is effective.
JP 2006-267221 A

しかしながら、例えばサッカーの試合を撮影する場合のように、撮影範囲内に同じように動く被写体が複数あった場合には、単純なパターン認識では、特定の被写体を認識してその被写体をずっと追尾し続けることができず、追尾対象が変わってしまい、本来追尾しなければならない被写体の画像がボケてしまう可能性があるという問題がある。   However, if there are multiple moving subjects within the shooting range, for example, when shooting a soccer game, simple pattern recognition recognizes a specific subject and tracks that subject all the time. There is a problem that the object to be tracked may be blurred because an object to be tracked may change because the tracking target cannot be continued.

また、近年デジタルカメラに搭載されている顔認識技術では、単に撮影範囲の中から人物を抽出するには有効であるが、特定の人物を認識するものではなく、複数の人物がフレーム内に存在する場合には、単に顔をAF枠とすると特定の人物を認識することができないためAFの対象が別の人物に切り替わってしまう可能性があるという問題がある。   In recent years, the face recognition technology installed in digital cameras is effective for extracting a person from the shooting range, but it does not recognize a specific person, and there are multiple persons in the frame. In this case, there is a problem that if a face is simply an AF frame, a specific person cannot be recognized, so that the target of AF may be switched to another person.

そこで、現在セキュリティを目的として利用されている顔(物体)認証技術を用い、特定の個人の顔(物体)を識別・認識できるようにすると効果的である。   Therefore, it is effective to identify and recognize a face (object) of a specific individual by using a face (object) authentication technology currently used for the purpose of security.

ところで、従来、ズームやフォーカスのプリセット位置を予め登録しておき、所定の再生指示操作によって、任意の位置に設定されているズームやフォーカスをプリセット位置に移動させるプリセットショット機能が知られている。このプリセットショット機能を使用する場合、事前に被写体も決まっていることが多く、ズームやフォーカスのプリセット位置への再生を行った際には自動追尾する被写体が設定されるようにすると好適である。   Conventionally, there is known a preset shot function in which preset positions of zoom and focus are registered in advance, and a zoom and focus set to an arbitrary position are moved to a preset position by a predetermined reproduction instruction operation. When this preset shot function is used, the subject is often determined in advance, and it is preferable that the subject to be automatically tracked is set when the zoom or focus is reproduced to the preset position.

本発明は、このような事情に鑑みてなされたもので、ズームやフォーカスのプリセット位置への再生と共に、自動追尾する被写体が事前に決められた被写体に設定されるようにしたオートフォーカスシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides an autofocus system in which a subject to be automatically tracked is set to a predetermined subject along with reproduction to a preset position of zoom and focus. The purpose is to do.

前記目的を達成するために、請求項1に記載のオートフォーカスシステムは、光学系により結像された被写体像を撮像する撮像手段と、前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、追尾対象とする被写体を特定するためのパターンデータを登録するパターン登録手段と、前記パターン登録手段により登録された前記追尾対象とする被写体に対応付けて前記光学系のズーム及びフォーカスの少なくとも一方のプリセット位置を登録するプリセット位置登録手段と、前記パターン登録手段によりパターンデータが登録された被写体を自動追尾することが指示されると、前記光学系のズーム及びフォーカスの少なくとも一方を前記プリセット位置登録手段により登録されたプリセット位置に設定すると共に、前記パターン登録手段に登録されたパターンデータに基づき、前記撮像手段によって撮像された画像範囲内の被写体の中から前記追尾対象とする被写体を検出する追尾対象検出手段と、前記追尾対象検出手段により検出された前記追尾対象とする被写体の移動に合わせて前記AFエリアを移動させ、前記オートフォーカス手段により前記追尾対象とする被写体にピントが合うようにフォーカス調整を行わせる追尾手段と、を備えたことを特徴としている。   In order to achieve the object, an autofocus system according to claim 1 includes an imaging unit that captures a subject image formed by an optical system, and a predetermined AF among captured images captured by the imaging unit. Registered by the pattern registration unit, an autofocus unit that adjusts the focus of the optical system so as to focus on a subject in the area, a pattern registration unit that registers pattern data for specifying a subject to be tracked, and the pattern registration unit. Preset position registration means for registering at least one preset position of zoom and focus of the optical system in association with the subject to be tracked, and automatic tracking of the subject whose pattern data is registered by the pattern registration means. Is instructed, at least one of zoom and focus of the optical system is The preset position registered by the reset position registration means is set, and the subject to be tracked is selected from the subjects within the image range imaged by the imaging means based on the pattern data registered in the pattern registration means. The AF target area is moved in accordance with the movement of the tracking target detection unit to be detected and the tracking target subject detected by the tracking target detection unit, and the auto focusing unit focuses on the tracking target subject. And tracking means for performing focus adjustment as described above.

請求項2に記載のオートフォーカスシステムは、請求項1に記載の発明において、前記追尾対象とする被写体は、特定の人物の顔であることを特徴としている。   The autofocus system according to a second aspect is the invention according to the first aspect, wherein the subject to be tracked is a face of a specific person.

本発明によれば、ズームやフォーカスのプリセット位置への再生と共に、自動追尾する被写体が事前に決められた被写体に設定されるようになる。従って、操作者は、このような処理を簡単な操作で行うことができるようになる。   According to the present invention, a subject to be automatically tracked is set to a predetermined subject along with reproduction to a preset position of zoom or focus. Therefore, the operator can perform such processing with a simple operation.

以下、添付図面を参照して、本発明に係るオートフォーカスシステムについて詳細に説明する。   Hereinafter, an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。同図に示す撮像システムは、例えば放送用テレビカメラでの撮影に用いられる撮像システムであり、同図にはレンズ交換可能なカメラヘッド10、カメラヘッド10のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置12、操作部14を含む追尾装置16等が示されている。   FIG. 1 is a block diagram showing the overall configuration of an imaging system to which an autofocus system according to the present invention is applied. The image pickup system shown in FIG. 1 is an image pickup system used for shooting with, for example, a broadcast television camera. In the figure, a camera head 10 with a replaceable lens, and a shooting lens (optical) mounted on the lens mount of the camera head 10 are shown. A lens device 12 having a system), a tracking device 16 including an operation unit 14, and the like are shown.

カメラヘッド10には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置12の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施される。信号処理回路によって生成される所定形式の映像信号は、カメラヘッド10の映像信号出力端子等から外部機器に出力される。   The camera head 10 is equipped with an image sensor (for example, a CCD), a required signal processing circuit, and the like, and an image formed by the photographing lens of the lens device 12 is photoelectrically converted by the image sensor and then subjected to signal processing. Necessary signal processing is performed by the circuit. A video signal in a predetermined format generated by the signal processing circuit is output from the video signal output terminal of the camera head 10 to an external device.

また、カメラヘッド10には、ビューファインダ(モニタ)18が設定されており、そのビューファインダ18にカメラヘッド10の撮像素子により現在撮影されているリアルタイムの映像(撮影映像)等が構図の確認等のために表示されるようになっている。即ち、カメラヘッド10からは撮像素子で現在撮影されている撮影映像の映像信号が出力され、その映像信号が、追尾装置16の後述する映像合成部36を介してビューファインダ18に入力され、現在撮影されているリアルタイムの映像としてビューファインダ18の画面に表示されるようになっている。尚、ビューファインダ18は、カメラヘッド10以外の任意の場所に設定、又は、配置されたものであってもよい。   In addition, a viewfinder (monitor) 18 is set in the camera head 10, and a real-time image (captured image) or the like currently captured by the image sensor of the camera head 10 is confirmed on the viewfinder 18. It is supposed to be displayed for. That is, the camera head 10 outputs a video signal of a captured video currently captured by the imaging device, and the video signal is input to the viewfinder 18 via a video synthesis unit 36 described later of the tracking device 16, It is displayed on the screen of the viewfinder 18 as a real-time video image. The viewfinder 18 may be set or arranged at an arbitrary place other than the camera head 10.

レンズ装置12は、カメラヘッド10のレンズマウントに装着される図示しない撮影レンズ(光学系)を備えており、その撮影レンズにより被写体がカメラヘッド10の撮像素子の撮像面に結像される。撮影レンズには、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、図示しないモータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、ズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。尚、オートフォーカスのみの制御に関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作手段(レンズ装置12に接続されるコントローラの操作手段等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。   The lens device 12 includes a photographing lens (optical system) (not shown) attached to the lens mount of the camera head 10, and an object is imaged on the imaging surface of the imaging element of the camera head 10 by the photographing lens. The photographing lens is provided with movable parts for adjusting photographing conditions such as a focus lens group, a zoom lens group, and a diaphragm as its constituent parts. These movable parts are electrically driven by a motor (servo mechanism) (not shown). It is designed to be driven. For example, the focus lens group and zoom lens group move in the optical axis direction, and the focus (subject distance) adjustment is performed by moving the focus lens group, and the focal length (zoom magnification) adjustment is performed by moving the zoom lens group. Is done. It should be noted that in a system related to autofocus only control, it is sufficient that at least the focus lens group can be driven electrically, and other movable parts may be driven only manually. Further, when the predetermined movable part is electrically driven in accordance with the operation of the operator, it is based on a control signal output in accordance with the operation of the operator from an operation unit (not shown) (such as an operation unit of a controller connected to the lens device 12). Thus, the operation of the movable part is controlled, but details are omitted.

また、同図に示すように、レンズ装置12には、レンズ装置12全体を統括制御するレンズCPU20、オートフォーカス(AF)処理を実行するAF処理部22、AF用撮像回路24等が搭載されている。AF用撮像回路24は、AF処理用の映像信号を取得するためにレンズ装置12に配置されており、撮像素子(CCD等)や撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。尚、AF用撮像回路24の撮像素子をAF用撮像素子という。また、AF用撮像回路24から出力される映像信号は輝度信号とする。AF用撮像素子の撮像面には、撮影レンズの光路上に配置されたハーフミラー等によってカメラヘッド10の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラヘッド10の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラヘッド10の撮像素子により取り込まれる被写体画像と略一致している。尚、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラヘッド10の撮像素子の撮影範囲を包含する大きな範囲であってもよい。   As shown in the figure, the lens device 12 is equipped with a lens CPU 20 that performs overall control of the lens device 12, an AF processing unit 22 that executes autofocus (AF) processing, an AF imaging circuit 24, and the like. Yes. The AF image pickup circuit 24 is disposed in the lens device 12 to acquire a video signal for AF processing, and outputs an image pickup device (CCD or the like) or an output signal of the image pickup device as a video signal of a predetermined format. Etc. The image pickup element of the AF image pickup circuit 24 is referred to as an AF image pickup element. The video signal output from the AF imaging circuit 24 is a luminance signal. On the imaging surface of the AF imaging element, subject light branched from the subject light incident on the imaging element of the camera head 10 is imaged by a half mirror or the like disposed on the optical path of the photographing lens. The shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera head 10 and are used for AF. The subject image captured by the image sensor is substantially the same as the subject image captured by the image sensor of the camera head 10. Note that it is not necessary for the shooting ranges of the two to be completely the same. For example, the shooting range of the AF imaging device may be a larger range including the shooting range of the imaging device of the camera head 10.

AF処理部22は、AF用撮像回路24から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうち、AFの対象範囲であるAFエリア(AFによりピントを合わせる対象とする被写体範囲)に対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPU20に与えられる。尚、AFエリアの範囲は後述のようにレンズCPU20により指定される。   The AF processing unit 22 acquires a video signal from the AF imaging circuit 24, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, a high frequency component signal of a video signal obtained from an AF image sensor is extracted by a high-pass filter, and an AF area that is a target range of AF is extracted from the high frequency component signal. Signals in a range corresponding to the subject range to be matched are integrated for one screen (one frame). The integrated value obtained for each screen in this manner indicates the level of contrast of the subject image, and is given to the lens CPU 20 as a focus evaluation value. The AF area range is designated by the lens CPU 20 as will be described later.

レンズCPU20は、詳細を後述するようにAFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を追尾装置16の操作部14から取得してそのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部22に指定する。図2にAFエリア(AF枠)の一例が示されており、撮影範囲内において四角形状のAFエリアが設定され、その輪郭がAF枠に相当する。レンズCPU20は、このようなAFエリアをAF処理部22に指定し、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部22から取得する。このようにしてAF用撮像回路24から1画面分の映像信号が取得されるごとに(AF処理部22で焦点評価値が求められるごとに)AF処理部22から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AFエリアの被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AFエリア内の被写体に自動でピントが合わせられる。   As will be described in detail later, the lens CPU 20 acquires AF frame information (AF frame information) indicating the range (contour) of the AF area from the operation unit 14 of the tracking device 16 and designates the AF frame specified by the AF frame information. This range is designated to the AF processing unit 22 as an AF area. FIG. 2 shows an example of an AF area (AF frame). A square AF area is set within the shooting range, and its outline corresponds to the AF frame. The lens CPU 20 designates such an AF area as the AF processing unit 22, and acquires a focus evaluation value obtained from an image (video signal) in the AF area from the AF processing unit 22. In this way, every time a video signal for one screen is acquired from the AF imaging circuit 24 (each time the focus evaluation value is obtained by the AF processing unit 22), the focus evaluation value is acquired from the AF processing unit 22, and The focus lens group is controlled so that the acquired focus evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF area is maximum. For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF area is automatically focused.

尚、本実施の形態では、上記のようにAF処理部22において、被写体画像のコントラストを検出するための映像信号をレンズ装置12に搭載されたAF用撮像回路24から取得するようにしているが、カメラヘッド10の撮像素子により撮影されて得られた映像信号をカメラヘッド10から取得してもよい。また、AFの方式も、上記のようなコントラスト方式に限らない。   In the present embodiment, as described above, the AF processing unit 22 acquires the video signal for detecting the contrast of the subject image from the AF imaging circuit 24 mounted on the lens device 12. The video signal obtained by photographing with the image sensor of the camera head 10 may be acquired from the camera head 10. Also, the AF method is not limited to the contrast method as described above.

追尾装置16は、所定の被写体(人物の顔等)がAFエリア内となるように、その被写体を画面上で追尾するための装置であり、操作部14、画像処理部26、画像入力部28、追尾処理部30、パターンデータ記憶部32、枠情報生成部34及び映像合成部36などを備えている。   The tracking device 16 is a device for tracking a subject on the screen so that a predetermined subject (a person's face or the like) is within the AF area, and includes an operation unit 14, an image processing unit 26, and an image input unit 28. A tracking processing unit 30, a pattern data storage unit 32, a frame information generation unit 34, a video composition unit 36, and the like.

追尾装置16では、基本的な処理として、レンズ装置12のAF処理部22で使用するAFエリア(AF枠)を設定(決定)するAFエリア設定処理と、追尾対象とした物体を自動追尾する自動追尾処理と、撮影映像中の人物の顔画像を認識(検出)すると共に、認識した顔画像の個人を特定する人物特定処理、人物特定処理により特定する人物の顔画像のパターンを登録するパターン登録処理、ビューファインダ18に撮影映像と共にAF枠や追尾枠(顔枠)を表示させる枠表示処理等が行われ、これらの処理は追尾処理部30により統括的に行われるようになっている。

AFエリア設定処理は、AFエリア(AF枠)の範囲(位置、大きさ、形状)を設定し、設定したAFエリアの範囲を示すAF枠情報をレンズ装置12のレンズCPU20に送信する処理であり、これによってレンズCPU20によりAF処理部22において使用するAFエリアがAF枠情報に従って設定される。
In the tracking device 16, as basic processing, an AF area setting process for setting (determining) an AF area (AF frame) used in the AF processing unit 22 of the lens device 12, and an automatic tracking function for automatically tracking an object to be tracked. Tracking processing and recognition (detection) of a person's face image in the captured video, person identification processing for identifying the person of the recognized face image, and pattern registration for registering the face image pattern of the person identified by the person identification processing Processing, frame display processing for displaying the AF frame and tracking frame (face frame) together with the captured image on the viewfinder 18 are performed, and these processing are performed by the tracking processing unit 30 in an integrated manner.

The AF area setting process is a process of setting an AF area (AF frame) range (position, size, shape) and transmitting AF frame information indicating the set AF area range to the lens CPU 20 of the lens device 12. Thereby, the AF area used in the AF processing unit 22 is set by the lens CPU 20 in accordance with the AF frame information.

後述のように自動追尾の実行時(自動追尾のオン時)には、追尾処理部30により自動追尾処理が実行され、AFの対象とする追尾対象の位置に応じてAFエリアの位置等が変更、設定される。そして、追尾処理部30により設定されたAFエリアの範囲を示すAF枠情報が、操作部14を介してレンズ装置12のレンズCPU20に送信される。   As will be described later, when automatic tracking is executed (when automatic tracking is turned on), automatic tracking processing is executed by the tracking processing unit 30, and the position of the AF area is changed according to the position of the tracking target to be AF target. Is set. Then, AF frame information indicating the range of the AF area set by the tracking processing unit 30 is transmitted to the lens CPU 20 of the lens device 12 via the operation unit 14.

一方、自動追尾の非実行時(自動追尾のオフ時)には、操作者が操作部14によりAFエリアの範囲を変更する操作を行わない限りAFエリアの範囲は固定される。例えば、初期状態では、画面(撮影範囲)の中央に所定の大きさの四角形の領域としてAFエリアが設定される。   On the other hand, when automatic tracking is not executed (when automatic tracking is turned off), the range of the AF area is fixed unless the operator performs an operation to change the range of the AF area using the operation unit 14. For example, in the initial state, the AF area is set as a square area of a predetermined size at the center of the screen (shooting range).

操作者が操作部14のAFエリア設定用の操作部材を操作した場合には、そのマニュアル操作に従ってAFエリアの範囲が変更される。但し、本実施の形態では操作者はAFエリアの位置のみを変更できるものとする。操作部14には、トラックボール14aが設けられており、操作者がこのトラックボール14aを操作すると、現在のAFエリアの位置に対してその操作方向及び操作量に応じた移動方向及び移動量だけ移動させた新たなAFエリアの位置が求められる。そして、その位置に変更されたAFエリアの範囲を示すAF枠情報がレンズ装置12のレンズCPU20に送信され、トラックボール14aの操作に従ってAFエリアの位置が設定される。   When the operator operates the operation member for setting the AF area of the operation unit 14, the range of the AF area is changed according to the manual operation. However, in this embodiment, it is assumed that the operator can change only the position of the AF area. The operation unit 14 is provided with a trackball 14a. When the operator operates the trackball 14a, only the movement direction and the movement amount corresponding to the operation direction and the operation amount with respect to the position of the current AF area. The position of the moved new AF area is obtained. Then, AF frame information indicating the range of the AF area changed to that position is transmitted to the lens CPU 20 of the lens apparatus 12, and the position of the AF area is set according to the operation of the trackball 14a.

尚、自動追尾がオンの状態のときであっても操作部14によりAFエリアの範囲を変更するマニュアル操作が行われた場合には、そのマニュアル操作によるAFエリアの変更が、追尾処理部30における自動追尾によるAFエリアの変更よりも優先されるようになっている。   Even when the automatic tracking is on, if the manual operation for changing the range of the AF area is performed by the operation unit 14, the change of the AF area by the manual operation is performed in the tracking processing unit 30. This is prioritized over the AF area change by automatic tracking.

また、操作部14には、図示していないが、各操作部材の操作を検出する検出回路(センサ、スイッチ等)の他にそれらの検出回路の出力信号に基づいてAF枠情報等の必要な情報を生成してレンズ装置12や追尾処理部30に出力する簡易な処理部を備えているが、必ずしもそのような処理部を設ける必要はない。即ち、操作部14の処理部で行われる処理は、操作部14の検出回路の出力を取得した追尾処理部30で全て行い、追尾処理部30からレンズCPU20に必要な情報(AF枠情報等)を直接送信するようにしてもよい。又は、追尾処理部30とレンズCPU20の各々において自己の処理に必要な出力信号を操作部14の検出回路から直接取得するようにしてもよい。   Although not shown, the operation unit 14 requires AF frame information and the like based on output signals from the detection circuits in addition to detection circuits (sensors, switches, etc.) that detect the operation of each operation member. Although a simple processing unit that generates information and outputs the information to the lens device 12 and the tracking processing unit 30 is provided, such a processing unit is not necessarily provided. That is, all processing performed by the processing unit of the operation unit 14 is performed by the tracking processing unit 30 that has acquired the output of the detection circuit of the operation unit 14, and information necessary for the lens CPU 20 from the tracking processing unit 30 (AF frame information and the like). May be transmitted directly. Alternatively, each of the tracking processing unit 30 and the lens CPU 20 may directly acquire an output signal necessary for its own processing from the detection circuit of the operation unit 14.

更に、操作部14は、追尾装置16に含まれる構成要素であるが、追尾装置16とは別体の装置とし、ケーブルなどで追尾装置16に接続するようにしてもよい。   Furthermore, although the operation unit 14 is a component included in the tracking device 16, it may be a separate device from the tracking device 16 and connected to the tracking device 16 by a cable or the like.

自動追尾処理は、自動追尾がオンの状態のときに、追尾対象(後述)として設定された物体を画面上で自動追尾する処理である。追尾処理を開始する前の段階では、追尾対象とする物体の画像領域、又は、追尾対象とする物体の画像含む画像領域が決められており、例えば、後述の人物特定処理において検出された人物の顔の画像領域やAFエリアの画像領域等がこれに相当する。自動追尾の方法は周知であるため詳細な説明は省略するが、追尾処理部30は、自動追尾処理を実行する際に、レンズ装置12のAF用撮像回路24で順次撮影されるフレーム画像(撮影画像)をAF処理部22及び追尾装置16の画像入力部28を介して画像処理部26に順次取り込む。そして、自動追尾を開始した初期のフレーム画像から順次、追尾対象とする物体の画像領域を検出してその画像内での位置を追尾する。画像内に複数の追尾対象が存在している場合であっても各々追尾可能である。   The automatic tracking process is a process of automatically tracking an object set as a tracking target (described later) on the screen when the automatic tracking is on. In the stage before starting the tracking process, the image area of the object to be tracked or the image area including the image of the object to be tracked is determined. For example, the image of the person detected in the person specifying process to be described later is determined. A face image area, an AF area image area, and the like correspond to this. Since the automatic tracking method is well known, detailed description thereof is omitted, but the tracking processing unit 30 sequentially captures frame images (shooting) by the AF imaging circuit 24 of the lens device 12 when executing the automatic tracking process. Image) are sequentially taken into the image processing unit 26 via the AF processing unit 22 and the image input unit 28 of the tracking device 16. Then, the image area of the object to be tracked is sequentially detected from the initial frame image in which the automatic tracking is started, and the position in the image is tracked. Even if there are a plurality of tracking targets in the image, each of them can be tracked.

人物特定処理は、撮影画像に含まれる人物の顔(顔画像)を顔認識処理により認識(検出)すると共に、認識した顔の個人を特定する処理である。本実施の形態では、自動追尾の種類(モード)として、エリア自動追尾モードと顔認識自動追尾モードとがあり、エリア自動追尾モードは、現在設定されているAFエリア内の任意の物体をAFの対象として追尾する追尾対象とし、顔認識自動追尾モードは、撮影画像内に含まれる特定の人物の顔をAFの対象として追尾する追尾対象とする。尚、エリア自動追尾モードは、操作部14の図示しないエリア自動追尾スイッチがオンされたときに実行され、顔認識自動追尾モードは、操作部14の顔認識自動追尾スイッチがオンされたときに実行される。   The person specifying process is a process of recognizing (detecting) a person's face (face image) included in the photographed image by face recognition processing and specifying an individual of the recognized face. In the present embodiment, there are an area automatic tracking mode and a face recognition automatic tracking mode as types (modes) of automatic tracking. In the area automatic tracking mode, an arbitrary object in the currently set AF area is detected by AF. The face recognition automatic tracking mode is set as a tracking target to be tracked as an AF target in the face recognition automatic tracking mode. The area automatic tracking mode is executed when an area automatic tracking switch (not shown) of the operation unit 14 is turned on, and the face recognition automatic tracking mode is executed when the face recognition automatic tracking switch of the operation unit 14 is turned on. Is done.

人物特定処理は、顔認識自動追尾モードにおいて行われる処理であり、顔認識自動追尾モードがオンされると、追尾処理部30は、レンズ装置12のAF用撮像回路24で順次撮影されるフレーム画像をAF処理部22及び追尾装置16の画像入力部28を介して画像処理部26に順次取り込む処理を開始する。そして、画像処理部26に取り込んだ初期のフレーム画像に対して、周知の顔認識処理を行いフレーム画像内に含まれる人物の顔(顔画像)を検出する。例えば、人物の顔の一般的な形状、色に基づいて顔画像が検出される。   The person specifying process is a process performed in the face recognition automatic tracking mode. When the face recognition automatic tracking mode is turned on, the tracking processing unit 30 sequentially captures frame images taken by the AF imaging circuit 24 of the lens device 12. Is started to be sequentially taken into the image processing unit 26 via the AF processing unit 22 and the image input unit 28 of the tracking device 16. Then, a known face recognition process is performed on the initial frame image captured by the image processing unit 26 to detect a human face (face image) included in the frame image. For example, a face image is detected based on the general shape and color of a person's face.

顔認識処理により顔画像を検出すると、続いて周知の顔認証処理により、検出した顔画像の個人を特定する。例えば、特定する個人の顔のパターンデータが事前にパターンデータ記憶部32に登録されており、顔認識処理により検出された顔画像がパターンデータ記憶部32に登録されているパターンデータに一致すればそのパターンデータの顔の人物として特定される。本実施の形態では、パターンデータ記憶部32には複数の人物の顔のパターンデータを登録させておくことができ、いずれかの人物のパターンデータに一致すれば、その顔画像の人物が特定される。   When a face image is detected by the face recognition process, an individual of the detected face image is specified by a well-known face authentication process. For example, if the pattern data of an individual face to be specified is registered in the pattern data storage unit 32 in advance, and the face image detected by the face recognition process matches the pattern data registered in the pattern data storage unit 32. It is specified as a face person in the pattern data. In the present embodiment, the pattern data storage unit 32 can register face pattern data of a plurality of persons. If the pattern data matches any person's pattern data, the person of the face image is specified. The

このように人物特定処理により撮影画像内に特定の人物の顔画像が特定された場合には、その顔画像がAFの対象として自動追尾する追尾対象に設定される。複数の人物の顔画像が特定された場合には、AFの対象として自動追尾する顔画像がいずれか一人の人物のものに選出される。例えば、パターンデータ記憶部32に複数の人物のパターンデータを記憶した場合には、それらの人物の二人以上の顔画像が同時に撮影映像内に存在した場合に、どの人物の顔画像をAFの対象として選出するかの優先順位を予め決めておくようにしてもよいし、操作者が所定の操作により指定するようにしてもよい。   As described above, when a face image of a specific person is specified in the captured image by the person specifying process, the face image is set as a tracking target to be automatically tracked as an AF target. When face images of a plurality of persons are specified, a face image to be automatically tracked is selected as that of any one person as an AF target. For example, when pattern data of a plurality of persons is stored in the pattern data storage unit 32, when two or more face images of those persons are present in the photographed video at the same time, which person's face image is used for AF. The priority order of selection as a target may be determined in advance, or the operator may designate it by a predetermined operation.

パターン登録処理は、上記のように人物特定処理により特定する個人の顔画像のパターンを事前にパターンデータとして登録する処理であり、操作者が顔認識自動追尾モードを実行する前に少なくとも一人の人物の顔画像のパターンを登録しておくために、操作部14のパターン登録モードスイッチをオンしてパターン登録モードをオンにすると実行される。   The pattern registration process is a process of registering the pattern of the individual face image specified by the person specifying process as pattern data in advance as described above, and at least one person before the operator executes the face recognition automatic tracking mode. In order to register the face image pattern, the pattern registration mode switch of the operation unit 14 is turned on to turn on the pattern registration mode.

パターン登録モードがオンされると、追尾処理部30は、レンズ装置12のAF用撮像回路24で順次撮影されるフレーム画像をAF処理部22及び追尾装置16の画像入力部28を介して画像処理部26に順次取り込む処理を開始する。そして、画像処理部26に取り込んだ初期のフレーム画像に対して、周知の顔認識処理を行いフレーム画像内に含まれる人物の顔画像を検出する。検出された顔画像は、後述の枠表示処理によりビューファインダ18に撮影映像と共に撮影映像に重畳表示される枠(顔枠)表示によって操作者が認識できるようになっている。   When the pattern registration mode is turned on, the tracking processing unit 30 performs image processing on the frame images sequentially captured by the AF imaging circuit 24 of the lens device 12 via the AF processing unit 22 and the image input unit 28 of the tracking device 16. The process of sequentially loading into the unit 26 is started. Then, a known face recognition process is performed on the initial frame image captured by the image processing unit 26 to detect a human face image included in the frame image. The detected face image can be recognized by the operator through a frame (face frame) display that is superimposed on the photographed video together with the photographed video on the viewfinder 18 by a frame display process described later.

操作者は、検出された顔画像が複数存在する場合には、登録したい顔画像を選択する。例えば、初期の段階ではいずれかの顔画像が選択されている状態にある。このとき、ビューファインダ18では顔枠の色の違い等によって選択されている顔画像と選択されていない他の顔画像とが識別可能となっている。操作者は、現在選択されている顔画像に対して、例えば登録したい顔画像の方向に操作部14のトラックボール14aを操作すると、選択される顔画像をその登録したい顔画像に変更することができる。尚、カメラの撮影方向を変更して選択したい顔画像をAFエリアに合わせる(選択したい顔枠をAFエリアに重ねる)ことによって所望の顔画像を選択できるようにしてもよい。また、撮影本番時でなければ、撮影画角を自由に変更することが可能であるため、カメラをパン/チルト操作すると共にズーム操作を行って、所望の顔画像のみが撮影画像内に含まれるようにすることによって所望の顔画像のみを選択できるようにしてもよい。尚、初めから登録したい人物の顔画像のみを撮影した状態でパターン登録モードをオンすれば、上記のような登録する顔画像の選択という作業は不要となる。   When there are a plurality of detected face images, the operator selects a face image to be registered. For example, in the initial stage, any face image is selected. At this time, the viewfinder 18 can distinguish the selected face image from other face images not selected due to the difference in the color of the face frame. For example, when the operator operates the trackball 14a of the operation unit 14 in the direction of the face image to be registered with respect to the currently selected face image, the face image to be selected may be changed to the face image to be registered. it can. Note that a desired face image may be selected by changing the shooting direction of the camera and aligning the face image to be selected with the AF area (overlaying the face frame to be selected on the AF area). In addition, since it is possible to change the shooting angle of view at any time other than the actual shooting, the pan / tilt operation and zoom operation of the camera are performed, and only the desired face image is included in the shot image. By doing so, only a desired face image may be selected. If the pattern registration mode is turned on while only the face image of the person desired to be registered is photographed from the beginning, the above-described operation of selecting the face image to be registered becomes unnecessary.

このようにして、登録する人物の顔画像が選択されると、追尾処理部30は、その顔画像のパターンデータをサンプリングする。このとき、登録する一人の人物に対して複数のパターンデータを登録しておくことが可能となっており、操作者は、登録する人物の顔画像を撮影しながら、その人物が顔の向きを変えるなどして、必要な方向から顔を撮影したときの顔画像のパターンデータがサンプリングできたと判断した場合に所定の操作によりサンプリングを終了させる。これによって、登録する人物の顔画像を立体的に撮影したときのパターンデータが得られる。このようにしてサンプリングしたパターンデータは、その人物を識別する名称と共にパターンデータ記憶部32に登録される。   When the face image of the person to be registered is selected in this way, the tracking processing unit 30 samples the pattern data of the face image. At this time, it is possible to register a plurality of pattern data for one person to be registered, and the operator captures the face image of the person to be registered and changes the direction of the face. For example, when it is determined that the pattern data of the face image when the face is photographed from a necessary direction can be sampled, the sampling is terminated by a predetermined operation. As a result, pattern data when the face image of the person to be registered is photographed in three dimensions can be obtained. The pattern data sampled in this way is registered in the pattern data storage unit 32 together with a name for identifying the person.

操作部14には、図1に示されている複数の押しボタン式のスイッチ14bが設けられており、例えば、パターン登録モードをオンにする際等に、複数のスイッチ14bのいずれかをオンして、パターンデータを登録する人物に対応付けるスイッチを指定しておくことによって、そのオンしたスイッチに一人の人物を対応させてパターンデータを登録することができるようになっている。そして、上記顔認識追尾モードにおいて、パターンデータが登録された人物のうちどの人物の顔をAFの対象として追尾するかを、その人物に対応させたスイッチをオンすることによって選択できるようになっている。尚、パターンデータが登録された順に、登録した人物とスイッチ14bとの対応付けを自動的に行うようにしてもよい。   The operation unit 14 is provided with a plurality of push button type switches 14b shown in FIG. 1. For example, when the pattern registration mode is turned on, any one of the plurality of switches 14b is turned on. By designating a switch to be associated with a person to register pattern data, it is possible to register pattern data by associating one person with the switch that is turned on. In the face recognition tracking mode, it is possible to select which person's face to be tracked as an AF target among the persons whose pattern data is registered by turning on a switch corresponding to the person. Yes. The registered person may be automatically associated with the switch 14b in the order in which the pattern data is registered.

また、パターンデータを登録する際には、登録した人物の名称などの情報を登録でき、そのデータもパターンデータと共にパターンデータ記憶部32に登録されるようになっている。名称などの入力は、パソコン等の文字入力装置を備えた装置を追尾装置16に接続して、その装置で入力された情報を取り込むようにしてもよいし、操作部14に文字入力装置を設けるか又は接続できるようにし、その文字入力装置から入力できるようにしてもよい。   When registering the pattern data, information such as the name of the registered person can be registered, and the data is also registered in the pattern data storage unit 32 together with the pattern data. For the input of a name or the like, a device equipped with a character input device such as a personal computer may be connected to the tracking device 16 to capture information input by the device, or a character input device is provided in the operation unit 14. Alternatively, it may be possible to connect and input from the character input device.

枠表示処理は、ビューファインダ18に撮影映像に重畳させてAF枠や追尾枠(顔枠)等の枠画像を表示する処理である。追尾処理部30は、撮影映像上でのAF枠や追尾対象を囲む四角形状の枠の位置や大きさを決定すると、その情報を枠情報生成部34に与え、それらの枠の画像を生成させる。尚、単に枠の画像のみでなく、枠の色や、枠に付随する文字情報なども追尾処理部30の指示によって生成される。枠情報生成部34により生成された枠の画像は映像合成部36に与えられる。映像合成部36にはカメラヘッド10の撮像素子により現在撮影されている撮影映像の映像信号が入力されており、映像合成部36は、その撮影映像と枠情報生成部34から与えられた枠の画像を合成した映像信号を生成し、ビューファインダ18に出力する。これにより、ビューファインダ18には撮影映像に重畳してAF枠や追尾枠(顔枠)等の画像が対応する位置に表示される。   The frame display process is a process of displaying a frame image such as an AF frame or a tracking frame (face frame) on the viewfinder 18 so as to be superimposed on the captured image. When the tracking processing unit 30 determines the position and size of the AF frame and the rectangular frame surrounding the tracking target on the captured video, the tracking processing unit 30 gives the information to the frame information generation unit 34 to generate images of the frames. . Not only the image of the frame but also the color of the frame and character information associated with the frame are generated by the instruction of the tracking processing unit 30. The frame image generated by the frame information generation unit 34 is given to the video composition unit 36. The video composition unit 36 receives a video signal of a photographed video currently captured by the imaging element of the camera head 10, and the video composition unit 36 receives the frame of the captured video and the frame given from the frame information generation unit 34. A video signal obtained by synthesizing the images is generated and output to the viewfinder 18. As a result, images such as an AF frame and a tracking frame (face frame) are displayed at corresponding positions on the viewfinder 18 so as to be superimposed on the captured video.

また、顔枠に対して例えば「FUJI#1」のような名称の表示、及び画面下の方にAF駆動中である旨を示す表示などが行われる。   For example, a name such as “FUJI # 1” is displayed on the face frame, and a display indicating that AF driving is being performed at the bottom of the screen.

次に、図1に示したオートフォーカスシステムの基本的な処理手順(第1の実施の形態)について図3のフローチャートを用いて説明する。   Next, a basic processing procedure (first embodiment) of the autofocus system shown in FIG. 1 will be described with reference to the flowchart of FIG.

レンズ装置12のレンズCPU20及び追尾装置16の追尾処理部30は、電源が投入されると、まず、初期設定を行う(ステップS100)。続いて、追尾処理部30は、顔認識自動追尾スイッチがオンされたか否か判定する(ステップS102)。顔認識自動追尾スイッチがオンされた場合には顔認識自動追尾モードの処理が実行されるが、このときの処理手順については後述する。   When the power is turned on, the lens CPU 20 of the lens device 12 and the tracking processing unit 30 of the tracking device 16 first perform initial setting (step S100). Subsequently, the tracking processing unit 30 determines whether or not the face recognition automatic tracking switch is turned on (step S102). When the face recognition automatic tracking switch is turned on, processing in the face recognition automatic tracking mode is executed. The processing procedure at this time will be described later.

ステップS102において、NOと判定した場合には、続いて、パターン登録モードスイッチがオンされたか否かを判定する(ステップS104)。パターン登録モードスイッチがオンされた場合にはパターンデータの登録処理(パターン登録処理)が行われるが、このときの処理手順については後述する。   If it is determined as NO in step S102, it is subsequently determined whether or not the pattern registration mode switch is turned on (step S104). When the pattern registration mode switch is turned on, pattern data registration processing (pattern registration processing) is performed. The processing procedure at this time will be described later.

ステップS104において、NOと判定した場合には、エリア手動設定の処理を実行する(ステップS106)。即ち、操作者が操作部14のトラックボール14aを操作すると、その操作に従ってAFエリアの範囲が設定される。   If it is determined as NO in step S104, an area manual setting process is executed (step S106). That is, when the operator operates the trackball 14a of the operation unit 14, the AF area range is set according to the operation.

次に、エリア自動追尾スイッチがオンされたか否かを判定する(ステップS108)。YESと判定した場合には、追尾処理部30は、上記のようにエリア自動追尾モードにおける自動追尾処理を開始し(ステップS110)、ステップS300に移行する。即ち、追尾処理部30は、エリア自動追尾スイッチがオンされたときのAFエリア内の被写体を追尾対象とし、AFエリアの位置をその追尾対象の位置に合わせて変更する。ステップS108において、NOと判定した場合には、自動追尾処理をオフ(停止)させ(ステップS112)、ステップS300に移行する。   Next, it is determined whether or not the area automatic tracking switch is turned on (step S108). When it determines with YES, the tracking process part 30 starts the automatic tracking process in area automatic tracking mode as mentioned above (step S110), and transfers to step S300. That is, the tracking processing unit 30 sets the subject in the AF area when the area automatic tracking switch is turned on as a tracking target, and changes the position of the AF area according to the position of the tracking target. If it is determined as NO in step S108, the automatic tracking process is turned off (stopped) (step S112), and the process proceeds to step S300.

続いて、ステップS300に移行すると、レンズCPU20は、AFのオン/オフを判定する。この判定処理は、図示を省略するAFの開始及び終了を指示するAFスイッチのオン/オフに基づいて判定される。   Subsequently, in step S300, the lens CPU 20 determines whether AF is on / off. This determination process is determined based on ON / OFF of an AF switch that instructs start and end of AF (not shown).

ステップS300において、YESと判定した場合には、AF処理を行う(ステップS132)。これにより、上で設定されたAFエリア内の被写体に対して焦点が合うようにフォーカスレンズが自動的に制御される。   If YES is determined in step S300, AF processing is performed (step S132). Accordingly, the focus lens is automatically controlled so that the subject in the AF area set above is in focus.

ステップS300において、NOと判定した場合には、操作者が手動で行うフォーカス操作に従ってフォーカス制御を行う(ステップS134)。以上のステップS132又はステップS134の処理が終了すると、ステップS102に戻る。   If NO is determined in step S300, focus control is performed according to the focus operation manually performed by the operator (step S134). When the process of step S132 or step S134 is completed, the process returns to step S102.

一方、上記ステップS104において、YES、即ち、パターン登録モードスイッチがオンされ、パターン登録モードであると判定した場合、追尾処理部39は上記パターン登録処理を、下記の手順で実行する。   On the other hand, if YES in step S104, that is, if the pattern registration mode switch is turned on and it is determined that the pattern registration mode is selected, the tracking processing unit 39 executes the pattern registration processing according to the following procedure.

まず、追尾装置16の追尾処理部30は、レンズ装置12のAF用撮像回路24で順次撮影されるフレーム画像の画像処理部26への取込みを開始する(ステップS114)。続いて追尾処理部30は、画像処理部26に取り込まれた画像に対して顔認識処理を実行し、画像内に含まれる人物の顔画像を認識(検出)する(ステップS116)。尚、画像内に複数の顔画像が存在する場合でも1つの顔画像を認識した時点で次のステップS118に移行する。また、追尾処理部30は、顔画像を検出すると、上記枠表示処理によりビューファインダ18に表示される撮影映像に、認識した顔画像の顔枠を重畳表示する。   First, the tracking processing unit 30 of the tracking device 16 starts capturing the frame images sequentially captured by the AF imaging circuit 24 of the lens device 12 into the image processing unit 26 (step S114). Subsequently, the tracking processing unit 30 performs face recognition processing on the image captured by the image processing unit 26, and recognizes (detects) a human face image included in the image (step S116). Even when a plurality of face images exist in the image, the process proceeds to the next step S118 when one face image is recognized. Further, when detecting the face image, the tracking processing unit 30 superimposes and displays the face frame of the recognized face image on the captured image displayed on the viewfinder 18 by the frame display process.

次に、追尾処理部30は、ステップS116において認識した顔画像を追尾対象として、自動追尾処理を開始する(ステップ118)。ビューファインダ18の顔枠も顔画像の移動に合わせて変更する。   Next, the tracking processing unit 30 starts the automatic tracking process with the face image recognized in step S116 as a tracking target (step 118). The face frame of the viewfinder 18 is also changed in accordance with the movement of the face image.

次いで、顔認識処理を終了するか否かを判定する(ステップS120)。例えば、ステップS116の顔認識処理において新たに検出される顔画像がない場合には顔認識の処理を終了する。   Next, it is determined whether or not to end the face recognition process (step S120). For example, if there is no newly detected face image in the face recognition process in step S116, the face recognition process is terminated.

ステップS120において、NOと判定した場合には、ステップS116に戻り、顔認識処理を繰り返す。   If it is determined as NO in step S120, the process returns to step S116 and the face recognition process is repeated.

ステップS120において、YESと判定した場合には、ステップS116において認識された顔画像の中から、操作者が登録したい顔画像を選択する(ステップS122)。   If it is determined as YES in step S120, the face image that the operator desires to register is selected from the face images recognized in step S116 (step S122).

次に、追尾処理部30は、登録する顔画像として選択された顔画像のパターンデータのサンプリングを行う(ステップS124)。サンプリングしたパターンデータは、パターンデータ記憶部32のデータベースに登録(記憶)される。   Next, the tracking processing unit 30 samples the pattern data of the face image selected as the face image to be registered (step S124). The sampled pattern data is registered (stored) in the database of the pattern data storage unit 32.

続いて、選択された顔画像を追尾するための自動追尾処理を開始する(ステップS126)。そして、サンプリングを終了するか否かを判定する(ステップS128)。サンブリングを終了するか否かは、例えば操作者が所定のスイッチにより指示できるようになっている。   Subsequently, an automatic tracking process for tracking the selected face image is started (step S126). Then, it is determined whether or not to end sampling (step S128). Whether or not to end the sampling can be instructed by an operator using a predetermined switch, for example.

ここで、NOと判定した場合には、ステップS124の処理に戻り、サンプリングを継続する。即ち、登録する人物の顔を、できるだけ多くの方向(角度)から撮影したときのパターンデータが得られるまでパターンデータのサンプリングを繰り返す。従って、一人の人物に対して複数のパターンデータがパターンデータ記憶部32のデータベースに登録される。   If it is determined NO, the process returns to step S124 and sampling is continued. That is, pattern data sampling is repeated until pattern data is obtained when the face of the person to be registered is photographed from as many directions (angles) as possible. Therefore, a plurality of pattern data is registered in the database of the pattern data storage unit 32 for one person.

ステップS128において、YESと判定した場合、登録した顔画像の人物を識別するための名称(名前及びNo.など)を登録する(ステップS130)。名称の登録を行っておくと、顔認識追尾モードにおいて、登録した顔画像が検出された場合に、図1に示すようにビューファインダ18の表示画面にその顔画像の顔枠に「FUJI#1」のような名称を表示することができる。   If YES is determined in step S128, a name (name, No., etc.) for identifying the person of the registered face image is registered (step S130). If the name is registered, when a registered face image is detected in the face recognition tracking mode, the face frame of the face image is displayed on the display screen of the viewfinder 18 as shown in FIG. "Can be displayed.

以上のパターン登録処理が終了すると、追尾処理部30は、パターン登録モードをオフに切り替える(ステップS132)。そして、パターンデータを登録した顔画像を含むようにAFエリアを設定し、その顔画像をAFの対象として自動追尾するための自動追尾処理を開始する(ステップS134)。即ち、登録した顔画像を追尾対象として自動追尾すると共にその顔画像の移動に合わせてAFエリアを変更する。尚、顔枠をAFエリアとしてもよい。ステップS134の自動追尾処理の開始後、ステップS300に移行する。   When the above pattern registration process is completed, the tracking processing unit 30 switches the pattern registration mode off (step S132). Then, an AF area is set so as to include the face image in which the pattern data is registered, and an automatic tracking process for automatically tracking the face image as an AF target is started (step S134). That is, the registered face image is automatically tracked as a tracking target, and the AF area is changed according to the movement of the face image. The face frame may be an AF area. After the start of the automatic tracking process in step S134, the process proceeds to step S300.

上記ステップS102において、YES、即ち、顔認識自動追尾スイッチがオンされたと判定した場合には、顔認識自動追尾モードの処理を以下のような手順で実行する。   If YES in step S102, that is, if it is determined that the face recognition automatic tracking switch is turned on, the processing in the face recognition automatic tracking mode is executed in the following procedure.

まず、追尾装置16の追尾処理部30は、レンズ装置12のAF用撮像回路24で順次撮影されるフレーム画像の画像処理部26への取込みを開始する(ステップS136)。続いて追尾処理部30は、画像処理部26に取り込まれた画像に対して顔認識処理を実行し、画像内に含まれる人物の顔画像を認識(検出)する(ステップS138)。尚、画像内に複数の顔画像が存在する場合でも1つの顔画像を認識した時点で次のステップS140に移行する。また、追尾処理部30は、顔画像を検出すると、上記枠表示処理によりビューファインダ18に表示される撮影映像に、認識した顔画像の顔枠を重畳表示する。   First, the tracking processing unit 30 of the tracking device 16 starts capturing the frame images sequentially captured by the AF imaging circuit 24 of the lens device 12 into the image processing unit 26 (step S136). Subsequently, the tracking processing unit 30 performs face recognition processing on the image captured by the image processing unit 26, and recognizes (detects) a human face image included in the image (step S138). Even when a plurality of face images exist in the image, the process proceeds to the next step S140 when one face image is recognized. Further, when detecting the face image, the tracking processing unit 30 superimposes and displays the face frame of the recognized face image on the captured image displayed on the viewfinder 18 by the frame display process.

次に、ステップ138で認識した人物の顔画像のパターンをサンプリングし、パターンデータ記憶部32のデータベースに記憶されたパターンデータの中から同一のパターンを検索する(ステップS140)。   Next, the face image pattern of the person recognized in step 138 is sampled, and the same pattern is searched from the pattern data stored in the database of the pattern data storage unit 32 (step S140).

続いて、ビューファインダ18において、検出された顔画像に対して名称を表示するか否かを判定する(ステップS142)。名称を表示するか否かは、例えば、所定のスイッチのオン/オフによって操作者が指定できるようになっている。   Subsequently, the viewfinder 18 determines whether or not to display a name for the detected face image (step S142). Whether or not the name is displayed can be specified by the operator by turning on / off a predetermined switch, for example.

ステップS142において、NOと判定した場合には、ステップS150に移行し、YESと判定した場合には、続いて、ステップS140における検索において、データベースに登録されたパターンデータの中に、検出された顔画像と同一のパターンが発見されたか否かを判定する(ステップS144)。   If NO is determined in step S142, the process proceeds to step S150. If YES is determined, the face detected in the pattern data registered in the database in the search in step S140 is subsequently performed. It is determined whether or not the same pattern as the image has been found (step S144).

ステップS144において、YESと判定した場合には、そのパターンデータに対応して登録されていた名称を、例えば「FUJI#1」などを、検出された顔画像に対応させてビューファインダ18に表示させる(ステップS146)。ステップS144において、NOと判定した場合には、「??」の文字を検出された顔画像に対応させてビューファインダ18に表示させる(ステップ148)。これにより操作者は、ビューファインダ18に表示されている各顔画像がパターン登録されているか否かを簡単に確認することができる。   If it is determined as YES in step S144, the name registered corresponding to the pattern data, for example, “FUJI # 1” is displayed on the viewfinder 18 in association with the detected face image. (Step S146). If NO is determined in step S144, the character “??” is displayed on the viewfinder 18 in association with the detected face image (step 148). Thereby, the operator can easily confirm whether or not each face image displayed on the viewfinder 18 is registered as a pattern.

ステップS146又はステップS148の処理が終了すると、又は、ステップS142においてNOと判定した場合、ステップS138において検出した顔画像を自動追尾する自動追尾処理を開始する(ステップS150)。このとき、ビューファインダ18において撮影画像に重畳表示する顔枠の位置も自動追尾処理によって検出した顔画像の位置に合わせて移動させる。   When the process of step S146 or step S148 ends, or when it is determined NO in step S142, an automatic tracking process for automatically tracking the face image detected in step S138 is started (step S150). At this time, the position of the face frame superimposed on the captured image in the viewfinder 18 is also moved in accordance with the position of the face image detected by the automatic tracking process.

ステップS150の処理が終了すると、次に、画像内に含まれる全ての顔画像に対して上記処理が終了したか否かを判定する(ステップS152)。ステップS138の顔認識処理において新たな顔画像が検出されなかった場合には、このステップS152の判定処理において、YESと判定され、そうでなければNOと判定されてステップS138に戻り、顔認識処理から繰り返し実行する。   When the processing in step S150 is completed, it is next determined whether or not the above processing has been completed for all face images included in the image (step S152). If a new face image is not detected in the face recognition process in step S138, it is determined as YES in the determination process in step S152. Otherwise, it is determined as NO and the process returns to step S138, and the face recognition process is performed. Execute repeatedly from.

ステップS152において、YESと判定した場合には、次に、上記ステップS136〜S152の処理において検出された顔画像のうち、パターンデータが登録されている顔画像が1つ以上発見されたか否かを判定する(ステップS154)。   If it is determined as YES in step S152, next, it is determined whether or not one or more face images in which pattern data is registered are found among the face images detected in the processes of steps S136 to S152. Determination is made (step S154).

このステップS154において、NOと判定した場合にはレンズ装置12におけるAF処理をオフにして(ステップS156)、ステップS300に移行する。   If it is determined as NO in step S154, the AF process in the lens device 12 is turned off (step S156), and the process proceeds to step S300.

一方、ステップS154において、YESと判定した場合には、プリセットがオンされているか否かを判定する(ステップS158)。即ち、操作部14のスイッチ14bのうち、パターンデータが登録された人物に対応付けされたいずれかのスイッチがオンされているか否かを判定する。   On the other hand, if it is determined as YES in step S154, it is determined whether or not the preset is turned on (step S158). That is, it is determined whether one of the switches 14b of the operation unit 14 associated with the person for which the pattern data is registered is turned on.

ステップS158において、NOと判定した場合には、予め決められた所定の規則にしたがって、AFの対象とする顔画像を選択する(ステップS160)。例えば、操作部14のスイッチ14bに番号を付しておき、パターンデータが登録された人物の顔画像が複数検出された場合には、対応付けされたスイッチ14bに番号が最も小さいものをAFの対象とする。パターンデータが登録された人物の顔画像が1つのみ検出された場合には、その顔画像をAFの対象として選択する。   If NO is determined in step S158, a face image to be subjected to AF is selected according to a predetermined rule (step S160). For example, if a number is assigned to the switch 14b of the operation unit 14 and a plurality of face images of a person registered with pattern data are detected, the switch 14b with which the number is the smallest is assigned to the AF switch. set to target. When only one face image of a person with registered pattern data is detected, the face image is selected as an AF target.

次に、ステップS160において、AFの対象として選択した顔画像が、それまでAFの対象となっていた顔画像の人物と異なるか否かを判定する(ステップS162)。このとき、YESと判定した場合には、AFの対象とする顔画像を選択した顔画像に変更する(ステップS164)。即ち、尚、選択した顔画像の顔枠、又は、その顔画像を含む所定の大きさの枠をAF枠(AFエリア)として設定する。そして、レンズ装置12におけるAF処理をオンにし(ステップS166)、ステップS300に移行する。   Next, in step S160, it is determined whether or not the face image selected as the target of AF is different from the person of the face image that has been the target of AF (step S162). At this time, if it is determined as YES, the face image to be subjected to AF is changed to the selected face image (step S164). That is, the face frame of the selected face image or a frame having a predetermined size including the face image is set as the AF frame (AF area). Then, the AF process in the lens device 12 is turned on (step S166), and the process proceeds to step S300.

ステップS162において、NOと判定した場合には、AFの対象を変更することなく、ステップS166に移行する。   If NO is determined in step S162, the process proceeds to step S166 without changing the AF target.

上記ステップS158において、YESと判定した場合、即ち、操作部14のスイッチ14bのいずれかがオンされている場合、そのスイッチに対応する人物の顔画像が存在するか否かを判定する(ステップS168)。YESと判定した場合には、その人物の顔画像をAFの対象として選択し(ステップS170)、ステップS162に移行する。   If YES is determined in step S158, that is, if any one of the switches 14b of the operation unit 14 is turned on, it is determined whether or not a human face image corresponding to the switch exists (step S168). ). If YES is determined, the face image of the person is selected as an AF target (step S170), and the process proceeds to step S162.

ステップS168において、NOと判定した場合には、いずれの顔画像もAFの対象としないものとし(ステップS172)、レンズ装置12におけるAF処理をオフにした後(ステップS174)、ステップS300に移行する。   If it is determined as NO in step S168, it is determined that no face image is subject to AF (step S172). After the AF processing in the lens device 12 is turned off (step S174), the process proceeds to step S300. .

図4は、上記顔認識自動追尾モードを実施した結果、ビューファインダ118の画面に表示される画像の例を示す。図4に示すのは、サッカーの試合の映像を自動追尾している場合の画像であり、画面内の認識された顔画像に対してそれぞれ顔枠が例えば水色で表示されている。   FIG. 4 shows an example of an image displayed on the screen of the viewfinder 118 as a result of performing the face recognition automatic tracking mode. FIG. 4 shows an image in the case of automatically tracking a video of a soccer game. Each face frame is displayed in light blue, for example, with respect to the recognized face image in the screen.

また、パターンデータが登録されている顔画像には、その名称(名前及びNo.など)が顔枠の近くに表示される。図4の場合には、3人の顔画像が認識され、そのうち2人の顔画像はパターンデータが登録された人物の顔画像であることから、それらの人物の名称が顔画像(顔枠)に対してそれぞれ「XXXX#1」及び「YYYY#2」と表示されている。また、画面後方のカメラマンらしき人物の顔画像は、パターンデータが登録されていないため、その顔画像に対してはその名称が「#??」と表示され、これらの人物が登録されていないことが操作者にわかるようになっている。   Moreover, the name (name, No., etc.) of the face image in which pattern data is registered is displayed near the face frame. In the case of FIG. 4, the face images of three people are recognized, and the face images of two of them are face images of persons whose pattern data is registered. Respectively, “XXXX # 1” and “YYYY # 2” are displayed. Also, since the face image of a person who looks like a cameraman at the back of the screen has no pattern data registered, the name is displayed as “#?” For that face image, and these persons are not registered. Is understood by the operator.

尚、パターンデータが登録されていない顔画像に対しては未登録であることを示す情報であれば「#??」のような表示以外であってもよい。また、所定のスイッチによって、名称の表示を行うか否かを操作者が選択することができるようになっており、同図のように名称の表示がオンされた場合には、画面が見づらくなるため、名称の表示(未登録であること示す情報の表示も含む)をOFFして被写体を見やすくすることも可能である。   Note that information other than “#?” May be displayed as long as it is information indicating that a face image for which pattern data is not registered is not registered. In addition, the operator can select whether or not to display the name by using a predetermined switch. When the name display is turned on as shown in FIG. Therefore, it is possible to make the subject easier to see by turning off the name display (including the display of information indicating that it is not registered).

さらに、画面内に複数の人物の顔画像が検出されると、すべての顔画像に対して顔枠が表示されるため、AFの対象として追尾する追尾対象に設定されたのかが解りにくい。そこで、AFの対象として追尾する追尾対象に設定された顔画像の顔枠、即ち、AF枠は、例えば、水色で表示され、それ以外の顔枠は黄色で表示されるようになっている。但し、使用する色に関してはこれに限らない。また、他の方法によってAFの対象として追尾する追尾対象に設定された顔画像と、それ以外の顔画像とを識別可能にしてもよい。   Further, when face images of a plurality of persons are detected on the screen, face frames are displayed for all the face images, so it is difficult to understand whether the tracking target to be tracked is set as an AF target. Therefore, the face frame of the face image set as the tracking target to be tracked as an AF target, that is, the AF frame is displayed in, for example, light blue, and the other face frames are displayed in yellow. However, the color used is not limited to this. Further, a face image set as a tracking target to be tracked as an AF target by another method may be distinguishable from other face images.

また、AFの対象として追尾する追尾対象に設定された顔画像の顔枠をAF枠とするのではなく、顔枠とは別のAF枠を、AFの対象として追尾する追尾対象に設定された顔画像の顔枠の位置に合わせて設定し、ビューファインダ18に表示させるようにしてもよい。   Also, instead of using the face frame of the face image set as the tracking target to be tracked as the AF target as the AF frame, an AF frame different from the face frame is set as the tracking target to be tracked as the AF target. It may be set according to the position of the face frame of the face image and displayed on the viewfinder 18.

次に、本発明に係るオートフォーカスシステムが適用される撮像システムの他の実施の形態について説明する。   Next, another embodiment of an imaging system to which the autofocus system according to the present invention is applied will be described.

図5は、本発明に係るオートフォーカスシステムが適用される撮像システムの他の構成例を示すブロック図である。   FIG. 5 is a block diagram showing another configuration example of an imaging system to which the autofocus system according to the present invention is applied.

図5に示す撮像システムも前述した図1に示す撮像システムとその構成は略同様であり、図1に示す撮像システムと同一又は類似の構成要素には図1と同一符号を付しその説明は省略する。同図における追尾装置116は、図3のフローチャートで説明したような自動追尾機能を、ズーム及びフォーカスのプリセット機能と共に備えたもので、例えば、そのプリセット機能を備えたいわゆるショットボックスと呼ばれる装置に自動追尾機能を組み込んだ態様に相当する。   The imaging system shown in FIG. 5 is substantially the same in configuration as the imaging system shown in FIG. 1 described above, and the same or similar components as those in the imaging system shown in FIG. Omitted. The tracking device 116 shown in the figure is provided with an automatic tracking function as described in the flowchart of FIG. 3 together with a zoom and focus preset function. For example, a device called a shot box having the preset function is automatically used. This corresponds to a mode incorporating a tracking function.

プリセット機能は、レンズ装置12におけるズーム及びフォーカスの位置を事前に登録しておくと、所定のスイッチ操作によって、任意の位置に設定されているズーム及びフォーカスの位置を、事前に登録した位置に再現することができる機能である。同図においては、このプリセット機能を実施するための構成は省略しているが、操作部114には、プリセット機能を実施するための構成が示されている。   The preset function, when the zoom and focus positions in the lens device 12 are registered in advance, the zoom and focus positions set at arbitrary positions are reproduced at the pre-registered positions by a predetermined switch operation. It is a function that can be done. In the figure, the configuration for implementing the preset function is omitted, but the operation unit 114 shows a configuration for implementing the preset function.

同図における操作部114は、手動でAF枠の移動方向及び移動量を指定する操作部材としてトラックボール14aの代わりに十字キー114aを備えるとともに、ズーム(Z)及びフォーカス(F)のプリセット位置を登録及び再生し、又は、追尾対象(人物の顔画像)を登録及び選択をするためのショットスイッチ114bと、追尾対象の名称を登録する場合の確認用表示パネル114c、登録されたズーム(Z)及びフォーカス(F)のプリセット位置を示すインジケータ114dと、追尾装置116の機能(モード)を切り替えるスライドスイッチ114e、プリセット位置の登録や人物の顔のパターンデータの登録を指示するメモスイッチ114F等を有している。   The operation unit 114 shown in the figure includes a cross key 114a instead of the trackball 14a as an operation member for manually specifying the movement direction and movement amount of the AF frame, and provides zoom (Z) and focus (F) preset positions. A shot switch 114b for registering and reproducing or registering and selecting a tracking target (person's face image), a confirmation display panel 114c for registering the name of the tracking target, and a registered zoom (Z) And an indicator 114d indicating the preset position of the focus (F), a slide switch 114e for switching the function (mode) of the tracking device 116, a memo switch 114F for instructing registration of the preset position and pattern data of a person's face, etc. is doing.

本実施の形態の追尾装置116では、スライドスイッチ114eの設定位置を切り替えることにより、ズーム及びフォーカスのプリセットモード(Z+Fモード)、と、顔認識自動追尾モード(OBJモード)と、複合モード(Z+F+OBJモード)の3種類のモードを選択できるようになっている。   In the tracking device 116 according to the present embodiment, the zoom and focus preset mode (Z + F mode), the face recognition automatic tracking mode (OBJ mode), and the combined mode (Z + F + OBJ mode) are switched by switching the setting position of the slide switch 114e. 3) modes can be selected.

Z+Fモードは、ショットボックスとしての通常の機能であるズームとフォーカスのプリセット位置への再生を行うためのモードであり、OBJモードは、上記第1の実施の形態で説明した顔認識自動追尾モードの処理により特定の人物の顔画像をAFの対象として自動追尾するためのモードであり、複合モードは、Z+FモードとOBJモードを統合したモードであり、ズームとフォーカスのプリセット位置への再生を行うと共に、顔認識自動追尾モードの処理により特定の人物の顔画像をAFの対象として自動追尾するためのモードである。尚、Z+Fモードは、ズームとフォーカスのいずれか一方のみをプリセット位置に再生するモードであってもよい。   The Z + F mode is a mode for reproducing zoom and focus to a preset position, which is a normal function as a shot box, and the OBJ mode is the face recognition automatic tracking mode described in the first embodiment. This is a mode for automatically tracking a face image of a specific person as an AF target by processing, and the composite mode is a mode in which the Z + F mode and the OBJ mode are integrated, and performs reproduction to a preset position of zoom and focus. This is a mode for automatically tracking a face image of a specific person as an AF target by processing in the face recognition automatic tracking mode. The Z + F mode may be a mode in which only one of the zoom and the focus is reproduced at the preset position.

図6のフローチャートを用いて、追尾装置116における各モードに関する処理について説明する。尚、本フローチャートは追尾装置116において行われる処理の一部を示すもので、他の処理と共に繰り返し実行される処理である。   The process regarding each mode in the tracking device 116 will be described using the flowchart of FIG. This flowchart shows a part of the processing performed in the tracking device 116, and is a processing that is repeatedly executed together with other processing.

まず、メモスイッチ114Fがオンされたか否かが判定される(ステップS500)。YESと判定された場合には、スライドスイッチ114eがZ+Fモードに設定されているか否かが判定される(ステップS502)。ここでYESと判定された場合には、ズームとフォーカスのプリセット位置の登録処理が実行される(ステップS504)。即ち、図5の1〜4番までの4つのショットスイッチ114bのうち、操作者がいずれかのスイッチをオンすると、レンズ装置12における現在のズーム位置とフォーカス位置とが追尾装置116に読み取られ、それらのズーム位置とフォーカス位置とが、オンされたショットスイッチに対応付けされたプリセット位置として登録(記憶)される。登録されたプリセット位置は、そのプリセット位置が登録されたショットスイッチに対応する位置のインジケータ114dに表示されるようになっている。尚、ショットスイッチ114bを操作者がオンすることなく、1番から順に未登録のショットスイッチ114bに対応付けてプリセット位置を登録するようにしてもよい。ステップS504の処理が終了すると、ステップS520に移行する。   First, it is determined whether or not the memo switch 114F is turned on (step S500). If it is determined as YES, it is determined whether or not the slide switch 114e is set to the Z + F mode (step S502). If YES is determined in this step, a zoom and focus preset position registration process is executed (step S504). That is, when the operator turns on one of the four shot switches 114b from No. 1 to No. 4 in FIG. 5, the current zoom position and focus position in the lens device 12 are read by the tracking device 116, These zoom position and focus position are registered (stored) as preset positions associated with the shot switches that are turned on. The registered preset position is displayed on an indicator 114d corresponding to the shot switch in which the preset position is registered. Note that the preset position may be registered in association with the unregistered shot switch 114b in order from the first, without the operator turning on the shot switch 114b. When the process of step S504 ends, the process proceeds to step S520.

ステップS502において、NOと判定された場合、スライドスイッチ114eがOBJモードに設定されているか否かが判定される(ステップS506)。ここでYESと判定された場合には、特定の人物の顔画像のパターンデータを登録するパターン登録処理が実行される(ステップS508)。即ち、第1の実施の形態において図3のフローチャートのステップS114〜S132に示した処理が実行される。このとき1〜4番までのショットスイッチ114eの各々に異なる人物の顔画像のパターンデータを登録することができるが、どの番号のショットスイッチ114eに登録するかは、Z+Fモード時と同様に登録する番号のショットスイッチ114eを操作者がオンするようにしてもよいし、1番から順に未登録のショットスイッチ114eに登録するようにしてもよい。また、パターンデータを登録した人物を識別する名称も図示しない文字入力装置により登録可能であり、その名称が登録されたショットスイッチに対応する確認用表示パネル114cに表示されるようになっている。ステップS508の処理が終了すると、ステップS520に移行する。   If it is determined as NO in step S502, it is determined whether or not the slide switch 114e is set to the OBJ mode (step S506). If “YES” is determined here, a pattern registration process for registering pattern data of the face image of a specific person is executed (step S508). That is, in the first embodiment, the processing shown in steps S114 to S132 in the flowchart of FIG. 3 is executed. At this time, the pattern data of the face image of a different person can be registered in each of the first to fourth shot switches 114e, but the number of the shot switch 114e to be registered is registered in the same manner as in the Z + F mode. The numbered shot switch 114e may be turned on by the operator, or may be registered in order from the first to the unregistered shot switch 114e. A name for identifying a person who has registered pattern data can also be registered by a character input device (not shown), and the name is displayed on the confirmation display panel 114c corresponding to the registered shot switch. When the process of step S508 ends, the process proceeds to step S520.

ステップS506において、NOと判定された場合には、スライドスイッチ114eがZ+F+OBJモードに設定されている状態であり、まず、ステップS504と同様にズームとフォーカスのプリセット位置の登録処理が実行される(ステップS510)。続いて、ステップS508と同様にパターン登録処理が実行される(ステップS512)。
これによって、ズームとフォーカスのプリセット位置と、顔画像のパターンデータが登録される。これらのデータは、プリセット位置を登録する際に操作者がオンした番号のショットスイッチに対応づけて登録される。但し、ショットスイッチ114bを操作者がオンすることなく、1番から順に未登録のショットスイッチ114eに対応付けてプリセット位置及び顔画像のパターンデータを登録するようにしてもよい。また、登録されたプリセット位置はインジケータ114dに表示され、登録された人物の名称は確認用表示パネル114cに表示されるようになっている。ステップS512の処理が終了すると、ステップS520に移行する。
If NO is determined in step S506, the slide switch 114e is in the Z + F + OBJ mode, and first, zoom and focus preset position registration processing is executed as in step S504 (step S504). S510). Subsequently, a pattern registration process is executed as in step S508 (step S512).
Thereby, zoom and focus preset positions and face image pattern data are registered. These data are registered in association with the shot switch of the number turned on by the operator when registering the preset position. However, the preset position and face image pattern data may be registered in association with the unregistered shot switch 114e in order from the first without the operator turning on the shot switch 114b. The registered preset position is displayed on the indicator 114d, and the name of the registered person is displayed on the confirmation display panel 114c. When the process of step S512 is completed, the process proceeds to step S520.

上記ステップS500において、NOと判定された場合、又は、上記ステップS504、S508、S512のいずれかが終了した場合、次に、ショットスイッチ114eのいずれかがオンされたか否かが判定される(ステップS520)。   If it is determined NO in step S500, or if any of steps S504, S508, and S512 is completed, it is next determined whether any of the shot switches 114e is turned on (step S500). S520).

この判定処理によりYESと判定された場合には、スライドスイッチ114eがZ+Fモードに設定されているか否かが判定される(ステップS522)。ここでYESと判定された場合には、レンズ装置12のズームとフォーカスを、オンされたショットスイッチに対応付けて登録されたプリセット位置に再生する処理が実行される(ステップS524)。ステップS524の処理が終了すると、本フローチャートの処理を終了し、他の処理に移行する。   When it is determined YES by this determination process, it is determined whether or not the slide switch 114e is set to the Z + F mode (step S522). If YES is determined in this step, a process of reproducing the zoom and focus of the lens device 12 to a preset position registered in association with the shot switch that is turned on is executed (step S524). When the process of step S524 ends, the process of this flowchart ends, and the process proceeds to another process.

ステップS522において、NOと判定された場合、スライドスイッチ114eがOBJモードに設定されているか否かが判定される(ステップS526)。ここでYESと判定された場合には、図3のステップ136〜ステップS174に示したような顔認識自動追尾モードの処理が実行され、オンされたショットスイッチに対応付けて登録されたパターンデータに一致する顔画像がAFの対象として自動追尾する追尾対象に設定される(ステップS528)。そして、レンズ装置12においてAF処理が実行される(ステップS530)。尚、図3のステップ136〜ステップS174では、撮影映像内に含まれる全ての顔画像を検出し、検出された顔画像を、パターンデータが登録された全ての人物の顔画像と照合して顔枠や名称等を表示するようにしているが、本実施の形態では、ショットデータに対応付けて登録された人物の顔画像のみを検出し、その顔画像をAFの対象として追尾する追尾対象に設定すればよい。ステップS530の処理が終了すると、本フローチャートの処理を終了し、他の処理に移行する。   If it is determined as NO in step S522, it is determined whether or not the slide switch 114e is set to the OBJ mode (step S526). If YES is determined here, the face recognition automatic tracking mode processing as shown in step 136 to step S174 in FIG. 3 is executed, and the pattern data registered in association with the shot switch that has been turned on is executed. The matching face image is set as a tracking target to be automatically tracked as an AF target (step S528). Then, AF processing is executed in the lens device 12 (step S530). In step 136 to step S174 in FIG. 3, all face images included in the captured video are detected, and the detected face images are compared with the face images of all persons whose pattern data is registered. In this embodiment, only the face image of the person registered in association with the shot data is detected, and the face image is tracked as an AF target. You only have to set it. When the process of step S530 ends, the process of this flowchart ends, and the process proceeds to another process.

ステップS526において、NOと判定された場合には、スライドスイッチ114eがZ+F+OBJモードに設定されている状態であり、まず、ステップS524と同様にレンズ装置12のズームとフォーカスを、オンされたショットスイッチに対応付けて登録されたプリセット位置に再生する処理が実行される(ステップS532)。続いて、ステップS528と同様に顔認識自動追尾モードの処理が実行され、オンされたショットスイッチに対応付けて登録されたパターンデータに一致する顔画像がAFの対象として自動追尾する追尾対象に設定される(ステップS534)。そして、レンズ装置12においてAF処理が実行される(ステップS536)。ステップS536の処理が終了すると、本フローチャートの処理を終了し、他の処理に移行する。   If it is determined NO in step S526, the slide switch 114e is set to the Z + F + OBJ mode. First, as in step S524, the zoom and focus of the lens device 12 are set to the shot switch that is turned on. A process of playing back to the preset positions registered in association with each other is executed (step S532). Subsequently, the face recognition automatic tracking mode process is executed in the same manner as in step S528, and the face image that matches the pattern data registered in association with the shot switch that is turned on is set as a tracking target to be automatically tracked as an AF target. (Step S534). Then, AF processing is executed in the lens device 12 (step S536). When the process of step S536 ends, the process of this flowchart ends, and the process proceeds to another process.

尚、図5の操作部114は、ショットスイッチ114eが4つ設けられている場合(登録数が4つの場合)を示したが、ショットスイッチ114eは4つに限らない。   5 shows the case where four shot switches 114e are provided (when the number of registrations is four), the number of shot switches 114e is not limited to four.

また、図5の追尾装置116は、スライドスイッチ114eの設定位置を切り替えることにより、Z+Fモードと、OBJモードと、Z+F+OBJモードの3種類のモードを選択できるようになっているが、これらのモードのうち、いずれか2つのモードのみを選択可能としてもよい。また、Z+F+OBJモードのみでもよい。   In addition, the tracking device 116 in FIG. 5 can select three types of modes of Z + F mode, OBJ mode, and Z + F + OBJ mode by switching the setting position of the slide switch 114e. Of these, only two modes may be selectable. Further, only the Z + F + OBJ mode may be used.

以上、上記実施の形態では人物の顔画像のパターンデータを登録し、顔認識自動追尾モードにおいて、登録した顔画像をAFの対象として自動追尾できるようにした場合について説明したが、顔画像以外の物体(被写体)であっても顔画像と同様にパターンデータを登録しておき、その物体を自動追尾することも可能である。例えば登録した物体と同じ種類の物体を、その種類の物体が共通に有する形状パターン、又は、色等に基づいて撮影画像の中から検出する。そして、検出した物体の中から、登録した物体をパターンデータに基づいて検出し、AFの対象として自動追尾することができる。   In the above embodiment, pattern data of a person's face image is registered, and the case where the registered face image can be automatically tracked as an AF target in the face recognition automatic tracking mode has been described. Even for an object (subject), pattern data can be registered in the same manner as a face image, and the object can be automatically tracked. For example, an object of the same type as the registered object is detected from the photographed image based on a shape pattern or a color shared by the object of that type. Then, a registered object can be detected from the detected objects based on the pattern data, and can be automatically tracked as an AF target.

本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。1 is a block diagram illustrating an overall configuration of an imaging system to which an autofocus system according to the present invention is applied. AFエリア(AF枠)の例を示す説明図である。It is explanatory drawing which shows the example of AF area (AF frame). 本実施の形態のオートフォーカスシステムの基本的な処理手順を示すフローチャートである。It is a flowchart which shows the basic process sequence of the auto-focus system of this Embodiment. ビューファインダの画面に表示された画像の例を示す説明図である。It is explanatory drawing which shows the example of the image displayed on the screen of a viewfinder. 本発明に係るオートフォーカスシステムが適用される撮像システムの他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the imaging system to which the autofocus system which concerns on this invention is applied. 図5におけるオートフォーカスシステムの追尾装置が備えるモードごとの処理内容を示すフローチャートである。It is a flowchart which shows the processing content for every mode with which the tracking apparatus of the autofocus system in FIG. 5 is provided.

符号の説明Explanation of symbols

10…カメラヘッド、12…レンズ装置、14…操作部、14a…トラックボール、14b…スイッチ、16…追尾装置、18…ビューファインダ、20…レンズCPU、22…AF処理部、24…AF用撮像回路、26…画像処理部、28…画像入力部、30…追尾処理部、32…パターンデータ記憶部、34…枠情報生成部、36…映像合成部   DESCRIPTION OF SYMBOLS 10 ... Camera head, 12 ... Lens apparatus, 14 ... Operation part, 14a ... Trackball, 14b ... Switch, 16 ... Tracking apparatus, 18 ... Viewfinder, 20 ... Lens CPU, 22 ... AF processing part, 24 ... Imaging for AF Circuit, 26 ... Image processing unit, 28 ... Image input unit, 30 ... Tracking processing unit, 32 ... Pattern data storage unit, 34 ... Frame information generation unit, 36 ... Video composition unit

Claims (2)

光学系により結像された被写体像を撮像する撮像手段と、
前記撮像手段により撮像された撮影画像のうち、所定のAFエリア内の被写体にピントが合うように前記光学系のフォーカス調整を行うオートフォーカス手段と、
追尾対象とする被写体を特定するためのパターンデータを登録するパターン登録手段と、
前記パターン登録手段により登録された前記追尾対象とする被写体に対応付けて前記光学系のズーム及びフォーカスの少なくとも一方のプリセット位置を登録するプリセット位置登録手段と、
前記パターン登録手段によりパターンデータが登録された被写体を自動追尾することが指示されると、前記光学系のズーム及びフォーカスの少なくとも一方を前記プリセット位置登録手段により登録されたプリセット位置に設定すると共に、前記パターン登録手段に登録されたパターンデータに基づき、前記撮像手段によって撮像された画像範囲内の被写体の中から前記追尾対象とする被写体を検出する追尾対象検出手段と、
前記追尾対象検出手段により検出された前記追尾対象とする被写体の移動に合わせて前記AFエリアを移動させ、前記オートフォーカス手段により前記追尾対象とする被写体にピントが合うようにフォーカス調整を行わせる追尾手段と、
を備えたことを特徴とするオートフォーカスシステム。
Imaging means for imaging a subject image formed by an optical system;
Auto focus means for adjusting the focus of the optical system so that a subject in a predetermined AF area out of the captured image captured by the imaging means is in focus;
Pattern registration means for registering pattern data for specifying a subject to be tracked;
Preset position registration means for registering at least one preset position of zoom and focus of the optical system in association with the subject to be tracked registered by the pattern registration means;
When instructed to automatically track the subject whose pattern data is registered by the pattern registration means, at least one of the zoom and focus of the optical system is set to the preset position registered by the preset position registration means, Tracking target detection means for detecting a subject to be tracked from subjects within an image range imaged by the imaging means based on pattern data registered in the pattern registration means;
Tracking that moves the AF area in accordance with the movement of the subject to be tracked detected by the tracking target detection unit, and performs focus adjustment so that the subject to be tracked is in focus by the autofocus unit. Means,
An autofocus system characterized by comprising
前記追尾対象とする被写体は、特定の人物の顔であることを特徴とする請求項1のオートフォーカスシステム。   2. The autofocus system according to claim 1, wherein the subject to be tracked is a face of a specific person.
JP2008072065A 2008-03-19 2008-03-19 Autofocus system Pending JP2009229569A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008072065A JP2009229569A (en) 2008-03-19 2008-03-19 Autofocus system
US12/370,922 US8265474B2 (en) 2008-03-19 2009-02-13 Autofocus system
EP09002038A EP2104338A3 (en) 2008-03-19 2009-02-13 Autofocus system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008072065A JP2009229569A (en) 2008-03-19 2008-03-19 Autofocus system

Publications (1)

Publication Number Publication Date
JP2009229569A true JP2009229569A (en) 2009-10-08

Family

ID=41245080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008072065A Pending JP2009229569A (en) 2008-03-19 2008-03-19 Autofocus system

Country Status (1)

Country Link
JP (1) JP2009229569A (en)

Similar Documents

Publication Publication Date Title
US8265474B2 (en) Autofocus system
JP4525089B2 (en) Auto focus system
JP5251215B2 (en) Digital camera
JP5474528B2 (en) Auto focus system
JP2006258944A (en) Autofocus system
US9317748B2 (en) Tracking apparatus
US20090237554A1 (en) Autofocus system
JP2018207309A (en) Imaging apparatus, imaging method and program
JP2010097167A (en) Auto focus device
JP4552997B2 (en) Imaging apparatus and program
JP2006267221A (en) Auto focus system
JP2008046354A (en) Object tracking device and camera
US7860385B2 (en) Autofocus system
JP5384172B2 (en) Auto focus system
JP2007129310A (en) Imaging apparatus
JP4596246B2 (en) Auto focus system
JP2006058431A (en) Autofocusing system
JP2005338352A (en) Autofocus system
JP4902577B2 (en) Auto focus system
JP2010243843A (en) Autofocus system
JP2009229570A (en) Autofocus system
JP2006113265A (en) Autofocus system
JP2006258943A (en) Autofocus system
JP5027704B2 (en) Auto focus system
JP2009229568A (en) Autofocus system