JP2010096963A - Auto focus system with af frame auto-tracking function - Google Patents
Auto focus system with af frame auto-tracking function Download PDFInfo
- Publication number
- JP2010096963A JP2010096963A JP2008267294A JP2008267294A JP2010096963A JP 2010096963 A JP2010096963 A JP 2010096963A JP 2008267294 A JP2008267294 A JP 2008267294A JP 2008267294 A JP2008267294 A JP 2008267294A JP 2010096963 A JP2010096963 A JP 2010096963A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- face
- subject
- pattern matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明はAF枠自動追尾機能を備えたオートフォーカスシステムに係り、特にオートフォーカス(AF)によりピントを合わせる被写体の対象範囲とするAFエリア(AF枠)を撮影画面上で移動する所定の被写体に追尾させるAF枠自動追尾機能を備えたオートフォーカスシステムに関する。 The present invention relates to an autofocus system having an AF frame auto-tracking function, and particularly to an AF area (AF frame) that is a target range of a subject to be focused by autofocus (AF) as a predetermined subject that moves on a shooting screen. The present invention relates to an autofocus system having an AF frame automatic tracking function for tracking.
放送用又は業務用のテレビカメラシステムにおいて、所望の被写体に自動でピントを合わせるオートフォーカス機能を備えたものが知られている。この種のカメラシステムでは、一般にコントラスト方式のAFが採用されており、撮影映像のコントラストの高さを検出し、そのコントラストが最大(極大)となるように撮影光学系のフォーカスを制御することにより行われている。 2. Description of the Related Art Broadcast or commercial television camera systems are known that have an autofocus function that automatically focuses on a desired subject. This type of camera system generally employs contrast AF, and detects the height of the contrast of the captured image and controls the focus of the photographic optical system so that the contrast becomes maximum (maximum). Has been done.
また、AFによりピントを合わせる被写体の対象範囲は、通常は撮影映像の画面全体ではなく、AFエリアと称する一部の範囲に限定されており、そのAFエリア内の撮影画像(被写体画像)のコントラストが最大となるようにフォーカスを制御することによって、AFエリア内の被写体にピントが合わせられるようになっている。 In addition, the target range of the subject to be focused by AF is usually limited to a part of the range called the AF area, not the entire screen of the captured video, and the contrast of the captured image (subject image) in the AF area. By controlling the focus so as to maximize the focus, the subject in the AF area can be focused.
尚、本明細書では、AFエリアの輪郭を示す枠をAF枠と称するものとする。 In the present specification, a frame indicating the outline of the AF area is referred to as an AF frame.
更に、特許文献1には、撮影映像の画面内で移動する所望の被写体に対してAF枠を自動で追尾させ、その被写体にピントを合わせ続けるようにしたAF枠自動追尾機能を備えたオートフォーカスシステムが記載されている。AF枠の自動追尾は、撮影画像の中から追尾する被写体の画像を検出して、検出した位置にAF枠を移動させることにより行われる。その追尾する被写体の画像を検出する方法として、特許文献1では、追尾する被写体の画像を基準パターンとして記憶し、撮影画像の中から基準パターンに一致する画像をパターンマッチング処理により検出する方法が採用されている。 Further, Patent Document 1 discloses an autofocus provided with an AF frame automatic tracking function that automatically tracks an AF frame for a desired subject moving within a screen of a captured video and keeps focusing on the subject. The system is described. Automatic tracking of the AF frame is performed by detecting the image of the subject to be tracked from the captured image and moving the AF frame to the detected position. As a method for detecting the image of the subject to be tracked, Patent Document 1 employs a method in which the image of the subject to be tracked is stored as a reference pattern, and an image matching the reference pattern is detected from captured images by pattern matching processing. Has been.
また、他の方法として、追尾する被写体が人物の顔である場合には、追尾する被写体の画像として周知の顔検出処理により顔画像を検出する方法も採用することができる。
ところで、顔検出処理により検出した顔画像を追尾する場合には、その顔が例えば正面から上下左右の30度以上の向きに変化すると、顔画像であることが認識できず、追尾不要になる恐れがある。 By the way, when tracking a face image detected by the face detection process, if the face changes, for example, in the direction of 30 degrees above, below, left, or right from the front, the face image cannot be recognized, and tracking may not be necessary. There is.
一方、パターンマチング処理により所定の被写体を追尾する場合には、処理に時間がかかり、移動の速い被写体を追尾することが難しい場合もある。 On the other hand, when a predetermined subject is tracked by pattern matching processing, the processing takes time, and it may be difficult to track a fast moving subject.
本発明は、このような事情に鑑みてなされたもので、AFの対象として人物の顔(顔画像)を追尾する場合に、従来と比べてより確実その顔画像を追尾することができるAF枠自動追尾機能を備えたオートフォーカスシステムを提供することを目的とする。 The present invention has been made in view of such circumstances, and when tracking a human face (face image) as an AF target, the AF frame can track the face image more reliably than in the past. An object of the present invention is to provide an autofocus system having an automatic tracking function.
前記目的を達成するために、請求項1に係るAF枠自動追尾機能を備えたオートフォーカスシステムは、撮像手段により撮影される被写体の範囲のうちAF枠に対応する範囲内の被写体にピントが合うように、前記撮像手段に被写体像を結像する撮影光学系のフォーカスを制御するオートフォーカス手段と、前記撮像手段により得られる撮影画像の中から人物の顔の画像を検出する顔検出処理手段と、追尾対象の被写体の画像として記憶された基準パターン画像を用いて、前記撮像手段により得られる撮影画像の中から、前記追尾対象の被写体の画像をパターンマッチング処理により検出するパターンマッチング処理手段と、前記AF枠内に人物の顔の画像が含まれる場合に、前記撮像手段により得られた撮影画像に対して前記顔検出処理手段により検出された顔の画像の位置に基づいて前記AF枠の位置を決定する第1のAF枠決定手段と、前記撮像手段により得られる撮影画像に対して、前記パターンマッチング処理手段により検出された前記追尾対象の被写体の画像の位置に基づいて前記AF枠の位置を決定する第2のAF枠決定手段と、前記第1のAF枠決定手段と前記第2のAF枠決定手段のうち、いずれか一方を優先のAF枠決定手段とし、前記AF枠を、前記優先のAF枠決定手段により決定された位置に変更すると共に、前記優先のAF枠決定手段による前記AF枠の位置の決定が不能な状況となった場合には、前記AF枠を、他方のAF枠決定手段により決定された位置に変更するAF枠変更手段と、を備えたことを特徴としている。 In order to achieve the above object, an autofocus system having an AF frame automatic tracking function according to claim 1 focuses on a subject within a range corresponding to the AF frame in a range of subjects photographed by an imaging unit. As described above, an autofocus unit that controls the focus of a photographic optical system that forms a subject image on the imaging unit, and a face detection processing unit that detects an image of a person's face from the captured images obtained by the imaging unit Using a reference pattern image stored as an image of the subject to be tracked, a pattern matching processing unit for detecting an image of the subject to be tracked by a pattern matching process from a captured image obtained by the imaging unit; When a face image of a person is included in the AF frame, the face detection processing procedure is performed on the captured image obtained by the imaging unit. First AF frame determining means for determining the position of the AF frame based on the position of the face image detected by the step, and the pattern matching processing means for the captured image obtained by the imaging means. Which of the second AF frame determining means for determining the position of the AF frame based on the position of the image of the subject to be tracked, the first AF frame determining means, and the second AF frame determining means Either one is used as a priority AF frame determination means, the AF frame is changed to the position determined by the priority AF frame determination means, and the position of the AF frame cannot be determined by the priority AF frame determination means. When the situation becomes unsatisfactory, there is provided an AF frame changing means for changing the AF frame to a position determined by the other AF frame determining means.
請求項2に係るAF枠自動追尾機能を備えたオートフォーカスシステムは、請求項1に記載の発明において、 前記AF枠変更手段は、前記第1のAF枠決定手段を前記優先のAF枠決定手段とすることを特徴としている。 The autofocus system having an AF frame auto-tracking function according to claim 2 is the invention according to claim 1, wherein the AF frame changing unit is configured to replace the first AF frame determining unit with the priority AF frame determining unit. It is characterized by that.
本発明によれば、人物の顔(顔画像)を追尾対象とする場合に、顔検出処理とパターンマッチング処理のうち適切に追尾対象の顔画像を検出することできる処理方法によってAF枠の位置が変更されるため、一方の処理による自動追尾が不能な状況となっても顔画像の追尾が適切に行われるようになる。 According to the present invention, when a person's face (face image) is a tracking target, the position of the AF frame is determined by a processing method that can appropriately detect the tracking target face image among the face detection processing and the pattern matching processing. Since the change is made, the face image is appropriately tracked even when automatic tracking by one process is impossible.
本発明によれば、AFの対象として人物の顔(顔画像)を追尾する場合に、従来と比べてより確実その顔画像を追尾することができる。 According to the present invention, when a person's face (face image) is tracked as an AF target, the face image can be tracked more reliably than in the past.
以下、添付図面を参照して、本発明に係るAF枠自動追尾機能を備えたオートフォーカスシステムについて詳細に説明する。 Hereinafter, an autofocus system having an AF frame automatic tracking function according to the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明が適用されたビデオカメラシステムの全体構成を示したブロック図である。このビデオカメラシステムは、例えば、放送用テレビカメラでの撮影に用いられる撮像システムである。 FIG. 1 is a block diagram showing the overall configuration of a video camera system to which the present invention is applied. This video camera system is, for example, an imaging system used for shooting with a broadcast television camera.
同図に示すように、本実施形態のビデオカメラシステム1は、テレビカメラ10、画像処理ユニット18等を有して構成されている。
As shown in the figure, the video camera system 1 of the present embodiment includes a
テレビカメラ10は、ハイビジョンテレビ[HD(High Definition)TV]方式に対応したHDカメラからなるカメラ本体12と、カメラ本体12のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置14とから構成される。
The
カメラ本体12には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置14の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施されてHDTV方式の映像信号(HDTV信号)として、カメラ本体12の映像信号出力端子等から外部に出力される。
The
また、カメラ本体12は、ビューファインダ13を備えており、テレビカメラ10により現在撮影されている映像等がビューファインダ13に表示されるようになっている。また、ビューファインダ13には、各種情報が表示されるようになっており、例えば、後述のオートフォーカスにおいてピント合わせの対象範囲となるAF枠が撮影映像に重畳されて表示されるようになっている。
In addition, the
レンズ装置14は、カメラ本体12のレンズマウントに装着される撮影レンズ(ズームレンズ)24を備えている。撮影レンズ24により、被写体16がカメラ本体12の撮像素子の撮像面に結像されるようになっている。撮影レンズ24には、図示を省略するが、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、モータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、またズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。
The
なお、オートフォーカス(AF)に関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作手段(レンズ装置14に接続されるコントローラの操作手段等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。
In a system related to autofocus (AF), it is sufficient that at least the focus lens group can be driven electrically, and the other movable parts may be driven only manually. Further, when the predetermined movable portion is electrically driven according to the operation of the operator, it is based on a control signal output according to the operation of the operator from an operation means (not shown) such as an operation means of a controller connected to the
また、レンズ装置14には、AFユニット26及び図示しないレンズCPU等が搭載されている。レンズCPUはレンズ装置14全体を統括制御するものである。また、AFユニット26は、AFによるフォーカス制御(自動ピント調整)を行うために必要な情報を取得するための処理部であり、図示を省略するが、AF処理部、AF用撮像回路等から構成されている。AF用撮像回路はAF処理用の映像信号を取得するためにレンズ装置14に配置されており、撮像素子CCD等の撮像素子(AF用撮像素子という)やAF用撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。なお、AF用撮像回路から出力される映像信号は輝度信号である。
The
AF用撮像素子の撮像面には、撮影レンズ24の光路上に配置されたハーフミラー等によってカメラ本体12の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラ本体12の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラ本体12の撮像素子により取り込まれる被写体画像と一致している。なお、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラ本体12の撮像素子の撮影範囲を包含する大きな範囲であってもよい。
On the image pickup surface of the AF image pickup device, subject light branched from the subject light incident on the image pickup device of the camera
AF処理部は、AF用撮像回路から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象とするAFエリアに対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPUに与えられる。 The AF processing unit acquires a video signal from the AF imaging circuit, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to the AF area targeted for AF is extracted from the high-frequency component signal. Accumulate one screen (one frame) at a time. The integrated value obtained for each screen in this way indicates the level of contrast of the subject image, and is given to the lens CPU as a focus evaluation value.
レンズCPUは、AFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を、後述するように画像処理ユニット18から取得し、そのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部から取得する。
The lens CPU obtains AF frame information (AF frame information) indicating the range (contour) of the AF area from the
このようにしてAF用撮像回路から1画面分の映像信号が取得されるごとに(AF処理部で焦点評価値が求められるごとに)AF処理部から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AF枠内の被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。 In this way, every time a video signal for one screen is acquired from the AF imaging circuit (each time the focus evaluation value is obtained by the AF processing unit), the focus evaluation value is acquired from the AF processing unit, and the acquired focus is obtained. The focus lens group is controlled so that the evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF frame is maximum. For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF frame is automatically focused.
尚、上述のAF処理部は、焦点評価値を算出するためにレンズ装置に搭載されたAF用撮像素子から映像信号を取得しているが、カメラ本体12の撮像素子より撮影された映像の映像信号をカメラ本体12から取得するような構成としてもよい。また、AF枠内の被写体に自動でピントを合わせるためのAFの手段はどのようなものであってもよい。
The above-described AF processing unit obtains a video signal from the AF image sensor mounted on the lens device in order to calculate the focus evaluation value, but the video image captured by the image sensor of the
また、カメラ本体12とレンズ装置14、レンズ装置14と後述の画像処理ユニット18とは、各装置に設けられたシリアル通信コネクタが直接的又はケーブル等を介して接続される。これによって、カメラ本体12とレンズ装置14とが、それぞれに設けられたシリアル通信インターフェイス(SCI)12a及び14aを介して様々な情報の送受信をシリアル通信により行うようになっている。また、レンズ装置14と画像処理ユニット18とが、それぞれに設けられたシリアル通信インターフェイス14a及び30aとの間で様々な情報の送受信をシリアル通信により行うようになっている。
In addition, the
また、カメラ本体12の映像出力コネクタと画像処理ユニット18の映像入力コネクタとが、ダウンコンバータ28を介してケーブルで接続される。これによって、カメラ本体12の映像出力コネクタから出力されたHDTV信号は、ダウンコンバータ28によって、標準テレビ[NTSC(National Television System Committee)]方式の映像信号(SDTV信号)に変換(ダウンコンバート)されて、画像処理ユニット18に入力されるようになっている。
Further, the video output connector of the
画像処理ユニット18は、上記のようにレンズ装置14のAFユニット26によりAFによるフォーカス制御を実施する際のAF枠の範囲(位置、大きさ、形状(縦横比))の指定を行うための装置であり、テレビカメラ10の撮影画像(撮影画面)内でのAF枠の範囲を指定するAF枠情報が画像処理ユニット18からレンズ装置14に上記シリアル通信により与えられるようになっている。AFユニット26では、画像処理ユニット18からのAF枠情報に基づいてAF枠の範囲を設定して上記のようにAFの処理を実行する。
The
画像処理ユニット18は、主としてメインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34から構成されている。メインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34の各々にはCPU38、50、52が搭載されており、各ボード毎に個別の演算処理が行われると共に、各CPU38、50、52は、バスや制御線で接続され、相互にデータのやり取りや、演算処理の同期等が図られるようになっている。
The
画像処理ユニット18における処理は、メインボード30において統括的に行われるようになっている。そのメインボード30には、演算処理を行う上記CPU38の他に、SCI30a、デコーダ(A/D変換器)36、スーパーインポーザ42、RAM40等が搭載されている。
The processing in the
SCI30aは、上述のようにレンズ装置14のSCI14aとの間でシリアル通信を行うためのインターフェイス回路であり、上記AF枠情報等をレンズ装置14に送信する。
The
デコーダ36は、上記ダウンコンバータ28から画像処理ユニット18に入力されるテレビカメラ10において撮影映像の映像信号(SDTV信号)を、画像処理ユニット18においてデジタル処理可能なデータに変換するための回路であり、アナログのSDTV信号をデジタルデータの映像信号に変換するA/D変換処理等を行っている。
The decoder 36 is a circuit for converting a video signal (SDTV signal) of a captured video input to the
RAM40は、CPU38の演算処理において使用するデータを一時的に格納するメモリである。
The
一方、パターンマッチング処理演算ボード32や顔検出処理演算ボード34は、パターンマッチングと顔検出処理を個別に行うための演算ボードであり、各々、演算処理を行うCPU50、52の他に画像データを一時的に格納するVRAM54、56等を備えている。
On the other hand, the pattern matching processing calculation board 32 and the face detection
また、画像処理ユニット18には、操作部20が一体的に設けられ、又は、操作部20の一部又は全ての操作部材が画像処理ユニット18とは別体の装置に設けられてケーブル等で接続されている。
The
詳細は省略するが、操作部20には、AF枠の位置をユーザの手動操作により上下左右に移動させるための位置操作部材60(例えば、ジョイスティックやトラックボール)、AF枠の大きさを手動操作により変更するためのサイズ操作部材62(例えば、ツマミ)、AF枠の形状を手動操作により変更するための形状操作部材64(例えば、ツマミ)、自動追尾の開始を指示する追尾開始スイッチ68、自動追尾の停止を指示する追尾停止スイッチ70が設けられており、これらの操作部材60、62、64、68、70の設定状態が、画像処理ユニット18におけるメインボード30のCPU38により読み取られるようになっている。
Although details are omitted, the
尚、タッチパネル付きLCD66は、AF枠の自動追尾に関するモード等の設定をタッチ操作で入力できるようにしたもので、画像処理ユニット18のCPU38によりLCD66に表示される画像は、設定内容に応じて適宜切り換えられるようになっている。
Note that the LCD 66 with a touch panel is configured so that settings such as a mode related to automatic tracking of the AF frame can be input by a touch operation, and an image displayed on the LCD 66 by the
また、タッチパネル付きLCD66に表示される画像は、メインボード30のスーパーインポーザ42を介して与えられるようになっており、そのスーパーインポーザ42では、デコーダ36から与えられるテレビカメラ10の撮影映像の映像信号と、CPU38で生成される画像信号の合成が行えるようになっている。これによって、カメラ本体12に設定されているビューファインダ13と同様にテレビカメラ10で撮影されている撮影映像と現在設定されているAF枠の画像とを重畳させた映像をタッチパネル付きLCD66に表示させることが可能であり、この画面上でのタッチ操作により、ユーザは、上記操作部材60、62、64、68、70で行うのと同様の操作を行うことができるようになっている。
Further, the image displayed on the LCD 66 with the touch panel is given via the
以上のような構成を有する本実施の形態の画像処理ユニット18においてレンズ装置14に指定するAF枠を設定する処理(AF枠設定処理)について、いくつかの態様を順に説明する。
In the
AF枠設定処理の第1の実施の形態について図2のフロ−チャートを用いて説明する。本実施の形態は、人物の顔をAFによりピントを合わせる対象として追尾する場合に、AF枠の範囲をその追尾する顔に適合するように自動で変更するものである。尚、AF枠の範囲とは、AF枠の位置、大きさ、形状(縦横比)によって決まるAF枠内の範囲を示し、AF枠の範囲の変更とは、その位置、大きさ、形状のうち少なくとも一つの要素を変更することを示す。 A first embodiment of the AF frame setting process will be described with reference to the flowchart of FIG. In this embodiment, when a person's face is tracked as an object to be focused by AF, the range of the AF frame is automatically changed so as to match the face to be tracked. The AF frame range refers to the range within the AF frame determined by the position, size, and shape (aspect ratio) of the AF frame. The change of the AF frame range refers to the position, size, and shape of the AF frame. Indicates that at least one element is to be changed.
まず、ユーザは、AFの対象として追尾させたい被写体が含まれるように操作部20を操作して初期のAF枠を指定する。このときユーザは、図3(A)に示すように所定の人物の顔を追尾する被写体としてAF枠100をその顔画像102を含むように指定するものとすると共に、AF枠内には一人の顔のみを含むように設定し、複数人の顔を含むようなAF枠の指定は想定しないものとする。尚、顔の一部がAF枠内に含まれるような場合もその顔はAF枠内に含まれるものとして扱う。
First, the user operates the
このようなユーザの操作に基づいてメインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップS12)。尚、自動追尾処理は、例えば、操作部20の追尾開始スイッチ68がオンされると開始する。
Based on such user operation, the
自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(ステップS14)。
When the automatic tracking process is started, the
そして、顔検出処理演算ボード34のCPU52の顔検出処理により、撮影画像の中から顔の画像(顔画像)を検出する顔検出処理を行うと共にAF枠内に含まれる顔画像を検出する(ステップS16)。
Then, face detection processing for detecting a face image (face image) from the photographed image is performed by the face detection processing of the
続いて、AF枠内に含まれる顔画像の位置、大きさ、形状に応じて、その顔全体を含み、かつ、他の被写体をできるだけ含まないAF枠(即ち、顔全体を含む最小のAF枠)の位置、大きさ、形状を求め、レンズ装置14に送信するAF枠をその求めたAF枠に更新する(ステップS18)。図3(A)のようにAF枠をユーザが指定した場合、このステップS18の更新によって図3(B)のように顔画像102の大きさに適合した大きさのAF枠100に更新される。
Subsequently, according to the position, size, and shape of the face image included in the AF frame, an AF frame that includes the entire face and does not include other subjects as much as possible (that is, the smallest AF frame that includes the entire face). ) Is obtained, and the AF frame transmitted to the
このようにして顔画像に合わせてAF枠を更新すると、そのAF枠内の画像データを後述のパターンマッチング処理における基準パターンの画像データとして設定する(ステップS20)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。 When the AF frame is updated in accordance with the face image in this way, the image data in the AF frame is set as the image data of the reference pattern in the pattern matching process described later (step S20). Note that the image data of the reference pattern need not completely match the size of the AF frame, and may be image data in a range larger or smaller than the AF frame.
以上の処理が終了すると、以下のステップS22からステップS36までの処理を繰り返し、AF枠内の顔画像を追尾すると共に、追尾する顔画像の大きさに合わせてAFの大きさ(サイズ)を更新する。尚、下記においてAF枠の大きさという場合には、AF枠の形状も含むものとし、AF枠の縦横比も顔画像に合わせて更新されるものとしてもよいし、AF枠の縦横比は一定としてもよい。 When the above processing is completed, the processing from step S22 to step S36 below is repeated to track the face image in the AF frame and update the AF size (size) according to the size of the face image to be tracked. To do. In the following description, the size of the AF frame includes the shape of the AF frame, the aspect ratio of the AF frame may be updated in accordance with the face image, and the aspect ratio of the AF frame is assumed to be constant. Also good.
まず、ステップS22において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。
First, in step S <b> 22, the
そして、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS24)。 Then, the CPU 50 of the pattern matching processing calculation board 32 detects an image that matches the reference pattern from the photographed images, and executes a pattern matching process for detecting the position (step S24).
CPU38は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否かを判定する(ステップS26)。ここで、顔画像が移動したとの判定には、顔画像が、ズーミング又は被写体の前後移動によって拡大又は縮小された場合も含む。
The
ステップS26においてNOと判定した場合には、ステップS22の処理に戻る。 When it determines with NO in step S26, it returns to the process of step S22.
一方、YESと判定した場合には、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS28)、AF枠の近傍範囲内に顔画像が検出されたか否かを判定する(ステップS30)。
On the other hand, if YES is determined, the
このステップS30の判定処理によりYESと判定した場合には、AF枠の大きさを、検出した顔画像に適合する大きさ、即ち、顔全体を含む最小の大きさに変更(更新)すると共に(ステップS32)、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS34)。これによって、例えば、撮影画像が図3(B)から図3(C)のように変更され、追尾する顔画像の位置と大きさが変化した場合には、図3(C)のようにAF枠100の位置と大きさが変更され、顔画像102の位置と大きさに適合したものに変更される。
If it is determined YES in step S30, the size of the AF frame is changed (updated) to a size suitable for the detected face image, that is, the minimum size including the entire face ( In step S32, the position of the AF frame is changed (updated) to the position of the detected face image (step S34). As a result, for example, when the photographed image is changed from FIG. 3B to FIG. 3C and the position and size of the face image to be tracked change, AF is performed as shown in FIG. The position and size of the
ステップS30の判定処理によりNOと判定した場合には、AF枠の大きさを変更することなく、ステップS24のパターンマッチング処理において検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS34)。尚、ステップS30においてYESと判定した場合のステップS34の処理においてもパターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更するようにしてもよい。 If NO is determined in the determination process in step S30, the position of the AF frame is changed (updated) to the position of the image of the reference pattern detected in the pattern matching process in step S24 without changing the size of the AF frame. (Step S34). Note that the position of the AF frame may be changed to the position of the image of the reference pattern detected by the pattern matching process also in the process of step S34 when it is determined YES in step S30.
ステップS34の処理によりAF枠の更新が終了すると、そのAF枠内の画像を基準パターンの画像として更新し(ステップS36)、ステップS22の処理に戻る。 When the update of the AF frame is completed by the process in step S34, the image in the AF frame is updated as the image of the reference pattern (step S36), and the process returns to step S22.
尚、上記フローチャートの処理では、パターンマッチング処理(ステップS24)と顔検出処理(ステップS28)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。
In the process of the above flowchart, the pattern matching process (step S24) and the face detection process (step S28) can be performed in order, and these processes need to be performed individually by a plurality of arithmetic units as shown in FIG. However, both processings may be performed in the
また、顔画像の大きさ等に応じて変更するAF枠の範囲は、必ずしも上記のように顔画像全体を含む最小の範囲とするものに限らない。AF枠内の被写体を対象とするAFにより、その顔画像にピントが適切に合わせられるような範囲、即ち、顔画像の位置及び大きさに適合するものであればよい。 Further, the range of the AF frame to be changed according to the size of the face image is not necessarily limited to the minimum range including the entire face image as described above. Any range may be used as long as it is suitable for a range in which the face image can be properly focused by AF targeting the subject in the AF frame, that is, the position and size of the face image.
以上のAF枠設定処理の第1の実施の形態によれば、AF枠内の被写体をパターンマッチング処理により自動追尾する際に、AF枠内に人物の顔が含まれる場合には、その顔の位置及び大きさに適合するようにAF枠の範囲が変更される。そのため、ユーザは、人物の顔を追尾対象としたい場合であっても、背景画像をできるだけ含まないように初期におけるAF枠の設定を正確に行う手間や時間が不要となる。また、ズーム操作により追尾する顔画像の大きさが変化した場合でも、その顔画像に適合するようにAF枠の範囲が変更されるため、AF枠内の背景画像によってAFによるピント合わせが適切に行われなくなるという不具合や、自動追尾が適切に行われなくなるという不具合が軽減される。 According to the first embodiment of the AF frame setting process described above, when the subject in the AF frame is automatically tracked by the pattern matching process, if the AF frame includes a human face, The range of the AF frame is changed to match the position and size. For this reason, even when the user wants to track a person's face, the time and effort for accurately setting the initial AF frame so as not to include the background image as much as possible are not required. Even when the size of the face image to be tracked changes due to the zoom operation, the AF frame range is changed to match the face image, so that AF focusing is appropriately performed using the background image in the AF frame. Inconveniences that are not performed and problems that automatic tracking is not appropriately performed are reduced.
次に、AF枠設定処理の第2の実施の形態について図4(A)〜(C)のフローチャートを用いて説明する。本実施の形態では、第1の実施の形態で示した処理において、パターンマッチング処理と顔検出処理をパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行い、追尾処理の高速化を図るようにしたものである。
Next, a second embodiment of the AF frame setting process will be described with reference to the flowcharts of FIGS. In the present embodiment, in the processing shown in the first embodiment, the pattern matching processing and the face detection processing are performed in parallel by the pattern matching processing calculation board 32 and the face detection
図4(A)、図4(B)、図4(C)は各々、メインボード30のCPU38、パターンマッチング処理演算ボード32のCPU50、顔検出処理演算ボード34のCPU52において行われる処理の処理手順を示している。また、第1の実施の形態の図2のフローチャートに示した処理と処理内容が同一のものには図2のフローチャートと同一の符号を付し、詳細な説明を省略する。
4 (A), 4 (B), and 4 (C) are processing procedures of processes performed by the
まず、ユーザは、第1の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(図4(A)のステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(図4(A)のステップ12)。
First, as in the first embodiment, the user operates the
自動追尾処理を開始すると、CPU38は、AF枠の位置、大きさ、形状に基づいて、パターンマッチング処理における基準パターンの位置、大きさ、形状を設定する(図4(A)のステップS50)。尚、この基準パターンの位置、大きさ、形状を特定するデータを、以下、基準パターン座標というものとする。
When the automatic tracking process is started, the
次に、CPU38は、基準パターン座標をパターンマッチング処理演算ボード32のCPU50に送信する(図4(A)のステップS52)。
Next, the
一方、パターンマッチング処理演算ボード32のCPU50は、メインボード30のCPU38から基準パターン座標を受信すると(図4(B)のステップS70)、以下のステップS72〜S82(ステップS72、S24、S26、S80、S82)の処理を繰り返し実行する。但し、一回目の処理では、ステップS70で受信した基準パターン座標に基づいて、ステップS72とステップ80の処理により、撮影画像の基準パターンの画像データを設定する。
On the other hand, when the CPU 50 of the pattern matching processing calculation board 32 receives the reference pattern coordinates from the
CPU50は、基準パターンの画像データを設定した後、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS72)。そして、CPU50は、その撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(図4(B)のステップS24)。 The CPU 50 sets the image data of the reference pattern, and then converts the image data of the captured image for one frame (one frame) from the image signal of the captured image that is converted into digital data by the decoder 36 and output the pattern matching processing. The data is taken into the board 32 (step S72). Then, the CPU 50 detects an image matching the reference pattern from the photographed image, and executes a pattern matching process for detecting the position (step S24 in FIG. 4B).
続いて、CPU50は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否か判定する(図4(B)のステップS26)。 Subsequently, as a result of the pattern matching process in step S24, the CPU 50 determines whether or not the image of the reference pattern, that is, the face image to be tracked has moved within the captured image (step S26 in FIG. 4B).
ステップS30においてNOと判定した場合には、ステップS24の処理に戻る。 When it determines with NO in step S30, it returns to the process of step S24.
一方、YESと判定した場合には、検出した基準パターンの画像を新たな基準パターンの画像として更新し(図4(B)のステップS80)、基準パターン座標をメインボード30のCPU38に送信する(図4(B)のステップS82)。そして、ステップS72の処理に戻る。
On the other hand, if YES is determined, the detected reference pattern image is updated as a new reference pattern image (step S80 in FIG. 4B), and the reference pattern coordinates are transmitted to the
パターンマッチング処理演算ボード32のCPU50では、以上のステップS72〜ステップS82の処理が繰り返し実行される。 The CPU 50 of the pattern matching processing calculation board 32 repeatedly executes the processes in steps S72 to S82 described above.
また、顔検出処理演算ボード34のCPU52は、メインボード30のCPU38からの指示により(図示せず)、パターンマッチング処理演算ボード32におけるパターンマッチング処理の開始と共に、処理を開始し、図4(C)のステップS90〜ステップS94(S90、S28、S92、S94)の処理を繰り返し実行する。
Further, the
即ち、顔検出処理演算ボード34のCPU52は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(図4(C)のステップS90)。
That is, the
続いて、撮影画像の中から顔画像を検出する顔検出処理を行い(図4(C)のステップS28)、顔画像が検出されたか否かを判定する(図4(C)のステップS92)。 Subsequently, face detection processing for detecting a face image from the captured image is performed (step S28 in FIG. 4C), and it is determined whether or not a face image is detected (step S92 in FIG. 4C). .
このステップS92によりNOと判定した場合にはステップS90の処理に戻り、YESと判定した場合には、検出した顔画像の位置(座標)、大きさを示す情報をメインボード30のCPU38に送信し(ステップS94)、ステップS90の処理に戻る。
If NO is determined in step S92, the process returns to step S90. If YES is determined, information indicating the position (coordinates) and size of the detected face image is transmitted to the
顔検出処理演算ボード34のCPU52では、以上のステップS90〜ステップS94の処理が繰り返し実行される。
The
メインボード30のCPU38は、図4(A)の上記ステップS52の処理の後、ステップS54〜S34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。
The
まず、パターンマッチング処理演算ボード32から、図4(B)のステップS82の処理により送信される基準パターン座標を受信する(図4(A)のステップS54)。 First, the reference pattern coordinates transmitted by the process of step S82 of FIG. 4B are received from the pattern matching processing calculation board 32 (step S54 of FIG. 4A).
続いて、顔検出処理演算ボード34から、図4(C)のステップS94の処理により送信される顔画像の位置、大きさの情報を受信する(図4(A)のステップS56)。 Subsequently, information on the position and size of the face image transmitted by the process of step S94 in FIG. 4C is received from the face detection processing calculation board 34 (step S56 in FIG. 4A).
そして、CPU38は、現在のAF枠の位置の近傍において検出された顔画像があるか否かを判定する(図4(A)のステップS30)。
Then, the
このステップS30においてNOと判定した場合には、ステップS54により取得した基準パターン座標に基づいてAF枠の位置を変更(更新)する(図4(A)のステップS34)。 If it is determined NO in step S30, the position of the AF frame is changed (updated) based on the reference pattern coordinates acquired in step S54 (step S34 in FIG. 4A).
一方、ステップS30においてYESと判定した場合には、AF枠の大きさを、AF枠の位置の近傍において検出された顔画像に合わせた大きさに変更する(更新)すると共に(図4(A)のステップS32)、AF枠の位置をその顔画像の位置に変更(更新)する(図4(A)のステップS34)。 On the other hand, if YES is determined in step S30, the size of the AF frame is changed (updated) to match the face image detected in the vicinity of the position of the AF frame (FIG. 4A). ) In step S32), the position of the AF frame is changed (updated) to the position of the face image (step S34 in FIG. 4A).
ステップS34の処理が終了すると、ステップS54の処理に戻り、ステップS54〜ステップS34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。 When the process of step S34 ends, the process returns to step S54, and the processes of steps S54 to S34 (S54, S56, S30, S32, S34) are repeatedly executed.
以上の処理により、パターンマッチング処理演算ボード32でのパターンマッチング処理と、顔検出処理演算ボード34での顔検出処理とが、分散して行われると共に並行して行われ、時間の要する画像処理によりAF枠の追尾が遅れるという不具合が軽減される。
With the above processing, the pattern matching processing in the pattern matching processing calculation board 32 and the face detection processing in the face detection
次に、AF枠設定処理の第3の実施の形態について図5のフローチャートを用いて説明する。本実施の形態では、パターンマッチング処理によるAF枠の自動追尾と顔検出処理によるAF枠の自動追尾のうち、顔検出処理によるAF枠の自動追尾を優先して行い、顔検出処理によるAF枠の自動追尾が不能な状況となった場合に、パターンマッチング処理による自動追尾を行うようにしたものである。 Next, a third embodiment of the AF frame setting process will be described with reference to the flowchart of FIG. In the present embodiment, among AF frame automatic tracking by pattern matching processing and AF frame automatic tracking by face detection processing, priority is given to automatic AF frame tracking by face detection processing, and AF frame tracking by face detection processing is prioritized. When automatic tracking becomes impossible, automatic tracking is performed by pattern matching processing.
まず、ユーザは、第1及び第2の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS100)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップ102)。
First, as in the first and second embodiments, the user operates the
自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS104)。
When the automatic tracking process is started, the
そして、その撮影画像においてAF枠内の画像データをパターンマッチング処理における基準パターンの画像データとして設定する(ステップS106)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。 Then, the image data in the AF frame in the captured image is set as the image data of the reference pattern in the pattern matching process (step S106). Note that the image data of the reference pattern need not completely match the size of the AF frame, and may be image data in a range larger or smaller than the AF frame.
以上の処理が終了すると、以下のステップS108〜ステップS120の処理を繰り返し、AF枠内の顔画像を追尾する。 When the above processing is completed, the following steps S108 to S120 are repeated to track the face image in the AF frame.
まず、ステップS108において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。
First, in step S <b> 108, the
そして、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS110)、AF枠内(又はAF枠の近傍範囲内)に顔画像が検出されたか否かを判定する(ステップS112)。
Then, the
このステップS112の判定処理によりYESと判定した場合には、S110で検出された顔画像の位置が撮影画像内で移動したか否かを判定する(ステップS116)。NOと判定した場合にはステップS108の処理に戻り、YESと判定した場合には、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。尚、第1、第2の実施の形態と同様にAF枠の大きさを、検出した顔画像に合わせた大きさに変更(更新)してもよい。 If YES is determined in the determination process in step S112, it is determined whether or not the position of the face image detected in S110 has moved within the captured image (step S116). If NO is determined, the process returns to step S108. If YES is determined, the position of the AF frame is changed (updated) to the position of the detected face image (step S118). Further, the image in the AF frame is updated as a reference pattern image (step S120), and the process returns to step S108. As in the first and second embodiments, the size of the AF frame may be changed (updated) to a size that matches the detected face image.
一方、ステップS112においてNOと判定した場合には、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS114)。 On the other hand, if NO is determined in step S112, the CPU 50 of the pattern matching processing calculation board 32 detects an image that matches the reference pattern from the photographed image, and executes a pattern matching process for detecting the position ( Step S114).
そして、CPU38は、ステップS114のパターンマッチング処理の結果、基準パターンの画像が、撮影画像内で移動したか否かを判定する(ステップS116)。
Then, the
ステップS116においてNOと判定した場合には、ステップS108の処理に戻る。 When it determines with NO in step S116, it returns to the process of step S108.
一方、YESと判定した場合には、パターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。 On the other hand, if YES is determined, the position of the AF frame is changed (updated) to the position of the image of the reference pattern detected by the pattern matching process (step S118). Further, the image in the AF frame is updated as a reference pattern image (step S120), and the process returns to step S108.
尚、上記フローチャートの処理では、パターンマッチング処理(ステップS114)と顔検出処理(ステップS110)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。
In the process of the flowchart, the pattern matching process (step S114) and the face detection process (step S110) can be performed in order, and these processes need to be performed individually by a plurality of arithmetic units as shown in FIG. However, both processings may be performed in the
また、第2の実施の形態のようにパターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並列して実行し、各々の結果をメインボード30のCPU38が必要時に取得するようにしてよい。
Further, as in the second embodiment, the pattern matching process and the face detection process are executed in parallel by the pattern matching process calculation board 32 and the face detection
また、上記処理では、顔検出処理により顔画像が検出されている場合には優先的に顔検出処理によるAF枠の自動追尾を実行する態様であるが、パターンマッチング処理により基準パターンが検出されている場合には優先的にパターンマッチング処理によるAF枠の自動追尾を実行し、パターンマッチング処理が不能な状況となったときに顔検出処理によるAF枠の自動追尾を実行するようにしてもよい。 In the above process, when a face image is detected by the face detection process, the AF frame is automatically tracked preferentially by the face detection process. However, the reference pattern is detected by the pattern matching process. If it is, the AF frame automatic tracking by the pattern matching process may be executed preferentially, and the AF frame automatic tracking by the face detection process may be executed when the pattern matching process becomes impossible.
以上のAF枠設定処理の第3の実施の形態によれば、例えば、追尾する人物の顔が上下左右の正面(カメラ側)と異なる方向に向いてしまい、顔検出が不能となった場合であっても、パターンマッチング処理により自動追尾が適切に行われるため、自動追尾の信頼性が向上する。 According to the third embodiment of the AF frame setting process described above, for example, the face of the person to be tracked faces in a different direction from the top, bottom, left, and right fronts (camera side), and face detection becomes impossible. Even in such a case, since the automatic tracking is appropriately performed by the pattern matching process, the reliability of the automatic tracking is improved.
尚、本第3の実施の形態においても第2の実施の形態と同様に、パターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行うようにすることは可能であり、これにより処理時間の短縮が図れる。
In the third embodiment, similarly to the second embodiment, the pattern matching process and the face detection process are performed in parallel by the pattern matching process calculation board 32 and the face detection
1…ビデオカメラシステム、10…テレビカメラ、12…カメラ本体、14…レンズ装置、16…被写体、18…画像処理ユニット、20…操作部、24…撮影レンズ、26…AFユニット、30…メインボード、32…パターンマッチング処理演算ボード、34…顔検出処理演算ボード、36…デコーダ、38…CPU、40…RAM、42…スーパーインポーザ DESCRIPTION OF SYMBOLS 1 ... Video camera system, 10 ... Television camera, 12 ... Camera body, 14 ... Lens apparatus, 16 ... Subject, 18 ... Image processing unit, 20 ... Operation part, 24 ... Shooting lens, 26 ... AF unit, 30 ... Main board 32 ... Pattern matching processing calculation board, 34 ... Face detection processing calculation board, 36 ... Decoder, 38 ... CPU, 40 ... RAM, 42 ... Superimposer
Claims (2)
前記撮像手段により得られる撮影画像の中から人物の顔の画像を検出する顔検出処理手段と、
追尾対象の被写体の画像として記憶された基準パターン画像を用いて、前記撮像手段により得られる撮影画像の中から、前記追尾対象の被写体の画像をパターンマッチング処理により検出するパターンマッチング処理手段と、
前記AF枠内に人物の顔の画像が含まれる場合に、前記撮像手段により得られた撮影画像に対して前記顔検出処理手段により検出された顔の画像の位置に基づいて前記AF枠の位置を決定する第1のAF枠決定手段と、
前記撮像手段により得られる撮影画像に対して、前記パターンマッチング処理手段により検出された前記追尾対象の被写体の画像の位置に基づいて前記AF枠の位置を決定する第2のAF枠決定手段と、
前記第1のAF枠決定手段と前記第2のAF枠決定手段のうち、いずれか一方を優先のAF枠決定手段とし、前記AF枠を、前記優先のAF枠決定手段により決定された位置に変更すると共に、前記優先のAF枠決定手段による前記AF枠の位置の決定が不能な状況となった場合には、前記AF枠を、他方のAF枠決定手段により決定された位置に変更するAF枠変更手段と、
を備えたことを特徴とするAF枠自動追尾機能を備えたオートフォーカスシステム。 An autofocus unit that controls the focus of a photographing optical system that forms a subject image on the imaging unit so that a subject within a range corresponding to the AF frame in a range of the subject captured by the imaging unit is focused;
A face detection processing means for detecting an image of a person's face from a photographed image obtained by the imaging means;
Pattern matching processing means for detecting, by pattern matching processing, an image of the subject to be tracked from a captured image obtained by the imaging means using a reference pattern image stored as an image of the subject to be tracked;
The position of the AF frame based on the position of the face image detected by the face detection processing unit with respect to the photographed image obtained by the imaging unit when the AF frame includes a human face image First AF frame determining means for determining
Second AF frame determining means for determining the position of the AF frame based on the position of the image of the subject to be tracked detected by the pattern matching processing means with respect to the captured image obtained by the imaging means;
Either one of the first AF frame determination means and the second AF frame determination means is set as a priority AF frame determination means, and the AF frame is set at a position determined by the priority AF frame determination means. When the AF frame position cannot be determined by the priority AF frame determination means, the AF frame is changed to the position determined by the other AF frame determination means. Frame changing means,
An autofocus system equipped with an AF frame automatic tracking function, characterized by comprising
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008267294A JP2010096963A (en) | 2008-10-16 | 2008-10-16 | Auto focus system with af frame auto-tracking function |
US12/545,171 US8237847B2 (en) | 2008-10-16 | 2009-08-21 | Auto focus system having AF frame auto-tracking function |
EP09011283.0A EP2178291B1 (en) | 2008-10-16 | 2009-09-02 | Auto focus system having of frame auto-tracking function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008267294A JP2010096963A (en) | 2008-10-16 | 2008-10-16 | Auto focus system with af frame auto-tracking function |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010096963A true JP2010096963A (en) | 2010-04-30 |
Family
ID=42258692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008267294A Pending JP2010096963A (en) | 2008-10-16 | 2008-10-16 | Auto focus system with af frame auto-tracking function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010096963A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137583A (en) * | 2013-01-18 | 2014-07-28 | Olympus Imaging Corp | Focus adjustment device |
US9191569B2 (en) | 2011-06-30 | 2015-11-17 | Canon Kabushiki Kaisha | Imaging apparatus having object detection function and method for controlling imaging apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267220A (en) * | 2005-03-22 | 2006-10-05 | Fujinon Corp | Auto focus system |
JP2006319596A (en) * | 2005-05-12 | 2006-11-24 | Fuji Photo Film Co Ltd | Imaging apparatus and imaging method |
-
2008
- 2008-10-16 JP JP2008267294A patent/JP2010096963A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267220A (en) * | 2005-03-22 | 2006-10-05 | Fujinon Corp | Auto focus system |
JP2006319596A (en) * | 2005-05-12 | 2006-11-24 | Fuji Photo Film Co Ltd | Imaging apparatus and imaging method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9191569B2 (en) | 2011-06-30 | 2015-11-17 | Canon Kabushiki Kaisha | Imaging apparatus having object detection function and method for controlling imaging apparatus |
JP2014137583A (en) * | 2013-01-18 | 2014-07-28 | Olympus Imaging Corp | Focus adjustment device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010096962A (en) | Auto focus system with af frame auto-tracking function | |
JP4525089B2 (en) | Auto focus system | |
US7590343B2 (en) | Autofocus system | |
JP5473551B2 (en) | Auto focus system | |
JP5455361B2 (en) | Auto focus system | |
JP2010124120A (en) | Autofocus system | |
JP2006267221A (en) | Auto focus system | |
JP2011027847A (en) | Af frame automatic tracking system | |
JP5384172B2 (en) | Auto focus system | |
JP5426874B2 (en) | Auto focus system | |
JP4596246B2 (en) | Auto focus system | |
JP2010230870A (en) | Auto focus system | |
JP2006058431A (en) | Autofocusing system | |
EP2178291B1 (en) | Auto focus system having of frame auto-tracking function | |
JP2006267220A (en) | Auto focus system | |
JP5081133B2 (en) | Auto focus system | |
JP2006258943A (en) | Autofocus system | |
JP2010096963A (en) | Auto focus system with af frame auto-tracking function | |
EP2187625B1 (en) | Autofocus system | |
JP5457008B2 (en) | Autofocus system with AF frame auto-tracking function | |
JP5276538B2 (en) | AF frame automatic tracking system | |
JP5384173B2 (en) | Auto focus system | |
JP2011022499A (en) | Autofocus system | |
JP2006195341A (en) | Autofocus system | |
JP2010122366A (en) | Auto focus system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20100618 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130415 |