JP5594157B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP5594157B2
JP5594157B2 JP2011006404A JP2011006404A JP5594157B2 JP 5594157 B2 JP5594157 B2 JP 5594157B2 JP 2011006404 A JP2011006404 A JP 2011006404A JP 2011006404 A JP2011006404 A JP 2011006404A JP 5594157 B2 JP5594157 B2 JP 5594157B2
Authority
JP
Japan
Prior art keywords
tracking
unit
imaging
subject
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011006404A
Other languages
Japanese (ja)
Other versions
JP2012151526A (en
Inventor
康彦 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011006404A priority Critical patent/JP5594157B2/en
Publication of JP2012151526A publication Critical patent/JP2012151526A/en
Application granted granted Critical
Publication of JP5594157B2 publication Critical patent/JP5594157B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体の検出ができない状況となっても適切な焦点調整を行う撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method that perform appropriate focus adjustment even when a subject cannot be detected.

近年、ビデオカメラを始めとした撮像装置では、顔検出等に代表される被写体検出機能が広く普及し、フォーカス制御等にこの被写体検出機能を利用する技術も一般的になってきている。   In recent years, in an imaging apparatus such as a video camera, a subject detection function typified by face detection or the like has become widespread, and a technique using this subject detection function for focus control or the like has become common.

さらに、撮像装置が予め特定の人物の顔の特徴を記憶しており、撮像画像中にその人物の顔を検出した場合に、その顔に自動的にフォーカスを合わせたり、撮像装置の表示画面に配されたタッチパネル上でユーザがタッチした被写体を追跡しながらフォーカスを合わせ続けたりすることで、ユーザが主に撮像したい被写体を特定してフォーカス制御等を行う技術も開発されている。以下では、このような顔の特徴量が記憶された人物やタッチされた被写体といった、ユーザが主に撮像したい被写体を主要被写体と呼ぶ。   Furthermore, when the imaging device stores the features of a specific person's face in advance and detects that person's face in the captured image, the face is automatically focused or displayed on the display screen of the imaging device. A technique has also been developed in which a user mainly specifies a subject to be imaged and performs focus control or the like by continuously focusing while tracking a subject touched by the user on a touch panel. In the following, a subject that the user wants to mainly capture, such as a person who stores such facial feature quantities or a touched subject, is referred to as a main subject.

一方で、これら近年の一般的な撮像装置の多くは、顔検出がなされていた主要被写体である人物が後ろを向く等、撮像装置が主要被写体を検出することができない状態が生じた場合、それまで検出されていた被写体とは関係のないフォーカス制御に画一的に切り換えていた。   On the other hand, many of these recent general imaging devices have a situation in which the imaging device cannot detect the main subject, such as when a person who is the main subject for which face detection has been performed faces backward. Until now, the focus control has been switched to a non-related object.

例えば、それまで検出されていた主要被写体が撮像画像の範囲内からフレームアウトしたことを検知したとき、または画像範囲内にあるものの、その主要被写体の検出が不能な状態に陥ったときに、オートフォーカス機能をオフとするか、オンのままとするかをユーザが予め設定しておくことができる撮像装置に関する技術が提案されている(例えば、特許文献1)。   For example, when it is detected that the main subject that has been detected so far has fallen out of the range of the captured image, or when it is within the image range but the main subject cannot be detected, the auto subject There has been proposed a technique related to an imaging apparatus that allows a user to set in advance whether the focus function is turned off or kept on (for example, Patent Document 1).

また上述の画一的な切り換えの他にも、被写体の位置を推定することで被写体の追跡を継続する手法が提案されている。   In addition to the uniform switching described above, there has been proposed a method of continuing tracking of the subject by estimating the position of the subject.

例えば、主要被写体の顔画像が検出できなくなった場合に、過去に検出された顔の位置に基づいて現在の顔のおおまかな位置を推定し、このおおまかな位置に対応する複数の周囲情報を取得する。そして、過去に取得された周囲情報に最も類似する周囲情報が取得された位置に基づいて現在の顔の位置を推定することで、主要被写体を継続的に追跡する技術が提案されている(例えば、特許文献2)。   For example, when the face image of the main subject can no longer be detected, the rough position of the current face is estimated based on the face position detected in the past, and a plurality of surrounding information corresponding to this rough position is acquired. To do. Then, a technique for continuously tracking the main subject by estimating the current face position based on the position where the surrounding information most similar to the surrounding information acquired in the past is acquired has been proposed (for example, Patent Document 2).

特開2010−23087号公報JP 2010-23087 A 特開2007−42072号公報JP 2007-42072 A

しかし、上述した特許文献1に記載の技術では、主要被写体を検出できなくなった際の特別なフォーカス制御として、画一的にオートフォーカス機能をオフとすることしかできない。従って、例えば、撮像装置は主要被写体を検出不能な状態に陥っているが、その主要被写体はフレームアウトしていないため、ユーザの目視ではフレーム中に主要被写体がいることが認識できているにもかかわらず、ユーザの意図に反して撮像装置が自動的にオートフォーカス機能をオフにしてしまうといった不都合が生じることが推察される。   However, with the technique described in Patent Document 1 described above, the autofocus function can only be turned off uniformly as special focus control when the main subject cannot be detected. Therefore, for example, the imaging apparatus is in a state where it cannot detect the main subject, but since the main subject is not out of the frame, the user can visually recognize that the main subject is in the frame. Regardless of the user's intention, it is surmised that the imaging apparatus automatically turns off the autofocus function.

また、上述した特許文献2に記載の技術では、主要被写体の顔の周囲情報(例えば洋服の色)が、主要被写体とは無関係な情報(例えば、他人の洋服の色や背景の色)と区別がつかない場合等に、そもそも継続的な追跡が不可能となるという問題が推測される。   Further, in the technique described in Patent Document 2 described above, the surrounding information (for example, the color of clothes) of the face of the main subject is distinguished from the information (for example, the color of other people's clothes or the background) that is unrelated to the main subject. The problem that continuous tracking is impossible in the first place is presumed.

以上に述べた通り、従来提案されてきた技術では、主要被写体が検出不能に陥った際に、撮像状況やユーザの意図を反映した適切なフォーカス制御を実現することができなかった。   As described above, with the conventionally proposed techniques, when the main subject has become undetectable, it has not been possible to realize appropriate focus control reflecting the imaging situation and the user's intention.

そこで本発明は、このような課題に鑑み、主要被写体を検知できない状況に陥っても、撮像状況やユーザの意図を適切に反映したフォーカスエリアやアイリスの自動調整が可能な、撮像装置および撮像方法を提供することを目的としている。   Therefore, in view of such a problem, the present invention provides an imaging apparatus and an imaging method capable of automatically adjusting a focus area and an iris appropriately reflecting an imaging situation and a user's intention even when a main subject cannot be detected. The purpose is to provide.

上記課題を解決するために、本発明の撮像装置(110、510)は、被写体を撮像して映像データを生成する撮像部(122)と、前記映像データにおける特定された被写体(主要被写体)を追尾する追尾部(186、586)と、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部(190)と、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、前記撮像部の被写界深度を前記撮像操作情報に基づいて決定した値に変化させる焦点決定部(192)と、を備えることを特徴とする。
上記課題を解決するために、本発明の他の撮像装置(110、510)は、被写体を撮像して映像データを生成する撮像部(122)と、前記映像データにおける特定された被写体(主要被写体)を追尾する追尾部(186、586)と、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部(190)と、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央に移動させる焦点決定部(192)と、を備えることを特徴とする。
上記課題を解決するために、本発明の他の撮像装置(110、510)は、被写体を撮像して映像データを生成する撮像部(122)と、前記映像データにおける特定された被写体(主要被写体)を追尾する追尾部(186、586)と、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部(190)と、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央付近で検出された顔に移動させる焦点決定部(192)と、を備えることを特徴とする。
In order to solve the above problems, an imaging device (110, 510) according to the present invention includes an imaging unit (122) that captures a subject and generates video data, and a subject (main subject) identified in the video data. When the tracking section (186, 586) to be tracked and the subject being tracked become untrackable, imaging operation information indicating an imaging operation state is shown for each before tracking becomes impossible and after tracking becomes impossible. When the information generation unit (190) to generate and the state in which the subject cannot be tracked continues for a waiting time having a length corresponding to the imaging operation information, the depth of field of the imaging unit is based on the imaging operation information. And a focus determination unit (192) that changes the determined value.
In order to solve the above-described problem, another imaging device (110, 510) of the present invention includes an imaging unit (122) that captures an image of a subject and generates video data, and an identified subject (main subject) in the video data. ) And a tracking unit (186, 586) that tracks the image, and when the tracked subject becomes untrackable, an imaging operation that indicates an imaging operation state before and after tracking becomes impossible an information generation unit for generating information (190), wherein the subject is a non-tracking state, is continued length of waiting time according to the imaging operation information, the imaging target position in the angle of view to match the focal And a focus determination unit (192) that moves the center of the range.
In order to solve the above-described problem, another imaging device (110, 510) of the present invention includes an imaging unit (122) that captures an image of a subject and generates video data, and an identified subject (main subject) in the video data. ) And the tracking unit (186, 586) that tracks the image, and when the tracked subject becomes untrackable, the imaging operation that indicates the imaging operation state before and after tracking becomes impossible an information generation unit for generating information (190), wherein the subject is a non-tracking state, is continued length of waiting time according to the imaging operation information, the imaging target position in the angle of view to match the focal A focus determination unit (192) for moving to a face detected near the center of the range.

上記課題を解決するために、本発明の撮像方法は、被写体を撮像して映像データを生成し、前記映像データにおける特定された被写体を追尾し、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態の変化を示す撮像操作情報を生成し、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、撮像部の被写界深度を前記撮像操作情報に基づいて決定した値に変化させることを特徴とする。
上記課題を解決するために、本発明の他の撮像方法は、被写体を撮像して映像データを生成し、前記映像データにおける特定された被写体を追尾し、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態の変化を示す撮像操作情報を生成し、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央に移動させることを特徴とする。
上記課題を解決するために、本発明の他の撮像方法は、被写体を撮像して映像データを生成し、前記映像データにおける特定された被写体を追尾し、追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態の変化を示す撮像操作情報を生成し、前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央付近で検出された顔に移動させることを特徴とする。
In order to solve the above-described problem, the imaging method of the present invention images a subject to generate video data, tracks the specified subject in the video data, and the tracked subject becomes untrackable. In this case, imaging operation information indicating a change in imaging operation state is generated before and after tracking is disabled, and the state in which the subject cannot be tracked is a length corresponding to the imaging operation information. continuing the waiting time, and changing the value determined on the basis of the depth of field of the imaging section in the imaging operation information.
In order to solve the above-described problem, another imaging method of the present invention images a subject to generate video data, tracks the specified subject in the video data, and the tracked subject cannot be tracked. In this case, before the tracking becomes impossible and after the tracking becomes impossible, imaging operation information indicating a change in imaging operation state is generated, and the state in which the subject cannot be tracked corresponds to the imaging operation information. continuing the length of waiting time, and wherein the moving the position of the view angle to align the focal point in the center of the range to be imaged.
In order to solve the above-described problem, another imaging method of the present invention images a subject to generate video data, tracks the specified subject in the video data, and the tracked subject cannot be tracked. In this case, before the tracking becomes impossible and after the tracking becomes impossible, imaging operation information indicating a change in imaging operation state is generated, and the state in which the subject cannot be tracked corresponds to the imaging operation information. continuing the length of waiting time, and wherein the moving the position of the view angle to align the focal point on the face detected in the vicinity of the center of the range to be imaged.

以上説明したように本発明は、主要被写体を検知できない状況に陥っても、撮像状況やユーザの意図を適切に反映したフォーカスエリアやアイリスの自動調整が可能となる。   As described above, the present invention enables automatic adjustment of the focus area and the iris appropriately reflecting the imaging situation and the user's intention even when the main subject cannot be detected.

フォーカス対象とした被写体のロストおよびロストした場合の従来のビデオカメラによるフォーカス制御について説明するための説明図である。It is explanatory drawing for demonstrating the focus control by the conventional video camera when the to-be-focused object is lost and lost. 第1の実施形態における撮像装置の一例を示した外観図である。1 is an external view illustrating an example of an imaging apparatus according to a first embodiment. 第1の実施形態における撮像装置の概略的な構成を示した機能ブロック図である。1 is a functional block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment. 第1の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 1st Embodiment. 第1の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 1st Embodiment. 第1の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 1st Embodiment. 第2の実施形態における撮像装置の概略的な構成を示した機能ブロック図である。FIG. 6 is a functional block diagram illustrating a schematic configuration of an imaging apparatus according to a second embodiment. 第2の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 2nd Embodiment. 第2の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 2nd Embodiment. 第2の実施形態における撮像方法の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging method in 2nd Embodiment.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、フォーカス対象とした主要被写体のロストおよびロストした場合の従来のビデオカメラによるフォーカス制御について説明するための説明図である。図1(a)に示すように、ビデオカメラの撮像画面100において、画面左側には、比較的近い位置に人物102が、画面右側には比較的遠い位置に人物104がいる。ここでは、撮像画面100内で顔が検出されると、その顔の位置に、焦点を合わせる画角内の位置を表すフォーカスエリアが設定され、その顔を追尾するモードにて撮像が行われているものとする。   FIG. 1 is an explanatory diagram for explaining focus control by a conventional video camera when a main subject to be focused is lost and when the subject is lost. As shown in FIG. 1A, in the imaging screen 100 of the video camera, a person 102 is at a relatively close position on the left side of the screen, and a person 104 is at a relatively far position on the right side of the screen. Here, when a face is detected in the imaging screen 100, a focus area representing a position within the angle of view to be focused is set at the position of the face, and imaging is performed in a mode for tracking the face. It shall be.

そして、例えば、ユーザが撮像画面100に備えられたタッチセンサで右側の人物104を指定したり、予め右側の人物104の顔の特徴を示す特徴量をビデオカメラに登録しておき、その登録した顔を追尾するように操作したり、子供優先モードになっていて、例えば、右側の人物104の顔は子供らしく、左側の人物102の顔は大人らしい顔の特徴量である等の状況で、右側の人物104(主要被写体)にフォーカスが合った状態で撮像しているものとする。このとき、例えば、枠106が右側の人物104の顔に重畳される。   For example, the user designates the right person 104 with the touch sensor provided on the imaging screen 100, or the feature amount indicating the facial features of the right person 104 is registered in the video camera in advance and registered. For example, in the situation where the face tracking is performed or the child priority mode is set, for example, the face of the right person 104 is like a child and the face of the left person 102 is an adult face feature amount. Assume that the right person 104 (main subject) is imaged in focus. At this time, for example, the frame 106 is superimposed on the face of the person 104 on the right side.

そして、図1(b)に示すように、動画の撮像中、右側の人物104が動いて顔の向きがビデオカメラとは反対方向を向いた場合、ビデオカメラは、右側の人物104の顔を検出できなくなり、追尾不能になる(ロスト)。この場合、従来のビデオカメラは、予め設定された処理として、顔をロストした位置に予め定められた待機時間、フォーカスエリアを固定したり、オートフォーカス機能を停止したり、左側の人物102の顔の検出位置にフォーカスエリアを移動させ、左側の人物102の顔にフォーカスを合わせるといった処理を画一的に行っていた。図1(b)においては、左側の人物102の顔にフォーカスが合わせられ枠106が重畳されている。   Then, as shown in FIG. 1B, if the right person 104 moves and the face faces in the opposite direction to the video camera during video recording, the video camera moves the face of the right person 104 It becomes impossible to detect and tracking becomes impossible (lost). In this case, the conventional video camera, as a preset process, fixes the standby time, focus area, stops the autofocus function at the position where the face is lost, stops the face of the person 102 on the left side, etc. The process of moving the focus area to the detected position and focusing on the face of the person 102 on the left side is performed uniformly. In FIG. 1B, the face 106 of the person 102 on the left side is focused and a frame 106 is superimposed.

そのため、ユーザが右側の人物104に引き続きフォーカスを合わせたいと考えていたとしても、ユーザの意図と異なる処理となってしまい、意図しない領域にフォーカスの合致した映像データが生成されてしまうという不具合が生じていた。   Therefore, even if the user wants to continue focusing on the person 104 on the right side, the processing is different from the user's intention, and the video data with the focus in an unintended area is generated. It was happening.

また、右側の人物104をロストした後、再び右側の人物104がビデオカメラ側に顔を向けてから、ユーザが撮像画面100に備えられたタッチセンサで右側の人物104を指定し直せば、追尾を再開することができる。しかし、ロストする度に右側の人物104を指定し直さなくてはならないため、ユーザにとってはその作業が煩わしいと感じる場合がある。   In addition, after the right person 104 is lost, the right person 104 turns his face to the video camera side again, and the user respecifies the right person 104 with the touch sensor provided on the imaging screen 100. Can be resumed. However, since the right person 104 has to be designated again every time it is lost, the user may feel troublesome.

以下の実施形態では、ユーザに煩わしい作業をさせずとも、ユーザの意図に沿ったフォーカスエリアやアイリスの自動調整が可能な撮像装置110について説明し、その撮像装置110を用いた撮像方法について詳述する。   In the following embodiments, an imaging device 110 capable of automatically adjusting a focus area and an iris in accordance with the user's intention without requiring troublesome work for the user will be described, and an imaging method using the imaging device 110 will be described in detail. To do.

(第1の実施形態:撮像装置110)
図2は、第1の実施形態における撮像装置110の一例を示した外観図である。図2(a)は、撮像装置110としてデジタルスチルカメラを、図2(b)は、撮像装置110としてビデオカメラを示している。図3は、図2(b)に記載した撮像装置110の概略的な構成を示した機能ブロック図である。撮像装置110は、操作部120と、撮像部122と、データ処理部124と、映像保持部126と、表示部128と、圧縮伸長部130と、記憶読取部132と、外部入出力部134と、記憶部136と、動き検出部138と、中央制御部140と、を含んで構成される。
(First embodiment: imaging device 110)
FIG. 2 is an external view illustrating an example of the imaging device 110 according to the first embodiment. 2A shows a digital still camera as the imaging device 110, and FIG. 2B shows a video camera as the imaging device 110. FIG. 3 is a functional block diagram illustrating a schematic configuration of the imaging device 110 illustrated in FIG. The imaging device 110 includes an operation unit 120, an imaging unit 122, a data processing unit 124, a video holding unit 126, a display unit 128, a compression / decompression unit 130, a storage reading unit 132, and an external input / output unit 134. A storage unit 136, a motion detection unit 138, and a central control unit 140.

操作部120は、レリーズスイッチを含む操作キー、十字キー、ジョイスティック等で構成され、ユーザの操作入力を受け付ける。また、後述する表示部128の表示面にタッチパネルを配し、操作部120としてもよい。   The operation unit 120 includes operation keys including a release switch, a cross key, a joystick, and the like, and accepts a user operation input. In addition, a touch panel may be provided on the display surface of the display unit 128 described later to serve as the operation unit 120.

撮像部122は、撮像レンズ150と、画角変更に用いられるズームレンズ152、焦点調整に用いられるフォーカスレンズ154と、露光調整に用いられるアイリス(絞り)156と、撮像レンズ150を通じて入射した光束を映像データに光電変換する撮像素子158と、後述する撮像制御部の制御信号に応じて、ズームレンズ152、フォーカスレンズ154、アイリス156および撮像素子158をそれぞれ駆動させる駆動部160とを含んで構成され、被写体を撮像して映像データを生成してデータ処理部124に出力する。   The imaging unit 122 is configured to receive an imaging lens 150, a zoom lens 152 used for changing the angle of view, a focus lens 154 used for focus adjustment, an iris (aperture) 156 used for exposure adjustment, and a light beam incident through the imaging lens 150. An image sensor 158 that photoelectrically converts video data, and a drive unit 160 that drives the zoom lens 152, the focus lens 154, the iris 156, and the image sensor 158 in accordance with a control signal from an image capture control unit, which will be described later, are configured. Then, the subject is imaged to generate video data, which is output to the data processing unit 124.

データ処理部124は、撮像部122から出力された映像データに、ホワイトバランス調節、ノイズ軽減処理、レベル補正処理、A/D変換処理および色彩補正処理(ガンマ補正処理、ニー処理)等の所定の処理を施し、処理後の映像データを映像保持部126に出力する。また、データ処理部124は、コントラストの評価のため、データ処理部124自体に備えるBPF(Band Pass Filter)で映像データの高周波成分を抽出し撮像制御部に出力する。コントラストの評価については後に詳述する。   The data processing unit 124 performs predetermined processing such as white balance adjustment, noise reduction processing, level correction processing, A / D conversion processing, and color correction processing (gamma correction processing, knee processing) on the video data output from the imaging unit 122. Processing is performed, and the processed video data is output to the video holding unit 126. Further, the data processing unit 124 extracts a high-frequency component of the video data by a BPF (Band Pass Filter) provided in the data processing unit 124 and outputs it to the imaging control unit for contrast evaluation. The contrast evaluation will be described in detail later.

映像保持部126は、RAM(Random Access Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、データ処理部124、圧縮伸長部130、および外部入出力部134から入力された映像データを一時的に保持する。   The video holding unit 126 includes a RAM (Random Access Memory), a flash memory, an HDD (Hard Disk Drive), and the like, and receives video data input from the data processing unit 124, the compression / decompression unit 130, and the external input / output unit 134. Hold temporarily.

表示部128は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、データ処理部124および圧縮伸長部130が出力し映像保持部126に保持された映像データや、操作部120と連動した指示項目を表示する。   The display unit 128 includes a liquid crystal display, an organic EL (Electro Luminescence) display, and the like. The display unit 128 is linked to the video data output from the data processing unit 124 and the compression / decompression unit 130 and held in the video holding unit 126 and the operation unit 120. Display instruction items.

圧縮伸長部130は、データ処理部124から出力された映像データを、映像保持部126を介してM−JPEG(モーションJPEG)やMPEG(Moving Picture Experts Group)−2、H.264/AVCなどの所定の符号化方式で符号化した符号データとし、符号データを記憶読取部132に出力する。また、圧縮伸長部130は、記憶読取部132が記憶媒体170から読み取った、所定の符号化方式で符号化された符号データを復号した映像データを、映像保持部126に出力する。   The compression / decompression unit 130 outputs the video data output from the data processing unit 124 via the video holding unit 126 to M-JPEG (motion JPEG), MPEG (Moving Picture Experts Group) -2, H.264, and so on. The encoded data is encoded by a predetermined encoding method such as H.264 / AVC, and the encoded data is output to the storage / reading unit 132. In addition, the compression / decompression unit 130 outputs video data obtained by decoding the code data encoded by a predetermined encoding method read by the storage reading unit 132 from the storage medium 170 to the video holding unit 126.

記憶読取部132は、圧縮伸長部130が符号化した符号データを任意の記憶媒体170に記憶させる。任意の記憶媒体170としては、DVD(Digital Versatile Disc)やBD(Blu-ray Disc)といった光ディスク媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の媒体を適用することができる。ここで、記憶媒体170は、着脱可能とするが、撮像装置110と一体であってもよい。また、記憶読取部132は、映像データを所定の符号化方式で符号化した符号化データが記憶された任意の記憶媒体170から符号化データを読み取り、圧縮伸長部130に出力する。   The storage reading unit 132 stores the code data encoded by the compression / decompression unit 130 in an arbitrary storage medium 170. As the arbitrary storage medium 170, an optical disk medium such as a DVD (Digital Versatile Disc) and a BD (Blu-ray Disc), a medium such as a RAM, an EEPROM, a nonvolatile RAM, a flash memory, and an HDD can be applied. Here, the storage medium 170 is detachable, but may be integrated with the imaging device 110. Further, the storage / reading unit 132 reads encoded data from an arbitrary storage medium 170 in which encoded data obtained by encoding video data using a predetermined encoding method is stored, and outputs the encoded data to the compression / decompression unit 130.

外部入出力部134は、映像保持部126に保持された映像データを、例えば、撮像装置110に接続された、映像を表示する表示装置172に出力する。また、外部入出力部134は、図示しない外部装置からの映像信号を受け取って、映像保持部126に格納する。   The external input / output unit 134 outputs the video data held in the video holding unit 126 to, for example, the display device 172 connected to the imaging device 110 and displaying the video. Further, the external input / output unit 134 receives a video signal from an external device (not shown) and stores it in the video holding unit 126.

記憶部136は、RAM、フラッシュメモリ、HDD等で構成され、後述する顔検出部の制御に従って、顔検出部が導出した顔の特徴量を記憶する。ここで、顔の特徴量は、顔の特徴点(目、口、鼻、耳等の特徴部分の代表点)それぞれの相対位置、特徴点同士の離間距離、特徴部分の大きさ、顔の輪郭、肌の色等の顔を特徴付ける情報である。また、記憶部136は後述する撮像操作状態を示す撮像操作情報を記憶する。   The storage unit 136 includes a RAM, a flash memory, an HDD, and the like, and stores the facial feature amount derived by the face detection unit according to the control of the face detection unit described later. Here, the feature amount of the face is the relative position of each feature point of the face (representative point of the feature part such as eyes, mouth, nose, ears, etc.), the distance between the feature points, the size of the feature part, the outline of the face Information that characterizes the face, such as skin color. The storage unit 136 stores imaging operation information indicating an imaging operation state described later.

動き検出部138は、撮像装置110のパンやチルト等の動きを検出する。動き検出部138は、具体的に、例えば、角速度センサ等で構成され、撮像装置110の角速度を測定し、その測定値を後述する情報生成部190に出力する。   The motion detection unit 138 detects a motion such as panning or tilting of the imaging device 110. Specifically, the motion detection unit 138 includes, for example, an angular velocity sensor, measures the angular velocity of the imaging device 110, and outputs the measured value to the information generation unit 190 described later.

中央制御部140は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により、撮像装置110全体を管理および制御する。また、中央制御部140は、顔検出部180、顔識別部182、周辺情報生成部184、追尾部186、撮像制御部188、情報生成部190、焦点決定部192としても機能する。   The central control unit 140 manages and controls the entire imaging apparatus 110 by a semiconductor integrated circuit including a central processing unit (CPU), a ROM storing programs, a RAM as a work area, and the like. The central control unit 140 also functions as a face detection unit 180, a face identification unit 182, a peripheral information generation unit 184, a tracking unit 186, an imaging control unit 188, an information generation unit 190, and a focus determination unit 192.

顔検出部180は、撮像部122が生成した映像データから顔を検出し、検出された顔の位置や大きさ、傾き等を示す顔情報を生成する。具体的に、顔検出部180は、例えば、顔全体の輪郭または目、口、鼻、耳等の顔の構成要素に基づくテンプレートマッチングによって顔を検出する。また、顔検出部180は、肌の色に近い領域を検出し、その領域を顔として検出してもよい。さらに、顔検出部180は、ニューラルネットワークを使って教師信号による学習を行い、顔らしいと判断した領域を顔として検出したり、顔を検出する既存の他の技術を用いたりしてもよい。   The face detection unit 180 detects a face from the video data generated by the imaging unit 122, and generates face information indicating the position, size, inclination, and the like of the detected face. Specifically, the face detection unit 180 detects a face by template matching based on, for example, the outline of the entire face or face components such as eyes, mouth, nose, and ears. The face detection unit 180 may detect an area close to the skin color and detect the area as a face. Further, the face detection unit 180 may perform learning using a teacher signal using a neural network, detect an area determined to be a face as a face, or use another existing technique for detecting a face.

そして、顔検出部180は、検出された顔の特徴量を導出する。また、顔検出部180は、その検出された顔について、登録するようユーザの操作入力があると、導出した特徴量を記憶部136に記憶させる。   Then, the face detection unit 180 derives the detected face feature amount. Further, when there is a user operation input to register the detected face, the face detection unit 180 causes the storage unit 136 to store the derived feature amount.

顔識別部182は、顔検出部180によって検出された顔について、導出された特徴量と、記憶部136に予め記憶されている特徴量とを比較して類似度を導出する。類似度は、検出された顔と、記憶部136に特徴量が記憶されている人物(以下、「登録人物」と称する。)との顔の類似の度合いを示す。そして、顔識別部182は、類似度が予め定められた閾値を超えていると、顔検出部180によって検出された顔が登録人物と同一人物の顔であると判定する。   The face identifying unit 182 derives a similarity by comparing the derived feature amount with the feature amount stored in advance in the storage unit 136 for the face detected by the face detection unit 180. The similarity indicates the degree of similarity between the detected face and the person whose feature quantity is stored in the storage unit 136 (hereinafter referred to as “registered person”). Then, when the similarity exceeds a predetermined threshold, the face identification unit 182 determines that the face detected by the face detection unit 180 is the face of the same person as the registered person.

周辺情報生成部184は、顔検出部180から出力される顔の位置や大きさ、傾きを利用して、その顔の人物の胴体に相当する領域を推定して、推定した領域の大きさ、位置および色を示す周辺情報を生成する。   The peripheral information generation unit 184 uses the position, size, and inclination of the face output from the face detection unit 180 to estimate a region corresponding to the human torso of the face, Peripheral information indicating position and color is generated.

追尾部186は、映像データにおける顔検出部180が検出した顔またはその顔に対応する周辺情報を追尾する。追尾部186は、顔検出部180が生成した顔情報、および周辺情報生成部184が生成した周辺情報を、所定の周期(例えば、フレーム周期)で取得する。映像データから顔が複数検出された場合、追尾部186は、検出された各顔についての顔情報と周辺情報とを取得する。   The tracking unit 186 tracks the face detected by the face detection unit 180 in the video data or the peripheral information corresponding to the face. The tracking unit 186 acquires the face information generated by the face detection unit 180 and the peripheral information generated by the peripheral information generation unit 184 at a predetermined cycle (for example, a frame cycle). When a plurality of faces are detected from the video data, the tracking unit 186 acquires face information and peripheral information for each detected face.

そして、追尾部186は、顔情報に基づいて、最新のフレームより一つ前のフレームにおける映像領域中の顔が検出された位置Aに対応する、最新のフレームにおける映像領域中の位置A’から、所定の距離内に顔が検出されているか否かを判定する。所定の距離内の位置Bで顔が検出されており、一つ前のフレームの映像領域中の位置Aで検出された顔の大きさと、最新のフレームの映像領域中の位置Bで検出された顔の大きさの変化が所定値以下である場合、追尾部186は、その2つの顔は同一人物の顔であり、顔を追尾できていると判定する。そして、追尾部186は、位置Bと位置A’との差分をとって速度ベクトルを導出する。   Then, the tracking unit 186 starts from the position A ′ in the video area in the latest frame corresponding to the position A where the face in the video area in the frame immediately before the latest frame is detected based on the face information. It is determined whether or not a face is detected within a predetermined distance. A face is detected at position B within a predetermined distance, and the face size detected at position A in the video area of the previous frame and the position B in the video area of the latest frame are detected. When the change in the size of the face is equal to or smaller than the predetermined value, the tracking unit 186 determines that the two faces are faces of the same person and the faces can be tracked. Then, the tracking unit 186 derives a velocity vector by taking the difference between the position B and the position A ′.

また、追尾部186は、所定の距離内に顔が検出されていない場合、または、検出されていても顔の大きさの変化が所定の大きさを超えている場合、周辺情報を用いた追尾を行う。具体的に、追尾部186は、一つ前のフレームの映像領域中の位置Dに対応する周辺情報に示される位置が位置D’である場合、この最新のフレームでの映像領域中の位置D’から所定の距離内で、周辺情報に示される色ヒストグラムに類似した色ヒストグラムの領域があるかどうか探索する。このとき、追尾部186は、色の類似度合いを示す指標であるヒストグラムインタセクションの値が所定の閾値以下であるか否かで類似を判定する。   In addition, the tracking unit 186 performs tracking using peripheral information when a face is not detected within a predetermined distance, or when a change in the size of the face exceeds a predetermined size even if it is detected. I do. Specifically, the tracking unit 186, when the position indicated by the peripheral information corresponding to the position D in the video area of the previous frame is the position D ′, the position D in the video area in the latest frame. Within a predetermined distance from ', a search is made as to whether there is a color histogram area similar to the color histogram shown in the peripheral information. At this time, the tracking unit 186 determines similarity based on whether or not the value of the histogram intersection, which is an index indicating the degree of color similarity, is equal to or less than a predetermined threshold.

ヒストグラムインタセクションの値が所定の閾値以下となる領域が検出された場合、追尾部186は、同一人物の周辺情報であると判定する。追尾部186は、ヒストグラムインタセクションが所定の閾値以下となる領域が検出されなかった場合、または、複数の領域(例えば、同じ色の服を着た複数の人の胴体)が検出された場合、同一人物の周辺情報を見失ったと判定する。また、色の類似度合いの指標としては、ヒストグラムインタセクションに限定されるものではなく、ユークリッド距離等を用いてもよい。   When a region where the value of the histogram intersection is equal to or smaller than a predetermined threshold is detected, the tracking unit 186 determines that the information is peripheral information of the same person. The tracking unit 186, when a region where the histogram intersection is equal to or less than a predetermined threshold is not detected, or when a plurality of regions (for example, a plurality of human torso wearing clothes of the same color) are detected, It is determined that the peripheral information of the same person has been lost. In addition, the index of the degree of similarity between colors is not limited to the histogram intersection, and Euclidean distance or the like may be used.

最新のフレームで同一人物の顔と判定される顔が検出されず、さらに同一人物の周辺情報も見失ったと判定した場合、追尾部186は、その人物を見失い、追尾不能となったと判定する。   When it is determined that the face determined to be the same person's face in the latest frame is not detected and the peripheral information of the same person is also lost, the tracking unit 186 determines that the person has been lost and tracking is impossible.

そして、追尾部186は、追尾の可否にかかわらず、顔情報と、顔情報に対応する周辺情報と、顔情報を識別するためのID(IDentification)とを一時的に記憶する。追尾部186は、顔が検出されると顔毎に相異なるIDを付与する。ただし、顔を追尾できている場合、追尾部186は、追尾している顔の顔情報については、一つ前のフレームの追尾の対象となる顔の顔情報に付与されたIDを引き継ぎ、同一のIDを付与して記憶し、さらに導出した速度ベクトルも記憶する。このとき、一旦追尾不能となった人物の顔を所定時間内に再度検出した場合、その顔に付与されていたIDを引き継ぐとしてもよい。このように、追尾部186は、基本的に、顔検出部180が検出したすべての顔を追尾する。   The tracking unit 186 temporarily stores face information, peripheral information corresponding to the face information, and ID (IDentification) for identifying the face information regardless of whether tracking is possible. The tracking unit 186 gives a different ID for each face when a face is detected. However, when the face can be tracked, the tracking unit 186 takes over the ID assigned to the face information of the face to be tracked in the previous frame for the face information of the face being tracked, and the same Is stored with the ID, and the derived velocity vector is also stored. At this time, when the face of a person who has become unable to track is detected again within a predetermined time, the ID assigned to the face may be taken over. Thus, the tracking unit 186 basically tracks all the faces detected by the face detection unit 180.

撮像制御部188は、焦点調整や露光調整を含む撮像制御を行う。撮像制御部188は、撮像制御を遂行するための制御指令を駆動部160に出力し、駆動部160は、撮像制御部188から出力された制御指令に従って、フォーカスレンズ154やアイリス156を調整する。   The imaging control unit 188 performs imaging control including focus adjustment and exposure adjustment. The imaging control unit 188 outputs a control command for performing imaging control to the driving unit 160, and the driving unit 160 adjusts the focus lens 154 and the iris 156 according to the control command output from the imaging control unit 188.

本実施形態の撮像装置110は、オートフォーカス方式としてコントラスト方式を用いる。コントラスト方式は、撮像素子158上の像のボケの程度とコントラストの間に相関があり、焦点があったときに像のコントラストが最大になることを利用し、焦点を合わせる方式である。コントラストは、撮像部122で生成される映像データの高周波成分のエネルギーの大きさによって評価できる。   The imaging apparatus 110 according to the present embodiment uses a contrast method as an autofocus method. The contrast method is a method of focusing by using the fact that there is a correlation between the degree of blur of the image on the image sensor 158 and the contrast, and the contrast of the image is maximized when the image is focused. The contrast can be evaluated by the magnitude of the energy of the high frequency component of the video data generated by the imaging unit 122.

具体的に、撮像制御部188は、データ処理部124から出力されたコントラストの絶対値の積分値を評価値とするオートフォーカス演算を行う。そして、撮像制御部188は、オートフォーカス演算の結果に応じ、コントラストが最大となるように駆動部160にフォーカスレンズ154の位置を調節させることで焦点を合わせる。また、撮像装置110は、コントラスト方式に限らず、赤外光によって測定された被写体距離に応じてフォーカスレンズ154の位置を調節してもよいし、その他、焦点を合わせる様々な方式を適用してもよい。   Specifically, the imaging control unit 188 performs autofocus calculation using the integral value of the absolute value of contrast output from the data processing unit 124 as an evaluation value. Then, the imaging control unit 188 adjusts the focus by causing the drive unit 160 to adjust the position of the focus lens 154 so that the contrast is maximized according to the result of the autofocus calculation. Further, the imaging device 110 is not limited to the contrast method, and may adjust the position of the focus lens 154 according to the subject distance measured by infrared light, or may apply various other methods for focusing. Also good.

このとき、撮像制御部188は、撮像素子158上の画角内のいずれかの領域をフォーカスエリアとし、フォーカスエリアに対応する部分的な映像データをコントラストの評価の対象とする。撮像装置110におけるオートフォーカス方式は、フォーカスエリアの選択手段によって、例えば以下のモードに分類される。   At this time, the imaging control unit 188 sets any area within the angle of view on the imaging element 158 as a focus area, and sets partial video data corresponding to the focus area as a target for contrast evaluation. The autofocus method in the imaging apparatus 110 is classified into the following modes, for example, by the focus area selection unit.

すなわち、フォーカスエリアとして、画角内の中央の領域を用いる「中央重点フォーカス」、表示部128の表示面に配されたタッチセンサにユーザがタッチした位置に相当する画角内の領域を用いる「タッチフォーカス」、タッチした位置近傍に相当する画角内の領域の色情報を用いて追尾対象物を追尾して、追尾結果の領域を用いる「タッチ追尾オートフォーカス」、顔検出部180で検出した顔のうち最大の面積の顔の位置に相当する画角内の領域を用いる「顔検出フォーカス」、顔検出した結果の一つまたは複数の顔のうち、ユーザがタッチした顔を追尾し、その追尾している顔の位置に相当する画角内の領域を用いる「顔追尾フォーカス」、撮像装置110内の記憶部136に特徴量が記憶されている人物の顔であると判定された顔を追尾し、その追尾している顔の位置に相当する画角内の領域を用いる「個人追尾フォーカス」の各モードである。なお、「顔追尾フォーカス」の場合、ユーザがタッチした顔の特徴量を一時的に記憶するようにしてもよい。   That is, as the focus area, the “center focus” using the center area within the angle of view, and the area within the angle of view corresponding to the position where the user touches the touch sensor arranged on the display surface of the display unit 128 is used. ”Touch focus”, “Touch tracking autofocus” using the tracking result area by tracking the tracking object using the color information of the area within the angle of view corresponding to the vicinity of the touched position, detected by the face detection unit 180 `` Face detection focus '' that uses the area within the angle of view corresponding to the position of the face of the largest area of the face, tracking the face touched by the user among one or more faces of the face detection result, “Face tracking focus” using an area within the angle of view corresponding to the position of the face being tracked, determined to be the face of a person whose feature quantity is stored in the storage unit 136 in the imaging device 110 Tracking the a modes "personal tracking focus" as used an area within the angle corresponding to the position of the face that the tracking. In the case of “face tracking focus”, the feature amount of the face touched by the user may be temporarily stored.

上述した周辺情報生成部184による周辺情報の生成処理、および追尾部186による追尾処理は、少なくとも「顔追尾フォーカス」と「個人追尾フォーカス」のモードにおいて実行される。なお、周辺情報生成部184が周辺情報の抽出の対象とする顔や、追尾部186が追尾の対象とする顔は、顔検出部180が検出したすべての顔とするが、フォーカスエリアを移動させる対象となる顔は、「特定された顔」とする。   The peripheral information generation processing by the peripheral information generation unit 184 and the tracking processing by the tracking unit 186 described above are executed at least in the “face tracking focus” and “personal tracking focus” modes. Note that the face that is the target of the peripheral information extraction by the peripheral information generation unit 184 and the face that is the target of tracking by the tracking unit 186 are all the faces detected by the face detection unit 180, but the focus area is moved. The target face is “identified face”.

「特定された顔」は、例えば、「顔追尾フォーカス」であれば、ユーザが表示部128の表示面に備えられたタッチセンサで指定した顔であり、「個人追尾フォーカス」であれば、顔識別部182によって登録人物と同一人物の顔であると判定された顔とする。   The “specified face” is, for example, a face designated by the user with the touch sensor provided on the display surface of the display unit 128 if “face tracking focus” is selected, and if “face tracking focus” is specified, The face is determined to be the face of the same person as the registered person by the identification unit 182.

前者の場合、タッチセンサで指定した「特定された顔」を見失うと、再度タッチセンサによる指定等をしないと「特定された顔」の追尾は再開できない。なお、ユーザがタッチセンサで指定した顔の特徴量を一時的に記憶する構成の場合、「特定された顔」を見失った後で、再度、画面内にその人物の顔が現れると、追尾を再開できる。これは、顔識別部182が、一時的に記憶された顔の特徴量と検出された顔の特徴量とを比較して同一人物の顔であるか否かの判定を行い、同一人物の顔であると判定された顔が検出されると、「特定された顔」として追尾を再開するためである。   In the former case, if the “specified face” specified by the touch sensor is lost, tracking of the “specified face” cannot be resumed unless the touch sensor is specified again. In the case of a configuration that temporarily stores the feature amount of the face specified by the user with the touch sensor, if the face of the person appears again on the screen after losing sight of the “specified face”, tracking is performed. You can resume. This is because the face identification unit 182 compares the temporarily stored facial feature quantity with the detected facial feature quantity to determine whether or not they are the same person's face. This is because when the face determined to be is detected, the tracking is resumed as “specified face”.

後者の場合、予め記憶部136に登録した顔を用いるため、「特定された顔」を見失った後で、再度、画面内にその人物の顔が現れると、顔識別部182がその顔を登録人物と同一人物の顔であると判定し、追尾部186が追尾を再開できる。   In the latter case, since the face registered in the storage unit 136 is used in advance, when the face of the person appears again on the screen after losing sight of the “specified face”, the face identifying unit 182 registers the face. It is determined that the face is the same person as the person, and the tracking unit 186 can resume tracking.

本実施形態において、「特定された顔」は、1つの顔を例に挙げるが、「特定された顔」を複数の顔としてもよい。その場合、撮像制御部188は、すべての「特定された顔」について、総合的に最も焦点が合うようにフォーカス調整を行う。   In the present embodiment, the “specified face” is exemplified by one face, but the “specified face” may be a plurality of faces. In that case, the imaging control unit 188 performs focus adjustment so that all the “specified faces” are focused most comprehensively.

情報生成部190は、上記の2つのいずれかのモードで撮像が開始されると、例えば、フレーム周期毎に取得した、後述する撮像操作情報を記憶部136に記憶させる。   When imaging starts in one of the above two modes, the information generation unit 190 causes the storage unit 136 to store imaging operation information (described later) acquired for each frame period, for example.

情報生成部190は、追尾している「特定された顔」について追尾部186が追尾不能と判定するまで、撮像操作情報を記憶部136の第1の場所に記憶させる。記憶部136に記憶させる撮像操作情報は、最新の第1の所定時間分とし、古いデータは新しいデータで上書きされる。したがって、追尾不能となった場合においても、記憶部136には、追尾不能になる直前の撮像操作情報が記憶されていることになる。   The information generation unit 190 stores the imaging operation information in the first location of the storage unit 136 until the tracking unit 186 determines that tracking is not possible for the “specified face” being tracked. The imaging operation information stored in the storage unit 136 is the latest first predetermined time, and old data is overwritten with new data. Therefore, even when tracking becomes impossible, the storage unit 136 stores the imaging operation information immediately before tracking becomes impossible.

そして、情報生成部190は、追尾していた「特定された顔」が追尾不能となった場合、追尾不能となった直後の、第2の所定時間について、撮像操作情報を生成し、記憶部136の第2の場所に記憶させる。   Then, when the “specified face” being tracked becomes untrackable, the information generation unit 190 generates imaging operation information for the second predetermined time immediately after the tracking becomes impossible, and the storage unit 136 in a second location.

このように、情報生成部190は、追尾不能となる直前の第1の所定時間分と、追尾不能となった直後の第2の所定時間分それぞれについて、撮像操作状態を示す撮像操作情報を生成、記憶する。   As described above, the information generation unit 190 generates imaging operation information indicating the imaging operation state for each of the first predetermined time immediately before tracking becomes impossible and the second predetermined time immediately after tracking becomes impossible. ,Remember.

この撮像操作状態は、例えば、パンまたはチルトの大きさであり、情報生成部190は撮像操作状態としてパンまたはチルトの大きさを示す情報を生成する。具体的に、情報生成部190は、動き検出部138からの出力値に基づいて、パンやチルトの大きさとして、追尾不能となる直前の角速度および追尾不能となった直後の角速度をそれぞれ導出する。パンやチルトの大きさとしては、速度に限らず、例えば、パンやチルト方向の変位量や角速度であってもよい。   This imaging operation state is, for example, the size of pan or tilt, and the information generation unit 190 generates information indicating the size of pan or tilt as the imaging operation state. Specifically, the information generation unit 190 derives the angular velocity immediately before the tracking becomes impossible and the angular velocity immediately after the tracking becomes impossible as the size of pan and tilt based on the output value from the motion detection unit 138, respectively. . The magnitude of pan and tilt is not limited to speed, and may be, for example, the amount of displacement or angular speed in the pan or tilt direction.

本実施形態の撮像装置110では、パンやチルトの大きさを把握することで、ユーザが撮像装置110の向きをどのように動かして主要被写体を画角に捉えていたのかがわかるため、その後、どのように主要被写体を撮像したいのかといったユーザの意図の推定精度が向上し、さらに適切に撮像状況やユーザの意図を反映したフォーカスエリアおよびアイリスの調整が可能となる。   In the imaging apparatus 110 of the present embodiment, by grasping the size of pan and tilt, it is possible to know how the user moved the orientation of the imaging apparatus 110 to capture the main subject at the angle of view. The estimation accuracy of the user's intention such as how to capture the main subject is improved, and the focus area and the iris that appropriately reflect the imaging situation and the user's intention can be adjusted.

また、撮像操作状態は、例えば、ズームの大きさであり、情報生成部190は撮像操作状態としてズームの大きさを示す情報を生成する。具体的に、情報生成部190はズームの大きさとして、ズームレンズの位置とズームレンズの移動速度(以下、ズーム速度と称す)を導出する。   Further, the imaging operation state is, for example, the zoom size, and the information generation unit 190 generates information indicating the zoom size as the imaging operation state. Specifically, the information generation unit 190 derives the position of the zoom lens and the moving speed of the zoom lens (hereinafter referred to as zoom speed) as the zoom size.

本実施形態の撮像装置110では、ズームの大きさを把握することで、ユーザが主要被写体に対してズームインをしていたのかズームアウトをしていたのか、どちらでもないのかがわかるため、その後、どのように主要被写体を撮像したいのかといったユーザの意図の推定精度が向上し、さらに適切に撮像状況やユーザの意図を反映したフォーカスエリアおよびアイリスの調整が可能となる。   In the imaging apparatus 110 according to the present embodiment, by grasping the zoom size, it can be determined whether the user has zoomed in or zoomed out with respect to the main subject. The estimation accuracy of the user's intention such as how to capture the main subject is improved, and the focus area and the iris that appropriately reflect the imaging situation and the user's intention can be adjusted.

さらに、撮像操作状態は、フォーカス状態であってもよい。この場合、映像データの高周波成分のエネルギーのフレーム毎の変動が、所定の閾値よりも小さい場合に合焦状態であると判断する。   Further, the imaging operation state may be a focus state. In this case, when the fluctuation of the energy of the high-frequency component of the video data for each frame is smaller than a predetermined threshold, it is determined that the in-focus state is achieved.

また、撮像操作状態は、「特定された顔」の特徴とその周辺情報とそれらの位置と、その他のすべての顔の特徴とその周辺情報とそれらの位置であってもよい。また、撮像操作状態は、追尾部186が導出した速度ベクトルであってもよい。   Further, the imaging operation state may be the characteristics of the “specified face” and its peripheral information and their positions, and all the other facial characteristics and their peripheral information and their positions. The imaging operation state may be a velocity vector derived by the tracking unit 186.

撮像操作状態が周辺情報である場合、情報生成部190は、追尾している「特定された顔」の周辺情報とその他のすべての顔の周辺情報から、「特定された顔」の周辺情報が他の周辺情報と識別可能であるかを判定する。例えば、周辺情報を上半身の服の色とする場合、追尾している「特定された顔」の人物の服の色ヒストグラムが他のすべての顔の人物の服の色ヒストグラムと異なると判定されると、識別可能と判定される。色ヒストグラムが異なるか否かの判定は、ヒストグラムインタセクションの値が所定の閾値より大きいか否かで行い、閾値より大きいと異なると判定される。   When the imaging operation state is the peripheral information, the information generation unit 190 obtains the peripheral information of the “specified face” from the peripheral information of the “specified face” being tracked and the peripheral information of all other faces. It is determined whether it can be distinguished from other peripheral information. For example, when the peripheral information is the color of the upper body clothes, it is determined that the color histogram of the person who is tracking “identified face” is different from the color histograms of the clothes of all other face persons. And are determined to be identifiable. Whether the color histograms are different is determined based on whether the value of the histogram intersection is larger than a predetermined threshold value.

焦点決定部192は、追尾不能となる直前の第1の所定時間分と、追尾不能となった直後の第2の所定時間分の撮像操作情報に基づいて、フォーカスエリア(焦点を合わせる画角内の位置)を決定、または、撮像部122の被写界深度、本実施形態においてはアイリスを決定する。そして、焦点調整部192は、撮像制御部188に決定したフォーカスエリアおよびアイリスの値を出力する。撮像制御部188は、そのフォーカスエリアおよびアイリスの値に応じて駆動部160を制御する。焦点調整部192がフォーカスエリアおよびアイリスの値を決定する具体例については後述するフローチャートにおいて詳述する。   The focus determination unit 192 selects the focus area (within the angle of view for focusing) based on the imaging operation information for the first predetermined time immediately before tracking becomes impossible and the second predetermined time immediately after tracking becomes impossible. ), Or the depth of field of the imaging unit 122, in this embodiment, the iris. Then, the focus adjustment unit 192 outputs the determined focus area and iris value to the imaging control unit 188. The imaging control unit 188 controls the driving unit 160 according to the focus area and the iris value. A specific example in which the focus adjustment unit 192 determines the focus area and the iris value will be described in detail in a flowchart described later.

本実施形態の撮像装置110は、主要被写体を追尾不能となった直前および直後それぞれについての撮像操作情報に応じて、追尾不能となった主要被写体が追尾不能直後に画角内外のどの位置にいるか、および撮像者がその主要被写体を引き続き主要な被写体と考えているかどうかを推測し、追尾不能になった場合のフォーカスエリア、および被写界深度(本実施形態においてはアイリス)を決定する。そのため、まだ追尾可能と考えるか、追尾を断念するかといったユーザの意図が反映された撮像が可能になり、撮像装置110がユーザの意図に反した動作をしてしまい、ユーザがそれを是正しなければならないといった煩わしい事態を回避できる。   The imaging apparatus 110 according to the present embodiment is located at a position inside or outside the angle of view immediately after the main subject that cannot be tracked immediately after the main subject that cannot be tracked according to the imaging operation information immediately before and after the main subject becomes untrackable. , And whether the photographer continues to consider the main subject as the main subject, and determines the focus area and depth of field (iris in the present embodiment) when tracking becomes impossible. Therefore, imaging that reflects the user's intention such as whether tracking is still possible or whether the tracking is abandoned becomes possible, and the imaging device 110 operates against the user's intention, and the user corrects it. The troublesome situation that must be avoided can be avoided.

また、焦点決定部192は、主要被写体が追尾不能の状態が、撮像操作情報に応じた長さの待機時間継続すると、被写界深度(本実施形態においてはアイリス)を決定した値に変化させてもよい。例えば、撮像操作情報がパンやチルトの速度の場合、焦点決定部192は、その速度に応じて待機時間やアイリスを決定する。   The focus determination unit 192 changes the depth of field (iris in the present embodiment) to the determined value when the state in which the main subject cannot be tracked continues for a length of the standby time according to the imaging operation information. May be. For example, when the imaging operation information is a pan or tilt speed, the focus determination unit 192 determines a standby time or an iris according to the speed.

このように、本実施形態の撮像装置110は、適切に設定された待機時間の経過を待って、被写界深度を変化させることができる。本実施形態において、アイリスを変更するまでの待機時間をアイリス待機時間と称す。   As described above, the imaging apparatus 110 according to the present embodiment can change the depth of field after waiting for an appropriately set waiting time. In this embodiment, the waiting time until the iris is changed is referred to as iris waiting time.

焦点決定部192は、主要被写体が追尾不能の状態が、撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央(以下、単に画角の中央と称す)に移動してもよい。例えば、撮像操作情報がパンやチルトの速度の場合、焦点決定部192は、その速度に応じて待機時間を決定する。焦点決定部192は、追尾不能の状態が待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央に移動させる。この際、焦点決定部192は、待機時間を撮像操作情報に応じた長さとする。例えば、主要被写体がフレームアウトしている可能性が高い場合には、待機時間を比較的短く、フレームアウトしている可能性が低い場合には、待機時間を比較的長くする。   When the main subject cannot be tracked and the standby time of the length corresponding to the imaging operation information continues, the focus determination unit 192 determines the position within the angle of view to be focused in the center of the range to be imaged (hereinafter simply referred to as an image). You may move to the center of the corner. For example, when the imaging operation information is a pan or tilt speed, the focus determination unit 192 determines the standby time according to the speed. When the tracking impossible state continues for the standby time, the focus determination unit 192 moves the position within the angle of view for focusing to the center of the range to be imaged. At this time, the focus determination unit 192 sets the standby time to a length according to the imaging operation information. For example, when the possibility that the main subject is out of frame is high, the standby time is relatively short, and when the possibility that the main subject is out of frame is low, the standby time is relatively long.

このように、本実施形態における撮像装置110は、適切に設定された待機時間の経過を待って、フォーカスエリアを撮像対象となる範囲の中央にすることができる。本実施形態において、フォーカスエリアを変更するまでの待機時間をエリア待機時間と称す。   As described above, the imaging apparatus 110 according to this embodiment can wait for the appropriately set waiting time to elapse and set the focus area at the center of the range to be imaged. In this embodiment, the waiting time until the focus area is changed is referred to as an area waiting time.

また、焦点決定部192は、主要被写体を追尾不能になった直前および直後それぞれについての、パンとチルトの大きさ、ズームの大きさ、フォーカス状態、検出されたすべての顔の特徴とその周辺情報とそれらの位置、速度ベクトルといった、撮像操作情報のうち、いずれか1または複数の値を入力とする、予め定められた関数の出力値によって、エリア待機時間、アイリス待機時間を連続的に変えるようにしてもよい。   In addition, the focus determination unit 192 performs pan and tilt sizes, zoom sizes, focus states, all detected facial features and their surrounding information immediately before and after the main subject becomes untrackable. The area standby time and the iris standby time are continuously changed according to an output value of a predetermined function that receives any one or a plurality of values of the imaging operation information such as the position and velocity vector. It may be.

以上のように、本実施形態の撮像装置110を用いれば、撮像操作情報に応じてフォーカスエリアやアイリスを調整するため、顔を追尾したオートフォーカス中に追尾不能になっても、ユーザの意図に沿ったフォーカスエリアやアイリスの自動調整を行うことが可能となる。   As described above, when the imaging apparatus 110 according to the present embodiment is used, the focus area and the iris are adjusted according to the imaging operation information. Therefore, even if tracking becomes impossible during autofocus that tracks the face, the user's intention is achieved. It is possible to automatically adjust the focus area and the iris.

(撮像方法)
図4〜6は、第1の実施形態における撮像方法の処理の流れを示すフローチャートである。少なくとも上記の2つのいずれかのモードで撮像が開始されると、撮像部122は映像データを生成し(S300)、顔検出部180は映像データから顔を検出し(S302)、その顔情報から特徴量を導出する(S304)。顔識別部182は、導出された特徴量と、記憶部136に予め記憶されている特徴量とを比較して登録人物と同一人物の顔であるかの判定をする(S306)。
(Imaging method)
4 to 6 are flowcharts illustrating the processing flow of the imaging method according to the first embodiment. When imaging is started in at least one of the above two modes, the imaging unit 122 generates video data (S300), the face detection unit 180 detects a face from the video data (S302), and uses the face information. A feature amount is derived (S304). The face identifying unit 182 compares the derived feature amount with the feature amount stored in advance in the storage unit 136 to determine whether the face is the same person as the registered person (S306).

周辺情報生成部184は、検出したすべての顔の人物の胴体に対応する領域を推定して、推定した領域の位置や色を示す周辺情報を生成する(S308)。追尾部186は、映像データにおける顔検出部180が検出した顔またはその顔に対応する周辺情報を追尾する(S310)。情報生成部190は、最新の撮像操作情報を記憶部136に記憶させる(S312)。   The peripheral information generation unit 184 estimates a region corresponding to the detected human torso of all the faces, and generates peripheral information indicating the position and color of the estimated region (S308). The tracking unit 186 tracks the face detected by the face detection unit 180 in the video data or peripheral information corresponding to the face (S310). The information generation unit 190 stores the latest imaging operation information in the storage unit 136 (S312).

追尾部186が追尾している「特定された顔」が追尾不能になる直前、情報生成部190は、撮像操作情報を記録部136の第1の場所に記憶させる。第1の場所には、第1の所定時間に相当するフレーム数分(ここでは、Nフレームとする。Nは自然数。)の撮像操作情報が記憶される。最新のフレームの撮像操作情報は、Nフレーム分の情報のうち最も古いフレームの情報に上書きされる。したがって、第1の場所には、追尾不能になる直前のNフレーム分の撮像操作情報が格納される。   Immediately before the “specified face” tracked by the tracking unit 186 becomes untrackable, the information generation unit 190 stores the imaging operation information in the first location of the recording unit 136. The first location stores imaging operation information for the number of frames corresponding to the first predetermined time (here, N frames, where N is a natural number). The imaging operation information of the latest frame is overwritten with the information of the oldest frame among the information for N frames. Accordingly, imaging operation information for N frames immediately before tracking becomes impossible is stored in the first location.

追尾部186が追尾している「特定された顔」が追尾不能になった直後、情報生成部190は、撮像操作情報を記録部136の第2の場所に記憶させる。第2の場所には、追尾不能になったフレームから、第2の所定時間に相当するフレーム数分(ここでは、Mフレームとする。Mは自然数)の撮像操作情報が記憶される。追尾不能状態が続く場合には、第2の場所には追尾不能になったフレームからMフレーム分の撮像操作情報が格納される。以上のようにして、記憶部136の第1の場所と第2の場所に、追尾不能になる直前のNフレーム分と直後のMフレーム分の撮像操作情報が記憶される。   Immediately after the “specified face” tracked by the tracking unit 186 becomes untrackable, the information generating unit 190 stores the imaging operation information in the second location of the recording unit 136. The second location stores imaging operation information for the number of frames corresponding to the second predetermined time (here, M frames, where M is a natural number) from the frames that cannot be tracked. When the tracking impossible state continues, imaging operation information for M frames from the frame that cannot be tracked is stored in the second location. As described above, the imaging operation information for the N frames immediately before and after the tracking becomes impossible is stored in the first place and the second place of the storage unit 136.

記憶される撮影情報は、パンとチルトの大きさ、ズームの大きさ、フォーカス状態、検出されたすべての顔の特徴とその周辺情報とそれらの位置、速度ベクトルである。   The stored photographing information includes pan and tilt sizes, zoom sizes, focus states, all detected facial features and their peripheral information, their positions, and velocity vectors.

情報生成部190は、追尾部186が追尾している「特定された顔」が追尾不能となったか否かを判定する(S314)。追尾不能となった場合(S314におけるYES)、情報生成部190は、最新のフレームの一つ前のフレームでも追尾不能となっていたか否かを判定する(S316)。前のフレームで追尾不能でなかった、すなわち、最新のフレームが追尾不能となった初めてのフレームである場合(S316におけるNO)、時間計測のカウンターをリセットした上で、その「特定された顔」が追尾不能と判定された時点からの経過時間の計測を開始する(S318)。   The information generation unit 190 determines whether or not the “specified face” tracked by the tracking unit 186 has become untrackable (S314). When tracking becomes impossible (YES in S314), the information generation unit 190 determines whether tracking is disabled even in the frame immediately before the latest frame (S316). If tracking is not possible in the previous frame, that is, if the latest frame is the first frame that cannot be tracked (NO in S316), the “measured face” is reset after resetting the time measurement counter. Starts measuring the elapsed time from when it is determined that tracking is impossible (S318).

次に、フォーカスエリアやアイリスの設定判定の処理を行う(S320)。設定判定ステップS320については、図5、6を用いて後に詳述する。焦点決定部192は、設定判定ステップS320においてエリア待機時間が設定されたか否かを示すエリアフラグが、設定されたことを示す1で、かつ追尾不能と判定された時点からエリア待機時間が経過したか否かを判定する(S322)。エリアフラグが1で、かつエリア待機時間が経過している場合(S322におけるYES)、撮像制御部188は、画角の中央がフォーカスエリアとなるよう駆動部160を制御する(S324)。エリアフラグが、エリア待機時間が設定されていないことを示す0か、またはエリア待機時間が経過していない場合(S322におけるNO)、焦点決定部192は、設定判定ステップS320においてアイリス待機時間が設定されたか否かを示すアイリスフラグが、設定されたことを示す1で、かつアイリス待機時間が経過したか否かを判定する(S326)。アイリスフラグが1で、アイリス待機時間が経過している場合(S326におけるYES)、撮像制御部188は、設定されたアイリスの値となるように駆動部160を制御する(S328)。アイリスフラグが、設定されていないことを示す0であるか、アイリス待機時間が経過していないかの少なくとも一方の条件に該当する場合(S326におけるNO)、フォーカス調整、アイリス調整とも固定した状態とする。   Next, focus area and iris setting determination processing is performed (S320). The setting determination step S320 will be described in detail later with reference to FIGS. The focus determination unit 192 indicates that the area flag indicating whether or not the area standby time has been set in the setting determination step S320 is 1 and that the area standby time has elapsed since it was determined that tracking is impossible. It is determined whether or not (S322). If the area flag is 1 and the area standby time has elapsed (YES in S322), the imaging control unit 188 controls the drive unit 160 so that the center of the angle of view becomes the focus area (S324). When the area flag is 0 indicating that the area standby time is not set or the area standby time has not elapsed (NO in S322), the focus determination unit 192 sets the iris standby time in the setting determination step S320. It is determined whether the iris flag indicating whether or not it is set to 1 indicating that it has been set and whether or not the iris standby time has elapsed (S326). When the iris flag is 1 and the iris standby time has elapsed (YES in S326), the imaging control unit 188 controls the drive unit 160 so that the set iris value is obtained (S328). If the iris flag is 0 indicating that the iris flag is not set or if the iris waiting time has not elapsed (NO in S326), the focus adjustment and the iris adjustment are both fixed. To do.

追尾不能判定ステップS314において、追尾不能ではない場合(S314におけるNO)、撮像制御部188は、追尾している「特定された顔」の顔情報または周辺情報に基づいて、フォーカスエリアを設定し焦点を合わせる(S330)。   In the tracking impossibility determination step S314, when tracking is not impossible (NO in S314), the imaging control unit 188 sets a focus area based on the face information or the peripheral information of the “specified face” being tracked and sets the focus. (S330).

そして、中央制御部140は、ユーザからの撮像の終了指示があるか否かを判定し(S332)、終了の指示があれば(S332におけるYES)、撮像処理を終了し、終了の指示がなければ(S332におけるNO)、映像データ生成ステップS300に戻る。   Then, the central control unit 140 determines whether or not there is an imaging end instruction from the user (S332), and if there is an end instruction (YES in S332), the imaging process is ended and there is no end instruction. If (NO in S332), the process returns to the video data generation step S300.

続いて、設定判定ステップS320の詳細について、図5を用いて説明する。情報生成部190は、記憶部136の第1の場所に記憶されている、追尾不能になる直前のNフレーム分の情報から、「特定された顔」の周辺情報が他の周辺情報と識別可能であったか否かを判定する(S350)。識別可能であった場合(S350におけるYES)、記憶部136の第2の場所に記憶されている、最新のフレームの情報から、「特定された顔」の周辺情報と同一と見なせる周辺情報が検出されたか否かを判定する(S352)。同一と見なせる周辺情報が検出された場合(S352におけるYES)、焦点決定部192は、フォーカスエリアをその周辺情報に示される位置とし撮像制御部188が駆動部160を駆動する(S354)。追尾部186は、次のフレームからその周辺情報を追尾する。焦点決定部192は、エリアフラグとアイリスフラグをそれぞれ0とする(S356)。   Next, details of the setting determination step S320 will be described with reference to FIG. The information generation unit 190 can identify the peripheral information of the “specified face” from the other peripheral information from the information for N frames immediately before the tracking becomes impossible, which is stored in the first location of the storage unit 136. It is determined whether or not (S350). If it is discriminable (YES in S350), peripheral information that can be regarded as the same as the peripheral information of the “specified face” is detected from the latest frame information stored in the second location of the storage unit 136. It is determined whether or not it has been done (S352). When peripheral information that can be regarded as the same is detected (YES in S352), the focus determination unit 192 sets the focus area to the position indicated by the peripheral information, and the imaging control unit 188 drives the drive unit 160 (S354). The tracking unit 186 tracks the peripheral information from the next frame. The focus determination unit 192 sets the area flag and the iris flag to 0 (S356).

このように、「特定された顔」の周辺情報が追尾不能となる直前に識別可能であって、追尾不能となった直後でその周辺情報と同一と人物のものと見なせる周辺情報が検出された場合、焦点決定部192は、その周辺情報に示される位置にフォーカスエリアを決定する。周辺情報が識別可能、すなわち胴体の服の色ヒストグラムが他の人物のものと異なる場合、その周辺情報と同一と見なせる周辺情報は同一人物のものである可能性が高い。従って、その周辺情報の位置にフォーカスエリアを移動することで、主要被写体に合焦できる可能性が高い。一方、周辺情報が識別可能でない場合、似たような色の服の人物が複数いると考えられる。その場合、ユーザの意図する人物とは別の人物に合焦してしまうおそれがあるため、焦点決定部192は、他と識別可能な周辺情報があるときに限って、周辺情報を参照してフォーカスエリアを決定する。   In this way, peripheral information that is identifiable immediately before tracking of the “specified face” becomes impossible to track and immediately after tracking becomes impossible is detected as being the same as that of the person. In this case, the focus determination unit 192 determines the focus area at the position indicated by the peripheral information. If the peripheral information can be identified, that is, if the color histogram of the body clothes is different from that of other persons, the peripheral information that can be regarded as the same as the peripheral information is likely to be that of the same person. Accordingly, it is highly possible that the main subject can be focused by moving the focus area to the position of the peripheral information. On the other hand, when the peripheral information is not identifiable, it is considered that there are a plurality of persons with similar colored clothes. In such a case, since there is a possibility that a person different from the person intended by the user may be focused, the focus determination unit 192 refers to the peripheral information only when there is peripheral information that can be distinguished from others. Determine the focus area.

追尾不能になる直前に周辺情報が他の周辺情報と識別可能で無かった場合(S350におけるNO)、または、最新のフレームで同一と見なせる周辺情報がなかった場合(S352におけるNO)、情報生成部190は、記憶部136に記憶されている撮像操作情報に基づき、追尾不能となった直前および直後それぞれについて、撮像操作情報としてズーム速度を導出する(S358)。そして、焦点決定部192は、追尾不能となった直前および直後の少なくとも一方でズームインをしているか否かをズーム速度から判定する(S360)。ズームインしている場合(S360におけるYES)、焦点決定部192は、エリア待機時間を約2秒に設定し、エリアフラグを1、アイリスフラグを0とする(S362)。   When the peripheral information is not distinguishable from other peripheral information immediately before tracking becomes impossible (NO in S350), or when there is no peripheral information that can be regarded as the same in the latest frame (NO in S352), the information generation unit 190 derives the zoom speed as the imaging operation information immediately before and immediately after the tracking becomes impossible based on the imaging operation information stored in the storage unit 136 (S358). Then, the focus determination unit 192 determines from the zoom speed whether or not the zoom-in is performed at least one of immediately before and after the tracking becomes impossible (S360). When zoomed in (YES in S360), the focus determination unit 192 sets the area standby time to about 2 seconds, sets the area flag to 1, and sets the iris flag to 0 (S362).

このように、追尾不能になる直前、または追尾不能になった直後に、ズームイン操作が行われた場合、焦点決定部192は、エリア待機時間を短く約2秒間とし、その後、撮像制御部188は、画角の中央をフォーカスエリアとした中央フォーカスステップS324を行う。これは、ズームイン操作が、画角の中央に、主要被写体を位置させて行われることが多いためである。また、エリア待機時間設定ステップS362の後、複数フレーム(例えば、10フレーム)分、画角中央付近に同一人物の顔が検出されると、その顔が追尾不能になった「特定された顔」であると見なせない場合であっても、焦点決定部192は、その顔の位置をフォーカスエリアとしてもよい。さらに、焦点決定部192は、ズーム速度が速いほど、エリア待機時間を短くしてもよい。   As described above, when the zoom-in operation is performed immediately before the tracking becomes impossible or immediately after the tracking becomes impossible, the focus determination unit 192 shortens the area waiting time to about 2 seconds, and then the imaging control unit 188 Then, the center focus step S324 is performed with the center of the angle of view as the focus area. This is because the zoom-in operation is often performed with the main subject positioned at the center of the angle of view. Further, after the area waiting time setting step S362, when a face of the same person is detected in the vicinity of the center of the angle of view for a plurality of frames (for example, 10 frames), the “specified face” in which the face cannot be tracked is detected. Even when the focus determination unit 192 cannot be considered as the focus area, the focus determination unit 192 may use the face position as the focus area. Furthermore, the focus determination unit 192 may shorten the area standby time as the zoom speed increases.

ズームインしていなかった場合(S360におけるNO)、焦点決定部192は、追跡不能となった直前および直後の少なくとも一方でズームアウトしているか否かを判定する(S364)。ズームアウトしている場合(S364におけるYES)、焦点決定部192は、エリア待機時間とアイリス待機時間を約2秒とし、エリアフラグとアイリスフラグをそれぞれ1とし(S366)、アイリス待機時間経過後、アイリスを狭い値とするように設定する(S368)。   When the zoom-in has not been performed (NO in S360), the focus determination unit 192 determines whether or not the zoom-out has been performed at least one of immediately before and after the tracking becomes impossible (S364). When zoomed out (YES in S364), the focus determination unit 192 sets the area standby time and the iris standby time to about 2 seconds, sets the area flag and the iris flag to 1 (S366), and after the iris standby time has elapsed, The iris is set to a narrow value (S368).

追尾不能になる直前、または追尾不能になった直後で、ズームアウト操作を行った場合には、エリア待機時間を短く約2秒に設定し、その後、撮像制御部188は、画角の中央をフォーカスエリアとした中央フォーカスステップS324を行う。また、ズームアウト操作の場合、主要被写体が画角の特定の場所にいるといった傾向が少ないため、焦点決定部192は、アイリスを狭く設定し被写界深度を深くする。被写界深度を深くすることで、主要被写体が画角のどの位置にあっても焦点の合った映像が得られる。ここでも、焦点決定部192は、ズーム速度が速いほど、エリア待機時間を短くしてもよい。   When the zoom-out operation is performed immediately before tracking becomes impossible or immediately after tracking becomes impossible, the area waiting time is set to about 2 seconds, and then the imaging control unit 188 sets the center of the angle of view. A central focus step S324 is performed as the focus area. In the zoom-out operation, since the main subject is less likely to be at a specific position of the angle of view, the focus determination unit 192 sets the iris to be narrow and increases the depth of field. By increasing the depth of field, a focused image can be obtained regardless of the position of the main subject in the angle of view. Again, the focus determination unit 192 may shorten the area standby time as the zoom speed increases.

ズームアウトしていなかった場合(S364におけるNO)、さらに、設定判定の処理を行う(S370)。設定判定ステップS370について、図6を用いて説明する。情報生成部190は、記憶部136に記憶されている撮像操作情報に基づき、追尾不能となった直前および直後それぞれについて、撮像操作情報としてパンやチルトの速度を導出する(S400)。そして、焦点決定部192は、パンやチルトの速度が予め定められた速度の閾値と比較する等して、手ぶれではなくパンやチルト動作が行われているか否かを判定する(S402)。パンやチルト動作が行われている場合(S402におけるYES)、焦点決定部192は、追尾不能となる直前と直後それぞれのパンやチルトが比較的高速(例えば、30°/sec以上)であるか否かを判定する(S404)。いずれも高速であった場合(S404におけるYES)、焦点決定部192は、エリア待機時間とアイリス待機時間を約3秒に設定し、エリアフラグとアイリスフラグをそれぞれ1とし(S406)アイリス待機時間経過後、アイリスを狭い値とするように設定する(S408)。   If it is not zoomed out (NO in S364), a setting determination process is further performed (S370). The setting determination step S370 will be described with reference to FIG. Based on the imaging operation information stored in the storage unit 136, the information generation unit 190 derives the panning and tilting speed as imaging operation information for each immediately before and after the tracking is disabled (S400). Then, the focus determination unit 192 determines whether panning or tilting operation is performed instead of camera shake by comparing the panning and tilting speeds with a predetermined speed threshold value (S402). When panning and tilting operations are being performed (YES in S402), the focus determination unit 192 determines whether panning and tilting immediately before and after tracking become relatively fast (for example, 30 ° / sec or more). It is determined whether or not (S404). When both are high speed (YES in S404), the focus determination unit 192 sets the area standby time and the iris standby time to about 3 seconds, sets the area flag and the iris flag to 1 (S406), and the iris standby time has elapsed. Thereafter, the iris is set to a narrow value (S408).

このように、追尾不能になる直前に、比較的高速度でパンやチルトを行っており、追尾不能になった直後も比較的高速度でパンやチルトを行っている場合、主要被写体が比較的高速度で移動していると考えられる。この場合、画面の中央に主要被写体を配置するように撮像すると考えられるため、焦点決定部192は、エリア待機時間を短く約3秒に設定し、その後、撮像制御部188は、画角の中央をフォーカスエリアとした中央フォーカスステップS324を行う。この場合、主要被写体までの距離も変化する場合が多いため、焦点決定部192は、アイリスを狭く設定し被写界深度を深くする。被写界を深くすることで、被写体距離の推測に失敗していても、フォーカスの合った映像が得られる。また、パンやチルトの速度が高速になるほど待機時間をより短くしてもよい。   In this way, if panning and tilting is performed at a relatively high speed immediately before tracking becomes impossible, and if panning and tilting is performed at a relatively high speed immediately after tracking becomes impossible, the main subject is relatively It is thought that it is moving at high speed. In this case, since it is considered that imaging is performed so that the main subject is arranged in the center of the screen, the focus determination unit 192 sets the area waiting time to a short time of about 3 seconds, and then the imaging control unit 188 performs the center of the angle of view. The center focus step S324 is performed with the focus area. In this case, since the distance to the main subject also often changes, the focus determination unit 192 sets the iris narrow to increase the depth of field. By increasing the depth of field, a focused image can be obtained even if the estimation of the subject distance has failed. Further, the standby time may be shortened as the panning and tilting speed increases.

追尾不能となる直前のパンやチルトおよび直後のパンやチルトのいずれか一方でも比較的高速でなかった場合(S404におけるNO)、焦点決定部192は、追尾不能となる直前のパンやチルトが比較的高速かつ、追尾不能となった直後のパンやチルトが比較的低速(例えば、30°/sec未満)であるか否かを判定する(S410)。追尾不能直前が比較的高速かつ、追尾不能直後が比較的低速である場合(S410におけるYES)、焦点決定部192は、エリア待機時間を約15秒、アイリス待機時間を約4秒に設定し、エリアフラグとアイリスフラグをそれぞれ1とし(S412)、アイリス待機時間経過後、アイリスを狭い値とするように設定する(S414)。   If either the panning or tilting immediately before tracking becomes impossible or the panning or tilting immediately after that is not relatively fast (NO in S404), the focus determination unit 192 compares the panning and tilting immediately before tracking becomes impossible. It is determined whether or not panning and tilting immediately after the target becomes fast and tracking is relatively slow (for example, less than 30 ° / sec) (S410). If the tracking immediately before tracking is relatively fast and the tracking just after tracking is relatively slow (YES in S410), the focus determination unit 192 sets the area waiting time to about 15 seconds and the iris waiting time to about 4 seconds, Each of the area flag and the iris flag is set to 1 (S412), and the iris is set to a narrow value after the iris standby time has elapsed (S414).

このように、追尾不能になる直前、比較的高速度でパンやチルトを行っていたが、追尾不能になった直後には、パンやチルトを停止した場合、主要被写体が追尾不能になった時点でいた場所に留まっている可能性が高い。この場合、一時的に顔の向きが逸れただけで、再度、撮像装置110側に向き、追尾可能となる可能性がある。このとき、比較的短時間でフォーカスエリアを画角の中央に移動してしまうと、ユーザは、再度、タッチセンサ等で主要被写体を指定しなおさなければならず煩わしい上、フォーカスエリアの移動が多い、見難い映像となってしまう。そこで、焦点決定部192は、比較的長い約15秒間、フォーカスエリアを固定する。一方、追尾不能となる直前は比較的高速度でパンやチルトを行っていたため、被写体距離が正確でない可能性も高いため、アイリスを狭くする。   In this way, panning and tilting were performed at a relatively high speed immediately before tracking became impossible, but immediately after tracking became impossible, when panning and tilting were stopped, when the main subject became untrackable There is a high possibility of staying at the place where it was. In this case, there is a possibility that only the face is temporarily deviated and the image is directed again toward the imaging device 110 and tracking becomes possible. At this time, if the focus area is moved to the center of the angle of view in a relatively short time, the user has to specify the main subject again with the touch sensor or the like, and is troublesome and the focus area is often moved. , It will be difficult to see. Therefore, the focus determination unit 192 fixes the focus area for a relatively long period of about 15 seconds. On the other hand, since panning and tilting were performed at a relatively high speed immediately before tracking became impossible, there is a high possibility that the subject distance is not accurate, so the iris is narrowed.

追尾不能直前が比較的高速かつ、追尾不能直後が比較的低速でなかった場合(S410におけるNO)、焦点決定部192は、追尾不能となる直前のパンやチルトが比較的低速かつ、追尾不能となった後のパンやチルトが比較的高速であるか否かを判定する(S416)。追尾不能直前が比較的低速かつ、追尾不能直後が比較的高速である場合(S416におけるYES)、焦点決定部192は、エリア待機時間を約0秒、アイリス待機時間を約0秒に設定し、エリアフラグを1、アイリスフラグを1とし(S418)、アイリスをより狭い値とするように設定する(S420)。   If the tracking immediately before tracking is relatively fast and the tracking immediately after tracking is not relatively slow (NO in S410), the focus determination unit 192 determines that panning and tilt immediately before tracking becomes impossible and tracking is impossible. It is determined whether or not the panning and tilting after the shift is relatively fast (S416). When the tracking just before tracking is relatively slow and the tracking just after tracking is relatively fast (YES in S416), the focus determination unit 192 sets the area waiting time to about 0 seconds and the iris waiting time to about 0 seconds, The area flag is set to 1, the iris flag is set to 1 (S418), and the iris is set to a narrower value (S420).

このように、追尾不能になる直前、パンやチルトを行っていないか、あるいは比較的低速で行っていたが、追尾不能直後に比較的高速度でパンやチルトを開始した場合、何らかの理由で顔の識別が困難であったり、ユーザが「特定された顔」を別の人の顔に切り換えたりしたことが想定される。したがって、焦点決定部192は、迅速に画面中央付近の顔にフォーカスを合わせ、アイリスは比較的大きく絞るように設定する。また、画角の中央付近に複数フレーム(例えば、10フレーム以上)にわたって顔が検出された場合、その顔が追尾不能になった「特定された顔」であると見なせない場合であっても、焦点決定部192は、その顔の位置をフォーカスエリアとする。   In this way, if panning or tilting is not performed immediately before tracking becomes impossible or it is performed at a relatively low speed, but panning or tilting starts at a relatively high speed immediately after tracking is impossible, for some reason the face Is difficult, or the user has switched the “specified face” to another person's face. Accordingly, the focus determination unit 192 quickly sets the focus on the face near the center of the screen and sets the iris to be relatively large. In addition, when a face is detected in the vicinity of the center of the angle of view over a plurality of frames (for example, 10 frames or more), even if the face cannot be regarded as a “specified face” that cannot be tracked. The focus determination unit 192 sets the face position as the focus area.

追尾不能直前が比較的低速かつ、追跡不能直後が比較的高速でなかった場合(S416におけるNO)、すなわち、追尾不能となる直前および直後それぞれのパンやチルトが比較的低速である場合、焦点決定部192は、エリア待機時間を約15秒に設定し、エリアフラグを1、アイリスフラグを0とする(S422)。   The focus is determined when the tracking immediately before tracking is relatively slow and the tracking immediately after tracking is not relatively fast (NO in S416), that is, when pan and tilt are relatively slow immediately before and immediately after tracking becomes impossible. The unit 192 sets the area standby time to about 15 seconds, sets the area flag to 1, and sets the iris flag to 0 (S422).

このように、追尾不能となる直前および直後それぞれにおいて、パンやチルトを比較的低速で行っている場合、何らかの理由で「特定された顔」を追跡できないが、実際にはその場所にいるものと考えられる。そのため、焦点決定部192は、比較的長い約15秒間、フォーカスエリアを追尾不能になる直前の位置のまま固定し、アイリスは追尾不能になる直前と同じ値を保つよう設定する。   In this way, if panning and tilting are performed at a relatively low speed immediately before and after tracking becomes impossible, the “specified face” cannot be tracked for some reason, but it is actually in that place. Conceivable. For this reason, the focus determination unit 192 fixes the focus area at a position immediately before the tracking becomes impossible for about 15 seconds, and the iris is set to keep the same value as that immediately before the tracking becomes impossible.

さらに、追尾不能になる直前の「特定された顔」やその周辺情報の位置が画角の中央付近であり、速度ベクトルが小さく(例えば、画角換算で5°/sec未満)、合焦状態であって焦点距離の変化の大きさが小さく、その他の顔の位置が「特定された顔」の位置と離れていて速度ベクトルが小さく(例えば、画角換算で5°/sec未満)、追尾不能直後もその他の顔の位置の変化が小さい場合、焦点決定部192は、さらに長い時間フォーカスエリアを固定する。この場合には、「特定された顔」の人物がその場所にいる可能性がより高いためである。   Furthermore, the position of the “specified face” and its surrounding information immediately before tracking becomes impossible is near the center of the angle of view, the velocity vector is small (for example, less than 5 ° / sec in terms of angle of view), and the in-focus state And the change in the focal length is small, the position of the other face is far from the position of the “specified face”, the velocity vector is small (for example, less than 5 ° / sec in terms of angle of view), and tracking If the change in the position of the other face is small immediately after the failure, the focus determination unit 192 fixes the focus area for a longer time. This is because there is a higher possibility that the person of the “specified face” is in the place.

有意判定ステップS402において、パンやチルト動作が行われていなかった場合(S402におけるNO)、焦点決定部192は、追尾不能になる直前または追尾不能になった直後にフォーカスが合焦状態でなかったか、または焦点距離の変化の大きさが大きかったか、追尾している「特定された顔」とその周辺情報の移動速度が速く(例えば、画角換算で20°/sec以上)、追尾不能直後のパンやチルトが行われないか比較的低速(例えば、20°/sec未満)であったか、いずれかの条件に該当するか否かを判定する(S424)。該当する場合(S424におけるYES)、焦点決定部192は、エリア待機時間とアイリス待機時間を比較的短い約5秒に設定し、エリアフラグとアイリスフラグをそれぞれ1とし(S426)、アイリス待機時間経過後、アイリスを狭い値とするように設定する(S428)。条件判定ステップS424において、いずれかの条件に該当する場合、「特定された顔」にフォーカスがあっていないと考えられるため、比較的早く画角の中央にフォーカスエリアを移す。いずれの条件にも該当しない場合(S424におけるNO)、焦点決定部192は、デフォルトの設定である、エリア待機時間とアイリス待機時間を約10秒間とし、エリアフラグとアイリスフラグをそれぞれ1とする(S430)。   If no panning or tilting operation has been performed in the significance determination step S402 (NO in S402), the focus determination unit 192 has not been in focus before the tracking becomes impossible or immediately after the tracking becomes impossible. Or the change in focal length is large, or the moving speed of the “specified face” being tracked and its surrounding information is fast (for example, 20 ° / sec or more in terms of angle of view) and immediately after tracking is impossible It is determined whether panning or tilting is not performed or the speed is relatively low (for example, less than 20 ° / sec), and whether any of the conditions is satisfied (S424). If applicable (YES in S424), the focus determination unit 192 sets the area standby time and the iris standby time to a relatively short time of about 5 seconds, sets the area flag and the iris flag to 1 (S426), and the iris standby time has elapsed. Thereafter, the iris is set to a narrow value (S428). If any of the conditions is met in the condition determination step S424, it is considered that the “specified face” is not in focus, so the focus area is moved to the center of the angle of view relatively quickly. If none of the conditions are met (NO in S424), the focus determination unit 192 sets the area standby time and the iris standby time, which are the default settings, to about 10 seconds, and sets the area flag and the iris flag to 1 respectively ( S430).

以上説明したように、本実施形態の撮像装置110を用いた撮像方法によれば、ユーザの意図に沿ったフォーカスエリアやアイリスの自動調整を行うことが可能となる。   As described above, according to the imaging method using the imaging apparatus 110 of the present embodiment, it is possible to automatically adjust the focus area and the iris in accordance with the user's intention.

(第2の実施形態)
上述した第1の実施形態では、人の顔を追尾することを前提としていた。第2の実施形態では、人の顔に限らないより汎用性のある追尾を前提として、追尾不能直後の処理をユーザの意図に沿ったものとする撮像装置510について説明する。本実施形態では、上述した「タッチ追尾オートフォーカス」のモードで撮像する場合について説明する。なお、上述した第1の実施形態と実質的に等しい構成要素については、同一の符号を付して説明を省略する。
(Second Embodiment)
In the first embodiment described above, it is assumed that a person's face is tracked. In the second embodiment, a description will be given of an imaging apparatus 510 that performs processing immediately after the inability to track following the intention of the user on the premise of more versatile tracking that is not limited to a human face. In the present embodiment, a case where imaging is performed in the above-described “touch tracking autofocus” mode will be described. In addition, about the component substantially equivalent to 1st Embodiment mentioned above, the same code | symbol is attached | subjected and description is abbreviate | omitted.

(撮像装置510)
図7は、撮像装置510の概略的な構成を示した機能ブロック図である。撮像装置510は、操作部120と、撮像部122と、データ処理部124と、映像保持部126と、表示部128と、圧縮伸長部130と、記憶読取部132と、外部入出力部134と、記憶部136と、動き検出部138と、中央制御部540と、を含んで構成される。
(Imaging device 510)
FIG. 7 is a functional block diagram illustrating a schematic configuration of the imaging apparatus 510. The imaging device 510 includes an operation unit 120, an imaging unit 122, a data processing unit 124, a video holding unit 126, a display unit 128, a compression / decompression unit 130, a storage reading unit 132, and an external input / output unit 134. , A storage unit 136, a motion detection unit 138, and a central control unit 540.

中央制御部540は、中央処理装置や信号処理装置を含む半導体集積回路で構成され、所定のプログラムを用いて撮像装置510全体を管理および制御する。また、中央制御部540は、色抽出部580、追尾部586、撮像制御部188、情報生成部190、焦点決定部192としても機能する。   The central control unit 540 is configured by a semiconductor integrated circuit including a central processing unit and a signal processing unit, and manages and controls the entire imaging apparatus 510 using a predetermined program. The central control unit 540 also functions as a color extraction unit 580, a tracking unit 586, an imaging control unit 188, an information generation unit 190, and a focus determination unit 192.

第1の実施形態における構成要素として既に述べた、操作部120、撮像部122、データ処理部124、映像保持部126、表示部128、圧縮伸長部130、記憶読取部132、外部入出力部134、記憶部136、動き検出部138、撮像制御部188、情報生成部190、焦点決定部192は、実質的に機能が等しいので重複説明を省略し、ここでは構成が相違する中央制御部540の色抽出部580と追尾部586を主に説明する。   The operation unit 120, the imaging unit 122, the data processing unit 124, the video holding unit 126, the display unit 128, the compression / decompression unit 130, the storage reading unit 132, and the external input / output unit 134, which have already been described as the constituent elements in the first embodiment. The storage unit 136, the motion detection unit 138, the imaging control unit 188, the information generation unit 190, and the focus determination unit 192 are substantially the same in function, and thus redundant description is omitted. Here, the central control unit 540 having a different configuration is omitted. The color extraction unit 580 and the tracking unit 586 will be mainly described.

色抽出部580は、ユーザが表示部128の表示面に備えられたタッチセンサで位置を指定すると、映像データにおけるその位置に相当する領域の色情報を抽出する。この色情報は、追尾対象物を特定するためのものとなる。以降、追尾部586から領域の指定があると、色抽出部580は、指定された領域の色情報を抽出する。   When the user designates a position with the touch sensor provided on the display surface of the display unit 128, the color extraction unit 580 extracts color information of an area corresponding to the position in the video data. This color information is for specifying the tracking object. Thereafter, when an area is designated from the tracking unit 586, the color extracting unit 580 extracts the color information of the designated area.

表示部128は、撮像中の映像がスルー画像として表示される。ユーザが、そのスルー画像の任意の場所をタッチすると、映像データにおける被写体像(追尾対象物)が指定される。ユーザがタッチした位置情報は、表示部128の表示面に配されたタッチセンサで読み取られ、記憶部136に記憶される。色抽出部580は、映像保持部126に記憶された映像データから、記憶部136に記憶された位置情報に相当する領域の映像データを読み出し、その映像データから色情報を抽出する。抽出された色情報は記憶部136に記憶される。   The display unit 128 displays the image being captured as a through image. When the user touches an arbitrary place in the through image, a subject image (tracking target) in the video data is designated. The position information touched by the user is read by a touch sensor arranged on the display surface of the display unit 128 and stored in the storage unit 136. The color extraction unit 580 reads the video data of the area corresponding to the position information stored in the storage unit 136 from the video data stored in the video holding unit 126, and extracts the color information from the video data. The extracted color information is stored in the storage unit 136.

そして、次フレーム以降、画角内の追尾対象物の移動を追尾する。追尾部586は、記憶部136に記憶された位置情報に基づいて探索範囲を決定する。探索範囲は、例えば、位置情報の位置から上下左右に所定の距離をとった領域とする。色抽出部580は、探索範囲の映像データを映像保持部126から読み出し、探索領域より十分に小さい大きさの小領域の映像データから色情報を抽出する。   After the next frame, the movement of the tracking target within the angle of view is tracked. The tracking unit 586 determines a search range based on the position information stored in the storage unit 136. The search range is, for example, an area having a predetermined distance in the vertical and horizontal directions from the position information position. The color extraction unit 580 reads the video data in the search range from the video holding unit 126, and extracts color information from the video data in a small area that is sufficiently smaller than the search area.

続いて、追尾部586は、抽出された色情報と記憶部136に記憶されている色情報との類似度をヒストグラムインタセクションによって導出し、小領域の位置を追尾領域内で変えながら類似度を算出していき、最も類似度が高い小領域の位置を導出する。この最も類似度が高い小領域の位置が追尾結果の位置となる。追尾部586は、記憶部136に記憶されている位置情報を更新する。以下、撮像制御部188は、追尾結果の位置をフォーカスエリアとし、第1の実施形態と同様、焦点の調整を行う。   Subsequently, the tracking unit 586 derives the similarity between the extracted color information and the color information stored in the storage unit 136 using a histogram intersection, and changes the similarity while changing the position of the small region within the tracking region. Calculate and derive the position of the small region with the highest similarity. The position of the small area having the highest similarity is the position of the tracking result. The tracking unit 586 updates the position information stored in the storage unit 136. Hereinafter, the imaging control unit 188 uses the position of the tracking result as a focus area, and adjusts the focus as in the first embodiment.

また、追尾部586は、追尾対象物の移動速度を算出する。追尾対象物の移動速度は、追尾対象物の前フレームと最新フレームのそれぞれ画角内の位置から移動距離を算出し、フレーム間の時間間隔で除算した値である。ただし、フレーム間の時間間隔が追尾している間変化しない場合、除算せず移動距離をそのまま用いてもよい。追尾部586は、導出した移動速度を情報生成部190に出力する。焦点決定部192は、かかる移動速度を、第1の実施形態で説明した、撮像操作状態として用いてもよい。   The tracking unit 586 calculates the moving speed of the tracking target object. The moving speed of the tracking object is a value obtained by calculating the moving distance from the position within the angle of view of each of the previous frame and the latest frame of the tracking object and dividing by the time interval between the frames. However, if the time interval between frames does not change during tracking, the movement distance may be used as it is without division. The tracking unit 586 outputs the derived movement speed to the information generation unit 190. The focus determination unit 192 may use the moving speed as the imaging operation state described in the first embodiment.

「タッチ追尾オートフォーカス」のモードで撮像している場合であっても、例えば、追尾対象物が他の物体に隠れてしまったり、追尾対象物の色が正面と背面で異なり、背面を向いてしまったり、追尾対象物がフレームアウトしてしまったり、追尾対象物に光が反射し色が変わって見えたりして、追尾対象物を追尾不能となる場合がある。   Even when shooting in the “touch tracking autofocus” mode, for example, the tracking target is hidden behind other objects, or the tracking target color is different between the front and back, and the back In some cases, the tracking target may be out of frame, the light may be reflected on the tracking target and the color may change, and the tracking target may be unable to be tracked.

(撮像方法)
さらに、上述した撮像装置510を用いた撮像方法も提供される。図8〜10は、第2の実施形態における撮像方法の処理の流れを示すフローチャートである。「タッチ追尾オートフォーカス」のモードで撮像が開始されると、撮像部122は映像データを生成する(S300)。タッチパネルを通じた映像データにおける位置の指定を既に受け付けたか否かを判定し(S604)、既に受け付けていると(S604におけるYES)、色抽出部580は、指定された位置に相当する領域の色情報を抽出し(S606)、追尾部586は、その色情報に基づいて追跡対象物の追尾を開始する(S608)。
(Imaging method)
Furthermore, an imaging method using the above-described imaging device 510 is also provided. 8 to 10 are flowcharts illustrating the flow of processing of the imaging method according to the second embodiment. When imaging is started in the “touch tracking autofocus” mode, the imaging unit 122 generates video data (S300). It is determined whether or not the designation of the position in the video data through the touch panel has been accepted (S604). If the designation has already been accepted (YES in S604), the color extracting unit 580 has color information of the area corresponding to the designated position. (S606), and the tracking unit 586 starts tracking the tracking target based on the color information (S608).

以下、追尾不能判定ステップS314から終了判定ステップS332までの処理は、設定判定ステップS620を除いて、第1の実施形態と実質的に等しいため重複説明を省略する。続いて、設定判定ステップS620の詳細について、図9を用いて説明する。   Hereinafter, the processing from the tracking impossibility determination step S314 to the end determination step S332 is substantially the same as that of the first embodiment except for the setting determination step S620, and thus a duplicate description is omitted. Next, details of the setting determination step S620 will be described with reference to FIG.

図9において、ズーム速度導出ステップS358からアイリス設定ステップS368までの処理は、第1の実施形態と実質的に等しいため重複する説明を省略する。ただし、エリア待機時間設定ステップS362において、追尾部586は、色情報による追尾のための探索範囲を画角の中央付近とする。ズームイン操作は、画角の中心に主要被写体がある場合に行われることが多いからである。ズームアウト判定ステップS364において、ズームアウトしていなかった場合(S364におけるNO)、さらに、設定判定の処理を行う(S670)。設定判定ステップS670について、図10を用いて説明する。   In FIG. 9, the processing from the zoom speed deriving step S358 to the iris setting step S368 is substantially the same as that of the first embodiment, and therefore redundant description is omitted. However, in the area standby time setting step S362, the tracking unit 586 sets the search range for tracking based on the color information to be near the center of the angle of view. This is because the zoom-in operation is often performed when the main subject is at the center of the angle of view. In the zoom-out determination step S364, when the zoom-out is not performed (NO in S364), a setting determination process is further performed (S670). The setting determination step S670 will be described with reference to FIG.

図10において、パンチルト速度導出ステップS400からアイリス設定ステップS414までの処理は、第1の実施形態と実質的に等しいので重複する説明を省略する。追尾不能前後の速度判定ステップS410において、追尾不能となる直前のパンやチルトが比較的高速かつ、追尾不能となった直後のパンやチルトが比較的低速でなかった場合(S410におけるNO)、焦点決定部192は、追尾不能となる直前および直後それぞれのパンやチルトが比較的低速であるか否かを判定する(S680)。比較的低速である場合(S680におけるYES)、焦点決定部192は、追尾不能となる直前の追跡対象物の移動速度が低速(例えば、画角換算で5°/sec未満)であり、かつフォーカスが合焦状態で焦点距離の変化が小さいか否かを判定する(S682)。追跡対象物の移動速度が低速かつ焦点距離の変化が小さい場合(S682におけるYES)、焦点決定部192は、エリア待機時間を約20秒に設定し、エリアフラグを1、アイリスフラグを0とする(S684)。   In FIG. 10, the processes from the pan / tilt speed deriving step S400 to the iris setting step S414 are substantially the same as those in the first embodiment, and thus redundant description is omitted. In the speed determination step S410 before and after the tracking is impossible, if the pan or tilt immediately before the tracking becomes impossible is relatively fast and the pan or tilt immediately after the tracking becomes impossible is not relatively slow (NO in S410), the focus The determination unit 192 determines whether panning and tilting immediately before and after the tracking becomes impossible are relatively slow (S680). When the speed is relatively low (YES in S680), the focus determination unit 192 has a low moving speed (for example, less than 5 ° / sec in terms of field angle) of the tracking target immediately before the tracking becomes impossible, and the focus It is determined whether or not the change in the focal length is small in the in-focus state (S682). When the moving speed of the tracking object is low and the change in the focal length is small (YES in S682), the focal point determination unit 192 sets the area standby time to about 20 seconds, sets the area flag to 1, and the iris flag to 0. (S684).

上述した追尾対象物の移動速度は画角内の移動速度であり、実際には追跡対象物が比較的高速で移動していても、パンやチルトでその動きを追うと画角内の追跡対象物の移動速度は小さくなる。この場合、ユーザは、追尾不能になってからも追尾対象物の動きをパンやチルトで追っており、しかも追尾対象物は焦点距離を変えなくてはならないような移動はしていないと考えられる。したがって、焦点決定部192は、フォーカスエリアを比較的長時間固定することで、ユーザは追尾対象物に焦点が合った状態で撮像を続けることができる。   The moving speed of the tracking object described above is the moving speed within the angle of view. In fact, even if the tracking object is moving at a relatively high speed, if the movement of the tracking object is followed by panning or tilting, the tracking object within the angle of view is The moving speed of an object becomes small. In this case, it is considered that the user follows the movement of the tracking target object by panning or tilting even after tracking becomes impossible, and the tracking target object does not move so as to change the focal length. Therefore, the focus determination unit 192 fixes the focus area for a relatively long time, so that the user can continue imaging while the tracking target is in focus.

以下、条件判定ステップS424からエリア待機時間およびアイリス待機時間設定ステップS430までの処理は、第1の実施形態と実質的に等しいため重複説明を省略する。   Hereinafter, the processing from the condition determination step S424 to the area standby time and iris standby time setting step S430 is substantially the same as that of the first embodiment, and therefore, a duplicate description is omitted.

本実施形態の撮像装置510を用いた撮像方法によれば、撮像状況やユーザの意図に沿ったフォーカスエリアやアイリスの自動調整を行うことが可能となる。   According to the imaging method using the imaging apparatus 510 of the present embodiment, it is possible to automatically adjust the focus area and the iris in accordance with the imaging situation and the user's intention.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Is done.

なお、本明細書の撮像方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step in the imaging method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include parallel or subroutine processing.

本発明は、被写体の検出ができない状況となっても適切な焦点調整を行う撮像装置および撮像方法に利用することができる。   The present invention can be used in an imaging apparatus and an imaging method that perform appropriate focus adjustment even when a subject cannot be detected.

110、510 …撮像装置
122 …撮像部
186、586 …追尾部
190 …情報生成部
192 …焦点決定部
110, 510 ... imaging device 122 ... imaging units 186, 586 ... tracking unit 190 ... information generation unit 192 ... focus determination unit

Claims (6)

被写体を撮像して映像データを生成する撮像部と、
前記映像データにおける特定された被写体を追尾する追尾部と、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部と、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、前記撮像部の被写界深度を前記撮像操作情報に基づいて決定した値に変化させる焦点決定部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates video data;
A tracking unit that tracks a specified subject in the video data;
When the subject that has been tracked becomes untrackable, an information generation unit that generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible,
A focus determination unit that changes the depth of field of the imaging unit to a value determined based on the imaging operation information when the state in which the subject cannot be tracked continues for a waiting time having a length according to the imaging operation information; ,
An imaging apparatus comprising:
被写体を撮像して映像データを生成する撮像部と、
前記映像データにおける特定された被写体を追尾する追尾部と、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部と、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央に移動させる焦点決定部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates video data;
A tracking unit that tracks a specified subject in the video data;
When the subject that has been tracked becomes untrackable, an information generation unit that generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible,
The subject is unavailable tracking state and continues the length of the waiting time according to the imaging operation information, a focus determination unit to move the position of the angle at the center of a range to be imaged to adjust the focus point
An imaging apparatus comprising:
被写体を撮像して映像データを生成する撮像部と、
前記映像データにおける特定された被写体を追尾する追尾部と、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成する情報生成部と、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央付近で検出された顔に移動させる焦点決定部と、
を備えることを特徴とする撮像装置。
An imaging unit that images a subject and generates video data;
A tracking unit that tracks a specified subject in the video data;
When the subject that has been tracked becomes untrackable, an information generation unit that generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible,
The subject is unavailable tracking state and continues the length of the waiting time according to the imaging operation information, is moved to a position in the angle of view to match the focal point is detected in the vicinity of the center of the range to be imaged face A focus determination unit;
An imaging apparatus comprising:
被写体を撮像して映像データを生成し、
前記映像データにおける特定された被写体を追尾し、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成し、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、撮像部の被写界深度を前記撮像操作情報に基づいて決定した値に変化させることを特徴とする撮像方法。
Capture the subject, generate video data,
Track the identified subject in the video data,
When the tracked subject becomes untrackable, it generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible.
The subject is unavailable tracking state and continues the length of the waiting time according to the imaging operation information, and characterized by changing the depth of field of the imaging section to a value determined on the basis of the imaging operation information Imaging method.
被写体を撮像して映像データを生成し、
前記映像データにおける特定された被写体を追尾し、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成し、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央に移動させることを特徴とする撮像方法。
Capture the subject, generate video data,
Track the identified subject in the video data,
When the tracked subject becomes untrackable, it generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible.
Imaging the subject is unavailable tracking state, to the continuing length of waiting time according to the imaging operation information, and moving the position of the view angle to align the focal point in the center of the range to be imaged Method.
被写体を撮像して映像データを生成し、
前記映像データにおける特定された被写体を追尾し、
追尾していた前記被写体が追尾不能となった場合、追尾不能となる前と、追尾不能となった後それぞれについて、撮像操作状態を示す撮像操作情報を生成し、
前記被写体が追尾不能の状態が、前記撮像操作情報に応じた長さの待機時間継続すると、焦点を合わせる画角内の位置を撮像対象となる範囲の中央付近で検出された顔に移動させることを特徴とする撮像方法。
Capture the subject, generate video data,
Track the identified subject in the video data,
When the tracked subject becomes untrackable, it generates imaging operation information indicating an imaging operation state for each of the tracking before and after tracking becomes impossible.
The subject is unavailable tracking state and continues the length of the waiting time according to the imaging operation information, is moved to a position in the angle of view to match the focal point is detected in the vicinity of the center of the range to be imaged face An imaging method characterized by the above.
JP2011006404A 2011-01-14 2011-01-14 Imaging apparatus and imaging method Active JP5594157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011006404A JP5594157B2 (en) 2011-01-14 2011-01-14 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011006404A JP5594157B2 (en) 2011-01-14 2011-01-14 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2012151526A JP2012151526A (en) 2012-08-09
JP5594157B2 true JP5594157B2 (en) 2014-09-24

Family

ID=46793398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011006404A Active JP5594157B2 (en) 2011-01-14 2011-01-14 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5594157B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106131406A (en) * 2016-07-05 2016-11-16 上海理工大学 A kind of method of self adaptation focusing

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5771461B2 (en) * 2011-06-29 2015-09-02 オリンパス株式会社 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
US9609200B2 (en) * 2014-09-24 2017-03-28 Panavision International, L.P. Distance measurement device for motion picture camera focus applications
CN104469167B (en) 2014-12-26 2017-10-13 小米科技有限责任公司 Atomatic focusing method and device
JP6486109B2 (en) * 2015-01-09 2019-03-20 キヤノン株式会社 EXPOSURE CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6597233B2 (en) * 2015-11-30 2019-10-30 株式会社ニコン TRACKING DEVICE AND IMAGING DEVICE

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4945722B2 (en) * 2006-02-15 2012-06-06 Hoya株式会社 Imaging device
JP5268433B2 (en) * 2008-06-02 2013-08-21 キヤノン株式会社 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106131406A (en) * 2016-07-05 2016-11-16 上海理工大学 A kind of method of self adaptation focusing

Also Published As

Publication number Publication date
JP2012151526A (en) 2012-08-09

Similar Documents

Publication Publication Date Title
US9344634B2 (en) Imaging apparatus having subject detection function, method for controlling the imaging apparatus, and storage medium
US8068164B2 (en) Face recognition auto focus apparatus for a moving image
JP5409189B2 (en) Imaging apparatus and control method thereof
JP5373229B1 (en) IMAGING DEVICE, IMAGING METHOD THEREOF, AND STORAGE MEDIUM FOR STORING TRACKING PROGRAM PROCESSABLE BY COMPUTER
JP5594157B2 (en) Imaging apparatus and imaging method
JP4844670B2 (en) Video processing apparatus and video processing method
US9191569B2 (en) Imaging apparatus having object detection function and method for controlling imaging apparatus
KR101594298B1 (en) Apparatus and method for adjusting focus in digital image processing device
US20130070142A1 (en) Imaging Device and Imaging Method for Imaging Device
US20100007748A1 (en) Imaging apparatus and imaging method
KR20080027443A (en) Imaging apparatus, control method of imaging apparatus, and computer program
EP2688287A2 (en) Photographing apparatus, photographing control method, and eyeball recognition apparatus
JP2001215403A (en) Image pickup device and automatic focus detection method
JP2018050146A (en) Search device, imaging device thereof, and search method
JP2009268086A (en) Imaging apparatus
JP2010109671A (en) Image capturing apparatus
JP2009141475A (en) Camera
JP4506779B2 (en) Imaging apparatus and program
US10284782B2 (en) Image stabilization apparatus, control method thereof, and image capture apparatus
KR20080067935A (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP5698499B2 (en) Focus adjustment device and imaging device
JP5383207B2 (en) Information processing apparatus, control method, computer program, and storage medium
JP2009225236A (en) Imaging apparatus
US11050923B2 (en) Imaging apparatus and control method
JP7479803B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R150 Certificate of patent or registration of utility model

Ref document number: 5594157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150