JP7342883B2 - Imaging control device, imaging device, imaging control method - Google Patents

Imaging control device, imaging device, imaging control method Download PDF

Info

Publication number
JP7342883B2
JP7342883B2 JP2020561272A JP2020561272A JP7342883B2 JP 7342883 B2 JP7342883 B2 JP 7342883B2 JP 2020561272 A JP2020561272 A JP 2020561272A JP 2020561272 A JP2020561272 A JP 2020561272A JP 7342883 B2 JP7342883 B2 JP 7342883B2
Authority
JP
Japan
Prior art keywords
face
subject
eyes
determined
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020561272A
Other languages
Japanese (ja)
Other versions
JPWO2020129620A1 (en
Inventor
裕 君島
洋平 高田
高弘 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020129620A1 publication Critical patent/JPWO2020129620A1/en
Application granted granted Critical
Publication of JP7342883B2 publication Critical patent/JP7342883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本技術は、撮像制御装置、撮像装置、及び撮像制御方法に関し、特にオートフォーカス制御等、撮像制御パラメータについての調整制御を行う場合に好適な技術に関する。 The present technology relates to an imaging control device, an imaging device, and an imaging control method, and particularly relates to a technique suitable for adjusting and controlling imaging control parameters such as autofocus control.

撮像装置においては、例えばオートフォーカス制御や自動露出制御(AE:Automatic Exposure)等、撮像制御パラメータについての調整制御を行うものがある。特に、オートフォーカス制御については、近年、撮像画像の解析や被写体認識の技術を用いて、ターゲットとした被写体を追尾しながら、その被写体を対象としてオートフォーカスを行うものもある。また、オートフォーカス制御については、被写体の顔や瞳を検出し、検出した顔や瞳を対象としてオートフォーカスを行う技術も知られている。
なお、下記特許文献1には、オートフォーカス動作や追尾動作に関する技術が記載されている。
Some imaging devices perform adjustment control on imaging control parameters, such as autofocus control and automatic exposure control (AE). In particular, with regard to autofocus control, in recent years there are some systems that use captured image analysis and subject recognition techniques to track a target subject and perform autofocus on that subject. Regarding autofocus control, there is also known a technique of detecting the face or eyes of a subject and performing autofocus on the detected face or eyes.
Note that Patent Document 1 listed below describes techniques related to autofocus operation and tracking operation.

特開2015-111746号公報Japanese Patent Application Publication No. 2015-111746

ここで、上記のように被写体の顔や瞳を基準としたオートフォーカスを行うにあたっては、撮像装置のユーザに、表示部に表示された画像から対象とする被写体の顔や瞳をタッチ操作により選択させたり、或いは、十字キー等によるカーソル移動操作により該顔や瞳を選択させたり、また、撮像装置の向きを変える等して表示部に表示されているAF(オートフォーカス)枠を該顔や瞳の部分に位置させたりする等の操作を行わせることが考えられる。 Here, when performing autofocus based on the subject's face or eyes as described above, the user of the imaging device is asked to select the target subject's face or eyes from the image displayed on the display unit by touch operation. Alternatively, you can select the face or eyes by moving the cursor using the cross key, or change the direction of the imaging device to move the AF (autofocus) frame displayed on the display to the face or eye. It is conceivable to have the user perform an operation such as positioning it in the pupil area.

しかしながら、上記のタッチ操作を採用した場合には、ユーザがビューファインダを覗いているときに顔や瞳の選択ができなくなってしまう。また、上記のカーソルやAFエリアの移動操作を含め、何れの手法を採用した場合でも、例えばスポーツのシーン等における動きのある被写体に対して正確に顔や瞳の位置を選択させることは困難である。 However, when the above-mentioned touch operation is adopted, the user cannot select the face or eyes while looking through the viewfinder. Furthermore, no matter which method is used, including the above-mentioned cursor and AF area movement operations, it is difficult to accurately select the position of the face and eyes of a moving subject, such as in a sports scene. be.

本技術は上記事情に鑑み為されたものであり、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることを目的とする。 The present technology has been developed in view of the above circumstances, and aims to facilitate operations for realizing adjustment of imaging control parameters based on the position of a subject's face and eyes.

本技術に係る撮像制御装置は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。
An imaging control device according to the present technology includes a face/pupil determination unit that determines the face or eyes of a selected subject in response to selection of a subject in a captured image by an operation;
and an adjustment control section that performs adjustment control of imaging control parameters based on the position information of the face or eyes determined by the face/eye determination section.

撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。 The imaging control parameters refer to various control parameters related to imaging using an imaging device, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary part of the subject, such as the torso of the subject, is selected, the face or eyes of the subject are determined, and the imaging control is performed based on the determined position of the face or eyes. Parameter adjustment control is performed. That is, when adjusting imaging control parameters such as autofocus based on the subject's face or eyes, there is no need for the user to directly select the subject's face or eyes.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit detects a face or eyes present in the captured image, and determines whether the detected face or eyes correspond to the face or eyes of the subject. It is conceivable to determine whether or not.

選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。 As a method of determining the face or eyes of the selected subject, a method of performing image analysis to determine the human body part of the selected subject may be considered, but this type of image analysis processing has a relatively high calculation cost. According to the above configuration, it is possible to determine the face or eyes of the subject without performing such image analysis processing that requires high computational cost.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit may determine the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject.

これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。 This makes it possible to prevent faces or eyes detected in a captured image that are located far apart from each other from being determined as faces or eyes of the subject.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定することが考えられる。 In the above-described imaging control device according to the present technology, the face/eye determination unit detects the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. It is conceivable to determine that the detected face or eyes are the face or eyes of the subject.

これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。 Thereby, in determining the face or eyes of a subject, it is sufficient to perform at least a range setting process and a process of determining whether the selected subject is included within the set range for each detected face or eye.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit may determine the face or eyes of the subject based on the positional relationship in the depth direction between the detected face or eyes and the subject. Conceivable.

これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。 This makes it possible to determine the face or eyes of the subject based not only on the positional relationship in the image plane direction but also on the positional relationship in the depth direction.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, it is possible that the face/eye determination unit determines the face or eyes of the subject based on consistency of movement between the detected face or eyes and the subject. It will be done.

これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。 As a result, in response to cases where the face or eyes of the subject cannot be appropriately determined based on positional relationships alone, the face or eyes of the subject can be appropriately determined from among the detected faces or eyes based on consistency of movement. is possible.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit determines the face or eyes of the subject based on the consistency of movement in the depth direction between the detected face or eyes and the subject. It is possible that

これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。 This makes it possible to determine the face or eyes of the subject based not only on the consistency of movement in the plane direction of the image but also on the consistency of movement in the depth direction.

上記した本技術に係る撮像制御装置においては、前記調整制御部は、前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いることが考えられる。 In the imaging control device according to the present technology described above, the adjustment control unit performs autofocus control as adjustment control of the imaging control parameter, and the face/pupil determination unit is configured to It is conceivable to use distance measurement information for autofocus as the depth information.

これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。 This eliminates the need to provide a separate distance measurement sensor other than the distance measurement sensor for autofocus control in the imaging device when determining the face or eyes of the subject based on the positional relationship in the depth direction and consistency of movement.

上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit The tracking target subject, which is the subject to be photographed, is updated to the determined face or eyes, and in subsequent determinations, based on the position tracked by the tracking unit, the detected face or eyes are updated to the face or eyes of the subject. Alternatively, it is conceivable to determine whether the object is a pupil or not.

これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。 This makes it possible to track the subject's head even if the subject's face or eyes are no longer detected because the subject's face or eyes are turned backwards or the like after the subject's face or eyes have been determined.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外することが考えられる。 In the imaging control device according to the present technology described above, after determining the face or eyes of the subject from among the detected face or eyes, the face/eye determination unit determines that the face or eyes are the face or eyes of the subject. It is conceivable to exclude all faces or eyes that do not appear from the determination target.

これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。 This helps prevent a face or eyes other than the subject's face or eyes from being misjudged when the face or eyes of the subject are lost after the face or eyes of the subject have been determined even once. It will be done.

上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行うことが考えられる。 In the imaging control device according to the present technology described above, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit changes the search range from the first search range. It is conceivable to make a determination by switching to a second search range different from the first search range.

これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。 This makes it possible to set the search range to a second search range, which is narrower than the first search range, in the judgment performed when the face or eyes of the subject are lost after the face or eyes of the subject have been determined at least once. Thus, it is possible to prevent faces or eyes other than those of the subject from being erroneously determined.

上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記追尾部は、前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、前記顔・瞳判定部は、前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and the tracking unit determines whether or not the face/eye determination unit has determined the face or eyes of the subject. Regardless, the subject selected by the operation is continued to be tracked, and the face/eye determination unit determines whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit. It is conceivable to determine whether or not.

これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。 As a result, even if a subject whose face or eyes are not detected because the face is turned backwards etc. is selected and the face or eyes of a subject other than the selected subject is incorrectly determined, subsequent judgments will be made. Since the judgment is performed based on the selected subject position, when the face or eyes of the selected subject are detected, such as when the face of the selected subject is facing forward, the face or eyes of the selected subject are detected. It is possible to judge correctly.

上記した本技術に係る撮像制御装置においては、前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備えることが考えられる。 In the imaging control device according to the present technology described above, in response to the selection of a subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the first visual information is displayed at the position of the subject. In response to the face or eyes of the subject being determined by the eye determination unit, displaying second visual information at the position of the determined face or eyes on the display unit, and hiding the first visual information. It is conceivable to include a display control unit that allows

これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。 This makes it possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.

上記した本技術に係る撮像制御装置においては、前記表示制御部は、前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させることが考えられる。 In the imaging control device according to the present technology described above, the display control unit may display information having a different shape from the first visual information as the second visual information.

これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。 This makes it possible to intuitively and more easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.

上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、前記調整制御部は、前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、前記表示制御部は、前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行うことが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit The tracking target subject, which is the target subject, is updated to the determined face or eyes, and if the determined face or eyes are no longer detected in the captured image, the tracking target subject is updated to the previously determined The adjustment control unit performs adjustment control of the imaging control parameter based on information on the position tracked by the tracking unit, and the display control unit controls the image capture control parameter based on the information of the position tracked by the tracking unit, In response to the fact that the face or eyes cannot be detected, control may be performed to display visual information different from the second visual information at the position tracked by the tracking unit.

上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。 According to the above configuration, after the face or eyes of the selected subject is determined, until the face or eyes of the selected subject becomes undetected, for example, when the face of the subject turns backward, the face or eyes of the selected subject are determined. The imaging control parameters are adjusted based on the position of . According to the above configuration, when the face or eyes of the selected subject is not detected, the face (head) position of the selected subject continues to be tracked, and the position of the face (head) of the selected subject continues to be tracked. , visual information different from the second visual information is displayed (for example, the display is switched from the face/eye tracking frame 92 to the tracking frame 91). Due to such display control, the face or eyes of the selected subject were no longer detected, making it impossible to adjust the imaging control parameters based on the position information of the face or eyes. It is possible to intuitively and easily notify the user that tracking of the location) is continuing.

上記した本技術に係る撮像制御装置においては、前記被写体は人であることが考えられる。 In the imaging control device according to the present technology described above, the subject may be a person.

これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。 This eliminates the need for the user to directly select a person's face or eyes when adjusting the imaging control parameters based on the person's face or eyes.

上記した本技術に係る撮像制御装置においては、前記被写体は動物であることが考えられる。 In the imaging control device according to the present technology described above, the subject may be an animal.

これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。 This eliminates the need for the user to directly select the face or eyes of an animal, such as a dog, cat, or bird, in order to adjust the imaging control parameters based on the face or eyes of the animal.

また、本技術に係る撮像装置は、撮像画像を得る撮像部と、操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。 The imaging device according to the present technology also includes an imaging unit that obtains a captured image, and a face/pupil that determines the face or eyes of the selected subject in response to selection of a subject in the captured image by operation. The image forming apparatus includes a determination section, and an adjustment control section that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/pupil determination section.

さらに、本技術に係る撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。 Furthermore, the imaging control method according to the present technology determines the face or eyes of the selected subject in response to the selection of a subject in the captured image by an operation, and uses the position information of the determined face or pupils to determine the face or eyes of the selected subject. This is an imaging control method that performs adjustment control of imaging control parameters based on the above.

これらの撮像装置、撮像制御方法によっても、上記した本技術に係る撮像制御装置と同様の作用が得られる。 These imaging devices and imaging control methods can also provide the same effect as the imaging control device according to the present technology described above.

本技術に係る実施形態としての撮像装置の外観の斜視図である。FIG. 1 is a perspective view of the exterior of an imaging device as an embodiment of the present technology. 実施形態としての撮像装置の背面図である。FIG. 2 is a rear view of an imaging device as an embodiment. 実施形態としての撮像装置に装着できるレンズ鏡筒の側面図である。FIG. 2 is a side view of a lens barrel that can be attached to an imaging device as an embodiment. 実施形態としての撮像装置の内部構成のブロック図である。FIG. 1 is a block diagram of the internal configuration of an imaging device as an embodiment. 実施形態におけるカメラ制御部の機能構成の説明図である。FIG. 3 is an explanatory diagram of the functional configuration of a camera control unit in the embodiment. 実施形態におけるオートフォーカス時の表示例の説明図である。FIG. 3 is an explanatory diagram of a display example during autofocus in the embodiment. 実施形態における追尾時の表示例の説明図である。FIG. 6 is an explanatory diagram of a display example during tracking in the embodiment. 実施形態の動作説明図である。It is an explanatory diagram of operation of an embodiment. 同じく、実施形態の動作説明図である。Similarly, it is an explanatory diagram of the operation of the embodiment. 同じく、実施形態の動作説明図である。Similarly, it is an explanatory diagram of the operation of the embodiment. 同じく、実施形態の動作説明図である。Similarly, it is an explanatory diagram of the operation of the embodiment. 同じく、実施形態の動作説明図である。Similarly, it is an explanatory diagram of the operation of the embodiment. 被写体の顔又は瞳へのオートフォーカス制御を実現するためのメイン処理を例示したフローチャートである。3 is a flowchart illustrating main processing for realizing autofocus control on a subject's face or eyes. 被写体顔判定処理の例を示したフローチャートである。7 is a flowchart illustrating an example of subject face determination processing. 被写体顔候補判定処理の第一例としての処理を示したフローチャートである。7 is a flowchart showing a first example of subject face candidate determination processing. 顔検出枠と顔紐づけ範囲枠との関係を例示した図である。FIG. 3 is a diagram illustrating a relationship between a face detection frame and a face association range frame. 被写体顔候補判定処理の第二例としての処理を示したフローチャートである。12 is a flowchart showing a second example of subject face candidate determination processing. 動きのある被写体にオートフォーカスを行う例を示した図である。FIG. 3 is a diagram illustrating an example of performing autofocus on a moving subject. 撮像対象のシーンの一例を示した図である。FIG. 2 is a diagram showing an example of a scene to be imaged. 変形例において対策されるべきシーンを例示した図である。FIG. 7 is a diagram illustrating a scene to be addressed in a modified example. 第一変形例としての被写体顔判定処理のフローチャートである。It is a flowchart of subject face determination processing as a first modification. 通常の顔紐づけ範囲枠を例示した図である。It is a diagram illustrating a normal face association range frame. 変更後の顔紐づけ範囲枠を例示した図である。It is a figure which illustrated the face association range frame after a change. 第三変形例において対策されるべきシーンを例示した図である。FIG. 7 is a diagram illustrating a scene to be dealt with in a third modification. 同じく、第三変形例において対策されるべきシーンを例示した図である。Similarly, it is a diagram illustrating a scene to be dealt with in a third modification. 第三変形例としてのメイン処理を例示したフローチャートである。It is a flow chart which illustrated main processing as a third modification.

以下、実施の形態を次の順序で説明する。

<1.撮像装置の構成>
<2.実施形態の動作説明>
<3.処理手順>
<4.変形例>
<5.その他変形例>
<6.実施形態のまとめ>
<7.本技術>

なお、以下の説明において、「オートフォーカス」の用語は「AF」とも表記する。
また、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げる。撮像制御パラメータとは、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。
Hereinafter, embodiments will be described in the following order.

<1. Configuration of imaging device>
<2. Operation explanation of embodiment>
<3. Processing procedure>
<4. Modified example>
<5. Other variations>
<6. Summary of embodiments>
<7. This technology>

Note that in the following description, the term "autofocus" is also written as "AF".
Moreover, autofocus control will be given as an example of adjustment control of imaging control parameters. Imaging control parameters refer to various control parameters related to imaging using an imaging device.

<1.撮像装置の構成>

図1は、本技術に係る実施形態としての撮像装置1の前方からの斜視図、図2は背面図を示している。ここでは撮像装置1は、いわゆるデジタルスチルカメラとされ、撮像モードを切り換えることで、静止画撮像と動画撮像の両方を実行できるものとする。
なお、本実施の形態では撮像装置1は、デジタルスチルカメラに限定されず、主に動画撮像に用いられ静止画撮像も行えるビデオカメラであっても良い。
<1. Configuration of imaging device>

FIG. 1 shows a front perspective view of an imaging device 1 as an embodiment of the present technology, and FIG. 2 shows a rear view. Here, the imaging device 1 is assumed to be a so-called digital still camera, and can perform both still image imaging and video imaging by switching the imaging mode.
Note that in this embodiment, the imaging device 1 is not limited to a digital still camera, but may be a video camera that is mainly used for capturing moving images and can also capture still images.

撮像装置1は、カメラ本体を構成する本体筐体100の前方側にレンズ鏡筒2(図1ではレンズ鏡筒2A)が配置され、又は着脱可能とされる。
撮像装置1の背面側(使用者側)には、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネル101が設けられる。
またビューファインダー102として、LCDや有機ELディスプレイ等を用いて形成された表示部も設けられる。
ユーザは表示パネル101やビューファインダー102により、画像や各種情報を視認することができる。
この例では撮像装置1には表示パネル101とビューファインダー102の両方が設けられているが、これに限定されず、表示パネル101とビューファインダー102のいずれか一方のみが設けられている構成や、表示パネル101とビューファインダー102の両方またはいずれか一方が着脱可能な構成であってもよい。
In the imaging device 1, a lens barrel 2 (lens barrel 2A in FIG. 1) is disposed on the front side of a main body housing 100 constituting a camera body, or is detachable.
On the back side (user side) of the imaging device 1, a display panel 101 is provided, for example, a display device such as a liquid crystal display (LCD) or an organic EL (electro-luminescence) display.
Further, as the viewfinder 102, a display section formed using an LCD, an organic EL display, or the like is also provided.
The user can view images and various information using the display panel 101 and viewfinder 102.
In this example, the imaging device 1 is provided with both the display panel 101 and the viewfinder 102, but the present invention is not limited to this, and a configuration in which only one of the display panel 101 and the viewfinder 102 is provided, Both or one of the display panel 101 and the viewfinder 102 may be configured to be detachable.

撮像装置1の本体筐体100上には、各種の操作子110が設けられている。
例えば操作子110としては、キー、ダイヤル、押圧/回転の複合操作子などの各種の形態のものが配備され、各種の操作機能を実現している。例えばメニュー操作、再生操作、モード選択操作、フォーカス操作、ズーム操作、シャッタースピードやF値(F-number)等のパラメータの選択操作などが可能とされる。それぞれの操作子110に関しての詳述は避けるが、本実施形態の場合、操作子110のうちでシャッターボタン110Sとアサイナブルボタン110Cを特に示している。
シャッターボタン110Sはシャッター操作(レリーズ操作)や、また半押しによるAF操作に用いられる。
アサイナブルボタン110Cは、カスタムボタンとも呼ばれる操作子で、ユーザが任意の操作機能を割り当てることのできるボタンである。
Various operators 110 are provided on the main body casing 100 of the imaging device 1.
For example, various types of operators 110, such as keys, dials, and combination press/rotate operators, are provided to realize various operating functions. For example, menu operations, playback operations, mode selection operations, focus operations, zoom operations, and parameter selection operations such as shutter speed and F-number are possible. Although a detailed description of each operator 110 will be avoided, in this embodiment, among the operators 110, the shutter button 110S and the assignable button 110C are particularly shown.
The shutter button 110S is used for shutter operation (release operation) and AF operation by pressing halfway.
The assignable button 110C is an operator also called a custom button, and is a button to which the user can assign an arbitrary operation function.

シャッターボタン110Sは本体筐体100の右側上面に配置され、例えばユーザが右手で握持部103を持った状態で、右手の人差し指で押圧操作可能とされている。
またアサイナブルボタン110Cは、例えば図2のように本体筐体100の背面側上部に配置され、ユーザが右手の親指で押圧操作可能とされている。
つまりシャッターボタン110S、アサイナブルボタン110Cは、ユーザが右手で握持部112を握持する状態で本体筐体100を持ったときに、人差し指と親指で操作できる位置に配置され、即ち、それぞれを任意に個別に押したり、同時に押したりすることができるようにされている。
The shutter button 110S is arranged on the upper right side of the main body housing 100, and can be pressed with the index finger of the right hand, for example, when the user is holding the grip part 103 with the right hand.
Further, the assignable button 110C is arranged, for example, at the upper part of the back side of the main body housing 100 as shown in FIG. 2, and can be pressed and operated by the user with the thumb of the right hand.
In other words, the shutter button 110S and the assignable button 110C are arranged at positions where they can be operated with the index finger and thumb when the user holds the main body casing 100 while gripping the grip portion 112 with the right hand. can be pressed individually or simultaneously.

なお、シャッターボタン110Sと追尾操作のためのボタンは、必ずしも片手で同時に操作できるようにすることに限られない。例えば右手でシャッターボタン110Sを押し、左手で追尾操作ができるようにしてもよい。
このため、例えばレンズ鏡筒2のボタンを用いて追尾操作ができるようにしてもよい。
例えば図3には本体筐体100の前面側に装着できるレンズ鏡筒2Bの一例を示している。レンズ鏡筒2Bにも各種の操作子120が設けられている。
この場合に、側面部のやや下方の位置に設けられたアサイナブルボタン120Cを追尾操作ボタンに割り当てる。
Note that the shutter button 110S and the button for tracking operation are not necessarily limited to being able to be operated simultaneously with one hand. For example, the shutter button 110S may be pressed with the right hand and the tracking operation may be performed with the left hand.
Therefore, for example, a button on the lens barrel 2 may be used to perform the tracking operation.
For example, FIG. 3 shows an example of a lens barrel 2B that can be attached to the front side of the main body housing 100. Various operators 120 are also provided on the lens barrel 2B.
In this case, the assignable button 120C provided at a slightly lower position on the side surface is assigned to the tracking operation button.

通常、ユーザは握持部103を右手で握持し、左手はレンズ鏡筒2を下方から支えるようなスタイルで撮像を行う。この場合に、アサイナブルボタン120Cは左手の親指で押圧操作可能となる。
このような配置であっても、シャッターボタン110Sとアサイナブルボタン120Cは互いに同時に操作したり、任意に別々に操作することが可能である。
Normally, the user grips the grip portion 103 with his right hand and uses his left hand to support the lens barrel 2 from below. In this case, the assignable button 120C can be pressed with the thumb of the left hand.
Even with this arrangement, the shutter button 110S and the assignable button 120C can be operated simultaneously or separately as desired.

図4は、レンズ鏡筒2を含めた撮像装置1の内部構成を示している。なお、ここでは撮像装置1が本体筐体100とレンズ鏡筒2に分かれて構成される例で述べるが、レンズ鏡筒2に相当する部分が本体筐体100と一体化されるものであってもよい。 FIG. 4 shows the internal configuration of the imaging device 1 including the lens barrel 2. As shown in FIG. Note that although an example will be described in which the imaging device 1 is configured to be divided into a main body casing 100 and a lens barrel 2, the portion corresponding to the lens barrel 2 is integrated with the main body casing 100. Good too.

撮像装置1は、本体筐体100に撮像素子(イメージセンサ)12、カメラ信号処理部13、記録部14、表示部15、出力部16、操作部17、電源部18、カメラ制御部30、メモリ部31を有する。
またレンズ鏡筒2はレンズ系21、ドライバ部22、レンズ制御部23、操作部24を有する。
The imaging device 1 includes a main body housing 100, an image sensor 12, a camera signal processing section 13, a recording section 14, a display section 15, an output section 16, an operation section 17, a power supply section 18, a camera control section 30, and a memory. It has a section 31.
Further, the lens barrel 2 includes a lens system 21, a driver section 22, a lens control section 23, and an operation section 24.

レンズ鏡筒2におけるレンズ系21は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り(アイリス)機構を備える。このレンズ系21により、被写体からの光(入射光)が導かれ、撮像装置1における撮像素子12に集光される。 The lens system 21 in the lens barrel 2 includes lenses such as a cover lens, a zoom lens, and a focus lens, and an aperture (iris) mechanism. This lens system 21 guides light (incident light) from the subject and focuses it on the image sensor 12 in the image capture device 1 .

撮像素子12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などとして構成される。
この撮像素子12では、受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部30に出力する。
The image sensor 12 is configured, for example, as a CCD (Charge Coupled Device) type, a CMOS (Complementary Metal Oxide Semiconductor) type, or the like.
The image sensor 12 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc. on the electrical signal obtained by photoelectrically converting the received light, and further performs A/D (Analog/Digital) processing. Perform the conversion process. The imaging signal as digital data is then output to the camera signal processing section 13 and camera control section 30 at the subsequent stage.

カメラ信号処理部13は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このカメラ信号処理部13は、撮像素子12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。例えばカメラ信号処理部13は、前処理、同時化処理、YC生成処理、解像度変換処理、コーデック処理等を行う。 The camera signal processing unit 13 is configured as an image processing processor using, for example, a DSP (Digital Signal Processor). This camera signal processing section 13 performs various signal processing on the digital signal (captured image signal) from the image sensor 12. For example, the camera signal processing unit 13 performs preprocessing, synchronization processing, YC generation processing, resolution conversion processing, codec processing, and the like.

前処理では、撮像素子12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を行う。
同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック処理では、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
In the preprocessing, clamp processing for clamping the R, G, and B black levels to predetermined levels and correction processing between the R, G, and B color channels are performed on the captured image signal from the image sensor 12. .
In the synchronization process, a demosaic process is performed so that the image data for each pixel includes all R, G, and B color components.
In the YC generation process, a luminance (Y) signal and a color (C) signal are generated (separated) from R, G, and B image data.
In the resolution conversion process, the resolution conversion process is performed on image data that has been subjected to various types of signal processing.
In the codec processing, the resolution-converted image data is encoded for recording or communication, for example.

記録部14は、例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式で記憶される。
記録部14の実際の形態は多様に考えられる。例えば記録部14は、撮像装置1に内蔵されるフラッシュメモリでもよいし、撮像装置1に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
The recording unit 14 is made of, for example, a nonvolatile memory, and stores image files (content files) such as still image data and video data, attribute information of image files, thumbnail images, and the like.
The image file is stored in a format such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), or GIF (Graphics Interchange Format).
The actual form of the recording section 14 can be considered in various ways. For example, the recording unit 14 may be a flash memory built into the imaging device 1, or a memory card (for example, a portable flash memory) that can be attached to and removed from the imaging device 1, and a card recording/reproducing device that performs recording/reproduction access to the memory card. It may also be in the form of a section. Further, it may be implemented as a built-in form in the imaging device 1, such as an HDD (Hard Disk Drive).

表示部15は撮像者に対して各種表示を行う表示部であり、具体的には図2に示した表示パネル101やビューファインダー102を示している。
表示部15は、カメラ制御部30の指示に基づいて表示画面上に各種表示を実行させる。例えば表示部15は、記録部14において記録媒体から読み出された画像データの再生画像を表示させる。また表示部15には、カメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給されている。表示部15はカメラ制御部30の指示に応じて、当該撮像画像の画像データに基づいて表示を行うことで、レリーズのスタンバイ中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)を表示させる。
また表示部15はカメラ制御部30の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
The display unit 15 is a display unit that displays various displays to the photographer, and specifically indicates the display panel 101 and viewfinder 102 shown in FIG. 2.
The display unit 15 executes various displays on the display screen based on instructions from the camera control unit 30. For example, the display unit 15 displays a reproduced image of the image data read from the recording medium in the recording unit 14. Further, the display unit 15 is supplied with image data of a captured image whose resolution has been converted for display by the camera signal processing unit 13. The display unit 15 displays a so-called through image (monitoring image of a subject), which is a captured image during release standby, by displaying based on the image data of the captured image in accordance with instructions from the camera control unit 30. let
Further, the display unit 15 displays various operation menus, icons, messages, etc., ie, a GUI (Graphical User Interface) on the screen based on instructions from the camera control unit 30.

出力部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
The output unit 16 performs wired or wireless data communication and network communication with external devices.
For example, captured image data (still image files and video files) is transmitted and output to an external display device, recording device, playback device, etc.
Further, the output unit 16 is a network communication unit, and performs communication via various networks such as the Internet, a home network, and a LAN (Local Area Network), and sends and receives various data to and from servers, terminals, etc. on the network. You can do it like this.

操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は本体筐体100に設けられた各種の操作子110(シャッターボタン110S、アサイナブルボタン110Cを含む)を示している。
操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部30へ送られる。
この操作部17としては操作子110だけでなく、タッチパネルを用いてもよい。例えば表示パネル101にタッチパネルを形成し、表示パネル101に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
或いは操作部17はタッチパッド等によりユーザのタップ操作等を検出する形態もある。
更に操作部17は、別体のリモートコントローラ等の外部操作機器の受信部として構成されることもある。
The operation unit 17 collectively represents input devices through which the user performs various operation inputs. Specifically, the operation unit 17 shows various operators 110 (including a shutter button 110S and an assignable button 110C) provided on the main body housing 100.
The operation unit 17 detects a user's operation, and a signal corresponding to the input operation is sent to the camera control unit 30.
As this operation unit 17, not only the operator 110 but also a touch panel may be used. For example, a touch panel may be formed on the display panel 101, and various operations may be made possible by touch panel operations using icons, menus, etc. displayed on the display panel 101.
Alternatively, the operation unit 17 may detect a user's tap operation using a touch pad or the like.
Furthermore, the operating section 17 may be configured as a receiving section for an external operating device such as a separate remote controller.

電源部18は、例えば内部に装填したバッテリーから各部に必要な電源電圧Vccを生成し、動作電圧として供給する。
撮像装置1にレンズ鏡筒2が装着された状態では、電源部18による電源電圧Vccがレンズ鏡筒2内の回路にも供給されるように構成されている。
なお電源部18には、商用交流電源に接続したACアダプタにより変換されて入力される直流電圧を電源として、バッテリーへの充電を行う回路や電源電圧Vccを生成する回路が形成されていてもよい。
The power supply section 18 generates a power supply voltage Vcc necessary for each section from, for example, a battery loaded inside, and supplies it as an operating voltage.
When the lens barrel 2 is attached to the imaging device 1, the power supply voltage Vcc from the power supply unit 18 is also supplied to the circuit inside the lens barrel 2.
Note that the power supply unit 18 may be formed with a circuit that charges the battery or a circuit that generates the power supply voltage Vcc using a DC voltage that is converted and inputted by an AC adapter connected to a commercial AC power source as a power source. .

カメラ制御部30はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
メモリ部31は、カメラ制御部30が処理に用いる情報等を記憶する。図示するメモリ部31としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
メモリ部31はカメラ制御部30としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
カメラ制御部30はメモリ部31のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1及びレンズ鏡筒2の全体を制御する。
例えばカメラ制御部30は、撮像素子12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、レンズ鏡筒2におけるズーム、フォーカス、絞り調整等のレンズ系21の動作、ユーザインターフェース動作等について、必要各部の動作を制御する。絞り調整に関してカメラ制御部30は、ユーザ操作に応じたF値の可変制御や、自動制御(オートアイリス)としてのF値の指示を行う。
The camera control section 30 is constituted by a microcomputer (arithmetic processing unit) equipped with a CPU (Central Processing Unit).
The memory unit 31 stores information and the like used by the camera control unit 30 for processing. The illustrated memory section 31 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), and a flash memory.
The memory section 31 may be a memory area built into a microcomputer chip as the camera control section 30, or may be constituted by a separate memory chip.
The camera control unit 30 controls the entire imaging device 1 and lens barrel 2 by executing programs stored in the ROM, flash memory, etc. of the memory unit 31.
For example, the camera control unit 30 controls the shutter speed of the image sensor 12, instructs various signal processing in the camera signal processing unit 13, performs imaging and recording operations according to user operations, plays back recorded image files, and controls the lens mirror. It controls the operations of the necessary parts regarding the operations of the lens system 21 such as zoom, focus, and aperture adjustment in the barrel 2, and the operations of the user interface. Regarding aperture adjustment, the camera control unit 30 performs variable control of the F number in accordance with user operations and instructs the F number as automatic control (auto iris).

メモリ部31におけるRAMは、カメラ制御部30のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
メモリ部31におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。
The RAM in the memory unit 31 is used to temporarily store data, programs, etc. as a work area when the CPU of the camera control unit 30 processes various data.
The ROM and flash memory (non-volatile memory) in the memory unit 31 contain an OS (Operating System) for the CPU to control each part, content files such as image files, application programs for various operations, and firmware. It is used to memorize things such as.

本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30はレンズ制御部23に対して通信を行い、各種の指示を行う。
レンズ鏡筒2においては、例えばマイクロコンピュータによるレンズ制御部23が搭載されており、カメラ制御部30との間で各種のデータ通信が可能とされる。本実施形態の場合、カメラ制御部30は、レンズ制御部23に対してズームレンズ、フォーカスレンズ、絞り機構等の駆動指示を行う。レンズ制御部23はこれらの駆動指示に応じてドライバ部22を制御し、レンズ系21の動作を実行させる。
なお本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30とレンズ制御部23の間で有線通信が実行されるように構成されている。但し、カメラ制御部30とレンズ制御部23が無線通信を行うことができるように構成されてもよい。
When the lens barrel 2 is attached to the main body housing 100, the camera control section 30 communicates with the lens control section 23 and issues various instructions.
The lens barrel 2 is equipped with a lens control section 23 made up of, for example, a microcomputer, and is capable of various data communications with the camera control section 30 . In the case of this embodiment, the camera control section 30 instructs the lens control section 23 to drive a zoom lens, a focus lens, an aperture mechanism, and the like. The lens control section 23 controls the driver section 22 according to these drive instructions, and causes the lens system 21 to operate.
Note that when the lens barrel 2 is attached to the main body housing 100, wired communication is performed between the camera control section 30 and the lens control section 23. However, the configuration may be such that the camera control section 30 and the lens control section 23 can communicate wirelessly.

ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
これらのモータドライバはレンズ制御部23からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
The driver section 22 is provided with, for example, a motor driver for a zoom lens drive motor, a motor driver for a focus lens drive motor, a motor driver for an aperture mechanism motor, and the like.
These motor drivers apply drive currents to the corresponding drivers in response to instructions from the lens control unit 23 to move the focus lens and zoom lens, open and close the aperture blades of the aperture mechanism, and so on.

操作部24はレンズ鏡筒2側に設けられた操作子120(アサイナブルボタン120Cを含む)を示している。操作部24による操作情報はレンズ制御部23に供給され、レンズ制御部23を介してカメラ制御部30に通知される。
これによりレンズ制御部23は、操作子120の操作に応じて例えばレンズ系21の動作制御を行ったり、カメラ制御部30が操作子120の操作に応じて各種設定や動作制御を行うことができる。
なお操作部24としても操作部17と同様に、キーやダイヤル等に限らず、タッチパネル、タッチパッド、或いはリモートコントローラの受信部などとして構成されてもよい。
The operation unit 24 shows an operator 120 (including an assignable button 120C) provided on the lens barrel 2 side. Operation information from the operation unit 24 is supplied to the lens control unit 23 and notified to the camera control unit 30 via the lens control unit 23.
This allows the lens control unit 23 to control, for example, the operation of the lens system 21 in response to the operation of the operator 120, and the camera control unit 30 to perform various settings and operation control in response to the operation of the operator 120. .
Note that, like the operation section 17, the operation section 24 is not limited to keys, dials, etc., and may be configured as a touch panel, a touch pad, a receiving section of a remote controller, or the like.

図5は、図4の構成の一部を抽出するとともに、本実施形態の動作を行うためのカメラ制御部30の機能を示している。
カメラ制御部30の機能としては、AF測距部51、AF制御部52、画像認識部53、操作認識部54、表示制御部55、アサイナブルボタン設定部56が設けられる。
なお説明上の一例として、これらの機能がカメラ制御部30にソフトウェアにより設けられるものとするが、これらの機能の一部又は全部が例えばカメラ信号処理部13等として用いられるDSPやマイクロコンピュータに設けられてもよいし、或いは、例えばカメラ制御部30や、カメラ信号処理部13とは別チップのマイクロコンピュータなど、他の部位に設けられてもよい。いずれにしても撮像装置1内に、これらの機能を行う構成が設けられればよい。
FIG. 5 extracts a part of the configuration of FIG. 4 and shows the functions of the camera control unit 30 for performing the operations of this embodiment.
As functions of the camera control section 30, an AF distance measuring section 51, an AF control section 52, an image recognition section 53, an operation recognition section 54, a display control section 55, and an assignable button setting section 56 are provided.
As an example for explanation, it is assumed that these functions are provided in the camera control section 30 by software, but some or all of these functions may be provided in a DSP or a microcomputer used as the camera signal processing section 13, etc. Alternatively, it may be provided in another part, such as a microcomputer on a separate chip from the camera control section 30 or the camera signal processing section 13. In any case, a configuration for performing these functions may be provided in the imaging device 1.

AF測距部51は、オートフォーカスのための測距処理を行う。例えば撮像素子12で得られる撮像画像信号を用いて、いわゆる位相差検出方式やコントラスト検出方式、或いはこれらの両方の特徴を持ち合わせたハイブリッドAF方式などとしてのAF制御のための演算を行う。
AF制御部52は、AF測距部51で求められた制御値に基づいてAF制御信号を生成し、AF動作を実行させる処理を行う。AF制御部52によるAF制御信号はレンズ制御部23に送信される。そしてレンズ制御部23がAF制御信号に基づいてドライバ部22を制御し、レンズ系21内のフォーカスレンズの駆動を実行させることで、AF動作が行われる。
The AF distance measuring section 51 performs distance measuring processing for autofocus. For example, a captured image signal obtained by the image sensor 12 is used to perform calculations for AF control using a so-called phase difference detection method, a contrast detection method, or a hybrid AF method having characteristics of both.
The AF control section 52 generates an AF control signal based on the control value obtained by the AF distance measuring section 51, and performs processing to execute an AF operation. The AF control signal from the AF control section 52 is transmitted to the lens control section 23. Then, the lens control section 23 controls the driver section 22 based on the AF control signal to drive the focus lens within the lens system 21, thereby performing an AF operation.

画像認識部53は、撮像素子12で得られる撮像画像信号に対する画像解析を行い画像内容の認識処理を行う。特に本実施形態の場合、顔・瞳検出部61、追尾処理部62、被写体顔判定部63としての認識処理が行われる。
顔・瞳検出部61では、撮像画像信号のフレーム内で被写体としての人(或いは動物)の顔や瞳を検出する処理を行う。
ここで、本実施形態において、顔・瞳検出部で顔や瞳の検出対象とする被写体としては、顔や瞳を有する人物や動物等の生体に限らず、例えばロボット等の顔や瞳を模した物体を含む生体以外の物体も含み得る。
The image recognition unit 53 performs image analysis on the captured image signal obtained by the image sensor 12 and performs image content recognition processing. Particularly in the case of this embodiment, recognition processing is performed by a face/eye detection section 61, a tracking processing section 62, and a subject face determination section 63.
The face/eye detection unit 61 performs processing to detect the face and eyes of a person (or animal) as a subject within a frame of a captured image signal.
Here, in this embodiment, the subject whose face and eyes are to be detected by the face/eye detection unit is not limited to a living body such as a person or an animal that has a face and eyes, but also a face or eyes of a robot, etc. It may also include objects other than living bodies, including objects that have been exposed.

追尾処理部62では、撮像画像信号のフレーム内で、対象とされた被写体(例えば人物や動物等の一部とされる場合もある)の位置を判定し追尾するための処理を行う。なお、追尾対象とする被写体は、例えばAFがかけられた被写体などとされる。ユーザ(撮像者)による追尾対象被写体の選択は、AF対象の被写体を選択するという操作によってなされることもある。 The tracking processing unit 62 performs processing for determining and tracking the position of a target object (for example, it may be a part of a person, animal, etc.) within the frame of the captured image signal. Note that the subject to be tracked is, for example, a subject subjected to AF. The selection of a tracking target object by the user (imager) may be performed by an operation of selecting an AF target object.

被写体顔判定部63は、被写体の顔の判定を行う。これはフレーム内での人の顔の領域の判定であったり、さらには顔の個人識別の処理を行う。例えば多数の人が被写体となっているときに、ターゲットとした個人の顔の認識なども行うことが想定される。
特に、本例では、被写体顔判定部63は、顔・瞳検出部61により撮像画像のフレーム内で検出された顔や瞳のうちから、ユーザにより選択された被写体の顔や瞳を判定する処理も行うが、これについては後に改めて説明する。
The subject face determination unit 63 determines the face of the subject. This may include determining the area of a person's face within a frame, or further processing to identify an individual face. For example, when the subject is a large number of people, it is assumed that the face of the targeted individual will also be recognized.
In particular, in this example, the subject face determination section 63 performs a process of determining the face and eyes of the subject selected by the user from among the faces and eyes detected within the frame of the captured image by the face/eye detection section 61. We will also do this, but this will be explained later.

操作認識部54は、操作部17による操作を認識する。カメラ制御部30は、操作認識部54によって認識されるユーザ操作に応じて必要な制御処理を行うことになる。
特に実施形態の処理に関連するものとしては、操作認識部54は操作部17におけるシャッターボタン110S、アサイナブルボタン110Cや、操作部24におけるアサイナブルボタン120Cの操作を認識する。これらの操作の認識に応じて、上記のAF測距部51、AF制御部52、画像認識部53が対応した処理を行うことが可能とされる。
The operation recognition unit 54 recognizes the operation performed by the operation unit 17. The camera control unit 30 performs necessary control processing according to the user operation recognized by the operation recognition unit 54.
Particularly related to the processing of the embodiment, the operation recognition unit 54 recognizes operations of the shutter button 110S and the assignable button 110C on the operation unit 17, and the assignable button 120C on the operation unit 24. Depending on the recognition of these operations, the AF distance measuring section 51, AF control section 52, and image recognition section 53 described above can perform corresponding processing.

アサイナブルボタン設定部56は、ユーザの設定操作に応じて、アサイナブルボタン110C、120Cの操作機能を設定する機能を示している。操作認識部54がアサイナブルボタン110Cやアサイナブルボタン120Cの操作を検知した場合、カメラ制御部30はアサイナブルボタン設定部56の設定に基づいて、所定機能に対する操作が行われたと認識することになる。 The assignable button setting section 56 has a function of setting the operating functions of the assignable buttons 110C and 120C according to the user's setting operation. When the operation recognition unit 54 detects an operation of the assignable button 110C or the assignable button 120C, the camera control unit 30 recognizes that a predetermined function has been operated based on the settings of the assignable button setting unit 56.

表示制御部55は、表示部15の表示動作を制御する。例えば表示制御部55はスルー画の表示の実行や、各種操作メニュー、アイコン、メッセージ等の表示を画面上に実行させるように制御する機能を示している。 The display control section 55 controls the display operation of the display section 15. For example, the display control unit 55 has a function of controlling the display of live view images and the display of various operation menus, icons, messages, etc. on the screen.

図6,図7には、表示部15での表示例を示している。これらはスルー画に重ねて各種アイコンを表示している例である。
図6では、バスケットボールを使っている人物HMが、被写体として表示部15の画面(即ち撮像している画角)のほぼ中央にとらえられている状態である。
ここでは画面中央にフォーカス枠90が表示されている。フォーカス枠90は、AF対象を示す枠であり、いわゆるAF測距点を示す枠である。
フォーカス枠90の表示位置は、各種のモードによって変わり、またフォーカス枠90が複数表示される場合もあるが、ここでは一つのフォーカス枠90が画面中央に表示される例としている。
6 and 7 show display examples on the display unit 15. These are examples in which various icons are displayed superimposed on the through image.
In FIG. 6, a person HM playing a basketball is captured as a subject at approximately the center of the screen of the display unit 15 (that is, the angle of view being imaged).
Here, a focus frame 90 is displayed at the center of the screen. The focus frame 90 is a frame that indicates an AF target, and is a frame that indicates a so-called AF distance measurement point.
The display position of the focus frame 90 changes depending on various modes, and there are cases where a plurality of focus frames 90 are displayed, but here, one focus frame 90 is displayed in the center of the screen as an example.

図7では追尾を行っている状態を示している。例えば図6のフォーカス枠90に基づいて人物HMにAFがかけられ、また追尾のターゲットとされたとする。
図7の時点では、人物HMが画面内で左寄りの位置にあるとする。この人物HMに対して追尾枠91が表示されている。追尾枠91はターゲットとした被写体に追従して、その被写体に重なるように表示されていくことになる。
本例では、フォーカス枠90と追尾枠91とは形状を異にしている。この形状の切り替わりタイミングは、例えば、AF操作(本例ではシャッターボタン110Sの半押し操作)が行われて被写体に対するフォーカスが完了した時点などとされる。
FIG. 7 shows a state in which tracking is being performed. For example, assume that AF is applied to a person HM based on the focus frame 90 in FIG. 6 and that the person HM is set as a tracking target.
Assume that at the time of FIG. 7, the person HM is located on the left side of the screen. A tracking frame 91 is displayed for this person HM. The tracking frame 91 follows the target object and is displayed so as to overlap the object.
In this example, the focus frame 90 and the tracking frame 91 have different shapes. The timing at which this shape changes is, for example, when an AF operation (in this example, a half-press operation of the shutter button 110S) is performed and focus on the subject is completed.

また図6,図7に示すように画面上には、撮像装置1のモードや動作状態などを示す各種のアイコンや文字/数字が表示される。
例えば画面下部にはISO感度71、露出値72、絞り値73、シャッタースピード74、合焦マーク75が表示される。
合焦マーク75はターゲットに対して合焦状態にあることを示すもので、図7において追尾対象にピントが合っている状態を示している。
Further, as shown in FIGS. 6 and 7, various icons and letters/numbers indicating the mode, operating state, etc. of the imaging device 1 are displayed on the screen.
For example, an ISO sensitivity 71, an exposure value 72, an aperture value 73, a shutter speed 74, and a focus mark 75 are displayed at the bottom of the screen.
The focus mark 75 indicates that the target is in focus, and FIG. 7 shows that the tracking target is in focus.

画面左側には、ファインダフレームレート76、シャッター方式77、フォーカスエリア78、フォーカスモード79、ドライブモード80、撮影モード81としての表示が行われる。
ファインダフレームレート76はビューファインダー102の表示画像のフレームレートを示すアイコンである。
シャッター方式77は、メカシャッター方式、電子シャッター方式、オートを示すアイコンである。図示しているのはオートであり、これは撮影状況やシャッタースピードに応じて、メカシャッター方式と電子シャッター方式が自動で切り換わるモードを示している。
On the left side of the screen, a finder frame rate 76, shutter method 77, focus area 78, focus mode 79, drive mode 80, and shooting mode 81 are displayed.
The finder frame rate 76 is an icon indicating the frame rate of the image displayed on the viewfinder 102.
The shutter method 77 is an icon indicating mechanical shutter method, electronic shutter method, and auto. The one shown is auto, which is a mode in which the mechanical shutter method and electronic shutter method are automatically switched depending on the shooting situation and shutter speed.

フォーカスエリア78は、フォーカス制御を行う領域としてフォーカスエリア設定を表すアイコンである。フォーカスエリア設定としては、「ワイド」「ゾーン」「中央」「フレキシブルスポット」などがある。
「ワイド」はスルー画としてのモニタ全体を基準に、自動ピント合わせをするフォーカスエリアモードである。
「ゾーン」はモニタ上でピントを合わせたいゾーンの位置を選ぶと、その中で自動でピントを合わせるフォーカスエリアモードである。
「中央」はモニタ中央付近の被写体に自動ピント合わせをするフォーカスエリアモードである。
「フレキシブルスポット」はモニタ上の好きなところにフォーカス枠を移動し、非常に小さな被写体や狭いエリアを狙ってピントを合わせるフォーカスエリアモードである。
The focus area 78 is an icon representing focus area setting as an area where focus control is performed. Focus area settings include "wide,""zone,""center," and "flexible spot."
"Wide" is a focus area mode that automatically focuses on the entire monitor as a through image.
"Zone" is a focus area mode that automatically focuses within a zone you select on the monitor.
"Center" is a focus area mode that automatically focuses on subjects near the center of the monitor.
"Flexible Spot" is a focus area mode that allows you to move the focus frame anywhere on the monitor and focus on very small objects or narrow areas.

なお、フォーカスエリア78のアイコンは、そのときのフォーカスエリア設定等に応じて切り換えられる。
図6,図7に示したフォーカスエリア78として表示するアイコンの画像例は説明上の例であって、これらの画像デザインに限定されない。
Note that the icon of the focus area 78 is switched depending on the focus area setting at that time.
The image examples of the icons displayed as the focus area 78 shown in FIGS. 6 and 7 are illustrative examples and are not limited to these image designs.

図6,図7のように表示されるフォーカスモード79は、AF動作モードを表すアイコンである。AF動作モードとしては、例えばシングルAF(AF-S)、コンティニアスAF(AF-C)としてのモードがある。
シングルAFは、シャッターボタン110Sを半押しするとオートフォーカスが働き、一度ピントが合うと、ピントがそこで固定されるモードである。
コンティニュアスAFは、シャッターボタン110Sを半押ししている間中、オートフォーカスが働き、被写体にピントを合わせ続けるモードである。図6,図7ではコンティニアスAFを示すアイコンが表示された例としている。
A focus mode 79 displayed as shown in FIGS. 6 and 7 is an icon representing an AF operation mode. The AF operation modes include, for example, single AF (AF-S) and continuous AF (AF-C).
Single AF is a mode in which autofocus is activated when the shutter button 110S is pressed halfway, and once the focus is achieved, the focus is fixed there.
Continuous AF is a mode in which autofocus works and continues to focus on the subject while the shutter button 110S is pressed halfway. 6 and 7 are examples in which an icon indicating continuous AF is displayed.

ドライブモード80は、1枚撮影、連写、ブラケット撮影などを示すアイコンである。
撮影モード81は、「プログラムオート」「絞り優先」「シャッタースピード優先」「マニュアル露出」「動画」「スロー/クイックモーション」などの撮影モードを示すアイコンである。
The drive mode 80 is an icon indicating single-shot shooting, continuous shooting, bracket shooting, etc.
The shooting mode 81 is an icon indicating a shooting mode such as "program auto,""aperturepriority,""shutter speed priority,""manualexposure,""video," and "slow/quick motion."

図6,図7において画面上部には、記憶メディア/枚数82、縦横比83、画像サイズ84、手ぶれ補正85、画質86、バッテリー残量87の表示が行われる。
記憶メディア/枚数82として記録メディアに保存したピクチャーの枚数や保存可能数などが表示される。
縦横比83により撮像画像の縦横比が表示される。
画像サイズ84により撮像画像のサイズが表示される。
手ぶれ補正85により手ぶれ補正機能のオン/オフやモードが表示される。
画質86により撮像画像の画質設定が表示される。
バッテリー残量87によりバッテリー残量が例えば絵柄とパーセント表示で示される。
In FIGS. 6 and 7, the number of storage media/sheets 82, aspect ratio 83, image size 84, image stabilization 85, image quality 86, and remaining battery power 87 are displayed at the top of the screen.
The number of pictures saved on the recording medium, the number of pictures that can be saved, etc. are displayed as the storage medium/number 82.
The aspect ratio 83 indicates the aspect ratio of the captured image.
Image size 84 displays the size of the captured image.
The image stabilization function 85 displays the on/off and mode of the image stabilization function.
Image quality 86 displays the image quality setting of the captured image.
The remaining battery amount 87 indicates the remaining battery amount using, for example, a picture and a percentage display.

ここまで表示部15に表示される各種アイコン等を例示したが、これ以外にも各種の情報を提示するためのアイコン、数字、文字、或いはグラフィックが表示され得る。
Although various icons and the like displayed on the display unit 15 have been exemplified so far, other icons, numbers, characters, or graphics for presenting various information may also be displayed.

<2.実施形態の動作説明>

以上の構成の撮像装置1において行われる、被写体の顔又は瞳にオートフォーカスするための動作例を説明する。
先ず、本例において、ユーザが撮像装置1に被写体の顔又は瞳にオートフォーカスさせる動作を実行させるために行うべき操作は、以下のように定められている。

1)メニューから顔又は瞳でAFする設定をONとする
2)メニューからAF動作モードの設定をコンティニアスAF(AF-C)に設定する
3)フォーカス枠90を所望の被写体(顔又は瞳の部分に限らない)に当てて、AF操作(本例ではシャッターボタン110Sの半押し操作)を行う
<2. Operation explanation of embodiment>

An example of the operation performed in the imaging device 1 having the above configuration for autofocusing on the face or eyes of a subject will be described.
First, in this example, the operation that the user should perform in order to cause the imaging device 1 to autofocus on the face or eyes of the subject is determined as follows.

1) Turn on the face or eye AF setting from the menu. 2) Set the AF operation mode setting to continuous AF (AF-C) from the menu. 3) Move the focus frame 90 to the desired subject (face or eye). AF operation (in this example, half-pressing the shutter button 110S)

図8から図12は、被写体の顔又は瞳にオートフォーカスする動作例を説明するための図である。
図8は、上記した1)及び2)の操作が行われた上で、所望の被写体として、撮像画像内に存在する人物HM1と人物HM2のうち手前側に位置する人物HM1を対象とした3)のAF操作が行われた状態における表示部15での表示例を示している。具体的に、この場合における3)のAF操作としては、フォーカス枠90を人物HM1の胴体部に当てた状態でのAF操作が行われたとする。
FIGS. 8 to 12 are diagrams for explaining an example of an operation for autofocusing on a subject's face or eyes.
In FIG. 8, after the above-mentioned operations 1) and 2) have been performed, the person HM1 located on the front side of the person HM1 and person HM2 existing in the captured image is selected as the desired subject. ) shows a display example on the display unit 15 in a state where the AF operation is performed. Specifically, it is assumed that in the AF operation 3) in this case, the AF operation is performed with the focus frame 90 in contact with the torso of the person HM1.

先ず前提として、本例では、1)の操作に応じて、顔・瞳検出部61が撮像画像内に存在する顔又は瞳の検出処理を開始する。この顔又は瞳の検出処理は、毎フレーム行われる。 First, as a premise, in this example, in response to the operation 1), the face/eye detection unit 61 starts detection processing of a face or eyes present in a captured image. This face or eye detection processing is performed every frame.

図8の状態では、人物HM1に対する胴体部を対象としてAFが行われる。また、コンティニアスAFの設定に応じて、該胴体部を追尾対象被写体とした追尾処理部62による被写体追尾が開始される。
このとき、表示部15の画面上では、該追尾の開始に伴い、フォーカス枠90は非表示状態となり、代わりに追尾枠91が表示される。以降、追尾枠91は、追尾処理部62による追尾位置に表示される(対象の被写体が動く場合は該被写体の動きに連動して追尾枠91も動く)。
In the state of FIG. 8, AF is performed targeting the torso of the person HM1. Further, in accordance with the continuous AF setting, subject tracking by the tracking processing unit 62 with the torso as the tracking target subject is started.
At this time, on the screen of the display unit 15, the focus frame 90 becomes non-displayed as the tracking starts, and a tracking frame 91 is displayed instead. Thereafter, the tracking frame 91 is displayed at the tracking position by the tracking processing unit 62 (if the target subject moves, the tracking frame 91 also moves in conjunction with the movement of the subject).

図8の状態では、人物HM1の顔が後を向いているため、上記した顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出とされる。一方、人物HM2は顔が前を向いているため、人物HM2の顔又は瞳が顔・瞳検出部61の検出処理で検出されている。
但し、本実施形態における顔・瞳判定処理では、後述する手法が採られることで、前を向く人物HM2の顔又は瞳が選択された人物HM1の顔又は瞳として誤判定されてしまうことの防止が図られている。
In the state of FIG. 8, since the face of the person HM1 is facing backward, the face or eyes of the person HM1 are not detected in the detection processing by the face/eye detection section 61 described above. On the other hand, since the face of the person HM2 is facing forward, the face or eyes of the person HM2 are detected by the detection process of the face/eye detection unit 61.
However, in the face/eye determination processing in this embodiment, the method described below is adopted to prevent the face or eyes of the person HM2 facing forward from being erroneously determined as the face or eyes of the selected person HM1. is planned.

図8の状態から、図9に示すように人物HM1の顔が前を向いたとする。
図9に示す状態では、顔・瞳検出部61の検出処理で人物HM1の顔又は瞳が検出され、検出された人物HM1の顔又は瞳にAFが行われる。
また、以降は、人物HM1の顔又は瞳が追尾されるべく、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。
Assume that the face of the person HM1 turns forward from the state shown in FIG. 8 as shown in FIG.
In the state shown in FIG. 9, the face or eyes of the person HM1 is detected by the detection process of the face/eye detection unit 61, and AF is performed on the detected face or eyes of the person HM1.
Further, from now on, in order to track the face or eyes of the person HM1, a process is performed in which the tracking processing unit 62 updates the subject position to be tracked to the position of the detected face or eyes of the person HM1.

このとき、AFや追尾の対象位置が人物HM1つまり選択された被写体の顔又は瞳位置となったことをユーザに通知するべく、本例では、図10に示すように、該選択された被写体の顔又は瞳位置に顔・瞳追尾枠92を表示すると共に、それまで表示していた追尾枠91を非表示とする。
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされ、追尾に係る情報の通知精度向上を図ることができる。
At this time, in order to notify the user that the AF or tracking target position is the face or eye position of the person HM1, that is, the selected subject, in this example, as shown in FIG. A face/eye tracking frame 92 is displayed at the face or pupil position, and the tracking frame 91 that had been displayed until then is hidden.
As a result, it is possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes, and it is possible to improve the accuracy of notification of information related to tracking.

ここで、図10から図11への遷移として示すように、人物HM1の顔が再度、後を向いてしまったとする。
この場合には、顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出となる。このように、選択された被写体の顔又は瞳が一度判定された後、判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾処理部62が追尾対象とする被写体位置を、それまで追尾対象としていた被写体位置のまま維持させる。つまり図の例では、人物HM1の頭部位置のまま維持させる。
またこの場合、AFについては、被写体追尾AFを行う。すなわち、追尾処理部62が追尾対象とする被写体位置にAFを行う。これにより、以降、人物HM1の顔が再び前を向くまでは、人物HM1の頭部が追尾されつつ、該頭部に対するAFが行われる。
Here, as shown in the transition from FIG. 10 to FIG. 11, it is assumed that the face of the person HM1 turns backward again.
In this case, the face or eyes of the person HM1 are not detected in the detection process of the face/eye detection section 61. In this way, once the face or eyes of the selected subject has been determined, if the determined face or eyes are no longer detected in the captured image, the tracking processing unit 62 changes the position of the subject to be tracked. The subject position that was being tracked until then is maintained. In other words, in the illustrated example, the head position of the person HM1 is maintained as it is.
Further, in this case, regarding AF, subject tracking AF is performed. That is, the tracking processing unit 62 performs AF on the subject position to be tracked. As a result, AF is performed on the head of the person HM1 while being tracked until the face of the person HM1 turns forward again.

また、図10から図11への遷移のように、選択した被写体の顔又は瞳が判定された後に該顔又は瞳が撮像画像内に検出されなくなった場合には、それまで該顔又は瞳の位置に表示していた顔・瞳追尾枠92を非表示として、代わりに追尾枠91を表示する。このとき、追尾枠91は、追尾処理部62が追尾対象としている被写体位置(つまり図の例では人物HM1の頭部)に表示する。
このように、判定した顔又は瞳が撮像画像内に検出されなくなったことに応じて画面上の追尾及びAFに係る枠表示の表示態様を変更することで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づくAFが不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能となり、追尾及びAFに係る情報の通知精度向上を図ることができる。
In addition, as in the transition from FIG. 10 to FIG. The face/eye tracking frame 92 displayed at the position is hidden and a tracking frame 91 is displayed instead. At this time, the tracking frame 91 is displayed at the position of the subject being tracked by the tracking processing unit 62 (that is, the head of the person HM1 in the illustrated example).
In this way, by changing the display mode of the frame display related to tracking and AF on the screen in response to the fact that the determined face or eyes are no longer detected in the captured image, the face or eyes of the selected subject can be changed. Although AF based on face or eye position information is no longer possible due to no longer being detected, it is possible to intuitively and clearly notify the user that face position (head position) tracking continues. Therefore, it is possible to improve the accuracy of notification of information related to tracking and AF.

図12は、図11の状態から、人物HM1の顔が再び前を向いた状態の画面例を示している。
この図12に示す状態では、人物HM1の顔又は瞳が顔・瞳検出部61により再び検出されるようになり、図9の場合と同様に、検出された人物HM1の顔又は瞳にAFが行われると共に、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。また、この場合も図9と同様に、それまで表示していた追尾枠91を非表示とし、追尾対象とされた顔又は瞳位置に顔・瞳追尾枠92を表示する。
FIG. 12 shows an example of the screen in which the face of the person HM1 turns forward again from the state shown in FIG. 11.
In the state shown in FIG. 12, the face or eyes of the person HM1 is again detected by the face/eye detection unit 61, and as in the case of FIG. At the same time, a process is performed in which the tracking processing unit 62 updates the subject position to be tracked to the position of the face or eyes of the detected person HM1. Also in this case, similarly to FIG. 9, the previously displayed tracking frame 91 is hidden, and the face/pupil tracking frame 92 is displayed at the face or pupil position that is the tracking target.

上記の一連の動作、特に図6から図10への遷移として説明した動作から理解されるように、本実施形態によれば、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
従って、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するための操作の容易化を図ることができる。
As can be understood from the above series of operations, especially the operation described as the transition from FIG. 6 to FIG. , there is no need for the user to directly select the subject's face or eyes.
Therefore, it is possible to simplify the operation for realizing autofocus based on the position of the subject's face or eyes.

なお、上記では、顔又は瞳へのAF対象とする被写体の選択操作がフォーカス枠90を当てた状態でのAF操作とされる例を挙げたが、該選択操作は、例えばタッチパネルにより画面上の被写体をタッチする操作とされてもよい。或いは、GUIカーソルを被写体の近くに重ねた上で、所定ボタンを押圧する等の操作とされてもよい。このとき、上記カーソルの移動操作は十字キーによるものであってもよいし、タッチ操作によるものであってもよい。
In addition, in the above example, the selection operation of the subject to be AFed to the face or eyes is an AF operation with the focus frame 90 applied, but the selection operation can be performed using, for example, a touch panel on the screen. The operation may be performed by touching the subject. Alternatively, the operation may be performed by placing the GUI cursor close to the subject and pressing a predetermined button. At this time, the cursor movement operation may be performed using a cross key or a touch operation.

<3.処理手順>

図13から図18を参照して、上記により説明した実施形態としての動作を実現するために実行されるべき処理例を説明する。
なお、以下のフローチャートにより示す処理は、カメラ制御部30が実行する処理であり、特に、本例においてこれらの処理は、カメラ制御部30が備えるCPUが例えばメモリ部31に格納されたプログラムに従って実行するソフトウェア処理として実現される。ただし、これらの処理の全て又は一部がハードウェアによる処理として実現されてもよい。
<3. Processing procedure>

With reference to FIGS. 13 to 18, an example of processing to be executed to realize the operation of the embodiment described above will be described.
Note that the processes shown in the flowcharts below are processes executed by the camera control unit 30, and in particular, in this example, these processes are executed by a CPU included in the camera control unit 30 according to a program stored in the memory unit 31, for example. This is realized as software processing. However, all or part of these processes may be implemented as hardware processes.

ここで、以下の説明では便宜上、顔と瞳は区別せずに纏めて顔として扱う。
勿論、顔と瞳を別々に扱うものとし、顔と瞳のうち顔のみが検出できていれば顔位置にAFや追尾対象の被写体位置を更新し、瞳が検出できていれば瞳位置にAFや追尾対象の被写体位置を更新するということもできる。
Here, in the following explanation, for convenience, the face and the eyes are treated collectively as a face without distinguishing them.
Of course, we will treat the face and eyes separately, and if only the face can be detected, AF will be updated to the face position and the tracking target subject position will be updated, and if the eyes can be detected, AF will be updated to the eye position. It is also possible to update the position of the subject to be tracked.

図13は、被写体の顔又は瞳へのAF制御を実現するためのメイン処理を例示したフローチャートである。なお、図13に示す処理は、本例では、前述した1)及び2)の設定が行われたことに応じて開始される。 FIG. 13 is a flowchart illustrating main processing for realizing AF control on the face or eyes of a subject. Note that, in this example, the process shown in FIG. 13 is started in response to the above-mentioned settings 1) and 2) being performed.

先ず、カメラ制御部30はステップS101で、被写体位置が選択されるまで待機する。すなわち、前述の3)の操作としてのAF操作が実行されるまで待機する。
AF操作が行われて被写体位置が選択されたと判定した場合、カメラ制御部30はステップS102で選択位置を追尾対象の被写体位置として初期化する。すなわち、ステップS101のAF操作が行われた時点でフォーカス枠90と重複している位置を追尾対象の被写体位置として初期化する。
First, in step S101, the camera control unit 30 waits until a subject position is selected. That is, it waits until the AF operation as the operation 3) above is executed.
If it is determined that the AF operation has been performed and the subject position has been selected, the camera control unit 30 initializes the selected position as the subject position to be tracked in step S102. That is, the position overlapping the focus frame 90 at the time when the AF operation in step S101 is performed is initialized as the position of the subject to be tracked.

ステップS102に続くステップS103でカメラ制御部30は、被写体顔判定処理を実行する。この被写体顔判定処理は、追尾対象の被写体位置に対応する顔を判定する処理である。具体的に本例では、毎フレーム行われる顔検出処理で撮像画像内から検出される顔のうちから、追尾対象の被写体位置に対応する顔を判定する処理となる。
ここで、このステップS103の顔判定処理を含むステップS110までの処理は、後述するステップS111の1フレーム待機処理が設けられることで、撮像画像のフレーム毎に実行されることになる。
In step S103 following step S102, the camera control unit 30 executes subject face determination processing. This subject face determination process is a process for determining the face corresponding to the position of the subject to be tracked. Specifically, in this example, the process is to determine the face corresponding to the position of the subject to be tracked from among the faces detected in the captured image in the face detection process performed every frame.
Here, the processes up to step S110 including the face determination process of step S103 are executed for each frame of the captured image by providing a one-frame standby process of step S111, which will be described later.

図14のフローチャートを参照し、ステップS103の被写体顔判定処理の例を説明する。
図14において、先ず、カメラ制御部30は図中のLP1、LP2で表すループ処理により、ステップS201の被写体顔候補判定処理を画像内の全ての顔について繰り返し実行する。
An example of the subject face determination process in step S103 will be described with reference to the flowchart in FIG. 14.
In FIG. 14, first, the camera control unit 30 repeatedly executes the subject face candidate determination process in step S201 for all faces in the image by loop processing indicated by LP1 and LP2 in the figure.

図15のフローチャートは、ステップS201の被写体顔候補判定処理の第一例としての処理を示している。
図15において、カメラ制御部30はステップS210で、顔検出枠Ffから顔紐づけ範囲枠Frを設定する。
ここで、顔検出枠Ffは、撮像画像内から検出した顔の範囲を表す枠として設定した枠であり、複数の顔が検出された場合は顔ごとに設定される。
顔紐づけ範囲枠Frは、顔検出枠Ffに基づいて設定される枠であり、該顔検出枠Ffが表す顔が、選択された被写体位置に対応する顔であると仮定した場合に、該選択された被写体位置が含まれると予想される範囲を規定した枠である。すなわち、選択された被写体位置が、この顔紐づけ範囲枠Fr内の位置であれば、顔検出枠Ffの表す顔が、選択された被写体の顔である可能性が高いと推定できるものである。
The flowchart in FIG. 15 shows a first example of the subject face candidate determination process in step S201.
In FIG. 15, the camera control unit 30 sets a face association range frame Fr from the face detection frame Ff in step S210.
Here, the face detection frame Ff is a frame set as a frame representing the range of faces detected from within the captured image, and is set for each face when a plurality of faces are detected.
The face association range frame Fr is a frame that is set based on the face detection frame Ff, and when it is assumed that the face represented by the face detection frame Ff is the face corresponding to the selected subject position, This is a frame that defines a range that is expected to include the selected subject position. That is, if the selected subject position is within this face association range frame Fr, it can be estimated that the face represented by the face detection frame Ff is highly likely to be the face of the selected subject. .

図16は、顔検出枠Ffと顔紐づけ範囲枠Frとの関係を例示した図である。
本例では、顔検出枠Ff、顔紐づけ範囲枠Frはそれぞれ矩形状の枠とされる。そして、顔紐づけ範囲枠Frは、顔検出枠Ffに基づき幾何学的に設定される。
具体的に、カメラ制御部30は、顔紐づけ範囲枠Frの位置については、顔検出枠FfのX方向(水平方向)及びY方向(垂直方向)の位置に基づいて設定するものとし、例えば図示のように、X方向の位置は、顔紐づけ範囲枠FrのX方向中心が顔検出枠FfのX方向中心と一致する位置とし、Y方向の位置は、顔検出枠Ffと上辺同士が一致する位置として設定する。
また、カメラ制御部30は、顔紐づけ範囲枠Frのサイズについては、X方向の辺の長さを顔検出枠FfのX方向の辺の長さに応じた長さに設定し、Y方向の辺の長さを顔検出枠FfのY方向の辺の長さに応じた長さに設定する。例えば、X方向の辺の長さは、顔検出枠FfのX方向の辺の長さの2倍に設定し、Y方向の辺の長さは、顔検出枠FfのY方向の辺の長さの3倍に設定する。
FIG. 16 is a diagram illustrating the relationship between the face detection frame Ff and the face association range frame Fr.
In this example, the face detection frame Ff and the face association range frame Fr are each rectangular frames. The face association range frame Fr is set geometrically based on the face detection frame Ff.
Specifically, the camera control unit 30 sets the position of the face association range frame Fr based on the position of the face detection frame Ff in the X direction (horizontal direction) and the Y direction (vertical direction), for example. As shown in the figure, the position in the X direction is such that the center of the face association range frame Fr in the X direction matches the center of the face detection frame Ff in the X direction, and the position in the Y direction is such that the upper sides of the face detection frame Ff and Set as matching position.
Regarding the size of the face association range frame Fr, the camera control unit 30 sets the length of the side in the X direction to a length corresponding to the length of the side in the X direction of the face detection frame Ff, and The length of the side is set to correspond to the length of the side of the face detection frame Ff in the Y direction. For example, the length of the side in the X direction is set to twice the length of the side in the X direction of the face detection frame Ff, and the length of the side in the Y direction is set to the length of the side in the Y direction of the face detection frame Ff. Set it to 3 times the size.

なお、顔紐づけ範囲枠Frの設定について、上記はあくまで一例を示したものに過ぎない。また、顔紐づけ範囲枠Frについては、撮像装置1を横向きに構えた場合と縦向きに構えた場合とで位置やサイズの設定手法を異ならせることもできる。 Note that the above setting of the face association range frame Fr is merely an example. Further, regarding the face association range frame Fr, the position and size setting method may be different depending on when the imaging device 1 is held horizontally and when it is held vertically.

説明を図15に戻す。
カメラ制御部30は、ステップS210の顔紐づけ範囲枠Frの設定処理を実行したことに応じ、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在するか否かを判定する。被写体位置が顔紐づけ範囲枠Fr内に存在していれば、カメラ制御部30はステップS212に進み、被写体位置(本例では追尾対象の被写体位置)のDF(デフォーカス量)と顔検出枠FfのDFが近いか否かを判定する。具体的には、被写体位置のDFと顔検出枠FfのDFとの差が所定閾値以下であるか否かを判定する。ここでのDFの情報としては、AF測距部51で得られるDFの情報を用いる。
なお、DFの情報は、撮像素子12(イメージセンサ)に埋め込まれた像面位相差センサーの検出信号に基づき得るものとしてもよいし、撮像素子12とは異なる箇所に設置された別体位相差センサーによる検出信号に基づき得るものとしてもよい。
The explanation returns to FIG. 15.
The camera control unit 30 determines in step S211 whether the subject position exists within the face associating range frame Fr in response to the execution of the face associating range frame Fr setting process in step S210. If the subject position exists within the face association range frame Fr, the camera control unit 30 proceeds to step S212, and determines the DF (defocus amount) of the subject position (in this example, the tracking target subject position) and the face detection frame. It is determined whether the DF of Ff is close. Specifically, it is determined whether the difference between the DF of the subject position and the DF of the face detection frame Ff is less than or equal to a predetermined threshold. As the DF information here, DF information obtained by the AF ranging section 51 is used.
Note that the DF information may be obtained based on a detection signal of an image plane phase difference sensor embedded in the image sensor 12 (image sensor), or a separate phase difference sensor installed at a location different from the image sensor 12. It may be based on a detection signal obtained by

ステップS212において、被写体位置のDFと顔検出枠FfのDFとが近いと判定した場合、カメラ制御部30はステップS213に進み、被写体顔候補と判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補であると判定し、被写体顔候補判定処理を終える。 If it is determined in step S212 that the DF of the subject position is close to the DF of the face detection frame Ff, the camera control unit 30 proceeds to step S213, determines that the subject face is a candidate, and ends the subject face candidate determination process of step S201. . That is, among the faces detected in the captured image, the face to be processed is determined to be the subject face candidate, and the subject face candidate determination process is ended.

このように本例では、処理対象とした顔に対し被写体位置が所定の位置関係条件(本例では画像平面方向における位置と奥行き方向における位置の条件)を満たす場合には、処理対象とした顔が被写体の顔候補として判定される。 In this way, in this example, if the subject position with respect to the face to be processed satisfies the predetermined positional relationship conditions (in this example, the conditions for the position in the image plane direction and the position in the depth direction), the face to be processed is is determined as a candidate for the subject's face.

一方、カメラ制御部30は、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在しないと判定した場合と、ステップS212で被写体位置のDFと顔検出枠FfのDFとが近くないと判定した場合には、それぞれステップS214に処理を進めて被写体顔候補でないと判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補でないと判定し、被写体顔候補判定処理を終える。 On the other hand, when the camera control unit 30 determines in step S211 that the subject position does not exist within the face association range frame Fr, and in step S212, the camera control unit 30 determines that the DF of the subject position and the DF of the face detection frame Ff are not close. If so, the process advances to step S214, where it is determined that the subject face is not a candidate, and the subject face candidate determination process of step S201 ends. That is, it is determined that the face targeted for processing among the faces detected in the captured image is not a subject face candidate, and the subject face candidate determination process is ended.

なお、顔紐づけ範囲枠Frについては、画像認識によって人体部位を認識することで形成しても良い。ただし、一般的に画像認識で人体部位を認識するのは大きな計算リソースが必要だったり、精度が不十分で安定しなかったりする傾向があるので、図16の例のように顔検出結果から幾何学的に求めたほうがより実用的である。 Note that the face association range frame Fr may be formed by recognizing human body parts through image recognition. However, generally, recognizing human body parts using image recognition requires large computational resources and tends to be unstable due to insufficient accuracy. It is more practical to seek it scientifically.

また、被写体位置と顔検出枠Ffの奥行き情報としてはDFの情報に限定されない。例えば、奥行き情報は、レンズを微小にシフトさせた際に生じるデフォーカスの違いから推定する、いわゆるDepth From Defocusを用いて取得しても良い。或いは、奥行き情報は、Deep Learningに代表される画像処理技術を用いて推定しても良いし、二以上の撮像部による撮像画像を用いたステレオマッチングによって算出しても良い。さらには、奥行き情報は、動体視差を用いて算出することもできる。なお、動体視差とは、近いものほど速く動き、遠くのものほど遅く動くように見えることを意味し、この速さの違いにより遠近を把握することが可能なものである。
或いは、被写体位置の奥行き情報は、レンズのピント位置の情報から取得し、顔の奥行き情報は顔の撮像面上のサイズと平均的な人間の顔のサイズから算出して推定してもよい。
このとき、平均的な顔のサイズに代えて、顔の実寸を手動で設定した値を用いてもよい。動物の場合は、動物の種別を設定して、その動物の平均的なサイズを用いてもよい。
Further, the depth information of the subject position and the face detection frame Ff is not limited to the DF information. For example, depth information may be acquired using so-called Depth From Defocus, which is estimated from the difference in defocus that occurs when the lens is slightly shifted. Alternatively, the depth information may be estimated using an image processing technique such as deep learning, or may be calculated by stereo matching using images captured by two or more imaging units. Furthermore, depth information can also be calculated using dynamic object parallax. Note that dynamic parallax means that objects that are closer appear to move faster and objects that are farther away appear to move slower, and it is possible to grasp distance from near and far from this difference in speed.
Alternatively, the depth information of the subject position may be acquired from the information of the focus position of the lens, and the depth information of the face may be calculated and estimated from the size of the face on the imaging plane and the size of an average human face.
At this time, instead of the average face size, a manually set value of the actual size of the face may be used. In the case of animals, the type of animal may be set and the average size of the animal may be used.

図17のフローチャートは、ステップS201の被写体顔候補判定処理の第二例としての処理を示している。
ここで、スポーツの撮影などでは、図18の上段に示すように被写体が激しい姿勢をとるため、必ずしも体の真上付近に顔があるとは限らない。図18の上段の例では、白抜きで示した人物HM1がAFの対象としたい人物、梨地で示した人物HM2がAFの対象としたくない人物とされる。この場合において、図18の下段に示すように、人物HM1と人物HM2が交差するタイミングでAFの対象としたい人物HM1にフォーカス枠90を当ててAF操作が行われたとする。このとき、図15の第一例の処理のように位置関係のみに基づく顔候補判定を行った場合には、AFの対象としたくない人物HM2の顔に追尾やAFが行われてしまう虞がある。
The flowchart in FIG. 17 shows a second example of the subject face candidate determination process in step S201.
Here, in sports photography, etc., the subject takes a violent posture as shown in the upper row of FIG. 18, so the face is not always directly above the body. In the example in the upper part of FIG. 18, a person HM1 shown in white is a person who is desired to be targeted for AF, and a person HM2 shown in a matte background is a person who is not desired to be targeted for AF. In this case, as shown in the lower part of FIG. 18, it is assumed that the AF operation is performed by placing the focus frame 90 on the person HM1 to be the AF target at the timing when the person HM1 and the person HM2 intersect. At this time, if face candidate determination is performed based only on positional relationships as in the process of the first example in FIG. be.

そこで、ステップS201の被写体顔候補判定処理としては、図17に示すような第二例としての処理を実行することもできる。
図15の第一例との差異点は、顔候補と判定するための条件として、ステップS211及びS212の条件以外に、ステップS220の条件が追加された点である。具体的に、ステップS220においてカメラ制御部30は、被写体の動きと顔検出枠Ffの動きが近いか否かを判定する。具体的に、このステップS220の処理では、過去数フレームの顔のX,Y,Z方向(Z方向は奥行き方向:XY平面に垂直な方向)の動きと、追尾対象としている被写体のX,Y,Z方向の動きを比較し、その軌跡が類似しているかどうかを判定する。Z方向の動きに関しては、前述したDFの情報を用いることができる。
なお、ステップS220の判定処理に関して、顔や被写体の動きとしては、X,Y,Z全ての方向の動きではではなく、一部の方向のみの動きを用いるようにしてもよい。
軌跡が類似しているか否かの判定は、例えば近づいているか遠ざかっているかの2値のようなラフな判定でも良い。逆方向に動いている顔を除外できるだけでもユーザメリットは大きいと考えられる。
Therefore, as the subject face candidate determination process in step S201, a second example of the process shown in FIG. 17 may be executed.
The difference from the first example in FIG. 15 is that, in addition to the conditions in steps S211 and S212, the condition in step S220 is added as a condition for determining a face candidate. Specifically, in step S220, the camera control unit 30 determines whether the movement of the subject and the movement of the face detection frame Ff are close to each other. Specifically, in the process of step S220, the movement of the face in the X, Y, and Z directions (the Z direction is the depth direction: the direction perpendicular to the XY plane) in the past few frames and the X, Y directions of the subject to be tracked are , and the Z-direction movements to determine whether their trajectories are similar. Regarding the movement in the Z direction, the above-mentioned DF information can be used.
Note that in the determination process of step S220, the movement of the face or subject may not be in all of the X, Y, and Z directions, but may be in only some directions.
The determination as to whether or not the trajectories are similar may be a rough determination, such as a binary determination of whether the trajectories are approaching or receding. Even being able to exclude faces that are moving in the opposite direction is considered to be of great benefit to the user.

図示のように、ステップS211、S212、S220の全ての判定処理において肯定結果が得られた場合、すなわち、被写体位置が顔紐づけ範囲枠Fr内に存在し、且つ被写体位置と顔検出枠FfのDFが近く、且つ被写体と顔検出枠Ffの動きが近いと判定された場合には、カメラ制御部30はステップS213で被写体顔候補と判定する処理を行う。
一方、ステップS211、S212、S220の何れかの判定処理で否定結果が得られた場合、カメラ制御部30はステップS214で被写体顔候補でないと判定する処理を行う。
As shown in the figure, if a positive result is obtained in all the determination processes in steps S211, S212, and S220, that is, the subject position exists within the face association range frame Fr, and the distance between the subject position and the face detection frame Ff is If it is determined that the DF is close and the movement of the subject and the face detection frame Ff is close, the camera control unit 30 performs a process of determining the subject face candidate in step S213.
On the other hand, if a negative result is obtained in any one of the determination processes in steps S211, S212, and S220, the camera control unit 30 performs a process in step S214 to determine that the face of the subject is not a candidate.

第二例においてもカメラ制御部30は、ステップS213、S214の何れかの処理を実行したことに応じステップS201の被写体顔候補判定処理を終える。 In the second example as well, the camera control unit 30 finishes the subject face candidate determination process in step S201 in response to executing the process in either step S213 or S214.

説明を図14に戻す。
カメラ制御部30は、上記した第一例や第二例としての被写体顔候補判定処理を画像内の全ての顔について実行したことに応じ、処理をステップS202に進める。
ステップS202でカメラ制御部30は、被写体顔候補が存在するか否かを判定する。
ステップS202において、被写体顔候補が存在すると判定した場合、カメラ制御部30はステップS203に進み、追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定して、ステップS104の被写体顔判定処理を終える。
一方、被写体顔候補が存在しないと判定した場合、カメラ制御部30はステップS204に進み、被写体顔が存在しないと判定して、ステップS104の被写体顔判定処理を終える。
The explanation returns to FIG. 14.
The camera control unit 30 advances the process to step S202 in response to having performed the subject face candidate determination process as the first example or the second example described above for all faces in the image.
In step S202, the camera control unit 30 determines whether a subject face candidate exists.
If it is determined in step S202 that there is a subject face candidate, the camera control unit 30 proceeds to step S203, determines the subject face candidate closest to the tracking target subject position as the subject face, and performs the subject face determination process in step S104. finish.
On the other hand, if it is determined that the subject face candidate does not exist, the camera control unit 30 proceeds to step S204, determines that the subject face does not exist, and ends the subject face determination process of step S104.

図13において、ステップS103の被写体顔判定処理を終えると、カメラ制御部30はステップS104に処理を進めて被写体顔が存在するか否かを判定する。
被写体顔が存在する場合、カメラ制御部30はステップS105に進んで被写体顔でAFを行うと共に、続くステップS106で顔位置を被写体位置として更新する処理を行う。
ここで、ステップS105の処理は、図5に示したAF制御部52としての機能により、被写体顔を対象としたAFが行われるように制御する処理となる。また、ステップS106の処理は、追尾処理部62で追尾対象とする被写体位置を、被写体顔の位置に更新する処理となる。
In FIG. 13, after completing the subject face determination process in step S103, the camera control unit 30 advances the process to step S104 and determines whether or not the subject's face exists.
If the subject's face is present, the camera control unit 30 proceeds to step S105 to perform AF on the subject's face, and in subsequent step S106 performs processing to update the face position as the subject's position.
Here, the process of step S105 is a process of controlling the AF control unit 52 shown in FIG. 5 to perform AF on the subject's face. Further, the process of step S106 is a process of updating the subject position to be tracked by the tracking processing unit 62 to the position of the subject's face.

ステップS106に続くステップS107でカメラ制御部30は、顔・瞳枠表示処理を実行する。すなわち、表示部15の画面上における枠表示に関して、それまで表示されていた追尾枠91を非表示とし、被写体顔の位置に顔・瞳追尾枠92を表示するための処理を実行する。
これにより、先の図9から図10の遷移として説明したような、被写体顔が判定されたことに応じた枠表示切り換えが実現される。
ステップS107の表示処理を実行したことに応じ、カメラ制御部30はステップS111の1フレーム待機処理を実行し、ステップS103の被写体顔判定処理に戻る。
In step S107 following step S106, the camera control unit 30 executes face/pupil frame display processing. That is, regarding frame display on the screen of the display unit 15, processing is executed to hide the tracking frame 91 that had been displayed up to that point and to display the face/eye tracking frame 92 at the position of the subject's face.
As a result, the frame display can be switched in response to the determination of the subject's face, as described above as the transition from FIG. 9 to FIG. 10.
In response to executing the display process in step S107, the camera control unit 30 executes a one-frame standby process in step S111, and returns to the subject face determination process in step S103.

一方、ステップS104で被写体顔が存在しないと判定した場合、カメラ制御部30はステップS108に進み、被写体追尾AFを行う。具体的には、追尾対象の被写体の位置にAFを行うための処理を行う。
そして、続くステップS109でカメラ制御部30は、被写体追尾結果を被写体位置として更新する処理を行う。すなわち、被写体追尾処理により特定した位置を、追尾対象の被写体位置として更新するものである。
On the other hand, if it is determined in step S104 that the subject's face does not exist, the camera control unit 30 proceeds to step S108 and performs subject tracking AF. Specifically, processing is performed to perform AF on the position of the subject to be tracked.
Then, in the subsequent step S109, the camera control unit 30 performs a process of updating the subject tracking result as the subject position. That is, the position specified by the subject tracking process is updated as the subject position to be tracked.

ここで、追尾対象の被写体位置は、ステップS102、ステップS106、又はステップS109で設定(更新)される。仮に、ステップS101で被写体が選択された以降、ステップS104の判定処理で被写体顔が存在するとの判定結果が一度も得られていない状況では、追尾対象の被写体位置は、ステップS101で選択された位置の追尾結果としての位置となる(つまり被写体の胴体部が選択された場合には胴体部の追尾結果としての位置となる)。
また、仮に、ステップS109の処理が、一度、ステップS104の判定処理で被写体顔が存在すると判定され、それ以降のフレームについて行われたステップS104の判定処理で被写体顔が存在しないと判定されたことに応じて実行される場合、追尾対象の被写体位置は、ステップS106で設定された顔位置の追尾結果としての位置となる。この場合のステップS109の処理では、顔位置の追尾結果を、追尾対象の被写体位置として更新する処理が行われることになる。このため、先の図10から図11の遷移として示したように、一度判定された被写体の顔が後を向いて検出されなくなった場合には、該被写体の頭部が追尾されるようになる(つまり選択した胴体部に追尾の対象が切り替わらない)。
Here, the subject position to be tracked is set (updated) in step S102, step S106, or step S109. If, after the subject is selected in step S101, the determination process in step S104 has never determined that the subject's face exists, the position of the subject to be tracked will be the position selected in step S101. (In other words, if the torso of the subject is selected, this is the position as the tracking result of the torso).
Furthermore, if the process in step S109 is performed once, it is determined that the subject's face exists in the determination process in step S104, and then it is determined that the subject's face does not exist in the determination process in step S104 performed for subsequent frames. When executed in accordance with , the subject position to be tracked becomes the position as a result of tracking the face position set in step S106. In the process of step S109 in this case, the process of updating the face position tracking result as the subject position of the tracking target is performed. Therefore, as shown in the transition from FIG. 10 to FIG. 11 above, if the face of the subject that has been determined turns backward and is no longer detected, the head of the subject will be tracked. (In other words, the tracking target does not switch to the selected body part).

ステップS109に続くステップS110でカメラ制御部30は、追尾枠表示処理を実行する。すなわち、表示部15の画面上での枠表示として、追尾枠91を表示させる処理を実行する。これにより、ステップS101で被写体が選択された以降、ステップS104で被写体顔が存在するとの判定結果が未だ得られていない状態では、表示部15の画面上での枠表示として、追尾枠91が表示され続ける。また、ステップS104で被写体顔が存在するとの判定結果が得られた以降、該ステップS104で被写体顔が存在しないと判定された場合において、追尾枠91が表示されることになる(図10から図11への遷移を参照)。すなわち、図10から図11への遷移として示したような、顔・瞳追尾枠92から追尾枠91への枠表示切り換えが実現される。 In step S110 following step S109, the camera control unit 30 executes tracking frame display processing. That is, a process of displaying the tracking frame 91 as a frame display on the screen of the display unit 15 is executed. As a result, after the subject is selected in step S101, the tracking frame 91 is displayed as a frame display on the screen of the display unit 15 in a state where the determination result that the subject's face exists has not yet been obtained in step S104. continues to be. Furthermore, after the determination result that the subject's face exists is obtained in step S104, the tracking frame 91 will be displayed if it is determined that the subject's face does not exist in step S104 (see FIG. 10). (see transition to 11). That is, frame display switching from the face/eye tracking frame 92 to the tracking frame 91 as shown in the transition from FIG. 10 to FIG. 11 is realized.

カメラ制御部30は、ステップS110の追尾枠表示処理を実行したことに応じ、ステップS111の1フレーム待機処理に処理を進める。 In response to executing the tracking frame display process in step S110, the camera control unit 30 advances the process to one frame standby process in step S111.

なお、フォーカス枠90、追尾枠91、顔・瞳追尾枠92については、枠形状による表示に限定されず、他の形状を採用することもでき、AFや追尾の対象とされている位置を示すことが可能な何らかの視覚情報を表示すればよい。 Note that the focus frame 90, the tracking frame 91, and the face/eye tracking frame 92 are not limited to display in the frame shape, but can also adopt other shapes, and indicate the position targeted for AF or tracking. Any visual information that can be displayed may be displayed.

また、AFや追尾の対象位置を示す情報の表示に関しては、次のような手法を採ることもできる。すなわち、選択された被写体について人体部位の解析処理を行う場合において、被写体の選択後、何れの部位も非検出である状態では被写体位置に追尾枠91を表示し、胴体部が検出されたことに応じて該胴体の範囲を表す胴体枠を表示し、さらに顔が検出されたことに応じて該顔の範囲を示す顔枠を表示し、また瞳が検出されたことに応じて該瞳の範囲を表す瞳枠を表示する、などといった手法である。
なお、AFや追尾の対象とされている位置を示すための視覚情報を表示することは必須ではない。
Further, regarding the display of information indicating the target position of AF or tracking, the following method may be adopted. In other words, when performing human body part analysis processing on a selected subject, if no body part is detected after selecting the subject, the tracking frame 91 is displayed at the subject position, and the tracking frame 91 is displayed when the body part is detected. If a face is detected, a face frame representing the range of the face is displayed, and if the pupil is detected, a face frame representing the range of the pupil is displayed. This method includes displaying a pupil frame representing the pupil frame.
Note that it is not essential to display visual information to indicate the position targeted for AF or tracking.

<4.変形例>

ここで、図19に示すような、母親としての人物HMmがその子どもとしての人物HMcを抱いているシーンを考える。このときユーザは、母親ではなく子どもを撮影したいと考えているとする。この場合には、ユーザは、図示のように子どもの胴体部などの比較的面積大きい部分にフォーカス枠90を当てた状態でAF操作を行うことが想定され得る。
図19に示すシーンにおいて、母親と子どもの両方の顔が検出されているときには、子どもの顔の方がユーザの選択した位置に対してより近いため、子どもの顔に正しく追尾をかけたりAFを行うことができる。
<4. Modified example>

Here, consider a scene as shown in FIG. 19 in which a person HMm as a mother is holding a person HMc as a child. At this time, it is assumed that the user wants to photograph the child rather than the mother. In this case, it can be assumed that the user performs the AF operation while placing the focus frame 90 on a relatively large area such as the child's torso as shown in the figure.
In the scene shown in Figure 19, when both the mother's and child's faces are detected, the child's face is closer to the user's selected position, so the child's face cannot be tracked correctly or AF can be performed. It can be carried out.

しかしながら、その後、子どもが暴れる等してその顔が非検出状態になったとする(図20参照)。この状態では、画像内に存在する顔が母親の顔のみとなり、且つ、母親の顔は被写体顔候補の条件を満たす可能性が高いため、追尾対象が母親の顔に切り替えられ、且つ母親の顔にAFが行われてしまう虞がある。
以下では、このような事態への対応策としての第一、第二、及び第三変形例について述べる。
なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号や同一ステップ番号を付して説明を省略する。
However, it is assumed that after that, the child becomes violent or the like and the face becomes undetected (see FIG. 20). In this state, the only face present in the image is the mother's face, and since the mother's face is highly likely to satisfy the conditions for the subject face candidate, the tracking target is switched to the mother's face, and the mother's face is There is a risk that AF may be performed.
Below, the first, second, and third variations as countermeasures for such situations will be described.
In the following description, parts that are similar to parts that have already been explained are given the same reference numerals and step numbers, and the description thereof will be omitted.

第一変形例は、非被写体顔の導入による対策である。
図21は、第一変形例としての被写体顔判定処理(S103)のフローチャートである。
第一変形例としての被写体顔判定処理では、選択された被写体の顔を一度判定した以降は、該被写体の顔と判定しなかった全ての顔を判定対象から除外する。
具体的に、この場合のカメラ制御部30は、先ずステップS301で、検出済フラグがONであるか否かを判定する。この検出済フラグは、後述するステップS302の処理で、被写体顔が判定されたことに応じてONとされるフラグであり、初期値はOFFである。つまり検出済フラグは、ステップS101で被写体が選択された後、一度でもステップS203の処理が行われたか否か(選択された被写体の顔が一度でも判定されたか否か)を表すフラグとなる。
The first modification is a measure by introducing a non-subject face.
FIG. 21 is a flowchart of subject face determination processing (S103) as a first modification.
In the subject face determination process as the first modification, after the face of the selected subject has been determined once, all faces that have not been determined to be the face of the selected subject are excluded from the determination targets.
Specifically, the camera control unit 30 in this case first determines whether the detected flag is ON in step S301. This detected flag is a flag that is turned ON in response to determination of the subject's face in the process of step S302, which will be described later, and its initial value is OFF. In other words, the detected flag is a flag indicating whether the process of step S203 has been performed at least once after the subject is selected at step S101 (whether the face of the selected subject has been determined at least once).

ステップS101の被写体の選択後に未だステップS203の処理が実行されておらず、検出済フラグがONでないと判定した場合、カメラ制御部30は図中のLP1、LP2のループ処理に進み、画像内の全ての顔についてステップS201の処理を繰り返し実行する。その後、ステップS202で被写体顔候補が存在するとの肯定結果が得られ、ステップS203の判定処理が実行されたことに応じ、カメラ制御部30は、ステップS302で検出済フラグをONとした上で、ステップS303で被写体顔以外の全ての顔を非被写体顔として設定する処理を行い、ステップS103の被写体顔判定処理を終える。 If it is determined that the process of step S203 has not been executed yet after the selection of the subject in step S101 and the detected flag is not ON, the camera control unit 30 proceeds to the loop process of LP1 and LP2 in the figure, and The process of step S201 is repeatedly executed for all faces. Thereafter, in response to an affirmative result indicating that a subject face candidate exists in step S202 and the determination process in step S203 being executed, the camera control unit 30 turns on the detected flag in step S302, and then In step S303, all faces other than the subject face are set as non-subject faces, and the subject face determination process in step S103 is completed.

以降のフレームにおいては、ステップS301の判定処理で、検出済フラグがONであるとの肯定結果が得られる。
ステップS301で肯定結果が得られた場合、カメラ制御部30は図中のLP1’、LP2’のループ処理に進んで、画像内の非被写体顔以外の顔について、ステップS201の被写体顔候補判定処理を繰り返し実行する。
その後、カメラ制御部30はステップS202’に進んで被写体顔候補が存在するか否かを判定し、被写体顔候補が存在する場合はステップS203’で追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定する処理を行ってステップS103の被写体顔判定処理を終える。一方、被写体顔候補が存在しない場合はステップS204’で被写体顔が存在しないと判定する処理を行ってステップS103の被写体顔判定処理を終える。
In subsequent frames, an affirmative result that the detected flag is ON is obtained in the determination process of step S301.
If a positive result is obtained in step S301, the camera control unit 30 proceeds to the loop processing of LP1' and LP2' in the figure, and performs the subject face candidate determination process of step S201 for faces other than non-subject faces in the image. Execute repeatedly.
Thereafter, the camera control unit 30 proceeds to step S202' and determines whether or not a subject face candidate exists. If a subject face candidate exists, the camera control unit 30 proceeds to step S203' to select a subject face candidate closest to the subject position to be tracked. A process of determining the subject's face is performed, and the subject face determining process of step S103 is completed. On the other hand, if the subject face candidate does not exist, a process is performed in step S204' to determine that the subject face does not exist, and the subject face determination process in step S103 ends.

このような第一変形例としての処理により、一度でも被写体顔を判定した以降、被写体顔をロストした場合に行われる被写体判定において、選択された被写体の顔以外の顔が誤って判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
Due to this process in the first modification, faces other than the selected subject's face will be incorrectly determined in the subject determination performed when the subject's face is lost after the subject's face has been determined even once. This will help prevent this.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

続いて、第二変形例について説明する。
第二変形例は、顔紐づけ範囲枠Frの変更による対策である。
図22は、人物HMm、人物HMcそれぞれについての通常の顔紐づけ範囲枠Frを例示した図であり、図23は、人物HMm、人物HMcそれぞれについての変更後の顔紐づけ範囲枠Frを例示した図である。
第二変形例では、一度被写体顔が判定されたら、顔紐づけ範囲枠Frを狭めることで、その後に被写体顔を検出できない状態となっても、他の被写体(母親)の顔が被写体顔として誤判定されることの防止を図る。
図示による説明は省略するが、この場合のカメラ制御部30は、被写体顔が一度も見つかっていない状態では、図22に示した通常の顔紐づけ範囲枠Fr(具体例については図16の説明を参照)を用いて、ステップS104の被写体顔判定処理を行う。
その後、被写体顔が判定されたことに応じて、以降は、図23に示すような通常よりも範囲を狭めた顔紐づけ範囲枠Frを用いてステップS104の被写体顔判定処理を行う。特に本例では、一度被写体顔が判定されていれば、追尾対象の被写体位置(つまりステップS211で顔紐づけ範囲枠Fr内に位置しているか否かが判定される位置)は該被写体顔の付近に位置しているため、顔紐づけ範囲枠Frは体全体まで広げる必要はなく、図23に示すように通常よりも範囲を狭める。なお、ここで言う「範囲を狭める」とは、少なくともX、Y方向の何れか一方の枠長さを狭めることを意味する。
Next, a second modification will be explained.
The second modification is a measure by changing the face association range frame Fr.
FIG. 22 is a diagram illustrating a normal face association range frame Fr for each person HMm and person HMc, and FIG. 23 is a diagram illustrating a changed face association range frame Fr for each person HMm and person HMc. This is a diagram.
In the second modification, once the subject's face has been determined, by narrowing the face linking range frame Fr, even if the subject's face cannot be detected afterwards, the face of another subject (mother) can be recognized as the subject's face. Aim to prevent misjudgment.
Although explanations using illustrations are omitted, in this case, when the subject's face has never been found, the camera control unit 30 uses the normal face association range frame Fr shown in FIG. 22 (for a specific example, see the description in FIG. ), the subject face determination process in step S104 is performed.
Thereafter, in response to the determination of the subject's face, the subject face determination process of step S104 is thereafter performed using the face association range frame Fr whose range is narrower than usual as shown in FIG. In particular, in this example, once the subject's face has been determined, the subject position to be tracked (that is, the position where it is determined whether or not it is located within the face association range frame Fr in step S211) is the position of the subject's face. Since it is located nearby, the face linking range frame Fr does not need to extend to the entire body, but is narrower than usual as shown in FIG. Note that "narrowing the range" here means narrowing the frame length in at least one of the X and Y directions.

このような第二変形例によっても、一度でも被写体の顔(例えば子どもの顔)を判定した以降、該顔をロストした場合に行われる判定において、選択された被写体の顔以外の顔(例えば母親の顔)が被写体顔として誤判定されてしまうことの防止を図ることができる。
特に、第二変形例によれば、母親の顔が非検出の状態で子どもの顔が被写体顔と判定された場合であっても、子どもの顔が非検出の状態となったときに母親の顔が被写体顔として誤判定されてしまうことの防止を図ることができる
Even in such a second modification, after the face of a subject (for example, a child's face) has been determined at least once, when the face is lost, a face other than the face of the selected subject (for example, a mother's face) is detected. It is possible to prevent the face of the subject from being incorrectly determined as the subject's face.
In particular, according to the second modification, even if the child's face is determined to be the subject face while the mother's face is not detected, when the child's face is not detected, the mother's It is possible to prevent a face from being incorrectly determined as the subject's face.

第三変形例は、最初に選択された被写体位置を覚えておくことによる対策である。
例えば、母親と子どもの例において、図24に示すように、ユーザが被写体を選択する操作を行ったときに、子どもが後を向いている状態であったとすると、子どもの顔を検出することができず、母親の顔を被写体顔として誤判定してしまう虞がある。
これまでで説明した処理では、このように母親の顔が被写体顔として判定されてしまうと、母親の顔位置が追尾対象の被写体位置として更新されるため、その後、子どもが前を向いてその顔が検出される状態となっても、母親の顔が検出される限りは、母親の顔が被写体顔として判定され続ける虞がある(図25参照)。すなわち、ユーザが意図する被写体の顔を対象としてAFや追尾を行うことができない虞がある。
A third modification is a measure based on remembering the initially selected subject position.
For example, in the example of a mother and child, if the child is facing backwards when the user performs an operation to select the subject, as shown in FIG. 24, it is difficult to detect the child's face. If this is not possible, there is a risk that the mother's face may be incorrectly determined as the subject's face.
In the process explained so far, if the mother's face is determined as the subject's face in this way, the mother's face position is updated as the subject's position to be tracked. Even if the mother's face is detected, there is a possibility that the mother's face will continue to be determined as the subject's face as long as the mother's face is detected (see FIG. 25). That is, there is a possibility that AF or tracking cannot be performed on the face of the subject intended by the user.

図26は、第三変形例としてのメイン処理を例示したフローチャートである。
図13に示したメイン処理との差異点は、ステップS106の処理に代えてステップS120の処理を実行する点である。
ステップS120でカメラ制御部30は、被写体位置から被写体追尾を行い、追尾結果を被写体位置として更新する処理を実行する。すなわち、ステップS104で被写体顔が存在すると判定されても、追尾対象の被写体位置を顔位置に更新せず、それまでの追尾位置を追尾対象の被写体位置として更新するものである。この処理により、追尾対象の被写体位置(ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置)は、ステップS101で選択された位置の追尾結果としての位置のまま維持される。
FIG. 26 is a flowchart illustrating main processing as a third modification.
The difference from the main process shown in FIG. 13 is that the process in step S120 is executed instead of the process in step S106.
In step S120, the camera control unit 30 executes a process of tracking the subject from the subject position and updating the tracking result as the subject position. That is, even if it is determined in step S104 that the subject's face exists, the position of the subject to be tracked is not updated to the face position, but the previous tracking position is updated as the subject position to be tracked. Through this process, the position of the subject to be tracked (the position determined in step S211 as to whether or not it exists within the face association range frame Fr) is maintained as the position selected as the tracking result of the position selected in step S101. be done.

このような第三変形例としての処理により、顔が後を向く等して顔が非検出とされた被写体(例えば子ども)が操作により選択されて、選択された被写体以外の被写体の顔(例えば母親の顔)が誤判定された場合であっても、以降の判定としては、選択された被写体の追尾位置(例えば子どもの胴体部の追尾位置)を基準とした判定が行われるため、その後、選択された被写体の顔が前を向く等して該被写体の顔が検出されたときに、該被写体の顔を正しく判定することが可能とされる。 In this process as the third modified example, a subject (for example, a child) whose face is not detected because the face is turned backwards, etc. is selected by operation, and the face of a subject other than the selected subject (for example, Even if the mother's face) is incorrectly determined, subsequent determinations will be made based on the tracking position of the selected subject (for example, the tracking position of the child's torso). When the face of the selected subject is detected such as when the face of the subject is facing forward, it is possible to correctly determine the face of the subject.

なお、ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置を最初にユーザが選んだ被写体位置のまま維持させる手法としては、例えばフレキシブルスポット等のAFエリアの示す位置を該ユーザが選んだ被写体位置とみなす手法が採られてもよい。
Note that as a method for maintaining the position at which it is determined in step S211 whether or not the position exists within the face association range frame Fr as the subject position initially selected by the user, for example, a position indicated by an AF area such as a flexible spot can be used. A method may be adopted in which the position is regarded as the subject position selected by the user.

<5.その他変形例>

なお、上記した具体例はあくまで一例であり、実施形態としては多様な変形例としての構成を採り得る。
例えば、上記では、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げたが、撮像制御パラメータの調整制御としては、他にも自動露出制御(AE)やオートホワイトバランス制御(AWB)などを挙げることができる。すなわち、本技術は、例えば選択された被写体の顔や瞳の露出が最適となるように露出制御を行う場合や、選択された被写体の顔や瞳の色が最適となるようにホワイトバランスの制御を行う場合等にも好適に適用することができる。
<5. Other variations>

Note that the above-described specific example is just an example, and the embodiment can take various configurations as modified examples.
For example, in the above, autofocus control was cited as an example of the adjustment control of the imaging control parameters, but there are other ways to adjust the imaging control parameters such as automatic exposure control (AE) and auto white balance control (AWB). ), etc. In other words, this technology can be used, for example, to control exposure so that the exposure of a selected subject's face or eyes is optimal, or to control white balance so that the color of a selected subject's face or eyes is optimal. It can also be suitably applied when carrying out.

また、上記では、検出した顔や瞳の位置から幾何学的に設定した探索範囲(顔紐づけ範囲枠Fr)内に選択された被写体が存在することを条件に、該検出した顔や瞳が選択された被写体の顔や瞳であると判定する例を挙げたが、これに代えて、例えば選択された被写体位置を元にアクティブセグメンテーションを行い、選択された位置と同じセグメントに属する顔や瞳を、選択した被写体の顔や瞳と判定する手法を採ることもできる。 In addition, in the above, on the condition that the selected subject exists within the search range (face association range frame Fr) set geometrically from the position of the detected face or eyes, the detected face or eyes are We have given an example of determining the face or eyes of the selected subject, but instead of this, for example, active segmentation can be performed based on the selected subject position, and the face or eyes belonging to the same segment as the selected position can be determined. It is also possible to adopt a method of determining the face or eyes of the selected subject.

また、上記では顔や瞳に対するAFの例としてAF-CによるAF(顔や瞳にピントを合わせ続けるAF)を行う例を挙げたが、これに代えて、AF-SによるAF(一度顔や瞳にピントを合わせた後、ピントを固定する)を行うこともできる。
In addition, above, we have given an example of AF using AF-C (AF that continues to focus on the face and eyes) as an example of AF for faces and eyes. You can also fix the focus after focusing on the eyes.

<6.実施形態のまとめ>

上記のように実施形態としての撮像制御装置(カメラ制御部30)は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部(被写体顔判定部63)と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部(AF制御部52)と、を備えている。
<6. Summary of embodiments>

As described above, the imaging control device (camera control unit 30) according to the embodiment determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by operation. A determination unit (subject face determination unit 63), and an adjustment control unit (AF control unit 52) that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit. There is.

撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
従って、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
The imaging control parameters refer to various control parameters related to imaging using an imaging device, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary part of the subject, such as the torso of the subject, is selected, the face or eyes of the subject are determined, and the imaging control is performed based on the determined position of the face or eyes. Parameter adjustment control is performed. That is, when adjusting imaging control parameters such as autofocus based on the subject's face or eyes, there is no need for the user to directly select the subject's face or eyes.
Therefore, it is possible to simplify the operation for adjusting the imaging control parameters based on the position of the subject's face and eyes.

また、実施形態としての撮像制御装置においては、顔・瞳判定部は、撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が被写体の顔又は瞳に該当するか否かを判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination unit detects a face or eyes present in the captured image, and determines whether the detected face or eyes corresponds to the face or eyes of the subject. Judging.

選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。
従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。
As a method of determining the face or eyes of the selected subject, a method of performing image analysis to determine the human body part of the selected subject may be considered, but this type of image analysis processing has a relatively high calculation cost. According to the above configuration, it is possible to determine the face or eyes of the subject without performing such image analysis processing that requires high computational cost.
Therefore, it is possible to reduce the processing load when determining the face or eyes of the subject.

さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との位置関係に基づいて被写体の顔又は瞳を判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination section determines the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject.

これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。
従って、被写体の顔又は瞳の判定精度を高めることができる。
This makes it possible to prevent faces or eyes detected in a captured image that are located far apart from each other from being determined as faces or eyes of the subject.
Therefore, the accuracy of determining the subject's face or eyes can be improved.

さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に被写体が位置することを条件として、該検出した顔又は瞳が被写体の顔又は瞳であると判定している。 Furthermore, in the imaging control device as an embodiment, the face/eye determination unit detects the detected face or pupil on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. The face or eyes are determined to be those of the subject.

これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。
従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。
Thereby, in determining the face or eyes of a subject, it is sufficient to perform at least a range setting process and a process of determining whether the selected subject is included within the set range for each detected face or eye.
Therefore, it is possible to reduce the processing load when determining the face or eyes of the subject.

また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における位置関係に基づいて被写体の顔又は瞳を判定している。 Furthermore, in the imaging control device according to the embodiment, the face/eye determination unit determines the face or eyes of the subject based on the positional relationship in the depth direction between the detected face or eyes and the subject.

これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
This makes it possible to determine the face or eyes of the subject based not only on the positional relationship in the image plane direction but also on the positional relationship in the depth direction.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との動きの整合性に基づいて被写体の顔又は瞳を判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination section determines the face or eyes of the subject based on consistency of movement between the detected face or eyes and the subject.

これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
As a result, in response to cases where the face or eyes of the subject cannot be appropriately determined based on positional relationships alone, the face or eyes of the subject can be appropriately determined from among the detected faces or eyes based on consistency of movement. is possible.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における動きの整合性に基づいて被写体の顔又は瞳を判定している。 Furthermore, in the imaging control device according to the embodiment, the face/eye determination unit determines the face or eyes of the subject based on the consistency of movement in the depth direction between the detected face or eyes and the subject.

これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
This makes it possible to determine the face or eyes of the subject based not only on the consistency of movement in the plane direction of the image but also on the consistency of movement in the depth direction.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

また、実施形態としての撮像制御装置においては、調整制御部は、撮像制御パラメータの調整制御としてオートフォーカス制御を行い、顔・瞳判定部は、検出した顔又は瞳と被写体の奥行き情報としてオートフォーカス用の測距情報を用いている。 Further, in the imaging control device according to the embodiment, the adjustment control unit performs autofocus control as adjustment control of imaging control parameters, and the face/pupil determination unit performs autofocus control as depth information of the detected face or eyes and the subject. distance measurement information is used.

これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。
従って、撮像装置の小型軽量化を図ることができる。
This eliminates the need to provide a separate distance measurement sensor other than the distance measurement sensor for autofocus control in the imaging device when determining the face or eyes of the subject based on the positional relationship in the depth direction and consistency of movement.
Therefore, it is possible to reduce the size and weight of the imaging device.

さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部(追尾処理部62)を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、追尾部が追尾する位置に基づき、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。 Furthermore, the imaging control device according to the embodiment includes a tracking unit (tracking processing unit 62) that tracks the target subject, and the face/pupil determination unit, when determining the face or eyes of the subject, The tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, based on the position tracked by the tracking unit, the detected face or eyes are the subject's face. Or it is determined whether or not it is an pupil.

これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。
従って、一度判定した被写体の顔又は瞳をロストした以降において、再び被写体の顔又は瞳が判定され易くすることができ、被写体の顔又は瞳の判定精度向上を図ることができる。
This makes it possible to track the subject's head even if the subject's face or eyes are no longer detected because the subject's face or eyes are turned backwards or the like after the subject's face or eyes have been determined.
Therefore, after the face or eyes of the subject that have been determined once are lost, the face or eyes of the subject can be easily determined again, and the accuracy of determining the face or eyes of the subject can be improved.

さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外している(第一変形例を参照)。 Furthermore, in the imaging control device according to the embodiment, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit may detect all of the detected faces or eyes that are not determined to be the face or eyes of the subject. face or eyes are excluded from the determination target (see the first modification).

これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
This helps prevent a face or eyes other than the subject's face or eyes from being misjudged when the face or eyes of the subject are lost after the face or eyes of the subject have been determined even once. It will be done.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、探索範囲を第一探索範囲から第一探索範囲とは異なる第二探索範囲に切り換えた判定を行っている(第二変形例を参照)。 Further, in the imaging control device according to the embodiment, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit changes the search range from the first search range to the first search range. It is determined that the search range has been switched to a second search range different from the above (see the second modification).

これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
This makes it possible to set the search range to a second search range, which is narrower than the first search range, in the judgment performed when the face or eyes of the subject are lost after the face or eyes of the subject have been determined at least once. Thus, it is possible to prevent faces or eyes other than those of the subject from being erroneously determined.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、追尾部は、顔・瞳判定部が被写体の顔又は瞳を判定したか否かに拘わらず、操作により選択された被写体を追尾し続け、顔・瞳判定部は、追尾部が追尾する位置を基準として、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。 Furthermore, the imaging control device according to the embodiment includes a tracking unit that tracks the subject, and the tracking unit is configured to perform the following operations regardless of whether the face/eye determination unit has determined the face or eyes of the subject. The face/eye determination unit continues to track the subject selected by the operation, and determines whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit.

これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。
As a result, even if a subject whose face or eyes are not detected because the face is turned backwards etc. is selected and the face or eyes of a subject other than the selected subject is incorrectly determined, subsequent judgments will be made. Since the judgment is performed based on the selected subject position, when the face or eyes of the selected subject are detected, such as when the face of the selected subject is facing forward, the face or eyes of the selected subject are detected. It is possible to judge correctly.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.

さらにまた、実施形態としての撮像制御装置においては、操作により被写体が選択されたことに応じて、撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、第一視覚情報を非表示とさせる表示制御部(同55)を備えている(図6から図10を参照)。 Furthermore, in the imaging control device as an embodiment, in response to a subject being selected by an operation, the first visual information is displayed at the position of the subject on the display unit that displays the captured image, and face/pupil determination is performed. Display control that causes the display unit to display second visual information at the position of the determined face or eyes and hide the first visual information in response to the determination of the face or eyes of the subject by the unit. (see FIGS. 6 to 10).

これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。
従って、追尾に係る情報の通知精度向上を図ることができる。
This makes it possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
Therefore, it is possible to improve the accuracy of notification of information related to tracking.

また、実施形態としての撮像制御装置においては、表示制御部は、第二視覚情報として、第一視覚情報とは異なる形状の情報を表示させている。 Furthermore, in the imaging control device according to the embodiment, the display control unit displays information having a shape different from that of the first visual information as the second visual information.

これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。
従って、追尾に係る情報の通知精度のさらなる向上を図ることができる。
This makes it possible to intuitively and more easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
Therefore, it is possible to further improve the accuracy of reporting information regarding tracking.

さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾対象被写体をそれまでの追尾対象被写体で維持させ、調整制御部は、追尾部が追尾する位置の情報に基づいて撮像制御パラメータの調整制御を行い、表示制御部は、顔・瞳判定部が判定した顔又は瞳を検出できなくなったことに応じて、追尾部が追尾する位置に、第二視覚情報とは異なる視覚情報を表示させる制御を行っている(図10及び図11を参照)。 Furthermore, the imaging control device according to the embodiment includes a tracking unit that tracks the subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit determines that the subject is the subject of tracking. The tracking target subject, which is the subject to be photographed, is updated to the determined face or eyes, and if the determined face or eyes are no longer detected in the captured image, the tracking target subject is maintained as the previous tracking target subject. The adjustment control unit performs adjustment control of the imaging control parameters based on the information of the position tracked by the tracking unit, and the display control unit adjusts the imaging control parameters in response to the fact that the face or eyes determined by the face/pupil determination unit can no longer be detected. Control is performed to display visual information different from the second visual information at the position tracked by the tracking unit (see FIGS. 10 and 11).

上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。
従って、追尾及び撮像制御パラメータ調整に係る情報の通知精度向上を図ることができる。
According to the above configuration, after the face or eyes of the selected subject is determined, until the face or eyes of the selected subject becomes undetected, for example, when the face of the subject turns backward, the face or eyes of the selected subject are determined. The imaging control parameters are adjusted based on the position of . According to the above configuration, when the face or eyes of the selected subject is not detected, the face (head) position of the selected subject continues to be tracked, and the position of the face (head) of the selected subject continues to be tracked. , visual information different from the second visual information is displayed (for example, the display is switched from the face/eye tracking frame 92 to the tracking frame 91). Due to such display control, the face or eyes of the selected subject were no longer detected, making it impossible to adjust the imaging control parameters based on the position information of the face or eyes. It is possible to intuitively and easily notify the user that tracking of the location) is continuing.
Therefore, it is possible to improve the accuracy of notification of information related to tracking and imaging control parameter adjustment.

さらにまた、実施形態としての撮像制御装置においては、被写体は人であるものとされている。 Furthermore, in the imaging control device according to the embodiment, the subject is a person.

これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。
従って、人の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
This eliminates the need for the user to directly select a person's face or eyes when adjusting the imaging control parameters based on the person's face or eyes.
Therefore, it is possible to facilitate the operation for adjusting the imaging control parameters based on the positions of the person's face and eyes.

また、実施形態としての撮像制御装置においては、被写体は動物であるものとされている。 Furthermore, in the imaging control device according to the embodiment, the subject is an animal.

これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。
従って、動物の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
This eliminates the need for the user to directly select the face or eyes of an animal, such as a dog, cat, or bird, in order to adjust the imaging control parameters based on the face or eyes of the animal.
Therefore, it is possible to facilitate the operation for adjusting the imaging control parameters based on the position of the animal's face and eyes.

また、実施形態としての撮像装置(同1)は、撮像画像を得る撮像部(撮像素子12)と、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備えている。 In addition, the imaging device (same 1) as an embodiment includes an imaging unit (imaging device 12) that obtains a captured image, and a face of the selected subject in response to selection of a subject in the captured image by operation. Alternatively, it includes a face/pupil determination section that determines the pupils, and an adjustment control section that performs adjustment control of the imaging control parameters based on the position information of the face or the pupils determined by the face/pupil determination section.

また、実施形態の撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。 Further, in the imaging control method of the embodiment, in response to a subject being selected in a captured image by an operation, the face or eyes of the selected subject is determined, and based on the position information of the determined face or eyes. This is an imaging control method that performs adjustment control of imaging control parameters.

これらの撮像装置、撮像制御方法によっても、上記した実施形態としての撮像制御装置と同様の作用及び効果が得られる。 These imaging devices and imaging control methods can also provide the same operations and effects as the imaging control device of the above-described embodiment.

なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
Note that the effects described in this specification are merely examples and are not limiting, and other effects may also exist.

<7.本技術>

なお本技術は以下のような構成も採ることができる。
(1)
操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える
撮像制御装置。
(2)
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定する
前記(1)に記載の撮像制御装置。
(3)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定する
前記(2)に記載の撮像制御装置。
(4)
前記顔・瞳判定部は、
前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
前記(2)に記載の撮像制御装置。
(5)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
前記(3)又は(4)の何れかに記載の撮像制御装置。
(6)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
前記(2)から(5)の何れかに記載の撮像制御装置。
(7)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
前記(6)に記載の撮像制御装置。
(8)
前記調整制御部は、
前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
前記(5)又は(7)に記載の撮像制御装置。
(9)
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
前記(2)から(8)の何れかに記載の撮像制御装置。
(10)
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
前記(2)から(9)の何れかに記載の撮像制御装置。
(11)
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
前記(4)から(10)の何れかに記載の撮像制御装置。
(12)
対象とされた被写体を追尾する追尾部を備え、
前記追尾部は、
前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
前記顔・瞳判定部は、
前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
前記(2)から(8)の何れかに記載の撮像制御装置。
(13)
前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備える
前記(1)から(12)の何れかに記載の撮像制御装置。
(14)
前記表示制御部は、
前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
前記(13)に記載の撮像制御装置。
(15)
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
前記調整制御部は、
前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
前記表示制御部は、
前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
前記(13)又は(14)に記載の撮像制御装置。
(16)
前記被写体は人である
前記(1)から(15)の何れかに記載の撮像制御装置。
(17)
前記被写体は動物である
前記(1)から(15)の何れかに記載の撮像制御装置。
<7. This technology>

Note that the present technology can also adopt the following configuration.
(1)
a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by an operation;
An imaging control device, comprising: an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or pupils determined by the face/eye determination unit.
(2)
The face/eye determination unit includes:
The imaging control device according to (1) above, wherein a face or eyes present in the captured image is detected, and it is determined whether the detected face or eyes corresponds to the face or eyes of the subject.
(3)
The face/eye determination unit includes:
The imaging control device according to (2), wherein the face or eyes of the subject is determined based on the positional relationship between the detected face or eyes and the subject.
(4)
The face/eye determination unit includes:
The detected face or eyes are determined to be the face or eyes of the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or eyes. ).
(5)
The face/eye determination unit includes:
The imaging control device according to any one of (3) or (4), wherein the face or eyes of the subject is determined based on the positional relationship in the depth direction between the detected face or eyes and the subject.
(6)
The face/eye determination unit includes:
The imaging control device according to any one of (2) to (5), wherein the face or eyes of the subject is determined based on consistency of movement between the detected face or eyes and the subject.
(7)
The face/eye determination unit includes:
The imaging control device according to (6), wherein the face or eyes of the subject is determined based on consistency of movement in the depth direction between the detected face or eyes and the subject.
(8)
The adjustment control section includes:
Performing autofocus control as adjustment control of the imaging control parameter,
The face/eye determination unit includes:
The imaging control device according to (5) or (7), wherein distance measurement information for autofocus is used as depth information of the detected face or eyes and the subject.
(9)
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, the tracking unit The imaging control device according to any one of (2) to (8), wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on the position to be tracked.
(10)
The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, all faces or eyes that are not determined to be the face or eyes of the subject are excluded from the determination targets (2) to (9). ).
(11)
The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, a determination is made in which the search range is switched from the first search range to a second search range different from the first search range. The imaging control device according to any one of 4) to (10).
(12)
Equipped with a tracking unit that tracks the targeted subject,
The tracking unit is
Continue to track the subject selected by the operation regardless of whether the face/eye determination unit has determined the face or eyes of the subject;
The face/eye determination unit includes:
The imaging control device according to any one of (2) to (8), wherein it is determined whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit.
(13)
In response to the selection of the subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the face or eyes of the subject is determined by the face/eye determination unit. a display control unit that displays second visual information on the display unit at the determined face or pupil position and hides the first visual information in accordance with the determined face or pupil position. The imaging control device according to any one of (12).
(14)
The display control section includes:
The imaging control device according to (13) above, wherein information having a shape different from that of the first visual information is displayed as the second visual information.
(15)
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and the determined face or eyes are included in the captured image. If the tracking target is no longer detected, the tracking target is maintained as the tracking target until then,
The adjustment control section includes:
Adjustment control of the imaging control parameters is performed based on information on the position tracked by the tracking unit,
The display control section includes:
Control is performed to display visual information different from the second visual information at the position tracked by the tracking unit in response to the fact that the face/eye determination unit is no longer able to detect the determined face or eye. 13) or the imaging control device according to (14).
(16)
The imaging control device according to any one of (1) to (15) above, wherein the subject is a person.
(17)
The imaging control device according to any one of (1) to (15) above, wherein the subject is an animal.

1 撮像装置、12 撮像素子、30 カメラ制御部、51 AF測距部、52 AF制御部、53 画像認識部、55 表示制御部、61 顔・瞳検出部、62 追尾処理部、63 被写体顔判定部、90 フォーカス枠、91 追尾枠、92 顔・瞳追尾枠、110S シャッターボタン、101 表示パネル、102 ビューファインダー、Ff 顔検出枠、Fr 顔紐づけ範囲枠 1 Imaging device, 12 Imaging element, 30 Camera control unit, 51 AF ranging unit, 52 AF control unit, 53 Image recognition unit, 55 Display control unit, 61 Face/pupil detection unit, 62 Tracking processing unit, 63 Subject face determination part, 90 focus frame, 91 tracking frame, 92 face/eye tracking frame, 110S shutter button, 101 display panel, 102 viewfinder, Ff face detection frame, Fr face linking range frame

Claims (17)

操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備え、
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像制御装置。
a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by an operation;
an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit ,
The face/eye determination unit includes:
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging control device.
前記顔・瞳判定部は、
前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
Claim 1 : The detected face or pupil is determined to be the face or pupil of the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. The imaging control device described in .
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein the face or eyes of the subject is determined based on a positional relationship in the depth direction between the detected face or eyes and the subject.
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein the face or eyes of the subject is determined based on consistency of movement between the detected face or eyes and the subject.
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
The imaging control device according to claim 4 , wherein the face or eyes of the subject is determined based on consistency of movement in the depth direction between the detected face or eyes and the subject.
前記調整制御部は、
前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
請求項又は請求項に記載の撮像制御装置。
The adjustment control section includes:
Performing autofocus control as adjustment control of the imaging control parameter,
The face/eye determination unit includes:
The imaging control device according to claim 3 or 5 , wherein distance measurement information for autofocus is used as the depth information of the detected face or eyes and the subject.
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
請求項に記載の撮像制御装置。
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, the tracking unit The imaging control device according to claim 1 , wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on the position to be tracked.
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
Imaging according to claim 1 , wherein after determining the face or eyes of the subject from among the detected faces or eyes, all faces or eyes that are not determined to be the face or eyes of the subject are excluded from the determination targets. Control device.
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
請求項に記載の撮像制御装置。
The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, determination is made by switching the search range from the first search range to a second search range different from the first search range. 2. The imaging control device according to 2 .
対象とされた被写体を追尾する追尾部を備え、
前記追尾部は、
前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
前記顔・瞳判定部は、
前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
請求項に記載の撮像制御装置。
Equipped with a tracking unit that tracks the targeted subject,
The tracking unit is
Continue to track the subject selected by the operation regardless of whether the face/eye determination unit has determined the face or eyes of the subject;
The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on a position tracked by the tracking unit.
前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備える
請求項1に記載の撮像制御装置。
In response to the selection of the subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the face or eyes of the subject is determined by the face/eye determination unit. according to claim 1, further comprising a display control unit that causes the display unit to display second visual information at the determined face or pupil position and to hide the first visual information in response to the determined face or pupil position. imaging control device.
前記表示制御部は、
前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
請求項11に記載の撮像制御装置。
The display control section includes:
The imaging control device according to claim 11 , wherein information having a shape different from that of the first visual information is displayed as the second visual information.
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
前記調整制御部は、
前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
前記表示制御部は、
前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
請求項11に記載の撮像制御装置。
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and the determined face or eyes are included in the captured image. If the tracking target is no longer detected, the tracking target is maintained as the tracking target until then,
The adjustment control section includes:
Adjustment control of the imaging control parameters is performed based on information on the position tracked by the tracking unit,
The display control section includes:
Control is performed to display visual information different from the second visual information at a position tracked by the tracking unit in response to the fact that the face/eye determination unit is unable to detect the determined face or eye. 12. The imaging control device according to 11 .
前記被写体は人である
請求項1に記載の撮像制御装置。
The imaging control device according to claim 1, wherein the subject is a person.
前記被写体は動物である
請求項1に記載の撮像制御装置。
The imaging control device according to claim 1, wherein the subject is an animal.
撮像画像を得る撮像部と、
操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備え、
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像装置。
an imaging unit that obtains a captured image;
a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by operation;
an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit ,
The face/eye determination unit includes:
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging device.
操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行うと共に、
前記顔又は瞳の判定においては、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像制御方法。
In response to the selection of a subject in the captured image by an operation, the face or eyes of the selected subject is determined, and the imaging control parameters are adjusted and controlled based on the determined positional information of the face or eyes. ,
In the face or eye determination,
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging control method.
JP2020561272A 2018-12-21 2019-12-03 Imaging control device, imaging device, imaging control method Active JP7342883B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018240192 2018-12-21
JP2018240192 2018-12-21
PCT/JP2019/047226 WO2020129620A1 (en) 2018-12-21 2019-12-03 Imaging control device, imaging device, and imaging control method

Publications (2)

Publication Number Publication Date
JPWO2020129620A1 JPWO2020129620A1 (en) 2021-11-04
JP7342883B2 true JP7342883B2 (en) 2023-09-12

Family

ID=71101446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561272A Active JP7342883B2 (en) 2018-12-21 2019-12-03 Imaging control device, imaging device, imaging control method

Country Status (2)

Country Link
JP (1) JP7342883B2 (en)
WO (1) WO2020129620A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6817590B1 (en) * 2020-07-27 2021-01-20 パナソニックIpマネジメント株式会社 Imaging device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196385A (en) 2004-01-06 2005-07-21 Toshiba Corp Image processing apparatus, image processing method and digital camera
JP2010186004A (en) 2009-02-12 2010-08-26 Sony Corp Imaging apparatus, method for controlling the same, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196385A (en) 2004-01-06 2005-07-21 Toshiba Corp Image processing apparatus, image processing method and digital camera
JP2010186004A (en) 2009-02-12 2010-08-26 Sony Corp Imaging apparatus, method for controlling the same, and program

Also Published As

Publication number Publication date
WO2020129620A1 (en) 2020-06-25
JPWO2020129620A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
JP5409189B2 (en) Imaging apparatus and control method thereof
TWI419552B (en) Imaging apparatus, subject tracking method and storage medium
JP5268433B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
EP2168005B1 (en) Focus control apparatus, image sensing apparatus, and control method therefor
JP6184189B2 (en) SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
US8988535B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
JP2006295888A (en) Imaging apparatus and control method of display
JP4552997B2 (en) Imaging apparatus and program
JP5030022B2 (en) Imaging apparatus and program thereof
JP2007129310A (en) Imaging apparatus
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2008054031A (en) Digital camera and display control method
JP7122916B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM AND STORAGE MEDIUM
JP2010050746A (en) Imaging apparatus and control method thereof
JP2008098755A (en) Imaging apparatus and method
JP6602093B2 (en) Imaging apparatus, imaging method, imaging system, and program
CN114080796B (en) Imaging apparatus, imaging method, and program
US11050923B2 (en) Imaging apparatus and control method
JP2011155692A (en) Imaging apparatus and its program
JP5375943B2 (en) Imaging apparatus and program thereof
JP2011071671A (en) Image recognition device and imaging apparatus
CN114080796A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R151 Written notification of patent or utility model registration

Ref document number: 7342883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151