JP7342883B2 - Imaging control device, imaging device, imaging control method - Google Patents
Imaging control device, imaging device, imaging control method Download PDFInfo
- Publication number
- JP7342883B2 JP7342883B2 JP2020561272A JP2020561272A JP7342883B2 JP 7342883 B2 JP7342883 B2 JP 7342883B2 JP 2020561272 A JP2020561272 A JP 2020561272A JP 2020561272 A JP2020561272 A JP 2020561272A JP 7342883 B2 JP7342883 B2 JP 7342883B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- subject
- eyes
- determined
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/36—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Description
本技術は、撮像制御装置、撮像装置、及び撮像制御方法に関し、特にオートフォーカス制御等、撮像制御パラメータについての調整制御を行う場合に好適な技術に関する。 The present technology relates to an imaging control device, an imaging device, and an imaging control method, and particularly relates to a technique suitable for adjusting and controlling imaging control parameters such as autofocus control.
撮像装置においては、例えばオートフォーカス制御や自動露出制御(AE:Automatic Exposure)等、撮像制御パラメータについての調整制御を行うものがある。特に、オートフォーカス制御については、近年、撮像画像の解析や被写体認識の技術を用いて、ターゲットとした被写体を追尾しながら、その被写体を対象としてオートフォーカスを行うものもある。また、オートフォーカス制御については、被写体の顔や瞳を検出し、検出した顔や瞳を対象としてオートフォーカスを行う技術も知られている。
なお、下記特許文献1には、オートフォーカス動作や追尾動作に関する技術が記載されている。Some imaging devices perform adjustment control on imaging control parameters, such as autofocus control and automatic exposure control (AE). In particular, with regard to autofocus control, in recent years there are some systems that use captured image analysis and subject recognition techniques to track a target subject and perform autofocus on that subject. Regarding autofocus control, there is also known a technique of detecting the face or eyes of a subject and performing autofocus on the detected face or eyes.
Note that
ここで、上記のように被写体の顔や瞳を基準としたオートフォーカスを行うにあたっては、撮像装置のユーザに、表示部に表示された画像から対象とする被写体の顔や瞳をタッチ操作により選択させたり、或いは、十字キー等によるカーソル移動操作により該顔や瞳を選択させたり、また、撮像装置の向きを変える等して表示部に表示されているAF(オートフォーカス)枠を該顔や瞳の部分に位置させたりする等の操作を行わせることが考えられる。 Here, when performing autofocus based on the subject's face or eyes as described above, the user of the imaging device is asked to select the target subject's face or eyes from the image displayed on the display unit by touch operation. Alternatively, you can select the face or eyes by moving the cursor using the cross key, or change the direction of the imaging device to move the AF (autofocus) frame displayed on the display to the face or eye. It is conceivable to have the user perform an operation such as positioning it in the pupil area.
しかしながら、上記のタッチ操作を採用した場合には、ユーザがビューファインダを覗いているときに顔や瞳の選択ができなくなってしまう。また、上記のカーソルやAFエリアの移動操作を含め、何れの手法を採用した場合でも、例えばスポーツのシーン等における動きのある被写体に対して正確に顔や瞳の位置を選択させることは困難である。 However, when the above-mentioned touch operation is adopted, the user cannot select the face or eyes while looking through the viewfinder. Furthermore, no matter which method is used, including the above-mentioned cursor and AF area movement operations, it is difficult to accurately select the position of the face and eyes of a moving subject, such as in a sports scene. be.
本技術は上記事情に鑑み為されたものであり、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることを目的とする。 The present technology has been developed in view of the above circumstances, and aims to facilitate operations for realizing adjustment of imaging control parameters based on the position of a subject's face and eyes.
本技術に係る撮像制御装置は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。An imaging control device according to the present technology includes a face/pupil determination unit that determines the face or eyes of a selected subject in response to selection of a subject in a captured image by an operation;
and an adjustment control section that performs adjustment control of imaging control parameters based on the position information of the face or eyes determined by the face/eye determination section.
撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。 The imaging control parameters refer to various control parameters related to imaging using an imaging device, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary part of the subject, such as the torso of the subject, is selected, the face or eyes of the subject are determined, and the imaging control is performed based on the determined position of the face or eyes. Parameter adjustment control is performed. That is, when adjusting imaging control parameters such as autofocus based on the subject's face or eyes, there is no need for the user to directly select the subject's face or eyes.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit detects a face or eyes present in the captured image, and determines whether the detected face or eyes correspond to the face or eyes of the subject. It is conceivable to determine whether or not.
選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。 As a method of determining the face or eyes of the selected subject, a method of performing image analysis to determine the human body part of the selected subject may be considered, but this type of image analysis processing has a relatively high calculation cost. According to the above configuration, it is possible to determine the face or eyes of the subject without performing such image analysis processing that requires high computational cost.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit may determine the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject.
これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。 This makes it possible to prevent faces or eyes detected in a captured image that are located far apart from each other from being determined as faces or eyes of the subject.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定することが考えられる。 In the above-described imaging control device according to the present technology, the face/eye determination unit detects the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. It is conceivable to determine that the detected face or eyes are the face or eyes of the subject.
これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。 Thereby, in determining the face or eyes of a subject, it is sufficient to perform at least a range setting process and a process of determining whether the selected subject is included within the set range for each detected face or eye.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit may determine the face or eyes of the subject based on the positional relationship in the depth direction between the detected face or eyes and the subject. Conceivable.
これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。 This makes it possible to determine the face or eyes of the subject based not only on the positional relationship in the image plane direction but also on the positional relationship in the depth direction.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, it is possible that the face/eye determination unit determines the face or eyes of the subject based on consistency of movement between the detected face or eyes and the subject. It will be done.
これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。 As a result, in response to cases where the face or eyes of the subject cannot be appropriately determined based on positional relationships alone, the face or eyes of the subject can be appropriately determined from among the detected faces or eyes based on consistency of movement. is possible.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。 In the imaging control device according to the present technology described above, the face/eye determination unit determines the face or eyes of the subject based on the consistency of movement in the depth direction between the detected face or eyes and the subject. It is possible that
これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。 This makes it possible to determine the face or eyes of the subject based not only on the consistency of movement in the plane direction of the image but also on the consistency of movement in the depth direction.
上記した本技術に係る撮像制御装置においては、前記調整制御部は、前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いることが考えられる。 In the imaging control device according to the present technology described above, the adjustment control unit performs autofocus control as adjustment control of the imaging control parameter, and the face/pupil determination unit is configured to It is conceivable to use distance measurement information for autofocus as the depth information.
これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。 This eliminates the need to provide a separate distance measurement sensor other than the distance measurement sensor for autofocus control in the imaging device when determining the face or eyes of the subject based on the positional relationship in the depth direction and consistency of movement.
上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit The tracking target subject, which is the subject to be photographed, is updated to the determined face or eyes, and in subsequent determinations, based on the position tracked by the tracking unit, the detected face or eyes are updated to the face or eyes of the subject. Alternatively, it is conceivable to determine whether the object is a pupil or not.
これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。 This makes it possible to track the subject's head even if the subject's face or eyes are no longer detected because the subject's face or eyes are turned backwards or the like after the subject's face or eyes have been determined.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外することが考えられる。 In the imaging control device according to the present technology described above, after determining the face or eyes of the subject from among the detected face or eyes, the face/eye determination unit determines that the face or eyes are the face or eyes of the subject. It is conceivable to exclude all faces or eyes that do not appear from the determination target.
これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。 This helps prevent a face or eyes other than the subject's face or eyes from being misjudged when the face or eyes of the subject are lost after the face or eyes of the subject have been determined even once. It will be done.
上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行うことが考えられる。 In the imaging control device according to the present technology described above, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit changes the search range from the first search range. It is conceivable to make a determination by switching to a second search range different from the first search range.
これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。 This makes it possible to set the search range to a second search range, which is narrower than the first search range, in the judgment performed when the face or eyes of the subject are lost after the face or eyes of the subject have been determined at least once. Thus, it is possible to prevent faces or eyes other than those of the subject from being erroneously determined.
上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記追尾部は、前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、前記顔・瞳判定部は、前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and the tracking unit determines whether or not the face/eye determination unit has determined the face or eyes of the subject. Regardless, the subject selected by the operation is continued to be tracked, and the face/eye determination unit determines whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit. It is conceivable to determine whether or not.
これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。 As a result, even if a subject whose face or eyes are not detected because the face is turned backwards etc. is selected and the face or eyes of a subject other than the selected subject is incorrectly determined, subsequent judgments will be made. Since the judgment is performed based on the selected subject position, when the face or eyes of the selected subject are detected, such as when the face of the selected subject is facing forward, the face or eyes of the selected subject are detected. It is possible to judge correctly.
上記した本技術に係る撮像制御装置においては、前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備えることが考えられる。 In the imaging control device according to the present technology described above, in response to the selection of a subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the first visual information is displayed at the position of the subject. In response to the face or eyes of the subject being determined by the eye determination unit, displaying second visual information at the position of the determined face or eyes on the display unit, and hiding the first visual information. It is conceivable to include a display control unit that allows
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。 This makes it possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
上記した本技術に係る撮像制御装置においては、前記表示制御部は、前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させることが考えられる。 In the imaging control device according to the present technology described above, the display control unit may display information having a different shape from the first visual information as the second visual information.
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。 This makes it possible to intuitively and more easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、前記調整制御部は、前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、前記表示制御部は、前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行うことが考えられる。 The imaging control device according to the present technology described above includes a tracking unit that tracks a target subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit The tracking target subject, which is the target subject, is updated to the determined face or eyes, and if the determined face or eyes are no longer detected in the captured image, the tracking target subject is updated to the previously determined The adjustment control unit performs adjustment control of the imaging control parameter based on information on the position tracked by the tracking unit, and the display control unit controls the image capture control parameter based on the information of the position tracked by the tracking unit, In response to the fact that the face or eyes cannot be detected, control may be performed to display visual information different from the second visual information at the position tracked by the tracking unit.
上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。
According to the above configuration, after the face or eyes of the selected subject is determined, until the face or eyes of the selected subject becomes undetected, for example, when the face of the subject turns backward, the face or eyes of the selected subject are determined. The imaging control parameters are adjusted based on the position of . According to the above configuration, when the face or eyes of the selected subject is not detected, the face (head) position of the selected subject continues to be tracked, and the position of the face (head) of the selected subject continues to be tracked. , visual information different from the second visual information is displayed (for example, the display is switched from the face/
上記した本技術に係る撮像制御装置においては、前記被写体は人であることが考えられる。 In the imaging control device according to the present technology described above, the subject may be a person.
これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。 This eliminates the need for the user to directly select a person's face or eyes when adjusting the imaging control parameters based on the person's face or eyes.
上記した本技術に係る撮像制御装置においては、前記被写体は動物であることが考えられる。 In the imaging control device according to the present technology described above, the subject may be an animal.
これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。 This eliminates the need for the user to directly select the face or eyes of an animal, such as a dog, cat, or bird, in order to adjust the imaging control parameters based on the face or eyes of the animal.
また、本技術に係る撮像装置は、撮像画像を得る撮像部と、操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。 The imaging device according to the present technology also includes an imaging unit that obtains a captured image, and a face/pupil that determines the face or eyes of the selected subject in response to selection of a subject in the captured image by operation. The image forming apparatus includes a determination section, and an adjustment control section that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/pupil determination section.
さらに、本技術に係る撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。 Furthermore, the imaging control method according to the present technology determines the face or eyes of the selected subject in response to the selection of a subject in the captured image by an operation, and uses the position information of the determined face or pupils to determine the face or eyes of the selected subject. This is an imaging control method that performs adjustment control of imaging control parameters based on the above.
これらの撮像装置、撮像制御方法によっても、上記した本技術に係る撮像制御装置と同様の作用が得られる。 These imaging devices and imaging control methods can also provide the same effect as the imaging control device according to the present technology described above.
以下、実施の形態を次の順序で説明する。
<1.撮像装置の構成>
<2.実施形態の動作説明>
<3.処理手順>
<4.変形例>
<5.その他変形例>
<6.実施形態のまとめ>
<7.本技術>
なお、以下の説明において、「オートフォーカス」の用語は「AF」とも表記する。
また、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げる。撮像制御パラメータとは、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。
Hereinafter, embodiments will be described in the following order.
<1. Configuration of imaging device>
<2. Operation explanation of embodiment>
<3. Processing procedure>
<4. Modified example>
<5. Other variations>
<6. Summary of embodiments>
<7. This technology>
Note that in the following description, the term "autofocus" is also written as "AF".
Moreover, autofocus control will be given as an example of adjustment control of imaging control parameters. Imaging control parameters refer to various control parameters related to imaging using an imaging device.
<1.撮像装置の構成>
図1は、本技術に係る実施形態としての撮像装置1の前方からの斜視図、図2は背面図を示している。ここでは撮像装置1は、いわゆるデジタルスチルカメラとされ、撮像モードを切り換えることで、静止画撮像と動画撮像の両方を実行できるものとする。
なお、本実施の形態では撮像装置1は、デジタルスチルカメラに限定されず、主に動画撮像に用いられ静止画撮像も行えるビデオカメラであっても良い。<1. Configuration of imaging device>
FIG. 1 shows a front perspective view of an
Note that in this embodiment, the
撮像装置1は、カメラ本体を構成する本体筐体100の前方側にレンズ鏡筒2(図1ではレンズ鏡筒2A)が配置され、又は着脱可能とされる。
撮像装置1の背面側(使用者側)には、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネル101が設けられる。
またビューファインダー102として、LCDや有機ELディスプレイ等を用いて形成された表示部も設けられる。
ユーザは表示パネル101やビューファインダー102により、画像や各種情報を視認することができる。
この例では撮像装置1には表示パネル101とビューファインダー102の両方が設けられているが、これに限定されず、表示パネル101とビューファインダー102のいずれか一方のみが設けられている構成や、表示パネル101とビューファインダー102の両方またはいずれか一方が着脱可能な構成であってもよい。In the
On the back side (user side) of the
Further, as the
The user can view images and various information using the
In this example, the
撮像装置1の本体筐体100上には、各種の操作子110が設けられている。
例えば操作子110としては、キー、ダイヤル、押圧/回転の複合操作子などの各種の形態のものが配備され、各種の操作機能を実現している。例えばメニュー操作、再生操作、モード選択操作、フォーカス操作、ズーム操作、シャッタースピードやF値(F-number)等のパラメータの選択操作などが可能とされる。それぞれの操作子110に関しての詳述は避けるが、本実施形態の場合、操作子110のうちでシャッターボタン110Sとアサイナブルボタン110Cを特に示している。
シャッターボタン110Sはシャッター操作(レリーズ操作)や、また半押しによるAF操作に用いられる。
アサイナブルボタン110Cは、カスタムボタンとも呼ばれる操作子で、ユーザが任意の操作機能を割り当てることのできるボタンである。
For example, various types of
The
The
シャッターボタン110Sは本体筐体100の右側上面に配置され、例えばユーザが右手で握持部103を持った状態で、右手の人差し指で押圧操作可能とされている。
またアサイナブルボタン110Cは、例えば図2のように本体筐体100の背面側上部に配置され、ユーザが右手の親指で押圧操作可能とされている。
つまりシャッターボタン110S、アサイナブルボタン110Cは、ユーザが右手で握持部112を握持する状態で本体筐体100を持ったときに、人差し指と親指で操作できる位置に配置され、即ち、それぞれを任意に個別に押したり、同時に押したりすることができるようにされている。The
Further, the
In other words, the
なお、シャッターボタン110Sと追尾操作のためのボタンは、必ずしも片手で同時に操作できるようにすることに限られない。例えば右手でシャッターボタン110Sを押し、左手で追尾操作ができるようにしてもよい。
このため、例えばレンズ鏡筒2のボタンを用いて追尾操作ができるようにしてもよい。
例えば図3には本体筐体100の前面側に装着できるレンズ鏡筒2Bの一例を示している。レンズ鏡筒2Bにも各種の操作子120が設けられている。
この場合に、側面部のやや下方の位置に設けられたアサイナブルボタン120Cを追尾操作ボタンに割り当てる。Note that the
Therefore, for example, a button on the
For example, FIG. 3 shows an example of a
In this case, the
通常、ユーザは握持部103を右手で握持し、左手はレンズ鏡筒2を下方から支えるようなスタイルで撮像を行う。この場合に、アサイナブルボタン120Cは左手の親指で押圧操作可能となる。
このような配置であっても、シャッターボタン110Sとアサイナブルボタン120Cは互いに同時に操作したり、任意に別々に操作することが可能である。Normally, the user grips the
Even with this arrangement, the
図4は、レンズ鏡筒2を含めた撮像装置1の内部構成を示している。なお、ここでは撮像装置1が本体筐体100とレンズ鏡筒2に分かれて構成される例で述べるが、レンズ鏡筒2に相当する部分が本体筐体100と一体化されるものであってもよい。
FIG. 4 shows the internal configuration of the
撮像装置1は、本体筐体100に撮像素子(イメージセンサ)12、カメラ信号処理部13、記録部14、表示部15、出力部16、操作部17、電源部18、カメラ制御部30、メモリ部31を有する。
またレンズ鏡筒2はレンズ系21、ドライバ部22、レンズ制御部23、操作部24を有する。The
Further, the
レンズ鏡筒2におけるレンズ系21は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り(アイリス)機構を備える。このレンズ系21により、被写体からの光(入射光)が導かれ、撮像装置1における撮像素子12に集光される。
The
撮像素子12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などとして構成される。
この撮像素子12では、受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部30に出力する。The
The
カメラ信号処理部13は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このカメラ信号処理部13は、撮像素子12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。例えばカメラ信号処理部13は、前処理、同時化処理、YC生成処理、解像度変換処理、コーデック処理等を行う。
The camera
前処理では、撮像素子12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を行う。
同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
コーデック処理では、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。In the preprocessing, clamp processing for clamping the R, G, and B black levels to predetermined levels and correction processing between the R, G, and B color channels are performed on the captured image signal from the
In the synchronization process, a demosaic process is performed so that the image data for each pixel includes all R, G, and B color components.
In the YC generation process, a luminance (Y) signal and a color (C) signal are generated (separated) from R, G, and B image data.
In the resolution conversion process, the resolution conversion process is performed on image data that has been subjected to various types of signal processing.
In the codec processing, the resolution-converted image data is encoded for recording or communication, for example.
記録部14は、例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する。
画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式で記憶される。
記録部14の実際の形態は多様に考えられる。例えば記録部14は、撮像装置1に内蔵されるフラッシュメモリでもよいし、撮像装置1に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。The
The image file is stored in a format such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), or GIF (Graphics Interchange Format).
The actual form of the
表示部15は撮像者に対して各種表示を行う表示部であり、具体的には図2に示した表示パネル101やビューファインダー102を示している。
表示部15は、カメラ制御部30の指示に基づいて表示画面上に各種表示を実行させる。例えば表示部15は、記録部14において記録媒体から読み出された画像データの再生画像を表示させる。また表示部15には、カメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給されている。表示部15はカメラ制御部30の指示に応じて、当該撮像画像の画像データに基づいて表示を行うことで、レリーズのスタンバイ中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)を表示させる。
また表示部15はカメラ制御部30の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。The
The
Further, the
出力部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。The
For example, captured image data (still image files and video files) is transmitted and output to an external display device, recording device, playback device, etc.
Further, the
操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は本体筐体100に設けられた各種の操作子110(シャッターボタン110S、アサイナブルボタン110Cを含む)を示している。
操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部30へ送られる。
この操作部17としては操作子110だけでなく、タッチパネルを用いてもよい。例えば表示パネル101にタッチパネルを形成し、表示パネル101に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
或いは操作部17はタッチパッド等によりユーザのタップ操作等を検出する形態もある。
更に操作部17は、別体のリモートコントローラ等の外部操作機器の受信部として構成されることもある。The
The
As this
Alternatively, the
Furthermore, the operating
電源部18は、例えば内部に装填したバッテリーから各部に必要な電源電圧Vccを生成し、動作電圧として供給する。
撮像装置1にレンズ鏡筒2が装着された状態では、電源部18による電源電圧Vccがレンズ鏡筒2内の回路にも供給されるように構成されている。
なお電源部18には、商用交流電源に接続したACアダプタにより変換されて入力される直流電圧を電源として、バッテリーへの充電を行う回路や電源電圧Vccを生成する回路が形成されていてもよい。The
When the
Note that the
カメラ制御部30はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
メモリ部31は、カメラ制御部30が処理に用いる情報等を記憶する。図示するメモリ部31としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
メモリ部31はカメラ制御部30としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
カメラ制御部30はメモリ部31のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1及びレンズ鏡筒2の全体を制御する。
例えばカメラ制御部30は、撮像素子12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、レンズ鏡筒2におけるズーム、フォーカス、絞り調整等のレンズ系21の動作、ユーザインターフェース動作等について、必要各部の動作を制御する。絞り調整に関してカメラ制御部30は、ユーザ操作に応じたF値の可変制御や、自動制御(オートアイリス)としてのF値の指示を行う。The
The
The
The
For example, the
メモリ部31におけるRAMは、カメラ制御部30のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
メモリ部31におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。The RAM in the
The ROM and flash memory (non-volatile memory) in the
本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30はレンズ制御部23に対して通信を行い、各種の指示を行う。
レンズ鏡筒2においては、例えばマイクロコンピュータによるレンズ制御部23が搭載されており、カメラ制御部30との間で各種のデータ通信が可能とされる。本実施形態の場合、カメラ制御部30は、レンズ制御部23に対してズームレンズ、フォーカスレンズ、絞り機構等の駆動指示を行う。レンズ制御部23はこれらの駆動指示に応じてドライバ部22を制御し、レンズ系21の動作を実行させる。
なお本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30とレンズ制御部23の間で有線通信が実行されるように構成されている。但し、カメラ制御部30とレンズ制御部23が無線通信を行うことができるように構成されてもよい。When the
The
Note that when the
ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
これらのモータドライバはレンズ制御部23からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。The
These motor drivers apply drive currents to the corresponding drivers in response to instructions from the
操作部24はレンズ鏡筒2側に設けられた操作子120(アサイナブルボタン120Cを含む)を示している。操作部24による操作情報はレンズ制御部23に供給され、レンズ制御部23を介してカメラ制御部30に通知される。
これによりレンズ制御部23は、操作子120の操作に応じて例えばレンズ系21の動作制御を行ったり、カメラ制御部30が操作子120の操作に応じて各種設定や動作制御を行うことができる。
なお操作部24としても操作部17と同様に、キーやダイヤル等に限らず、タッチパネル、タッチパッド、或いはリモートコントローラの受信部などとして構成されてもよい。The
This allows the
Note that, like the
図5は、図4の構成の一部を抽出するとともに、本実施形態の動作を行うためのカメラ制御部30の機能を示している。
カメラ制御部30の機能としては、AF測距部51、AF制御部52、画像認識部53、操作認識部54、表示制御部55、アサイナブルボタン設定部56が設けられる。
なお説明上の一例として、これらの機能がカメラ制御部30にソフトウェアにより設けられるものとするが、これらの機能の一部又は全部が例えばカメラ信号処理部13等として用いられるDSPやマイクロコンピュータに設けられてもよいし、或いは、例えばカメラ制御部30や、カメラ信号処理部13とは別チップのマイクロコンピュータなど、他の部位に設けられてもよい。いずれにしても撮像装置1内に、これらの機能を行う構成が設けられればよい。FIG. 5 extracts a part of the configuration of FIG. 4 and shows the functions of the
As functions of the
As an example for explanation, it is assumed that these functions are provided in the
AF測距部51は、オートフォーカスのための測距処理を行う。例えば撮像素子12で得られる撮像画像信号を用いて、いわゆる位相差検出方式やコントラスト検出方式、或いはこれらの両方の特徴を持ち合わせたハイブリッドAF方式などとしてのAF制御のための演算を行う。
AF制御部52は、AF測距部51で求められた制御値に基づいてAF制御信号を生成し、AF動作を実行させる処理を行う。AF制御部52によるAF制御信号はレンズ制御部23に送信される。そしてレンズ制御部23がAF制御信号に基づいてドライバ部22を制御し、レンズ系21内のフォーカスレンズの駆動を実行させることで、AF動作が行われる。The AF
The
画像認識部53は、撮像素子12で得られる撮像画像信号に対する画像解析を行い画像内容の認識処理を行う。特に本実施形態の場合、顔・瞳検出部61、追尾処理部62、被写体顔判定部63としての認識処理が行われる。
顔・瞳検出部61では、撮像画像信号のフレーム内で被写体としての人(或いは動物)の顔や瞳を検出する処理を行う。
ここで、本実施形態において、顔・瞳検出部で顔や瞳の検出対象とする被写体としては、顔や瞳を有する人物や動物等の生体に限らず、例えばロボット等の顔や瞳を模した物体を含む生体以外の物体も含み得る。The
The face/
Here, in this embodiment, the subject whose face and eyes are to be detected by the face/eye detection unit is not limited to a living body such as a person or an animal that has a face and eyes, but also a face or eyes of a robot, etc. It may also include objects other than living bodies, including objects that have been exposed.
追尾処理部62では、撮像画像信号のフレーム内で、対象とされた被写体(例えば人物や動物等の一部とされる場合もある)の位置を判定し追尾するための処理を行う。なお、追尾対象とする被写体は、例えばAFがかけられた被写体などとされる。ユーザ(撮像者)による追尾対象被写体の選択は、AF対象の被写体を選択するという操作によってなされることもある。
The
被写体顔判定部63は、被写体の顔の判定を行う。これはフレーム内での人の顔の領域の判定であったり、さらには顔の個人識別の処理を行う。例えば多数の人が被写体となっているときに、ターゲットとした個人の顔の認識なども行うことが想定される。
特に、本例では、被写体顔判定部63は、顔・瞳検出部61により撮像画像のフレーム内で検出された顔や瞳のうちから、ユーザにより選択された被写体の顔や瞳を判定する処理も行うが、これについては後に改めて説明する。The subject
In particular, in this example, the subject
操作認識部54は、操作部17による操作を認識する。カメラ制御部30は、操作認識部54によって認識されるユーザ操作に応じて必要な制御処理を行うことになる。
特に実施形態の処理に関連するものとしては、操作認識部54は操作部17におけるシャッターボタン110S、アサイナブルボタン110Cや、操作部24におけるアサイナブルボタン120Cの操作を認識する。これらの操作の認識に応じて、上記のAF測距部51、AF制御部52、画像認識部53が対応した処理を行うことが可能とされる。The
Particularly related to the processing of the embodiment, the
アサイナブルボタン設定部56は、ユーザの設定操作に応じて、アサイナブルボタン110C、120Cの操作機能を設定する機能を示している。操作認識部54がアサイナブルボタン110Cやアサイナブルボタン120Cの操作を検知した場合、カメラ制御部30はアサイナブルボタン設定部56の設定に基づいて、所定機能に対する操作が行われたと認識することになる。
The assignable
表示制御部55は、表示部15の表示動作を制御する。例えば表示制御部55はスルー画の表示の実行や、各種操作メニュー、アイコン、メッセージ等の表示を画面上に実行させるように制御する機能を示している。
The
図6,図7には、表示部15での表示例を示している。これらはスルー画に重ねて各種アイコンを表示している例である。
図6では、バスケットボールを使っている人物HMが、被写体として表示部15の画面(即ち撮像している画角)のほぼ中央にとらえられている状態である。
ここでは画面中央にフォーカス枠90が表示されている。フォーカス枠90は、AF対象を示す枠であり、いわゆるAF測距点を示す枠である。
フォーカス枠90の表示位置は、各種のモードによって変わり、またフォーカス枠90が複数表示される場合もあるが、ここでは一つのフォーカス枠90が画面中央に表示される例としている。6 and 7 show display examples on the
In FIG. 6, a person HM playing a basketball is captured as a subject at approximately the center of the screen of the display unit 15 (that is, the angle of view being imaged).
Here, a
The display position of the
図7では追尾を行っている状態を示している。例えば図6のフォーカス枠90に基づいて人物HMにAFがかけられ、また追尾のターゲットとされたとする。
図7の時点では、人物HMが画面内で左寄りの位置にあるとする。この人物HMに対して追尾枠91が表示されている。追尾枠91はターゲットとした被写体に追従して、その被写体に重なるように表示されていくことになる。
本例では、フォーカス枠90と追尾枠91とは形状を異にしている。この形状の切り替わりタイミングは、例えば、AF操作(本例ではシャッターボタン110Sの半押し操作)が行われて被写体に対するフォーカスが完了した時点などとされる。FIG. 7 shows a state in which tracking is being performed. For example, assume that AF is applied to a person HM based on the
Assume that at the time of FIG. 7, the person HM is located on the left side of the screen. A tracking
In this example, the
また図6,図7に示すように画面上には、撮像装置1のモードや動作状態などを示す各種のアイコンや文字/数字が表示される。
例えば画面下部にはISO感度71、露出値72、絞り値73、シャッタースピード74、合焦マーク75が表示される。
合焦マーク75はターゲットに対して合焦状態にあることを示すもので、図7において追尾対象にピントが合っている状態を示している。Further, as shown in FIGS. 6 and 7, various icons and letters/numbers indicating the mode, operating state, etc. of the
For example, an
The
画面左側には、ファインダフレームレート76、シャッター方式77、フォーカスエリア78、フォーカスモード79、ドライブモード80、撮影モード81としての表示が行われる。
ファインダフレームレート76はビューファインダー102の表示画像のフレームレートを示すアイコンである。
シャッター方式77は、メカシャッター方式、電子シャッター方式、オートを示すアイコンである。図示しているのはオートであり、これは撮影状況やシャッタースピードに応じて、メカシャッター方式と電子シャッター方式が自動で切り換わるモードを示している。On the left side of the screen, a
The
The
フォーカスエリア78は、フォーカス制御を行う領域としてフォーカスエリア設定を表すアイコンである。フォーカスエリア設定としては、「ワイド」「ゾーン」「中央」「フレキシブルスポット」などがある。
「ワイド」はスルー画としてのモニタ全体を基準に、自動ピント合わせをするフォーカスエリアモードである。
「ゾーン」はモニタ上でピントを合わせたいゾーンの位置を選ぶと、その中で自動でピントを合わせるフォーカスエリアモードである。
「中央」はモニタ中央付近の被写体に自動ピント合わせをするフォーカスエリアモードである。
「フレキシブルスポット」はモニタ上の好きなところにフォーカス枠を移動し、非常に小さな被写体や狭いエリアを狙ってピントを合わせるフォーカスエリアモードである。The
"Wide" is a focus area mode that automatically focuses on the entire monitor as a through image.
"Zone" is a focus area mode that automatically focuses within a zone you select on the monitor.
"Center" is a focus area mode that automatically focuses on subjects near the center of the monitor.
"Flexible Spot" is a focus area mode that allows you to move the focus frame anywhere on the monitor and focus on very small objects or narrow areas.
なお、フォーカスエリア78のアイコンは、そのときのフォーカスエリア設定等に応じて切り換えられる。
図6,図7に示したフォーカスエリア78として表示するアイコンの画像例は説明上の例であって、これらの画像デザインに限定されない。Note that the icon of the
The image examples of the icons displayed as the
図6,図7のように表示されるフォーカスモード79は、AF動作モードを表すアイコンである。AF動作モードとしては、例えばシングルAF(AF-S)、コンティニアスAF(AF-C)としてのモードがある。
シングルAFは、シャッターボタン110Sを半押しするとオートフォーカスが働き、一度ピントが合うと、ピントがそこで固定されるモードである。
コンティニュアスAFは、シャッターボタン110Sを半押ししている間中、オートフォーカスが働き、被写体にピントを合わせ続けるモードである。図6,図7ではコンティニアスAFを示すアイコンが表示された例としている。A
Single AF is a mode in which autofocus is activated when the
Continuous AF is a mode in which autofocus works and continues to focus on the subject while the
ドライブモード80は、1枚撮影、連写、ブラケット撮影などを示すアイコンである。
撮影モード81は、「プログラムオート」「絞り優先」「シャッタースピード優先」「マニュアル露出」「動画」「スロー/クイックモーション」などの撮影モードを示すアイコンである。The
The shooting
図6,図7において画面上部には、記憶メディア/枚数82、縦横比83、画像サイズ84、手ぶれ補正85、画質86、バッテリー残量87の表示が行われる。
記憶メディア/枚数82として記録メディアに保存したピクチャーの枚数や保存可能数などが表示される。
縦横比83により撮像画像の縦横比が表示される。
画像サイズ84により撮像画像のサイズが表示される。
手ぶれ補正85により手ぶれ補正機能のオン/オフやモードが表示される。
画質86により撮像画像の画質設定が表示される。
バッテリー残量87によりバッテリー残量が例えば絵柄とパーセント表示で示される。In FIGS. 6 and 7, the number of storage media/
The number of pictures saved on the recording medium, the number of pictures that can be saved, etc. are displayed as the storage medium/
The
The
The remaining
ここまで表示部15に表示される各種アイコン等を例示したが、これ以外にも各種の情報を提示するためのアイコン、数字、文字、或いはグラフィックが表示され得る。
Although various icons and the like displayed on the
<2.実施形態の動作説明>
以上の構成の撮像装置1において行われる、被写体の顔又は瞳にオートフォーカスするための動作例を説明する。
先ず、本例において、ユーザが撮像装置1に被写体の顔又は瞳にオートフォーカスさせる動作を実行させるために行うべき操作は、以下のように定められている。
1)メニューから顔又は瞳でAFする設定をONとする
2)メニューからAF動作モードの設定をコンティニアスAF(AF-C)に設定する
3)フォーカス枠90を所望の被写体(顔又は瞳の部分に限らない)に当てて、AF操作(本例ではシャッターボタン110Sの半押し操作)を行う
<2. Operation explanation of embodiment>
An example of the operation performed in the
First, in this example, the operation that the user should perform in order to cause the
1) Turn on the face or eye AF setting from the menu. 2) Set the AF operation mode setting to continuous AF (AF-C) from the menu. 3) Move the
図8から図12は、被写体の顔又は瞳にオートフォーカスする動作例を説明するための図である。
図8は、上記した1)及び2)の操作が行われた上で、所望の被写体として、撮像画像内に存在する人物HM1と人物HM2のうち手前側に位置する人物HM1を対象とした3)のAF操作が行われた状態における表示部15での表示例を示している。具体的に、この場合における3)のAF操作としては、フォーカス枠90を人物HM1の胴体部に当てた状態でのAF操作が行われたとする。FIGS. 8 to 12 are diagrams for explaining an example of an operation for autofocusing on a subject's face or eyes.
In FIG. 8, after the above-mentioned operations 1) and 2) have been performed, the person HM1 located on the front side of the person HM1 and person HM2 existing in the captured image is selected as the desired subject. ) shows a display example on the
先ず前提として、本例では、1)の操作に応じて、顔・瞳検出部61が撮像画像内に存在する顔又は瞳の検出処理を開始する。この顔又は瞳の検出処理は、毎フレーム行われる。
First, as a premise, in this example, in response to the operation 1), the face/
図8の状態では、人物HM1に対する胴体部を対象としてAFが行われる。また、コンティニアスAFの設定に応じて、該胴体部を追尾対象被写体とした追尾処理部62による被写体追尾が開始される。
このとき、表示部15の画面上では、該追尾の開始に伴い、フォーカス枠90は非表示状態となり、代わりに追尾枠91が表示される。以降、追尾枠91は、追尾処理部62による追尾位置に表示される(対象の被写体が動く場合は該被写体の動きに連動して追尾枠91も動く)。In the state of FIG. 8, AF is performed targeting the torso of the person HM1. Further, in accordance with the continuous AF setting, subject tracking by the
At this time, on the screen of the
図8の状態では、人物HM1の顔が後を向いているため、上記した顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出とされる。一方、人物HM2は顔が前を向いているため、人物HM2の顔又は瞳が顔・瞳検出部61の検出処理で検出されている。
但し、本実施形態における顔・瞳判定処理では、後述する手法が採られることで、前を向く人物HM2の顔又は瞳が選択された人物HM1の顔又は瞳として誤判定されてしまうことの防止が図られている。In the state of FIG. 8, since the face of the person HM1 is facing backward, the face or eyes of the person HM1 are not detected in the detection processing by the face/
However, in the face/eye determination processing in this embodiment, the method described below is adopted to prevent the face or eyes of the person HM2 facing forward from being erroneously determined as the face or eyes of the selected person HM1. is planned.
図8の状態から、図9に示すように人物HM1の顔が前を向いたとする。
図9に示す状態では、顔・瞳検出部61の検出処理で人物HM1の顔又は瞳が検出され、検出された人物HM1の顔又は瞳にAFが行われる。
また、以降は、人物HM1の顔又は瞳が追尾されるべく、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。Assume that the face of the person HM1 turns forward from the state shown in FIG. 8 as shown in FIG.
In the state shown in FIG. 9, the face or eyes of the person HM1 is detected by the detection process of the face/
Further, from now on, in order to track the face or eyes of the person HM1, a process is performed in which the
このとき、AFや追尾の対象位置が人物HM1つまり選択された被写体の顔又は瞳位置となったことをユーザに通知するべく、本例では、図10に示すように、該選択された被写体の顔又は瞳位置に顔・瞳追尾枠92を表示すると共に、それまで表示していた追尾枠91を非表示とする。
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされ、追尾に係る情報の通知精度向上を図ることができる。At this time, in order to notify the user that the AF or tracking target position is the face or eye position of the person HM1, that is, the selected subject, in this example, as shown in FIG. A face/
As a result, it is possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes, and it is possible to improve the accuracy of notification of information related to tracking.
ここで、図10から図11への遷移として示すように、人物HM1の顔が再度、後を向いてしまったとする。
この場合には、顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出となる。このように、選択された被写体の顔又は瞳が一度判定された後、判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾処理部62が追尾対象とする被写体位置を、それまで追尾対象としていた被写体位置のまま維持させる。つまり図の例では、人物HM1の頭部位置のまま維持させる。
またこの場合、AFについては、被写体追尾AFを行う。すなわち、追尾処理部62が追尾対象とする被写体位置にAFを行う。これにより、以降、人物HM1の顔が再び前を向くまでは、人物HM1の頭部が追尾されつつ、該頭部に対するAFが行われる。Here, as shown in the transition from FIG. 10 to FIG. 11, it is assumed that the face of the person HM1 turns backward again.
In this case, the face or eyes of the person HM1 are not detected in the detection process of the face/
Further, in this case, regarding AF, subject tracking AF is performed. That is, the
また、図10から図11への遷移のように、選択した被写体の顔又は瞳が判定された後に該顔又は瞳が撮像画像内に検出されなくなった場合には、それまで該顔又は瞳の位置に表示していた顔・瞳追尾枠92を非表示として、代わりに追尾枠91を表示する。このとき、追尾枠91は、追尾処理部62が追尾対象としている被写体位置(つまり図の例では人物HM1の頭部)に表示する。
このように、判定した顔又は瞳が撮像画像内に検出されなくなったことに応じて画面上の追尾及びAFに係る枠表示の表示態様を変更することで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づくAFが不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能となり、追尾及びAFに係る情報の通知精度向上を図ることができる。In addition, as in the transition from FIG. 10 to FIG. The face/
In this way, by changing the display mode of the frame display related to tracking and AF on the screen in response to the fact that the determined face or eyes are no longer detected in the captured image, the face or eyes of the selected subject can be changed. Although AF based on face or eye position information is no longer possible due to no longer being detected, it is possible to intuitively and clearly notify the user that face position (head position) tracking continues. Therefore, it is possible to improve the accuracy of notification of information related to tracking and AF.
図12は、図11の状態から、人物HM1の顔が再び前を向いた状態の画面例を示している。
この図12に示す状態では、人物HM1の顔又は瞳が顔・瞳検出部61により再び検出されるようになり、図9の場合と同様に、検出された人物HM1の顔又は瞳にAFが行われると共に、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。また、この場合も図9と同様に、それまで表示していた追尾枠91を非表示とし、追尾対象とされた顔又は瞳位置に顔・瞳追尾枠92を表示する。FIG. 12 shows an example of the screen in which the face of the person HM1 turns forward again from the state shown in FIG. 11.
In the state shown in FIG. 12, the face or eyes of the person HM1 is again detected by the face/
上記の一連の動作、特に図6から図10への遷移として説明した動作から理解されるように、本実施形態によれば、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
従って、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するための操作の容易化を図ることができる。As can be understood from the above series of operations, especially the operation described as the transition from FIG. 6 to FIG. , there is no need for the user to directly select the subject's face or eyes.
Therefore, it is possible to simplify the operation for realizing autofocus based on the position of the subject's face or eyes.
なお、上記では、顔又は瞳へのAF対象とする被写体の選択操作がフォーカス枠90を当てた状態でのAF操作とされる例を挙げたが、該選択操作は、例えばタッチパネルにより画面上の被写体をタッチする操作とされてもよい。或いは、GUIカーソルを被写体の近くに重ねた上で、所定ボタンを押圧する等の操作とされてもよい。このとき、上記カーソルの移動操作は十字キーによるものであってもよいし、タッチ操作によるものであってもよい。
In addition, in the above example, the selection operation of the subject to be AFed to the face or eyes is an AF operation with the
<3.処理手順>
図13から図18を参照して、上記により説明した実施形態としての動作を実現するために実行されるべき処理例を説明する。
なお、以下のフローチャートにより示す処理は、カメラ制御部30が実行する処理であり、特に、本例においてこれらの処理は、カメラ制御部30が備えるCPUが例えばメモリ部31に格納されたプログラムに従って実行するソフトウェア処理として実現される。ただし、これらの処理の全て又は一部がハードウェアによる処理として実現されてもよい。<3. Processing procedure>
With reference to FIGS. 13 to 18, an example of processing to be executed to realize the operation of the embodiment described above will be described.
Note that the processes shown in the flowcharts below are processes executed by the
ここで、以下の説明では便宜上、顔と瞳は区別せずに纏めて顔として扱う。
勿論、顔と瞳を別々に扱うものとし、顔と瞳のうち顔のみが検出できていれば顔位置にAFや追尾対象の被写体位置を更新し、瞳が検出できていれば瞳位置にAFや追尾対象の被写体位置を更新するということもできる。Here, in the following explanation, for convenience, the face and the eyes are treated collectively as a face without distinguishing them.
Of course, we will treat the face and eyes separately, and if only the face can be detected, AF will be updated to the face position and the tracking target subject position will be updated, and if the eyes can be detected, AF will be updated to the eye position. It is also possible to update the position of the subject to be tracked.
図13は、被写体の顔又は瞳へのAF制御を実現するためのメイン処理を例示したフローチャートである。なお、図13に示す処理は、本例では、前述した1)及び2)の設定が行われたことに応じて開始される。 FIG. 13 is a flowchart illustrating main processing for realizing AF control on the face or eyes of a subject. Note that, in this example, the process shown in FIG. 13 is started in response to the above-mentioned settings 1) and 2) being performed.
先ず、カメラ制御部30はステップS101で、被写体位置が選択されるまで待機する。すなわち、前述の3)の操作としてのAF操作が実行されるまで待機する。
AF操作が行われて被写体位置が選択されたと判定した場合、カメラ制御部30はステップS102で選択位置を追尾対象の被写体位置として初期化する。すなわち、ステップS101のAF操作が行われた時点でフォーカス枠90と重複している位置を追尾対象の被写体位置として初期化する。First, in step S101, the
If it is determined that the AF operation has been performed and the subject position has been selected, the
ステップS102に続くステップS103でカメラ制御部30は、被写体顔判定処理を実行する。この被写体顔判定処理は、追尾対象の被写体位置に対応する顔を判定する処理である。具体的に本例では、毎フレーム行われる顔検出処理で撮像画像内から検出される顔のうちから、追尾対象の被写体位置に対応する顔を判定する処理となる。
ここで、このステップS103の顔判定処理を含むステップS110までの処理は、後述するステップS111の1フレーム待機処理が設けられることで、撮像画像のフレーム毎に実行されることになる。In step S103 following step S102, the
Here, the processes up to step S110 including the face determination process of step S103 are executed for each frame of the captured image by providing a one-frame standby process of step S111, which will be described later.
図14のフローチャートを参照し、ステップS103の被写体顔判定処理の例を説明する。
図14において、先ず、カメラ制御部30は図中のLP1、LP2で表すループ処理により、ステップS201の被写体顔候補判定処理を画像内の全ての顔について繰り返し実行する。An example of the subject face determination process in step S103 will be described with reference to the flowchart in FIG. 14.
In FIG. 14, first, the
図15のフローチャートは、ステップS201の被写体顔候補判定処理の第一例としての処理を示している。
図15において、カメラ制御部30はステップS210で、顔検出枠Ffから顔紐づけ範囲枠Frを設定する。
ここで、顔検出枠Ffは、撮像画像内から検出した顔の範囲を表す枠として設定した枠であり、複数の顔が検出された場合は顔ごとに設定される。
顔紐づけ範囲枠Frは、顔検出枠Ffに基づいて設定される枠であり、該顔検出枠Ffが表す顔が、選択された被写体位置に対応する顔であると仮定した場合に、該選択された被写体位置が含まれると予想される範囲を規定した枠である。すなわち、選択された被写体位置が、この顔紐づけ範囲枠Fr内の位置であれば、顔検出枠Ffの表す顔が、選択された被写体の顔である可能性が高いと推定できるものである。The flowchart in FIG. 15 shows a first example of the subject face candidate determination process in step S201.
In FIG. 15, the
Here, the face detection frame Ff is a frame set as a frame representing the range of faces detected from within the captured image, and is set for each face when a plurality of faces are detected.
The face association range frame Fr is a frame that is set based on the face detection frame Ff, and when it is assumed that the face represented by the face detection frame Ff is the face corresponding to the selected subject position, This is a frame that defines a range that is expected to include the selected subject position. That is, if the selected subject position is within this face association range frame Fr, it can be estimated that the face represented by the face detection frame Ff is highly likely to be the face of the selected subject. .
図16は、顔検出枠Ffと顔紐づけ範囲枠Frとの関係を例示した図である。
本例では、顔検出枠Ff、顔紐づけ範囲枠Frはそれぞれ矩形状の枠とされる。そして、顔紐づけ範囲枠Frは、顔検出枠Ffに基づき幾何学的に設定される。
具体的に、カメラ制御部30は、顔紐づけ範囲枠Frの位置については、顔検出枠FfのX方向(水平方向)及びY方向(垂直方向)の位置に基づいて設定するものとし、例えば図示のように、X方向の位置は、顔紐づけ範囲枠FrのX方向中心が顔検出枠FfのX方向中心と一致する位置とし、Y方向の位置は、顔検出枠Ffと上辺同士が一致する位置として設定する。
また、カメラ制御部30は、顔紐づけ範囲枠Frのサイズについては、X方向の辺の長さを顔検出枠FfのX方向の辺の長さに応じた長さに設定し、Y方向の辺の長さを顔検出枠FfのY方向の辺の長さに応じた長さに設定する。例えば、X方向の辺の長さは、顔検出枠FfのX方向の辺の長さの2倍に設定し、Y方向の辺の長さは、顔検出枠FfのY方向の辺の長さの3倍に設定する。FIG. 16 is a diagram illustrating the relationship between the face detection frame Ff and the face association range frame Fr.
In this example, the face detection frame Ff and the face association range frame Fr are each rectangular frames. The face association range frame Fr is set geometrically based on the face detection frame Ff.
Specifically, the
Regarding the size of the face association range frame Fr, the
なお、顔紐づけ範囲枠Frの設定について、上記はあくまで一例を示したものに過ぎない。また、顔紐づけ範囲枠Frについては、撮像装置1を横向きに構えた場合と縦向きに構えた場合とで位置やサイズの設定手法を異ならせることもできる。
Note that the above setting of the face association range frame Fr is merely an example. Further, regarding the face association range frame Fr, the position and size setting method may be different depending on when the
説明を図15に戻す。
カメラ制御部30は、ステップS210の顔紐づけ範囲枠Frの設定処理を実行したことに応じ、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在するか否かを判定する。被写体位置が顔紐づけ範囲枠Fr内に存在していれば、カメラ制御部30はステップS212に進み、被写体位置(本例では追尾対象の被写体位置)のDF(デフォーカス量)と顔検出枠FfのDFが近いか否かを判定する。具体的には、被写体位置のDFと顔検出枠FfのDFとの差が所定閾値以下であるか否かを判定する。ここでのDFの情報としては、AF測距部51で得られるDFの情報を用いる。
なお、DFの情報は、撮像素子12(イメージセンサ)に埋め込まれた像面位相差センサーの検出信号に基づき得るものとしてもよいし、撮像素子12とは異なる箇所に設置された別体位相差センサーによる検出信号に基づき得るものとしてもよい。The explanation returns to FIG. 15.
The
Note that the DF information may be obtained based on a detection signal of an image plane phase difference sensor embedded in the image sensor 12 (image sensor), or a separate phase difference sensor installed at a location different from the
ステップS212において、被写体位置のDFと顔検出枠FfのDFとが近いと判定した場合、カメラ制御部30はステップS213に進み、被写体顔候補と判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補であると判定し、被写体顔候補判定処理を終える。
If it is determined in step S212 that the DF of the subject position is close to the DF of the face detection frame Ff, the
このように本例では、処理対象とした顔に対し被写体位置が所定の位置関係条件(本例では画像平面方向における位置と奥行き方向における位置の条件)を満たす場合には、処理対象とした顔が被写体の顔候補として判定される。 In this way, in this example, if the subject position with respect to the face to be processed satisfies the predetermined positional relationship conditions (in this example, the conditions for the position in the image plane direction and the position in the depth direction), the face to be processed is is determined as a candidate for the subject's face.
一方、カメラ制御部30は、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在しないと判定した場合と、ステップS212で被写体位置のDFと顔検出枠FfのDFとが近くないと判定した場合には、それぞれステップS214に処理を進めて被写体顔候補でないと判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補でないと判定し、被写体顔候補判定処理を終える。
On the other hand, when the
なお、顔紐づけ範囲枠Frについては、画像認識によって人体部位を認識することで形成しても良い。ただし、一般的に画像認識で人体部位を認識するのは大きな計算リソースが必要だったり、精度が不十分で安定しなかったりする傾向があるので、図16の例のように顔検出結果から幾何学的に求めたほうがより実用的である。 Note that the face association range frame Fr may be formed by recognizing human body parts through image recognition. However, generally, recognizing human body parts using image recognition requires large computational resources and tends to be unstable due to insufficient accuracy. It is more practical to seek it scientifically.
また、被写体位置と顔検出枠Ffの奥行き情報としてはDFの情報に限定されない。例えば、奥行き情報は、レンズを微小にシフトさせた際に生じるデフォーカスの違いから推定する、いわゆるDepth From Defocusを用いて取得しても良い。或いは、奥行き情報は、Deep Learningに代表される画像処理技術を用いて推定しても良いし、二以上の撮像部による撮像画像を用いたステレオマッチングによって算出しても良い。さらには、奥行き情報は、動体視差を用いて算出することもできる。なお、動体視差とは、近いものほど速く動き、遠くのものほど遅く動くように見えることを意味し、この速さの違いにより遠近を把握することが可能なものである。
或いは、被写体位置の奥行き情報は、レンズのピント位置の情報から取得し、顔の奥行き情報は顔の撮像面上のサイズと平均的な人間の顔のサイズから算出して推定してもよい。
このとき、平均的な顔のサイズに代えて、顔の実寸を手動で設定した値を用いてもよい。動物の場合は、動物の種別を設定して、その動物の平均的なサイズを用いてもよい。Further, the depth information of the subject position and the face detection frame Ff is not limited to the DF information. For example, depth information may be acquired using so-called Depth From Defocus, which is estimated from the difference in defocus that occurs when the lens is slightly shifted. Alternatively, the depth information may be estimated using an image processing technique such as deep learning, or may be calculated by stereo matching using images captured by two or more imaging units. Furthermore, depth information can also be calculated using dynamic object parallax. Note that dynamic parallax means that objects that are closer appear to move faster and objects that are farther away appear to move slower, and it is possible to grasp distance from near and far from this difference in speed.
Alternatively, the depth information of the subject position may be acquired from the information of the focus position of the lens, and the depth information of the face may be calculated and estimated from the size of the face on the imaging plane and the size of an average human face.
At this time, instead of the average face size, a manually set value of the actual size of the face may be used. In the case of animals, the type of animal may be set and the average size of the animal may be used.
図17のフローチャートは、ステップS201の被写体顔候補判定処理の第二例としての処理を示している。
ここで、スポーツの撮影などでは、図18の上段に示すように被写体が激しい姿勢をとるため、必ずしも体の真上付近に顔があるとは限らない。図18の上段の例では、白抜きで示した人物HM1がAFの対象としたい人物、梨地で示した人物HM2がAFの対象としたくない人物とされる。この場合において、図18の下段に示すように、人物HM1と人物HM2が交差するタイミングでAFの対象としたい人物HM1にフォーカス枠90を当ててAF操作が行われたとする。このとき、図15の第一例の処理のように位置関係のみに基づく顔候補判定を行った場合には、AFの対象としたくない人物HM2の顔に追尾やAFが行われてしまう虞がある。The flowchart in FIG. 17 shows a second example of the subject face candidate determination process in step S201.
Here, in sports photography, etc., the subject takes a violent posture as shown in the upper row of FIG. 18, so the face is not always directly above the body. In the example in the upper part of FIG. 18, a person HM1 shown in white is a person who is desired to be targeted for AF, and a person HM2 shown in a matte background is a person who is not desired to be targeted for AF. In this case, as shown in the lower part of FIG. 18, it is assumed that the AF operation is performed by placing the
そこで、ステップS201の被写体顔候補判定処理としては、図17に示すような第二例としての処理を実行することもできる。
図15の第一例との差異点は、顔候補と判定するための条件として、ステップS211及びS212の条件以外に、ステップS220の条件が追加された点である。具体的に、ステップS220においてカメラ制御部30は、被写体の動きと顔検出枠Ffの動きが近いか否かを判定する。具体的に、このステップS220の処理では、過去数フレームの顔のX,Y,Z方向(Z方向は奥行き方向:XY平面に垂直な方向)の動きと、追尾対象としている被写体のX,Y,Z方向の動きを比較し、その軌跡が類似しているかどうかを判定する。Z方向の動きに関しては、前述したDFの情報を用いることができる。
なお、ステップS220の判定処理に関して、顔や被写体の動きとしては、X,Y,Z全ての方向の動きではではなく、一部の方向のみの動きを用いるようにしてもよい。
軌跡が類似しているか否かの判定は、例えば近づいているか遠ざかっているかの2値のようなラフな判定でも良い。逆方向に動いている顔を除外できるだけでもユーザメリットは大きいと考えられる。Therefore, as the subject face candidate determination process in step S201, a second example of the process shown in FIG. 17 may be executed.
The difference from the first example in FIG. 15 is that, in addition to the conditions in steps S211 and S212, the condition in step S220 is added as a condition for determining a face candidate. Specifically, in step S220, the
Note that in the determination process of step S220, the movement of the face or subject may not be in all of the X, Y, and Z directions, but may be in only some directions.
The determination as to whether or not the trajectories are similar may be a rough determination, such as a binary determination of whether the trajectories are approaching or receding. Even being able to exclude faces that are moving in the opposite direction is considered to be of great benefit to the user.
図示のように、ステップS211、S212、S220の全ての判定処理において肯定結果が得られた場合、すなわち、被写体位置が顔紐づけ範囲枠Fr内に存在し、且つ被写体位置と顔検出枠FfのDFが近く、且つ被写体と顔検出枠Ffの動きが近いと判定された場合には、カメラ制御部30はステップS213で被写体顔候補と判定する処理を行う。
一方、ステップS211、S212、S220の何れかの判定処理で否定結果が得られた場合、カメラ制御部30はステップS214で被写体顔候補でないと判定する処理を行う。As shown in the figure, if a positive result is obtained in all the determination processes in steps S211, S212, and S220, that is, the subject position exists within the face association range frame Fr, and the distance between the subject position and the face detection frame Ff is If it is determined that the DF is close and the movement of the subject and the face detection frame Ff is close, the
On the other hand, if a negative result is obtained in any one of the determination processes in steps S211, S212, and S220, the
第二例においてもカメラ制御部30は、ステップS213、S214の何れかの処理を実行したことに応じステップS201の被写体顔候補判定処理を終える。
In the second example as well, the
説明を図14に戻す。
カメラ制御部30は、上記した第一例や第二例としての被写体顔候補判定処理を画像内の全ての顔について実行したことに応じ、処理をステップS202に進める。
ステップS202でカメラ制御部30は、被写体顔候補が存在するか否かを判定する。
ステップS202において、被写体顔候補が存在すると判定した場合、カメラ制御部30はステップS203に進み、追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定して、ステップS104の被写体顔判定処理を終える。
一方、被写体顔候補が存在しないと判定した場合、カメラ制御部30はステップS204に進み、被写体顔が存在しないと判定して、ステップS104の被写体顔判定処理を終える。The explanation returns to FIG. 14.
The
In step S202, the
If it is determined in step S202 that there is a subject face candidate, the
On the other hand, if it is determined that the subject face candidate does not exist, the
図13において、ステップS103の被写体顔判定処理を終えると、カメラ制御部30はステップS104に処理を進めて被写体顔が存在するか否かを判定する。
被写体顔が存在する場合、カメラ制御部30はステップS105に進んで被写体顔でAFを行うと共に、続くステップS106で顔位置を被写体位置として更新する処理を行う。
ここで、ステップS105の処理は、図5に示したAF制御部52としての機能により、被写体顔を対象としたAFが行われるように制御する処理となる。また、ステップS106の処理は、追尾処理部62で追尾対象とする被写体位置を、被写体顔の位置に更新する処理となる。In FIG. 13, after completing the subject face determination process in step S103, the
If the subject's face is present, the
Here, the process of step S105 is a process of controlling the
ステップS106に続くステップS107でカメラ制御部30は、顔・瞳枠表示処理を実行する。すなわち、表示部15の画面上における枠表示に関して、それまで表示されていた追尾枠91を非表示とし、被写体顔の位置に顔・瞳追尾枠92を表示するための処理を実行する。
これにより、先の図9から図10の遷移として説明したような、被写体顔が判定されたことに応じた枠表示切り換えが実現される。
ステップS107の表示処理を実行したことに応じ、カメラ制御部30はステップS111の1フレーム待機処理を実行し、ステップS103の被写体顔判定処理に戻る。In step S107 following step S106, the
As a result, the frame display can be switched in response to the determination of the subject's face, as described above as the transition from FIG. 9 to FIG. 10.
In response to executing the display process in step S107, the
一方、ステップS104で被写体顔が存在しないと判定した場合、カメラ制御部30はステップS108に進み、被写体追尾AFを行う。具体的には、追尾対象の被写体の位置にAFを行うための処理を行う。
そして、続くステップS109でカメラ制御部30は、被写体追尾結果を被写体位置として更新する処理を行う。すなわち、被写体追尾処理により特定した位置を、追尾対象の被写体位置として更新するものである。On the other hand, if it is determined in step S104 that the subject's face does not exist, the
Then, in the subsequent step S109, the
ここで、追尾対象の被写体位置は、ステップS102、ステップS106、又はステップS109で設定(更新)される。仮に、ステップS101で被写体が選択された以降、ステップS104の判定処理で被写体顔が存在するとの判定結果が一度も得られていない状況では、追尾対象の被写体位置は、ステップS101で選択された位置の追尾結果としての位置となる(つまり被写体の胴体部が選択された場合には胴体部の追尾結果としての位置となる)。
また、仮に、ステップS109の処理が、一度、ステップS104の判定処理で被写体顔が存在すると判定され、それ以降のフレームについて行われたステップS104の判定処理で被写体顔が存在しないと判定されたことに応じて実行される場合、追尾対象の被写体位置は、ステップS106で設定された顔位置の追尾結果としての位置となる。この場合のステップS109の処理では、顔位置の追尾結果を、追尾対象の被写体位置として更新する処理が行われることになる。このため、先の図10から図11の遷移として示したように、一度判定された被写体の顔が後を向いて検出されなくなった場合には、該被写体の頭部が追尾されるようになる(つまり選択した胴体部に追尾の対象が切り替わらない)。Here, the subject position to be tracked is set (updated) in step S102, step S106, or step S109. If, after the subject is selected in step S101, the determination process in step S104 has never determined that the subject's face exists, the position of the subject to be tracked will be the position selected in step S101. (In other words, if the torso of the subject is selected, this is the position as the tracking result of the torso).
Furthermore, if the process in step S109 is performed once, it is determined that the subject's face exists in the determination process in step S104, and then it is determined that the subject's face does not exist in the determination process in step S104 performed for subsequent frames. When executed in accordance with , the subject position to be tracked becomes the position as a result of tracking the face position set in step S106. In the process of step S109 in this case, the process of updating the face position tracking result as the subject position of the tracking target is performed. Therefore, as shown in the transition from FIG. 10 to FIG. 11 above, if the face of the subject that has been determined turns backward and is no longer detected, the head of the subject will be tracked. (In other words, the tracking target does not switch to the selected body part).
ステップS109に続くステップS110でカメラ制御部30は、追尾枠表示処理を実行する。すなわち、表示部15の画面上での枠表示として、追尾枠91を表示させる処理を実行する。これにより、ステップS101で被写体が選択された以降、ステップS104で被写体顔が存在するとの判定結果が未だ得られていない状態では、表示部15の画面上での枠表示として、追尾枠91が表示され続ける。また、ステップS104で被写体顔が存在するとの判定結果が得られた以降、該ステップS104で被写体顔が存在しないと判定された場合において、追尾枠91が表示されることになる(図10から図11への遷移を参照)。すなわち、図10から図11への遷移として示したような、顔・瞳追尾枠92から追尾枠91への枠表示切り換えが実現される。
In step S110 following step S109, the
カメラ制御部30は、ステップS110の追尾枠表示処理を実行したことに応じ、ステップS111の1フレーム待機処理に処理を進める。
In response to executing the tracking frame display process in step S110, the
なお、フォーカス枠90、追尾枠91、顔・瞳追尾枠92については、枠形状による表示に限定されず、他の形状を採用することもでき、AFや追尾の対象とされている位置を示すことが可能な何らかの視覚情報を表示すればよい。
Note that the
また、AFや追尾の対象位置を示す情報の表示に関しては、次のような手法を採ることもできる。すなわち、選択された被写体について人体部位の解析処理を行う場合において、被写体の選択後、何れの部位も非検出である状態では被写体位置に追尾枠91を表示し、胴体部が検出されたことに応じて該胴体の範囲を表す胴体枠を表示し、さらに顔が検出されたことに応じて該顔の範囲を示す顔枠を表示し、また瞳が検出されたことに応じて該瞳の範囲を表す瞳枠を表示する、などといった手法である。
なお、AFや追尾の対象とされている位置を示すための視覚情報を表示することは必須ではない。
Further, regarding the display of information indicating the target position of AF or tracking, the following method may be adopted. In other words, when performing human body part analysis processing on a selected subject, if no body part is detected after selecting the subject, the
Note that it is not essential to display visual information to indicate the position targeted for AF or tracking.
<4.変形例>
ここで、図19に示すような、母親としての人物HMmがその子どもとしての人物HMcを抱いているシーンを考える。このときユーザは、母親ではなく子どもを撮影したいと考えているとする。この場合には、ユーザは、図示のように子どもの胴体部などの比較的面積大きい部分にフォーカス枠90を当てた状態でAF操作を行うことが想定され得る。
図19に示すシーンにおいて、母親と子どもの両方の顔が検出されているときには、子どもの顔の方がユーザの選択した位置に対してより近いため、子どもの顔に正しく追尾をかけたりAFを行うことができる。<4. Modified example>
Here, consider a scene as shown in FIG. 19 in which a person HMm as a mother is holding a person HMc as a child. At this time, it is assumed that the user wants to photograph the child rather than the mother. In this case, it can be assumed that the user performs the AF operation while placing the
In the scene shown in Figure 19, when both the mother's and child's faces are detected, the child's face is closer to the user's selected position, so the child's face cannot be tracked correctly or AF can be performed. It can be carried out.
しかしながら、その後、子どもが暴れる等してその顔が非検出状態になったとする(図20参照)。この状態では、画像内に存在する顔が母親の顔のみとなり、且つ、母親の顔は被写体顔候補の条件を満たす可能性が高いため、追尾対象が母親の顔に切り替えられ、且つ母親の顔にAFが行われてしまう虞がある。
以下では、このような事態への対応策としての第一、第二、及び第三変形例について述べる。
なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号や同一ステップ番号を付して説明を省略する。However, it is assumed that after that, the child becomes violent or the like and the face becomes undetected (see FIG. 20). In this state, the only face present in the image is the mother's face, and since the mother's face is highly likely to satisfy the conditions for the subject face candidate, the tracking target is switched to the mother's face, and the mother's face is There is a risk that AF may be performed.
Below, the first, second, and third variations as countermeasures for such situations will be described.
In the following description, parts that are similar to parts that have already been explained are given the same reference numerals and step numbers, and the description thereof will be omitted.
第一変形例は、非被写体顔の導入による対策である。
図21は、第一変形例としての被写体顔判定処理(S103)のフローチャートである。
第一変形例としての被写体顔判定処理では、選択された被写体の顔を一度判定した以降は、該被写体の顔と判定しなかった全ての顔を判定対象から除外する。
具体的に、この場合のカメラ制御部30は、先ずステップS301で、検出済フラグがONであるか否かを判定する。この検出済フラグは、後述するステップS302の処理で、被写体顔が判定されたことに応じてONとされるフラグであり、初期値はOFFである。つまり検出済フラグは、ステップS101で被写体が選択された後、一度でもステップS203の処理が行われたか否か(選択された被写体の顔が一度でも判定されたか否か)を表すフラグとなる。The first modification is a measure by introducing a non-subject face.
FIG. 21 is a flowchart of subject face determination processing (S103) as a first modification.
In the subject face determination process as the first modification, after the face of the selected subject has been determined once, all faces that have not been determined to be the face of the selected subject are excluded from the determination targets.
Specifically, the
ステップS101の被写体の選択後に未だステップS203の処理が実行されておらず、検出済フラグがONでないと判定した場合、カメラ制御部30は図中のLP1、LP2のループ処理に進み、画像内の全ての顔についてステップS201の処理を繰り返し実行する。その後、ステップS202で被写体顔候補が存在するとの肯定結果が得られ、ステップS203の判定処理が実行されたことに応じ、カメラ制御部30は、ステップS302で検出済フラグをONとした上で、ステップS303で被写体顔以外の全ての顔を非被写体顔として設定する処理を行い、ステップS103の被写体顔判定処理を終える。
If it is determined that the process of step S203 has not been executed yet after the selection of the subject in step S101 and the detected flag is not ON, the
以降のフレームにおいては、ステップS301の判定処理で、検出済フラグがONであるとの肯定結果が得られる。
ステップS301で肯定結果が得られた場合、カメラ制御部30は図中のLP1’、LP2’のループ処理に進んで、画像内の非被写体顔以外の顔について、ステップS201の被写体顔候補判定処理を繰り返し実行する。
その後、カメラ制御部30はステップS202’に進んで被写体顔候補が存在するか否かを判定し、被写体顔候補が存在する場合はステップS203’で追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定する処理を行ってステップS103の被写体顔判定処理を終える。一方、被写体顔候補が存在しない場合はステップS204’で被写体顔が存在しないと判定する処理を行ってステップS103の被写体顔判定処理を終える。In subsequent frames, an affirmative result that the detected flag is ON is obtained in the determination process of step S301.
If a positive result is obtained in step S301, the
Thereafter, the
このような第一変形例としての処理により、一度でも被写体顔を判定した以降、被写体顔をロストした場合に行われる被写体判定において、選択された被写体の顔以外の顔が誤って判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。Due to this process in the first modification, faces other than the selected subject's face will be incorrectly determined in the subject determination performed when the subject's face is lost after the subject's face has been determined even once. This will help prevent this.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
続いて、第二変形例について説明する。
第二変形例は、顔紐づけ範囲枠Frの変更による対策である。
図22は、人物HMm、人物HMcそれぞれについての通常の顔紐づけ範囲枠Frを例示した図であり、図23は、人物HMm、人物HMcそれぞれについての変更後の顔紐づけ範囲枠Frを例示した図である。
第二変形例では、一度被写体顔が判定されたら、顔紐づけ範囲枠Frを狭めることで、その後に被写体顔を検出できない状態となっても、他の被写体(母親)の顔が被写体顔として誤判定されることの防止を図る。
図示による説明は省略するが、この場合のカメラ制御部30は、被写体顔が一度も見つかっていない状態では、図22に示した通常の顔紐づけ範囲枠Fr(具体例については図16の説明を参照)を用いて、ステップS104の被写体顔判定処理を行う。
その後、被写体顔が判定されたことに応じて、以降は、図23に示すような通常よりも範囲を狭めた顔紐づけ範囲枠Frを用いてステップS104の被写体顔判定処理を行う。特に本例では、一度被写体顔が判定されていれば、追尾対象の被写体位置(つまりステップS211で顔紐づけ範囲枠Fr内に位置しているか否かが判定される位置)は該被写体顔の付近に位置しているため、顔紐づけ範囲枠Frは体全体まで広げる必要はなく、図23に示すように通常よりも範囲を狭める。なお、ここで言う「範囲を狭める」とは、少なくともX、Y方向の何れか一方の枠長さを狭めることを意味する。Next, a second modification will be explained.
The second modification is a measure by changing the face association range frame Fr.
FIG. 22 is a diagram illustrating a normal face association range frame Fr for each person HMm and person HMc, and FIG. 23 is a diagram illustrating a changed face association range frame Fr for each person HMm and person HMc. This is a diagram.
In the second modification, once the subject's face has been determined, by narrowing the face linking range frame Fr, even if the subject's face cannot be detected afterwards, the face of another subject (mother) can be recognized as the subject's face. Aim to prevent misjudgment.
Although explanations using illustrations are omitted, in this case, when the subject's face has never been found, the
Thereafter, in response to the determination of the subject's face, the subject face determination process of step S104 is thereafter performed using the face association range frame Fr whose range is narrower than usual as shown in FIG. In particular, in this example, once the subject's face has been determined, the subject position to be tracked (that is, the position where it is determined whether or not it is located within the face association range frame Fr in step S211) is the position of the subject's face. Since it is located nearby, the face linking range frame Fr does not need to extend to the entire body, but is narrower than usual as shown in FIG. Note that "narrowing the range" here means narrowing the frame length in at least one of the X and Y directions.
このような第二変形例によっても、一度でも被写体の顔(例えば子どもの顔)を判定した以降、該顔をロストした場合に行われる判定において、選択された被写体の顔以外の顔(例えば母親の顔)が被写体顔として誤判定されてしまうことの防止を図ることができる。
特に、第二変形例によれば、母親の顔が非検出の状態で子どもの顔が被写体顔と判定された場合であっても、子どもの顔が非検出の状態となったときに母親の顔が被写体顔として誤判定されてしまうことの防止を図ることができるEven in such a second modification, after the face of a subject (for example, a child's face) has been determined at least once, when the face is lost, a face other than the face of the selected subject (for example, a mother's face) is detected. It is possible to prevent the face of the subject from being incorrectly determined as the subject's face.
In particular, according to the second modification, even if the child's face is determined to be the subject face while the mother's face is not detected, when the child's face is not detected, the mother's It is possible to prevent a face from being incorrectly determined as the subject's face.
第三変形例は、最初に選択された被写体位置を覚えておくことによる対策である。
例えば、母親と子どもの例において、図24に示すように、ユーザが被写体を選択する操作を行ったときに、子どもが後を向いている状態であったとすると、子どもの顔を検出することができず、母親の顔を被写体顔として誤判定してしまう虞がある。
これまでで説明した処理では、このように母親の顔が被写体顔として判定されてしまうと、母親の顔位置が追尾対象の被写体位置として更新されるため、その後、子どもが前を向いてその顔が検出される状態となっても、母親の顔が検出される限りは、母親の顔が被写体顔として判定され続ける虞がある(図25参照)。すなわち、ユーザが意図する被写体の顔を対象としてAFや追尾を行うことができない虞がある。A third modification is a measure based on remembering the initially selected subject position.
For example, in the example of a mother and child, if the child is facing backwards when the user performs an operation to select the subject, as shown in FIG. 24, it is difficult to detect the child's face. If this is not possible, there is a risk that the mother's face may be incorrectly determined as the subject's face.
In the process explained so far, if the mother's face is determined as the subject's face in this way, the mother's face position is updated as the subject's position to be tracked. Even if the mother's face is detected, there is a possibility that the mother's face will continue to be determined as the subject's face as long as the mother's face is detected (see FIG. 25). That is, there is a possibility that AF or tracking cannot be performed on the face of the subject intended by the user.
図26は、第三変形例としてのメイン処理を例示したフローチャートである。
図13に示したメイン処理との差異点は、ステップS106の処理に代えてステップS120の処理を実行する点である。
ステップS120でカメラ制御部30は、被写体位置から被写体追尾を行い、追尾結果を被写体位置として更新する処理を実行する。すなわち、ステップS104で被写体顔が存在すると判定されても、追尾対象の被写体位置を顔位置に更新せず、それまでの追尾位置を追尾対象の被写体位置として更新するものである。この処理により、追尾対象の被写体位置(ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置)は、ステップS101で選択された位置の追尾結果としての位置のまま維持される。FIG. 26 is a flowchart illustrating main processing as a third modification.
The difference from the main process shown in FIG. 13 is that the process in step S120 is executed instead of the process in step S106.
In step S120, the
このような第三変形例としての処理により、顔が後を向く等して顔が非検出とされた被写体(例えば子ども)が操作により選択されて、選択された被写体以外の被写体の顔(例えば母親の顔)が誤判定された場合であっても、以降の判定としては、選択された被写体の追尾位置(例えば子どもの胴体部の追尾位置)を基準とした判定が行われるため、その後、選択された被写体の顔が前を向く等して該被写体の顔が検出されたときに、該被写体の顔を正しく判定することが可能とされる。 In this process as the third modified example, a subject (for example, a child) whose face is not detected because the face is turned backwards, etc. is selected by operation, and the face of a subject other than the selected subject (for example, Even if the mother's face) is incorrectly determined, subsequent determinations will be made based on the tracking position of the selected subject (for example, the tracking position of the child's torso). When the face of the selected subject is detected such as when the face of the subject is facing forward, it is possible to correctly determine the face of the subject.
なお、ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置を最初にユーザが選んだ被写体位置のまま維持させる手法としては、例えばフレキシブルスポット等のAFエリアの示す位置を該ユーザが選んだ被写体位置とみなす手法が採られてもよい。
Note that as a method for maintaining the position at which it is determined in step S211 whether or not the position exists within the face association range frame Fr as the subject position initially selected by the user, for example, a position indicated by an AF area such as a flexible spot can be used. A method may be adopted in which the position is regarded as the subject position selected by the user.
<5.その他変形例>
なお、上記した具体例はあくまで一例であり、実施形態としては多様な変形例としての構成を採り得る。
例えば、上記では、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げたが、撮像制御パラメータの調整制御としては、他にも自動露出制御(AE)やオートホワイトバランス制御(AWB)などを挙げることができる。すなわち、本技術は、例えば選択された被写体の顔や瞳の露出が最適となるように露出制御を行う場合や、選択された被写体の顔や瞳の色が最適となるようにホワイトバランスの制御を行う場合等にも好適に適用することができる。<5. Other variations>
Note that the above-described specific example is just an example, and the embodiment can take various configurations as modified examples.
For example, in the above, autofocus control was cited as an example of the adjustment control of the imaging control parameters, but there are other ways to adjust the imaging control parameters such as automatic exposure control (AE) and auto white balance control (AWB). ), etc. In other words, this technology can be used, for example, to control exposure so that the exposure of a selected subject's face or eyes is optimal, or to control white balance so that the color of a selected subject's face or eyes is optimal. It can also be suitably applied when carrying out.
また、上記では、検出した顔や瞳の位置から幾何学的に設定した探索範囲(顔紐づけ範囲枠Fr)内に選択された被写体が存在することを条件に、該検出した顔や瞳が選択された被写体の顔や瞳であると判定する例を挙げたが、これに代えて、例えば選択された被写体位置を元にアクティブセグメンテーションを行い、選択された位置と同じセグメントに属する顔や瞳を、選択した被写体の顔や瞳と判定する手法を採ることもできる。 In addition, in the above, on the condition that the selected subject exists within the search range (face association range frame Fr) set geometrically from the position of the detected face or eyes, the detected face or eyes are We have given an example of determining the face or eyes of the selected subject, but instead of this, for example, active segmentation can be performed based on the selected subject position, and the face or eyes belonging to the same segment as the selected position can be determined. It is also possible to adopt a method of determining the face or eyes of the selected subject.
また、上記では顔や瞳に対するAFの例としてAF-CによるAF(顔や瞳にピントを合わせ続けるAF)を行う例を挙げたが、これに代えて、AF-SによるAF(一度顔や瞳にピントを合わせた後、ピントを固定する)を行うこともできる。
In addition, above, we have given an example of AF using AF-C (AF that continues to focus on the face and eyes) as an example of AF for faces and eyes. You can also fix the focus after focusing on the eyes.
<6.実施形態のまとめ>
上記のように実施形態としての撮像制御装置(カメラ制御部30)は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部(被写体顔判定部63)と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部(AF制御部52)と、を備えている。<6. Summary of embodiments>
As described above, the imaging control device (camera control unit 30) according to the embodiment determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by operation. A determination unit (subject face determination unit 63), and an adjustment control unit (AF control unit 52) that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit. There is.
撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
従って、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。The imaging control parameters refer to various control parameters related to imaging using an imaging device, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary part of the subject, such as the torso of the subject, is selected, the face or eyes of the subject are determined, and the imaging control is performed based on the determined position of the face or eyes. Parameter adjustment control is performed. That is, when adjusting imaging control parameters such as autofocus based on the subject's face or eyes, there is no need for the user to directly select the subject's face or eyes.
Therefore, it is possible to simplify the operation for adjusting the imaging control parameters based on the position of the subject's face and eyes.
また、実施形態としての撮像制御装置においては、顔・瞳判定部は、撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が被写体の顔又は瞳に該当するか否かを判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination unit detects a face or eyes present in the captured image, and determines whether the detected face or eyes corresponds to the face or eyes of the subject. Judging.
選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。
従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。As a method of determining the face or eyes of the selected subject, a method of performing image analysis to determine the human body part of the selected subject may be considered, but this type of image analysis processing has a relatively high calculation cost. According to the above configuration, it is possible to determine the face or eyes of the subject without performing such image analysis processing that requires high computational cost.
Therefore, it is possible to reduce the processing load when determining the face or eyes of the subject.
さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との位置関係に基づいて被写体の顔又は瞳を判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination section determines the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject.
これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。
従って、被写体の顔又は瞳の判定精度を高めることができる。This makes it possible to prevent faces or eyes detected in a captured image that are located far apart from each other from being determined as faces or eyes of the subject.
Therefore, the accuracy of determining the subject's face or eyes can be improved.
さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に被写体が位置することを条件として、該検出した顔又は瞳が被写体の顔又は瞳であると判定している。 Furthermore, in the imaging control device as an embodiment, the face/eye determination unit detects the detected face or pupil on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. The face or eyes are determined to be those of the subject.
これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。
従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。Thereby, in determining the face or eyes of a subject, it is sufficient to perform at least a range setting process and a process of determining whether the selected subject is included within the set range for each detected face or eye.
Therefore, it is possible to reduce the processing load when determining the face or eyes of the subject.
また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における位置関係に基づいて被写体の顔又は瞳を判定している。 Furthermore, in the imaging control device according to the embodiment, the face/eye determination unit determines the face or eyes of the subject based on the positional relationship in the depth direction between the detected face or eyes and the subject.
これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。This makes it possible to determine the face or eyes of the subject based not only on the positional relationship in the image plane direction but also on the positional relationship in the depth direction.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との動きの整合性に基づいて被写体の顔又は瞳を判定している。 Further, in the imaging control device according to the embodiment, the face/eye determination section determines the face or eyes of the subject based on consistency of movement between the detected face or eyes and the subject.
これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。As a result, in response to cases where the face or eyes of the subject cannot be appropriately determined based on positional relationships alone, the face or eyes of the subject can be appropriately determined from among the detected faces or eyes based on consistency of movement. is possible.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における動きの整合性に基づいて被写体の顔又は瞳を判定している。 Furthermore, in the imaging control device according to the embodiment, the face/eye determination unit determines the face or eyes of the subject based on the consistency of movement in the depth direction between the detected face or eyes and the subject.
これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。This makes it possible to determine the face or eyes of the subject based not only on the consistency of movement in the plane direction of the image but also on the consistency of movement in the depth direction.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
また、実施形態としての撮像制御装置においては、調整制御部は、撮像制御パラメータの調整制御としてオートフォーカス制御を行い、顔・瞳判定部は、検出した顔又は瞳と被写体の奥行き情報としてオートフォーカス用の測距情報を用いている。 Further, in the imaging control device according to the embodiment, the adjustment control unit performs autofocus control as adjustment control of imaging control parameters, and the face/pupil determination unit performs autofocus control as depth information of the detected face or eyes and the subject. distance measurement information is used.
これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。
従って、撮像装置の小型軽量化を図ることができる。This eliminates the need to provide a separate distance measurement sensor other than the distance measurement sensor for autofocus control in the imaging device when determining the face or eyes of the subject based on the positional relationship in the depth direction and consistency of movement.
Therefore, it is possible to reduce the size and weight of the imaging device.
さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部(追尾処理部62)を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、追尾部が追尾する位置に基づき、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。 Furthermore, the imaging control device according to the embodiment includes a tracking unit (tracking processing unit 62) that tracks the target subject, and the face/pupil determination unit, when determining the face or eyes of the subject, The tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, based on the position tracked by the tracking unit, the detected face or eyes are the subject's face. Or it is determined whether or not it is an pupil.
これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。
従って、一度判定した被写体の顔又は瞳をロストした以降において、再び被写体の顔又は瞳が判定され易くすることができ、被写体の顔又は瞳の判定精度向上を図ることができる。This makes it possible to track the subject's head even if the subject's face or eyes are no longer detected because the subject's face or eyes are turned backwards or the like after the subject's face or eyes have been determined.
Therefore, after the face or eyes of the subject that have been determined once are lost, the face or eyes of the subject can be easily determined again, and the accuracy of determining the face or eyes of the subject can be improved.
さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外している(第一変形例を参照)。 Furthermore, in the imaging control device according to the embodiment, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit may detect all of the detected faces or eyes that are not determined to be the face or eyes of the subject. face or eyes are excluded from the determination target (see the first modification).
これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。This helps prevent a face or eyes other than the subject's face or eyes from being misjudged when the face or eyes of the subject are lost after the face or eyes of the subject have been determined even once. It will be done.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、探索範囲を第一探索範囲から第一探索範囲とは異なる第二探索範囲に切り換えた判定を行っている(第二変形例を参照)。 Further, in the imaging control device according to the embodiment, after determining the face or eyes of the subject from among the detected faces or eyes, the face/eye determination unit changes the search range from the first search range to the first search range. It is determined that the search range has been switched to a second search range different from the above (see the second modification).
これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。This makes it possible to set the search range to a second search range, which is narrower than the first search range, in the judgment performed when the face or eyes of the subject are lost after the face or eyes of the subject have been determined at least once. Thus, it is possible to prevent faces or eyes other than those of the subject from being erroneously determined.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、追尾部は、顔・瞳判定部が被写体の顔又は瞳を判定したか否かに拘わらず、操作により選択された被写体を追尾し続け、顔・瞳判定部は、追尾部が追尾する位置を基準として、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。 Furthermore, the imaging control device according to the embodiment includes a tracking unit that tracks the subject, and the tracking unit is configured to perform the following operations regardless of whether the face/eye determination unit has determined the face or eyes of the subject. The face/eye determination unit continues to track the subject selected by the operation, and determines whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit.
これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。
従って、被写体の顔又は瞳の判定精度向上を図ることができる。As a result, even if a subject whose face or eyes are not detected because the face is turned backwards etc. is selected and the face or eyes of a subject other than the selected subject is incorrectly determined, subsequent judgments will be made. Since the judgment is performed based on the selected subject position, when the face or eyes of the selected subject are detected, such as when the face of the selected subject is facing forward, the face or eyes of the selected subject are detected. It is possible to judge correctly.
Therefore, it is possible to improve the accuracy of determining the face or eyes of the subject.
さらにまた、実施形態としての撮像制御装置においては、操作により被写体が選択されたことに応じて、撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、第一視覚情報を非表示とさせる表示制御部(同55)を備えている(図6から図10を参照)。 Furthermore, in the imaging control device as an embodiment, in response to a subject being selected by an operation, the first visual information is displayed at the position of the subject on the display unit that displays the captured image, and face/pupil determination is performed. Display control that causes the display unit to display second visual information at the position of the determined face or eyes and hide the first visual information in response to the determination of the face or eyes of the subject by the unit. (see FIGS. 6 to 10).
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。
従って、追尾に係る情報の通知精度向上を図ることができる。This makes it possible to intuitively and easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
Therefore, it is possible to improve the accuracy of notification of information related to tracking.
また、実施形態としての撮像制御装置においては、表示制御部は、第二視覚情報として、第一視覚情報とは異なる形状の情報を表示させている。 Furthermore, in the imaging control device according to the embodiment, the display control unit displays information having a shape different from that of the first visual information as the second visual information.
これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。
従って、追尾に係る情報の通知精度のさらなる向上を図ることができる。This makes it possible to intuitively and more easily notify the user that tracking of the selected subject has been switched to tracking of the face or eyes.
Therefore, it is possible to further improve the accuracy of reporting information regarding tracking.
さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾対象被写体をそれまでの追尾対象被写体で維持させ、調整制御部は、追尾部が追尾する位置の情報に基づいて撮像制御パラメータの調整制御を行い、表示制御部は、顔・瞳判定部が判定した顔又は瞳を検出できなくなったことに応じて、追尾部が追尾する位置に、第二視覚情報とは異なる視覚情報を表示させる制御を行っている(図10及び図11を参照)。 Furthermore, the imaging control device according to the embodiment includes a tracking unit that tracks the subject, and when the face/eye determination unit determines the face or eyes of the subject, the tracking unit determines that the subject is the subject of tracking. The tracking target subject, which is the subject to be photographed, is updated to the determined face or eyes, and if the determined face or eyes are no longer detected in the captured image, the tracking target subject is maintained as the previous tracking target subject. The adjustment control unit performs adjustment control of the imaging control parameters based on the information of the position tracked by the tracking unit, and the display control unit adjusts the imaging control parameters in response to the fact that the face or eyes determined by the face/pupil determination unit can no longer be detected. Control is performed to display visual information different from the second visual information at the position tracked by the tracking unit (see FIGS. 10 and 11).
上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。
従って、追尾及び撮像制御パラメータ調整に係る情報の通知精度向上を図ることができる。According to the above configuration, after the face or eyes of the selected subject is determined, until the face or eyes of the selected subject becomes undetected, for example, when the face of the subject turns backward, the face or eyes of the selected subject are determined. The imaging control parameters are adjusted based on the position of . According to the above configuration, when the face or eyes of the selected subject is not detected, the face (head) position of the selected subject continues to be tracked, and the position of the face (head) of the selected subject continues to be tracked. , visual information different from the second visual information is displayed (for example, the display is switched from the face/
Therefore, it is possible to improve the accuracy of notification of information related to tracking and imaging control parameter adjustment.
さらにまた、実施形態としての撮像制御装置においては、被写体は人であるものとされている。 Furthermore, in the imaging control device according to the embodiment, the subject is a person.
これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。
従って、人の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。This eliminates the need for the user to directly select a person's face or eyes when adjusting the imaging control parameters based on the person's face or eyes.
Therefore, it is possible to facilitate the operation for adjusting the imaging control parameters based on the positions of the person's face and eyes.
また、実施形態としての撮像制御装置においては、被写体は動物であるものとされている。 Furthermore, in the imaging control device according to the embodiment, the subject is an animal.
これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。
従って、動物の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。This eliminates the need for the user to directly select the face or eyes of an animal, such as a dog, cat, or bird, in order to adjust the imaging control parameters based on the face or eyes of the animal.
Therefore, it is possible to facilitate the operation for adjusting the imaging control parameters based on the position of the animal's face and eyes.
また、実施形態としての撮像装置(同1)は、撮像画像を得る撮像部(撮像素子12)と、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備えている。 In addition, the imaging device (same 1) as an embodiment includes an imaging unit (imaging device 12) that obtains a captured image, and a face of the selected subject in response to selection of a subject in the captured image by operation. Alternatively, it includes a face/pupil determination section that determines the pupils, and an adjustment control section that performs adjustment control of the imaging control parameters based on the position information of the face or the pupils determined by the face/pupil determination section.
また、実施形態の撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。 Further, in the imaging control method of the embodiment, in response to a subject being selected in a captured image by an operation, the face or eyes of the selected subject is determined, and based on the position information of the determined face or eyes. This is an imaging control method that performs adjustment control of imaging control parameters.
これらの撮像装置、撮像制御方法によっても、上記した実施形態としての撮像制御装置と同様の作用及び効果が得られる。 These imaging devices and imaging control methods can also provide the same operations and effects as the imaging control device of the above-described embodiment.
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
Note that the effects described in this specification are merely examples and are not limiting, and other effects may also exist.
<7.本技術>
なお本技術は以下のような構成も採ることができる。
(1)
操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える
撮像制御装置。
(2)
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定する
前記(1)に記載の撮像制御装置。
(3)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定する
前記(2)に記載の撮像制御装置。
(4)
前記顔・瞳判定部は、
前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
前記(2)に記載の撮像制御装置。
(5)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
前記(3)又は(4)の何れかに記載の撮像制御装置。
(6)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
前記(2)から(5)の何れかに記載の撮像制御装置。
(7)
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
前記(6)に記載の撮像制御装置。
(8)
前記調整制御部は、
前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
前記(5)又は(7)に記載の撮像制御装置。
(9)
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
前記(2)から(8)の何れかに記載の撮像制御装置。
(10)
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
前記(2)から(9)の何れかに記載の撮像制御装置。
(11)
前記顔・瞳判定部は、
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
前記(4)から(10)の何れかに記載の撮像制御装置。
(12)
対象とされた被写体を追尾する追尾部を備え、
前記追尾部は、
前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
前記顔・瞳判定部は、
前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
前記(2)から(8)の何れかに記載の撮像制御装置。
(13)
前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備える
前記(1)から(12)の何れかに記載の撮像制御装置。
(14)
前記表示制御部は、
前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
前記(13)に記載の撮像制御装置。
(15)
対象とされた被写体を追尾する追尾部を備え、
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
前記調整制御部は、
前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
前記表示制御部は、
前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
前記(13)又は(14)に記載の撮像制御装置。
(16)
前記被写体は人である
前記(1)から(15)の何れかに記載の撮像制御装置。
(17)
前記被写体は動物である
前記(1)から(15)の何れかに記載の撮像制御装置。<7. This technology>
Note that the present technology can also adopt the following configuration.
(1)
a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by an operation;
An imaging control device, comprising: an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or pupils determined by the face/eye determination unit.
(2)
The face/eye determination unit includes:
The imaging control device according to (1) above, wherein a face or eyes present in the captured image is detected, and it is determined whether the detected face or eyes corresponds to the face or eyes of the subject.
(3)
The face/eye determination unit includes:
The imaging control device according to (2), wherein the face or eyes of the subject is determined based on the positional relationship between the detected face or eyes and the subject.
(4)
The face/eye determination unit includes:
The detected face or eyes are determined to be the face or eyes of the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or eyes. ).
(5)
The face/eye determination unit includes:
The imaging control device according to any one of (3) or (4), wherein the face or eyes of the subject is determined based on the positional relationship in the depth direction between the detected face or eyes and the subject.
(6)
The face/eye determination unit includes:
The imaging control device according to any one of (2) to (5), wherein the face or eyes of the subject is determined based on consistency of movement between the detected face or eyes and the subject.
(7)
The face/eye determination unit includes:
The imaging control device according to (6), wherein the face or eyes of the subject is determined based on consistency of movement in the depth direction between the detected face or eyes and the subject.
(8)
The adjustment control section includes:
Performing autofocus control as adjustment control of the imaging control parameter,
The face/eye determination unit includes:
The imaging control device according to (5) or (7), wherein distance measurement information for autofocus is used as depth information of the detected face or eyes and the subject.
(9)
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, the tracking unit The imaging control device according to any one of (2) to (8), wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on the position to be tracked.
(10)
The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, all faces or eyes that are not determined to be the face or eyes of the subject are excluded from the determination targets (2) to (9). ).
(11)
The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, a determination is made in which the search range is switched from the first search range to a second search range different from the first search range. The imaging control device according to any one of 4) to (10).
(12)
Equipped with a tracking unit that tracks the targeted subject,
The tracking unit is
Continue to track the subject selected by the operation regardless of whether the face/eye determination unit has determined the face or eyes of the subject;
The face/eye determination unit includes:
The imaging control device according to any one of (2) to (8), wherein it is determined whether the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit.
(13)
In response to the selection of the subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the face or eyes of the subject is determined by the face/eye determination unit. a display control unit that displays second visual information on the display unit at the determined face or pupil position and hides the first visual information in accordance with the determined face or pupil position. The imaging control device according to any one of (12).
(14)
The display control section includes:
The imaging control device according to (13) above, wherein information having a shape different from that of the first visual information is displayed as the second visual information.
(15)
Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and the determined face or eyes are included in the captured image. If the tracking target is no longer detected, the tracking target is maintained as the tracking target until then,
The adjustment control section includes:
Adjustment control of the imaging control parameters is performed based on information on the position tracked by the tracking unit,
The display control section includes:
Control is performed to display visual information different from the second visual information at the position tracked by the tracking unit in response to the fact that the face/eye determination unit is no longer able to detect the determined face or eye. 13) or the imaging control device according to (14).
(16)
The imaging control device according to any one of (1) to (15) above, wherein the subject is a person.
(17)
The imaging control device according to any one of (1) to (15) above, wherein the subject is an animal.
1 撮像装置、12 撮像素子、30 カメラ制御部、51 AF測距部、52 AF制御部、53 画像認識部、55 表示制御部、61 顔・瞳検出部、62 追尾処理部、63 被写体顔判定部、90 フォーカス枠、91 追尾枠、92 顔・瞳追尾枠、110S シャッターボタン、101 表示パネル、102 ビューファインダー、Ff 顔検出枠、Fr 顔紐づけ範囲枠 1 Imaging device, 12 Imaging element, 30 Camera control unit, 51 AF ranging unit, 52 AF control unit, 53 Image recognition unit, 55 Display control unit, 61 Face/pupil detection unit, 62 Tracking processing unit, 63 Subject face determination part, 90 focus frame, 91 tracking frame, 92 face/eye tracking frame, 110S shutter button, 101 display panel, 102 viewfinder, Ff face detection frame, Fr face linking range frame
Claims (17)
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備え、
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像制御装置。 a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by an operation;
an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit ,
The face/eye determination unit includes:
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging control device.
前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
請求項1に記載の撮像制御装置。 The face/eye determination unit includes:
Claim 1 : The detected face or pupil is determined to be the face or pupil of the subject on the condition that the subject is located within a geometrically set search range from the position of the detected face or pupil. The imaging control device described in .
前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
請求項1に記載の撮像制御装置。 The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein the face or eyes of the subject is determined based on a positional relationship in the depth direction between the detected face or eyes and the subject.
前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
請求項1に記載の撮像制御装置。 The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein the face or eyes of the subject is determined based on consistency of movement between the detected face or eyes and the subject.
前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
請求項4に記載の撮像制御装置。 The face/eye determination unit includes:
The imaging control device according to claim 4 , wherein the face or eyes of the subject is determined based on consistency of movement in the depth direction between the detected face or eyes and the subject.
前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
前記顔・瞳判定部は、
前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
請求項3又は請求項5に記載の撮像制御装置。 The adjustment control section includes:
Performing autofocus control as adjustment control of the imaging control parameter,
The face/eye determination unit includes:
The imaging control device according to claim 3 or 5 , wherein distance measurement information for autofocus is used as the depth information of the detected face or eyes and the subject.
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
請求項1に記載の撮像制御装置。 Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and in subsequent determinations, the tracking unit The imaging control device according to claim 1 , wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on the position to be tracked.
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
請求項1に記載の撮像制御装置。 The face/eye determination unit includes:
Imaging according to claim 1 , wherein after determining the face or eyes of the subject from among the detected faces or eyes, all faces or eyes that are not determined to be the face or eyes of the subject are excluded from the determination targets. Control device.
前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
請求項2に記載の撮像制御装置。 The face/eye determination unit includes:
After determining the face or eyes of the subject from among the detected faces or eyes, determination is made by switching the search range from the first search range to a second search range different from the first search range. 2. The imaging control device according to 2 .
前記追尾部は、
前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
前記顔・瞳判定部は、
前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
請求項1に記載の撮像制御装置。 Equipped with a tracking unit that tracks the targeted subject,
The tracking unit is
Continue to track the subject selected by the operation regardless of whether the face/eye determination unit has determined the face or eyes of the subject;
The face/eye determination unit includes:
The imaging control device according to claim 1 , wherein it is determined whether the detected face or eyes are the face or eyes of the subject based on a position tracked by the tracking unit.
請求項1に記載の撮像制御装置。 In response to the selection of the subject by the operation, first visual information is displayed at the position of the subject on the display unit that displays the captured image, and the face or eyes of the subject is determined by the face/eye determination unit. according to claim 1, further comprising a display control unit that causes the display unit to display second visual information at the determined face or pupil position and to hide the first visual information in response to the determined face or pupil position. imaging control device.
前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
請求項11に記載の撮像制御装置。 The display control section includes:
The imaging control device according to claim 11 , wherein information having a shape different from that of the first visual information is displayed as the second visual information.
前記顔・瞳判定部は、
前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
前記調整制御部は、
前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
前記表示制御部は、
前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
請求項11に記載の撮像制御装置。 Equipped with a tracking unit that tracks the targeted subject,
The face/eye determination unit includes:
When the face or eyes of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or eyes, and the determined face or eyes are included in the captured image. If the tracking target is no longer detected, the tracking target is maintained as the tracking target until then,
The adjustment control section includes:
Adjustment control of the imaging control parameters is performed based on information on the position tracked by the tracking unit,
The display control section includes:
Control is performed to display visual information different from the second visual information at a position tracked by the tracking unit in response to the fact that the face/eye determination unit is unable to detect the determined face or eye. 12. The imaging control device according to 11 .
請求項1に記載の撮像制御装置。 The imaging control device according to claim 1, wherein the subject is a person.
請求項1に記載の撮像制御装置。 The imaging control device according to claim 1, wherein the subject is an animal.
操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備え、
前記顔・瞳判定部は、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像装置。 an imaging unit that obtains a captured image;
a face/eye determination unit that determines the face or eyes of the selected subject in response to the selection of the subject in the captured image by operation;
an adjustment control unit that performs adjustment control of imaging control parameters based on position information of the face or eyes determined by the face/eye determination unit ,
The face/eye determination unit includes:
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging device.
前記顔又は瞳の判定においては、
前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを、前記検出した顔又は瞳と前記被写体との位置関係に基づいて判定する
撮像制御方法。 In response to the selection of a subject in the captured image by an operation, the face or eyes of the selected subject is determined, and the imaging control parameters are adjusted and controlled based on the determined positional information of the face or eyes. ,
In the face or eye determination,
Detecting a face or eyes existing in the captured image, and determining whether the detected face or eyes corresponds to the face or eyes of the subject based on the positional relationship between the detected face or eyes and the subject. judge
Imaging control method.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018240192 | 2018-12-21 | ||
JP2018240192 | 2018-12-21 | ||
PCT/JP2019/047226 WO2020129620A1 (en) | 2018-12-21 | 2019-12-03 | Imaging control device, imaging device, and imaging control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020129620A1 JPWO2020129620A1 (en) | 2021-11-04 |
JP7342883B2 true JP7342883B2 (en) | 2023-09-12 |
Family
ID=71101446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561272A Active JP7342883B2 (en) | 2018-12-21 | 2019-12-03 | Imaging control device, imaging device, imaging control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7342883B2 (en) |
WO (1) | WO2020129620A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6817590B1 (en) * | 2020-07-27 | 2021-01-20 | パナソニックIpマネジメント株式会社 | Imaging device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196385A (en) | 2004-01-06 | 2005-07-21 | Toshiba Corp | Image processing apparatus, image processing method and digital camera |
JP2010186004A (en) | 2009-02-12 | 2010-08-26 | Sony Corp | Imaging apparatus, method for controlling the same, and program |
-
2019
- 2019-12-03 WO PCT/JP2019/047226 patent/WO2020129620A1/en active Application Filing
- 2019-12-03 JP JP2020561272A patent/JP7342883B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196385A (en) | 2004-01-06 | 2005-07-21 | Toshiba Corp | Image processing apparatus, image processing method and digital camera |
JP2010186004A (en) | 2009-02-12 | 2010-08-26 | Sony Corp | Imaging apparatus, method for controlling the same, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2020129620A1 (en) | 2020-06-25 |
JPWO2020129620A1 (en) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5251215B2 (en) | Digital camera | |
JP5409189B2 (en) | Imaging apparatus and control method thereof | |
TWI419552B (en) | Imaging apparatus, subject tracking method and storage medium | |
JP5268433B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
EP2168005B1 (en) | Focus control apparatus, image sensing apparatus, and control method therefor | |
JP6184189B2 (en) | SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM | |
US8988535B2 (en) | Photographing control method and apparatus according to motion of digital photographing apparatus | |
JP2006295888A (en) | Imaging apparatus and control method of display | |
JP4552997B2 (en) | Imaging apparatus and program | |
JP5030022B2 (en) | Imaging apparatus and program thereof | |
JP2007129310A (en) | Imaging apparatus | |
JP2014017665A (en) | Display control unit, control method for display control unit, program, and recording medium | |
JP7342883B2 (en) | Imaging control device, imaging device, imaging control method | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2008054031A (en) | Digital camera and display control method | |
JP7122916B2 (en) | IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM AND STORAGE MEDIUM | |
JP2010050746A (en) | Imaging apparatus and control method thereof | |
JP2008098755A (en) | Imaging apparatus and method | |
JP6602093B2 (en) | Imaging apparatus, imaging method, imaging system, and program | |
CN114080796B (en) | Imaging apparatus, imaging method, and program | |
US11050923B2 (en) | Imaging apparatus and control method | |
JP2011155692A (en) | Imaging apparatus and its program | |
JP5375943B2 (en) | Imaging apparatus and program thereof | |
JP2011071671A (en) | Image recognition device and imaging apparatus | |
CN114080796A (en) | Imaging apparatus, imaging method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7342883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |