WO2020129620A1 - 撮像制御装置、撮像装置、撮像制御方法 - Google Patents

撮像制御装置、撮像装置、撮像制御方法 Download PDF

Info

Publication number
WO2020129620A1
WO2020129620A1 PCT/JP2019/047226 JP2019047226W WO2020129620A1 WO 2020129620 A1 WO2020129620 A1 WO 2020129620A1 JP 2019047226 W JP2019047226 W JP 2019047226W WO 2020129620 A1 WO2020129620 A1 WO 2020129620A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
pupil
subject
unit
determined
Prior art date
Application number
PCT/JP2019/047226
Other languages
English (en)
French (fr)
Inventor
裕 君島
洋平 高田
高弘 佐藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2020561272A priority Critical patent/JP7342883B2/ja
Publication of WO2020129620A1 publication Critical patent/WO2020129620A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present technology relates to an imaging control device, an imaging device, and an imaging control method, and particularly to a technology suitable for performing adjustment control of imaging control parameters such as autofocus control.
  • Some image pickup apparatuses perform adjustment control for image pickup control parameters such as autofocus control and automatic exposure control (AE).
  • autofocus control there has been recently used a technique of analyzing a captured image or recognizing a subject to perform autofocus on the subject while tracking the target subject.
  • autofocus control there is also known a technique of detecting the face or the pupil of the subject and performing the autofocus on the detected face or the pupil.
  • Patent Document 1 describes a technique relating to an autofocus operation and a tracking operation.
  • the user of the imaging device selects the face or the pupil of the target subject from the image displayed on the display unit by the touch operation. Or by moving the cursor with a cross key or the like to select the face or the pupil, or by changing the orientation of the imaging device, the AF (autofocus) frame displayed on the display unit is moved to the face or the pupil. It is conceivable to perform an operation such as positioning it at the pupil part.
  • the present technology has been made in view of the above circumstances, and an object thereof is to facilitate the operation for realizing the adjustment of the imaging control parameter based on the position of the face or pupil of the subject.
  • An imaging control device a face/pupil determination unit that determines a face or pupil of the selected subject in response to selection of a subject in a captured image by an operation,
  • An adjustment control unit that performs adjustment control of the imaging control parameter based on the face or pupil position information determined by the face/pupil determination unit.
  • the image pickup control parameters mean various control parameters relating to image pickup using the image pickup device, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary portion of the subject such as the body of the subject is selected, the determination process of the face or the pupil of the subject is performed, and the imaging control based on the determined position of the face or the pupil is performed. Parameter adjustment control is performed. That is, it is not necessary for the user to directly select the face or the pupil of the subject in order to realize the adjustment of the imaging control parameter such as the autofocus based on the face or the pupil of the subject.
  • the face/pupil determination unit detects a face or a pupil present in the captured image, and whether the detected face or pupil corresponds to the face or the pupil of the subject. It may be possible to determine whether or not.
  • a method for determining the face or pupil of the selected subject a method of performing image analysis to determine the human body part of the selected subject can be considered, but this type of image analysis processing is relatively expensive. According to the above configuration, it is possible to determine the face or the pupil of the subject without performing such an image analysis process with high calculation cost.
  • the face/pupil determination unit determines the face or pupil of the subject based on the positional relationship between the detected face or pupil and the subject.
  • the face/pupil determination unit may be configured such that the subject is located within a search range geometrically set from the detected face or pupil position. It is conceivable to determine that the detected face or pupil is the face or pupil of the subject.
  • the face/pupil determination unit may determine the face or pupil of the subject based on a positional relationship between the detected face or pupil and the subject in the depth direction. Conceivable.
  • the face/pupil determination unit determines the face or pupil of the subject based on the consistency of movement between the detected face or pupil and the subject.
  • the face or the pupil of the subject can be appropriately determined from the detected faces or the pupils based on the matching of the movements in a case where the face or the pupil of the subject cannot be appropriately determined only by the positional relationship. Is possible.
  • the face/pupil determination unit determines the face or pupil of the subject based on the consistency of movement of the detected face or pupil and the subject in the depth direction. It is possible.
  • the adjustment control unit performs autofocus control as adjustment control of the imaging control parameter
  • the face/pupil determination unit is configured to detect the detected face or pupil and the subject. It is conceivable to use distance measurement information for autofocus as depth information.
  • a tracking unit that tracks a target subject is provided, and when the face/pupil determination unit determines the face or pupil of the subject, the tracking unit performs tracking.
  • the tracking target subject which is the target subject of, is updated to the determined face or pupil, and in the subsequent determinations, the detected face or pupil is the face of the subject based on the position tracked by the tracking unit. Alternatively, it may be considered to determine whether or not the pupil.
  • the face/pupil determination unit determines the face or pupil of the subject after determining the face or pupil of the subject from the detected faces or pupils. It is conceivable to exclude all the faces or pupils that did not exist from the determination target.
  • the face/pupil determination unit determines the search range from the first search range after determining the face or pupil of the subject from the detected faces or pupils. It is conceivable to perform the determination by switching to the second search range different from the first search range.
  • a tracking unit that tracks a target subject is provided, and the tracking unit determines whether the face/pupil determination unit determines the face or the pupil of the subject. Regardless, the subject selected by the operation is continuously tracked, and the face/pupil determination unit determines whether the detected face or pupil is the face or pupil of the subject with reference to the position tracked by the tracking unit. It may be possible to determine whether or not.
  • the subsequent determination is performed. Since the determination is performed based on the selected subject position, when the face or pupil of the selected subject is detected such that the face of the selected subject faces forward, the face or pupil of the subject is detected. Can be correctly determined.
  • the display unit that displays the captured image displays the first visual information at the position of the subject
  • the second visual information is displayed at the position of the determined face or pupil on the display unit, and the first visual information is not displayed. It is conceivable to provide a display control unit that causes
  • the display control unit displays, as the second visual information, information having a shape different from that of the first visual information.
  • a tracking unit that tracks a target subject is provided, and when the face/pupil determination unit determines the face or pupil of the subject, the tracking unit performs tracking.
  • the tracking target subject which is the target subject of the above
  • the adjustment control unit performs adjustment control of the imaging control parameter based on the information of the position tracked by the tracking unit, and the display control unit determines the face/pupil determination unit by the determination. It is conceivable to perform control so that visual information different from the second visual information is displayed at the position tracked by the tracking unit when the face or the pupil cannot be detected.
  • the face or the pupil of the selected subject is not detected until the face or the pupil is in a non-detected state, for example, when the face of the subject faces backward.
  • the imaging control parameters are adjusted with reference to the position of.
  • the face or the pupil of the selected subject is in a non-detection state
  • the face (head) position of the selected subject is continuously tracked, and the tracking position is compared with the tracking position.
  • Visual information different from the second visual information is displayed (for example, display switching from the face/pupil tracking frame 92 to the tracking frame 91).
  • the subject is a person.
  • the subject is an animal.
  • the imaging device is an image capturing unit that obtains a captured image, and a face/pupil that determines a face or a pupil of the selected subject in response to a subject being selected in the captured image by an operation.
  • a determination unit, and an adjustment control unit that performs adjustment control of imaging control parameters based on the face or pupil position information determined by the face/pupil determination unit.
  • the imaging control method determines the face or the pupil of the selected subject in response to the selection of the subject in the captured image by an operation, and determines the position information of the determined face or the pupil. This is an imaging control method for performing adjustment control of imaging control parameters based on the above.
  • FIG. 3 is a side view of a lens barrel that can be attached to the image pickup apparatus as the embodiment.
  • FIG. 9 is an explanatory diagram of a display example at the time of autofocus in the embodiment. It is explanatory drawing of the example of a display at the time of tracking in embodiment. It is operation
  • FIG. 6 is a flowchart illustrating an example of main processing for realizing automatic focus control on a face or pupil of a subject.
  • 9 is a flowchart showing an example of subject face determination processing.
  • 9 is a flowchart showing a process as a first example of a subject face candidate determination process. It is a figure which illustrated the relationship between a face detection frame and a face tying range frame.
  • 9 is a flowchart showing processing as a second example of subject face candidate determination processing.
  • FIG. 6 is a diagram showing an example of performing autofocus on a moving subject. It is the figure which showed an example of the scene of an imaging target.
  • FIG. 9 is a flowchart of subject face determination processing as a first modification. It is the figure which illustrated the normal face tying range frame. It is the figure which illustrated the face connection range frame after a change. It is the figure which illustrated the scene which should be taken in the third modification. Similarly, it is the figure which illustrated the scene which should be taken measures in the 3rd modification. It is a flow chart which illustrated the main processing as the 3rd modification.
  • Imaging device configuration> ⁇ 2. Description of Operation of Embodiment> ⁇ 3. Processing procedure> ⁇ 4. Modification> ⁇ 5. Other modifications> ⁇ 6. Summary of Embodiments> ⁇ 7.
  • This technology> the term "autofocus” is also referred to as "AF”.
  • autofocus control will be taken as an example.
  • the image pickup control parameters mean various control parameters relating to image pickup using the image pickup apparatus.
  • FIG. 1 is a perspective view from the front of an imaging device 1 as an embodiment according to the present technology
  • FIG. 2 is a rear view.
  • the image pickup apparatus 1 is a so-called digital still camera, and it is possible to perform both still image pickup and moving image pickup by switching the image pickup modes. It should be noted that in the present embodiment, the image pickup apparatus 1 is not limited to a digital still camera, and may be a video camera mainly used for moving image pickup and capable of still image pickup.
  • a lens barrel 2 (lens barrel 2A in FIG. 1) is arranged on the front side of a main body housing 100 that constitutes the camera body, or is detachable.
  • a display panel 101 including a display device such as a liquid crystal display (LCD) or an organic EL (Electro-Luminescence) display is provided on the back side (user side) of the imaging device 1.
  • a display unit formed by using an LCD, an organic EL display or the like is also provided. The user can visually recognize the image and various information through the display panel 101 and the viewfinder 102.
  • the image pickup apparatus 1 is provided with both the display panel 101 and the viewfinder 102, but the present invention is not limited to this, and a configuration in which only one of the display panel 101 and the viewfinder 102 is provided, Both or one of the display panel 101 and the viewfinder 102 may be detachable.
  • Various operators 110 are provided on the main body housing 100 of the imaging device 1.
  • various forms such as a key, a dial, and a combined pressing/rotating operator are provided to realize various operation functions.
  • a menu operation, a reproduction operation, a mode selection operation, a focus operation, a zoom operation, and a parameter selection operation such as a shutter speed and an F value (F-number) can be performed.
  • F-number an F value
  • the shutter button 110S is used for shutter operation (release operation) and AF operation by half-press.
  • the assignable button 110C is an operator also called a custom button, and is a button to which a user can assign an arbitrary operation function.
  • the shutter button 110S is disposed on the right upper surface of the main body housing 100, and can be pressed with the index finger of the right hand while the user holds the grip portion 103 with the right hand, for example.
  • the assignable button 110C is arranged on the upper rear side of the main body housing 100 as shown in FIG. 2, for example, and can be pressed by the user with the thumb of the right hand. That is, the shutter button 110S and the assignable button 110C are arranged at positions where the user can operate them with the index finger and thumb when the user holds the main body housing 100 while holding the grip portion 112 with the right hand, that is, each of them is arbitrary. It can be pressed individually or simultaneously.
  • the shutter button 110S and the button for tracking operation are not necessarily required to be operated simultaneously with one hand.
  • the shutter button 110S may be pressed with the right hand and the tracking operation may be performed with the left hand. Therefore, for example, the tracking operation may be performed by using the button of the lens barrel 2.
  • FIG. 3 shows an example of a lens barrel 2B that can be mounted on the front side of the main body housing 100.
  • Various operating elements 120 are also provided on the lens barrel 2B.
  • the assignable button 120C provided at a position slightly below the side surface is assigned to the tracking operation button.
  • the user grips the grip portion 103 with the right hand, and the left hand performs imaging in a style in which the lens barrel 2 is supported from below.
  • the assignable button 120C can be pressed by the thumb of the left hand. Even with such an arrangement, the shutter button 110S and the assignable button 120C can be operated simultaneously with each other or can be operated separately separately.
  • FIG. 4 shows the internal configuration of the image pickup apparatus 1 including the lens barrel 2. It should be noted that here, an example in which the imaging device 1 is configured by being divided into a main body housing 100 and a lens barrel 2 will be described, but a portion corresponding to the lens barrel 2 is integrated with the main body housing 100. Good.
  • the imaging device 1 includes an image sensor (image sensor) 12, a camera signal processing unit 13, a recording unit 14, a display unit 15, an output unit 16, an operation unit 17, a power supply unit 18, a camera control unit 30, and a memory in a main body housing 100. It has a part 31. Further, the lens barrel 2 has a lens system 21, a driver unit 22, a lens control unit 23, and an operation unit 24.
  • the lens system 21 of the lens barrel 2 includes lenses such as a cover lens, a zoom lens, and a focus lens, and an iris mechanism.
  • Light (incident light) from a subject is guided by the lens system 21 and is condensed on the image sensor 12 in the image capturing apparatus 1.
  • the image sensor 12 is configured as, for example, a CCD (Charge Coupled Device) type, a CMOS (Complementary Metal Oxide Semiconductor) type, or the like.
  • the image sensor 12 performs, for example, CDS (Correlated Double Sampling) processing and AGC (Automatic Gain Control) processing on an electric signal obtained by photoelectrically converting the received light, and further A/D (Analog/Digital) processing. Perform conversion processing. Then, the image pickup signal as digital data is output to the camera signal processing unit 13 and the camera control unit 30 in the subsequent stage.
  • the camera signal processing unit 13 is configured as an image processor such as a DSP (Digital Signal Processor).
  • the camera signal processing unit 13 performs various kinds of signal processing on the digital signal (captured image signal) from the image sensor 12. For example, the camera signal processing unit 13 performs preprocessing, synchronization processing, YC generation processing, resolution conversion processing, codec processing, and the like.
  • a clamp process for clamping the R, G, B black levels to a predetermined level, a correction process between the R, G, B color channels, and the like are performed on the captured image signal from the image sensor 12. ..
  • demosaic processing is performed so that the image data for each pixel has all R, G, B color components.
  • YC generation processing a luminance (Y) signal and a color (C) signal are generated (separated) from the R, G, and B image data.
  • the resolution conversion process the resolution conversion process is executed on the image data that has been subjected to various signal processes.
  • codec processing encoding processing for recording or communication is performed on the resolution-converted image data.
  • the recording unit 14 is composed of, for example, a non-volatile memory, and stores image files (content files) such as still image data and moving image data, attribute information of image files, thumbnail images, and the like.
  • the image file is stored in a format such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), and GIF (Graphics Interchange Format).
  • JPEG Joint Photographic Experts Group
  • TIFF Tagged Image File Format
  • GIF Graphics Interchange Format
  • the recording unit 14 may be a flash memory built in the image pickup apparatus 1, or a memory card (for example, a portable flash memory) that can be attached to and detached from the image pickup apparatus 1 and a card recording/reproduction for performing recording/reproduction access to the memory card. It may be in the form of parts. Further, it may be realized as an HDD (Hard Disk Drive) as a form built in the image pickup apparatus 1.
  • HDD Hard Disk Drive
  • the display unit 15 is a display unit that performs various displays for the imager, and specifically, the display panel 101 and the viewfinder 102 shown in FIG. 2 are shown.
  • the display unit 15 causes various displays to be performed on the display screen based on an instruction from the camera control unit 30.
  • the display unit 15 displays the reproduced image of the image data read from the recording medium by the recording unit 14.
  • the display unit 15 is supplied with image data of a captured image whose resolution has been converted for display by the camera signal processing unit 13.
  • the display unit 15 displays a so-called through image (a monitoring image of the subject), which is a captured image in the standby state of the release, by performing display based on the image data of the captured image according to an instruction from the camera control unit 30.
  • the display unit 15 causes the display of various operation menus, icons, messages, etc., that is, as a GUI (Graphical User Interface) on the screen based on an instruction from the camera control unit 30.
  • GUI Graphic User Interface
  • the output unit 16 performs wired or wireless data communication or network communication with an external device.
  • the captured image data (still image file or moving image file) is transmitted and output to an external display device, recording device, reproduction device, or the like.
  • the output unit 16 is a network communication unit, and performs communication through various networks such as the Internet, a home network, and a LAN (Local Area Network), and transmits and receives various data to and from servers, terminals, and the like on the network. You may do it.
  • the operation unit 17 collectively shows an input device for the user to input various operations. Specifically, the operation unit 17 shows various operators 110 (including a shutter button 110S and an assignable button 110C) provided on the main body housing 100. A user operation is detected by the operation unit 17, and a signal corresponding to the input operation is sent to the camera control unit 30.
  • the operation unit 17 not only the operator 110 but also a touch panel may be used.
  • a touch panel may be formed on the display panel 101, and various operations may be enabled by a touch panel operation using icons and menus displayed on the display panel 101.
  • the operation unit 17 may have a mode in which a user's tap operation or the like is detected by a touch pad or the like.
  • the operation unit 17 may be configured as a reception unit of an external operation device such as a separate remote controller.
  • the power supply unit 18 generates a power supply voltage Vcc required for each unit from, for example, a battery loaded inside, and supplies it as an operating voltage.
  • the power supply voltage Vcc from the power supply unit 18 is also supplied to a circuit in the lens barrel 2.
  • the power supply unit 18 may be provided with a circuit for charging the battery or a circuit for generating the power supply voltage Vcc using the DC voltage converted and input by the AC adapter connected to the commercial AC power supply as the power supply. ..
  • the camera control unit 30 is configured by a microcomputer (arithmetic processing device) including a CPU (Central Processing Unit).
  • the memory unit 31 stores information used by the camera control unit 30 for processing.
  • a ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory and the like are comprehensively shown.
  • the memory unit 31 may be a memory area built in the microcomputer chip as the camera control unit 30 or may be configured by a separate memory chip.
  • the camera control unit 30 controls the entire imaging device 1 and the lens barrel 2 by executing a program stored in the ROM, flash memory, or the like of the memory unit 31.
  • the camera control unit 30 controls the shutter speed of the image sensor 12, various signal processing instructions in the camera signal processing unit 13, an imaging operation and a recording operation according to a user operation, a reproduction operation of a recorded image file, a lens mirror.
  • the operation of the lens system 21 such as zooming, focusing, and aperture adjustment in the tube 2, the user interface operation, and the like, the operation of each necessary unit is controlled.
  • the camera control unit 30 performs variable control of the F value according to a user operation and instruction of the F value as automatic control (auto iris).
  • the RAM in the memory unit 31 is used as a work area when the CPU of the camera control unit 30 processes various data, and is used for temporarily storing data, programs, and the like.
  • the ROM and flash memory (nonvolatile memory) in the memory unit 31 include an OS (Operating System) for the CPU to control each unit, content files such as image files, application programs for various operations, and firmware. It is used for memory such as.
  • the camera control unit 30 communicates with the lens control unit 23 to give various instructions.
  • the lens barrel 2 is equipped with a lens control unit 23, which is, for example, a microcomputer, and enables various data communication with the camera control unit 30.
  • the camera control unit 30 instructs the lens control unit 23 to drive the zoom lens, the focus lens, the diaphragm mechanism, and the like.
  • the lens control unit 23 controls the driver unit 22 in accordance with these drive instructions to execute the operation of the lens system 21.
  • wired communication is executed between the camera control unit 30 and the lens control unit 23.
  • the camera control unit 30 and the lens control unit 23 may be configured to be able to perform wireless communication.
  • the driver unit 22 is provided with, for example, a motor driver for the zoom lens drive motor, a motor driver for the focus lens drive motor, a motor driver for the motor of the diaphragm mechanism, and the like. These motor drivers apply a drive current to the corresponding driver in response to an instruction from the lens control unit 23 to execute movement of the focus lens or zoom lens, opening/closing of aperture blades of the aperture mechanism, and the like.
  • the operation unit 24 shows an operator 120 (including an assignable button 120C) provided on the lens barrel 2 side.
  • the operation information from the operation unit 24 is supplied to the lens control unit 23, and is notified to the camera control unit 30 via the lens control unit 23.
  • the lens control unit 23 can perform operation control of the lens system 21 according to the operation of the operator 120
  • the camera control unit 30 can perform various settings and operation control according to the operation of the operator 120. ..
  • the operation unit 24 is not limited to keys and dials, but may be configured as a touch panel, a touch pad, a reception unit of a remote controller, or the like.
  • FIG. 5 shows a part of the configuration of FIG. 4 and shows the function of the camera control unit 30 for performing the operation of the present embodiment.
  • an AF distance measuring unit 51 As functions of the camera control unit 30, an AF distance measuring unit 51, an AF control unit 52, an image recognition unit 53, an operation recognition unit 54, a display control unit 55, and an assignable button setting unit 56 are provided.
  • these functions are provided in the camera control unit 30 by software, but some or all of these functions are provided in a DSP or a microcomputer used as the camera signal processing unit 13 or the like, for example.
  • it may be provided in another part such as a camera control unit 30 or a microcomputer of a chip different from the camera signal processing unit 13. In any case, it suffices if a configuration for performing these functions is provided in the image pickup apparatus 1.
  • the AF distance measuring section 51 performs distance measuring processing for autofocus.
  • the captured image signal obtained by the image sensor 12 is used to perform calculation for AF control such as a so-called phase difference detection method, a contrast detection method, or a hybrid AF method having both of these characteristics.
  • the AF control unit 52 generates an AF control signal based on the control value obtained by the AF distance measuring unit 51, and performs a process of executing an AF operation.
  • the AF control signal from the AF control unit 52 is transmitted to the lens control unit 23.
  • the lens control unit 23 controls the driver unit 22 based on the AF control signal to drive the focus lens in the lens system 21, whereby the AF operation is performed.
  • the image recognition unit 53 performs image analysis on a captured image signal obtained by the image sensor 12 and performs recognition processing of image content. Particularly in the case of the present embodiment, recognition processing is performed as the face/pupil detection unit 61, the tracking processing unit 62, and the subject face determination unit 63.
  • the face/pupil detection unit 61 performs a process of detecting the face or pupil of a person (or an animal) as a subject in the frame of the captured image signal.
  • the subject whose face or pupil is to be detected by the face/pupil detection unit is not limited to a living body such as a person or animal having a face or pupil, and may be, for example, a face or pupil of a robot or the like. An object other than a living body including the object described above may be included.
  • the tracking processing unit 62 performs processing for determining the position of a target subject (which may be a part of, for example, a person or an animal) in the frame of the captured image signal and performing tracking.
  • the subject to be tracked is, for example, a subject to which AF is applied.
  • the tracking target subject may be selected by the user (imager) by an operation of selecting the AF target subject.
  • the subject face determination unit 63 determines the face of the subject. This is the determination of the area of the human face in the frame, and further the processing of personal identification of the face. For example, when a large number of people are the subjects, it is assumed that the face of the target individual is also recognized. In particular, in this example, the subject face determination unit 63 determines the face or pupil of the subject selected by the user from the faces or pupils detected by the face/pupil detection unit 61 in the frame of the captured image. I will also do this, but I will explain this later.
  • the operation recognition unit 54 recognizes the operation by the operation unit 17.
  • the camera control unit 30 will perform necessary control processing according to the user operation recognized by the operation recognition unit 54.
  • the operation recognition unit 54 recognizes the operation of the shutter button 110S and the assignable button 110C in the operation unit 17, and the operation of the assignable button 120C in the operation unit 24. According to the recognition of these operations, the AF distance measuring unit 51, the AF control unit 52, and the image recognition unit 53 can perform the corresponding processing.
  • the assignable button setting unit 56 has a function of setting the operation function of the assignable buttons 110C and 120C according to the setting operation of the user.
  • the camera control unit 30 recognizes that the operation for the predetermined function is performed based on the setting of the assignable button setting unit 56.
  • the display control unit 55 controls the display operation of the display unit 15.
  • the display control unit 55 has a function of controlling display of a through image and display of various operation menus, icons, messages and the like on the screen.
  • FIG. 6 and 7 show display examples on the display unit 15. These are examples in which various icons are displayed overlaid on the through image.
  • a person HM using a basketball is captured as a subject at almost the center of the screen of the display unit 15 (that is, the angle of view being imaged).
  • a focus frame 90 is displayed in the center of the screen.
  • the focus frame 90 is a frame indicating an AF target and a so-called AF focus detection point.
  • the display position of the focus frame 90 changes depending on various modes, and a plurality of focus frames 90 may be displayed, but here, one focus frame 90 is displayed at the center of the screen.
  • FIG. 7 shows a state in which tracking is being performed.
  • the person HM is AFd based on the focus frame 90 of FIG. 6 and is also a tracking target.
  • a tracking frame 91 is displayed for this person HM.
  • the tracking frame 91 follows the target subject and is displayed so as to overlap the subject.
  • the focus frame 90 and the tracking frame 91 have different shapes. The switching timing of this shape is, for example, the time when the AF operation (half-press operation of the shutter button 110S in this example) is performed and the focus on the subject is completed.
  • FIGS. 6 and 7 various icons and characters/numerals indicating the mode and operation state of the image pickup apparatus 1 are displayed on the screen.
  • ISO sensitivity 71, exposure value 72, aperture value 73, shutter speed 74, and focus mark 75 are displayed at the bottom of the screen.
  • the focus mark 75 indicates that the target is in focus, and in FIG. 7, the focus target is in focus.
  • a display as a finder frame rate 76, a shutter system 77, a focus area 78, a focus mode 79, a drive mode 80, and a shooting mode 81 is displayed.
  • the finder frame rate 76 is an icon indicating the frame rate of the image displayed on the viewfinder 102.
  • the shutter system 77 is an icon indicating a mechanical shutter system, an electronic shutter system, and auto.
  • the auto mode is shown in the figure, which indicates a mode in which the mechanical shutter system and the electronic shutter system are automatically switched according to the shooting situation and shutter speed.
  • the focus area 78 is an icon representing focus area setting as an area for performing focus control.
  • Focus area settings include "wide”, “zone”, “center”, and “flexible spot”.
  • Wide is a focus area mode in which automatic focusing is performed based on the entire monitor as a through image.
  • Zone is a focus area mode in which when you select the position of the zone you want to focus on the monitor, the zone is automatically focused.
  • Center is a focus area mode in which an object near the center of the monitor is automatically focused.
  • the "flexible spot” is a focus area mode in which the focus frame is moved to a desired position on the monitor to focus on a very small subject or a narrow area.
  • the icon of the focus area 78 can be switched according to the focus area setting at that time.
  • the example images of the icons displayed as the focus areas 78 shown in FIGS. 6 and 7 are examples for explanation, and the present invention is not limited to these image designs.
  • the focus mode 79 displayed as shown in FIGS. 6 and 7 is an icon representing the AF operation mode.
  • the AF operation mode includes, for example, a single AF (AF-S) mode and a continuous AF (AF-C) mode.
  • Single AF is a mode in which autofocus operates when the shutter button 110S is pressed halfway, and once focus is achieved, focus is fixed there.
  • Continuous AF is a mode in which auto-focusing continues to work while the shutter button 110S is half-pressed, and the subject is continuously focused. 6 and 7, it is assumed that the icon indicating the continuous AF is displayed.
  • the drive mode 80 is an icon indicating single shooting, continuous shooting, bracket shooting, and the like.
  • the shooting mode 81 is an icon indicating a shooting mode such as “program auto”, “aperture priority”, “shutter speed priority”, “manual exposure”, “moving image”, and “slow/quick motion”.
  • the storage medium/number of sheets 82, aspect ratio 83, image size 84, camera shake correction 85, image quality 86, and battery level 87 are displayed at the top of the screen.
  • the aspect ratio of the captured image is displayed by the aspect ratio 83.
  • the image size 84 displays the size of the captured image.
  • the image stabilization 85 displays on/off of the image stabilization function and the mode.
  • the image quality setting of the captured image is displayed by the image quality 86.
  • the remaining battery level 87 indicates the remaining battery level in, for example, a picture and a percentage display.
  • FIG. 8 to 12 are diagrams for explaining an operation example of autofocusing on the face or the pupil of the subject.
  • the desired subject is the person HM1 and the person HM2 existing in the captured image, which is the person HM1 located on the front side.
  • the AF operation 3 in this case, it is assumed that the AF operation is performed with the focus frame 90 being in contact with the body of the person HM1.
  • the face/pupil detection unit 61 starts a process of detecting a face or pupil existing in the captured image in response to the operation of 1). This face or pupil detection processing is performed every frame.
  • AF is performed on the body of the person HM1. Further, according to the setting of the continuous AF, subject tracking by the tracking processing unit 62 with the body portion as a tracking target subject is started. At this time, on the screen of the display unit 15, the focus frame 90 is in a non-display state with the start of the tracking, and instead, the tracking frame 91 is displayed. After that, the tracking frame 91 is displayed at the tracking position by the tracking processing unit 62 (when the target subject moves, the tracking frame 91 also moves in conjunction with the movement of the subject).
  • the face or pupil of the person HM1 is not detected in the detection processing of the face/pupil detection unit 61 described above.
  • the face or the pupil of the person HM2 is detected by the detection processing of the face/pupil detection unit 61.
  • the method described below is adopted to prevent the face or pupil of the person HM2 facing forward from being erroneously determined as the face or pupil of the selected person HM1. Is being pursued.
  • the face of the person HM1 faces the front as shown in FIG. 9 from the state of FIG.
  • the face or pupil of the person HM1 is detected by the detection processing of the face/pupil detection unit 61, and AF is performed on the detected face or pupil of the person HM1.
  • the tracking processing unit 62 updates the subject position to be tracked to the position of the detected face or pupil of the person HM1.
  • the face/pupil tracking frame 92 is displayed at the face or the pupil position, and the tracking frame 91 displayed until then is hidden.
  • the face/pupil detection unit 61 does not detect the face or the pupil of the person HM1 in the detection process.
  • the tracking processing unit 62 determines the subject position to be the tracking target. It keeps the subject position that was the target of tracking. That is, in the example of the figure, the head position of the person HM1 is maintained as it is.
  • subject tracking AF is performed. That is, the tracking processing unit 62 performs AF on the subject position to be tracked. Accordingly, thereafter, until the face of the person HM1 faces forward again, the head of the person HM1 is tracked and AF is performed on the head.
  • the face/pupil tracking frame 92 displayed at the position is hidden and the tracking frame 91 is displayed instead.
  • the tracking frame 91 is displayed at the subject position (that is, the head of the person HM1 in the example in the figure) which is the tracking target by the tracking processing unit 62.
  • the display mode of the frame display related to tracking and AF on the screen in response to the determined face or pupil not being detected in the captured image, the face or pupil of the selected subject is changed.
  • FIG. 12 shows a screen example in which the face of the person HM1 faces forward again from the state of FIG.
  • the face or pupil of the person HM1 is detected again by the face/pupil detection unit 61, and as in the case of FIG. 9, AF is applied to the detected face or pupil of the person HM1.
  • the tracking processing unit 62 updates the position of the subject to be tracked to the position of the detected face or pupil of the person HM1. Also in this case, as in FIG. 9, the tracking frame 91 that has been displayed until then is hidden, and the face/pupil tracking frame 92 is displayed at the face or the pupil position that is the tracking target.
  • the example in which the operation of selecting the subject to be the AF target on the face or the pupil is the AF operation in the state where the focus frame 90 is applied, but the selecting operation is performed on the screen by, for example, a touch panel. It may be an operation of touching the subject.
  • the GUI cursor may be placed near the subject and then a predetermined button may be pressed. At this time, the cursor movement operation may be performed by the cross key or may be performed by a touch operation.
  • the face and the pupil are collectively treated as a face without distinction for convenience.
  • the face and the pupil are handled separately, and if only the face of the face and the pupil can be detected, the AF or the subject position of the tracking target is updated, and if the pupil can be detected, the AF is performed at the pupil position. It can also be said that the subject position of the tracking target is updated.
  • FIG. 13 is a flowchart exemplifying a main process for realizing AF control for the face or pupil of the subject. Note that the process shown in FIG. 13 is started in this example in response to the setting of 1) and 2) described above.
  • step S101 the camera control unit 30 waits until the subject position is selected. That is, it waits until the AF operation as the operation of 3) described above is executed.
  • the camera control unit 30 initializes the selected position as the tracking target subject position in step S102. That is, the position overlapping the focus frame 90 at the time when the AF operation in step S101 is performed is initialized as the tracking target object position.
  • step S103 the camera control unit 30 executes subject face determination processing.
  • the subject face determination process is a process of determining a face corresponding to the subject position of the tracking target. Specifically, in this example, a face corresponding to the subject position of the tracking target is determined from the faces detected from the captured image in the face detection process performed in each frame.
  • the processing up to step S110 including the face determination processing of step S103 is executed for each frame of the captured image by providing the one-frame standby processing of step S111 described later.
  • step S103 An example of the subject face determination processing in step S103 will be described with reference to the flowchart in FIG. 14, first, the camera control unit 30 repeatedly executes the subject face candidate determination process of step S201 for all the faces in the image by a loop process represented by LP1 and LP2 in the drawing.
  • the flowchart of FIG. 15 shows a process as a first example of the subject face candidate determination process of step S201.
  • the camera control unit 30 sets the face association range frame Fr from the face detection frame Ff in step S210.
  • the face detection frame Ff is a frame set as a frame representing the range of faces detected in the captured image, and is set for each face when a plurality of faces are detected.
  • the face association range frame Fr is a frame set based on the face detection frame Ff, and when it is assumed that the face represented by the face detection frame Ff is the face corresponding to the selected subject position, It is a frame that defines a range that is expected to include the selected subject position. That is, if the selected subject position is a position within this face tying range frame Fr, it can be estimated that the face represented by the face detection frame Ff is highly likely to be the face of the selected subject. ..
  • FIG. 16 is a diagram illustrating the relationship between the face detection frame Ff and the face tying range frame Fr.
  • the face detection frame Ff and the face association range frame Fr are rectangular frames.
  • the face association range frame Fr is geometrically set based on the face detection frame Ff.
  • the camera control unit 30 sets the position of the face tying range frame Fr based on the positions of the face detection frame Ff in the X direction (horizontal direction) and the Y direction (vertical direction).
  • the position in the X direction is a position where the center in the X direction of the face tying range frame Fr coincides with the center in the X direction of the face detection frame Ff, and the position in the Y direction is between the face detection frame Ff and the upper sides.
  • the camera control unit 30 sets the length of the side in the X direction to a length according to the length of the side in the X direction of the face detection frame Ff, and sets the length in the Y direction.
  • the side length of is set to a length corresponding to the side length of the face detection frame Ff in the Y direction.
  • the length of the side in the X direction is set to twice the length of the side in the X direction of the face detection frame Ff
  • the length of the side in the Y direction is the length of the side in the Y direction of the face detection frame Ff. Set to 3 times the length.
  • the above is merely an example of the setting of the face tying range frame Fr. Further, regarding the face tying range frame Fr, the method of setting the position and the size can be different depending on whether the image pickup apparatus 1 is held horizontally or vertically.
  • the camera control unit 30 determines whether or not the subject position exists in the face association range frame Fr in step S211 in response to the setting process of the face association range frame Fr in step S210 being performed. If the subject position is within the face association range frame Fr, the camera control unit 30 proceeds to step S212, and the DF (defocus amount) of the subject position (the subject position of the tracking target in this example) and the face detection frame. It is determined whether the DF of Ff is close. Specifically, it is determined whether the difference between the DF of the subject position and the DF of the face detection frame Ff is less than or equal to a predetermined threshold.
  • the DF information the DF information obtained by the AF distance measuring unit 51 is used.
  • the DF information may be obtained based on the detection signal of the image plane phase difference sensor embedded in the image sensor 12 (image sensor), or may be a separate phase difference sensor installed at a different location from the image sensor 12. May be obtained based on the detection signal by.
  • step S212 When it is determined in step S212 that the DF at the subject position and the DF of the face detection frame Ff are close to each other, the camera control unit 30 proceeds to step S213, determines that the subject face candidate, and ends the subject face candidate determination process of step S201. .. That is, of the faces detected from the captured image, the face to be processed is determined to be the subject face candidate, and the subject face candidate determination process ends.
  • the face to be processed Is determined as a face candidate of the subject.
  • the camera control unit 30 determines in step S211 that the subject position does not exist within the face association range frame Fr and in step S212 that the DF of the subject position is not close to the DF of the face detection frame Ff. In this case, the process proceeds to step S214, it is determined that the subject face candidate is not the subject face candidate, and the subject face candidate determination process of step S201 ends. That is, of the faces detected from the captured image, it is determined that the face to be processed is not the subject face candidate, and the subject face candidate determination process ends.
  • the face tying range frame Fr may be formed by recognizing a human body part by image recognition.
  • recognizing a human body part by image recognition tends to require a large amount of computational resources, or tends to be unstable due to insufficient accuracy. Therefore, as shown in the example of FIG. It is more practical to obtain it scientifically.
  • the depth information of the subject position and the face detection frame Ff is not limited to the DF information.
  • the depth information may be acquired using so-called Depth From Defocus, which is estimated from the difference in defocus that occurs when the lens is slightly shifted.
  • the depth information may be estimated using an image processing technique typified by Deep Learning, or may be calculated by stereo matching using images captured by two or more image capturing units.
  • the depth information can also be calculated using moving body parallax.
  • the moving body parallax means that the closer the object appears to move faster, and the farther the object appears to move slower, and it is possible to grasp the perspective based on this difference in speed.
  • the depth information of the subject position may be acquired from the information of the focus position of the lens, and the depth information of the face may be estimated by calculating from the size of the face on the imaging surface and the average size of the human face.
  • a value in which the actual size of the face is manually set may be used instead of the average face size.
  • the type of animal may be set and the average size of the animal may be used.
  • the flowchart of FIG. 17 shows a process as a second example of the subject face candidate determination process of step S201.
  • the face is not always located directly above the body.
  • the person HM1 shown in white is a person to be targeted for AF
  • the person HM2 shown in satin is a person to be not targeted for AF.
  • the AF operation is performed by placing the focus frame 90 on the person HM1 to be the target of AF at the timing when the person HM1 and the person HM2 intersect.
  • step S201 it is also possible to execute the processing as a second example as shown in FIG.
  • the condition of step S220 is added as a condition for determining a face candidate, in addition to the conditions of steps S211 and S212.
  • the camera control unit 30 determines whether the movement of the subject and the movement of the face detection frame Ff are close to each other.
  • the movement of the face in the past several frames in the X, Y, and Z directions (the Z direction is the depth direction: a direction perpendicular to the XY plane) and the X, Y of the subject to be tracked are recorded.
  • Z-direction movements are compared to determine whether the loci are similar.
  • the above-mentioned DF information can be used.
  • the movement of the face or subject may not be movement in all X, Y, and Z directions, but movement in only some directions may be used.
  • the determination of whether or not the loci are similar may be a rough determination such as a binary value indicating whether the loci are approaching or moving away. Even if it is possible to exclude the face moving in the opposite direction, it is considered that the user has a great advantage.
  • the camera control unit 30 when a positive result is obtained in all the determination processes of steps S211, S212, and S220, that is, the subject position exists within the face association range frame Fr, and the subject position and the face detection frame Ff When it is determined that the DF is close and the subject and the face detection frame Ff are close in motion, the camera control unit 30 performs a process of determining a subject face candidate in step S213. On the other hand, if a negative result is obtained in the determination process of any of steps S211, S212, and S220, the camera control unit 30 performs a process of determining that the subject face candidate is not the subject face candidate in step S214.
  • the camera control unit 30 ends the subject face candidate determination processing of step S201 in response to the execution of the processing of either step S213 or S214.
  • step S202 the camera control unit 30 determines whether there is a subject face candidate. If it is determined in step S202 that the subject face candidate exists, the camera control unit 30 proceeds to step S203, determines the subject face candidate closest to the subject position of the tracking target as the subject face, and performs the subject face determination process in step S104. To finish. On the other hand, when it is determined that there is no subject face candidate, the camera control unit 30 proceeds to step S204, determines that there is no subject face, and ends the subject face determination process of step S104.
  • step S104 when the subject face determination processing in step S103 is completed, the camera control unit 30 advances the processing to step S104 and determines whether or not a subject face exists.
  • the camera control unit 30 proceeds to step S105 to perform AF on the subject face, and in the subsequent step S106, performs processing of updating the face position as the subject position.
  • the process of step S105 is a process of controlling by a function as the AF control unit 52 shown in FIG.
  • the processing of step S106 is processing for updating the subject position to be tracked by the tracking processing unit 62 to the position of the subject face.
  • step S107 the camera control unit 30 executes face/pupil frame display processing. That is, regarding the frame display on the screen of the display unit 15, the tracking frame 91 that has been displayed until then is hidden, and the processing for displaying the face/pupil tracking frame 92 at the position of the subject face is executed. As a result, the frame display switching according to the determination of the subject face is realized, as described above as the transition from FIG. 9 to FIG. 10.
  • the camera control unit 30 executes the one-frame standby process of step S111, and returns to the subject face determination process of step S103.
  • step S104 determines whether there is no subject face. If it is determined in step S104 that there is no subject face, the camera control unit 30 proceeds to step S108 and performs subject tracking AF. Specifically, processing for performing AF at the position of the tracking target subject is performed. Then, in the subsequent step S109, the camera control unit 30 performs a process of updating the subject tracking result as the subject position. That is, the position specified by the subject tracking process is updated as the subject position of the tracking target.
  • the subject position of the tracking target is set (updated) in step S102, step S106, or step S109. If the result of determination that the subject face exists in the determination processing of step S104 has not been obtained after the subject is selected in step S101, the subject position of the tracking target is the position selected in step S101. Is the position as the result of tracking (that is, when the body part of the subject is selected, the position is the position as the result of tracking the body part). Further, it is temporarily determined that the subject face exists in the determination process of step S104 in the process of step S109, and it is determined that the subject face does not exist in the determination process of step S104 performed for the subsequent frames.
  • the subject position of the tracking target is the position as the tracking result of the face position set in step S106.
  • a process of updating the face position tracking result as the tracking target object position is performed. For this reason, as shown as the transition from FIG. 10 to FIG. 11 above, when the face of the subject once determined faces backward and is no longer detected, the head of the subject is tracked. (That is, the tracking target does not switch to the selected body).
  • step S110 the camera control unit 30 executes tracking frame display processing. That is, as the frame display on the screen of the display unit 15, a process of displaying the tracking frame 91 is executed. Thereby, after the subject is selected in step S101, the tracking frame 91 is displayed as a frame display on the screen of the display unit 15 in a state where the determination result that the subject face exists in step S104 has not yet been obtained. Continue to be done. Further, after the determination result that the subject face exists in step S104, the tracking frame 91 is displayed when it is determined that the subject face does not exist in step S104 (FIG. 10 to FIG. 10). See transition to 11). That is, the frame display switching from the face/pupil tracking frame 92 to the tracking frame 91 is realized as shown in the transition from FIG. 10 to FIG. 11.
  • the camera control unit 30 advances the processing to the one-frame standby processing of step S111 in response to the execution of the tracking frame display processing of step S110.
  • the focus frame 90, the tracking frame 91, and the face/pupil tracking frame 92 are not limited to the display in the frame shape, and other shapes can be adopted to indicate the position targeted for AF or tracking. It is only necessary to display some visual information that is possible.
  • the tracking frame 91 is displayed at the subject position in a state where no body part is detected, and the body part is detected.
  • a body frame indicating the range of the body is displayed accordingly, a face frame indicating the range of the face is displayed when a face is detected, and a range of the pupil is detected when a pupil is detected.
  • the first modification is a countermeasure by introducing a non-subject face.
  • FIG. 21 is a flowchart of the subject face determination processing (S103) as the first modification.
  • the subject face determination process as the first modified example, after the face of the selected subject is once determined, all faces that are not determined to be the face of the subject are excluded from the determination targets.
  • the camera control unit 30 in this case first determines in step S301 whether or not the detected flag is ON.
  • the detected flag is a flag that is turned on when the subject face is determined in the process of step S302 described later, and the initial value is off. That is, the detected flag is a flag indicating whether or not the process of step S203 has been performed at least once after the subject has been selected in step S101 (whether or not the face of the selected subject has been determined even once).
  • step S203 When it is determined that the process of step S203 has not been executed yet and the detected flag is not ON after the selection of the subject of step S101, the camera control unit 30 proceeds to the loop process of LP1 and LP2 in the figure, and The process of step S201 is repeated for all faces. After that, in step S202, a positive result that the subject face candidate exists is obtained, and in response to the determination processing in step S203 being executed, the camera control unit 30 sets the detected flag to ON in step S302, In step S303, processing for setting all faces other than the subject face as non-subject faces is performed, and the subject face determination processing in step S103 ends.
  • step S301 obtains a positive result that the detected flag is ON. If an affirmative result is obtained in step S301, the camera control unit 30 proceeds to the loop processing of LP1′ and LP2′ in the figure, and performs the subject face candidate determination processing of step S201 for faces other than the non-subject face in the image. Is repeatedly executed. After that, the camera control unit 30 proceeds to step S202′ to determine whether there is a subject face candidate, and if there is a subject face candidate, in step S203′ the subject face candidate closest to the tracking target subject position is selected. The process of determining the subject face is performed, and the subject face determination process of step S103 ends. On the other hand, when there is no subject face candidate, a process of determining that a subject face does not exist is performed in step S204′, and the subject face determination process of step S103 ends.
  • a face other than the face of the selected subject is erroneously determined in the subject determination performed when the subject face is lost after the subject face is determined even once. This can be prevented. Therefore, it is possible to improve the accuracy of determining the face or the pupil of the subject.
  • the second modified example is a countermeasure by changing the face tying range frame Fr.
  • 22 is a diagram exemplifying the normal face association range frame Fr for each of the person HMm and person HMc
  • FIG. 23 illustrates the changed face association range frame Fr for each of the person HMm and person HMc.
  • FIG. 1 once the subject face is determined, by narrowing the face tying range frame Fr, even if the subject face cannot be detected thereafter, the face of another subject (mother) becomes the subject face. Prevent misjudgment.
  • the camera control unit 30 in this case, in a state in which the subject face has never been found, shows the normal face association range frame Fr shown in FIG.
  • the subject face determination processing of step S104 is performed. After that, in response to the determination of the subject face, the subject face determination process of step S104 is subsequently performed using the face tying range frame Fr having a narrower range than usual as shown in FIG.
  • the subject position of the tracking target that is, the position where it is determined whether or not the subject face is located within the face association range frame Fr in step S211
  • the face tying range frame Fr does not need to be expanded to the whole body, and the range is narrower than usual as shown in FIG.
  • the term "narrow the range” as used herein means to reduce the frame length in at least one of the X and Y directions.
  • a face other than the face of the selected subject for example, the mother
  • Face can be prevented from being erroneously determined as the subject face.
  • the mother's face is not detected. It is possible to prevent the face from being erroneously determined as the subject face.
  • the third modification is a measure by remembering the initially selected subject position. For example, in the example of a mother and a child, if the child is facing backward when the user performs an operation of selecting a subject as shown in FIG. 24, the face of the child may be detected. If this is not possible, the mother's face may be erroneously determined as the subject face. In the processing explained so far, when the mother's face is determined as the subject face in this way, the mother's face position is updated as the subject position of the tracking target. Even if is detected, the mother's face may continue to be determined as the subject face as long as the mother's face is detected (see FIG. 25). That is, there is a possibility that AF or tracking cannot be performed on the face of the subject intended by the user.
  • FIG. 26 is a flowchart illustrating a main process as a third modified example.
  • the difference from the main process shown in FIG. 13 is that the process of step S120 is executed instead of the process of step S106.
  • the camera control unit 30 performs subject tracking from the subject position, and executes a process of updating the tracking result as the subject position. That is, even if it is determined in step S104 that the subject face exists, the tracking target subject position is not updated to the face position, and the tracking positions up to that point are updated as the tracking target subject position.
  • the subject position of the tracking target (the position for which it is determined whether or not it exists within the face tying range frame Fr in step S211) is maintained as the position as the tracking result of the position selected in step S101. To be done.
  • a subject for example, a child
  • the face of the subject other than the selected subject for example, a child
  • the subsequent determination is performed based on the tracking position of the selected subject (for example, the tracking position of the child's torso), so that When the face of the selected subject is detected such that the face of the selected subject is facing forward, it is possible to correctly determine the face of the subject.
  • the detected face or pupil is detected on the condition that the selected subject exists within the search range (face association range frame Fr) geometrically set from the detected face or pupil position.
  • face association range frame Fr face association range frame Fr
  • the example of performing the AF by the AF-C (the AF that keeps the focus on the face and the pupil) is described.
  • the AF by the AF-S the After focusing on the eyes, fix the focus.
  • the imaging control device determines the face or the pupil of the selected subject according to the selection of the subject in the captured image by the operation.
  • a determination unit subject face determination unit 63
  • an adjustment control unit AF control unit 52
  • the image pickup control parameters mean various control parameters relating to image pickup using an image pickup apparatus, such as focus, exposure, and white balance. According to the above configuration, as long as an arbitrary portion of the subject such as the body of the subject is selected, the determination process of the face or the pupil of the subject is performed, and the imaging control based on the determined position of the face or the pupil is performed. Parameter adjustment control is performed. That is, it is not necessary for the user to directly select the face or the pupil of the subject in order to realize the adjustment of the imaging control parameter such as the autofocus based on the face or the pupil of the subject. Therefore, it is possible to facilitate the operation for realizing the adjustment of the imaging control parameter based on the position of the face or the pupil of the subject.
  • the face/pupil determination unit detects the face or the pupil existing in the captured image, and determines whether the detected face or the pupil corresponds to the face or the pupil of the subject. Making a decision.
  • a method of performing image analysis for determining the human body part of the selected subject can be considered, but this type of image analysis processing has a relatively high calculation cost. According to the above configuration, it is possible to determine the face or the pupil of the subject without performing such an image analysis process with high calculation cost. Therefore, it is possible to reduce the processing load in determining the face or the pupil of the subject.
  • the face/pupil determination unit determines the face or pupil of the subject based on the positional relationship between the detected face or pupil and the subject.
  • the face/pupil determination unit detects the subject on the condition that the subject is located within the search range geometrically set from the detected face or pupil position. It is determined that the face or the pupil is the face or the pupil of the subject.
  • the face/pupil determination unit determines the face or pupil of the subject based on the positional relationship between the detected face or pupil and the subject in the depth direction.
  • the face/pupil determination unit determines the face or pupil of the subject based on the consistency of the movement of the detected face or pupil and the subject.
  • the face or the pupil of the subject can be appropriately determined from the detected faces or the pupils based on the matching of the movements in a case where the face or the pupil of the subject cannot be appropriately determined only by the positional relationship. Is possible. Therefore, it is possible to improve the accuracy of determining the face or the pupil of the subject.
  • the face/pupil determination unit determines the face or pupil of the subject based on the consistency of the movement of the detected face or pupil and the subject in the depth direction.
  • the adjustment control unit performs autofocus control as adjustment control of the image pickup control parameter
  • the face/pupil determination unit performs autofocus as depth information of the detected face or pupil and the subject. It uses the distance measurement information for.
  • the image pickup control apparatus includes a tracking unit (tracking processing unit 62) for tracking a target subject, and the face/pupil determination unit performs tracking when the face or pupil of the subject is determined.
  • the tracking target subject which is the subject to be tracked by the unit, is updated to the determined face or pupil, and in the subsequent determinations, the detected face or pupil is the face of the subject based on the position where the tracking unit tracks. Alternatively, it is determined whether or not it is a pupil.
  • the face/pupil determination unit determines the face or the pupil of the subject from the detected faces or the pupil, and thereafter does not determine the face or the pupil of the subject.
  • the face or the pupil is excluded from the determination target (see the first modification).
  • the face/pupil determination unit determines the search range from the first search range to the first search range after determining the face or pupil of the subject from the detected faces or pupils. The determination is made by switching to a second search range different from (see the second modification).
  • a tracking unit that tracks the target subject is provided, and the tracking unit, regardless of whether the face/pupil determination unit determines the face or the pupil of the subject, The face/pupil determination unit determines whether or not the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit as a reference.
  • the subsequent determination is performed. Since the determination is performed based on the selected subject position, when the face or pupil of the selected subject is detected such that the face of the selected subject faces forward, the face or pupil of the subject is detected. Can be correctly determined. Therefore, it is possible to improve the accuracy of determining the face or the pupil of the subject.
  • the display unit that displays the captured image displays the first visual information at the position of the subject, and the face/pupil determination is performed.
  • Display control that causes the display unit to display the second visual information at the position of the determined face or pupil and hide the first visual information in response to the determination of the face or pupil of the subject by the display unit. (See FIG. 6 to FIG. 10).
  • the display control unit displays, as the second visual information, information having a shape different from that of the first visual information.
  • a tracking unit that tracks a target subject is provided, and when the face/pupil determination unit determines the face or pupil of the subject, the tracking unit determines that the target is to be tracked.
  • the tracking target subject that is the subject to be updated is updated to the determined face or pupil, and when the determined face or pupil is no longer detected in the captured image, the tracking target subject is maintained as the tracking target subject up to that point.
  • the adjustment control unit performs the adjustment control of the imaging control parameter based on the information of the position tracked by the tracking unit, and the display control unit determines that the face or the pupil determined by the face/pupil determination unit cannot be detected. Then, control is performed to display visual information different from the second visual information at the position where the tracking unit is tracking (see FIGS. 10 and 11).
  • the face or the pupil of the selected subject is not detected until the face or the pupil is in a non-detected state, for example, when the face of the subject faces backward.
  • the imaging control parameters are adjusted with reference to the position of.
  • the face or the pupil of the selected subject is in a non-detection state, the face (head) position of the selected subject is continuously tracked, and the tracking position is compared with the tracking position.
  • Visual information different from the second visual information is displayed (for example, display switching from the face/pupil tracking frame 92 to the tracking frame 91).
  • the subject is assumed to be a person.
  • the subject is an animal.
  • the image pickup apparatus (same as 1) according to the embodiment includes an image pickup unit (image pickup element 12) for obtaining a picked-up image and a face of the selected subject in response to selection of the subject in the picked-up image by an operation.
  • image pickup unit image pickup element 12
  • it includes a face/pupil determination unit that determines the pupil, and an adjustment control unit that performs adjustment control of the imaging control parameters based on the position information of the face or the pupil determined by the face/pupil determination unit.
  • the imaging control method of the embodiment determines the face or the pupil of the selected subject in response to the selection of the subject in the captured image by an operation, and based on the determined position information of the face or the pupil. Is an imaging control method for performing adjustment control of the imaging control parameter.
  • a face/pupil determination unit that determines the face or the pupil of the selected subject in response to the selection of the subject in the captured image by operation;
  • An image pickup control device comprising: an adjustment control unit that performs adjustment control of image pickup control parameters based on the position information of the face or pupil determined by the face/pupil determination unit.
  • the face/pupil determination unit is The imaging control device according to (1), wherein the face or the pupil present in the captured image is detected, and it is determined whether the detected face or the pupil corresponds to the face or the pupil of the subject.
  • the face/pupil determination unit is The imaging control device according to (2), wherein the face or the pupil of the subject is determined based on the positional relationship between the detected face or the pupil and the subject.
  • the face/pupil determination unit is It is determined that the detected face or pupil is the face or pupil of the subject, provided that the subject is located within a search range geometrically set from the position of the detected face or pupil.
  • the imaging control device described in (1) The imaging control device described in (1).
  • the face/pupil determination unit is The imaging control device according to any one of (3) and (4), wherein the face or pupil of the subject is determined based on a positional relationship between the detected face or pupil and the subject in the depth direction.
  • the face/pupil determination unit is The imaging control device according to any one of (2) to (5), wherein the face or the pupil of the subject is determined based on the matching of the movement of the detected face or the pupil and the subject.
  • the face/pupil determination unit is The imaging control device according to (6), wherein the face or the pupil of the subject is determined based on the consistency of the movement of the detected face or the pupil in the depth direction of the subject.
  • the face/pupil determination unit is The imaging control device according to (5) or (7), wherein distance detection information for autofocus is used as depth information of the detected face or pupil and the subject.
  • the face/pupil determination unit is When the face or pupil of the subject is determined, the tracking unit updates the tracking target subject, which is the subject to be tracked, to the determined face or pupil, and in the subsequent determination, the tracking unit The imaging control device according to any one of (2) to (8), wherein it is determined whether the detected face or pupil is the face or pupil of the subject based on a position to be tracked. (10) The face/pupil determination unit is After the face or the pupil of the subject is determined from the detected faces or the pupils, all the faces or the pupils that are not determined to be the face or the pupil of the subject are excluded from the determination targets (2) to (9) The image pickup control device according to any one of 1) to 3) above.
  • the face/pupil determination unit is After determining the face or pupil of the subject from the detected faces or pupils, determination is performed by switching the search range from the first search range to a second search range different from the first search range.
  • the imaging control device according to any one of 4) to 10).
  • the face/pupil determination unit is The imaging control device according to any one of (2) to (8), wherein it is determined whether or not the detected face or pupil is the face or pupil of the subject based on the position tracked by the tracking unit.
  • first visual information is displayed at the position of the subject in the display unit that displays the captured image, and the face/pupil determination unit determines the face or pupil of the subject.
  • the display control unit is configured to display the second visual information at the position of the determined face or pupil on the display unit and to hide the first visual information according to the above (1)
  • the imaging control device according to any one of (12).
  • the face/pupil determination unit is When the face or pupil of the subject is determined, the tracking target subject, which is a subject to be tracked by the tracking unit, is updated to the determined face or pupil, and the determined face or pupil is included in the captured image. If no longer detected, the tracking target subject is maintained by the tracking target subject up to that point,
  • the adjustment control unit Performing adjustment control of the imaging control parameter based on the information of the tracking position of the tracking unit,
  • the display control unit In response to the face/pupil determination unit not being able to detect the determined face or pupil, control is performed to display visual information different from the second visual information at the position tracked by the tracking unit ( 13) or the imaging control device according to (14).
  • the imaging control device according to any one of (1) to (15), wherein the subject is a person.
  • Imaging device 1 imaging device, 12 imaging device, 30 camera control unit, 51 AF distance measuring unit, 52 AF control unit, 53 image recognition unit, 55 display control unit, 61 face/pupil detection unit, 62 tracking processing unit, 63 subject face determination Part, 90 focus frame, 91 tracking frame, 92 face/pupil tracking frame, 110S shutter button, 101 display panel, 102 viewfinder, Ff face detection frame, Fr face binding range frame

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図る。 操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う。撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。

Description

撮像制御装置、撮像装置、撮像制御方法
 本技術は、撮像制御装置、撮像装置、及び撮像制御方法に関し、特にオートフォーカス制御等、撮像制御パラメータについての調整制御を行う場合に好適な技術に関する。
 撮像装置においては、例えばオートフォーカス制御や自動露出制御(AE:Automatic Exposure)等、撮像制御パラメータについての調整制御を行うものがある。特に、オートフォーカス制御については、近年、撮像画像の解析や被写体認識の技術を用いて、ターゲットとした被写体を追尾しながら、その被写体を対象としてオートフォーカスを行うものもある。また、オートフォーカス制御については、被写体の顔や瞳を検出し、検出した顔や瞳を対象としてオートフォーカスを行う技術も知られている。
 なお、下記特許文献1には、オートフォーカス動作や追尾動作に関する技術が記載されている。
特開2015-111746号公報
 ここで、上記のように被写体の顔や瞳を基準としたオートフォーカスを行うにあたっては、撮像装置のユーザに、表示部に表示された画像から対象とする被写体の顔や瞳をタッチ操作により選択させたり、或いは、十字キー等によるカーソル移動操作により該顔や瞳を選択させたり、また、撮像装置の向きを変える等して表示部に表示されているAF(オートフォーカス)枠を該顔や瞳の部分に位置させたりする等の操作を行わせることが考えられる。
 しかしながら、上記のタッチ操作を採用した場合には、ユーザがビューファインダを覗いているときに顔や瞳の選択ができなくなってしまう。また、上記のカーソルやAFエリアの移動操作を含め、何れの手法を採用した場合でも、例えばスポーツのシーン等における動きのある被写体に対して正確に顔や瞳の位置を選択させることは困難である。
 本技術は上記事情に鑑み為されたものであり、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることを目的とする。
 本技術に係る撮像制御装置は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
 前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。
 撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定することが考えられる。
 選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。
 これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定することが考えられる。
 これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定することが考えられる。
 これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。
 これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定することが考えられる。
 これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記調整制御部は、前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、前記顔・瞳判定部は、前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いることが考えられる。
 これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。
 上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。
 これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外することが考えられる。
 これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
 上記した本技術に係る撮像制御装置においては、前記顔・瞳判定部は、前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行うことが考えられる。
 これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
 上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記追尾部は、前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、前記顔・瞳判定部は、前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定することが考えられる。
 これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備えることが考えられる。
 これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記表示制御部は、前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させることが考えられる。
 これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。
 上記した本技術に係る撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、前記顔・瞳判定部は、前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、前記調整制御部は、前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、前記表示制御部は、前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行うことが考えられる。
 上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。
 上記した本技術に係る撮像制御装置においては、前記被写体は人であることが考えられる。
 これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。
 上記した本技術に係る撮像制御装置においては、前記被写体は動物であることが考えられる。
 これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。
 また、本技術に係る撮像装置は、撮像画像を得る撮像部と、操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える。
 さらに、本技術に係る撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。
 これらの撮像装置、撮像制御方法によっても、上記した本技術に係る撮像制御装置と同様の作用が得られる。
本技術に係る実施形態としての撮像装置の外観の斜視図である。 実施形態としての撮像装置の背面図である。 実施形態としての撮像装置に装着できるレンズ鏡筒の側面図である。 実施形態としての撮像装置の内部構成のブロック図である。 実施形態におけるカメラ制御部の機能構成の説明図である。 実施形態におけるオートフォーカス時の表示例の説明図である。 実施形態における追尾時の表示例の説明図である。 実施形態の動作説明図である。 同じく、実施形態の動作説明図である。 同じく、実施形態の動作説明図である。 同じく、実施形態の動作説明図である。 同じく、実施形態の動作説明図である。 被写体の顔又は瞳へのオートフォーカス制御を実現するためのメイン処理を例示したフローチャートである。 被写体顔判定処理の例を示したフローチャートである。 被写体顔候補判定処理の第一例としての処理を示したフローチャートである。 顔検出枠と顔紐づけ範囲枠との関係を例示した図である。 被写体顔候補判定処理の第二例としての処理を示したフローチャートである。 動きのある被写体にオートフォーカスを行う例を示した図である。 撮像対象のシーンの一例を示した図である。 変形例において対策されるべきシーンを例示した図である。 第一変形例としての被写体顔判定処理のフローチャートである。 通常の顔紐づけ範囲枠を例示した図である。 変更後の顔紐づけ範囲枠を例示した図である。 第三変形例において対策されるべきシーンを例示した図である。 同じく、第三変形例において対策されるべきシーンを例示した図である。 第三変形例としてのメイン処理を例示したフローチャートである。
 以下、実施の形態を次の順序で説明する。

<1.撮像装置の構成>
<2.実施形態の動作説明>
<3.処理手順>
<4.変形例>
<5.その他変形例>
<6.実施形態のまとめ>
<7.本技術>

 なお、以下の説明において、「オートフォーカス」の用語は「AF」とも表記する。
 また、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げる。撮像制御パラメータとは、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。
<1.撮像装置の構成>

 図1は、本技術に係る実施形態としての撮像装置1の前方からの斜視図、図2は背面図を示している。ここでは撮像装置1は、いわゆるデジタルスチルカメラとされ、撮像モードを切り換えることで、静止画撮像と動画撮像の両方を実行できるものとする。
 なお、本実施の形態では撮像装置1は、デジタルスチルカメラに限定されず、主に動画撮像に用いられ静止画撮像も行えるビデオカメラであっても良い。
 撮像装置1は、カメラ本体を構成する本体筐体100の前方側にレンズ鏡筒2(図1ではレンズ鏡筒2A)が配置され、又は着脱可能とされる。
 撮像装置1の背面側(使用者側)には、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネル101が設けられる。
 またビューファインダー102として、LCDや有機ELディスプレイ等を用いて形成された表示部も設けられる。
 ユーザは表示パネル101やビューファインダー102により、画像や各種情報を視認することができる。
 この例では撮像装置1には表示パネル101とビューファインダー102の両方が設けられているが、これに限定されず、表示パネル101とビューファインダー102のいずれか一方のみが設けられている構成や、表示パネル101とビューファインダー102の両方またはいずれか一方が着脱可能な構成であってもよい。
 撮像装置1の本体筐体100上には、各種の操作子110が設けられている。
 例えば操作子110としては、キー、ダイヤル、押圧/回転の複合操作子などの各種の形態のものが配備され、各種の操作機能を実現している。例えばメニュー操作、再生操作、モード選択操作、フォーカス操作、ズーム操作、シャッタースピードやF値(F-number)等のパラメータの選択操作などが可能とされる。それぞれの操作子110に関しての詳述は避けるが、本実施形態の場合、操作子110のうちでシャッターボタン110Sとアサイナブルボタン110Cを特に示している。
 シャッターボタン110Sはシャッター操作(レリーズ操作)や、また半押しによるAF操作に用いられる。
 アサイナブルボタン110Cは、カスタムボタンとも呼ばれる操作子で、ユーザが任意の操作機能を割り当てることのできるボタンである。
 シャッターボタン110Sは本体筐体100の右側上面に配置され、例えばユーザが右手で握持部103を持った状態で、右手の人差し指で押圧操作可能とされている。
 またアサイナブルボタン110Cは、例えば図2のように本体筐体100の背面側上部に配置され、ユーザが右手の親指で押圧操作可能とされている。
 つまりシャッターボタン110S、アサイナブルボタン110Cは、ユーザが右手で握持部112を握持する状態で本体筐体100を持ったときに、人差し指と親指で操作できる位置に配置され、即ち、それぞれを任意に個別に押したり、同時に押したりすることができるようにされている。
 なお、シャッターボタン110Sと追尾操作のためのボタンは、必ずしも片手で同時に操作できるようにすることに限られない。例えば右手でシャッターボタン110Sを押し、左手で追尾操作ができるようにしてもよい。
 このため、例えばレンズ鏡筒2のボタンを用いて追尾操作ができるようにしてもよい。
 例えば図3には本体筐体100の前面側に装着できるレンズ鏡筒2Bの一例を示している。レンズ鏡筒2Bにも各種の操作子120が設けられている。
 この場合に、側面部のやや下方の位置に設けられたアサイナブルボタン120Cを追尾操作ボタンに割り当てる。
 通常、ユーザは握持部103を右手で握持し、左手はレンズ鏡筒2を下方から支えるようなスタイルで撮像を行う。この場合に、アサイナブルボタン120Cは左手の親指で押圧操作可能となる。
 このような配置であっても、シャッターボタン110Sとアサイナブルボタン120Cは互いに同時に操作したり、任意に別々に操作することが可能である。
 図4は、レンズ鏡筒2を含めた撮像装置1の内部構成を示している。なお、ここでは撮像装置1が本体筐体100とレンズ鏡筒2に分かれて構成される例で述べるが、レンズ鏡筒2に相当する部分が本体筐体100と一体化されるものであってもよい。
 撮像装置1は、本体筐体100に撮像素子(イメージセンサ)12、カメラ信号処理部13、記録部14、表示部15、出力部16、操作部17、電源部18、カメラ制御部30、メモリ部31を有する。
 またレンズ鏡筒2はレンズ系21、ドライバ部22、レンズ制御部23、操作部24を有する。
 レンズ鏡筒2におけるレンズ系21は、カバーレンズ、ズームレンズ、フォーカスレンズ等のレンズや絞り(アイリス)機構を備える。このレンズ系21により、被写体からの光(入射光)が導かれ、撮像装置1における撮像素子12に集光される。
 撮像素子12は、例えば、CCD(Charge Coupled Device)型、CMOS(Complementary Metal Oxide Semiconductor)型などとして構成される。
 この撮像素子12では、受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部30に出力する。
 カメラ信号処理部13は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このカメラ信号処理部13は、撮像素子12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。例えばカメラ信号処理部13は、前処理、同時化処理、YC生成処理、解像度変換処理、コーデック処理等を行う。
 前処理では、撮像素子12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を行う。
 同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにするデモザイク処理を施す。
 YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
 解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
 コーデック処理では、解像度変換された画像データについて、例えば記録用や通信用の符号化処理を行う。
 記録部14は、例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイル(コンテンツファイル)や、画像ファイルの属性情報、サムネイル画像等を記憶する。
 画像ファイルは、例えばJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式で記憶される。
 記録部14の実際の形態は多様に考えられる。例えば記録部14は、撮像装置1に内蔵されるフラッシュメモリでもよいし、撮像装置1に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。また撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
 表示部15は撮像者に対して各種表示を行う表示部であり、具体的には図2に示した表示パネル101やビューファインダー102を示している。
 表示部15は、カメラ制御部30の指示に基づいて表示画面上に各種表示を実行させる。例えば表示部15は、記録部14において記録媒体から読み出された画像データの再生画像を表示させる。また表示部15には、カメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給されている。表示部15はカメラ制御部30の指示に応じて、当該撮像画像の画像データに基づいて表示を行うことで、レリーズのスタンバイ中の撮像画像である、いわゆるスルー画(被写体のモニタリング画像)を表示させる。
 また表示部15はカメラ制御部30の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
 出力部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
 例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
 また出力部16はネットワーク通信部であるとして、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うようにしてもよい。
 操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は本体筐体100に設けられた各種の操作子110(シャッターボタン110S、アサイナブルボタン110Cを含む)を示している。
 操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部30へ送られる。
 この操作部17としては操作子110だけでなく、タッチパネルを用いてもよい。例えば表示パネル101にタッチパネルを形成し、表示パネル101に表示させるアイコンやメニュー等を用いたタッチパネル操作により、各種の操作が可能とされてもよい。
 或いは操作部17はタッチパッド等によりユーザのタップ操作等を検出する形態もある。
 更に操作部17は、別体のリモートコントローラ等の外部操作機器の受信部として構成されることもある。
 電源部18は、例えば内部に装填したバッテリーから各部に必要な電源電圧Vccを生成し、動作電圧として供給する。
 撮像装置1にレンズ鏡筒2が装着された状態では、電源部18による電源電圧Vccがレンズ鏡筒2内の回路にも供給されるように構成されている。
 なお電源部18には、商用交流電源に接続したACアダプタにより変換されて入力される直流電圧を電源として、バッテリーへの充電を行う回路や電源電圧Vccを生成する回路が形成されていてもよい。
 カメラ制御部30はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
 メモリ部31は、カメラ制御部30が処理に用いる情報等を記憶する。図示するメモリ部31としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなど包括的に示している。
 メモリ部31はカメラ制御部30としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
 カメラ制御部30はメモリ部31のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1及びレンズ鏡筒2の全体を制御する。
 例えばカメラ制御部30は、撮像素子12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、レンズ鏡筒2におけるズーム、フォーカス、絞り調整等のレンズ系21の動作、ユーザインターフェース動作等について、必要各部の動作を制御する。絞り調整に関してカメラ制御部30は、ユーザ操作に応じたF値の可変制御や、自動制御(オートアイリス)としてのF値の指示を行う。
 メモリ部31におけるRAMは、カメラ制御部30のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
 メモリ部31におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア等の記憶に用いられる。
 本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30はレンズ制御部23に対して通信を行い、各種の指示を行う。
 レンズ鏡筒2においては、例えばマイクロコンピュータによるレンズ制御部23が搭載されており、カメラ制御部30との間で各種のデータ通信が可能とされる。本実施形態の場合、カメラ制御部30は、レンズ制御部23に対してズームレンズ、フォーカスレンズ、絞り機構等の駆動指示を行う。レンズ制御部23はこれらの駆動指示に応じてドライバ部22を制御し、レンズ系21の動作を実行させる。
 なお本体筐体100にレンズ鏡筒2が装着された状態では、カメラ制御部30とレンズ制御部23の間で有線通信が実行されるように構成されている。但し、カメラ制御部30とレンズ制御部23が無線通信を行うことができるように構成されてもよい。
 ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
 これらのモータドライバはレンズ制御部23からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
 操作部24はレンズ鏡筒2側に設けられた操作子120(アサイナブルボタン120Cを含む)を示している。操作部24による操作情報はレンズ制御部23に供給され、レンズ制御部23を介してカメラ制御部30に通知される。
 これによりレンズ制御部23は、操作子120の操作に応じて例えばレンズ系21の動作制御を行ったり、カメラ制御部30が操作子120の操作に応じて各種設定や動作制御を行うことができる。
 なお操作部24としても操作部17と同様に、キーやダイヤル等に限らず、タッチパネル、タッチパッド、或いはリモートコントローラの受信部などとして構成されてもよい。
 図5は、図4の構成の一部を抽出するとともに、本実施形態の動作を行うためのカメラ制御部30の機能を示している。
 カメラ制御部30の機能としては、AF測距部51、AF制御部52、画像認識部53、操作認識部54、表示制御部55、アサイナブルボタン設定部56が設けられる。
 なお説明上の一例として、これらの機能がカメラ制御部30にソフトウェアにより設けられるものとするが、これらの機能の一部又は全部が例えばカメラ信号処理部13等として用いられるDSPやマイクロコンピュータに設けられてもよいし、或いは、例えばカメラ制御部30や、カメラ信号処理部13とは別チップのマイクロコンピュータなど、他の部位に設けられてもよい。いずれにしても撮像装置1内に、これらの機能を行う構成が設けられればよい。
 AF測距部51は、オートフォーカスのための測距処理を行う。例えば撮像素子12で得られる撮像画像信号を用いて、いわゆる位相差検出方式やコントラスト検出方式、或いはこれらの両方の特徴を持ち合わせたハイブリッドAF方式などとしてのAF制御のための演算を行う。
 AF制御部52は、AF測距部51で求められた制御値に基づいてAF制御信号を生成し、AF動作を実行させる処理を行う。AF制御部52によるAF制御信号はレンズ制御部23に送信される。そしてレンズ制御部23がAF制御信号に基づいてドライバ部22を制御し、レンズ系21内のフォーカスレンズの駆動を実行させることで、AF動作が行われる。
 画像認識部53は、撮像素子12で得られる撮像画像信号に対する画像解析を行い画像内容の認識処理を行う。特に本実施形態の場合、顔・瞳検出部61、追尾処理部62、被写体顔判定部63としての認識処理が行われる。
 顔・瞳検出部61では、撮像画像信号のフレーム内で被写体としての人(或いは動物)の顔や瞳を検出する処理を行う。
 ここで、本実施形態において、顔・瞳検出部で顔や瞳の検出対象とする被写体としては、顔や瞳を有する人物や動物等の生体に限らず、例えばロボット等の顔や瞳を模した物体を含む生体以外の物体も含み得る。
 追尾処理部62では、撮像画像信号のフレーム内で、対象とされた被写体(例えば人物や動物等の一部とされる場合もある)の位置を判定し追尾するための処理を行う。なお、追尾対象とする被写体は、例えばAFがかけられた被写体などとされる。ユーザ(撮像者)による追尾対象被写体の選択は、AF対象の被写体を選択するという操作によってなされることもある。
 被写体顔判定部63は、被写体の顔の判定を行う。これはフレーム内での人の顔の領域の判定であったり、さらには顔の個人識別の処理を行う。例えば多数の人が被写体となっているときに、ターゲットとした個人の顔の認識なども行うことが想定される。
 特に、本例では、被写体顔判定部63は、顔・瞳検出部61により撮像画像のフレーム内で検出された顔や瞳のうちから、ユーザにより選択された被写体の顔や瞳を判定する処理も行うが、これについては後に改めて説明する。
 操作認識部54は、操作部17による操作を認識する。カメラ制御部30は、操作認識部54によって認識されるユーザ操作に応じて必要な制御処理を行うことになる。
 特に実施形態の処理に関連するものとしては、操作認識部54は操作部17におけるシャッターボタン110S、アサイナブルボタン110Cや、操作部24におけるアサイナブルボタン120Cの操作を認識する。これらの操作の認識に応じて、上記のAF測距部51、AF制御部52、画像認識部53が対応した処理を行うことが可能とされる。
 アサイナブルボタン設定部56は、ユーザの設定操作に応じて、アサイナブルボタン110C、120Cの操作機能を設定する機能を示している。操作認識部54がアサイナブルボタン110Cやアサイナブルボタン120Cの操作を検知した場合、カメラ制御部30はアサイナブルボタン設定部56の設定に基づいて、所定機能に対する操作が行われたと認識することになる。
 表示制御部55は、表示部15の表示動作を制御する。例えば表示制御部55はスルー画の表示の実行や、各種操作メニュー、アイコン、メッセージ等の表示を画面上に実行させるように制御する機能を示している。
 図6,図7には、表示部15での表示例を示している。これらはスルー画に重ねて各種アイコンを表示している例である。
 図6では、バスケットボールを使っている人物HMが、被写体として表示部15の画面(即ち撮像している画角)のほぼ中央にとらえられている状態である。
 ここでは画面中央にフォーカス枠90が表示されている。フォーカス枠90は、AF対象を示す枠であり、いわゆるAF測距点を示す枠である。
 フォーカス枠90の表示位置は、各種のモードによって変わり、またフォーカス枠90が複数表示される場合もあるが、ここでは一つのフォーカス枠90が画面中央に表示される例としている。
 図7では追尾を行っている状態を示している。例えば図6のフォーカス枠90に基づいて人物HMにAFがかけられ、また追尾のターゲットとされたとする。
 図7の時点では、人物HMが画面内で左寄りの位置にあるとする。この人物HMに対して追尾枠91が表示されている。追尾枠91はターゲットとした被写体に追従して、その被写体に重なるように表示されていくことになる。
 本例では、フォーカス枠90と追尾枠91とは形状を異にしている。この形状の切り替わりタイミングは、例えば、AF操作(本例ではシャッターボタン110Sの半押し操作)が行われて被写体に対するフォーカスが完了した時点などとされる。
 また図6,図7に示すように画面上には、撮像装置1のモードや動作状態などを示す各種のアイコンや文字/数字が表示される。
 例えば画面下部にはISO感度71、露出値72、絞り値73、シャッタースピード74、合焦マーク75が表示される。
 合焦マーク75はターゲットに対して合焦状態にあることを示すもので、図7において追尾対象にピントが合っている状態を示している。
 画面左側には、ファインダフレームレート76、シャッター方式77、フォーカスエリア78、フォーカスモード79、ドライブモード80、撮影モード81としての表示が行われる。
 ファインダフレームレート76はビューファインダー102の表示画像のフレームレートを示すアイコンである。
 シャッター方式77は、メカシャッター方式、電子シャッター方式、オートを示すアイコンである。図示しているのはオートであり、これは撮影状況やシャッタースピードに応じて、メカシャッター方式と電子シャッター方式が自動で切り換わるモードを示している。
 フォーカスエリア78は、フォーカス制御を行う領域としてフォーカスエリア設定を表すアイコンである。フォーカスエリア設定としては、「ワイド」「ゾーン」「中央」「フレキシブルスポット」などがある。
 「ワイド」はスルー画としてのモニタ全体を基準に、自動ピント合わせをするフォーカスエリアモードである。 
 「ゾーン」はモニタ上でピントを合わせたいゾーンの位置を選ぶと、その中で自動でピントを合わせるフォーカスエリアモードである。
 「中央」はモニタ中央付近の被写体に自動ピント合わせをするフォーカスエリアモードである。
 「フレキシブルスポット」はモニタ上の好きなところにフォーカス枠を移動し、非常に小さな被写体や狭いエリアを狙ってピントを合わせるフォーカスエリアモードである。
 なお、フォーカスエリア78のアイコンは、そのときのフォーカスエリア設定等に応じて切り換えられる。
 図6,図7に示したフォーカスエリア78として表示するアイコンの画像例は説明上の例であって、これらの画像デザインに限定されない。
 図6,図7のように表示されるフォーカスモード79は、AF動作モードを表すアイコンである。AF動作モードとしては、例えばシングルAF(AF-S)、コンティニアスAF(AF-C)としてのモードがある。
 シングルAFは、シャッターボタン110Sを半押しするとオートフォーカスが働き、一度ピントが合うと、ピントがそこで固定されるモードである。
 コンティニュアスAFは、シャッターボタン110Sを半押ししている間中、オートフォーカスが働き、被写体にピントを合わせ続けるモードである。図6,図7ではコンティニアスAFを示すアイコンが表示された例としている。
 ドライブモード80は、1枚撮影、連写、ブラケット撮影などを示すアイコンである。
 撮影モード81は、「プログラムオート」「絞り優先」「シャッタースピード優先」「マニュアル露出」「動画」「スロー/クイックモーション」などの撮影モードを示すアイコンである。
 図6,図7において画面上部には、記憶メディア/枚数82、縦横比83、画像サイズ84、手ぶれ補正85、画質86、バッテリー残量87の表示が行われる。 
 記憶メディア/枚数82として記録メディアに保存したピクチャーの枚数や保存可能数などが表示される。
 縦横比83により撮像画像の縦横比が表示される。
 画像サイズ84により撮像画像のサイズが表示される。
 手ぶれ補正85により手ぶれ補正機能のオン/オフやモードが表示される。
 画質86により撮像画像の画質設定が表示される。
 バッテリー残量87によりバッテリー残量が例えば絵柄とパーセント表示で示される。
 ここまで表示部15に表示される各種アイコン等を例示したが、これ以外にも各種の情報を提示するためのアイコン、数字、文字、或いはグラフィックが表示され得る。
<2.実施形態の動作説明>

 以上の構成の撮像装置1において行われる、被写体の顔又は瞳にオートフォーカスするための動作例を説明する。
 先ず、本例において、ユーザが撮像装置1に被写体の顔又は瞳にオートフォーカスさせる動作を実行させるために行うべき操作は、以下のように定められている。

 1)メニューから顔又は瞳でAFする設定をONとする
 2)メニューからAF動作モードの設定をコンティニアスAF(AF-C)に設定する
 3)フォーカス枠90を所望の被写体(顔又は瞳の部分に限らない)に当てて、AF操作(本例ではシャッターボタン110Sの半押し操作)を行う
 図8から図12は、被写体の顔又は瞳にオートフォーカスする動作例を説明するための図である。
 図8は、上記した1)及び2)の操作が行われた上で、所望の被写体として、撮像画像内に存在する人物HM1と人物HM2のうち手前側に位置する人物HM1を対象とした3)のAF操作が行われた状態における表示部15での表示例を示している。具体的に、この場合における3)のAF操作としては、フォーカス枠90を人物HM1の胴体部に当てた状態でのAF操作が行われたとする。
 先ず前提として、本例では、1)の操作に応じて、顔・瞳検出部61が撮像画像内に存在する顔又は瞳の検出処理を開始する。この顔又は瞳の検出処理は、毎フレーム行われる。
 図8の状態では、人物HM1に対する胴体部を対象としてAFが行われる。また、コンティニアスAFの設定に応じて、該胴体部を追尾対象被写体とした追尾処理部62による被写体追尾が開始される。
 このとき、表示部15の画面上では、該追尾の開始に伴い、フォーカス枠90は非表示状態となり、代わりに追尾枠91が表示される。以降、追尾枠91は、追尾処理部62による追尾位置に表示される(対象の被写体が動く場合は該被写体の動きに連動して追尾枠91も動く)。
 図8の状態では、人物HM1の顔が後を向いているため、上記した顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出とされる。一方、人物HM2は顔が前を向いているため、人物HM2の顔又は瞳が顔・瞳検出部61の検出処理で検出されている。
 但し、本実施形態における顔・瞳判定処理では、後述する手法が採られることで、前を向く人物HM2の顔又は瞳が選択された人物HM1の顔又は瞳として誤判定されてしまうことの防止が図られている。
 図8の状態から、図9に示すように人物HM1の顔が前を向いたとする。
 図9に示す状態では、顔・瞳検出部61の検出処理で人物HM1の顔又は瞳が検出され、検出された人物HM1の顔又は瞳にAFが行われる。
 また、以降は、人物HM1の顔又は瞳が追尾されるべく、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。
 このとき、AFや追尾の対象位置が人物HM1つまり選択された被写体の顔又は瞳位置となったことをユーザに通知するべく、本例では、図10に示すように、該選択された被写体の顔又は瞳位置に顔・瞳追尾枠92を表示すると共に、それまで表示していた追尾枠91を非表示とする。
 これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされ、追尾に係る情報の通知精度向上を図ることができる。
 ここで、図10から図11への遷移として示すように、人物HM1の顔が再度、後を向いてしまったとする。
 この場合には、顔・瞳検出部61の検出処理では人物HM1の顔又は瞳が非検出となる。このように、選択された被写体の顔又は瞳が一度判定された後、判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾処理部62が追尾対象とする被写体位置を、それまで追尾対象としていた被写体位置のまま維持させる。つまり図の例では、人物HM1の頭部位置のまま維持させる。
 またこの場合、AFについては、被写体追尾AFを行う。すなわち、追尾処理部62が追尾対象とする被写体位置にAFを行う。これにより、以降、人物HM1の顔が再び前を向くまでは、人物HM1の頭部が追尾されつつ、該頭部に対するAFが行われる。
 また、図10から図11への遷移のように、選択した被写体の顔又は瞳が判定された後に該顔又は瞳が撮像画像内に検出されなくなった場合には、それまで該顔又は瞳の位置に表示していた顔・瞳追尾枠92を非表示として、代わりに追尾枠91を表示する。このとき、追尾枠91は、追尾処理部62が追尾対象としている被写体位置(つまり図の例では人物HM1の頭部)に表示する。
 このように、判定した顔又は瞳が撮像画像内に検出されなくなったことに応じて画面上の追尾及びAFに係る枠表示の表示態様を変更することで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づくAFが不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能となり、追尾及びAFに係る情報の通知精度向上を図ることができる。
 図12は、図11の状態から、人物HM1の顔が再び前を向いた状態の画面例を示している。
 この図12に示す状態では、人物HM1の顔又は瞳が顔・瞳検出部61により再び検出されるようになり、図9の場合と同様に、検出された人物HM1の顔又は瞳にAFが行われると共に、追尾処理部62が追尾の対象とする被写体位置を、検出された人物HM1の顔又は瞳の位置に更新する処理が行われる。また、この場合も図9と同様に、それまで表示していた追尾枠91を非表示とし、追尾対象とされた顔又は瞳位置に顔・瞳追尾枠92を表示する。
 上記の一連の動作、特に図6から図10への遷移として説明した動作から理解されるように、本実施形態によれば、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
 従って、被写体の顔や瞳の位置を基準としたオートフォーカスを実現するための操作の容易化を図ることができる。
 なお、上記では、顔又は瞳へのAF対象とする被写体の選択操作がフォーカス枠90を当てた状態でのAF操作とされる例を挙げたが、該選択操作は、例えばタッチパネルにより画面上の被写体をタッチする操作とされてもよい。或いは、GUIカーソルを被写体の近くに重ねた上で、所定ボタンを押圧する等の操作とされてもよい。このとき、上記カーソルの移動操作は十字キーによるものであってもよいし、タッチ操作によるものであってもよい。
<3.処理手順>

 図13から図18を参照して、上記により説明した実施形態としての動作を実現するために実行されるべき処理例を説明する。
 なお、以下のフローチャートにより示す処理は、カメラ制御部30が実行する処理であり、特に、本例においてこれらの処理は、カメラ制御部30が備えるCPUが例えばメモリ部31に格納されたプログラムに従って実行するソフトウェア処理として実現される。ただし、これらの処理の全て又は一部がハードウェアによる処理として実現されてもよい。
 ここで、以下の説明では便宜上、顔と瞳は区別せずに纏めて顔として扱う。
 勿論、顔と瞳を別々に扱うものとし、顔と瞳のうち顔のみが検出できていれば顔位置にAFや追尾対象の被写体位置を更新し、瞳が検出できていれば瞳位置にAFや追尾対象の被写体位置を更新するということもできる。
 図13は、被写体の顔又は瞳へのAF制御を実現するためのメイン処理を例示したフローチャートである。なお、図13に示す処理は、本例では、前述した1)及び2)の設定が行われたことに応じて開始される。
 先ず、カメラ制御部30はステップS101で、被写体位置が選択されるまで待機する。すなわち、前述の3)の操作としてのAF操作が実行されるまで待機する。
 AF操作が行われて被写体位置が選択されたと判定した場合、カメラ制御部30はステップS102で選択位置を追尾対象の被写体位置として初期化する。すなわち、ステップS101のAF操作が行われた時点でフォーカス枠90と重複している位置を追尾対象の被写体位置として初期化する。
 ステップS102に続くステップS103でカメラ制御部30は、被写体顔判定処理を実行する。この被写体顔判定処理は、追尾対象の被写体位置に対応する顔を判定する処理である。具体的に本例では、毎フレーム行われる顔検出処理で撮像画像内から検出される顔のうちから、追尾対象の被写体位置に対応する顔を判定する処理となる。
 ここで、このステップS103の顔判定処理を含むステップS110までの処理は、後述するステップS111の1フレーム待機処理が設けられることで、撮像画像のフレーム毎に実行されることになる。
 図14のフローチャートを参照し、ステップS103の被写体顔判定処理の例を説明する。
 図14において、先ず、カメラ制御部30は図中のLP1、LP2で表すループ処理により、ステップS201の被写体顔候補判定処理を画像内の全ての顔について繰り返し実行する。
 図15のフローチャートは、ステップS201の被写体顔候補判定処理の第一例としての処理を示している。
 図15において、カメラ制御部30はステップS210で、顔検出枠Ffから顔紐づけ範囲枠Frを設定する。
 ここで、顔検出枠Ffは、撮像画像内から検出した顔の範囲を表す枠として設定した枠であり、複数の顔が検出された場合は顔ごとに設定される。
 顔紐づけ範囲枠Frは、顔検出枠Ffに基づいて設定される枠であり、該顔検出枠Ffが表す顔が、選択された被写体位置に対応する顔であると仮定した場合に、該選択された被写体位置が含まれると予想される範囲を規定した枠である。すなわち、選択された被写体位置が、この顔紐づけ範囲枠Fr内の位置であれば、顔検出枠Ffの表す顔が、選択された被写体の顔である可能性が高いと推定できるものである。
 図16は、顔検出枠Ffと顔紐づけ範囲枠Frとの関係を例示した図である。
 本例では、顔検出枠Ff、顔紐づけ範囲枠Frはそれぞれ矩形状の枠とされる。そして、顔紐づけ範囲枠Frは、顔検出枠Ffに基づき幾何学的に設定される。
 具体的に、カメラ制御部30は、顔紐づけ範囲枠Frの位置については、顔検出枠FfのX方向(水平方向)及びY方向(垂直方向)の位置に基づいて設定するものとし、例えば図示のように、X方向の位置は、顔紐づけ範囲枠FrのX方向中心が顔検出枠FfのX方向中心と一致する位置とし、Y方向の位置は、顔検出枠Ffと上辺同士が一致する位置として設定する。
 また、カメラ制御部30は、顔紐づけ範囲枠Frのサイズについては、X方向の辺の長さを顔検出枠FfのX方向の辺の長さに応じた長さに設定し、Y方向の辺の長さを顔検出枠FfのY方向の辺の長さに応じた長さに設定する。例えば、X方向の辺の長さは、顔検出枠FfのX方向の辺の長さの2倍に設定し、Y方向の辺の長さは、顔検出枠FfのY方向の辺の長さの3倍に設定する。
 なお、顔紐づけ範囲枠Frの設定について、上記はあくまで一例を示したものに過ぎない。また、顔紐づけ範囲枠Frについては、撮像装置1を横向きに構えた場合と縦向きに構えた場合とで位置やサイズの設定手法を異ならせることもできる。
 説明を図15に戻す。
 カメラ制御部30は、ステップS210の顔紐づけ範囲枠Frの設定処理を実行したことに応じ、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在するか否かを判定する。被写体位置が顔紐づけ範囲枠Fr内に存在していれば、カメラ制御部30はステップS212に進み、被写体位置(本例では追尾対象の被写体位置)のDF(デフォーカス量)と顔検出枠FfのDFが近いか否かを判定する。具体的には、被写体位置のDFと顔検出枠FfのDFとの差が所定閾値以下であるか否かを判定する。ここでのDFの情報としては、AF測距部51で得られるDFの情報を用いる。
 なお、DFの情報は、撮像素子12(イメージセンサ)に埋め込まれた像面位相差センサーの検出信号に基づき得るものとしてもよいし、撮像素子12とは異なる箇所に設置された別体位相差センサーによる検出信号に基づき得るものとしてもよい。
 ステップS212において、被写体位置のDFと顔検出枠FfのDFとが近いと判定した場合、カメラ制御部30はステップS213に進み、被写体顔候補と判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補であると判定し、被写体顔候補判定処理を終える。
 このように本例では、処理対象とした顔に対し被写体位置が所定の位置関係条件(本例では画像平面方向における位置と奥行き方向における位置の条件)を満たす場合には、処理対象とした顔が被写体の顔候補として判定される。
 一方、カメラ制御部30は、ステップS211で被写体位置が顔紐づけ範囲枠Fr内に存在しないと判定した場合と、ステップS212で被写体位置のDFと顔検出枠FfのDFとが近くないと判定した場合には、それぞれステップS214に処理を進めて被写体顔候補でないと判定し、ステップS201の被写体顔候補判定処理を終える。つまり、撮像画像内から検出した顔のうち、処理対象とした顔が被写体顔候補でないと判定し、被写体顔候補判定処理を終える。
 なお、顔紐づけ範囲枠Frについては、画像認識によって人体部位を認識することで形成しても良い。ただし、一般的に画像認識で人体部位を認識するのは大きな計算リソースが必要だったり、精度が不十分で安定しなかったりする傾向があるので、図16の例のように顔検出結果から幾何学的に求めたほうがより実用的である。
 また、被写体位置と顔検出枠Ffの奥行き情報としてはDFの情報に限定されない。例えば、奥行き情報は、レンズを微小にシフトさせた際に生じるデフォーカスの違いから推定する、いわゆるDepth From Defocusを用いて取得しても良い。或いは、奥行き情報は、Deep Learningに代表される画像処理技術を用いて推定しても良いし、二以上の撮像部による撮像画像を用いたステレオマッチングによって算出しても良い。さらには、奥行き情報は、動体視差を用いて算出することもできる。なお、動体視差とは、近いものほど速く動き、遠くのものほど遅く動くように見えることを意味し、この速さの違いにより遠近を把握することが可能なものである。
 或いは、被写体位置の奥行き情報は、レンズのピント位置の情報から取得し、顔の奥行き情報は顔の撮像面上のサイズと平均的な人間の顔のサイズから算出して推定してもよい。
このとき、平均的な顔のサイズに代えて、顔の実寸を手動で設定した値を用いてもよい。動物の場合は、動物の種別を設定して、その動物の平均的なサイズを用いてもよい。
 図17のフローチャートは、ステップS201の被写体顔候補判定処理の第二例としての処理を示している。
 ここで、スポーツの撮影などでは、図18の上段に示すように被写体が激しい姿勢をとるため、必ずしも体の真上付近に顔があるとは限らない。図18の上段の例では、白抜きで示した人物HM1がAFの対象としたい人物、梨地で示した人物HM2がAFの対象としたくない人物とされる。この場合において、図18の下段に示すように、人物HM1と人物HM2が交差するタイミングでAFの対象としたい人物HM1にフォーカス枠90を当ててAF操作が行われたとする。このとき、図15の第一例の処理のように位置関係のみに基づく顔候補判定を行った場合には、AFの対象としたくない人物HM2の顔に追尾やAFが行われてしまう虞がある。
 そこで、ステップS201の被写体顔候補判定処理としては、図17に示すような第二例としての処理を実行することもできる。
 図15の第一例との差異点は、顔候補と判定するための条件として、ステップS211及びS212の条件以外に、ステップS220の条件が追加された点である。具体的に、ステップS220においてカメラ制御部30は、被写体の動きと顔検出枠Ffの動きが近いか否かを判定する。具体的に、このステップS220の処理では、過去数フレームの顔のX,Y,Z方向(Z方向は奥行き方向:XY平面に垂直な方向)の動きと、追尾対象としている被写体のX,Y,Z方向の動きを比較し、その軌跡が類似しているかどうかを判定する。Z方向の動きに関しては、前述したDFの情報を用いることができる。
 なお、ステップS220の判定処理に関して、顔や被写体の動きとしては、X,Y,Z全ての方向の動きではではなく、一部の方向のみの動きを用いるようにしてもよい。
 軌跡が類似しているか否かの判定は、例えば近づいているか遠ざかっているかの2値のようなラフな判定でも良い。逆方向に動いている顔を除外できるだけでもユーザメリットは大きいと考えられる。
 図示のように、ステップS211、S212、S220の全ての判定処理において肯定結果が得られた場合、すなわち、被写体位置が顔紐づけ範囲枠Fr内に存在し、且つ被写体位置と顔検出枠FfのDFが近く、且つ被写体と顔検出枠Ffの動きが近いと判定された場合には、カメラ制御部30はステップS213で被写体顔候補と判定する処理を行う。
 一方、ステップS211、S212、S220の何れかの判定処理で否定結果が得られた場合、カメラ制御部30はステップS214で被写体顔候補でないと判定する処理を行う。
 第二例においてもカメラ制御部30は、ステップS213、S214の何れかの処理を実行したことに応じステップS201の被写体顔候補判定処理を終える。
 説明を図14に戻す。
 カメラ制御部30は、上記した第一例や第二例としての被写体顔候補判定処理を画像内の全ての顔について実行したことに応じ、処理をステップS202に進める。
 ステップS202でカメラ制御部30は、被写体顔候補が存在するか否かを判定する。
 ステップS202において、被写体顔候補が存在すると判定した場合、カメラ制御部30はステップS203に進み、追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定して、ステップS104の被写体顔判定処理を終える。
 一方、被写体顔候補が存在しないと判定した場合、カメラ制御部30はステップS204に進み、被写体顔が存在しないと判定して、ステップS104の被写体顔判定処理を終える。
 図13において、ステップS103の被写体顔判定処理を終えると、カメラ制御部30はステップS104に処理を進めて被写体顔が存在するか否かを判定する。
 被写体顔が存在する場合、カメラ制御部30はステップS105に進んで被写体顔でAFを行うと共に、続くステップS106で顔位置を被写体位置として更新する処理を行う。
 ここで、ステップS105の処理は、図5に示したAF制御部52としての機能により、被写体顔を対象としたAFが行われるように制御する処理となる。また、ステップS106の処理は、追尾処理部62で追尾対象とする被写体位置を、被写体顔の位置に更新する処理となる。
 ステップS106に続くステップS107でカメラ制御部30は、顔・瞳枠表示処理を実行する。すなわち、表示部15の画面上における枠表示に関して、それまで表示されていた追尾枠91を非表示とし、被写体顔の位置に顔・瞳追尾枠92を表示するための処理を実行する。
 これにより、先の図9から図10の遷移として説明したような、被写体顔が判定されたことに応じた枠表示切り換えが実現される。
 ステップS107の表示処理を実行したことに応じ、カメラ制御部30はステップS111の1フレーム待機処理を実行し、ステップS103の被写体顔判定処理に戻る。
 一方、ステップS104で被写体顔が存在しないと判定した場合、カメラ制御部30はステップS108に進み、被写体追尾AFを行う。具体的には、追尾対象の被写体の位置にAFを行うための処理を行う。
 そして、続くステップS109でカメラ制御部30は、被写体追尾結果を被写体位置として更新する処理を行う。すなわち、被写体追尾処理により特定した位置を、追尾対象の被写体位置として更新するものである。
 ここで、追尾対象の被写体位置は、ステップS102、ステップS106、又はステップS109で設定(更新)される。仮に、ステップS101で被写体が選択された以降、ステップS104の判定処理で被写体顔が存在するとの判定結果が一度も得られていない状況では、追尾対象の被写体位置は、ステップS101で選択された位置の追尾結果としての位置となる(つまり被写体の胴体部が選択された場合には胴体部の追尾結果としての位置となる)。
 また、仮に、ステップS109の処理が、一度、ステップS104の判定処理で被写体顔が存在すると判定され、それ以降のフレームについて行われたステップS104の判定処理で被写体顔が存在しないと判定されたことに応じて実行される場合、追尾対象の被写体位置は、ステップS106で設定された顔位置の追尾結果としての位置となる。この場合のステップS109の処理では、顔位置の追尾結果を、追尾対象の被写体位置として更新する処理が行われることになる。このため、先の図10から図11の遷移として示したように、一度判定された被写体の顔が後を向いて検出されなくなった場合には、該被写体の頭部が追尾されるようになる(つまり選択した胴体部に追尾の対象が切り替わらない)。
 ステップS109に続くステップS110でカメラ制御部30は、追尾枠表示処理を実行する。すなわち、表示部15の画面上での枠表示として、追尾枠91を表示させる処理を実行する。これにより、ステップS101で被写体が選択された以降、ステップS104で被写体顔が存在するとの判定結果が未だ得られていない状態では、表示部15の画面上での枠表示として、追尾枠91が表示され続ける。また、ステップS104で被写体顔が存在するとの判定結果が得られた以降、該ステップS104で被写体顔が存在しないと判定された場合において、追尾枠91が表示されることになる(図10から図11への遷移を参照)。すなわち、図10から図11への遷移として示したような、顔・瞳追尾枠92から追尾枠91への枠表示切り換えが実現される。
 カメラ制御部30は、ステップS110の追尾枠表示処理を実行したことに応じ、ステップS111の1フレーム待機処理に処理を進める。
 なお、フォーカス枠90、追尾枠91、顔・瞳追尾枠92については、枠形状による表示に限定されず、他の形状を採用することもでき、AFや追尾の対象とされている位置を示すことが可能な何らかの視覚情報を表示すればよい。
 また、AFや追尾の対象位置を示す情報の表示に関しては、次のような手法を採ることもできる。すなわち、選択された被写体について人体部位の解析処理を行う場合において、被写体の選択後、何れの部位も非検出である状態では被写体位置に追尾枠91を表示し、胴体部が検出されたことに応じて該胴体の範囲を表す胴体枠を表示し、さらに顔が検出されたことに応じて該顔の範囲を示す顔枠を表示し、また瞳が検出されたことに応じて該瞳の範囲を表す瞳枠を表示する、などといった手法である。
 なお、AFや追尾の対象とされている位置を示すための視覚情報を表示することは必須ではない。
<4.変形例>

 ここで、図19に示すような、母親としての人物HMmがその子どもとしての人物HMcを抱いているシーンを考える。このときユーザは、母親ではなく子どもを撮影したいと考えているとする。この場合には、ユーザは、図示のように子どもの胴体部などの比較的面積大きい部分にフォーカス枠90を当てた状態でAF操作を行うことが想定され得る。
 図19に示すシーンにおいて、母親と子どもの両方の顔が検出されているときには、子どもの顔の方がユーザの選択した位置に対してより近いため、子どもの顔に正しく追尾をかけたりAFを行うことができる。
 しかしながら、その後、子どもが暴れる等してその顔が非検出状態になったとする(図20参照)。この状態では、画像内に存在する顔が母親の顔のみとなり、且つ、母親の顔は被写体顔候補の条件を満たす可能性が高いため、追尾対象が母親の顔に切り替えられ、且つ母親の顔にAFが行われてしまう虞がある。
 以下では、このような事態への対応策としての第一、第二、及び第三変形例について述べる。
 なお、以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号や同一ステップ番号を付して説明を省略する。
 第一変形例は、非被写体顔の導入による対策である。
 図21は、第一変形例としての被写体顔判定処理(S103)のフローチャートである。
 第一変形例としての被写体顔判定処理では、選択された被写体の顔を一度判定した以降は、該被写体の顔と判定しなかった全ての顔を判定対象から除外する。
 具体的に、この場合のカメラ制御部30は、先ずステップS301で、検出済フラグがONであるか否かを判定する。この検出済フラグは、後述するステップS302の処理で、被写体顔が判定されたことに応じてONとされるフラグであり、初期値はOFFである。つまり検出済フラグは、ステップS101で被写体が選択された後、一度でもステップS203の処理が行われたか否か(選択された被写体の顔が一度でも判定されたか否か)を表すフラグとなる。
 ステップS101の被写体の選択後に未だステップS203の処理が実行されておらず、検出済フラグがONでないと判定した場合、カメラ制御部30は図中のLP1、LP2のループ処理に進み、画像内の全ての顔についてステップS201の処理を繰り返し実行する。その後、ステップS202で被写体顔候補が存在するとの肯定結果が得られ、ステップS203の判定処理が実行されたことに応じ、カメラ制御部30は、ステップS302で検出済フラグをONとした上で、ステップS303で被写体顔以外の全ての顔を非被写体顔として設定する処理を行い、ステップS103の被写体顔判定処理を終える。
 以降のフレームにおいては、ステップS301の判定処理で、検出済フラグがONであるとの肯定結果が得られる。
 ステップS301で肯定結果が得られた場合、カメラ制御部30は図中のLP1’、LP2’のループ処理に進んで、画像内の非被写体顔以外の顔について、ステップS201の被写体顔候補判定処理を繰り返し実行する。
 その後、カメラ制御部30はステップS202’に進んで被写体顔候補が存在するか否かを判定し、被写体顔候補が存在する場合はステップS203’で追尾対象の被写体位置と最も近い被写体顔候補を被写体顔と判定する処理を行ってステップS103の被写体顔判定処理を終える。一方、被写体顔候補が存在しない場合はステップS204’で被写体顔が存在しないと判定する処理を行ってステップS103の被写体顔判定処理を終える。
 このような第一変形例としての処理により、一度でも被写体顔を判定した以降、被写体顔をロストした場合に行われる被写体判定において、選択された被写体の顔以外の顔が誤って判定されてしまうことの防止が図られる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 続いて、第二変形例について説明する。
 第二変形例は、顔紐づけ範囲枠Frの変更による対策である。
 図22は、人物HMm、人物HMcそれぞれについての通常の顔紐づけ範囲枠Frを例示した図であり、図23は、人物HMm、人物HMcそれぞれについての変更後の顔紐づけ範囲枠Frを例示した図である。
 第二変形例では、一度被写体顔が判定されたら、顔紐づけ範囲枠Frを狭めることで、その後に被写体顔を検出できない状態となっても、他の被写体(母親)の顔が被写体顔として誤判定されることの防止を図る。
 図示による説明は省略するが、この場合のカメラ制御部30は、被写体顔が一度も見つかっていない状態では、図22に示した通常の顔紐づけ範囲枠Fr(具体例については図16の説明を参照)を用いて、ステップS104の被写体顔判定処理を行う。
 その後、被写体顔が判定されたことに応じて、以降は、図23に示すような通常よりも範囲を狭めた顔紐づけ範囲枠Frを用いてステップS104の被写体顔判定処理を行う。特に本例では、一度被写体顔が判定されていれば、追尾対象の被写体位置(つまりステップS211で顔紐づけ範囲枠Fr内に位置しているか否かが判定される位置)は該被写体顔の付近に位置しているため、顔紐づけ範囲枠Frは体全体まで広げる必要はなく、図23に示すように通常よりも範囲を狭める。なお、ここで言う「範囲を狭める」とは、少なくともX、Y方向の何れか一方の枠長さを狭めることを意味する。
 このような第二変形例によっても、一度でも被写体の顔(例えば子どもの顔)を判定した以降、該顔をロストした場合に行われる判定において、選択された被写体の顔以外の顔(例えば母親の顔)が被写体顔として誤判定されてしまうことの防止を図ることができる。
 特に、第二変形例によれば、母親の顔が非検出の状態で子どもの顔が被写体顔と判定された場合であっても、子どもの顔が非検出の状態となったときに母親の顔が被写体顔として誤判定されてしまうことの防止を図ることができる
 第三変形例は、最初に選択された被写体位置を覚えておくことによる対策である。
 例えば、母親と子どもの例において、図24に示すように、ユーザが被写体を選択する操作を行ったときに、子どもが後を向いている状態であったとすると、子どもの顔を検出することができず、母親の顔を被写体顔として誤判定してしまう虞がある。
 これまでで説明した処理では、このように母親の顔が被写体顔として判定されてしまうと、母親の顔位置が追尾対象の被写体位置として更新されるため、その後、子どもが前を向いてその顔が検出される状態となっても、母親の顔が検出される限りは、母親の顔が被写体顔として判定され続ける虞がある(図25参照)。すなわち、ユーザが意図する被写体の顔を対象としてAFや追尾を行うことができない虞がある。
 図26は、第三変形例としてのメイン処理を例示したフローチャートである。
 図13に示したメイン処理との差異点は、ステップS106の処理に代えてステップS120の処理を実行する点である。
 ステップS120でカメラ制御部30は、被写体位置から被写体追尾を行い、追尾結果を被写体位置として更新する処理を実行する。すなわち、ステップS104で被写体顔が存在すると判定されても、追尾対象の被写体位置を顔位置に更新せず、それまでの追尾位置を追尾対象の被写体位置として更新するものである。この処理により、追尾対象の被写体位置(ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置)は、ステップS101で選択された位置の追尾結果としての位置のまま維持される。
 このような第三変形例としての処理により、顔が後を向く等して顔が非検出とされた被写体(例えば子ども)が操作により選択されて、選択された被写体以外の被写体の顔(例えば母親の顔)が誤判定された場合であっても、以降の判定としては、選択された被写体の追尾位置(例えば子どもの胴体部の追尾位置)を基準とした判定が行われるため、その後、選択された被写体の顔が前を向く等して該被写体の顔が検出されたときに、該被写体の顔を正しく判定することが可能とされる。
 なお、ステップS211で顔紐づけ範囲枠Fr内に存在するか否かが判定される位置を最初にユーザが選んだ被写体位置のまま維持させる手法としては、例えばフレキシブルスポット等のAFエリアの示す位置を該ユーザが選んだ被写体位置とみなす手法が採られてもよい。
<5.その他変形例>

 なお、上記した具体例はあくまで一例であり、実施形態としては多様な変形例としての構成を採り得る。
 例えば、上記では、撮像制御パラメータの調整制御の例として、オートフォーカス制御を例に挙げたが、撮像制御パラメータの調整制御としては、他にも自動露出制御(AE)やオートホワイトバランス制御(AWB)などを挙げることができる。すなわち、本技術は、例えば選択された被写体の顔や瞳の露出が最適となるように露出制御を行う場合や、選択された被写体の顔や瞳の色が最適となるようにホワイトバランスの制御を行う場合等にも好適に適用することができる。
 また、上記では、検出した顔や瞳の位置から幾何学的に設定した探索範囲(顔紐づけ範囲枠Fr)内に選択された被写体が存在することを条件に、該検出した顔や瞳が選択された被写体の顔や瞳であると判定する例を挙げたが、これに代えて、例えば選択された被写体位置を元にアクティブセグメンテーションを行い、選択された位置と同じセグメントに属する顔や瞳を、選択した被写体の顔や瞳と判定する手法を採ることもできる。
 また、上記では顔や瞳に対するAFの例としてAF-CによるAF(顔や瞳にピントを合わせ続けるAF)を行う例を挙げたが、これに代えて、AF-SによるAF(一度顔や瞳にピントを合わせた後、ピントを固定する)を行うこともできる。
<6.実施形態のまとめ>

 上記のように実施形態としての撮像制御装置(カメラ制御部30)は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部(被写体顔判定部63)と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部(AF制御部52)と、を備えている。
 撮像制御パラメータとは、例えばフォーカスや露出、ホワイトバランス等、撮像装置を用いた撮像に係る各種の制御パラメータを意味する。上記構成によれば、被写体の胴体部等、被写体の任意部分が選択されさえすれば、被写体の顔又は瞳の判定処理が行われて、判定された顔や瞳の位置を基準とした撮像制御パラメータの調整制御が行われる。すなわち、被写体の顔や瞳を基準としたオートフォーカス等の撮像制御パラメータの調整を実現するにあたり、ユーザに被写体の顔や瞳を直接選択させる必要がなくなる。
 従って、被写体の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
 また、実施形態としての撮像制御装置においては、顔・瞳判定部は、撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が被写体の顔又は瞳に該当するか否かを判定している。
 選択された被写体の顔又は瞳を判定する手法としては、選択された被写体について人体部位を判定する画像解析を行う手法も考えられるが、この種の画像解析処理は計算コストが比較的高い。上記構成によれば、そのような計算コストの高い画像解析処理を行わずとも被写体の顔又は瞳を判定することが可能となる。
 従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。
 さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との位置関係に基づいて被写体の顔又は瞳を判定している。
 これにより、撮像画像内で検出された顔又は瞳のうち、位置的にかけ離れた顔又は瞳が被写体の顔又は瞳として判定されないようにすることが可能とされる。
 従って、被写体の顔又は瞳の判定精度を高めることができる。
 さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に被写体が位置することを条件として、該検出した顔又は瞳が被写体の顔又は瞳であると判定している。
 これにより、被写体の顔又は瞳を判定するにあたっては、検出した顔又は瞳ごとに、範囲設定の処理と、設定範囲内に選択被写体が含まれるか否かの判定処理とを少なくとも行えば足る。
 従って、被写体の顔又は瞳を判定するにあたっての処理負担軽減を図ることができる。
 また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における位置関係に基づいて被写体の顔又は瞳を判定している。
 これにより、画像平面方向における位置関係のみでなく奥行き方向の位置関係に基づいて被写体の顔又は瞳を判定することが可能とされる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 さらに、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との動きの整合性に基づいて被写体の顔又は瞳を判定している。
 これにより、位置関係のみでは適切に被写体の顔又は瞳を判定できない場合に対応して、動きの整合性に基づき、検出された顔又は瞳のうちから被写体の顔又は瞳を適切に判定することが可能とされる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳と被写体との奥行き方向における動きの整合性に基づいて被写体の顔又は瞳を判定している。
 これにより、画像の平面方向における動きの整合性のみでなく奥行き方向の動きの整合性に基づいて被写体の顔又は瞳を判定することが可能とされる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 また、実施形態としての撮像制御装置においては、調整制御部は、撮像制御パラメータの調整制御としてオートフォーカス制御を行い、顔・瞳判定部は、検出した顔又は瞳と被写体の奥行き情報としてオートフォーカス用の測距情報を用いている。
 これにより、奥行き方向の位置関係や動きの整合性に基づく被写体の顔又は瞳の判定を行うにあたり、オートフォーカス制御用の測距センサ以外の別途の測距センサを撮像装置に設ける必要がなくなる。
 従って、撮像装置の小型軽量化を図ることができる。
 さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部(追尾処理部62)を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、追尾部が追尾する位置に基づき、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。
 これにより、一度被写体の顔又は瞳を判定した後、顔が後を向く等して被写体の顔又は瞳が検出されなくなったとしても、被写体の頭部を追尾することが可能とされる。
 従って、一度判定した被写体の顔又は瞳をロストした以降において、再び被写体の顔又は瞳が判定され易くすることができ、被写体の顔又は瞳の判定精度向上を図ることができる。
 さらにまた、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外している(第一変形例を参照)。
 これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 また、実施形態としての撮像制御装置においては、顔・瞳判定部は、検出した顔又は瞳のうちから被写体の顔又は瞳を判定した以降は、探索範囲を第一探索範囲から第一探索範囲とは異なる第二探索範囲に切り換えた判定を行っている(第二変形例を参照)。
 これにより、一度でも被写体の顔又は瞳を判定した以降、該顔又は瞳をロストした場合に行われる判定において、探索範囲を第一探索範囲よりも狭めた第二探索範囲とすること等が可能となり、被写体の顔又は瞳以外の顔又は瞳が誤判定されてしまうことの防止が図られる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、追尾部は、顔・瞳判定部が被写体の顔又は瞳を判定したか否かに拘わらず、操作により選択された被写体を追尾し続け、顔・瞳判定部は、追尾部が追尾する位置を基準として、検出した顔又は瞳が被写体の顔又は瞳であるか否かを判定している。
 これにより、顔が後を向く等して顔又は瞳が検出されていない被写体が選択されて、選択された被写体以外の被写体の顔又は瞳が誤判定された場合であっても、以降の判定としては、選択された被写体位置を基準とした判定が行われるため、選択された被写体の顔が前を向く等して該被写体の顔又は瞳が検出されたときに、該被写体の顔又は瞳を正しく判定することが可能とされる。
 従って、被写体の顔又は瞳の判定精度向上を図ることができる。
 さらにまた、実施形態としての撮像制御装置においては、操作により被写体が選択されたことに応じて、撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、第一視覚情報を非表示とさせる表示制御部(同55)を備えている(図6から図10を参照)。
 これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的に分かりやすく通知することが可能とされる。
 従って、追尾に係る情報の通知精度向上を図ることができる。
 また、実施形態としての撮像制御装置においては、表示制御部は、第二視覚情報として、第一視覚情報とは異なる形状の情報を表示させている。
 これにより、選択した被写体の追尾から顔又は瞳の追尾に切り替わったことをユーザに直感的により分かりやすく通知することが可能とされる。
 従って、追尾に係る情報の通知精度のさらなる向上を図ることができる。
 さらに、実施形態としての撮像制御装置においては、対象とされた被写体を追尾する追尾部を備え、顔・瞳判定部は、被写体の顔又は瞳を判定した場合は、追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が撮像画像内に検出されなくなった場合は、追尾対象被写体をそれまでの追尾対象被写体で維持させ、調整制御部は、追尾部が追尾する位置の情報に基づいて撮像制御パラメータの調整制御を行い、表示制御部は、顔・瞳判定部が判定した顔又は瞳を検出できなくなったことに応じて、追尾部が追尾する位置に、第二視覚情報とは異なる視覚情報を表示させる制御を行っている(図10及び図11を参照)。
 上記構成によれば、選択された被写体の顔又は瞳が判定された以降は、例えば該被写体の顔が後を向く等して該顔又は瞳が非検出の状態となるまで、該顔又は瞳の位置を基準とした撮像制御パラメータの調整が行われる。そして、上記構成によれば、選択された被写体の顔又は瞳が非検出の状態となった場合に、該選択された被写体の顔(頭部)位置が追尾され続けると共に、追尾位置に対して、第二視覚情報とは異なる視覚情報が表示されるようになる(例えば顔・瞳追尾枠92から追尾枠91への表示切換)。このような表示制御が行われることで、選択された被写体の顔又は瞳が検出されなくなったことにより顔又は瞳の位置情報に基づく撮像制御パラメータ調整が不能となったが、顔位置(頭部位置)の追尾は継続していることをユーザに直感的に分かりやすく通知することが可能とされる。
 従って、追尾及び撮像制御パラメータ調整に係る情報の通知精度向上を図ることができる。
 さらにまた、実施形態としての撮像制御装置においては、被写体は人であるものとされている。
 これにより、人の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに人の顔や瞳を直接選択させる必要がなくなる。
 従って、人の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
 また、実施形態としての撮像制御装置においては、被写体は動物であるものとされている。
 これにより、例えば犬や猫、鳥等の動物の顔や瞳を基準とした撮像制御パラメータの調整を実現するにあたり、ユーザに動物の顔や瞳を直接選択させる必要がなくなる。
 従って、動物の顔や瞳の位置を基準とした撮像制御パラメータの調整を実現するための操作の容易化を図ることができる。
 また、実施形態としての撮像装置(同1)は、撮像画像を得る撮像部(撮像素子12)と、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、顔・瞳判定部が判定した顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備えている。
 また、実施形態の撮像制御方法は、操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う撮像制御方法である。
 これらの撮像装置、撮像制御方法によっても、上記した実施形態としての撮像制御装置と同様の作用及び効果が得られる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<7.本技術>

 なお本技術は以下のような構成も採ることができる。
(1)
 操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
 前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える
 撮像制御装置。
(2)
 前記顔・瞳判定部は、
 前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定する
 前記(1)に記載の撮像制御装置。
(3)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定する
 前記(2)に記載の撮像制御装置。
(4)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
 前記(2)に記載の撮像制御装置。
(5)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
 前記(3)又は(4)の何れかに記載の撮像制御装置。
(6)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
 前記(2)から(5)の何れかに記載の撮像制御装置。
(7)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
 前記(6)に記載の撮像制御装置。
(8)
 前記調整制御部は、
 前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
 前記顔・瞳判定部は、
 前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
 前記(5)又は(7)に記載の撮像制御装置。
(9)
 対象とされた被写体を追尾する追尾部を備え、
 前記顔・瞳判定部は、
 前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
 前記(2)から(8)の何れかに記載の撮像制御装置。
(10)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
 前記(2)から(9)の何れかに記載の撮像制御装置。
(11)
 前記顔・瞳判定部は、
 前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
 前記(4)から(10)の何れかに記載の撮像制御装置。
(12)
 対象とされた被写体を追尾する追尾部を備え、
 前記追尾部は、
 前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
 前記顔・瞳判定部は、
 前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
 前記(2)から(8)の何れかに記載の撮像制御装置。
(13)
 前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備える
 前記(1)から(12)の何れかに記載の撮像制御装置。
(14)
 前記表示制御部は、
 前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
 前記(13)に記載の撮像制御装置。
(15)
 対象とされた被写体を追尾する追尾部を備え、
 前記顔・瞳判定部は、
 前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
 前記調整制御部は、
 前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
 前記表示制御部は、
 前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
 前記(13)又は(14)に記載の撮像制御装置。
(16)
 前記被写体は人である
 前記(1)から(15)の何れかに記載の撮像制御装置。
(17)
 前記被写体は動物である
 前記(1)から(15)の何れかに記載の撮像制御装置。
 1 撮像装置、12 撮像素子、30 カメラ制御部、51 AF測距部、52 AF制御部、53 画像認識部、55 表示制御部、61 顔・瞳検出部、62 追尾処理部、63 被写体顔判定部、90 フォーカス枠、91 追尾枠、92 顔・瞳追尾枠、110S シャッターボタン、101 表示パネル、102 ビューファインダー、Ff 顔検出枠、Fr 顔紐づけ範囲枠

Claims (19)

  1.  操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
     前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える
     撮像制御装置。
  2.  前記顔・瞳判定部は、
     前記撮像画像内に存在する顔又は瞳を検出し、検出した顔又は瞳が前記被写体の顔又は瞳に該当するか否かを判定する
     請求項1に記載の撮像制御装置。
  3.  前記顔・瞳判定部は、
     前記検出した顔又は瞳と前記被写体との位置関係に基づいて前記被写体の顔又は瞳を判定する
     請求項2に記載の撮像制御装置。
  4.  前記顔・瞳判定部は、
     前記検出した顔又は瞳の位置から幾何学的に設定した探索範囲内に前記被写体が位置することを条件として、該検出した顔又は瞳が前記被写体の顔又は瞳であると判定する
     請求項2に記載の撮像制御装置。
  5.  前記顔・瞳判定部は、
     前記検出した顔又は瞳と前記被写体との奥行き方向における位置関係に基づいて前記被写体の顔又は瞳を判定する
     請求項2に記載の撮像制御装置。
  6.  前記顔・瞳判定部は、
     前記検出した顔又は瞳と前記被写体との動きの整合性に基づいて前記被写体の顔又は瞳を判定する
     請求項2に記載の撮像制御装置。
  7.  前記顔・瞳判定部は、
     前記検出した顔又は瞳と前記被写体との奥行き方向における動きの整合性に基づいて前記被写体の顔又は瞳を判定する
     請求項6に記載の撮像制御装置。
  8.  前記調整制御部は、
     前記撮像制御パラメータの調整制御としてオートフォーカス制御を行い、
     前記顔・瞳判定部は、
     前記検出した顔又は瞳と前記被写体の奥行き情報としてオートフォーカス用の測距情報を用いる
     請求項5又は請求項7に記載の撮像制御装置。
  9.  対象とされた被写体を追尾する追尾部を備え、
     前記顔・瞳判定部は、
     前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新すると共に、以降の判定においては、前記追尾部が追尾する位置に基づき、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
     請求項2に記載の撮像制御装置。
  10.  前記顔・瞳判定部は、
     前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記被写体の顔又は瞳と判定しなかった全ての顔又は瞳を判定対象から除外する
     請求項2に記載の撮像制御装置。
  11.  前記顔・瞳判定部は、
     前記検出した顔又は瞳のうちから前記被写体の顔又は瞳を判定した以降は、前記探索範囲を第一探索範囲から前記第一探索範囲とは異なる第二探索範囲に切り換えた判定を行う
     請求項4に記載の撮像制御装置。
  12.  対象とされた被写体を追尾する追尾部を備え、
     前記追尾部は、
     前記顔・瞳判定部が前記被写体の顔又は瞳を判定したか否かに拘わらず、前記操作により選択された被写体を追尾し続け、
     前記顔・瞳判定部は、
     前記追尾部が追尾する位置を基準として、前記検出した顔又は瞳が前記被写体の顔又は瞳であるか否かを判定する
     請求項2に記載の撮像制御装置。
  13.  前記操作により被写体が選択されたことに応じて、前記撮像画像を表示する表示部において該被写体の位置に第一視覚情報を表示させ、前記顔・瞳判定部により該被写体の顔又は瞳が判定されたことに応じて、前記表示部において該判定された顔又は瞳の位置に第二視覚情報を表示させると共に、前記第一視覚情報を非表示とさせる表示制御部を備える
     請求項1に記載の撮像制御装置。
  14.  前記表示制御部は、
     前記第二視覚情報として、前記第一視覚情報とは異なる形状の情報を表示させる
     請求項13に記載の撮像制御装置。
  15.  対象とされた被写体を追尾する追尾部を備え、
     前記顔・瞳判定部は、
     前記被写体の顔又は瞳を判定した場合は、前記追尾部が追尾の対象とする被写体である追尾対象被写体を、該判定した顔又は瞳に更新し、該判定した顔又は瞳が前記撮像画像内に検出されなくなった場合は、前記追尾対象被写体をそれまでの追尾対象被写体で維持させ、
     前記調整制御部は、
     前記追尾部が追尾する位置の情報に基づいて前記撮像制御パラメータの調整制御を行い、
     前記表示制御部は、
     前記顔・瞳判定部が前記判定した顔又は瞳を検出できなくなったことに応じて、前記追尾部が追尾する位置に、前記第二視覚情報とは異なる視覚情報を表示させる制御を行う
     請求項13に記載の撮像制御装置。
  16.  前記被写体は人である
     請求項1に記載の撮像制御装置。
  17.  前記被写体は動物である
     請求項1に記載の撮像制御装置。
  18.  撮像画像を得る撮像部と、
     操作により前記撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定する顔・瞳判定部と、
     前記顔・瞳判定部が判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う調整制御部と、を備える
     撮像装置。
  19.  操作により撮像画像内における被写体が選択されたことに応じて、該選択された被写体の顔又は瞳を判定し、判定した前記顔又は瞳の位置情報に基づいて撮像制御パラメータの調整制御を行う
     撮像制御方法。
PCT/JP2019/047226 2018-12-21 2019-12-03 撮像制御装置、撮像装置、撮像制御方法 WO2020129620A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020561272A JP7342883B2 (ja) 2018-12-21 2019-12-03 撮像制御装置、撮像装置、撮像制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-240192 2018-12-21
JP2018240192 2018-12-21

Publications (1)

Publication Number Publication Date
WO2020129620A1 true WO2020129620A1 (ja) 2020-06-25

Family

ID=71101446

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/047226 WO2020129620A1 (ja) 2018-12-21 2019-12-03 撮像制御装置、撮像装置、撮像制御方法

Country Status (2)

Country Link
JP (1) JP7342883B2 (ja)
WO (1) WO2020129620A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022023603A (ja) * 2020-07-27 2022-02-08 パナソニックIpマネジメント株式会社 撮像装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196385A (ja) * 2004-01-06 2005-07-21 Toshiba Corp 画像処理装置、画像処理方法およびデジタルカメラ

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5233720B2 (ja) 2009-02-12 2013-07-10 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196385A (ja) * 2004-01-06 2005-07-21 Toshiba Corp 画像処理装置、画像処理方法およびデジタルカメラ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022023603A (ja) * 2020-07-27 2022-02-08 パナソニックIpマネジメント株式会社 撮像装置

Also Published As

Publication number Publication date
JPWO2020129620A1 (ja) 2021-11-04
JP7342883B2 (ja) 2023-09-12

Similar Documents

Publication Publication Date Title
JP5251215B2 (ja) デジタルカメラ
JP4761146B2 (ja) 撮像装置及びそのプログラム
US10419683B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
TWI419552B (zh) 攝影裝置、被攝體追蹤方法及記錄媒體
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
US8462215B2 (en) Photographing control method and apparatus according to motion of digital photographing apparatus
JP2008136035A (ja) 撮像装置
JP2006258944A (ja) オートフォーカスシステム
JP2007279601A (ja) カメラ
JP4552997B2 (ja) 撮像装置及びプログラム
JP2015005799A (ja) 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体
CN114080796B (zh) 成像装置、成像方法和程序
JP2021124669A (ja) 電子機器
US20180316858A1 (en) Image processing apparatus and image processing apparatus control method
JP2009212804A (ja) 構図アシスト機能付き撮像装置及び該撮像装置における構図アシスト方法
JP2009212802A (ja) 構図アシスト機能付き撮像装置及び該撮像装置における構図アシスト方法
JP5088216B2 (ja) 電子カメラ
JP4807582B2 (ja) 画像処理装置、撮像装置及びそのプログラム
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP6080825B2 (ja) 撮像装置及びその制御方法
JP2011155692A (ja) 撮像装置及びそのプログラム
WO2022209478A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
US20240196108A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and storage medium
US20240147067A1 (en) Imaging apparatus, focus control method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19900703

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020561272

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19900703

Country of ref document: EP

Kind code of ref document: A1