WO2021029152A1 - 撮像装置、撮像装置の作動方法、及びプログラム - Google Patents

撮像装置、撮像装置の作動方法、及びプログラム Download PDF

Info

Publication number
WO2021029152A1
WO2021029152A1 PCT/JP2020/025833 JP2020025833W WO2021029152A1 WO 2021029152 A1 WO2021029152 A1 WO 2021029152A1 JP 2020025833 W JP2020025833 W JP 2020025833W WO 2021029152 A1 WO2021029152 A1 WO 2021029152A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
detection process
circuit
detection
Prior art date
Application number
PCT/JP2020/025833
Other languages
English (en)
French (fr)
Inventor
仁史 桜武
長谷川 亮
智行 河合
小林 誠
一文 菅原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021539834A priority Critical patent/JP7279169B2/ja
Priority to CN202080056928.5A priority patent/CN114258672B/zh
Publication of WO2021029152A1 publication Critical patent/WO2021029152A1/ja
Priority to US17/666,591 priority patent/US11689816B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS

Definitions

  • the technology of the present disclosure relates to an imaging device, an operating method of the imaging device, and a program.
  • Japanese Unexamined Patent Publication No. 2018-056944 discloses an image pickup device including an image pickup device, a generation unit, and a detection unit.
  • the image pickup element is arranged in a plurality of image pickup regions in which a plurality of pixels that generate signals by photoelectrically converted charges are arranged, and pixels in each image pickup region. It has a signal line that outputs the signal generated in.
  • the generation unit generates an image of the captured subject by using the signal of the first pixel output to the signal line of the first imaging region from the pixels arranged in the first imaging region.
  • the detection unit is a second pixel larger than the number of the first pixels output to the signal line of the second imaging region from the pixels arranged in the second imaging region different from the first imaging region in the imaging region. The subject is detected using the signal of.
  • the generation unit uses the signal of the first pixel output to the signal line of the first imaging region by thinning out the pixels arranged in the first imaging region. Generates an image of the captured subject. Further, the detection unit detects the subject by using the signal of the second pixel, which is larger than the number of the first pixel and is output to the signal line of the second imaging region by thinning out the pixels arranged in the second imaging region. To do.
  • Japanese Unexamined Patent Publication No. 2016-219949 discloses an imaging apparatus having an imaging means including an imaging element that images a subject and outputs an image corresponding to the subject.
  • the imaging apparatus described in Japanese Patent Application Laid-Open No. 2016-219949 includes reading means, discriminating means, and controlling means.
  • the reading means reads out a specific pixel group in the image sensor as a first reading operation to obtain a first image, and reads out a pixel group different from the specific pixel group as a second reading operation. 2 images are obtained.
  • the discriminating means discriminates a predetermined subject region as a subject region of interest in the first image obtained by the first readout operation.
  • the control means controls the reading means according to the attention subject area obtained by the discrimination means, and controls the second image obtained by the second reading operation to be an image including the attention subject area. It is characterized by having. Further, the image pickup apparatus described in Japanese Patent Application Laid-Open No. 2016-219949 is characterized in that the number of pixels in the second image is larger than the number of pixels in the subject region of interest in the first image.
  • One embodiment according to the technique of the present disclosure is an image pickup apparatus and an image pickup apparatus capable of reducing the processing load and realizing highly accurate detection as compared with the case where the detection process is always performed using only the image data before reduction.
  • the operation method and the program are provided.
  • the first aspect according to the technique of the present disclosure includes a storage unit for storing image data obtained by imaging and a processing unit for processing the image data, and the processing unit includes image data.
  • the first detection process is performed to detect a specific subject image indicating a specific subject from the reduced image indicated by the reduced image data obtained by reducing the image data, and the first detection process is performed.
  • This is an imaging device that performs a second detection process on the pre-reduction image data, which is the pre-reduction image data stored in the storage unit, when the specific subject image is not detected.
  • the processing unit is a partial region in the image indicated by the image data before reduction, and is detected by the first detection process in the frame before the frame to be subjected to the second detection process.
  • the imaging device according to the first aspect which performs a second detection process on partial area image data indicating a partial area corresponding to the position of a specific subject image.
  • the third aspect according to the technique of the present disclosure is the image pickup apparatus according to the second aspect, wherein the partial region is the region of the specified specific subject in the image shown by the pre-reduction image data.
  • the processing unit when a specific subject image is detected by the first detection process, the processing unit indicates a specific subject indicating a region corresponding to the position of the specific subject image in the pre-reduction image data.
  • the image pickup apparatus according to any one of the first to third aspects of storing image area data in a storage unit.
  • the processing unit when a specific subject image is detected by the first detection process, the processing unit performs a second detection process on the specific subject image area data stored in the storage unit. It is an image pickup apparatus which concerns on the 4th aspect.
  • the processing unit generates a plurality of types of pre-reduction image data from the image data, and stores the generated plurality of types of pre-reduction image data in the storage unit for each predetermined period.
  • This is an image pickup apparatus according to any one of the first to fifth aspects.
  • the processing unit analyzes the image data for each predetermined period before performing the second detection processing, and among a plurality of types of pre-reduction image data stored in the storage unit.
  • the imaging device which performs a second detection process on the pre-reduction image data determined according to the analysis result for each predetermined period.
  • the processing unit analyzes the contrast of the designated area image from the image data for each predetermined period before performing the second detection processing, and a plurality of types stored in the storage unit.
  • a ninth aspect according to the technique of the present disclosure is that the second detection process is at least one of a specific subject image and a small subject image showing a subject smaller than the specific subject from the image shown by the image data before reduction.
  • This is an image pickup apparatus according to any one of the first to eighth aspects, which is a process of detecting the above.
  • a tenth aspect according to the technique of the present disclosure is an image pickup apparatus according to a ninth aspect in which the specific subject image is a face image showing a face and the small subject image is a pupil image showing a pupil.
  • the specific subject image is any of the first to tenth aspects, which is a moving body image showing a designated moving body in the image shown by the image data. It is an image pickup apparatus which concerns on one aspect.
  • a twelfth aspect according to the technique of the present disclosure is an imaging device according to any one of the first to eleventh aspects, in which the pre-reduction image data is display image data.
  • a thirteenth aspect according to the technique of the present disclosure further includes an image pickup element, and the image pickup device is an image pickup device according to any one of the first to eleventh aspects having a built-in storage unit. ..
  • the fourteenth aspect according to the technique of the present disclosure is the image pickup device according to the thirteenth aspect in which the image pickup device has a built-in processing unit.
  • a fifteenth aspect according to the technique of the present disclosure is an image pickup device according to a thirteenth aspect or a fourteenth aspect in which the image pickup element is an image pickup device in which at least a photoelectric conversion element and a storage unit are integrated into one chip.
  • the sixteenth aspect according to the technique of the present disclosure is the image pickup device according to the fifteenth aspect, in which the image pickup device is a stacked image pickup device in which a storage unit is laminated on a photoelectric conversion element.
  • a seventeenth aspect according to the technique of the present disclosure further comprises a control unit that controls the display device to display at least one of the detection result in the first detection process and the detection result in the second detection process. It is an image pickup apparatus which concerns on any one aspect of 1st to 16th aspects including.
  • the processing unit steps on a plurality of pre-reduction image data having different resolutions from low-resolution pre-reduction image data to high-resolution pre-reduction image data.
  • the image pickup apparatus according to any one of the first to seventeenth aspects of performing the detection process.
  • a nineteenth aspect according to the technique of the present disclosure is obtained by storing the image data obtained by imaging in a storage unit, performing a process of reducing the image data, and reducing the image data.
  • the storage unit stores the specific subject image.
  • This is an operation method of an imaging device including performing a second detection process on the stored image data before reduction, which is the image data before reduction.
  • a twentieth aspect according to the technique of the present disclosure is to store the image data obtained by imaging in a computer in a storage unit, perform a process of reducing the image data, and reduce the image data.
  • This is a program for executing a process including performing a second detection process on the image data before reduction, which is the image data before reduction stored in the storage unit.
  • FIG. 1 It is a perspective view which shows an example of the appearance of the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a rear view which shows an example of the appearance of the back side of the image pickup apparatus shown in FIG. It is a block diagram which shows an example of the structure of the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a block diagram which shows an example of the hardware structure of the electric system of the image pickup apparatus main body included in the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a conceptual diagram provided for the explanation of the frame rate of the image pickup device included in the image pickup apparatus which concerns on 1st to 4th Embodiment.
  • the live view image when the first detection process fails and the second detection process succeeds (when the specific subject image is detected by the second detection process without detecting the specific subject image by the first detection process)
  • It is a time chart which shows an example of the processing content in the image pickup apparatus which concerns on 1st Embodiment.
  • It is a flowchart which shows an example of the flow of the post-stage circuit processing which concerns on 1st Embodiment.
  • FIG. 15A It is a continuation of the flowchart shown in FIG. 15A. It is a conceptual diagram which provides the explanation of the processing content of the 1st detection circuit included in the image pickup apparatus which concerns on 2nd Embodiment. It is a conceptual diagram which provides the explanation of the processing content of the 2nd detection circuit included in the image pickup apparatus which concerns on 2nd Embodiment.
  • FIG. 5 is a screen view showing an example of a display mode when both the first detection process by the first detection circuit and the second detection process by the second detection circuit included in the image pickup apparatus according to the second embodiment fail. ..
  • It is a flowchart which shows an example of the flow of the post-stage circuit processing which concerns on 2nd Embodiment.
  • FIG. 20A It is a continuation of the flowchart shown in FIG.
  • FIGS. 20A to 20C It is a continuation of the flowchart shown in FIGS. 20A to 20C. It is a conceptual diagram provided for the explanation of the modification of the processing content of the 1st detection circuit included in the image pickup apparatus which concerns on 2nd Embodiment. It is a conceptual diagram provided for the explanation of the modification of the processing content of the generation circuit included in the image pickup apparatus which concerns on 2nd Embodiment. It is a conceptual diagram provided for the explanation of the modification of the processing content of the 2nd detection circuit included in the image pickup apparatus which concerns on 2nd Embodiment. It is a block diagram which shows an example of the hardware structure of the electric system of the image pickup device included in the image pickup apparatus which concerns on 3rd Embodiment.
  • CPU refers to the abbreviation of "Central Processing Unit”.
  • GPU refers to the abbreviation of "Graphics Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • ROM is an abbreviation for "Read Only Memory”.
  • DRAM refers to the abbreviation of "Dynamic Random Access Memory”.
  • SRAM refers to the abbreviation of "Static Random Access Memory”.
  • LSI refers to the abbreviation of "Large-Scale Integrated circuit”.
  • ASIC refers to the abbreviation of "Application Special Integrated Circuit”.
  • PLD refers to the abbreviation of "Programmable Logical Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • SoC refers to the abbreviation of "System-on-a-chip”.
  • SSD is an abbreviation for “Solid State Drive”.
  • USB refers to the abbreviation of “Universal Serial Bus”.
  • HDD refers to the abbreviation of "Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconducor”.
  • EL refers to the abbreviation for "Electro-Luminescence”.
  • a / D refers to the abbreviation of "Analog / Digital”.
  • I / F refers to the abbreviation of "Interface”.
  • UI refers to the abbreviation of "User Interface”.
  • LVDS is an abbreviation for "Low Voltage Differential Signaling”.
  • PCIe refers to the abbreviation of "Peripheral Component Interconnect Express”.
  • SATA is an abbreviation for "Serial Advanced Technology Attitude”.
  • SLVS-EC refers to the abbreviation of "Scalable Low Signaling with Embedded Clock”.
  • MIPI registered trademark
  • fps refers to the abbreviation of "frame per second”.
  • FIFO refers to the abbreviation of "First In, First Out”.
  • FHD refers to the abbreviation of "Full High Definition”.
  • VGA refers to the abbreviation of "Video Graphics Array”.
  • the image pickup apparatus 10 is a digital camera having an interchangeable lens and omitting a reflex mirror.
  • the image pickup apparatus 10 includes an image pickup apparatus main body 12 and an interchangeable lens 14 that is interchangeably attached to the image pickup apparatus main body 12.
  • an interchangeable lens 14 that is interchangeably attached to the image pickup apparatus main body 12.
  • the image pickup device 10 a digital camera having an interchangeable lens and omitting a reflex mirror is mentioned, but the technique of the present disclosure is not limited to this, and the image pickup device 10 is not limited to this.
  • Other types of digital cameras such as fixed lens type may be used.
  • the image pickup device main body 12 is provided with an image pickup element 38.
  • the interchangeable lens 14 is attached to the image sensor main body 12
  • the subject light indicating the subject is transmitted through the interchangeable lens 14 and imaged on the image sensor 38, and image data (for example,) indicating the image of the subject by the image sensor 38. , 4 and 5) are generated.
  • a hybrid finder (registered trademark) 16 is provided on the image pickup apparatus main body 12.
  • the hybrid finder 16 refers to a finder in which, for example, an optical view finder (hereinafter, "OVF”) and an electronic view finder (hereinafter, “EVF”) are selectively used.
  • OVF optical view finder
  • EVF electronic view finder
  • OVF refers to the abbreviation of optical viewfinder
  • the EVF is an abbreviation for "electronic viewfinder”.
  • a finder switching lever 18 is provided on the front surface of the image pickup apparatus main body 12.
  • the optical image visible in the OVF and the live view image which is the electronic image visible in the EVF are switched by rotating the finder switching lever 18 in the direction of the arrow SW.
  • the "live view image” refers to a moving image for display based on image data obtained by being imaged by the image sensor 38. Live view images are also commonly referred to as through images.
  • a release button 20 and a dial 23 are provided on the upper surface of the image pickup apparatus main body 12. The dial 23 is operated when setting the operation mode of the image pickup system, the operation mode of the reproduction system, and the like, whereby the image pickup device 10 selectively sets the image pickup mode and the reproduction mode as the operation modes.
  • the release button 20 functions as an imaging preparation instruction unit and an imaging instruction unit, and can detect a two-step pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to a state in which the image is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state is a state in which the image is pressed to the final pressed position (fully pressed position) beyond the intermediate position. Point to. In the following, the "state of being pressed from the standby position to the half-pressed position" is referred to as the "half-pressed state", and the "state of being pressed from the standby position to the fully-pressed position” is referred to as the "fully-pressed state”.
  • a touch panel display 24, an instruction key 27, and a finder eyepiece 30 are provided on the back surface of the image pickup apparatus main body 12.
  • the touch panel display 24 includes a display 26 and a touch panel 28 (see also FIG. 4).
  • An example of the display 26 is an organic EL display.
  • the display 26 may be not an organic EL display but another type of display such as a liquid crystal display or an inorganic EL display.
  • the display 26 and the EVF are examples of the "display device" according to the technology of the present disclosure. Since the display of the EVF is equivalent to the display of the display 26, the description thereof will be omitted below, but in the present specification, the display on the display 26 can be read as the display on the EVF.
  • the display 26 displays images, character information, and the like.
  • the display 26 is used for displaying a live view image obtained by continuous imaging when the imaging device 10 is in the imaging mode.
  • the display 26 is also used for displaying a still image obtained by taking an image when an instruction for taking an image for a still image is given. Further, the display 26 is also used for displaying a reproduced image and displaying a menu screen or the like when the imaging device 10 is in the reproduction mode.
  • the touch panel 28 is a transmissive touch panel and is superimposed on the surface of the display area of the display 26.
  • the touch panel 28 receives an instruction from the user by detecting contact with an indicator such as a finger or a stylus pen.
  • an out-cell type touch panel display in which the touch panel 28 is superimposed on the surface of the display area of the display 26 is given, but this is only an example.
  • an on-cell type or in-cell type touch panel display can be applied as the touch panel display 24.
  • the instruction key 27 receives various instructions.
  • the "various instructions" are, for example, an instruction to display a menu screen on which various menus can be selected, an instruction to select one or a plurality of menus, an instruction to confirm the selected contents, and an instruction to delete the selected contents. , Zoom in, zoom out, frame advance, etc.
  • the interchangeable lens 14 has an image pickup lens 40.
  • the image pickup lens 40 includes an objective lens 40A, a focus lens 40B, and an aperture 40C.
  • the objective lens 40A, the focus lens 40B, and the aperture 40C are the objective lens 40A, the focus lens 40B, and the aperture 40C along the optical axis L1 from the subject side (object side) to the image pickup device main body 12 side (image side). They are arranged in order.
  • the focus lens 40B and the diaphragm 40C operate by receiving power from a drive source (not shown) such as a motor. That is, the focus lens 40B moves along the optical axis L1 according to the applied power. Further, the diaphragm 40C adjusts the exposure by operating according to the applied power.
  • the image pickup device main body 12 includes a post-stage circuit 13, a UI device 17, a mechanical shutter 41, and an image pickup element 38.
  • the post-stage circuit 13 is a circuit located after the image sensor 38.
  • the subsequent circuit 13 has a controller 15 and a signal processing circuit 34.
  • the controller 15 is connected to the UI device 17, the signal processing circuit 34, and the image sensor 38, and controls the entire electrical system of the image sensor 10.
  • the image pickup element 38 includes a photoelectric conversion element 42 having a light receiving surface 42A.
  • the image sensor 38 is a CMOS image sensor.
  • the CMOS image sensor is illustrated here as the image sensor 38, the technique of the present disclosure is not limited to this, and for example, even if the image sensor 38 is another type of image sensor such as a CCD image sensor. The technique of the present disclosure is established.
  • the mechanical shutter 41 operates by receiving power from a drive source (not shown) such as a motor.
  • a drive source such as a motor.
  • the UI device 17 is a device that presents information to the user and accepts instructions from the user.
  • the controller 15 acquires various information from the UI device 17 and controls the UI device 17.
  • the image sensor 38 is connected to the controller 15 and, under the control of the controller 15, images the subject to generate image data indicating the image of the subject.
  • the image sensor 38 is connected to the signal processing circuit 34.
  • the signal processing circuit 34 is an LSI, specifically, a device including an ASIC and an FPGA.
  • the controller 15 acquires various information from the signal processing circuit 34 and controls the image sensor 38.
  • the image sensor 38 outputs the image data generated by the photoelectric conversion element 42 to the signal processing circuit 34 under the control of the controller 15.
  • the signal processing circuit 34 is an example of a "processing unit (signal processing circuit)" according to the technique of the present disclosure.
  • the signal processing circuit 34 is a circuit that processes image data. Specifically, the signal processing circuit 34 performs various signal processing on the image data input from the image sensor 38.
  • Various signal processing performed by the signal processing circuit 34 includes known signal processing such as white balance adjustment, sharpness adjustment, gamma correction, color space conversion processing, and color difference correction.
  • various signal processing performed by the signal processing circuit 34 may be performed in a distributed manner by the signal processing circuit 34 and the image sensor 38. That is, at least a part of the various signal processing performed by the signal processing circuit 34 may be assigned to the processing circuit 110 of the image sensor 38.
  • the signal processing circuit 34 may be a device including an ASIC, FPGA, or PLD, a device including the FPGA and PLD, or a device including the ASIC and PLD.
  • the signal processing circuit 34 may be a computer including a CPU, a storage, and a memory.
  • the storage refers to a non-volatile storage device.
  • An example of the non-volatile storage device is a flash memory, but the present invention is not limited to this, and may be EEPROM, HDD, and / or SSD.
  • the memory temporarily stores various information and is used as a work memory.
  • An example of the memory is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the number of CPUs included in the computer may be singular or plural.
  • the signal processing circuit 34 may be realized by a combination of a hardware configuration and a software configuration.
  • the controller 15 includes a CPU 15A, a storage 15B, a memory 15C, an output I / F15D, and a reception I / F15E.
  • the CPU 15A is an example of a "control unit (processor)" according to the technique of the present disclosure.
  • the CPU 15A, the storage 15B, the memory 15C, the output I / F15D, and the reception I / F15E are connected via the bus 100.
  • the bus 100 may be a serial bus, or may be a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the storage 15B stores various parameters and various programs.
  • the storage 15B is a non-volatile storage device.
  • a flash memory is adopted as an example of the storage 15B.
  • the flash memory is merely an example, and EEPROM, HDD, and / or SSD or the like may be applied as the storage 15B instead of the flash memory or together with the flash memory.
  • the memory 15C temporarily stores various information and is used as a work memory.
  • An example of the memory 15C is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the CPU 15A reads a necessary program from the storage 15B and executes the read program on the memory 15C.
  • the CPU 15A controls the entire image pickup apparatus 10 according to a program executed on the memory 15C.
  • the output I / F15D is connected to the image sensor 38.
  • the CPU 15A controls the image sensor 38 via the output I / F15D.
  • the CPU 15A controls the timing of imaging performed by the image sensor 38 by supplying an image pickup timing signal that defines the timing of image pickup to the image sensor 38 via the output I / F15D.
  • the reception I / F15E is connected to the signal processing circuit 34.
  • the image data obtained by performing various signal processing by the signal processing circuit 34 is output to the reception I / F15E by the signal processing circuit 34.
  • the reception I / F15E receives the image data output from the signal processing circuit 34 and transfers the received image data to the CPU 15A.
  • the external I / F 104 is connected to the bus 100.
  • the external I / F 104 is a communication device composed of circuits.
  • a device configured by a circuit is illustrated as an external I / F 104, but this is only an example.
  • the external I / F 104 may be a device that includes an ASIC, FPGA, and / or PLD. Further, the external I / F 104 may be realized by a combination of a hardware configuration and a software configuration.
  • An example of an external I / F 104 is a USB interface.
  • External devices such as smart devices, personal computers, servers, USB memory sticks, memory cards, and / or printers can be directly or indirectly connected to the USB interface.
  • the external I / F 104 controls the exchange of various information between the CPU 15A and the external device.
  • the UI device 17 includes a touch panel display 24 and a reception device 84.
  • the display 26 and the touch panel 28 are connected to the bus 100. Therefore, the CPU 15A displays various information on the display 26 and operates according to various instructions received by the touch panel 28.
  • the reception device 84 includes a hard key unit 25.
  • the hard key unit 25 is a plurality of hard keys and has a release button 20 (see FIG. 1), a dial 23 (see FIGS. 1 and 2), and an instruction key 22 (see FIG. 2).
  • the hard key unit 25 is connected to the bus 100, and the CPU 15A acquires an instruction received by the hard key unit 25 and operates according to the acquired instruction.
  • an image pickup timing signal is input to the image pickup element 38 from the controller 15.
  • the imaging timing signal includes a vertical synchronization signal and a horizontal synchronization signal.
  • the vertical synchronization signal is a synchronization signal that defines the start timing of reading image data for each frame from the photoelectric conversion element 42.
  • the horizontal synchronization signal is a synchronization signal that defines the start timing of reading image data for each horizontal line from the photoelectric conversion element 42.
  • image data is read from the photoelectric conversion element 42 according to a frame rate determined according to the vertical synchronization signal input from the controller 15.
  • a frame rate at which 8 frames are read from the photoelectric conversion element 42 within the period T is shown.
  • An example of a specific frame rate is 120 fps, but the frame rate is not limited to 120 fps, and may be a frame rate exceeding 120 fps (for example, 240 fps) or less than 120 fps (for example, 60 fps). You may.
  • the image pickup element 38 has a photoelectric conversion element 42, a processing circuit 110, and a memory 112 built-in.
  • the image sensor 38 is an image sensor in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip. That is, the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are packaged in one package.
  • the processing circuit 110 and the memory 112 are laminated on the photoelectric conversion element 42.
  • the photoelectric conversion element 42 and the processing circuit 110 are electrically connected to each other by conductive bumps (not shown) such as copper, so that the processing circuit 110, the memory 112, and the processing circuit 110 have conductivity.
  • the image sensor 38 is an example of a "stacked image sensor" according to the technique of the present disclosure.
  • the processing circuit 110 is, for example, an LSI.
  • the memory 112 is a memory in which the write timing and the read timing are different.
  • DRAM is adopted as an example of the memory 112.
  • the technique of the present disclosure is established even if the memory 112 is another type of storage device such as SRAM.
  • the processing circuit 110 is a device including an ASIC and an FPGA, and controls the entire image sensor 38 according to the instructions of the controller 15 described above. Although a device including an ASIC and an FPGA is illustrated here as the signal processing circuit 34, the technique of the present disclosure is not limited to this.
  • the processing circuit 110 may be a device containing an ASIC, FPGA, or PLD, a device containing an FPGA and PLD, or a device containing an ASIC and PLD.
  • the processing circuit 110 may be a computer including a CPU, a storage, and a memory.
  • Storage refers to a non-volatile storage device such as flash memory.
  • the memory temporarily stores various information and is used as a work memory.
  • An example of the memory is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the number of CPUs included in the computer may be singular or plural.
  • the processing circuit 110 may be realized by a combination of a hardware configuration and a software configuration.
  • the photoelectric conversion element 42 has a plurality of photodiodes arranged in a matrix.
  • An example of a plurality of photodiodes is a photodiode for "4896 x 3265" pixels.
  • a color filter is arranged on each photodiode included in the photoelectric conversion element 42.
  • the color filter includes a G filter corresponding to G (green), an R filter corresponding to R (red), and a B filter corresponding to B (blue), which contribute most to obtain a luminance signal.
  • the photoelectric conversion element 42 has R pixels, G pixels, and B pixels.
  • the R pixel is a pixel corresponding to the photodiode in which the R filter is arranged
  • the G pixel is the pixel corresponding to the photodiode in which the G filter is arranged
  • the B pixel is the photodiode in which the B filter is arranged. It is a pixel corresponding to.
  • the R pixel, G pixel, and B pixel are arranged in each of the row direction (horizontal direction) and the column direction (vertical direction) with a predetermined periodicity.
  • the R pixel, the G pixel, and the B pixel are arranged with a periodicity corresponding to the X-Trans (registered trademark) arrangement.
  • the X-Trans array is illustrated here, the technique of the present disclosure is not limited to this, and the array of R pixel, G pixel, and B pixel may be a Bayer array, a honeycomb array, or the like. Good.
  • the image sensor 38 has a so-called electronic shutter function, and by activating the electronic shutter function under the control of the controller 15, the charge accumulation time of each photodiode in the photoelectric conversion element 42 is controlled.
  • the charge accumulation time refers to the so-called shutter speed.
  • imaging for a still image and imaging for a live view image are selectively performed.
  • Imaging for still images is realized by activating the electronic shutter function and operating the mechanical shutter 41
  • imaging for live view images is achieved by activating the electronic shutter function without activating the mechanical shutter 41. It will be realized.
  • imaging using the mechanical shutter 41 is illustrated here, the mechanical shutter 41 is not indispensable for realizing the imaging, and the electronic shutter function can be activated even without the mechanical shutter 41 for a live view image. Imaging and imaging for still images are realized.
  • the rolling shutter method is exemplified here, the technique of the present disclosure is not limited to this, and a global shutter method may be applied instead of the rolling shutter method.
  • the processing circuit 110 includes a reception I / F110D1 and an output I / F110D2.
  • the output I / F15D of the controller 15 is connected to the reception I / F110D1 of the processing circuit 110, and outputs the imaging timing signal to the reception I / F110D1.
  • the reception I / F110D1 receives the image pickup timing signal output from the output I / F15D.
  • the signal processing circuit 34 includes a reception I / F34A and an output I / F34B.
  • the reception I / F34A is connected to the output I / F110D2 of the image sensor 38.
  • the output I / F110D2 of the processing circuit 110 outputs various information such as image data (hereinafter, also simply referred to as “various information”) to the reception I / F34A of the signal processing circuit 34, and the reception I / F34A outputs the output I / F34A.
  • the signal processing circuit 34 performs signal processing on various information received by the reception I / F 34A as needed.
  • the output I / F34B is connected to the reception I / F15E of the controller 15 and outputs various information to the reception I / F15E of the controller 15.
  • the reception I / F15E receives various information output from the output I / F34B.
  • the processing circuit 110 includes a reading circuit 110A, a digital processing circuit 110B, and a control circuit 110C in addition to the reception I / F110D1 and the output I / F110D2.
  • the read circuit 110A is connected to each of the photoelectric conversion element 42, the digital processing circuit 110B, and the control circuit 110C.
  • the digital processing circuit 110B is connected to the control circuit 110C.
  • the control circuit 110C is connected to each of the memory 112, the reception I / F110D1, and the output I / F110D2.
  • analog image data 70A and digital image data 70B are roughly classified into analog image data 70A and digital image data 70B as an example.
  • image data When it is not necessary to distinguish and explain various image data such as data 70B3 (see FIG. 12), it is referred to as “image data” without a reference numeral.
  • Each of the reception I / F110D1 and the output I / F110D2 of the processing circuit 110 is a communication device composed of circuits. Further, each of the output I / F15D and the reception I / F15E of the controller 15 is also a communication device composed of a circuit. Further, each of the reception I / F34A and the output I / F34B of the signal processing circuit 34 is also a communication device composed of circuits.
  • the reception I / F110D1 of the processing circuit 110 and the output I / F15D of the controller 15 are connected according to the PCIe connection standard. Further, the output I / F110D2 of the processing circuit 110 and the reception I / F34A of the signal processing circuit 34 are also connected according to the PCIe connection standard. Further, the output I / F34B of the signal processing circuit 34 and the reception I / F15E of the controller 15 are also connected according to the PCIe connection standard. In the following, if it is not necessary to distinguish between reception I / F110D1, output I / F110D2, reception I / F34A, output I / F34B, reception I / F15E, and output I / F15D, no reference numerals are given. Is referred to as "communication I / F".
  • the communication I / F is a device including an ASIC, an FPGA, and / or PLD. May be good.
  • the communication I / F may be a computer including a CPU, a storage such as a flash memory, and a memory such as a RAM. In this case, the number of CPUs included in the computer may be singular or plural.
  • a GPU may be used instead of the CPU.
  • the communication I / F may be realized by a combination of a hardware configuration and a software configuration.
  • the reception I / F110D1 receives the image pickup timing signal output from the output I / F15D of the controller 15 and transfers the received image pickup timing signal to the control circuit 110C.
  • the reading circuit 110A controls the photoelectric conversion element 42 under the control of the control circuit 110C, and reads the analog image data 70A from the photoelectric conversion element 42.
  • the reading of the analog image data 70A from the photoelectric conversion element 42 is performed according to the imaging timing signal input from the controller 15 to the processing circuit 110.
  • the reception I / F 110D1 receives the image pickup timing signal from the controller 15 and transfers the received image pickup timing signal to the control circuit 110C.
  • the control circuit 110C transfers the image pickup timing signal transferred from the reception I / F 110D1 to the read circuit 110A. That is, the vertical synchronization signal and the horizontal synchronization signal are transferred to the reading circuit 110A.
  • the reading circuit 110A starts reading the analog image data 70A in frame units from the photoelectric conversion element 42 according to the vertical synchronization signal transferred from the control circuit 110C. Further, the reading circuit 110A starts reading the analog image data 70A in units of horizontal lines according to the horizontal synchronization signal transferred from the control circuit 110C.
  • the reading circuit 110A performs analog signal processing on the analog image data 70A read from the photoelectric conversion element 42.
  • the analog signal processing includes known processing such as noise canceling processing and analog gain processing.
  • the noise canceling process is a process for canceling noise caused by variations in characteristics between pixels included in the photoelectric conversion element 42.
  • the analog gain process is a process of applying a gain to the analog image data 70A.
  • the analog image data 70A subjected to analog signal processing in this way is output to the digital processing circuit 110B by the reading circuit 110A.
  • the digital processing circuit 110B includes an A / D converter 110B1.
  • the A / D converter 110B1 A / D converts the analog image data 70A.
  • the digital processing circuit 110B performs digital signal processing on the analog image data 70A input from the reading circuit 110A.
  • the digital signal processing includes, for example, A / D conversion by the A / D converter 110B1 and digital gain processing.
  • a / D conversion is performed on the analog image data 70A by the A / D converter 110B1, whereby the analog image data 70A is digitized and the digital image data 70B is obtained as RAW data. Then, the digital image data 70B is subjected to digital gain processing by the digital processing circuit 110B.
  • the digital gain process refers to a process of applying a gain to the digital image data 70B.
  • the digital image data 70B obtained by performing the digital signal processing in this way is output to the control circuit 110C by the digital processing circuit 110B.
  • the memory 112 is a memory capable of storing a plurality of frames of digital image data.
  • the control circuit 110C stores the digital image data 70B input from the digital processing circuit 110B in the memory 112.
  • the memory 112 has a storage area in pixel units, and the digital image data 70B is stored in the corresponding storage area of the memory 112 in pixel units by the control circuit 110C.
  • the control circuit 110C has random access to the memory 112, and acquires digital image data 70B from the memory 112 according to the frame rate. Then, the control circuit 110C reduces the digital image data 70B acquired from the memory 112, and causes the signal processing circuit 34 to output the output image data 70B1 obtained by reducing the digital image data 70B to the output I / F 110D2.
  • reduction refers to a process of reducing the resolution of image data. An example of the process of reducing the resolution is a process of thinning out pixels.
  • the digital image data 70B input from the output I / F 110D2 is received by the reception I / F 34A, and various signal processing is performed on the received digital image data 70B.
  • the image sensor 38 performs a process including an image pickup process and an output process.
  • the imaging process first, exposure is performed by the photoelectric conversion element 42. Then, the reading of the analog image data 70A, the reset of the photoelectric conversion element 42, and the analog signal processing are performed by the reading circuit 110A.
  • the period during which the exposure is performed by the photoelectric conversion element 42 is a period during which the analog image data 70A is not read out and the photoelectric conversion element 42 is not reset.
  • Digital signal processing is performed by the digital processing circuit 110B.
  • the digital image data 70B obtained by performing the digital signal processing is stored in the memory 112 by the control circuit 110C.
  • the digital image data 70B is acquired and the output image data 70B1 is output. That is, in the output process, the control circuit 110C first acquires the digital image data 70B from the memory 112. Then, the control circuit 110C generates the output image data 70B1 by reducing the digital image data 70B, and outputs the generated output image data 70B1 to the signal processing circuit 34 via the output I / F 110D2.
  • the signal processing circuit 34 includes a generation circuit 34C.
  • the reception I / F34A and the output I / F34B are connected to the generation circuit 34C.
  • the output image data 70B1 output from the output I / F110D2 of the image sensor 38 is received by the reception I / F34A.
  • the output image data 70B1 received by the reception I / F34A is acquired by the generation circuit 34C.
  • the generation circuit 34C generates the live view image data 70B2 by reducing the output image data 70B1 acquired from the reception I / F 34A.
  • the live view image data 70B2 is image data having a lower resolution than the output image data 70B1.
  • the live view image data 70B2 is an example of "display image data" according to the technique of the present disclosure.
  • the generation circuit 34C outputs the generated live view image data 70B2 to the controller 15 via the output I / F 34B.
  • the controller 15 receives the live view image data output from the output I / F 34B, and displays the live view image indicated by the received live view image data 70B2 on the display 26.
  • a specific subject image 200 showing a bird which is an example of a “specific subject” and a “moving body” according to the technique of the present disclosure
  • a background image showing a background of the bird An image containing is shown.
  • the background image includes an image showing a forest (two trees in the example shown in FIG. 9).
  • the specific subject image 200 is an example of a "moving body image" according to the technique of the present disclosure.
  • the touch panel 28 receives the instruction area information.
  • the instruction area information refers to information that indicates the area 200A which is a part of the closed area in the live view image.
  • the area 200A is an area designated by the user as a detection target area in which the first detection circuit 34D and the second detection circuit 34E (see FIG. 11), which will be described later, detect the specific subject image 200.
  • the instruction area information is received by the touch panel 28, for example, by performing a touch operation on the touch panel 28 with the user's finger 11.
  • a circular region having a predetermined radius (for example, several millimeters) centered on a position corresponding to the position where the finger 11 touches the touch panel 28 in the live view image is defined as the region 200A.
  • the area 200A having a predetermined size and shape is defined by a touch operation on the touch panel 28, but the method for defining the area 200A is not limited to this.
  • the instruction area information may be received by the touch panel 28 by swiping the touch panel 28 so as to draw the outline of the closed area.
  • the closed area drawn by swiping the touch panel 28 in the live view image is defined as the area 200A.
  • the area 200A indicated by the instruction area information received by the touch panel 28 is shown, but the technique of the present disclosure is established even if the area 200A is not instructed by the instruction area information.
  • the default area in the live view image may be used as the detection target area by the first detection circuit 34D and the second detection circuit 34E (see FIG. 11).
  • the default area refers to, for example, the entire area of the live view image or a preset partial area in the live view image.
  • the instruction area information is received by the touch panel 28 when the touch panel 28 is operated by the user's finger 11.
  • a circular region is exemplified as the region 200A, but this is only an example, and the shape of the region 200A may be another shape such as a polygon, or a touch panel. It may be the shape of the region in which the finger 11 in the 28 is in contact. Further, although the finger 11 is illustrated here, any indicator such as a stylus pen that can be detected by the touch panel 28 may be used.
  • the outline of the area 200A (circular frame in the example shown in FIG. 10) is displayed at the touched position when the touch panel 28 is touched by the user's finger 11, for example.
  • the size of the region 200A may be fixed or adjustable.
  • the size of the area 200A is adjustable, for example, the size of the area 200A is adjusted by a pinch-in operation and a pinch-out operation on the touch panel 28.
  • a mode in which the specific subject image 200 is included in the region 200A (a mode in which the circular frame of the region 200A surrounds the specific subject image 200) is shown, but the technique of the present disclosure is this. Not limited to.
  • a part of the live view image that does not yet include the specific subject image 200 (for example, an area predicted by the user as the destination of the specific subject image 200) is set as the area 200A by the user on the touch panel 28. It may be instructed via such as.
  • the specific subject image 200 included in the area 200A is an example of the "moving body image showing the designated moving body" according to the technique of the present disclosure.
  • the first detection circuit 34D, the second detection circuit 34E, and the storage circuit 34F Frame memory 34G, reception I / F34H, and storage control circuit 34J.
  • the frame memory 34G is an example of a "storage unit" according to the technique of the present disclosure.
  • the reception I / F34H has the same configuration as the reception I / F34A and is connected to the controller 15.
  • the controller 15 acquires the instruction area information received by the touch panel 28, and outputs the acquired instruction area information to the reception I / F 34H of the signal processing circuit 34.
  • the reception I / F34H receives the instruction area information output from the controller 15.
  • the instruction area information received by the reception I / F 34H is acquired by the first detection circuit 34D and the second detection circuit 34E.
  • Reference information for detection is stored in the storage circuit 34F.
  • the first detection circuit 34D and the second detection circuit 34E detect the specific subject image 200 from the image indicated by the image data with reference to the detection reference information.
  • the reference information for detection for example, a plurality of sample images (for example, a sample image showing a bird) required to detect the specific subject image 200 from the image data, and / or each of the plurality of sample images are analyzed.
  • Information indicating the feature amount obtained by the above hereinafter, referred to as "feature amount information”
  • Examples of the feature amount information include information indicating frequency characteristics obtained by performing a Fourier transform on each of a plurality of sample images.
  • the feature amount information can also be obtained by machine learning using a convolutional neural network.
  • the detection reference information may be stored in advance in the storage circuit 34F, or may be stored in the storage circuit 34F by the storage control circuit 34J under the control of the controller 15.
  • the controller 15 uses the image (for example, in the live view image) specified by the user via the touch panel 28 while the live view image is displayed on the display 26. (Image showing the bird) is acquired as a sample image. Not limited to this, the controller 15 may acquire a sample image from an external device via an external I / F 104 (see FIG. 4). The sample image thus obtained is output to the signal processing circuit 34 by the controller 15.
  • the sample image output from the controller 15 is received by the reception I / F34H.
  • the storage control circuit 34J stores the sample image received by the reception I / F 34H in the storage circuit 34F.
  • the feature amount information is acquired by the controller 15 as in the sample image. Then, the feature amount information acquired by the controller 15 is stored in the storage circuit 34F by the storage control circuit 34J under the control of the controller 15.
  • the generation circuit 34C performs a process of reducing the live view image data 70B2, and outputs the reduced image data 70B3 obtained thereby to the first detection circuit 34D.
  • the reduced image data 70B3 is image data having a lower resolution than the live view image data 70B2.
  • the live view image data 70B2 is an example of "pre-reduction image data which is image data before reduction" according to the technique of the present disclosure.
  • the generation circuit 34C outputs the live view image data 70B2 to the frame memory 34G and the output I / F 34B.
  • the output I / F 34B outputs the live view image data 70B2 input from the generation circuit 34C to the controller 15.
  • Image data obtained by imaging is stored in the frame memory 34G.
  • the frame memory 34G is a FIFO type memory, and stores live view image data 70B2 in frame units.
  • the first detection circuit 34D performs the first detection process.
  • the first detection process detects the specific subject image 200 from the image (hereinafter, also referred to as “reduced image”) indicated by the reduced image data 70B3 obtained by reducing the output image data 70B1 by the generation circuit 34C. Refers to the processing to be performed.
  • the detection reference information of the storage circuit 34F is used. That is, the first detection circuit 34D detects the specific subject image 200 from the reduced image with reference to the detection reference information.
  • the first detection circuit 34D outputs the first detection result information indicating the detection result of the first detection process to the second detection circuit 34E and the output I / F 34B.
  • the first detection result information includes the first detection process success / failure information indicating whether or not the first detection process was successful. Further, when the first detection process is successful, the tracking frame information is included in the first detection result information.
  • the tracking frame information refers to information indicating the tracking frame 200B.
  • the tracking frame information included in the first detection result information also includes position identification information (for example, coordinates) for specifying the position of the tracking frame 200B in the reduced image.
  • the tracking frame 200B is a frame for tracking the specific subject image 200, and in the example shown in FIG.
  • a rectangular frame that surrounds the specific subject image 200 and surrounds the area 200A is shown as the tracking frame 200B.
  • a rectangular frame is shown here as the tracking frame 200B, a frame having another shape may be used.
  • the tracking frame 200B a frame surrounding the specific subject image 200 and the area 200A is exemplified, but the technique of the present disclosure is not limited to this, and the tracking frame 200B is the specific subject image 200 and the area 200A. It may be a frame that surrounds only the specific subject image 200.
  • the second detection circuit 34E performs the second detection process on the live view image data 70B2 stored in the frame memory 34G.
  • the second detection circuit 34E is a live view for one frame from the frame memory 34G when the specific subject image 200 is not detected by executing the first detection process by the first detection circuit 34D.
  • the image data 70B2 is acquired, and the specific subject image 200 is detected from the live view image indicated by the acquired live view image data 70B2.
  • the determination of whether or not the specific subject image 200 is not detected by executing the first detection process by the first detection circuit 34D is input from the first detection circuit 34D. 1
  • the success / failure information of the first detection process included in the detection result information is referred to.
  • the second detection The circuit 34E performs the second detection process on the live view image data 70B2 stored in the frame memory 34G.
  • the second detection circuit 34E outputs the second detection result information indicating the detection result of the second detection process to the output I / F 34B.
  • the second detection result information includes the second detection process success / failure information indicating whether or not the second detection process was successful. Further, when the second detection process is successful, the tracking frame information is included in the second detection result information.
  • the tracking frame information included in the second detection result information also includes position identification information (for example, coordinates) for specifying the position of the tracking frame 200B in the live view image.
  • detection result information when it is not necessary to distinguish between the first detection result information and the second detection result information, it is referred to as "detection result information”. Further, in the following, for convenience of explanation, when it is not necessary to distinguish between the first detection process and the second detection process, the term “detection process” is used.
  • the output I / F 34B When the first detection result information is input from the first detection circuit 34D, the output I / F 34B outputs the first detection result information to the controller 15, and the second detection result information is input from the second detection circuit 34E. In this case, the second detection result information is output to the controller 15.
  • the controller 15 displays the detection result indicated by the detection result information input from the output I / F 34B, that is, the detection result in the detection process on the display 26.
  • the tracking frame 200B is superimposed on the live view image as the detection result in the detection process so as to surround the specific subject image 200.
  • FIG. 12 shows a conceptual diagram showing an example of the relationship between the digital image data 70B, the output image data 70B1, the live view image data 70B2, and the reduced image data 70B3.
  • the digital image data 70B is reduced to three image data: an output image data 70B1, a live view image data 70B2, and a reduced image data 70B3.
  • n is an integer of 1 or more
  • the output image data 70B1 is image data formed by the pixel group of the "2n-1" line of the digital image data 70B.
  • the live view image data 70B2 is image data formed by a pixel group obtained by excluding the pixel group of the "6n + 1" row from the pixel group of the "2n-1" row.
  • the reduced image data 70B3 is image data formed by a pixel group obtained by excluding the pixel group of the "6n + 1" line and the pixel group of the "6n-3" line from the pixel group of the "2n-1" line. is there.
  • the output image data 70B1 is image data having a lower resolution than the digital image data 70B
  • the live view image data 70B2 is image data having a lower resolution than the output image data 70B1 and is reduced image data.
  • the 70B3 is image data having a lower resolution than the live view image data 70B2.
  • FIG. 12 gives an example in which the image data is reduced by thinning out the image data in units of horizontal lines, but the technique of the present disclosure is not limited to this.
  • the image data may be reduced by thinning the image data in vertical line units, or the image data may be reduced by thinning the image data in horizontal line units and vertical line units.
  • any method may be used to reduce the image data.
  • FIG. 13A shows a screen view showing an example of the display contents of the display 26 when the first detection process is successful.
  • FIG. 13B shows a screen view showing an example of the display contents of the display 26 when the first detection process fails and the second detection process succeeds.
  • FIG. 13C shows a screen view showing an example of the display contents of the display 26 when both the first detection process and the second detection process fail.
  • the display 26 displays the tracking frame information included in the first detection result information so as to surround the specific subject image 200 under the control of the controller 15.
  • the tracking frame 200B indicated by the above is displayed superimposed on the live view image as the detection result in the first detection process.
  • the hue of the specific subject image 200 and the hue of the background image are assimilated. Therefore, the boundary between the specific subject image 200 and the background image is not detected by the first detection circuit 34D, and the first detection process using the reduced image data 70B3 fails.
  • the second detection process using the live view image data 70B2 having a higher resolution than the reduced image data 70B3 has been successful. This is because the live view image data 70B2 has a higher resolution than the reduced image data 70B3, and the boundary between the specific subject image 200 and the background image is detected by the second detection circuit 34E.
  • the tracking frame 200B indicated by the tracking frame information included in the second detection result information so as to surround the specific subject image 200 is the detection result in the second detection process. It is displayed superimposed on the live view image.
  • the display 26 displays a message 202 indicating that the second detection process has failed in the second detection process. As a result of detection in, it is displayed superimposed on the live view image.
  • the message "The subject of interest has not been detected" is shown as the message 202, but the technique of the present disclosure is not limited to this, and the specific subject image 200 is not detected. Any information may be used as long as it is a message and / or an image that can notify the user of the fact.
  • audible notification by a voice reproduction device (not shown), visible notification by turning on or blinking a light source (not shown), and / or a vibrator (not shown).
  • the tactile notification that generates vibration with a special vibration pattern may be performed under the control of the controller 15.
  • FIG. 14 shows an example of the processing timing for the image data of the first frame (1F) to the fourth frame (4F).
  • “F” on the 1st to 4th floors shown in FIG. 14 refers to an abbreviation for “Flame”.
  • imaging support information when it is not necessary to distinguish between the tracking frame 200B and the message 202, they are referred to as "imaging support information”.
  • the first to fourth vertical synchronization signals are sequentially received by the reception I / F 110D1, and the reading of the analog image data 70A of the first to fourth frames is started.
  • the reading of the analog image data 70A is performed line by line according to the horizontal synchronization signal from the horizontal line of the first line to the horizontal line of the last line of the photoelectric conversion element 42, and when the reading is completed for each line, the reading is completed. Each pixel in the horizontal line is reset.
  • the analog image data 70A is converted into the digital image data 70B, and the digital image data 70B can be distinguished in the memory 112 in the frame order (imaging order) of the read analog image data 70A in units of one frame, and It is stored in the FIFA method.
  • the control circuit 110C acquires the digital image data 70B from the memory 112 in frame units, and generates the output image data 70B1 by reducing the acquired digital image data 70B. Then, the control circuit 110C outputs the output image data 70B1 to the signal processing circuit 34 via the output I / F 110D2.
  • the generation circuit 34C In the signal processing circuit 34, the generation circuit 34C generates the live view image data 70B2 by reducing the output image data 70B1. When the live view image data 70B2 is generated by the generation circuit 34C in each frame, the live view image indicated by the generated live view image data 70B2 is displayed on the display 26.
  • the generation circuit 34C generates the reduced image data 70B3 by reducing the live view image data 70B2.
  • the generated reduced image data 70B3 is used in the first detection process.
  • the first detection process using the reduced image data 70B3 of the first frame and the fourth frame is successful, and the tracking frame 200B is superimposed and displayed on the live view image as described above (FIG. 14). See 13A).
  • the first detection process using the reduced image data 70B3 in the second and third frames has failed.
  • the live view image data 70B2 is used in the second detection process. Since the live view image data 70B2 is image data having a higher resolution than the reduced image data 70B3, the second detection circuit 34E executes the second detection process with higher accuracy than the first detection process.
  • the second detection process using the live view image data 70B2 in the second frame was successful, and the tracking frame 200B is displayed superimposed on the live view image as described above (see FIG. 13B). ..
  • the second detection process using the live view image data 70B2 in the third frame fails, and the message 202 is superimposed and displayed on the live view image as described above (see FIG. 13C).
  • FIGS. 15A and 15B show an example of the flow of the post-stage circuit processing executed by the post-stage circuit 13.
  • step ST10 the generation circuit 34C determines whether or not the output image data 70B1 has been received by the reception I / F34A. If the output image data 70B1 is not received by the reception I / F34A in step ST10, the determination is denied and the subsequent circuit processing proceeds to step ST40 shown in FIG. 15B. When the output image data 70B1 is received by the reception I / F34A in step ST10, the determination is affirmed and the subsequent circuit processing shifts to step ST11.
  • step ST11 the generation circuit 34C generates live view image data 70B2 by reducing the output image data 70B1 received by the reception I / F34A, and then the subsequent circuit processing shifts to step ST12.
  • step ST12 the generation circuit 34C stores the live view image data 70B2 in the frame memory 34G, outputs the live view image data 70B2 to the controller 15 via the output I / F 34B, and then performs the subsequent circuit processing. Goes to step ST14.
  • step ST14 the controller 15 displays the live view image indicated by the live view image data 70B2 on the display 26, and then the subsequent circuit processing shifts to step ST16.
  • step ST16 the generation circuit 34C generates the reduced image data 70B3 by reducing the live view image data 70B2, and then the subsequent circuit processing shifts to step ST18.
  • step ST18 the first detection circuit 34D executes the first detection process using the reduced image data 70B3 and the reference information for detection, and then the subsequent circuit process shifts to step ST20.
  • step ST20 the first detection circuit 34D determines whether or not the first detection process has failed. If the first detection process is successful in step ST20, the determination is denied and the subsequent circuit process proceeds to step ST22. If the first detection process fails in step ST20, the determination is affirmed, and the subsequent circuit process proceeds to step ST26.
  • step ST22 the first detection circuit 34D outputs the first detection result information including the first detection process success / failure information indicating that the first detection process was successful to the controller 15 via the output I / F 34B, and then outputs the first detection result information to the controller 15. ,
  • the subsequent circuit processing shifts to step ST24.
  • step ST24 the controller 15 displays a live view image containing the tracking frame 200B indicated by the tracking frame information included in the first detection result information on the display 26. That is, as shown in FIG. 13A, the controller 15 superimposes and displays the tracking frame 200B on the live view image, and then the subsequent circuit processing shifts to step ST40 shown in FIG. 15B.
  • step ST26 the first detection circuit 34D outputs the first detection result information including the first detection processing success / failure information indicating that the first detection processing has failed to the second detection circuit 34E, and then the subsequent circuit processing is performed. , Step ST28 shown in FIG. 15B.
  • step ST28 shown in FIG. 15B the second detection circuit 34E executes the second detection process using the live view image data 70B2 and the reference information for detection, and then the subsequent circuit process shifts to step ST30.
  • step ST30 the second detection circuit 34E determines whether or not the second detection process is successful. If the second detection process fails in step ST30, the determination is denied and the subsequent circuit process shifts to step ST32. If the second detection process is successful in step ST30, the determination is affirmed, and the subsequent circuit process proceeds to step ST36.
  • step ST32 the second detection circuit 34E outputs the second detection result information including the second detection process success / failure information indicating that the second detection process has failed to the controller 15 via the output I / F 34B, and then outputs the second detection result information to the controller 15. , The subsequent circuit processing shifts to step ST34.
  • step ST34 the controller 15 displays the live view image containing the message 202 on the display 26. That is, as shown in FIG. 13C as an example, the controller 15 superimposes and displays the message 202 on the live view image, and then the subsequent circuit processing shifts to step ST40.
  • step ST36 the second detection circuit 34E outputs the second detection result information including the second detection process success / failure information indicating that the second detection process was successful to the controller 15 via the output I / F 34B, and then outputs the second detection result information to the controller 15. ,
  • the subsequent circuit processing shifts to step ST38.
  • step ST38 the controller 15 displays a live view image containing the tracking frame 200B indicated by the tracking frame information included in the second detection result information on the display 26. That is, as shown in FIG. 13B as an example, the controller 15 superimposes and displays the tracking frame 200B on the live view image, and then the subsequent circuit processing shifts to step ST40.
  • step ST40 the controller 15 determines whether or not the condition for terminating the post-stage circuit processing (hereinafter, referred to as "post-stage circuit processing end condition") is satisfied.
  • the post-stage circuit processing end condition there is a condition that the instruction to end the post-stage circuit processing is received by the reception device 84 (see FIG. 4). If the condition for ending the subsequent circuit processing is not satisfied in step ST40, the determination is denied and the subsequent circuit processing shifts to step ST10. If the condition for ending the subsequent circuit processing is satisfied in step ST40, the determination is affirmed and the subsequent circuit processing ends.
  • the digital image data 70B is reduced by the generation circuit 34C, and the first detection process using the reduced image data 70B3 is the first detection. This is done by circuit 34D. Then, when the specific subject image 200 is not detected by the first detection process, the second detection circuit 34E executes the second detection process using the live view image data 70B2 stored in the frame memory 34G.
  • the live view image data 70B2 used in the second detection process is image data having a higher resolution than the reduced image data 70B3 used in the first detection process. Therefore, the second detection process is more accurate than the first detection process. Further, the processing load applied to the first detection circuit 34D in which the reduced image data 70C3 is used is lighter than that in the second detection circuit 34E in which the live view image data 70B2 is used, and the second detection processing in the second detection circuit 34E is performed. If the first detection process does not fail, it will not be performed. Therefore, according to this configuration, it is possible to reduce the processing load and realize highly accurate detection as compared with the case where the detection process is always performed using only the reduced image data 70B3.
  • the designated specific subject image 200 is an image showing a bird (moving body). Therefore, according to this configuration, even if the specific subject image 200 is an image showing a bird (moving body), the bird (moving body) can be specified from the detection result in the detection process.
  • the second detection process using the live view image data 70B2 is executed by the second detection circuit 34E. Therefore, according to this configuration, the processing load can be reduced as compared with the case where the image data used only for the second detection process is generated together with the live view image data 70B2, which is different from the live view image data 70B2. it can.
  • the live view image containing the tracking frame 200B indicated by the tracking frame information included in the first detection result information is displayed on the display 26.
  • a live view image containing the tracking frame 200B indicated by the tracking frame information included in the second detection result information is displayed on the display 26.
  • the live view image containing the message 202 is displayed on the display 26. Therefore, according to this configuration, the user can perceive the detection result in the detection process.
  • the specific subject image 200 when the specific subject image 200 is not detected by the first detection circuit 34D (when the first detection process fails), the specific subject image 200 is detected by the second detection circuit 34E.
  • the second detection circuit 34E may detect an image showing a subject different from the specific subject image 200.
  • the image showing a subject different from the specific subject image 200 include an image showing a subject smaller than the specific subject image 200 (for example, an image showing a specific part included in the specific subject image 200), an image showing a person's face, and the like. And / or an image showing the pupil of a person.
  • the laminated image sensor is exemplified as the image sensor 38, but the technique of the present disclosure is not limited to this, and a non-stacked image sensor may be used instead of the laminated image sensor.
  • the technology of the present disclosure is established.
  • the first detection process according to the second embodiment includes a face image 300A showing a person's face as an image corresponding to the specific subject image 200 described in the first embodiment.
  • This is a process for detecting a pupil image 300B showing the pupil of a person. Since the technique for detecting the face image 300A and the pupil image 300B is a known technique, detailed description thereof will be omitted here.
  • the first detection circuit 34D detects the face image 300A from the reduced image indicated by the reduced image data 70B3, and detects the pupil image 300B from the detected face image 300A.
  • the left pupil and the right pupil of the person are shown as subjects smaller than the face of the person.
  • the pupil image 300B a left pupil image 300B1 showing the left pupil of the person and a right pupil image 300B2 showing the right pupil of the person are shown.
  • the face of a person is an example of a "specific subject” according to the technique of the present disclosure
  • the face image 300A is an example of a "specific subject image” according to the technique of the present disclosure
  • the left pupil image 300B1 and the right pupil image 300B2 are examples of "small subject images” according to the technique of the present disclosure.
  • the first detection circuit 34D outputs the first detection result information to the controller 15 and the second detection circuit 34E as in the first embodiment.
  • the first detection result information includes the first face detection result information showing the detection result of the face image 300A by the first detection circuit 34D and the first pupil detection result information showing the detection result of the pupil image 300B by the first detection circuit 34D. It is roughly divided into. In the following, when it is not necessary to distinguish between the first face detection result information and the first pupil detection result information, it is referred to as "first detection result information".
  • the first detection result information includes the first detection process success / failure information and the tracking frame information.
  • the first detection processing success / failure information included in the first detection result information according to the second embodiment includes information indicating the success / failure of the detection of the face image 300A in the first detection circuit 34D, and the pupil in the first detection circuit 34D. This is information indicating the success or failure of the detection of the image 300B.
  • the tracking frame information included in the first detection result information according to the second embodiment is information indicating a frame for tracking the face image 300A and the pupil image 300B.
  • a rectangular frame 300A1 that defines a region of the face image 300A is shown as a frame for tracking the face image 300A.
  • a rectangular frame 300B1a defining the region of the left pupil image 300B1 and a rectangular frame 300B2a defining the region of the right pupil image 300B2 are shown.
  • the tracking frame information included in the first detection result information according to the second embodiment includes position identification information (for example, coordinates) for specifying the positions of the rectangular frames 300A1, 300B1a and 300B2a in the reduced image. include.
  • the second detection circuit 34E includes a face image detection circuit 34E2 and a pupil image detection circuit 34E3.
  • the first detection result information including the first detection process success / failure information indicating that the first detection process has failed is output from the first detection circuit 34D to the second detection circuit 34E and accepted by the second detection circuit 34E.
  • the face image detection circuit 34E2 acquires the live view image data 70B2 from the frame memory 34G.
  • the face image detection circuit 34E2 detects the face image 300A from the live view image indicated by the live view image data 70B2 acquired from the frame memory 34G.
  • the pupil image detection circuit 34E3 detects the pupil image 300B from the face image 300A detected by the face image detection circuit 34E2.
  • the second detection circuit 34E outputs the second detection result information to the controller 15 as in the first embodiment.
  • the second detection result information includes the second face detection result information showing the detection result of the face image 300A by the face image detection circuit 34E2 and the second pupil detection result information showing the detection result of the pupil image 300B by the pupil image detection circuit 34E3. It is roughly divided into. In the following, when it is not necessary to distinguish between the second face detection result information and the second pupil detection result information, it is referred to as "second detection result information".
  • the second detection result information includes the second detection process success / failure information and the tracking frame information.
  • the second detection process success / failure information included in the second detection result information according to the second embodiment includes information indicating the success / failure of the detection of the face image 300A by the face image detection circuit 34E2 and the pupil by the pupil image detection circuit 34E3. This is information indicating the success or failure of the detection of the image 300B.
  • the tracking frame information included in the second detection result information according to the second embodiment includes the face image 300A and the pupil image 300B in the same manner as the tracking frame information included in the first detection result information according to the second embodiment. This is information indicating the frame to be tracked. Further, the tracking frame information included in the first detection result information according to the second embodiment includes position identification information (for example, coordinates) for specifying the positions of the rectangular frames 300A1, 300B1a and 300B2a in the live view image. Is also included.
  • FIG. 18A shows an example of the display mode of the display 26 when the face image 300A is detected from the reduced image shown by the reduced image data 70B3 by the first detection circuit 34D and the pupil image 300B is detected from the reduced image. It is shown.
  • the live view image is displayed on the display 26, and the rectangular frame 300A1 is superposed on the live view image so as to surround the face image 300A.
  • the rectangular frame 300B1a is superposed on the live view image so as to surround the left pupil image 300B1, and the rectangular frame 300B2a is live so as to surround the right pupil image 300B2. It is displayed superimposed on the view image.
  • FIG. 18B shows an example of the display mode of the display 26 when both the first detection process by the first detection circuit 34D and the second detection process by the second detection circuit 34E fail.
  • the second detection process refers to a process in which the face image detection circuit 34E2 detects the face image 300A and a process in which the pupil image detection circuit 34E3 detects the pupil image 300B.
  • the live view image is displayed on the display 26, and a message M1 indicating that both the detection of the face image 300A and the detection of the pupil image 300B have failed is displayed.
  • the message "Face / pupil detection failure" is shown as the message M1, but this is only an example, and both the detection of the face image 300A and the detection of the pupil image 300B fail. Any information may be used as long as it is a message and / or an image that can notify the user of what has been done.
  • audible notification by a voice reproduction device (not shown), visible notification by turning on or blinking a light source (not shown), and / or a vibrator (not shown).
  • the tactile notification that generates vibration with a special vibration pattern may be performed under the control of the controller 15.
  • FIG. 18C shows an example of the display mode of the display 26 when the face image 300A is successfully detected by the first detection circuit 34D or the second detection circuit 34E, but the pupil image 300B is not detected.
  • the live view image is displayed on the display 26, and the rectangular frame 300A1 is superposed on the live view image so as to surround the face image 300A. Further, the display 26 displays a message M2 indicating that the detection of the pupil image 300B has failed.
  • the message "pupil detection failure" is shown as the message M2, but this is only an example, and it is possible to notify the user that the detection of the pupil image 300B has failed. Any information may be used as long as it is a message and / or an image.
  • audible notification by a voice reproduction device (not shown), visible notification by turning on or blinking a light source (not shown), and / or a vibrator (not shown).
  • the tactile notification that generates vibration with a special vibration pattern may be performed under the control of the controller 15.
  • FIG. 19 shows an example of the processing timing for the image data of the first frame (1F) to the fifth frame (5F).
  • “F” on the 1st to 5th floors shown in FIG. 19 refers to an abbreviation for “Flame”.
  • the description of the process overlapping with the example shown in FIG. 14 will be omitted.
  • the process in which the first detection circuit 34D detects the face image 300A from the reduced image is also referred to as "first face detection process”
  • the first detection circuit 34D detects the pupil image 300B from the reduced image.
  • the process of performing is also referred to as "first pupil detection process”.
  • the process in which the face image detection circuit 34E2 detects the face image 300A from the live view image is also referred to as “second face detection process”
  • the pupil image detection circuit 34E3 refers to the pupil image 300B from the live view image.
  • the process of detecting the above is also referred to as “second pupil detection process”.
  • the first face detection process using the reduced image data 70B3 of the first frame was successful.
  • the first pupil detection process using a part of the reduced image data 70B3 indicating the region corresponding to the face image 300A detected by the first face detection process is used. Is executed.
  • the first pupil detection process using the reduced image data 70B3 of the first frame is successful.
  • the rectangular frames 300A1, 300B1a and 300B2a are displayed superimposed on the live view image.
  • the first face detection process using the reduced image data 70B3 in the second frame has failed.
  • the live view image data 70B2 is used for the second face detection process by the face image detection circuit 34E2. Since the live view image data 70B2 is image data having a higher resolution than the reduced image data 70B3, the face image detection circuit 34E2 executes the second face detection process with higher accuracy than the first face detection process.
  • the second face detection process using the live view image data 70B2 of the second frame was successful.
  • the pupil image detection circuit 34E3 uses a part of the live view image data 70B2 indicating the region corresponding to the face image 300A detected by the second face detection process in the live view image data 70B2 of the second frame.
  • the second pupil detection process that has been performed is executed. Since the live view image data 70B2 is image data having a higher resolution than the reduced image data 70B3, the pupil image detection circuit 34E3 executes the second pupil detection process with higher accuracy than the first pupil detection process.
  • the second pupil detection process using the live view image data 70B2 of the second frame is successful.
  • the rectangular frames 300A1, 300B1a and 300B2a are superimposed and displayed on the live view image as shown in FIG. 18A as an example.
  • the first face detection process using the reduced image data 70B3 in the third frame has failed.
  • the live view image data 70B2 is used for the second face detection process by the face image detection circuit 34E2.
  • the second face detection process using the live view image data 70B2 of the third frame also fails.
  • the message M1 is displayed on the display 26 together with the live view image as shown in FIG. 18B as an example.
  • the first face detection process using the reduced image data 70B3 in the fourth frame has failed.
  • the live view image data 70B2 is used for the second face detection process by the face image detection circuit 34E2.
  • the second face detection process using the live view image data 70B2 in the fourth frame is successful.
  • the pupil image detection circuit 34E3 uses a part of the live view image data 70B2 indicating the region corresponding to the face image 300A detected by the second face detection process among the live view image data 70B2 in the fourth frame.
  • the second pupil detection process that has been performed is executed.
  • the second pupil detection process using the live view image data 70B2 in the fourth frame has failed.
  • the message M2 is displayed on the display 26 together with the live view image.
  • the first face detection process using the reduced image data 70B3 in the fifth frame was successful, but the first pupil detection process using the reduced image data 70B3 in the fifth frame failed.
  • the live view image data 70B2 is used for the second face detection process by the face image detection circuit 34E2.
  • the second face detection process using the live view image data 70B2 in the fifth frame is successful.
  • a part of the live view image data 70B2 indicating the region corresponding to the face image 300A detected by the second face detection process is used for the second pupil detection process. ..
  • the second pupil detection process using the live view image data 70B2 at the fifth frame has failed.
  • the message M2 is displayed on the display 26 together with the live view image.
  • FIGS. 20A to 20D show an example of the flow of the post-stage circuit processing executed by the post-stage circuit 13.
  • step ST100 the generation circuit 34C determines whether or not the output image data 70B1 has been received by the reception I / F34A. If the output image data 70B1 is not received by the reception I / F34A in step ST100, the determination is denied, and the subsequent circuit processing proceeds to step ST164 shown in FIG. 20D. When the output image data 70B1 is received by the reception I / F34A in step ST100, the determination is affirmed, and the subsequent circuit processing shifts to step ST101.
  • step ST101 the generation circuit 34C generates the live view image data 70B2 by reducing the output image data 70B1 received by the reception I / F 34A, and then the subsequent circuit processing is performed in step ST102. Move to.
  • step ST102 the generation circuit 34C stores the live view image data 70B2 in the frame memory 34G, outputs the live view image data 70B2 to the controller 15 via the output I / F 34B, and then performs the subsequent circuit processing. Goes to step ST104.
  • step ST104 the controller 15 displays the live view image indicated by the live view image data 70B2 on the display 26, and then the subsequent circuit processing shifts to step ST106.
  • step ST106 the generation circuit 34C generates the reduced image data 70B3 by reducing the live view image data 70B2, and then the subsequent circuit processing shifts to step ST108.
  • step ST108 the first detection circuit 34D executes the first face detection process using the reduced image data 70B3, and then the subsequent circuit process shifts to step S110.
  • step ST110 the first detection circuit 34D determines whether or not the first face detection process has succeeded. If the first face detection process is successful in step ST110, the determination is affirmed, and the subsequent circuit process proceeds to step ST112. If the first face detection process fails in step ST110, the determination is denied and the subsequent circuit process proceeds to step ST116.
  • step ST112 the first detection circuit 34D outputs the first face detection result information including the first detection process success / failure information indicating that the first face detection process was successful to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST151 shown in FIG. 20D.
  • step ST116 the first detection circuit 34D outputs the first face detection result information including the first detection process success / failure information indicating that the first face detection process has failed to the second detection circuit 34E and the controller 15. After that, the subsequent circuit processing shifts to step ST118 shown in FIG. 20B.
  • step ST118 shown in FIG. 20B the face image detection circuit 34E2 executes the second face detection process using the live view image data 70B2 generated in step ST101, and then the subsequent circuit process shifts to step ST120.
  • step ST120 the face image detection circuit 34E2 determines whether or not the second face detection process is successful. If the second face detection process is successful in step ST120, the determination is affirmed, and the subsequent circuit process proceeds to step ST126. If the second face detection process fails in step ST120, the determination is denied and the subsequent circuit process proceeds to step ST122.
  • step ST122 the face image detection circuit 34E2 outputs the second face detection result information including the second detection process success / failure information indicating that the second face detection process has failed to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST124.
  • step ST124 the controller 15 displays the message M1 on the display 26 as a message indicating that the detection of the face image 300A and the detection of the pupil image 300B have failed, as shown in FIG. 18B as an example, and then the subsequent circuit.
  • the process proceeds to step ST164 shown in FIG. 20D.
  • step ST126 the face image detection circuit 34E2 outputs the second face detection result information including the second detection process success / failure information indicating that the second face detection process was successful to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing proceeds to step ST128.
  • step ST1208 the controller 15 displays the live view image with the face tracking frame on the display 26.
  • the face tracking frame refers to, for example, the rectangular frame 300A1 indicated by the tracking frame information included in the first detection result information. That is, in step ST128, the controller 15 superimposes and displays the rectangular frame 300A1 on the live view image so as to surround the face image 300A, and then the subsequent circuit processing shifts to step ST130 shown in FIG. 20C.
  • step ST130 shown in FIG. 20C the pupil image detection circuit 34E3 shows a part of the live view image data 70B2 generated in step ST101 that corresponds to the face image 300A detected by the second face detection process.
  • the second pupil detection process is executed using the live view image data 70B2, and then the subsequent circuit process shifts to step ST132.
  • step ST132 the pupil image detection circuit 34E3 determines whether or not the second pupil detection process has succeeded. If the second pupil detection process is successful in step ST132, the determination is affirmed, and the subsequent circuit process shifts to step ST134. If the second pupil detection process fails in step ST132, the determination is denied and the subsequent circuit process proceeds to step ST138.
  • step ST134 the pupil image detection circuit 34E3 outputs the second face detection result information including the second detection process success / failure information indicating that the second pupil detection process was successful to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST136.
  • step ST136 the controller 15 displays the live view image with the pupil tracking frame on the display 26.
  • the pupil tracking frame refers to, for example, the rectangular frames 300B1a and 300B2a indicated by the tracking frame information included in the second detection result information. That is, in step ST136, the controller 15 superimposes the rectangular frame 300B1a on the live view image so as to surround the left pupil image 300B1, and surrounds the right pupil image 300B2 on the live view image. The rectangular frame 300B2a is superimposed and displayed, and then the subsequent circuit processing proceeds to step ST164 shown in FIG. 20D.
  • step ST138 the pupil image detection circuit 34E3 outputs the second face detection result information including the second detection process success / failure information indicating that the second pupil detection process has failed to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST140.
  • step ST140 the controller 15 displays the message M2 on the display 26 as an example of a message indicating that the detection of the pupil image 300B has failed, as shown in FIG. 18C, and then the subsequent circuit processing is shown in FIG. 20D. The process proceeds to step ST164 shown.
  • step ST151 shown in FIG. 20D the controller 15 displays the live view image with the face tracking frame on the display 26. That is, in step ST128, the controller 15 superimposes and displays the rectangular frame 300A1 on the live view image so as to surround the face image 300A, and then the subsequent circuit processing shifts to step ST152.
  • step ST152 the first detection circuit 34D displays a part of the reduced image data 70B3 that indicates the region corresponding to the face image 300A detected by the first face detection process among the reduced image data 70B3 generated in step ST101.
  • the first pupil detection process is executed using the image, and then the subsequent circuit process proceeds to step ST154.
  • step ST154 the first detection circuit 34D determines whether or not the first pupil detection process has succeeded. If the first pupil detection process is successful in step ST154, the determination is affirmed, and the subsequent circuit process shifts to step ST160. If the first pupil detection process fails in step ST154, the determination is denied and the subsequent circuit process proceeds to step ST166.
  • step ST160 the first detection circuit 34D outputs the first face detection result information including the first detection process success / failure information indicating that the first pupil detection process was successful to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST162.
  • step ST162 the controller 15 displays the live view image with the pupil tracking frame on the display 26. That is, in step ST162, the controller 15 superimposes the rectangular frame 300B1a on the live view image so as to surround the left pupil image 300B1, and surrounds the right pupil image 300B2 on the live view image. The rectangular frame 300B2a is superimposed and displayed, and then the subsequent circuit processing proceeds to step ST164.
  • step ST166 the first detection circuit 34D outputs the first face detection result information including the first detection process success / failure information indicating that the first pupil detection process has failed to the controller 15 via the output I / F 34B. After that, the subsequent circuit processing shifts to step ST168.
  • step ST168 the controller 15 displays the message M2 on the display 26 as a message indicating that the detection of the pupil image 300B has failed, as shown in FIG. 18C as an example, and then the subsequent circuit processing proceeds to step ST164. Transition.
  • step ST164 the controller 15 determines whether or not the post-stage circuit processing end condition described in the first embodiment is satisfied. If the condition for ending the subsequent circuit processing is not satisfied in step ST164, the determination is denied and the subsequent circuit processing proceeds to step ST100. If the condition for ending the subsequent circuit processing is satisfied in step ST164, the determination is affirmed and the subsequent circuit processing ends.
  • the face image detection circuit 34E2 detects the face image 300A from the live view image represented by the live view image data 70B2. Further, the pupil image detection circuit 34E3 detects the pupil image 300B, which is an image smaller than the face image, from the live view image indicated by the live view image data 70B2.
  • the live view image data 70B2 used in the second face detection process and the second pupil detection process is image data having a higher resolution than the reduced image data 70B3 used in the first face detection process and the first pupil detection process. is there. Therefore, the second face detection process and the second pupil detection process are more accurate than the first face detection process and the first pupil detection process. Further, the processing load on the first detection circuit 34D in which the reduced image data 70C3 is used is lighter than that in the face image detection circuit 34E2 and the pupil image detection circuit 34E3 in which the live view image data 70B2 is used, and the second face detection processing and the second face detection circuit 34E3 are lighter. 2
  • the pupil detection process is not performed unless the first face detection process and / or the first pupil detection process fails. Therefore, according to this configuration, it is possible to increase the possibility that the face image 300A and the pupil image 300B are detected as compared with the case where the face image 300A and the pupil image 300B are detected only by the first detection process.
  • the face of a person is illustrated as a "specific subject” according to the technique of the present disclosure
  • the pupil of a person is exemplified as a "small subject” according to the technique of the present disclosure.
  • the techniques of the present disclosure are not limited to this.
  • parts such as the nose and / or mouth of the person may be applied instead of the eyes of the person or together with the eyes of the person.
  • the second detection circuit 34E uses the live view image data 70B2 to form a first image showing a subject other than the face of a person and a second image showing a subject smaller than the subject shown by the first image. It may be detected.
  • the first image may be, for example, an image showing a bird
  • the second image in this case may be, for example, an image showing a subject smaller than a bird such as an insect or a plant.
  • the first image includes, for example, an image showing a tree
  • the second image in this case is, for example, an image showing a subject smaller than a tree such as a bird and / or an insect.
  • an image showing a specific subject and a specific subject are compared with the case where an image showing a specific subject and an image showing a subject smaller than the specific subject are detected only by the first detection process. It is possible to increase the possibility that an image showing a smaller subject is detected.
  • the live view image with the face tracking frame is displayed on the display 26 (see FIGS. 18A and 18C).
  • a live view image with a pupil tracking frame is displayed on the display 26 (see FIG. 18A).
  • the live view image containing the message M1 is displayed on the display 26 (see FIG. 18B).
  • a live view image containing the message M2 is displayed on the display 26 (see FIG. 18C). Therefore, according to this configuration, the user can perceive the detection results in each of the first face detection process, the first pupil detection process, the second face detection process, and the second pupil detection process.
  • the face image detection circuit 34E2 has been described with reference to a form example in which the face image 300A is detected by using the live view image data 70B2 for one frame, but the technique of the present disclosure is limited to this. Not done.
  • the second detection circuit 34E may perform the second face detection process and the second pupil detection process on the partial region image data.
  • the partial area image data is a part of the live view image data 70B2 of the live view image data 70B2 for one frame.
  • the partial region image data is a partial region in the live view image indicated by the live view image data 70B2, and is the first frame in the frame before the frame in which the second face detection process and the second pupil detection process are performed.
  • the front frame of the frame on which the second face image detection processing is performed refers to, for example, a frame one or more frames before.
  • the first detection circuit 34D is a face in the reduced image shown by the reduced image data 70B3 of the frame before the frame that performs the second face detection process and the second pupil detection process.
  • Area-specific data for example, coordinates
  • the area specifying data data (for example, coordinates) capable of specifying the position of the rectangular frame 300A1 in the reduced image is adopted.
  • the area identification data is not limited to data that can specify the position of the rectangular frame 300A1 in the reduced image, and may be, for example, data that can specify the position of the face image 300A (for example, coordinates).
  • the generation circuit 34C includes a live view image data generation circuit 34C1 and an extraction circuit 34C2.
  • the live view image data generation circuit 34C1 acquires the output image data 70B1 from the image sensor 38, and generates the live view image data 70B2 by reducing the acquired output image data 70B1.
  • the live view image data generation circuit 34C1 outputs the generated live view image data 70B2 to the controller 15 and the extraction circuit 34C2.
  • the extraction circuit 34C2 extracts partial area image data from the live view image data 70B2 input from the live view image data generation circuit 34C1 by referring to the area identification data stored in the storage circuit 34F. That is, the extraction circuit 34C2 extracts a part of the live view image data 70B2 indicating the region corresponding to the position of the face image 300A detected by the first detection circuit 34D from the live view image data 70B2 as the partial region image data. ..
  • the extraction circuit 34C2 stores the partial region image data extracted from the live view image data 70B2 in the storage circuit 34F.
  • the partial area image data is an example of "specific subject image area data" according to the technique of the present disclosure.
  • the storage circuit 34F is an example of the "storage unit" according to the technique of the present disclosure.
  • the partial area image data is stored in the storage circuit 34F
  • the memory for the partial area image data (separate from the storage circuit 34F) ( (Not shown) may be provided so that the partial area image data is stored in the partial area image data memory.
  • the partial area image data may be stored in the frame memory 34G (see FIG. 11) in frame units, and the partial area image data may be acquired in frame units from the frame memory 34G by the second detection circuit 34E.
  • the face image detection circuit 34E2 acquires partial region image data from the storage circuit 34F, and executes a second face detection process on the acquired partial region image data.
  • the pupil image detection circuit 34E3 acquires partial region image data from the storage circuit 34F, and executes a second pupil detection process on the acquired partial region image data.
  • the second detection circuit 34E performs the second face detection process and the second pupil detection process on the partial region image data.
  • the partial area image data is a partial area in the live view image indicated by the live view image data 70B2, and is a face image 300A detected by the first face detection process in the frame before the frame on which the second face image detection process is performed. It is image data which shows the partial area corresponding to the position of. Therefore, according to this configuration, the second face detection process and the second pupil detection process are compared with the case where the second face detection process and the second pupil detection process are performed on the live view image data 70B2 for one frame or more. The processing load on the above can be reduced.
  • the technique of the present disclosure is not limited to this, and the partial area image data is not limited to this.
  • the second face detection process or the second pupil detection process may be performed on the subject.
  • the technique of the present disclosure is not limited to this.
  • the live view image data 70B2 the live view image data 70B2 corresponding to the area 200A instructed by the user via the touch panel 28 may be extracted by the extraction circuit 34C2 as partial area image data. In this case, it is possible to contribute to performing the second detection process on the partial area image data intended by the user.
  • the extraction circuit 34C2 sets the region corresponding to the position of the face image 300A in the live view image data 70B2.
  • the indicated partial area image data is stored in the storage circuit 34F. Therefore, according to this configuration, the amount of data stored in the storage circuit 34F can be reduced as compared with the case where the live view image data 70B2 for one frame or more is stored in the storage circuit 34F.
  • the face image detection circuit 34E2 seconds the partial area image data stored in the storage circuit 34F. Face detection processing is performed. Therefore, according to this configuration, the second face detection is performed as compared with the case where the second face detection process is performed on the live view image data 70B2 other than the partial area image data of the live view image data 70B2 for one frame. The processing can increase the probability that the face image 300A will be detected.
  • the pupil image detection circuit 34E3 seconds the partial area image data stored in the storage circuit 34F.
  • the pupil detection process is performed. Therefore, according to this configuration, the second pupil is detected as compared with the case where the second pupil detection process is performed on the live view image data 70B2 other than the partial region image data in the live view image data 70B2 for one frame. It is possible to increase the probability that the pupil image 300B is detected by the processing.
  • the second face detection process and the second pupil detection process are executed on the live view image data 70B2.
  • the live view image data An example in which the second face detection process and the second pupil detection process are executed not only on the 70B2 but also on the digital image data 70B will be described.
  • the same components as those in the second embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the control circuit 110C acquires the digital image data 70B from the memory 112 according to the vertical synchronization signal input from the controller 15.
  • the control circuit 110C is connected to the reception I / F34A of the signal processing circuit 34 via the output I / F 110D2 so as to be capable of parallel communication, and the digital image data 70B and the output image data 70B1 are synchronized according to the frame rate to signal. Output to the processing circuit 34.
  • the digital image data 70B output from the image sensor 38 and the output image data 70B1 are received by the reception I / F 34A at the timing of synchronization.
  • the generation circuit 34C stores the digital image data 70B and the live view image data 70B2 received at the timing synchronized by the reception I / F 34A in the frame memory 34G.
  • the frame memory 34G stores two types of image data having different resolutions for each frame period defined by the frame rate.
  • the second detection circuit 34E performs the second detection process stepwise from the low resolution image data to the high resolution image data with respect to the two types of image data having different resolutions. That is, the second detection circuit 34E first performs a second detection process on the live view image data 70B2, and then performs a second detection process on the digital image data 70B.
  • 26A to 26C show an example of the timing of processing the image data by the first detection circuit 34D and the second detection circuit 34E included in the image pickup apparatus 10 according to the third embodiment.
  • the description of the process overlapping with the examples shown in FIGS. 14 and 19 will be omitted.
  • the process in which the face image detection circuit 34E2 detects the face image 300A from the image represented by the digital image data 70B is also referred to as a "third face detection process”
  • the pupil image detection circuit 34E3 is a digital image.
  • the process of detecting the pupil image 300B from the image represented by the data 70B is also referred to as "third pupil detection process".
  • the second face detection process, the second pupil detection process, the third face detection process, and the third pupil detection process are examples of the "second detection process" according to the technique of the present disclosure.
  • the face image detection circuit 34E2 displays the digital image data 70B stored in the frame memory 34G.
  • the third face detection process used is executed.
  • the rectangular frame 300A1 is superimposed and displayed on the live view image.
  • the pupil image detection circuit 34E3 of the digital image data 70B stored in the frame memory 34G, the area corresponding to the face image 300A detected by the third face detection process is selected.
  • the third pupil detection process using a part of the digital image data 70B shown is executed.
  • the rectangular frames 300B1a and 300B2a are superimposed and displayed on the live view image as shown in FIG. 18A as an example.
  • the second pupil detection process using is executed.
  • the face image detection circuit 34E2 executes the third face detection process using the digital image data 70B stored in the frame memory 34G.
  • the third face detection process is successful, as shown in FIG. 18A as an example, the rectangular frame 300A1 is superimposed and displayed on the live view image.
  • the third face detection process when the third face detection process is successful, in the pupil image detection circuit 34E3, of the digital image data 70B stored in the frame memory 34G, the area corresponding to the face image 300A detected by the third face detection process is selected.
  • the third pupil detection process using a part of the digital image data 70B shown is executed.
  • the rectangular frames 300B1a and 300B2a are superimposed and displayed on the live view image as shown in FIG. 18A as an example.
  • the face image detection circuit 34E2 displays the digital image data 70B stored in the frame memory 34G.
  • the third face detection process used is executed.
  • the third face detection process is successful, as shown in FIG. 18C as an example, the rectangular frame 300A1 is superimposed and displayed on the live view image.
  • the pupil image detection circuit 34E3 of the digital image data 70B stored in the frame memory 34G the area corresponding to the face image 300A detected by the third face detection process is selected.
  • the third pupil detection process using a part of the digital image data 70B shown is executed.
  • the message M2 is displayed on the display 26 together with the live view image, as shown in FIG. 18C as an example.
  • the second pupil detection process using is executed.
  • the face image detection circuit 34E2 executes the third face detection process using the digital image data 70B stored in the frame memory 34G.
  • the third face detection process is successful, as shown in FIG. 18C as an example, the rectangular frame 300A1 is superimposed and displayed on the live view image.
  • the pupil image detection circuit 34E3 captures the area corresponding to the face image 300A detected by the third face detection process in the digital image data 70B stored in the frame memory 34G.
  • the third pupil detection process using a part of the digital image data 70B shown is executed.
  • the message M2 is displayed on the display 26 together with the live view image, as shown in FIG. 18C as an example.
  • the face image detection circuit 34E2 displays the digital image data 70B stored in the frame memory 34G.
  • the third face detection process used is executed.
  • the third face detection process fails, as shown in FIG. 18C as an example, the rectangular frame 300A1 is superimposed and displayed on the live view image.
  • the pupil image detection circuit 34E3 of the digital image data 70B stored in the frame memory 34G the area corresponding to the face image 300A detected by the third face detection process is selected.
  • the third pupil detection process using a part of the digital image data 70B shown is executed.
  • the message M1 is displayed on the display 26 together with the live view image, as shown in FIG. 18B as an example.
  • the rectangular frame 300A1 is superimposed on the live view image as shown in FIG. 18A as an example. Is displayed.
  • the face image detection circuit 34E2 executes the second face detection process using the live view image data 70B2 stored in the frame memory 34G.
  • the pupil image detection circuit 34E3 indicates an area corresponding to the face image 300A detected by the second face detection process in the live view image data 70B2 stored in the frame memory 34G. The second pupil detection process using a part of the live view image data 70B2 is executed.
  • the face image detection circuit 34E2 executes the third face detection process using the digital image data 70B stored in the frame memory 34G.
  • the pupil image detection circuit 34E3 indicates an area corresponding to the face image 300A detected by the second face detection process in the digital image data 70B stored in the frame memory 34G.
  • the third pupil detection process using the live view image data 70B2 of the unit is executed.
  • the rectangular frames 300B1a and 300B2a are superimposed and displayed on the live view image as shown in FIG. 18A as an example.
  • the digital image data 70B is reduced by the generation circuit 34C, and the first detection process using the reduced image data 70B3 is the first detection. This is done by circuit 34D. Then, when the specific subject image 200 is not detected by the first detection process, the second detection process using the live view image data 70B2 and the digital image data 70B stored in the frame memory 34G stepwise is performed. It is executed by the detection circuit 34E.
  • the live view image data 70B2 when the second face detection process and the second pupil detection process using the live view image data 70B2 are executed and the detection process of the second face detection process and / or the second pupil detection process fails, the live view image
  • the third face detection process and the second pupil detection process using the digital image data 70B having a higher resolution than the data 70B2 are executed. Therefore, according to this configuration, it is possible to realize highly accurate detection as compared with the case where the second detection process is always performed using only the live view image data 70B2.
  • the face image detection circuit 34E2 executes the third face detection process, and then the pupil image detection circuit 34E3 executes the third pupil detection process.
  • the technique of the present disclosure is not limited to this.
  • the second pupil detection process fails, the third pupil using the digital image data 70B stored in the frame memory 34G without executing the third face detection process.
  • the detection process may be executed by the pupil image detection circuit 34E3.
  • a part of the digital image data 70B indicating the area corresponding to the position of the face image 300A in the digital image data 70B is used with reference to the area identification data.
  • the third pupil detection process may be executed by the pupil image detection circuit 34E3.
  • the face image detection circuit 34E2 executes the third face detection process using the digital image data 70B
  • the pupil image detection circuit 34E3 executes the third pupil using the digital image data 70B.
  • the technique of the present disclosure is not limited to this.
  • the face image detection circuit 34E2 executes the third face detection process and the fourth face detection process
  • the pupil image detection circuit 34E3 executes the third pupil detection process and the fourth pupil detection process. You may do so.
  • the face image detection circuit 34E2 executes the third face detection process using the output image data 70B1
  • the pupil image detection circuit 34E3 executes the third face detection process.
  • the third pupil detection process using the output image data 70B1 is executed.
  • the face image detection circuit 34E2 executes the fourth face detection process.
  • the fourth face detection process refers to a process of detecting a face image 300A from the digital image data 70B.
  • the pupil image detection circuit 34E3 executes the fourth pupil detection process.
  • the fourth pupil detection process detects the pupil image 300B by using a part of the digital image data 70B indicating the region corresponding to the position of the face image 300A detected by the fourth face detection process. Refers to the processing to be performed.
  • the fourth face detection process is executed by the face image detection circuit 34E2, and then the fourth pupil detection process is executed. Is not limited to this.
  • the fourth pupil detection process using the digital image data 70B stored in the frame memory 34G is performed without executing the fourth face detection process. It may be executed by 34E3.
  • a part of the digital image data 70B indicating the area corresponding to the position of the face image 300A in the digital image data 70B is used with reference to the area identification data.
  • the fourth pupil detection process may be executed by the pupil image detection circuit 34E3.
  • the signal processing circuit 34 included in the image pickup apparatus 10 according to the fourth embodiment has an analysis circuit 34K as compared with the signal processing circuit 34 described in the first to third embodiments. It is different in that it has and that the instruction area information is input to the analysis circuit 34K.
  • Output image data 70B1 is input from the generation circuit 34C to the analysis circuit 34K. Further, the generation circuit 34C generates the first pre-reduction image data and the second pre-reduction image data from the output image data, and generates the first pre-reduction image data and the second pre-reduction image data for each predetermined period.
  • the frame memory 34G is stored. As the default period, a period corresponding to a transfer period for one frame defined by the frame rate is adopted. The default period is not limited to this, and for example, when N is an integer of 1 or more, a period corresponding to a transfer period of 2N frames or more defined by the frame rate may be adopted as the default period.
  • the first pre-reduction image data and the second pre-reduction image data are image data used in the second detection circuit 34E.
  • the first pre-reduction image data and the second pre-reduction image data are the second detection processing target image data used in the second detection processing in the second detection circuit 34E.
  • the first pre-reduction image data and the second pre-reduction image data are image data having different resolutions from each other, and both have a higher resolution than the output image data 70B1 and a lower resolution than the live view image data 70B2. Further, the resolution of the first pre-reduction image data is lower than that of the second pre-reduction image data.
  • the data will be referred to as “second detection processing target image data”.
  • the analysis circuit 34K analyzes the output image data 70B1 every predetermined period before the second detection process is performed by the second detection circuit 34E. Then, the second detection circuit 34E is the second detection processing target image data determined according to the analysis result in the analysis circuit 34K for each predetermined period among the first pre-reduction image data and the second pre-reduction image data. The second detection process is performed on the data.
  • the analysis circuit 34K analyzes the region of interest image data, which is a part of the output image data 70B1 indicating the region corresponding to the position of the region 200A designated by the instruction region information.
  • the analysis circuit 34K acquires the instruction area information from the touch panel 28 for each predetermined period.
  • the instruction area information is updated when the user's finger 11 swipes the touch panel 28. That is, the position of the area 200A is changed by the user's finger 11 swiping the touch panel 28.
  • swipe operation is illustrated here, the swipe operation is not limited to this, and other operations such as a flick operation may be used.
  • the analysis circuit 34K acquires the attention region image data from the output image data 70B1 according to the instruction region information, and analyzes the contrast of the image indicated by the acquired attention region image data (hereinafter, referred to as “instruction region image”). ..
  • the analysis circuit 34K determines whether or not the contrast of the indicated region image is equal to or greater than the threshold value, and outputs the determination result to the second detection circuit 34E as the analysis result.
  • the second detection circuit 34E acquires the first pre-reduction image data as the second detection processing target image data, and the second detection processing target image data obtained is the second detection circuit 34E. 2 Perform detection processing. Further, as shown in FIG. 30B as an example, the second detection circuit 34E acquires and acquires the second pre-reduction image data as the second detection processing target image data when the contrast of the indicated region image is less than the threshold value.
  • Second detection processing The second detection processing is performed on the target image data.
  • the technique of the present disclosure is not limited to this, and the contour, the degree of blurring, the distribution of brightness, and / or the hue are described.
  • the distribution of the above may be analyzed by the analysis circuit 34K.
  • the first pre-reduction image data and the second pre-reduction image data are generated from the output image data by the generation circuit 34C, and the generated first image data is generated.
  • the pre-reduction image data and the second pre-reduction image data are stored in the frame memory 34G for each predetermined period. Therefore, according to this configuration, the second detection processing target used in the second detection processing for each default period is compared with the case where one type of second detection processing target image data is stored in the frame memory 34G for each default period. You can increase the choices of image data.
  • the output image data 70B1 is analyzed by the analysis circuit 34K every predetermined period before the second detection process is performed by the second detection circuit 34E. Then, the second detection circuit 34E determines the first pre-reduction image data and the second pre-reduction image data stored in the frame memory 34G for each predetermined period according to the analysis result in the analysis circuit 34K. Second detection processing The second detection processing is performed on the target image data. Therefore, according to this configuration, the second detection process can be performed on the image data subject to the second detection process of the type corresponding to the current situation.
  • the hues of the specific subject image 200 and the background image are assimilated, whereas in the area 200A shown in FIG. 30A, the hues of the specific subject image 200 and the background image are assimilated. Not assimilated. That is, since the contrast in the region 200A shown in FIG. 30B is lower than the contrast in the region 200A shown in FIG. 30A, in the case of the example shown in FIG. 30B, the second detection circuit 34E is larger than the image data before the first reduction.
  • the second pre-reduction image data having high contrast is acquired as the second detection processing target image data, and the second detection processing is performed on the acquired second detection processing target image data.
  • the possibility of detecting the specific subject image 200 can be increased as compared with the case where the second detection process is performed on the first pre-reduction image data.
  • two types of image data a first pre-reduction image data and a second pre-reduction image data
  • the technique of the present disclosure is not limited to this, and three or more types of image data are used. It may be.
  • the three or more types of image data include 4K image data, FHD image data, VGA image data, and the like.
  • the signal processing circuit 34 located after the image sensor 38 performs a process of reducing the output image data, a first detection process, and a second detection process.
  • the processing circuit 110 of the image pickup device 38 may be used as an example of the “processing unit” according to the technique of the present disclosure.
  • the image sensor 38 may include a signal processing circuit 110E corresponding to the above-mentioned signal processing circuit 34.
  • the signal processing circuit 34 becomes unnecessary, so that the output I / F1100D2 is connected to the reception I / F15E of the controller 15.
  • the signal processing circuit 110E is connected to the control circuit 110C, and various information is exchanged between the control circuit 110C and the signal processing circuit 110E. According to this configuration, the image data can be processed at a higher speed than when the image data is processed by an external processing unit (for example, the controller 15) of the image sensor 38.
  • an external processing unit for example, the controller 15
  • the memory 112 may be used as an example of the "storage unit" according to the technique of the present disclosure.
  • the memory 112 may be used as an example of the "storage unit" according to the technique of the present disclosure.
  • the memory 112 built in the image pickup device 38. According to this configuration, it is possible to realize high-speed access to the image data as compared with the case where the image data is stored in the storage device external to the image sensor 38.
  • the image pickup element 38 an image pickup element in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip is adopted.
  • the portability of the image pickup device 38 becomes higher than that of the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip.
  • the degree of freedom in design can be increased as compared with the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip. Further, it can contribute to the miniaturization of the image pickup device 10 as compared with the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip.
  • the image pickup element 38 a laminated image pickup element in which a memory 112 is laminated on a photoelectric conversion element 42 is adopted.
  • the wiring connecting the photoelectric conversion element 42 and the memory 112 can be shortened, so that the wiring delay can be reduced.
  • the transfer speed of image data from the photoelectric conversion element 42 to the memory 112 can be increased.
  • the improvement in the transfer speed also contributes to speeding up the processing in the entire processing circuit 110.
  • the degree of freedom in design can be increased as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked. Further, it can contribute to the miniaturization of the image pickup apparatus 10 as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked.
  • the image pickup element 38 an image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip is exemplified, but the technique of the present disclosure is not limited thereto. ..
  • the photoelectric conversion element 42, the processing circuit 110, and the memory 112 at least the photoelectric conversion element 42 and the memory 112 may be integrated into one chip.
  • the face image 300A is detected and the pupil image 300B is detected by the second detection process has been described, but the technique of the present disclosure is limited to this.
  • the face image 300A or the pupil image 300B may be detected by the second detection process.
  • the interchangeable lens type imaging device 10 has been illustrated, but the technique of the present disclosure is not limited to this.
  • the smart device 400 may be equipped with an image pickup device main body 414 having a configuration and a function corresponding to the image pickup device main body 12 described in each of the above embodiments.
  • the smart device 400 includes a housing 412, and the image pickup device main body 414 is housed in the housing 412.
  • An example of the smart device 400 is a smartphone or tablet terminal which is an electronic device having an imaging function.
  • An imaging lens 416 is attached to the housing 412.
  • the image pickup lens 416 is exposed from the back surface 412A at the upper left portion of the back surface 412A of the housing 412 when the smart device 400 is placed vertically.
  • the center of the image pickup lens 416 is located on the optical axis L1.
  • the image pickup device 38 is built in the image pickup apparatus main body 414.
  • the image pickup apparatus main body 414 captures the subject light from the image pickup lens 416.
  • the subject light captured in the image pickup apparatus main body 414 is imaged on the image pickup device 38.
  • FIG. 32 an example in which only the image pickup apparatus main body 414 is built in the smart device 400 is shown, but the technique of the present disclosure is not limited to this, and a plurality of smart devices 400 have a plurality of units.
  • a digital camera may be built in. In this case, at least one digital camera may be equipped with the image pickup device main body 414.
  • the communication I / Fs are connected according to the PCIe connection standard, but the technique of the present disclosure is not limited to this.
  • PCIe connection standard other connection standards such as LVDS, SATA, SLVS-EC, or MIPI may be adopted as the high-speed communication standard.
  • the communication between the image sensor 38 and the signal processing circuit 34, the communication between the controller 15 and the image sensor 38, and the communication between the signal processing circuit 34 and the controller 15 are all wired communication. Is. However, the techniques of the present disclosure are not limited to this. Communication between the image sensor 38 and the signal processing circuit 34, communication between the controller 15 and the image sensor 38, and / or communication between the signal processing circuit 34 and the controller 15 may be wireless communication.
  • the UI system device 17 has been described with reference to the embodiment in which the image pickup device main body 12 is incorporated. However, at least a part of the plurality of components included in the UI system device 17 is the image pickup device main body. It may be externally attached to 12. Further, at least a part of the plurality of components included in the UI device 17 may be used as a separate body by being connected to the external I / F 104.
  • 120 fps is exemplified as the frame rate, but the technique of the present disclosure is not limited to this, and the frame rate for imaging (for example, the frame rate applied in the imaging process shown in FIG. 8) and the output. (For example, the frame rate applied in the output process shown in FIG. 8) may be a different frame rate.
  • the frame rate for imaging and / or the frame rate for output may be a fixed frame rate or a variable frame rate.
  • a variable frame rate for example, a default condition (for example, a condition that an instruction to change the frame rate has been accepted by the receiving device 84, and / or a predetermined timing as a timing for changing the frame rate has arrived.
  • the frame rate may be changed when the condition (condition) is satisfied.
  • the specific numerical value of the frame rate may be changed according to the instruction received by the receiving device 84, or according to the operating rate of the subsequent circuit 13 and / or the image sensor 38. It may be changed.
  • the signal processing circuit 34 has been illustrated, but the technique of the present disclosure is not limited to this, and one or more signal processing circuits may be used in addition to the signal processing circuit 34.
  • the image sensor 38 may be directly connected to each of the plurality of signal processing circuits.
  • the signal processing circuit 34 has been described with reference to an example of a form realized by a device including an ASIC and an FPGA, but the technique of the present disclosure is not limited thereto.
  • the signal processing circuit 34 may be realized by a software configuration by a computer.
  • the signal processing circuit 34 has a built-in computer 852, and stores the post-stage circuit processing program 902 for causing the computer 852 to execute the post-stage circuit processing according to each of the above embodiments. It is stored in the medium 900.
  • An example of the storage medium 900 is an arbitrary portable storage medium such as an SSD or a USB memory which is a non-temporary storage medium.
  • the computer 852 includes a CPU 852A, a storage 852B, and a memory 852C.
  • the storage 852B is a non-volatile storage device such as EEPROM, and the memory 852C is a storage device such as RAM.
  • the subsequent circuit processing program 902 stored in the storage medium 900 is installed in the computer 852.
  • the CPU 852A executes the post-stage circuit processing according to the post-stage circuit processing program 902.
  • the subsequent circuit processing program 902 may be stored in the storage 852B instead of the storage medium 900.
  • the subsequent circuit processing program 902 is stored in a storage (for example, a non-volatile storage device) of another computer or server device connected to the computer 852 via a communication network (not shown), and the above-mentioned imaging is performed.
  • the post-stage circuit processing program 902 may be downloaded and installed in the computer 852 at the request of the device 10 or the smart device 400.
  • the CPU 852A is a single CPU, but may be a plurality of CPUs. Further, a GPU may be applied instead of the CPU 852A.
  • a computer 852 is illustrated, but the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD may be applied instead of the computer 852. .. Further, instead of the computer 852, a combination of a hardware configuration and a software configuration may be used.
  • the processing circuit 110 has been described with reference to an example of a form realized by a device including an ASIC and an FPGA, but the technique of the present disclosure is not limited thereto.
  • the control circuit 110C among the plurality of devices included in the processing circuit 110 may be realized by a software configuration by a computer.
  • at least the signal processing circuit 110E among the plurality of devices included in the processing circuit 110 may be realized by a software configuration by a computer.
  • the image sensor 38 has a built-in computer 852, and stores the post-stage circuit processing program 902 for causing the computer 852 to execute the post-stage circuit processing according to each of the above embodiments. Store it in 900.
  • the subsequent circuit processing program 902 stored in the storage medium 900 is installed in the computer 852. Further, the subsequent circuit processing program 902 is stored in a storage (for example, a non-volatile storage device) of another computer or server device connected to the computer 852 via a communication network (not shown), and the image pickup element 38 is stored.
  • the post-stage circuit processing program 902 may be downloaded and installed in the computer 852 in response to the request of.
  • the computer 852 is built in the image sensor 38
  • the technique of the present disclosure is not limited to this, and for example, the computer 852 is provided outside the image sensor 38. You may be able to do it.
  • the CPU 852A is a single CPU, but may be a plurality of CPUs.
  • a GPU may be applied instead of the CPU 852A.
  • the computer 852 is illustrated in the example shown in FIG. 34, the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD is applied instead of the computer 852. May be good.
  • the computer 852 instead of the computer 852, a combination of a hardware configuration and a software configuration may be used.
  • the processor includes, as described above, software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing post-stage circuit processing by executing a program. Further, examples of the processor include a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC. A memory is built in or connected to each processor, and each processor executes the subsequent circuit processing by using the memory.
  • the hardware resource that performs the post-circuit processing may consist of one of these various processors, or a combination of two or more processors of the same type or dissimilarity (eg, a combination of multiple FPGAs, or a combination of multiple FPGAs). It may be composed of a combination of a CPU and an FPGA). Further, the hardware resource for executing the subsequent circuit processing may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor is a post-stage circuit.
  • this processor is a form that functions as a hardware resource that executes processing.
  • SoC there is a form in which a processor that realizes the functions of the entire system including a plurality of hardware resources for executing post-stage circuit processing with one IC chip is used.
  • the post-stage circuit processing is realized by using one or more of the above-mentioned various processors as a hardware resource.
  • the image pickup apparatus 10 is illustrated, and in the example shown in FIG. 32, the smart device 400 is exemplified, but the technique of the present disclosure is not limited thereto. That is, in various electronic devices (for example, a fixed-lens camera, a personal computer, a wearable terminal device, etc.) in which an image pickup device having a configuration and a function corresponding to the image pickup device main body 12 described in each of the above embodiments is built.
  • the technique of the present disclosure is applicable, and even with these electronic devices, the same operations and effects as those of the image pickup device 10 and the smart device 400 can be obtained.
  • the display 26 has been illustrated, but the technique of the present disclosure is not limited to this.
  • a separate display attached to the image pickup device may be used as the "display device" according to the technique of the present disclosure.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.
  • a memory that stores image data obtained by being imaged, and Including a signal processing circuit that processes the above image data, The signal processing circuit performs a process of reducing the image data, and detects a specific subject image indicating a specific subject from the reduced image indicated by the reduced image data obtained by reducing the image data.
  • the second detection process is performed on the pre-reduction image data which is the pre-reduction image data stored in the memory. Imaging device to perform.
  • (Appendix 2) It is an image sensor The image data obtained by being imaged is stored, and the memory built in the image sensor and the memory The image data is processed, and the signal processing circuit built in the image sensor is included.
  • the signal processing circuit performs a process of reducing the image data, and detects a specific subject image indicating a specific subject from the reduced image indicated by the reduced image data obtained by reducing the image data.
  • the second detection process is performed on the pre-reduction image data which is the pre-reduction image data stored in the memory. Imaging element to perform.
  • the image data obtained by being imaged is stored, and the storage unit (memory) built in the image sensor
  • the image data is processed, and includes a processing unit (signal processing circuit) built in the image sensor.
  • the processing unit performs a process of reducing the image data, and first detects a specific subject image indicating a specific subject from the reduced image indicated by the reduced image data obtained by reducing the image data.
  • the second detection process is performed on the pre-reduction image data which is the pre-reduction image data stored in the storage unit. Imaging element to perform.
  • the processing unit is a partial region in the image indicated by the pre-reduction image data, and is located at the position of the specific subject image detected by the first detection process in the frame before the frame to be subjected to the second detection process.
  • the image pickup device according to Appendix 3, wherein the second detection process is performed on the partial area image data indicating the corresponding partial area.
  • Appendix 5 The image pickup device according to Appendix 4, wherein the partial region is an designated region of the specific subject in the image shown by the image data before reduction.
  • the processing unit stores the specific subject image area data indicating the area corresponding to the position of the specific subject image among the pre-reduction image data.
  • the image pickup device according to any one of Supplementary note 3 to Supplementary note 5, which is stored with respect to the image sensor.
  • the second detection process is performed on the specific subject image area data stored in the storage unit when the specific subject image is detected by the first detection process.
  • Image sensor
  • the processing unit generates a plurality of types of pre-reduction image data from the image data, and stores the generated plurality of types of pre-reduction image data in the storage unit for each predetermined period in Appendix 3 to Appendix 7.
  • the image pickup device according to any one.
  • the processing unit analyzes the image data for each of the predetermined periods before performing the second detection process, and among the plurality of types of pre-reduction image data stored in the storage unit, for each of the predetermined periods.
  • the image sensor according to Appendix 8 which performs the second detection process on the pre-reduction image data determined according to the analysis result.
  • the processing unit analyzes the contrast of the designated area image from the image data for each predetermined period before performing the second detection process, and among the plurality of types of pre-reduction image data stored in the storage unit.
  • the image sensor according to Appendix 9 which performs the second detection process on the pre-reduction image data determined according to the analysis result for each predetermined period.
  • the second detection process is a process of detecting at least one of the specific subject image and a small subject image showing a subject smaller than the specific subject from the image indicated by the image data before reduction.
  • the image pickup device according to any one of Appendix 10.
  • the specific subject image is a face image showing a face, and is The image pickup device according to Appendix 11, wherein the small subject image is a pupil image showing a pupil.
  • Appendix 14 The image sensor according to any one of Supplementary note 3 to Appendix 13 which is display image data.
  • the processing unit performs the second detection process stepwise from the low-resolution pre-reduction image data to the high-resolution pre-reduction image data on a plurality of pre-reduction image data having different resolutions.
  • the image pickup device according to any one of Appendix 14.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置は、撮像されることで得られた画像データを記憶する記憶部と、画像データに対して処理を行う処理部と、を含み、処理部は、画像データを縮小する処理を行い、画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、第1検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている縮小前の画像データである縮小前画像データに対して第2検出処理を行う。

Description

撮像装置、撮像装置の作動方法、及びプログラム
 本開示の技術は、撮像装置、撮像装置の作動方法、及びプログラムに関する。
 特開2018-056944号公報には、撮像素子、生成部、及び検出部を備える撮像装置が開示されている。特開2018-056944号公報に記載の撮像装置おいて、撮像素子は、光電変換された電荷により信号を生成する複数の画素が配置された複数の撮像領域と、撮像領域ごとに配置され、画素で生成された信号を出力する信号線と、を有する。生成部は、第1撮像領域に配置された画素から、第1撮像領域の信号線に出力された第1画素の信号を用いて、撮像された被写体の画像を生成する。検出部は、撮像領域のうち、第1撮像領域とは異なる第2撮像領域に配置された画素から、第2撮像領域の信号線に出力された、第1画素の数よりも多い第2画素の信号を用いて、被写体を検出する。
 特開2018-056944号公報に記載の撮像装置において、生成部は、第1撮像領域に配置された画素から間引いて第1撮像領域の信号線に出力された第1画素の信号を用いて、撮像された被写体の画像を生成する。また、検出部は、第2撮像領域に配置された画素から間引いて第2撮像領域の信号線に出力された、第1画素の数よりも多い第2画素の信号を用いて、被写体を検出する。
 特開2016-219949号公報には、被写体を撮像して被写体に応じた画像を出力する撮像素子を備える撮像手段を有する撮像装置が開示されている。特開2016-219949号公報に記載の撮像装置は、読み出し手段、判別手段、及び制御手段を有する。読み出し手段は、撮像素子において特定の画素群の読み出しを第1の読み出し動作として行って第1の画像を得るとともに、特定の画素群と異なる画素群の読み出しを第2の読み出し動作として行って第2の画像を得る。判別手段は、第1の読み出し動作で得られた第1の画像において所定の被写体領域を注目被写体領域として判別する。制御手段は、判別手段で得られた注目被写体領域に応じて読み出し手段を制御して、第2の読み出し動作で得られる第2の画像を、注目被写体領域を備える画像とする制御手段と、を有することを特徴とする。また、特開2016-219949号公報に記載の撮像装置は、第2の画像における画素数は、第1の画像における注目被写体領域の画素数よりも多いことを特徴とする。
 本開示の技術に係る一つの実施形態は、縮小前画像データのみを常に用いて検出処理を行う場合に比べ、処理負荷の軽減及び高精度な検出を実現することができる撮像装置、撮像装置の作動方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、撮像されることで得られた画像データを記憶する記憶部と、画像データに対して処理を行う処理部と、を含み、処理部は、画像データを縮小する処理を行い、画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、第1検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている縮小前の画像データである縮小前画像データに対して第2検出処理を行う撮像装置である。
 本開示の技術に係る第2の態様は、処理部は、縮小前画像データにより示される画像内の部分領域であって、第2検出処理を行うフレームの前フレームにおいて第1検出処理により検出された特定被写体画像の位置に対応している部分領域を示す部分領域画像データに対して第2検出処理を行う第1の態様に係る撮像装置である。
 本開示の技術に係る第3の態様は、部分領域は、縮小前画像データにより示される画像内のうち、指示された特定の被写体の領域である第2の態様に係る撮像装置である。
 本開示の技術に係る第4の態様は、処理部は、第1検出処理により特定被写体画像が検出された場合、縮小前画像データのうち、特定被写体画像の位置に対応する領域を示す特定被写体画像領域データを記憶部に対して記憶させる第1の態様から第3の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第5の態様は、処理部は、第1検出処理により特定被写体画像が検出された場合、記憶部に記憶されている特定被写体画像領域データに対して第2検出処理を行う第4の態様に係る撮像装置である。
 本開示の技術に係る第6の態様は、処理部は、画像データから複数種類の縮小前画像データを生成し、生成した複数種類の縮小前画像データを既定期間毎に記憶部に対して記憶させる第1の態様から第5の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第7の態様は、処理部は、第2検出処理を行う前に画像データを既定期間毎に解析し、記憶部に記憶されている複数種類の縮小前画像データのうち、既定期間毎に、解析結果に応じて決定される縮小前画像データに対して第2検出処理を行う第6の態様に係る撮像装置である。
 本開示の技術に係る第8の態様は、処理部は、第2検出処理を行う前に画像データから指示領域画像のコントラストを既定期間毎に解析し、記憶部に記憶されている複数種類の縮小前画像データのうち、既定期間毎に、解析結果に応じて決定される縮小前画像データに対して第2検出処理を行う第7の態様に係る撮像装置である。
 本開示の技術に係る第9の態様は、第2検出処理は、縮小前画像データにより示される画像内から特定被写体画像、及び特定の被写体よりも小型な被写体を示す小型被写体画像の少なくとも1つを検出する処理である第1の態様から第8の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第10の態様は、特定被写体画像は、顔を示す顔画像であり、小型被写体画像は、瞳を示す瞳画像である第9の態様に係る撮像装置である。
 本開示の技術に係る第11の態様は、特定被写体画像は、画像データにより示される画像内のうち、指示された移動体を示す移動体画像である第1の態様から第10の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第12の態様は、縮小前画像データは、表示用画像データである第1の態様から第11の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第13の態様は、撮像素子を更に含み、撮像素子は、記憶部を内蔵している第1の態様から第11の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第14の態様は、撮像素子は、処理部を内蔵している第13の態様に係る撮像装置である。
 本開示の技術に係る第15の態様は、撮像素子は、少なくとも光電変換素子と記憶部とが1チップ化された撮像素子である第13の態様又は第14の態様に係る撮像装置である。
 本開示の技術に係る第16の態様は、撮像素子は、光電変換素子に記憶部が積層された積層型撮像素子である第15の態様に係る撮像装置である。
 本開示の技術に係る第17の態様は、第1検出処理での検出結果、及び第2検出処理での検出結果のうちの少なくとも一方を表示装置に対して表示させる制御を行う制御部を更に含む第1の態様から第16の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第18の態様は、処理部は、解像度の異なる複数の縮小前画像データに対して、低解像度の縮小前画像データから高解像度の縮小前画像データにかけて段階的に第2検出処理を行う第1の態様から第17の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第19の態様は、撮像されることで得られた画像データを記憶部に記憶すること、画像データを縮小する処理を行うこと、画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行うこと、及び、第1検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている縮小前の画像データである縮小前画像データに対して第2検出処理を行うことを含む撮像装置の作動方法である。
 本開示の技術に係る第20の態様は、コンピュータに、撮像されることで得られた画像データを記憶部に記憶すること、画像データを縮小する処理を行うこと、画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行うこと、及び、第1検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている縮小前の画像データである縮小前画像データに対して第2検出処理を行うことを含む処理を実行させるためのプログラムである。
第1~第4実施形態に係る撮像装置の外観の一例を示す斜視図である。 図1に示す撮像装置の背面側の外観の一例を示す背面図である。 第1~第4実施形態に係る撮像装置の構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像装置に含まれる撮像装置本体の電気系のハードウェア構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像装置に含まれる撮像素子のフレームレートの説明に供する概念図である。 第1~第4実施形態に係る撮像装置に含まれる撮像素子の積層構造の一例を示す概念図である。 第1、第2、及び第4実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像素子によって行われる撮像処理及び出力処理の内容の一例を示す概念図である。 第1~第4実施形態に係る撮像装置に含まれる撮像素子、信号処理回路、コントローラ、及びタッチパネル・ディスプレイの相互間の関係性の一例を示す概念図である。 第1~第4実施形態に係る撮像装置に含まれるタッチパネル・ディスプレイの使用例を示す概念図である。 第1及び第2実施形態に係る撮像装置に含まれる信号処理回路及びその周辺の構成の一例を示す概念図である。 第1~第4実施形態に係る撮像装置によって撮像されることで得られたデジタル画像データ、及びデジタル画像データが縮小されることで得られる複数種類の画像データの構成例を示す概念図である。 第1検出処理が成功した場合(特定被写体画像が検出された場合)のライブビュー画像がディスプレイに表示された態様の一例を示す画面図である。 第1検出処理が失敗し、第2検出処理が成功した場合(第1検出処理によって特定被写体画像が検出されずに、第2検出処理によって特定被写体画像が検出された場合)のライブビュー画像がディスプレイに表示された態様の一例を示す画面図である。 第1検出処理及び第2検出処理が失敗した場合(第1検出処理によっても第2検出処理によっても特定被写体画像が検出されなかった場合)のライブビュー画像がディスプレイに表示された態様の一例を示す画面図である。 第1実施形態に係る撮像装置での処理内容の一例を示すタイムチャートである。 第1実施形態に係る後段回路処理の流れの一例を示すフローチャートである。 図15Aに示すフローチャートの続きである。 第2実施形態に係る撮像装置に含まれる第1検出回路の処理内容の一例の説明に供する概念図である。 第2実施形態に係る撮像装置に含まれる第2検出回路の処理内容の一例の説明に供する概念図である。 第2実施形態に係る撮像装置に含まれる第1検出回路によって縮小画像データにより示される縮小画像から顔画像が検出され、かつ、縮小画像から瞳画像が検出された場合のディスプレイの表示態様の一例を示す画面図である。 第2実施形態に係る撮像装置に含まれる第1検出回路による第1検出処理、及び第2検出回路による第2検出処理が何れも失敗した場合のディスプレイの表示態様の一例を示す画面図である。 第2実施形態に係る撮像装置に含まれる第1検出回路又は第2検出回路によって顔画像の検出は成功したが、瞳画像の検出は失敗した場合のディスプレイの表示態様の一例を示す画面図である。 第2実施形態に係る撮像装置での処理内容の一例を示すタイムチャートである。 第2実施形態に係る後段回路処理の流れの一例を示すフローチャートである。 図20Aに示すフローチャートの続きである。 図20Bに示すフローチャートの続きである。 図20A~図20Cに示すフローチャートの続きである。 第2実施形態に係る撮像装置に含まれる第1検出回路の処理内容の変形例説明に供する概念図である。 第2実施形態に係る撮像装置に含まれる生成回路の処理内容の変形例の説明に供する概念図である。 第2実施形態に係る撮像装置に含まれる第2検出回路の処理内容の変形例の説明に供する概念図である。 第3実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 第3実施形態に係る撮像装置に含まれる信号処理回路及びその周辺の構成の一例を示す概念図である。 第3実施形態に係る撮像装置での処理内容の一例を示すタイムチャートである。 第3実施形態に係る撮像装置での処理内容の一例を示すタイムチャートである。 第3実施形態に係る撮像装置での処理内容の一例を示すタイムチャートである。 第3実施形態に係る撮像装置での処理内容の第1変形例を示すタイムチャートである。 第3実施形態に係る撮像装置での処理内容の第2変形例を示すタイムチャートである。 第4実施形態に係る撮像装置に含まれる信号処理回路及びその周辺の構成の一例を示す概念図である。 第4実施形態に係る撮像装置に含まれるフレームメモリに記憶されている第1縮小前画像データが第2検出処理対象画像データとして第2検出回路によって取得される場合の処理内容の一例を示す概念図である。 第4実施形態に係る撮像装置に含まれるフレームメモリに記憶されている第2縮小前画像データが第2検出処理対象画像データとして第2検出回路によって取得される場合の処理内容の一例を示す概念図である。 撮像素子の電気系のハードウェア構成の変形例を示すブロック図である。 スマートデバイスの背面側の外観の一例を示す背面視斜視図である。 後段回路処理プログラムが記憶された記憶媒体から、後段回路処理プログラムが信号処理回路内のコンピュータにインストールされる態様の一例を示す概念図である。 後段回路処理プログラムが記憶された記憶媒体から、後段回路処理プログラムが撮像素子内のコンピュータにインストールされる態様の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る撮像装置の実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。LSIとは、“Large-Scale Integrated circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。A/Dとは、“Analog/Digital”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。LVDSとは、“Low Voltage Differential Signaling”の略称を指す。PCIeとは、“Peripheral Component Interconnect Express”の略称を指す。SATAとは、“Serial Advanced Technology Attachment”の略称を指す。SLVS-ECとは、“Scalable Low Signaling with Embedded Clock”の略称を指す。MIPI(登録商標)とは、“Mobile Industry Prossor Interface”の略称を指す。fpsとは、“frame per second”の略称を指す。FIFOとは、“First In, First Out”の略称を指す。FHDとは、“Full High Definition”の略称を指す。VGAとは、“Video Graphics Array”の略称を指す。
 [第1実施形態]
 一例として図1に示すように、撮像装置10は、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラである。撮像装置10は、撮像装置本体12と、撮像装置本体12に交換可能に装着される交換レンズ14と、を備えている。なお、ここでは、撮像装置10の一例として、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラが挙げられているが、本開示の技術はこれに限定されず、撮像装置10は、レンズ固定式等の他種類のデジタルカメラであってもよい。
 撮像装置本体12には、撮像素子38が設けられている。交換レンズ14が撮像装置本体12に装着された場合に、被写体を示す被写体光は、交換レンズ14を透過して撮像素子38に結像され、撮像素子38によって被写体の画像を示す画像データ(例えば、図4及び図5参照)が生成される。
 撮像装置本体12には、ハイブリッドファインダー(登録商標)16が設けられている。ここで、ハイブリッドファインダー16とは、例えば光学ビューファインダー(以下、「OVF」という)及び電子ビューファインダー(以下、「EVF」という)が選択的に使用されるファインダーを指す。なお、OVFとは、“optical viewfinder”の略称を指す。また、EVFとは、“electronic viewfinder”の略称を指す。
 撮像装置本体12の前面には、ファインダー切替レバー18が設けられている。OVFで視認可能な光学像とEVFで視認可能な電子像であるライブビュー画像とは、ファインダー切替レバー18を矢印SW方向に回動させることで切り換わる。ここで、「ライブビュー画像」とは、撮像素子38によって撮像されることにより得られた画像データに基づく表示用の動画像を指す。ライブビュー画像は、一般的には、スルー画像とも称されている。撮像装置本体12の上面には、レリーズボタン20及びダイヤル23が設けられている。ダイヤル23は、撮像系の動作モード及び再生系の動作モード等の設定の際に操作され、これによって、撮像装置10では、動作モードとして撮像モードと再生モードとが選択的に設定される。
 レリーズボタン20は、撮像準備指示部及び撮像指示部として機能し、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能である。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 一例として図2に示すように、撮像装置本体12の背面には、タッチパネル・ディスプレイ24、指示キー27、及びファインダー接眼部30が設けられている。
 タッチパネル・ディスプレイ24は、ディスプレイ26及びタッチパネル28(図4も参照)を備えている。ディスプレイ26の一例としては、有機ELディスプレイが挙げられる。ディスプレイ26は、有機ELディスプレイではなく、液晶ディスプレイ又は無機ELディスプレイなどの他種類のディスプレイであってもよい。
 なお、ディスプレイ26及びEVFは、本開示の技術に係る「表示装置」の一例である。EVFの表示についてはディスプレイ26の表示と同等であるため、以下では説明を省略するが、本明細書においてディスプレイ26への表示は、EVFへの表示と読み替えることができる。
 ディスプレイ26は、画像及び文字情報等を表示する。ディスプレイ26は、撮像装置10が撮像モードの場合に連続的な撮像により得られたライブビュー画像の表示に用いられる。また、ディスプレイ26は、静止画像用の撮像の指示が与えられた場合に撮像されることで得られた静止画像の表示にも用いられる。更に、ディスプレイ26は、撮像装置10が再生モードの場合の再生画像の表示及びメニュー画面等の表示にも用いられる。
 タッチパネル28は、透過型のタッチパネルであり、ディスプレイ26の表示領域の表面に重ねられている。タッチパネル28は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。
 なお、ここでは、タッチパネル・ディスプレイ24の一例として、タッチパネル28がディスプレイ26の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ24として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
 指示キー27は、各種の指示を受け付ける。ここで、「各種の指示」とは、例えば、各種メニューを選択可能なメニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、選択内容の消去の指示、ズームイン、ズームアウト、及びコマ送り等の各種の指示等を指す。
 一例として図3に示すように、交換レンズ14は、撮像レンズ40を有する。撮像レンズ40は、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cを備えている。対物レンズ40A、フォーカスレンズ40B、及び絞り40Cは、被写体側(物体側)から撮像装置本体12側(像側)にかけて、光軸L1に沿って、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cの順に配置されている。フォーカスレンズ40B及び絞り40Cは、モータ等の駆動源(図示省略)からの動力を受けることで作動する。すなわち、フォーカスレンズ40Bは、付与された動力に応じて光軸L1に沿って移動する。また、絞り40Cは、付与された動力に応じて作動することで露出を調節する。
 撮像装置本体12は、後段回路13、UI系デバイス17、メカニカルシャッタ41、及び撮像素子38を備えている。後段回路13は、撮像素子38の後段に位置する回路である。後段回路13は、コントローラ15及び信号処理回路34を有する。コントローラ15は、UI系デバイス17、信号処理回路34、及び撮像素子38に接続されており、撮像装置10の電気系の全体を制御する。
 撮像素子38は、受光面42Aを有する光電変換素子42を備えている。本実施形態において、撮像素子38は、CMOSイメージセンサである。また、ここでは、撮像素子38としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、撮像素子38がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 メカニカルシャッタ41は、モータ等の駆動源(図示省略)からの動力を受けることで作動する。交換レンズ14が撮像装置本体12に装着された場合に、被写体を示す被写体光は、撮像レンズ40を透過し、メカニカルシャッタ41を介して受光面42Aに結像される。
 UI系デバイス17は、ユーザに対して情報を提示したり、ユーザからの指示を受け付けたりするデバイスである。コントローラ15は、UI系デバイス17からの各種情報の取得、及びUI系デバイス17の制御を行う。
 撮像素子38は、コントローラ15に接続されており、コントローラ15の制御下で、被写体を撮像することで、被写体の画像を示す画像データを生成する。
 撮像素子38は、信号処理回路34に接続されている。信号処理回路34は、LSIであり、具体的には、ASIC及びFPGAを含むデバイスである。コントローラ15は、信号処理回路34からの各種情報の取得、及び撮像素子38の制御を行う。撮像素子38は、コントローラ15の制御下で、光電変換素子42によって生成された画像データを信号処理回路34に出力する。
 信号処理回路34は、本開示の技術に係る「処理部(信号処理回路)」の一例である。信号処理回路34は、画像データに対して処理を行う回路である。具体的には、信号処理回路34は、撮像素子38から入力された画像データに対して各種の信号処理を行う。信号処理回路34によって行われる各種の信号処理には、例えば、ホワイトバランス調整、シャープネス調整、ガンマ補正、色空間変換処理、及び色差補正などの公知の信号処理が含まれる。
 なお、信号処理回路34によって行われる各種の信号処理は、信号処理回路34と撮像素子38とで分散して行われるようにしてもよい。すなわち、信号処理回路34によって行われる各種の信号処理のうちの少なくとも一部を撮像素子38の処理回路110に担わせるようにしてもよい。
 なお、本実施形態では、信号処理回路34としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されない。例えば、信号処理回路34は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。
 また、信号処理回路34は、CPU、ストレージ、及びメモリを含むコンピュータであってもよい。ここで、ストレージとは、不揮発性の記憶装置を指す。不揮発性の記憶装置の一例としては、フラッシュメモリが挙げられるが、これに限らず、EEPROM、HDD、及び/又はSSD等であってもよい。また、メモリは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。また、CPUに代えてGPUを用いてもよい。また、信号処理回路34は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 一例として図4に示すように、コントローラ15は、CPU15A、ストレージ15B、メモリ15C、出力I/F15D、及び受付I/F15Eを備えている。CPU15Aは、本開示の技術に係る「制御部(プロセッサ)」の一例である。CPU15A、ストレージ15B、メモリ15C、出力I/F15D、及び受付I/F15Eは、バス100を介して接続されている。
 なお、図4に示す例では、図示の都合上、バス100として1本のバスが図示されているが、複数本のバスであってもよい。バス100は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 ストレージ15Bは、各種パラメータ及び各種プログラムを記憶している。ストレージ15Bは、不揮発性の記憶装置である。ここでは、ストレージ15Bの一例として、フラッシュメモリが採用されている。フラッシュメモリはあくまでも一例に過ぎず、フラッシュメモリに代えて、又は、フラッシュメモリと共に、EEPROM、HDD、及び/又はSSD等をストレージ15Bとして適用してもよい。また、メモリ15Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ15Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
 ストレージ15Bには、各種プログラムが記憶されている。CPU15Aは、ストレージ15Bから必要なプログラムを読み出し、読み出したプログラムをメモリ15C上で実行する。CPU15Aは、メモリ15C上で実行するプログラムに従って撮像装置10の全体を制御する。
 出力I/F15Dは、撮像素子38に接続されている。CPU15Aは、出力I/F15Dを介して撮像素子38を制御する。例えば、CPU15Aは、出力I/F15Dを介して撮像素子38に対して、撮像を行うタイミングを規定する撮像タイミング信号を供給することで撮像素子38によって行われる撮像のタイミングを制御する。
 受付I/F15Eは、信号処理回路34に接続されている。信号処理回路34によって各種の信号処理が行われた画像データは、信号処理回路34によって受付I/F15Eに出力される。受付I/F15Eは、信号処理回路34から出力された画像データを受け付け、受け付けた画像データをCPU15Aに転送する。
 バス100には、外部I/F104が接続されている。外部I/F104は、回路で構成された通信デバイスである。ここでは、外部I/F104として、回路で構成されたデバイスを例示しているが、これはあくまでも一例に過ぎない。外部I/F104は、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、外部I/F104は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 外部I/F104の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接または間接的に接続可能である。外部I/F104は、CPU15Aと外部装置との間の各種情報の授受を司る。
 UI系デバイス17は、タッチパネル・ディスプレイ24及び受付デバイス84を備えている。ディスプレイ26及びタッチパネル28は、バス100に接続されている。従って、CPU15Aは、ディスプレイ26に対して各種情報を表示させ、タッチパネル28によって受け付けられた各種指示に従って動作する。
 受付デバイス84は、ハードキー部25を備えている。ハードキー部25は、複数のハードキーであり、レリーズボタン20(図1参照)、ダイヤル23(図1及び図2参照)、及び指示キー22(図2参照)を有する。ハードキー部25は、バス100に接続されており、CPU15Aは、ハードキー部25によって受け付けられた指示を取得し、取得した指示に従って動作する。
 一例として図5に示すように、撮像素子38にはコントローラ15から撮像タイミング信号が入力される。撮像タイミング信号には、垂直同期信号及び水平同期信号が含まれている。垂直同期信号は、光電変換素子42からの1フレーム毎の画像データの読み出しの開始タイミングを規定する同期信号である。水平同期信号は、光電変換素子42からの水平ライン毎の画像データの読み出しの開始タイミングを規定する同期信号である。撮像素子38では、コントローラ15から入力された垂直同期信号に応じて定まるフレームレートに従って、光電変換素子42から画像データが読み出される。
 図5に示す例では、撮像素子38のフレームレートとして、期間T内に光電変換素子42から8フレーム分の読み出しが行われるフレームレートが示されている。具体的なフレームレートの一例としては、120fpsが挙げられるが、これに限らず、120fpsを超えるフレームレート(例えば、240fps)であってもよいし、120fps未満のフレームレート(例えば、60fps)であってもよい。
 一例として図6に示すように、撮像素子38には、光電変換素子42、処理回路110、及びメモリ112が内蔵されている。撮像素子38は、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子である。すなわち、光電変換素子42、処理回路110、及びメモリ112は1パッケージ化されている。撮像素子38では、光電変換素子42に対して処理回路110及びメモリ112が積層されている。具体的には、光電変換素子42及び処理回路110は、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されており、処理回路110及びメモリ112、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されている。ここでは、光電変換素子42、処理回路110、及びメモリ112の3層構造が例示されているが、本開示の技術はこれに限らず、処理回路110とメモリ112とを1層としたメモリ層と、光電変換素子42との2層構造であってもよい。なお、撮像素子38は、本開示の技術に係る「積層型撮像素子」の一例である。
 処理回路110は、例えば、LSIである。メモリ112は、書き込みタイミングと読み出しタイミングとが異なるメモリである。ここでは、メモリ112の一例として、DRAMが採用されている。なお、メモリ112がSRAM等の他の種類の記憶装置であっても本開示の技術は成立する。
 処理回路110は、ASIC及びFPGAを含むデバイスであり、上述のコントローラ15の指示に従って、撮像素子38の全体を制御する。なお、ここでは、信号処理回路34としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されない。例えば、処理回路110は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。
 また、処理回路110は、CPU、ストレージ、及びメモリを含むコンピュータであってもよい。ストレージとは、フラッシュメモリ等の不揮発性の記憶装置を指す。メモリは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリの一例としてはRAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。また、CPUに代えてGPUを用いてもよい。また、処理回路110は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 光電変換素子42は、マトリクス状に配置された複数のフォトダイオードを有している。複数のフォトダイオードの一例としては、“4896×3265”画素分のフォトダイオードが挙げられる。
 光電変換素子42に含まれる各フォトダイオードには、カラーフィルタが配置されている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑)に対応するGフィルタ、R(赤)に対応するRフィルタ、及びB(青)に対応するBフィルタを含む。
 光電変換素子42は、R画素、G画素、及びB画素を有する。R画素は、Rフィルタが配置されたフォトダイオードに対応する画素であり、G画素は、Gフィルタが配置されたフォトダイオードに対応する画素であり、B画素は、Bフィルタが配置されたフォトダイオードに対応する画素である。R画素、G画素、及びB画素は、行方向(水平方向)及び列方向(垂直方向)の各々に既定の周期性で配置されている。本実施形態では、R画素、G画素、及びB画素がX-Trans(登録商標)配列に対応した周期性で配列されている。なお、ここでは、X-Trans配列を例示しているが、本開示の技術はこれに限定されず、R画素、G画素、及びB画素の配列は、ベイヤ配列又はハニカム配列などであってもよい。
 撮像素子38は、いわゆる電子シャッタ機能を有しており、コントローラ15の制御下で電子シャッタ機能を働かせることで、光電変換素子42内の各フォトダイオードの電荷蓄積時間を制御する。電荷蓄積時間とは、いわゆるシャッタスピードを指す。
 撮像素子38では、静止画像用の撮像と、ライブビュー画像用の撮像とが選択的に行われる。静止画像用の撮像は、電子シャッタ機能を働かせ、かつ、メカニカルシャッタ41を作動させることで実現され、ライブビュー画像用の撮像は、メカニカルシャッタ41を作動させずに、電子シャッタ機能を働かせることで実現される。なお、ここでは、メカニカルシャッタ41を用いた撮像を例示しているが、撮像を実現する上でメカニカルシャッタ41は必須ではなく、メカニカルシャッタ41が無くとも電子シャッタ機能を働かせることでライブビュー画像用の撮像及び静止画像用の撮像は実現される。また、ここでは、ローリングシャッタ方式が例示されているが、本開示の技術はこれに限らず、ローリングシャッタ方式に代えてグローバルシャッタ方式を適用してもよい。
 一例として図7に示すように、処理回路110は、受付I/F110D1及び出力I/F110D2を備えている。コントローラ15の出力I/F15Dは、処理回路110の受付I/F110D1に接続されており、撮像タイミング信号を受付I/F110D1に出力する。受付I/F110D1は、出力I/F15Dから出力された撮像タイミング信号を受け付ける。
 信号処理回路34は、受付I/F34A及び出力I/F34Bを備えている。受付I/F34Aは、撮像素子38の出力I/F110D2に接続されている。処理回路110の出力I/F110D2は、画像データ等の各種情報(以下、単に「各種情報」とも称する)を信号処理回路34の受付I/F34Aに出力し、受付I/F34Aは、出力I/F110D2から出力された各種情報を受け付ける。信号処理回路34は、受付I/F34Aによって受け付けられた各種情報に対して、必要に応じて信号処理を施す。出力I/F34Bは、コントローラ15の受付I/F15Eに接続されており、各種情報をコントローラ15の受付I/F15Eに出力する。受付I/F15Eは、出力I/F34Bから出力された各種情報を受け付ける。
 撮像素子38において、処理回路110は、受付I/F110D1及び出力I/F110D2の他に、読出回路110A、デジタル処理回路110B、及び制御回路110Cを備えている。
 読出回路110Aは、光電変換素子42、デジタル処理回路110B、及び制御回路110Cの各々に接続されている。デジタル処理回路110Bは、制御回路110Cに接続されている。制御回路110Cは、メモリ112、受付I/F110D1、及び出力I/F110D2の各々に接続されている。
 上述の画像データは、一例として図7に示すように、アナログ画像データ70Aとデジタル画像データ70Bとに大別される。なお、以下では、説明の便宜上、アナログ画像データ70A、デジタル画像データ70B、後述する出力用画像データ70B1(図12参照)、後述するライブビュー画像データ70B2(図12参照)、及び後述する縮小画像データ70B3(図12参照)等の各種の画像データを区別して説明する必要がない場合、符号を付さずに「画像データ」と称する。
 処理回路110の受付I/F110D1及び出力I/F110D2の各々は、回路で構成された通信デバイスである。また、コントローラ15の出力I/F15D及び受付I/F15Eの各々も、回路で構成された通信デバイスである。更に、信号処理回路34の受付I/F34A及び出力I/F34Bの各々も、回路で構成された通信デバイスである。
 処理回路110の受付I/F110D1とコントローラ15の出力I/F15Dとの間は、PCIeの接続規格に従って接続されている。また、処理回路110の出力I/F110D2と信号処理回路34の受付I/F34Aとの間も、PCIeの接続規格に従って接続されている。更に、信号処理回路34の出力I/F34Bとコントローラ15の受付I/F15Eとの間も、PCIeの接続規格に従って接続されている。なお、以下では、受付I/F110D1、出力I/F110D2、受付I/F34A、出力I/F34B、受付I/F15E、及び出力I/F15Dを区別して説明する必要がない場合、符号を付さずに「通信I/F」と称する。
 ここでは、通信I/Fとして回路で構成された通信デバイスが採用されているが、これはあくまでも一例に過ぎず、通信I/Fは、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、通信I/Fは、CPU、フラッシュメモリ等のストレージ、及びRAM等のメモリを含むコンピュータであってもよい。この場合、コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。CPUに代えてGPUを用いてもよい。また、通信I/Fは、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 受付I/F110D1は、コントローラ15の出力I/F15Dから出力された撮像タイミング信号を受け付け、受け付けた撮像タイミング信号を制御回路110Cに転送する。
 読出回路110Aは、制御回路110Cの制御下で、光電変換素子42を制御し、光電変換素子42からアナログ画像データ70Aを読み出す。光電変換素子42からのアナログ画像データ70Aの読み出しは、コントローラ15から処理回路110に入力された撮像タイミング信号に従って行われる。
 具体的には、先ず、受付I/F110D1がコントローラ15から撮像タイミング信号を受け付け、受け付けた撮像タイミング信号を制御回路110Cに転送する。次に、制御回路110Cは、受付I/F110D1から転送された撮像タイミング信号を読出回路110Aに転送する。すなわち、読出回路110Aには、垂直同期信号及び水平同期信号が転送される。そして、読出回路110Aは、制御回路110Cから転送された垂直同期信号に従って光電変換素子42からフレーム単位でのアナログ画像データ70Aの読み出しを開始する。また、読出回路110Aは、制御回路110Cから転送された水平同期信号に従って水平ライン単位でのアナログ画像データ70Aの読み出しを開始する。
 読出回路110Aは、光電変換素子42から読み出されたアナログ画像データ70Aに対してアナログ信号処理を行う。アナログ信号処理には、ノイズキャンセル処理及びアナログゲイン処理などの公知の処理が含まれる。ノイズキャンセル処理は、光電変換素子42に含まれる画素間の特性のばらつきに起因するノイズをキャンセルする処理である。アナログゲイン処理は、アナログ画像データ70Aに対してゲインをかける処理である。このようにしてアナログ信号処理が行われたアナログ画像データ70Aは、読出回路110Aによってデジタル処理回路110Bに出力される。
 デジタル処理回路110Bは、A/D変換器110B1を備えている。A/D変換器110B1は、アナログ画像データ70AをA/D変換する。
 デジタル処理回路110Bは、読出回路110Aから入力されたアナログ画像データ70Aに対してデジタル信号処理を行う。デジタル信号処理には、例えば、A/D変換器110B1によるA/D変換、及びデジタルゲイン処理が含まれる。
 アナログ画像データ70Aに対しては、A/D変換器110B1によってA/D変換が行われ、これによって、アナログ画像データ70Aがデジタル化され、RAWデータとしてデジタル画像データ70Bが得られる。そして、デジタル画像データ70Bに対しては、デジタル処理回路110Bによってデジタルゲイン処理が行われる。デジタルゲイン処理とは、デジタル画像データ70Bに対してゲインをかける処理を指す。このようにデジタル信号処理が行われることによって得られたデジタル画像データ70Bは、デジタル処理回路110Bによって制御回路110Cに出力される。
 メモリ112は、複数フレームのデジタル画像データを記憶可能なメモリである。制御回路110Cは、デジタル処理回路110Bから入力されたデジタル画像データ70Bをメモリ112に対して記憶させる。メモリ112は、画素単位の記憶領域を有しており、デジタル画像データ70Bは、制御回路110Cによって、画素単位で、メモリ112のうちの対応する記憶領域に記憶される。
 制御回路110Cは、メモリ112に対してランダムアクセス可能であり、フレームレートに従ってメモリ112からデジタル画像データ70Bを取得する。そして、制御回路110Cは、メモリ112から取得したデジタル画像データ70Bを縮小し、縮小することで得た出力用画像データ70B1を出力I/F110D2に対して信号処理回路34に出力させる。なお、ここで、「縮小」とは、画像データを低解像度化する処理を指す。低解像度化する処理の一例としては、画素を間引く処理が挙げられる。
 信号処理回路34では、出力I/F110D2から入力されたデジタル画像データ70Bが受付I/F34Aによって受け付けられ、受け付けられたデジタル画像データ70Bに対して各種の信号処理が行われる。
 一例として図8に示すように、撮像素子38では、撮像処理と出力処理とを含む処理が行われる。
 撮像処理では、露光、アナログ画像データ70Aの読み出し、光電変換素子42に対するリセット、アナログ信号処理、デジタル信号処理、及びデジタル画像データ70Bの記憶が順に行われる。
 撮像処理では、先ず、光電変換素子42によって露光が行われる。そして、アナログ画像データ70Aの読み出し、光電変換素子42に対するリセット、及びアナログ信号処理が、読出回路110Aによって行われる。なお、光電変換素子42によって露光が行われる期間は、アナログ画像データ70Aの読み出し及び光電変換素子42に対するリセットが行われていない期間である。デジタル信号処理は、デジタル処理回路110Bによって行われる。デジタル信号処理が行われることによって得られたデジタル画像データ70Bは、制御回路110Cによってメモリ112に記憶される。
 出力処理では、デジタル画像データ70Bの取得、及び出力用画像データ70B1の出力が行われる。すなわち、出力処理では、先ず、制御回路110Cが、メモリ112からのデジタル画像データ70Bを取得する。そして、制御回路110Cは、デジタル画像データ70Bを縮小することで出力用画像データ70B1を生成し、生成した出力用画像データ70B1を、出力I/F110D2を介して信号処理回路34に出力する。
 一例として図9に示すように、信号処理回路34は、生成回路34Cを備えている。生成回路34Cには、受付I/F34A及び出力I/F34Bが接続されている。撮像素子38の出力I/F110D2から出力された出力用画像データ70B1は、受付I/F34Aによって受け付けられる。受付I/F34Aによって受け付けられた出力用画像データ70B1は生成回路34Cによって取得される。生成回路34Cは、受付I/F34Aから取得した出力用画像データ70B1を縮小することでライブビュー画像データ70B2を生成する。ライブビュー画像データ70B2は、出力用画像データ70B1よりも低解像度の画像データである。なお、ライブビュー画像データ70B2は、本開示の技術に係る「表示用画像データ」の一例である。
 生成回路34Cは、生成した得たライブビュー画像データ70B2を、出力I/F34Bを介してコントローラ15に出力する。コントローラ15は、出力I/F34Bから出力されたライブビュー画像データを受け付け、受け付けたライブビュー画像データ70B2により示されるライブビュー画像をディスプレイ26に表示する。図9に示す例では、ライブビュー画像として、本開示の技術に係る「特定の被写体」及び「移動体」の一例である鳥を示す特定被写体画像200と、鳥の背景を示す背景画像とを含む画像が示されている。背景画像には、林(図9に示す例では、2本の樹木)を示す画像が含まれている。なお、特定被写体画像200は、本開示の技術に係る「移動体画像」の一例である。
 一例として図10に示すように、タッチパネル28は、指示領域情報を受け付ける。指示領域情報とは、ライブビュー画像内のうちの一部の閉領域である領域200Aを指示する情報を指す。領域200Aは、後述する第1検出回路34D及び第2検出回路34E(図11参照)が特定被写体画像200の検出を行う検出対象領域としてユーザによって指示された領域である。
 指示領域情報は、例えば、タッチパネル28に対してユーザの指11によってタッチ操作が行われることで、タッチパネル28によって受け付けられる。この場合、ライブビュー画像内のうちのタッチパネル28に対して指11が接触した位置に対応する位置を中心とした既定半径(例えば、数ミリメートル)の円形状領域が領域200Aとして規定される。ここでは、タッチパネル28に対するタッチ操作によって既定の大きさ及び形状の領域200Aが定められているが、領域200Aを規定する方法はこれに限定されない。例えば、指示領域情報は、タッチパネル28に対して閉領域の輪郭を描くようにスワイプ操作が行われることで、タッチパネル28によって受け付けられるようにしてもよい。この場合、ライブビュー画像内のうちのタッチパネル28に対してスワイプ操作が行われることで描かれた閉領域が領域200Aとして規定される。
 図10に示す例では、タッチパネル28によって受け付けられた指示領域情報によって指示された領域200Aが示されているが、指示領域情報によって領域200Aが指示されなくても本開示の技術は成立する。この場合、例えば、ライブビュー画像内の既定領域が、第1検出回路34D及び第2検出回路34E(図11参照)による検出対象領域として用いられるようにすればよい。既定領域とは、例えば、ライブビュー画像の全体領域、又は、ライブビュー画像内のうちの予め設定された一部領域を指す。
 指示領域情報は、ユーザの指11によってタッチパネル28が操作されることで、タッチパネル28によって受け付けられる。図10に示す例では、領域200Aとして、円状領域が例示されているが、これはあくまでも一例に過ぎず、領域200Aの形状は、多角形等の他の形状であってもよいし、タッチパネル28内のうちの指11が接触した領域の形状であってもよい。また、ここでは、指11を例示しているが、タッチパネル28が検知可能なスタイラスペン等の指示体であればよい。
 領域200Aの輪郭(図10に示す例では、円形枠)は、例えば、ユーザの指11によってタッチパネル28がタッチされることで、タッチされた位置に表示される。領域200Aの大きさは固定されていてもよいが、調節可能であってもよい。領域200Aの大きさが調節可能な場合、例えば、タッチパネル28に対するピンチイン操作及びピンチアウト操作等によって領域200Aの大きさが調節される。
 図10に示す例では、領域200Aに特定被写体画像200が含まれている態様(領域200Aの円形枠が特定被写体画像200を取り囲んでいる態様)が示されているが、本開示の技術はこれに限定されない。例えば、ライブビュー画像内のうちの特定被写体画像200が未だに含まれていない一部の閉領域(例えば、特定被写体画像200の移動先としてユーザによって予想された領域)が領域200Aとしてユーザによってタッチパネル28等を介して指示されるようにしてもよい。なお、図10に示す例において、領域200A内に含まれている特定被写体画像200は、本開示の技術に係る「指示された移動体を示す移動体画像」の一例である。
 一例として図11に示すように、信号処理回路34は、上述した受付I/F34A、出力I/F34B、及び生成回路34Cの他に、第1検出回路34D、第2検出回路34E、記憶回路34F、フレームメモリ34G、受付I/F34H、及び記憶制御回路34Jを備えている。なお、フレームメモリ34Gは、本開示の技術に係る「記憶部」の一例である。
 受付I/F34Hは、受付I/F34Aと同様の構成を有しており、コントローラ15に接続されている。コントローラ15は、タッチパネル28によって受け付けられた指示領域情報を取得し、取得した指示領域情報を信号処理回路34の受付I/F34Hに出力する。受付I/F34Hは、コントローラ15から出力された指示領域情報を受け付ける。受付I/F34Hによって受け付けられた指示領域情報は、第1検出回路34D及び第2検出回路34Eによって取得される。
 記憶回路34Fには、検出用参照情報が記憶されている。第1検出回路34D及び第2検出回路34Eは、画像データにより示される画像から、検出用参照情報を参照して特定被写体画像200を検出する。検出用参照情報としては、例えば、画像データから特定被写体画像200を検出するのに要する複数のサンプル画像(例えば、鳥を示すサンプル画像)、及び/又は、複数のサンプル画像の各々が解析されることで得られた特徴量を示す情報(以下、「特徴量情報」と称する)等が挙げられる。特徴量情報としては、例えば、複数のサンプル画像の各々に対してフーリエ変換が行われることによって得られた周波数特性を示す情報等が挙げられる。なお、特徴量情報は、畳み込みニューラルネットワークを用いた機械学習によっても得ることができる。
 検出用参照情報は、記憶回路34Fに予め記憶されていてもよいし、コントローラ15の制御下で、記憶制御回路34Jによって記憶回路34Fに記憶されるようにしてもよい。
 ここで、検出用参照情報としてサンプル画像が用いられる場合、コントローラ15は、ディスプレイ26にライブビュー画像が表示されている状態でタッチパネル28を介してユーザによって指定された画像(例えば、ライブビュー画像内のうちの鳥を示す画像)をサンプル画像として取得する。なお、これに限らず、コントローラ15は、外部I/F104(図4参照)を介して外部装置からサンプル画像を取得するようにしてもよい。このようにして得られたサンプル画像は、コントローラ15によって信号処理回路34に出力される。
 コントローラ15から出力されたサンプル画像は、受付I/F34Hによって受け付けられる。記憶制御回路34Jは、受付I/F34Hによって受け付けられたサンプル画像を記憶回路34Fに対して記憶させる。
 なお、検出用参照情報として特徴量情報が用いられる場合であっても、サンプル画像と同様に、コントローラ15によって特徴量情報が取得される。そして、コントローラ15によって取得された特徴量情報は、コントローラ15の制御下で、記憶制御回路34Jによって記憶回路34Fに記憶される。
 生成回路34Cは、ライブビュー画像データ70B2を縮小する処理を行い、これによって得た縮小画像データ70B3を第1検出回路34Dに出力する。縮小画像データ70B3は、ライブビュー画像データ70B2よりも低解像度な画像データである。なお、ここで、ライブビュー画像データ70B2は、本開示の技術に係る「縮小前の画像データである縮小前画像データ」の一例である。
 生成回路34Cは、ライブビュー画像データ70B2をフレームメモリ34G及び出力I/F34Bに出力する。出力I/F34Bは、生成回路34Cから入力されたライブビュー画像データ70B2をコントローラ15に出力する。
 フレームメモリ34Gには、撮像されることで得られた画像データが記憶される。具体的には、フレームメモリ34Gは、FIFO方式のメモリであり、ライブビュー画像データ70B2をフレーム単位で記憶する。
 第1検出回路34Dは、第1検出処理を行う。第1検出処理とは、生成回路34Cによって出力用画像データ70B1が縮小されることで得られた縮小画像データ70B3により示される画像(以下、「縮小画像」とも称する)から特定被写体画像200を検出する処理を指す。第1検出処理では、記憶回路34Fの検出用参照情報が用いられる。すなわち、第1検出回路34Dは、縮小画像から、検出用参照情報を参照して特定被写体画像200を検出する。
 第1検出回路34Dは、第1検出処理の検出結果を示す第1検出結果情報を第2検出回路34E及び出力I/F34Bに出力する。第1検出結果情報には、第1検出処理が成功したか否かを示す第1検出処理成否情報が含まれている。また、第1検出処理が成功した場合、第1検出結果情報には追尾枠情報が含まれる。追尾枠情報とは、追尾枠200Bを示す情報を指す。第1検出結果情報に含まれる追尾枠情報には、縮小画像内での追尾枠200Bの位置を特定する位置特定情報(例えば、座標)も含まれている。追尾枠200Bは、特定被写体画像200を追尾する枠であり、図11に示す例では、特定被写体画像200を取り囲み、かつ、領域200Aを取り囲む矩形状の枠が追尾枠200Bとして示されている。なお、ここでは、追尾枠200Bとして、矩形状の枠が示されているが、他の形状の枠であってもよい。また、ここでは、追尾枠200Bとして、特定被写体画像200及び領域200Aを取り囲む枠が例示されているが、本開示の技術はこれに限らず、追尾枠200Bは、特定被写体画像200及び領域200Aのうちの特定被写体画像200のみを取り囲む枠であってもよい。
 第2検出回路34Eは、フレームメモリ34Gに記憶されているライブビュー画像データ70B2に対して第2検出処理を行う。具体的には、第2検出回路34Eは、第1検出回路34Dによって第1検出処理が実行されることで特定被写体画像200が検出されなかった場合に、フレームメモリ34Gから1フレーム分のライブビュー画像データ70B2を取得し、取得したライブビュー画像データ70B2により示されるライブビュー画像から特定被写体画像200を検出する。
 なお、第2検出回路34Eは、第1検出回路34Dによって第1検出処理が実行されることで特定被写体画像200が検出されなかったか否かの判定を、第1検出回路34Dから入力された第1検出結果情報に含まれる第1検出処理成否情報を参照して行う。第1検出処理が実行されることで特定被写体画像200が検出されなかった場合、すなわち、第1検出処理成否情報が、第1検出処理が成功しなかったことを示す情報の場合、第2検出回路34Eは、フレームメモリ34Gに記憶されているライブビュー画像データ70B2に対して第2検出処理を行う。
 第2検出回路34Eは、第2検出処理の検出結果を示す第2検出結果情報を出力I/F34Bに出力する。第2検出結果情報には、第2検出処理が成功したか否かを示す第2検出処理成否情報が含まれている。また、第2検出処理が成功した場合、第2検出結果情報には追尾枠情報が含まれる。第2検出結果情報に含まれる追尾枠情報には、ライブビュー画像内での追尾枠200Bの位置を特定する位置特定情報(例えば、座標)も含まれている。
 なお、以下では、説明の便宜上、第1検出結果情報と第2検出結果情報とを区別して説明する必要がない場合、「検出結果情報」と称する。また、以下では、説明の便宜上、第1検出処理と第2検出処理とを区別して説明する必要がない場合、「検出処理」と称する。
 出力I/F34Bは、第1検出回路34Dから第1検出結果情報が入力された場合、第1検出結果情報をコントローラ15に出力し、第2検出回路34Eから第2検出結果情報が入力された場合、第2検出結果情報をコントローラ15に出力する。コントローラ15は、出力I/F34Bから入力された検出結果情報により示される検出結果、すなわち、検出処理での検出結果をディスプレイ26に表示する。図11に示す例では、特定被写体画像200を取り囲むように追尾枠200Bが検出処理での検出結果としてライブビュー画像に重畳して表示されている。
 図12には、デジタル画像データ70B、出力用画像データ70B1、ライブビュー画像データ70B2、及び縮小画像データ70B3の関係性の一例を示す概念図が示されている。一例として図12に示すように、デジタル画像データ70Bは、出力用画像データ70B1、ライブビュー画像データ70B2、及び縮小画像データ70B3という3つの画像データに縮小される。nを1以上の整数とした場合、出力用画像データ70B1は、デジタル画像データ70Bの「2n-1」行目の画素群によって形成された画像データである。また、ライブビュー画像データ70B2は、「2n-1」行目の画素群から「6n+1」行目の画素群を除いた画素群によって形成された画像データである。更に、縮小画像データ70B3は、「2n-1」行目の画素群から「6n+1」行目の画素群及び「6n-3」行目の画素群を除いた画素群によって形成された画像データである。
 このように、出力用画像データ70B1は、デジタル画像データ70Bよりも低解像度な画像データであり、ライブビュー画像データ70B2は、出力用画像データ70B1よりも低解像度な画像データであり、縮小画像データ70B3は、ライブビュー画像データ70B2よりも低解像度な画像データである。
 なお、図12では、画像データが水平ライン単位で間引かれることで画像データが縮小される例を挙げているが、本開示の技術はこれに限定されない。例えば、画像データが垂直ライン単位で間引かれることで画像データが縮小されるようにしてもよいし、画像データが水平ライン単位及び垂直ライン単位で間引かれることで画像データが縮小されるようにしてもよく、画像データを縮小させる方法は如何なる方法であってもよい。
 図13Aには、第1検出処理が成功した場合のディスプレイ26の表示内容の一例を示す画面図が示されている。図13Bには、第1検出処理が失敗し、第2検出処理が成功した場合のディスプレイ26の表示内容の一例を示す画面図が示されている。図13Cには、第1検出処理及び第2検出処理が共に失敗した場合のディスプレイ26の表示内容の一例を示す画面図が示されている。
 一例として図13Aに示すように、第1検出処理が成功した場合、ディスプレイ26には、コントローラ15の制御下で、特定被写体画像200を取り囲むように、第1検出結果情報に含まれる追尾枠情報により示される追尾枠200Bが第1検出処理での検出結果としてライブビュー画像に重畳して表示される。
 一例として図13Bに示すように、特定被写体画像200は、特定被写体画像200の色合いと背景画像(図13Bに示す例では、林を示す画像)の色合いとが同化している。そのため、特定被写体画像200と背景画像との境界が第1検出回路34Dによって検出されず、縮小画像データ70B3を用いた第1検出処理が失敗している。しかし、縮小画像データ70B3よりも高解像度なライブビュー画像データ70B2を用いた第2検出処理は成功している。これは、ライブビュー画像データ70B2は、縮小画像データ70B3よりも高解像度であり、特定被写体画像200と背景画像との境界が第2検出回路34Eによって検出されたからである。この場合、ディスプレイ26には、コントローラ15の制御下で、特定被写体画像200を取り囲むように、第2検出結果情報に含まれる追尾枠情報により示される追尾枠200Bが第2検出処理での検出結果としてライブビュー画像に重畳して表示される。
 一例として図13Cに示すように、第1検出処理が失敗し、かつ、第2検出処理も失敗した場合、ディスプレイ26には、第2検出処理が失敗したことを示すメッセージ202が第2検出処理での検出結果としてライブビュー画像に重畳して表示される。図13Cに示す例では、メッセージ202として、「注目被写体が検出されていません。」というメッセージが示されているが、本開示の技術はこれに限定されず、特定被写体画像200が検出されなかったことをユーザに報知可能なメッセージ及び/又は画像であれば如何なる情報であってもよい。また、メッセージ及び/画像による可視報知に代えて、又は、併用して、音声再生装置(図示省略)による可聴報知、光源(図示省略)を点灯又は点滅させる可視報知、及び/又は、バイブレータ(図示省略)を特殊な振動パターンで振動を発生させる触覚報知がコントローラ15の制御下で行われるようにしてもよい。
 図14には、1フレーム目(1F)~4フレーム目(4F)の画像データに対する処理のタイミングの一例が示されている。図14に示す1F~4Fの“F”とは、“Frame”の略称を指す。なお、以下では、説明の便宜上、追尾枠200B及びメッセージ202を区別して説明する必要がない場合、「撮像支援情報」と称する。
 一例として図14に示すように、垂直同期信号が受付I/F110D1によって受け付けられる毎に、光電変換素子42からの1フレーム分のアナログ画像データ70Aの読み出しが開始される。図14に示す例では、1回目~4回目の垂直同期信号が受付I/F110D1によって順次に受け付けられ、1フレーム目~4フレーム目のアナログ画像データ70Aの読み出しが開始される。
 アナログ画像データ70Aの読み出しは、光電変換素子42の1行目の水平ラインから最終行の水平ラインにかけて水平同期信号に従って1ライン毎に行われ、1ライン毎に読み出しが終了すると、読み出しが終了した水平ラインの各画素はリセットされる。アナログ画像データ70Aは、デジタル画像データ70Bに変換され、読み出されたアナログ画像データ70Aのフレームの順(撮像順)に、デジタル画像データ70Bがメモリ112に1フレーム単位で区別可能に、かつ、FIFO方式で記憶される。
 制御回路110Cは、メモリ112からフレーム単位でデジタル画像データ70Bを取得し、取得したデジタル画像データ70Bを縮小することで出力用画像データ70B1を生成する。そして、制御回路110Cは、出力用画像データ70B1を、出力I/F110D2を介して信号処理回路34に出力する。
 信号処理回路34において、生成回路34Cは、出力用画像データ70B1を縮小することでライブビュー画像データ70B2を生成する。各フレームにおいて、生成回路34Cによってライブビュー画像データ70B2が生成されると、生成されたライブビュー画像データ70B2により示されるライブビュー画像がディスプレイ26に表示される。
 また、生成回路34Cは、ライブビュー画像データ70B2を縮小することで縮小画像データ70B3を生成する。各フレームにおいて、生成回路34Cによって縮小画像データ70B3が生成されると、生成された縮小画像データ70B3は、第1検出処理で用いられる。
 図14に示す例では、1フレーム目及び4フレーム目の縮小画像データ70B3を用いた第1検出処理は成功し、上述したように追尾枠200Bがライブビュー画像に重畳して表示される(図13A参照)。
 一方、2フレーム目及び3フレーム目の縮小画像データ70B3を用いた第1検出処理は失敗している。この場合、ライブビュー画像データ70B2が第2検出処理で用いられる。ライブビュー画像データ70B2は、縮小画像データ70B3よりも高解像度な画像データであるため、第2検出回路34Eでは、第1検出処理よりも高精度な第2検出処理が実行される。
 図14に示す例では、2フレーム目のライブビュー画像データ70B2を用いた第2検出処理は成功し、上述したように追尾枠200Bがライブビュー画像に重畳して表示される(図13B参照)。一方、3フレーム目のライブビュー画像データ70B2を用いた第2検出処理は失敗し、上述したようにメッセージ202がライブビュー画像に重畳して表示される(図13C参照)。
 次に、本第1実施形態に係る撮像装置10の作用について図15A及び図15Bを参照しながら説明する。なお、図15A及び図15Bには、後段回路13によって実行される後段回路処理の流れの一例が示されている。
 図15Aに示す後段回路処理では、先ず、ステップST10で、生成回路34Cは、受付I/F34Aによって出力用画像データ70B1が受け付けられたか否かを判定する。ステップST10において、受付I/F34Aによって出力用画像データ70B1が受け付けられていない場合は、判定が否定されて、後段回路処理は、図15Bに示すステップST40へ移行する。ステップST10において、受付I/F34Aによって出力用画像データ70B1が受け付けられた場合は、判定が肯定されて、後段回路処理はステップST11へ移行する。
 ステップST11で、生成回路34Cは、受付I/F34Aによって受け付けられた出力用画像データ70B1を縮小することでライブビュー画像データ70B2を生成し、その後、後段回路処理はステップST12へ移行する。
 ステップST12で、生成回路34Cは、ライブビュー画像データ70B2をフレームメモリ34Gに対して記憶させ、かつ、出力I/F34Bを介してコントローラ15にライブビュー画像データ70B2を出力し、その後、後段回路処理はステップST14へ移行する。
 ステップST14で、コントローラ15は、ライブビュー画像データ70B2により示されるライブビュー画像をディスプレイ26に表示し、その後、後段回路処理はステップST16へ移行する。
 ステップST16で、生成回路34Cは、ライブビュー画像データ70B2を縮小することで縮小画像データ70B3を生成し、その後、後段回路処理はステップST18へ移行する。
 ステップST18で、第1検出回路34Dは、縮小画像データ70B3及び検出用参照情報を用いて第1検出処理を実行し、その後、後段回路処理はステップST20へ移行する。
 ステップST20で、第1検出回路34Dは、第1検出処理が失敗したか否かを判定する。ステップST20において、第1検出処理が成功した場合は、判定が否定されて、後段回路処理はステップST22へ移行する。ステップST20において、第1検出処理が失敗した場合は、判定が肯定されて、後段回路処理はステップST26へ移行する。
 ステップST22で、第1検出回路34Dは、第1検出処理が成功したことを示す第1検出処理成否情報を含む第1検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST24へ移行する。
 ステップST24で、コントローラ15は、第1検出結果情報に含まれる追尾枠情報により示される追尾枠200B入りのライブビュー画像をディスプレイ26に表示する。すなわち、コントローラ15は、一例として図13Aに示すように、ライブビュー画像に対して追尾枠200Bを重畳させて表示し、その後、後段回路処理は、図15Bに示すステップST40へ移行する。
 ステップST26で、第1検出回路34Dは、第1検出処理が失敗したことを示す第1検出処理成否情報を含む第1検出結果情報を第2検出回路34Eに出力し、その後、後段回路処理は、図15Bに示すステップST28へ移行する。
 図15Bに示すステップST28で、第2検出回路34Eは、ライブビュー画像データ70B2及び検出用参照情報を用いて第2検出処理を実行し、その後、後段回路処理はステップST30へ移行する。
 ステップST30で、第2検出回路34Eは、第2検出処理が成功したか否かを判定する。ステップST30において、第2検出処理が失敗した場合は、判定が否定されて、後段回路処理はステップST32へ移行する。ステップST30において、第2検出処理が成功した場合は、判定が肯定されて、後段回路処理はステップST36へ移行する。
 ステップST32で、第2検出回路34Eは、第2検出処理が失敗したことを示す第2検出処理成否情報を含む第2検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST34へ移行する。
 ステップST34で、コントローラ15は、メッセージ202入りのライブビュー画像をディスプレイ26に表示する。すなわち、コントローラ15は、一例として図13Cに示すように、ライブビュー画像に対してメッセージ202を重畳させて表示し、その後、後段回路処理はステップST40へ移行する。
 ステップST36で、第2検出回路34Eは、第2検出処理が成功したことを示す第2検出処理成否情報を含む第2検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST38へ移行する。
 ステップST38で、コントローラ15は、第2検出結果情報に含まれる追尾枠情報により示される追尾枠200B入りのライブビュー画像をディスプレイ26に表示する。すなわち、コントローラ15は、一例として図13Bに示すように、ライブビュー画像に対して追尾枠200Bを重畳させて表示し、その後、後段回路処理はステップST40へ移行する。
 ステップST40で、コントローラ15は、後段回路処理を終了する条件(以下、「後段回路処理終了条件」と称する)を満足したか否かを判定する。後段回路処理終了条件の一例としては、後段回路処理を終了させる指示が受付デバイス84(図4参照)によって受け付けられた、との条件が挙げられる。ステップST40において、後段回路処理終了条件を満足していない場合は、判定が否定されて、後段回路処理はステップST10へ移行する。ステップST40において、後段回路処理終了条件を満足した場合は、判定が肯定されて、後段回路処理が終了する。
 以上説明したように、本第1実施形態に係る撮像装置10では、生成回路34Cによってデジタル画像データ70Bが縮小される処理が行われ、縮小画像データ70B3を用いた第1検出処理が第1検出回路34Dによって行われる。そして、第1検出処理により特定被写体画像200が検出されなかった場合に、フレームメモリ34Gに記憶されているライブビュー画像データ70B2を用いた第2検出処理が第2検出回路34Eによって実行される。
 ここで、第2検出処理で用いられるライブビュー画像データ70B2は、第1検出処理で用いられる縮小画像データ70B3よりも高解像度な画像データである。そのため、第2検出処理は、第1検出処理よりも高精度である。また、縮小画像データ70C3が用いられる第1検出回路34Dにかかる処理負荷は、ライブビュー画像データ70B2が用いられる第2検出回路34Eよりも軽く、第2検出回路34Eでの第2検出処理は、第1検出処理が失敗しなければ行われない。従って、本構成によれば、縮小画像データ70B3のみを常に用いて検出処理を行う場合に比べ、処理負荷の軽減及び高精度な検出を実現することができる。
 また、本第1実施形態に係る撮像装置10では、ライブビュー画像データ70B2により示されるライブビュー画像内のうち、指示された特定被写体画像200は、鳥(移動体)を示す画像である。従って、本構成によれば、特定被写体画像200が鳥(移動体)を示す画像であったとしても、検出処理での検出結果から鳥(移動体)を特定することができる。
 また、本実施形態に係る撮像装置10では、ライブビュー画像データ70B2を用いた第2検出処理が第2検出回路34Eによって実行される。従って、本構成によれば、ライブビュー画像データ70B2とは異なり、かつ、第2検出処理のみに用いられる画像データがライブビュー画像データ70B2と共に生成される場合に比べ、処理負荷を軽減することができる。
 更に、本第1実施形態に係る撮像装置10では、第1検出結果情報に含まれる追尾枠情報により示される追尾枠200B入りのライブビュー画像がディスプレイ26に表示される。また、第2検出結果情報に含まれる追尾枠情報により示される追尾枠200B入りのライブビュー画像がディスプレイ26に表示される。更に、メッセージ202入りのライブビュー画像がディスプレイ26に表示される。従って、本構成によれば、検出処理での検出結果をユーザに対して知覚させることができる。
 なお、上記第1実施形態では、第1検出回路34Dによって特定被写体画像200が検出されなかった場合(第1検出処理が失敗した場合)に、第2検出回路34Eによって特定被写体画像200の検出が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第2検出回路34Eは、特定被写体画像200とは異なる被写体を示す画像を検出してもよい。特定被写体画像200とは異なる被写体を示す画像としては、特定被写体画像200よりも小型の被写体を示す画像(例えば、特定被写体画像200に含まれる特定部位を示す画像)、人物の顔を示す画像、及び/又は人物の瞳を示す画像等が挙げられる。
 また、上記第1実施形態では、撮像素子38として積層型撮像素子を例示したが、本開示の技術はこれに限定されず、積層型撮像素子に代えて非積層型の撮像素子を用いても本開示の技術は成立する。
 [第2実施形態]
 上記第1実施形態では、鳥を示す画像が特定被写体画像200として検出される形態例を挙げて説明したが、本第2実施形態では、人物の顔及び瞳が検出対象の場合について説明する。なお、本第2実施形態では、上記第1実施形態と同一の構成要素については同一の符号を付し、その説明を省略する。
 一例として図16に示すように、本第2実施形態に係る第1検出処理は、上記第1実施形態で説明した特定被写体画像200に相当する画像として、人物の顔を示す顔画像300Aと、人物の瞳を示す瞳画像300Bとを検出する処理である。なお、顔画像300A及び瞳画像300Bを検出する技術は、公知技術であるので、ここでの詳細な説明は省略する。
 第1検出回路34Dは、縮小画像データ70B3により示される縮小画像から、顔画像300Aを検出し、検出した顔画像300Aから、瞳画像300Bを検出する。図16に示す例では、人物の顔よりも小型な被写体として、人物の左瞳及び右瞳が示されている。また、図16に示す例では、瞳画像300Bとして、人物の左瞳を示す左瞳画像300B1と、人物の右瞳を示す右瞳画像300B2とが示されている。
 なお、本第2実施形態において、人物の顔は、本開示の技術に係る「特定の被写体」の一例であり、顔画像300Aは、本開示の技術に係る「特定被写体画像」の一例であり、左瞳画像300B1及び右瞳画像300B2は、本開示の技術に係る「小型被写体画像」の一例である。
 第1検出回路34Dは、上記第1実施形態と同様に、第1検出結果情報をコントローラ15及び第2検出回路34Eに出力する。第1検出結果情報は、第1検出回路34Dによる顔画像300Aの検出結果を示す第1顔検出結果情報と、第1検出回路34Dによる瞳画像300Bの検出結果を示す第1瞳検出結果情報とに大別される。なお、以下では、第1顔検出結果情報と第1瞳検出結果情報とを区別して説明する必要がない場合、「第1検出結果情報」と称する。
 第1検出結果情報には、第1検出処理成否情報及び追尾枠情報が含まれている。本第2実施形態に係る第1検出結果情報に含まれる第1検出処理成否情報は、第1検出回路34Dでの顔画像300Aの検出の成否を示す情報、及び第1検出回路34Dでの瞳画像300Bの検出の成否を示す情報である。
 本第2実施形態に係る第1検出結果情報に含まれる追尾枠情報は、顔画像300A及び瞳画像300Bを追尾する枠を示す情報である。図16に示す例では、顔画像300Aを追尾する枠として、顔画像300Aの領域を画定する矩形状枠300A1が示されている。また、図16に示す例では、瞳画像300Bを追尾する枠として、左瞳画像300B1の領域を画定する矩形状枠300B1aと、右瞳画像300B2の領域を画定する矩形状枠300B2aとが示されている。また、本第2実施形態に係る第1検出結果情報に含まれる追尾枠情報には、縮小画像内での矩形状枠300A1,300B1a及び300B2aの位置を特定する位置特定情報(例えば、座標)も含まれている。
 一例として図17に示すように、第2検出回路34Eは、顔画像検出回路34E2及び瞳画像検出回路34E3を備えている。第1検出回路34Dから、第1検出処理が失敗したことを示す第1検出処理成否情報が含まれる第1検出結果情報が第2検出回路34Eに出力され、第2検出回路34Eによって受け付けられると、顔画像検出回路34E2は、フレームメモリ34Gからライブビュー画像データ70B2を取得する。顔画像検出回路34E2は、フレームメモリ34Gから取得したライブビュー画像データ70B2により示されるライブビュー画像から顔画像300Aを検出する。また、瞳画像検出回路34E3は、顔画像検出回路34E2によって検出された顔画像300Aから瞳画像300Bを検出する。
 第2検出回路34Eは、上記第1実施形態と同様に、第2検出結果情報をコントローラ15に出力する。第2検出結果情報は、顔画像検出回路34E2による顔画像300Aの検出結果を示す第2顔検出結果情報と、瞳画像検出回路34E3による瞳画像300Bの検出結果を示す第2瞳検出結果情報とに大別される。なお、以下では、第2顔検出結果情報と第2瞳検出結果情報とを区別して説明する必要がない場合、「第2検出結果情報」と称する。
 第2検出結果情報には、第2検出処理成否情報及び追尾枠情報が含まれている。本第2実施形態に係る第2検出結果情報に含まれる第2検出処理成否情報は、顔画像検出回路34E2での顔画像300Aの検出の成否を示す情報、及び瞳画像検出回路34E3での瞳画像300Bの検出の成否を示す情報である。本第2実施形態に係る第2検出結果情報に含まれる追尾枠情報は、本第2実施形態に係る第1検出結果情報に含まれる追尾枠情報と同様に、顔画像300A及び瞳画像300Bを追尾する枠を示す情報である。また、本第2実施形態に係る第1検出結果情報に含まれる追尾枠情報には、ライブビュー画像内での矩形状枠300A1,300B1a及び300B2aの位置を特定する位置特定情報(例えば、座標)も含まれている。
 図18Aには、第1検出回路34Dによって縮小画像データ70B3により示される縮小画像から顔画像300Aが検出され、かつ、縮小画像から瞳画像300Bが検出された場合のディスプレイ26の表示態様の一例が示されている。一例として図18Aに示すように、ディスプレイ26には、ライブビュー画像が表示され、かつ、矩形状枠300A1が、顔画像300Aを取り囲むようにライブビュー画像に対して重畳して表示される。また、ディスプレイ26には、矩形状枠300B1aが、左瞳画像300B1を取り囲むようにライブビュー画像に対して重畳して表示され、かつ、矩形状枠300B2aは、右瞳画像300B2を取り囲むようにライブビュー画像に対して重畳して表示される。
 図18Bには、第1検出回路34Dによる第1検出処理、及び第2検出回路34Eによる第2検出処理が何れも失敗した場合のディスプレイ26の表示態様の一例が示されている。本第2実施形態において、第2検出処理とは、顔画像検出回路34E2が顔画像300Aを検出する処理、及び瞳画像検出回路34E3が瞳画像300Bを検出する処理を指す。一例として図18Bに示すように、ディスプレイ26には、ライブビュー画像が表示され、かつ、顔画像300Aの検出と瞳画像300Bの検出とが共に失敗したことを示すメッセージM1が表示される。
 図18Bに示す例では、メッセージM1として、「顔・瞳検出失敗」というメッセージが示されているが、これはあくまでも一例に過ぎず、顔画像300Aの検出と瞳画像300Bの検出とが共に失敗したことをユーザに対して報知可能なメッセージ及び/又は画像であれば如何なる情報であってもよい。また、メッセージ及び/画像による可視報知に代えて、又は、併用して、音声再生装置(図示省略)による可聴報知、光源(図示省略)を点灯又は点滅させる可視報知、及び/又は、バイブレータ(図示省略)を特殊な振動パターンで振動を発生させる触覚報知がコントローラ15の制御下で行われるようにしてもよい。
 図18Cには、第1検出回路34D又は第2検出回路34Eによって顔画像300Aの検出は成功したが、瞳画像300Bの検出は失敗した場合のディスプレイ26の表示態様の一例が示されている。一例として図18Cに示すように、ディスプレイ26には、ライブビュー画像が表示され、かつ、矩形状枠300A1が、顔画像300Aを取り囲むようにライブビュー画像に対して重畳して表示される。また、ディスプレイ26には、瞳画像300Bの検出が失敗したことを示すメッセージM2が表示される。
 図18Cに示す例では、メッセージM2として、「瞳検出失敗」というメッセージが示されているが、これはあくまでも一例に過ぎず、瞳画像300Bの検出が失敗したことをユーザに対して報知可能なメッセージ及び/又は画像であれば如何なる情報であってもよい。また、メッセージ及び/画像による可視報知に代えて、又は、併用して、音声再生装置(図示省略)による可聴報知、光源(図示省略)を点灯又は点滅させる可視報知、及び/又は、バイブレータ(図示省略)を特殊な振動パターンで振動を発生させる触覚報知がコントローラ15の制御下で行われるようにしてもよい。
 図19には、1フレーム目(1F)~5フレーム目(5F)の画像データに対する処理のタイミングの一例が示されている。図19に示す1F~5Fの“F”とは、“Frame”の略称を指す。なお、図19に示す例において、図14に示す例と重複する処理については説明を省略する。また、以下では、説明の便宜上、第1検出回路34Dが縮小画像から顔画像300Aを検出する処理を「第1顔検出処理」とも称し、第1検出回路34Dが縮小画像から瞳画像300Bを検出する処理を「第1瞳検出処理」とも称する。また、以下では、説明の便宜上、顔画像検出回路34E2がライブビュー画像から顔画像300Aを検出する処理を「第2顔検出処理」とも称し、瞳画像検出回路34E3がライブビュー画像から瞳画像300Bを検出する処理を「第2瞳検出処理」とも称する。
 図19に示す例では、1フレーム目の縮小画像データ70B3を用いた第1顔検出処理は成功している。この場合、第1検出回路34Dでは、縮小画像データ70B3のうち、第1顔検出処理によって検出された顔画像300Aに相当する領域を示す一部の縮小画像データ70B3を用いた第1瞳検出処理が実行される。図19に示す例では、1フレーム目の縮小画像データ70B3を用いた第1瞳検出処理は成功している。この場合、一例として図18Aに示すように、矩形状枠300A1,300B1a及び300B2aがライブビュー画像に重畳して表示される。
 2フレーム目の縮小画像データ70B3を用いた第1顔検出処理は失敗している。この場合、ライブビュー画像データ70B2が顔画像検出回路34E2によって第2顔検出処理に用いられる。ライブビュー画像データ70B2は、縮小画像データ70B3よりも高解像度な画像データであるため、顔画像検出回路34E2では、第1顔検出処理よりも高精度な第2顔検出処理が実行される。
 図19に示す例では、2フレーム目のライブビュー画像データ70B2を用いた第2顔検出処理は成功している。この場合、瞳画像検出回路34E3では、2フレーム目のライブビュー画像データ70B2のうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2を用いた第2瞳検出処理が実行される。ライブビュー画像データ70B2は、縮小画像データ70B3よりも高解像度な画像データであるため、瞳画像検出回路34E3では、第1瞳検出処理よりも高精度な第2瞳検出処理が実行される。図19に示す例では、2フレーム目のライブビュー画像データ70B2を用いた第2瞳検出処理は成功している。このように、第2顔検出処理及び第2瞳検出処理が成功すると、一例として図18Aに示すように、矩形状枠300A1,300B1a及び300B2aがライブビュー画像に重畳して表示される。
 図19に示す例では、3フレーム目の縮小画像データ70B3を用いた第1顔検出処理は失敗している。この場合、ライブビュー画像データ70B2が顔画像検出回路34E2によって第2顔検出処理に用いられる。図19に示す例では、3フレーム目のライブビュー画像データ70B2を用いた第2顔検出処理も失敗している。このように、第1顔検出処理及び第2顔検出処理が失敗すると、一例として図18Bに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM1が表示される。
 図19に示す例では、4フレーム目の縮小画像データ70B3を用いた第1顔検出処理は失敗している。この場合、ライブビュー画像データ70B2が顔画像検出回路34E2によって第2顔検出処理に用いられる。図19に示す例では、4フレーム目のライブビュー画像データ70B2を用いた第2顔検出処理は成功している。この場合、瞳画像検出回路34E3では、4フレーム目のライブビュー画像データ70B2のうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2を用いた第2瞳検出処理が実行される。図19に示す例では、4フレーム目のライブビュー画像データ70B2を用いた第2瞳検出処理は失敗している。この場合、一例として図18Cに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM2が表示される。
 図19に示す例では、5フレーム目の縮小画像データ70B3を用いた第1顔検出処理は成功しているが、5フレーム目の縮小画像データ70B3を用いた第1瞳検出処理は失敗している。この場合、ライブビュー画像データ70B2が顔画像検出回路34E2によって第2顔検出処理に用いられる。図19に示す例では、5フレーム目のライブビュー画像データ70B2を用いた第2顔検出処理は成功している。この場合、5フレーム目のライブビュー画像データ70B2のうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2が第2瞳検出処理に用いられる。図19に示す例では、5フレーム目のライブビュー画像データ70B2を用いた第2瞳検出処理は失敗している。この場合、一例として図18Cに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM2が表示される。
 次に、本第2実施形態に係る撮像装置10の作用について図20A~図20Dを参照しながら説明する。なお、図20A~図20Dには、後段回路13によって実行される後段回路処理の流れの一例が示されている。
 図20Aに示す後段回路処理では、先ず、ステップST100で、生成回路34Cは、受付I/F34Aによって出力用画像データ70B1が受け付けられたか否かを判定する。ステップST100において、受付I/F34Aによって出力用画像データ70B1が受け付けられていない場合は、判定が否定されて、後段回路処理は、図20Dに示すステップST164へ移行する。ステップST100において、受付I/F34Aによって出力用画像データ70B1が受け付けられた場合は、判定が肯定されて、後段回路処理はステップST101へ移行する。
 ステップST101で、生成回路34Cは、受付I/F34Aによって出力用画像データ70B1が受け付けられた出力用画像データ70B1を縮小することでライブビュー画像データ70B2を生成し、その後、後段回路処理はステップST102へ移行する。
 ステップST102で、生成回路34Cは、ライブビュー画像データ70B2をフレームメモリ34Gに対して記憶させ、かつ、出力I/F34Bを介してコントローラ15にライブビュー画像データ70B2を出力し、その後、後段回路処理はステップST104へ移行する。
 ステップST104で、コントローラ15は、ライブビュー画像データ70B2により示されるライブビュー画像をディスプレイ26に表示し、その後、後段回路処理はステップST106へ移行する。
 ステップST106で、生成回路34Cは、ライブビュー画像データ70B2を縮小することで縮小画像データ70B3を生成し、その後、後段回路処理はステップST108へ移行する。
 ステップST108で、第1検出回路34Dは、縮小画像データ70B3を用いて第1顔検出処理を実行し、その後、後段回路処理はステップS110へ移行する。
 ステップST110で、第1検出回路34Dは、第1顔検出処理が成功したか否かを判定する。ステップST110において、第1顔検出処理が成功した場合は、判定が肯定されて、後段回路処理はステップST112へ移行する。ステップST110において、第1顔検出処理が失敗した場合は、判定が否定されて、後段回路処理はステップST116へ移行する。
 ステップST112で、第1検出回路34Dは、第1顔検出処理が成功したことを示す第1検出処理成否情報を含む第1顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理は、図20Dに示すステップST151へ移行する。
 ステップST116で、第1検出回路34Dは、第1顔検出処理が失敗したことを示す第1検出処理成否情報を含む第1顔検出結果情報を、第2検出回路34E及びコントローラ15に出力し、その後、後段回路処理は、図20Bに示すステップST118へ移行する。
 図20Bに示すステップST118で、顔画像検出回路34E2は、ステップST101で生成されたライブビュー画像データ70B2を用いて第2顔検出処理を実行し、その後、後段回路処理はステップST120へ移行する。
 ステップST120で、顔画像検出回路34E2は、第2顔検出処理が成功したか否かを判定する。ステップST120において、第2顔検出処理が成功した場合は、判定が肯定されて、後段回路処理はステップST126へ移行する。ステップST120において、第2顔検出処理が失敗した場合は、判定が否定されて、後段回路処理はステップST122へ移行する。
 ステップST122で、顔画像検出回路34E2は、第2顔検出処理が失敗したことを示す第2検出処理成否情報を含む第2顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST124へ移行する。
 ステップST124で、コントローラ15は、顔画像300Aの検出及び瞳画像300Bの検出が失敗したことを示すメッセージとして、一例として図18Bに示すように、メッセージM1をディスプレイ26に表示し、その後、後段回路処理は、図20Dに示すステップST164へ移行する。
 ステップST126で、顔画像検出回路34E2は、第2顔検出処理が成功したことを示す第2検出処理成否情報を含む第2顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST128へ移行する。
 ステップST128で、コントローラ15は、顔追尾枠入りライブビュー画像をディスプレイ26に表示する。ここで、顔追尾枠とは、例えば、第1検出結果情報に含まれる追尾枠情報により示される矩形状枠300A1を指す。すなわち、ステップST128において、コントローラ15は、ライブビュー画像に対して顔画像300Aを取り囲むように矩形状枠300A1重畳させて表示し、その後、後段回路処理は、図20Cに示すステップST130へ移行する。
 図20Cに示すステップST130で、瞳画像検出回路34E3は、ステップST101で生成されたライブビュー画像データ70B2のうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2を用いて第2瞳検出処理を実行し、その後、後段回路処理はステップST132へ移行する。
 ステップST132で、瞳画像検出回路34E3は、第2瞳検出処理が成功したか否かを判定する。ステップST132において、第2瞳検出処理が成功した場合は、判定が肯定されて、後段回路処理はステップST134へ移行する。ステップST132において、第2瞳検出処理が失敗した場合は、判定が否定されて、後段回路処理はステップST138へ移行する。
 ステップST134で、瞳画像検出回路34E3は、第2瞳検出処理が成功したことを示す第2検出処理成否情報を含む第2顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST136へ移行する。
 ステップST136で、コントローラ15は、瞳追尾枠入りライブビュー画像をディスプレイ26に表示する。ここで、瞳追尾枠とは、例えば、第2検出結果情報に含まれる追尾枠情報により示される矩形状枠300B1a及び300B2aを指す。すなわち、ステップST136において、コントローラ15は、ライブビュー画像に対して左瞳画像300B1を取り囲むように矩形状枠300B1a重畳させて表示し、かつ、ライブビュー画像に対して右瞳画像300B2を取り囲むように矩形状枠300B2a重畳させて表示し、その後、後段回路処理は、図20Dに示すステップST164へ移行する。
 ステップST138で、瞳画像検出回路34E3は、第2瞳検出処理が失敗したことを示す第2検出処理成否情報を含む第2顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST140へ移行する。
 ステップST140で、コントローラ15は、瞳画像300Bの検出が失敗したことを示すメッセージとして、一例として図18Cに示すように、メッセージM2をディスプレイ26に表示し、その後、後段回路処理は、図20Dに示すステップST164へ移行する。
 図20Dに示すステップST151で、コントローラ15は、顔追尾枠入りライブビュー画像をディスプレイ26に表示する。すなわち、ステップST128において、コントローラ15は、ライブビュー画像に対して顔画像300Aを取り囲むように矩形状枠300A1重畳させて表示し、その後、後段回路処理はステップST152へ移行する。
 ステップST152で、第1検出回路34Dは、ステップST101で生成された縮小画像データ70B3のうち、第1顔検出処理によって検出された顔画像300Aに相当する領域を示す一部の縮小画像データ70B3を用いて第1瞳検出処理を実行し、その後、後段回路処理はステップST154へ移行する。
 ステップST154で、第1検出回路34Dは、第1瞳検出処理が成功したか否かを判定する。ステップST154において、第1瞳検出処理が成功した場合は、判定が肯定されて、後段回路処理はステップST160へ移行する。ステップST154において、第1瞳検出処理が失敗した場合は、判定が否定されて、後段回路処理はステップST166へ移行する。
 ステップST160で、第1検出回路34Dは、第1瞳検出処理が成功したことを示す第1検出処理成否情報を含む第1顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST162へ移行する。
 ステップST162で、コントローラ15は、瞳追尾枠入りライブビュー画像をディスプレイ26に表示する。すなわち、ステップST162において、コントローラ15は、ライブビュー画像に対して左瞳画像300B1を取り囲むように矩形状枠300B1a重畳させて表示し、かつ、ライブビュー画像に対して右瞳画像300B2を取り囲むように矩形状枠300B2a重畳させて表示し、その後、後段回路処理は、ステップST164へ移行する。
 ステップST166で、第1検出回路34Dは、第1瞳検出処理が失敗したことを示す第1検出処理成否情報を含む第1顔検出結果情報を、出力I/F34Bを介してコントローラ15に出力し、その後、後段回路処理はステップST168へ移行する。
 ステップST168で、コントローラ15は、瞳画像300Bの検出が失敗したことを示すメッセージとして、一例として図18Cに示すように、メッセージM2をディスプレイ26に表示し、その後、後段回路処理は、ステップST164へ移行する。
 ステップST164で、コントローラ15は、上記第1実施形態で説明した後段回路処理終了条件を満足したか否かを判定する。ステップST164において、後段回路処理終了条件を満足していない場合は、判定が否定されて、後段回路処理はステップST100へ移行する。ステップST164において、後段回路処理終了条件を満足した場合は、判定が肯定されて、後段回路処理が終了する。
 以上説明したように、本第2実施形態に係る撮像装置10では、顔画像検出回路34E2によって、ライブビュー画像データ70B2により示されるライブビュー画像から顔画像300Aが検出される。また、瞳画像検出回路34E3によって、ライブビュー画像データ70B2により示されるライブビュー画像から、顔画像よりも小さな画像である瞳画像300Bが検出される。
 ここで、第2顔検出処理及び第2瞳検出処理で用いられるライブビュー画像データ70B2は、第1顔検出処理及び第1瞳検出処理で用いられる縮小画像データ70B3よりも高解像度な画像データである。そのため、第2顔検出処理及び第2瞳検出処理は、第1顔検出処理及び第1瞳検出処理よりも高精度である。また、縮小画像データ70C3が用いられる第1検出回路34Dにかかる処理負荷は、ライブビュー画像データ70B2が用いられる顔画像検出回路34E2及び瞳画像検出回路34E3よりも軽く、第2顔検出処理及び第2瞳検出処理は、第1顔検出処理及び/又は第1瞳検出処理が失敗しなければ行われない。従って、本構成によれば、第1検出処理のみによって顔画像300A及び瞳画像300Bが検出される場合に比べ、顔画像300A及び瞳画像300Bが検出される可能性を高めることができる。
 なお、本第2実施形態では、本開示の技術に係る「特定の被写体」として人物の顔を例示し、本開示の技術に係る「小型な被写体」として人物の瞳を例示しているが、本開示の技術はこれに限定されない。例えば、本開示の技術に係る「小型な被写体」として、人物の瞳に代えて、又は、人物の瞳と共に、人物の鼻及び/又は口等の部位を適用してもよい。
 また、本開示の技術に係る「特定の被写体」及び「小型な被写体」は、人物の部位である必要はない。例えば、第2検出回路34Eは、ライブビュー画像データ70B2を用いて、人物の顔以外の被写体を示す第1画像と、第1画像により示される被写体よりも小型な被写体を示す第2画像とが検出されるようにしてもよい。第1画像としては、例えば、鳥を示す画像が挙げられ、この場合の第2画像としては、例えば、虫又は植物等の鳥よりも小型な被写体を示す画像が挙げられる。また、これ以外にも、第1画像としては、例えば、樹木を示す画像が挙げられ、この場合の第2画像としては、例えば、鳥及び/又は虫等の樹木よりも小型な被写体を示す画像が挙げられる。従って、本構成によれば、第1検出処理のみによって特定の被写体を示す画像及び特定の被写体よりも小型な被写体を示す画像が検出される場合に比べ、特定の被写体を示す画像及び特定の被写体よりも小型な被写体を示す画像が検出される可能性を高めることができる。
 また、本第2実施形態に係る撮像装置10では、顔追尾枠入りのライブビュー画像がディスプレイ26に表示される(図18A及び図18C参照)。また、瞳追尾枠入りのライブビュー画像がディスプレイ26に表示される(図18A参照)。また、メッセージM1入りのライブビュー画像がディスプレイ26に表示される(図18B参照)。更に、メッセージM2入りのライブビュー画像がディスプレイ26に表示される(図18C参照)。従って、本構成によれば、第1顔検出処理、第1瞳検出処理、第2顔検出処理、及び第2瞳検出処理の各々での検出結果をユーザに対して知覚させることができる。
 なお、上記第2実施形態では、顔画像検出回路34E2が1フレーム分のライブビュー画像データ70B2を用いて顔画像300Aを検出する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第2検出回路34Eは、部分領域画像データに対して第2顔検出処理及び第2瞳検出処理を行うようにしてもよい。部分領域画像データは、1フレーム分のライブビュー画像データ70B2のうちの一部のライブビュー画像データ70B2である。具体的には、部分領域画像データとは、ライブビュー画像データ70B2により示されるライブビュー画像内の部分領域であって、第2顔検出処理及び第2瞳検出処理を行うフレームの前フレームにおいて第1顔検出処理によって検出された顔画像300Aの位置に対応している部分領域を示す画像データを指す。また、ここで、第2顔画像検出処理を行うフレームの前フレームとは、例えば、1フレーム以上前のフレームを指す。
 この場合、一例として図21に示すように、第1検出回路34Dは、第2顔検出処理及び第2瞳検出処理を行うフレームの前フレームの縮小画像データ70B3により示される縮小画像のうちの顔画像300Aの位置に対応している部分領域の位置を特定可能な領域特定データ(例えば、座標)を取得し、取得した領域特定データを記憶回路34Fに対して記憶させる。ここでは、領域特定データの一例として、縮小画像内の矩形状枠300A1の位置を特定可能なデータ(例えば、座標)が採用されている。なお、領域特定データは、縮小画像内の矩形状枠300A1の位置を特定可能なデータに限らず、例えば、顔画像300Aの位置を特定可能なデータ(例えば、座標)であってもよい。
 一例として図22に示すように、生成回路34Cは、ライブビュー画像データ生成回路34C1及び抽出回路34C2を備えている。ライブビュー画像データ生成回路34C1は、撮像素子38から出力用画像データ70B1を取得し、取得した出力用画像データ70B1を縮小することでライブビュー画像データ70B2を生成する。ライブビュー画像データ生成回路34C1は、生成したライブビュー画像データ70B2をコントローラ15及び抽出回路34C2に出力する。
 抽出回路34C2は、ライブビュー画像データ生成回路34C1から入力されたライブビュー画像データ70B2から、記憶回路34Fに記憶されている領域特定データを参照して、部分領域画像データを抽出する。すなわち、抽出回路34C2は、ライブビュー画像データ70B2から、第1検出回路34Dによって検出された顔画像300Aの位置に対応する領域を示す一部のライブビュー画像データ70B2を部分領域画像データとして抽出する。抽出回路34C2は、ライブビュー画像データ70B2から抽出した部分領域画像データを記憶回路34Fに対して記憶させる。なお、本第2実施形態において、部分領域画像データは、本開示の技術に係る「特定被写体画像領域データ」の一例である。また、本第2実施形態において、記憶回路34Fは、本開示の技術に係る「記憶部」の一例である。
 図22に示す例では、記憶回路34Fに部分領域画像データが記憶される形態例が示されているが、これはあくまでも一例に過ぎず、記憶回路34Fとは別に、部分領域画像データ用メモリ(図示省略)を設け、部分領域画像データ用メモリに部分領域画像データが記憶されるようにしてもよい。また、フレームメモリ34G(図11参照)に部分領域画像データがフレーム単位で記憶され、フレームメモリ34Gから第2検出回路34Eによって部分領域画像データがフレーム単位で取得されるようにしてもよい。
 一例として図23に示すように、顔画像検出回路34E2は、記憶回路34Fから部分領域画像データを取得し、取得した部分領域画像データに対して第2顔検出処理を実行する。また、瞳画像検出回路34E3は、記憶回路34Fから部分領域画像データを取得し、取得した部分領域画像データに対して第2瞳検出処理を実行する。
 このように図21~図23に示す例では、第2検出回路34Eによって、部分領域画像データに対して第2顔検出処理及び第2瞳検出処理が行われる。部分領域画像データは、ライブビュー画像データ70B2により示されるライブビュー画像内の部分領域であって、第2顔画像検出処理を行うフレームの前フレームにおいて第1顔検出処理によって検出された顔画像300Aの位置に対応している部分領域を示す画像データである。従って、本構成によれば、1フレーム分以上のライブビュー画像データ70B2に対して第2顔検出処理及び第2瞳検出処理が行われる場合に比べ、第2顔検出処理及び第2瞳検出処理にかかる処理負荷を軽減することができる。
 なお、ここでは、部分領域画像データに対して第2顔検出処理及び第2瞳検出処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、部分領域画像データに対して第2顔検出処理又は第2瞳検出処理が行われるようにしてもよい。
 また、ここでは、抽出回路34C2によって、第1検出処理の検出結果に基づく領域特定データに従って部分領域画像データが抽出される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、ライブビュー画像データ70B2のうち、ユーザによってタッチパネル28を介して指示された領域200Aに対応するライブビュー画像データ70B2が部分領域画像データとして抽出回路34C2によって抽出されるようにしてもよい。この場合、ユーザ意図する部分領域画像データに対して第2検出処理を行うことに寄与することができる。
 また、図21~図23に示す例では、第1顔検出処理によって顔画像300Aが検出された場合、抽出回路34C2によって、ライブビュー画像データ70B2のうち、顔画像300Aの位置に対応する領域を示す部分領域画像データが記憶回路34Fに記憶される。従って、本構成によれば、1フレーム分以上のライブビュー画像データ70B2が記憶回路34Fに記憶される場合に比べ、記憶回路34Fに記憶されるデータ量を少なくすることができる。
 また、図21~図23に示す例では、第1顔検出処理によって顔画像300Aが検出された場合、記憶回路34Fに記憶されている部分領域画像データに対して顔画像検出回路34E2によって第2顔検出処理が行われる。従って、本構成によれば、1フレーム分のライブビュー画像データ70B2のうちの部分領域画像データ以外のライブビュー画像データ70B2に対して第2顔検出処理が行われる場合に比べ、第2顔検出処理によって顔画像300Aが検出される確率を高めることができる。
 更に、図21~図23に示す例では、第1顔検出処理によって顔画像300Aが検出された場合、記憶回路34Fに記憶されている部分領域画像データに対して瞳画像検出回路34E3によって第2瞳検出処理が行われる。従って、本構成によれば、1フレーム分のライブビュー画像データ70B2のうち、部分領域画像データ以外のライブビュー画像データ70B2に対して第2瞳検出処理が行われる場合に比べ、第2瞳検出処理によって瞳画像300Bが検出される確率を高めることができる。
 [第3実施形態]
 上記第2実施形態では、ライブビュー画像データ70B2に対して第2顔検出処理及び第2瞳検出処理が実行される形態例を挙げて説明したが、本第2実施形態では、ライブビュー画像データ70B2のみならず、デジタル画像データ70Bに対しても第2顔検出処理及び第2瞳検出処理が実行される形態例について説明する。なお、本第3実施形態では、上記第2実施形態と同一の構成要素については同一の符号を付し、その説明を省略する。
 一例として図24に示すように、本第3実施形態に係る撮像装置10では、制御回路110Cは、コントローラ15から入力される垂直同期信号に従って、メモリ112からデジタル画像データ70Bを取得する。制御回路110Cは、出力I/F110D2を介して信号処理回路34の受付I/F34Aとパラレル通信可能に接続されており、デジタル画像データ70Bと出力用画像データ70B1とをフレームレートに従って同期させて信号処理回路34に出力する。信号処理回路34では、撮像素子38から出力されたデジタル画像データ70Bと出力用画像データ70B1とが同期したタイミングで受付I/F34Aによって受け付けられる。
 一例として図25に示すように、生成回路34Cは、受付I/F34Aによって同期したタイミングで受け付けられたデジタル画像データ70B及びライブビュー画像データ70B2をフレームメモリ34Gに対して記憶させる。これにより、フレームメモリ34Gには、フレームレートで規定される1フレーム分の期間毎に、解像度の異なる2種類の画像データが記憶される。第2検出回路34Eは、解像度の異なる2種類の画像データに対して、低解像度の画像データから高解像度の画像データにかけて段階的に第2検出処理を行う。すなわち、第2検出回路34Eは、先ず、ライブビュー画像データ70B2に対して第2検出処理を行い、次に、デジタル画像データ70Bに対して第2検出処理を行う。
 図26A~図26Cには、本第3実施形態に係る撮像装置10に含まれる第1検出回路34D及び第2検出回路34Eによる画像データに対する処理のタイミングの一例が示されている。なお、図26A~図26Cに示す例において、図14及び図19に示す例と重複する処理については説明を省略する。また、以下では、説明の便宜上、顔画像検出回路34E2がデジタル画像データ70Bにより示される画像から顔画像300Aを検出する処理を「第3顔検出処理」とも称し、瞳画像検出回路34E3がデジタル画像データ70Bにより示される画像から瞳画像300Bを検出する処理を「第3瞳検出処理」とも称する。本第3実施形態において、第2顔検出処理、第2瞳検出処理、第3顔検出処理、及び第3瞳検出処理は、本開示の技術に係る「第2検出処理」の一例である。
 一例として図26Aに示すように、第1顔検出処理が失敗し、かつ、第2顔検出処理が失敗した場合、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。ここで、第3顔検出処理が成功すると、一例として図18Aに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。また、第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第3顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が実行される。第3瞳検出処理が成功すると、一例として図18Aに示すように、矩形状枠300B1a及び300B2aがライブビュー画像に重畳して表示される。
 一例として図26Aに示すように、第1顔検出処理が失敗し、かつ、第2顔検出処理が成功した場合、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているライブビュー画像データ70B2を用いた第2瞳検出処理が実行される。ここで、第2瞳検出処理が失敗すると、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。ここで、第3顔検出処理が成功すると、一例として図18Aに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。また、第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第3顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が実行される。第3瞳検出処理が成功すると、一例として図18Aに示すように、矩形状枠300B1a及び300B2aがライブビュー画像に重畳して表示される。
 一例として図26Bに示すように、第1顔検出処理が失敗し、かつ、第2顔検出処理が失敗した場合、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。ここで、第3顔検出処理が成功すると、一例として図18Cに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。また、第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第3顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が実行される。第3瞳検出処理が失敗すると、一例として図18Cに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM2が表示される。
 一例として図26Bに示すように、第1顔検出処理が失敗し、かつ、第2顔検出処理が成功した場合、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているライブビュー画像データ70B2を用いた第2瞳検出処理が実行される。ここで、第2瞳検出処理が失敗すると、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。ここで、第3顔検出処理が成功すると、一例として図18Cに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。また、第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第3顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が実行される。第3瞳検出処理が失敗すると、一例として図18Cに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM2が表示される。
 一例として図26Cに示すように、第1顔検出処理が失敗し、かつ、第2顔検出処理が失敗した場合、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。ここで、第3顔検出処理が失敗すると、一例として図18Cに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。また、第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第3顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が実行される。第3瞳検出処理が失敗すると、一例として図18Bに示すように、ディスプレイ26には、ライブビュー画像と共に、メッセージM1が表示される。
 一例として図26Cに示すように、第1顔検出処理が成功し、かつ、第1瞳検出処理が失敗すると、一例として図18Aに示すように、矩形状枠300A1がライブビュー画像に重畳して表示される。顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているライブビュー画像データ70B2を用いた第2顔検出処理が実行される。第1顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているライブビュー画像データ70B2のうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2を用いた第2瞳検出処理が実行される。第2瞳検出処理が失敗すると、顔画像検出回路34E2によって、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3顔検出処理が実行される。第3顔検出処理が成功すると、瞳画像検出回路34E3では、フレームメモリ34Gに記憶されているデジタル画像データ70Bのうち、第2顔検出処理によって検出された顔画像300Aに相当する領域を示す一部のライブビュー画像データ70B2を用いた第3瞳検出処理が実行される。第3瞳検出処理が成功すると、一例として図18Aに示すように、矩形状枠300B1a及び300B2aがライブビュー画像に重畳して表示される。
 以上説明したように、本第3実施形態に係る撮像装置10では、生成回路34Cによってデジタル画像データ70Bが縮小される処理が行われ、縮小画像データ70B3を用いた第1検出処理が第1検出回路34Dによって行われる。そして、第1検出処理により特定被写体画像200が検出されなかった場合に、フレームメモリ34Gに記憶されているライブビュー画像データ70B2及びデジタル画像データ70Bを段階的に用いた第2検出処理が第2検出回路34Eによって実行される。すなわち、ライブビュー画像データ70B2を用いた第2顔検出処理及び第2瞳検出処理が実行され、第2顔検出処理及び/又は第2瞳検出処理の検出処理が失敗した場合に、ライブビュー画像データ70B2よりも高解像度なデジタル画像データ70Bを用いた第3顔検出処理及び第2瞳検出処理が実行される。従って、本構成によれば、ライブビュー画像データ70B2のみを常に用いて第2検出処理を行う場合に比べ、高精度な検出を実現することができる。
 なお、上記第3実施形態では、第2瞳検出処理が失敗すると、顔画像検出回路34E2によって第3顔検出処理が実行されてから、瞳画像検出回路34E3によって第3瞳検出処理が実行されるが、本開示の技術はこれに限定されない。例えば、図27に示すように、第2瞳検出処理が失敗した場合に、第3顔検出処理が実行されることなく、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第3瞳検出処理が瞳画像検出回路34E3によって実行されるようにしてもよい。この場合、図21~図23に示す例のように、領域特定データを参照して、デジタル画像データ70Bのうちの顔画像300Aの位置に対応する領域を示す一部のデジタル画像データ70Bを用いた第3瞳検出処理が瞳画像検出回路34E3によって実行されるようにしてもよい。
 また、図26A~図26Cに示す例では、顔画像検出回路34E2によってデジタル画像データ70Bを用いた第3顔検出処理が実行され、瞳画像検出回路34E3によってデジタル画像データ70Bを用いた第3瞳検出処理が実行される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図28に示すように、顔画像検出回路34E2によって第3顔検出処理及び第4顔検出処理が実行され、瞳画像検出回路34E3によって第3瞳検出処理及び第4瞳検出処理が実行されるようにしてもよい。
 図28に示す例では、第3顔検出処理として、顔画像検出回路34E2によって出力用画像データ70B1を用いた第3顔検出処理が実行され、第3瞳検出処理として、瞳画像検出回路34E3によって出力用画像データ70B1を用いた第3瞳検出処理が実行される。また、第3瞳検出処理が失敗した場合に、顔画像検出回路34E2が第4顔検出処理を実行する。第4顔検出処理とは、デジタル画像データ70Bから顔画像300Aを検出する処理を指す。また、第4顔検出処理が成功した場合に、瞳画像検出回路34E3が第4瞳検出処理を実行する。第4瞳検出処理とは、デジタル画像データ70Bのうち、第4顔検出処理によって検出された顔画像300Aの位置に対応する領域を示す一部のデジタル画像データ70Bを用いて瞳画像300Bを検出する処理を指す。
 なお、図28に示す例では、第3瞳検出処理が失敗すると、顔画像検出回路34E2によって第4顔検出処理が実行されてから、第4瞳検出処理が実行されるが、本開示の技術はこれに限定されない。例えば、第3瞳検出処理が失敗した場合に、第4顔検出処理が実行されることなく、フレームメモリ34Gに記憶されているデジタル画像データ70Bを用いた第4瞳検出処理が瞳画像検出回路34E3によって実行されるようにしてもよい。この場合、図21~図23に示す例のように、領域特定データを参照して、デジタル画像データ70Bのうちの顔画像300Aの位置に対応する領域を示す一部のデジタル画像データ70Bを用いた第4瞳検出処理が瞳画像検出回路34E3によって実行されるようにしてもよい。
 [第4実施形態]
 上記第1実施形態では、1種類の画像データのみがフレームメモリ34Gに記憶される形態例を挙げて説明したが、本第4実施形態では、フレームメモリ34Gに複数種類の画像データが記憶される形態例について説明する。なお、本第4実施形態では、上記第1~第3実施形態と同一の構成要素については同一の符号を付し、その説明を省略する。
 一例として図29に示すように、本第4実施形態に係る撮像装置10に含まれる信号処理回路34は、上記第1~第3実施形態で説明した信号処理回路34に比べ、解析回路34Kを有する点、及び指示領域情報が解析回路34Kに入力される点が異なる。
 解析回路34Kには、生成回路34Cから出力用画像データ70B1が入力される。また、生成回路34Cは、出力用画像データから第1縮小前画像データ及び第2縮小前画像データを生成し、生成した第1縮小前画像データ及び第2縮小前画像データを、既定期間毎に、フレームメモリ34Gに対して記憶させる。既定期間としては、フレームレートで規定される1フレーム分の転送期間に相当する期間が採用されている。なお、既定期間は、これに限らず、例えば、Nを1以上の整数とした場合、フレームレートで規定される2Nフレーム分以上の転送期間に相当する期間が既定期間として採用されてもよい。
 第1縮小前画像データ及び第2縮小前画像データは、第2検出回路34Eで用いられる画像データである。具体的には、第1縮小前画像データ及び第2縮小前画像データは、第2検出回路34Eでの第2検出処理で用いられる第2検出処理対象画像データである。第1縮小前画像データ及び第2縮小前画像データは、互いに異なる解像度の画像データであり、何れも出力用画像データ70B1よりも解像度が高く、かつ、ライブビュー画像データ70B2よりも解像度が低い。また、第1縮小前画像データの解像度は、第2縮小前画像データよりも低い。なお、以下では、説明の便宜上、第1縮小前画像データ及び第2縮小前画像データを区別して説明する必要がない場合、「第2検出処理対象画像データ」と称する。
 解析回路34Kは、第2検出回路34Eによって第2検出処理が行われる前に出力用画像データ70B1を既定期間毎に解析する。そして、第2検出回路34Eは、第1縮小前画像データ及び第2縮小前画像データのうち、既定期間毎に、解析回路34Kでの解析結果に応じて決定される第2検出処理対象画像データに対して第2検出処理を行う。解析回路34Kは、出力用画像データ70B1のうち、指示領域情報により指示された領域200Aの位置に対応する領域を示す一部の出力用画像データ70B1である注目領域画像データを解析する。
 一例として図30Aに示すように、解析回路34Kは、タッチパネル28から指示領域情報を既定期間毎に取得する。ユーザの指11がタッチパネル28に対してスワイプ操作を行うことで指示領域情報は更新される。つまり、ユーザの指11がタッチパネル28に対してスワイプ操作を行うことで領域200Aの位置が変更される。なお、ここでは、スワイプ操作を例示しているが、これに限らず、フリック操作等の他の操作であってもよい。
 解析回路34Kは、出力用画像データ70B1から、指示領域情報に従って注目領域画像データを取得し、取得した注目領域画像データにより示される画像(以下、「指示領域画像」と称する)のコントラストを解析する。解析回路34Kは、指示領域画像のコントラストが閾値以上であるか否かを判定し、判定結果を解析結果として第2検出回路34Eに出力する。第2検出回路34Eは、指示領域画像のコントラストが閾値以上の場合に、第1縮小前画像データを第2検出処理対象画像データとして取得し、取得した第2検出処理対象画像データに対して第2検出処理を行う。また、一例として図30Bに示すように、第2検出回路34Eは、指示領域画像のコントラストが閾値未満の場合に、第2縮小前画像データを第2検出処理対象画像データとして取得し、取得した第2検出処理対象画像データに対して第2検出処理を行う。
 なお、ここでは、解析回路34Kによってコントラストが解析される形態例を挙げて説明しているが、本開示の技術はこれに限定されず、輪郭、ぼけの度合い、輝度の分布、及び/又は色合いの分布等が解析回路34Kによって解析されるようにしてもよい。
 以上説明したように、本第4実施形態に係る撮像装置10では、生成回路34Cによって、出力用画像データから第1縮小前画像データ及び第2縮小前画像データが生成され、生成された第1縮小前画像データ及び第2縮小前画像データが、既定期間毎に、フレームメモリ34Gに記憶される。従って、本構成によれば、1種類の第2検出処理対象画像データが既定期間毎にフレームメモリ34Gに記憶される場合に比べ、既定期間毎に第2検出処理で用いられる第2検出処理対象画像データの選択肢を増やすことができる。
 また、本第4実施形態に係る撮像装置10では、第2検出回路34Eによって第2検出処理が行われる前に、解析回路34Kによって出力用画像データ70B1が既定期間毎に解析される。そして、第2検出回路34Eによって、フレームメモリ34Gに記憶されている第1縮小前画像データ及び第2縮小前画像データのうち、既定期間毎に、解析回路34Kでの解析結果に応じて決定される第2検出処理対象画像データに対して第2検出処理が行われる。従って、本構成によれば、現状に応じた種類の第2検出処理対象画像データに対して第2検出処理を行うことができる。
 また、図30Bに示す領域200A内では、特定被写体画像200と背景画像との色合いが同化しているのに対し、図30Aに示す領域200A内では、特定被写体画像200と背景画像との色合いが同化していない。つまり、図30Bに示す領域200A内のコントラストは、図30Aに示す領域200A内のコントラストよりも低いので、図30Bに示す例の場合、第2検出回路34Eは、第1縮小前画像データよりも解像度の高い第2縮小前画像データを第2検出処理対象画像データとして取得し、取得した第2検出処理対象画像データに対して第2検出処理を行う。これにより、第1縮小前画像データに対して第2検出処理を行う場合に比べ、特定被写体画像200を検出する可能性を高めることができる。
 なお、上記第4実施形態では、第1縮小前画像データ及び第2縮小前画像データという2種類の画像データを例示したが、本開示の技術はこれに限定されず、3種類以上の画像データであってもよい。3種類以上の画像データとしては、例えば、4Kの画像データ、FHDの画像データ、及びVGAの画像データ等が挙げられる。
 また、上記第1~第4実施形態では、撮像素子38の後段に位置する信号処理回路34によって、出力用画像データを縮小する処理、第1検出処理、及び第2検出処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、本開示の技術に係る「処理部」の一例として撮像素子38の処理回路110が用いられるようしてもよい。この場合、例えば、図31に示すように、撮像素子38が、上述した信号処理回路34に相当する信号処理回路110Eを内蔵していてもよい。これにより、信号処理回路34は不要となるので、出力I/F1100D2は、コントローラ15の受付I/F15Eに接続される。図31に示す例では、信号処理回路110Eが制御回路110Cに接続されており、制御回路110Cと信号処理回路110Eとの間で各種情報の授受が行われる。本構成によれば、撮像素子38の外部の処理部(例えば、コントローラ15)に対して画像データを処理させる場合に比べ、画像データを高速に処理することができる。
 また、本開示の技術に係る「記憶部」の一例としてメモリ112が用いられるようにしてもよい。例えば、図31に示す信号処理回路110Eに含まれる複数の構成要素のうち、上述した信号処理回路34に含まれる記憶回路34Fに相当する記憶回路、及びフレームメモリ34Gに相当するフレームメモリのうちの少なくとも一方を、撮像素子38に内蔵されているメモリ112で代替するようにしてもよい。本構成によれば、撮像素子38の外部の記憶装置に対して画像データを記憶させる場合に比べ、画像データに対しての高速なアクセスを実現することができる。
 また、上述した撮像装置10では、撮像素子38として、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子が採用されている。これにより、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、撮像素子38の可搬性が高くなる。また、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、設計の自由度も高めることができる。更に、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、撮像装置10の小型化にも寄与することができる。
 また、上述した撮像装置10では、撮像素子38として、光電変換素子42にメモリ112が積層された積層型撮像素子が採用されている。これにより、光電変換素子42とメモリ112とを接続する配線を短くすることができるため、配線遅延を減らすことができ、この結果、光電変換素子42とメモリ112とが積層されていない場合に比べ、光電変換素子42からメモリ112への画像データの転送速度を高めることができる。転送速度の向上は、処理回路110全体での処理の高速化にも寄与する。また、光電変換素子42とメモリ112とが積層されていない場合に比べ、設計の自由度も高めることができる。更に、光電変換素子42とメモリ112とが積層されていない場合に比べ、撮像装置10の小型化にも寄与することができる。
 また、上述した撮像装置10では、撮像素子38として、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子が例示されているが、本開示の技術はこれに限定されない。例えば、光電変換素子42、処理回路110、及びメモリ112のうち、少なくとも光電変換素子42及びメモリ112が1チップ化されていればよい。
 また、上述した撮像装置10では、第2検出処理によって、顔画像300Aが検出され、かつ、瞳画像300Bが検出される場合の形態例を挙げて説明したが、本開示の技術はこれに限定されず、例えば、第2検出処理によって、顔画像300A又は瞳画像300Bが検出されるようにしてもよい。
 上記各実施形態では、レンズ交換式の撮像装置10を例示したが、本開示の技術はこれに限定されない。例えば、図32に示すように、スマートデバイス400に、上記各実施形態で説明した撮像装置本体12に相当する構成及び機能を有する撮像装置本体414が搭載されていてもよい。
 一例として図32に示すように、スマートデバイス400は、筐体412を備えており、筐体412に撮像装置本体414が収容されている。スマートデバイス400の一例としては、撮像機能付きの電子機器であるスマートフォン又はタブレット端末等が挙げられる。
 筐体412には、撮像レンズ416が取り付けられている。図32に示す例では、撮像レンズ416が、スマートデバイス400を縦置きの状態にした場合の筐体412の背面412Aの左上部において、背面412Aから露出している。撮像レンズ416の中心は光軸L1上に位置している。撮像装置本体414には、撮像素子38が内蔵されている。撮像装置本体414は、被写体光を撮像レンズ416から取り込む。撮像装置本体414内に取り込まれた被写体光は撮像素子38に結像される。
 なお、図32に示す例では、撮像装置本体414のみがスマートデバイス400に内蔵されている形態例が示されているが、本開示の技術はこれに限定されず、スマートデバイス400に複数台のデジタルカメラが内蔵されていてもよく、この場合、少なくとも1台のデジタルカメラに撮像装置本体414が搭載されていればよい。
 また、上記各実施形態では、通信I/F間がPCIeの接続規格に従って接続されているが、本開示の技術はこれに限定されない。PCIeの接続規格に代えて、高速通信規格としてLVDS、SATA、SLVS-EC、又はMIPI等の他の接続規格が採用されてもよい。
 また、上記各実施形態では、撮像素子38と信号処理回路34との間の通信、コントローラ15と撮像素子38との通信、及び信号処理回路34とコントローラ15との通信は何れも有線形式の通信である。しかし、本開示の技術はこれに限定されない。撮像素子38と信号処理回路34との間の通信、コントローラ15と撮像素子38との通信、及び/又は信号処理回路34とコントローラ15との通信を無線形式の通信としてもよい。
 また、上記各実施形態では、UI系デバイス17が撮像装置本体12に組み込まれている形態例を挙げて説明したが、UI系デバイス17に含まれる複数の構成要素の少なくとも一部が撮像装置本体12に対して外付けされていてもよい。また、UI系デバイス17に含まれる複数の構成要素のうちの少なくとも一部が別体として外部I/F104に接続されることによって使用されるようにしてもよい。
 また、上記実施形態では、フレームレートとして120fpsを例示したが、本開示の技術はこれに限定されず、撮像用のフレームレート(例えば、図8に示す撮像処理で適用されるフレームレート)と出力用のフレームレート(例えば、図8に示す出力処理で適用されるフレームレート)とを異なるフレームレートとしてもよい。撮像用のフレームレート及び/又は出力用のフレームレートは固定のフレームレートであってもよいし、可変のフレームレートであってもよい。可変のフレームレートの場合、例えば、既定条件(例えば、フレームレートを変更する指示が受付デバイス84によって受け付けられたとの条件、及び/又は、フレームレートを変更するタイミングとして事前に定められたタイミングが到来したとの条件)を満足した場合にフレームレートが変更されるようにしてもよい。可変のフレームレートの場合、フレームレートの具体的な数値は、例えば、受付デバイス84によって受け付けられた指示に従って変更されるようにしてもよいし、後段回路13及び/又は撮像素子38の稼働率に従って変更されるようにしてもよい。
 また、上記各実施形態では、信号処理回路34を例示したが、本開示の技術はこれに限定されず、信号処理回路34の他に1つ以上の信号処理回路を用いてもよい。この場合、撮像素子38を複数の信号処理回路の各々に対して直接接続するようにすればよい。
 また、上記各実施形態では、信号処理回路34がASIC及びFPGAを含むデバイスによって実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、信号処理回路34はコンピュータによるソフトウェア構成により実現されるようにしてもよい。
 この場合、例えば、図33に示すように、信号処理回路34にはコンピュータ852が内蔵されており、コンピュータ852に上記各実施形態に係る後段回路処理を実行させるための後段回路処理プログラム902を記憶媒体900に記憶させておく。記憶媒体900の一例としては、非一時的記憶媒体であるSSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。コンピュータ852は、CPU852A、ストレージ852B、及びメモリ852Cを備えている。ストレージ852Bは、EEPROM等の不揮発性の記憶装置であり、メモリ852Cは、RAM等の記憶装置である。記憶媒体900に記憶されている後段回路処理プログラム902は、コンピュータ852にインストールされる。CPU852Aは、後段回路処理プログラム902に従って後段回路処理を実行する。なお、後段回路処理プログラム902は、記憶媒体900ではなく、ストレージ852Bに記憶されていてもよい。
 また、通信網(図示省略)を介してコンピュータ852に接続される他のコンピュータ又はサーバ装置等のストレージ(例えば、不揮発性の記憶装置)に後段回路処理プログラム902を記憶させておき、上述の撮像装置10又はスマートデバイス400の要求に応じて後段回路処理プログラム902がダウンロードされ、コンピュータ852にインストールされるようにしてもよい。
 なお、コンピュータ852に接続される他のコンピュータ又はサーバ装置等のストレージに後段回路処理プログラム902の全てを記憶させておく必要はなく、後段回路処理プログラム902の一部を記憶させておいてもよい。
 図33に示す例では、信号処理回路34にコンピュータ852が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コンピュータ852が信号処理回路34の外部に設けられるようにしてもよい。
 図33に示す例では、CPU852Aは、単数のCPUであるが、複数のCPUであってもよい。また、CPU852Aに代えてGPUを適用してもよい。
 図33に示す例では、コンピュータ852が例示されているが、本開示の技術はこれに限定されず、コンピュータ852に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ852に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 また、上記各実施形態では、処理回路110がASIC及びFPGAを含むデバイスによって実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、処理回路110に含まれる複数のデバイスのうちの少なくとも制御回路110Cはコンピュータによるソフトウェア構成により実現されるようにしてもよい。また、図31に示す例では、処理回路110に含まれる複数のデバイスのうちの少なくとも信号処理回路110Eはコンピュータによるソフトウェア構成により実現されるようにしてもよい。
 この場合、例えば、図34に示すように、撮像素子38にはコンピュータ852が内蔵されており、コンピュータ852に上記各実施形態に係る後段回路処理を実行させるための後段回路処理プログラム902を記憶媒体900に記憶させておく。記憶媒体900に記憶されている後段回路処理プログラム902は、コンピュータ852にインストールされる。また、通信網(図示省略)を介してコンピュータ852に接続される他のコンピュータ又はサーバ装置等のストレージ(例えば、不揮発性の記憶装置)に後段回路処理プログラム902を記憶させておき、撮像素子38の要求に応じて後段回路処理プログラム902がダウンロードされ、コンピュータ852にインストールされるようにしてもよい。
 図34に示す例では、撮像素子38にコンピュータ852が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コンピュータ852が撮像素子38の外部に設けられるようにしてもよい。また、図34に示す例では、CPU852Aは、単数のCPUであるが、複数のCPUであってもよい。また、CPU852Aに代えてGPUを適用してもよい。また、図34に示す例では、コンピュータ852が例示されているが、本開示の技術はこれに限定されず、コンピュータ852に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ852に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記各実施形態で説明した後段回路処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムを実行することで、後段回路処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで後段回路処理を実行する。
 後段回路処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、後段回路処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、後段回路処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、後段回路処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、後段回路処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
 また、上記の各種処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、図1に示す例では、撮像装置10を例示し、図32に示す例ではスマートデバイス400を例示したが、本開示の技術はこれに限定されない。すなわち、上記各実施形態で説明した撮像装置本体12に相当する構成及び機能を有する撮像装置が内蔵された各種の電子機器(例えば、レンズ固定式カメラ、パーソナル・コンピュータ、又はウェアラブル端末装置等)に対しても本開示の技術は適用可能であり、これらの電子機器であっても、撮像装置10及びスマートデバイス400と同様の作用及び効果が得られる。
 また、上記各実施形態では、ディスプレイ26を例示したが、本開示の技術はこれに限定されない。例えば、撮像装置に対して後付けされた別体のディスプレイを、本開示の技術に係る「表示装置」として用いるようにしてもよい。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記1)
 撮像されることで得られた画像データを記憶するメモリと、
 上記画像データに対して処理を行う信号処理回路と、を含み、
 上記信号処理回路は、上記画像データを縮小する処理を行い、上記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、上記第1検出処理により上記特定被写体画像が検出されなかった場合に、上記メモリに記憶されている縮小前の上記画像データである縮小前画像データに対して第2検出処理を行う
 撮像装置。
 (付記2)
 撮像素子であって、
 撮像されることで得られた画像データを記憶し、前記撮像素子に内蔵されたメモリと、
 上記画像データに対して処理を行い、前記撮像素子に内蔵された信号処理回路と、を含み、
 上記信号処理回路は、上記画像データを縮小する処理を行い、上記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、上記第1検出処理により上記特定被写体画像が検出されなかった場合に、上記メモリに記憶されている縮小前の上記画像データである縮小前画像データに対して第2検出処理を行う
 撮像素子。
 (付記3)
 撮像素子であって、
 撮像されることで得られた画像データを記憶し、上記撮像素子に内蔵された記憶部(メモリ)と、
 上記画像データに対して処理を行い、上記撮像素子に内蔵された処理部(信号処理回路)と、を含み、
 上記処理部は、上記画像データを縮小する処理を行い、上記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、上記第1検出処理により上記特定被写体画像が検出されなかった場合に、上記記憶部に記憶されている縮小前の上記画像データである縮小前画像データに対して第2検出処理を行う
 撮像素子。
 (付記4)
 上記処理部は、上記縮小前画像データにより示される画像内の部分領域であって、上記第2検出処理を行うフレームの前フレームにおいて上記第1検出処理により検出された上記特定被写体画像の位置に対応している部分領域を示す部分領域画像データに対して上記第2検出処理を行う付記3に記載の撮像素子。
 (付記5)
 上記部分領域は、上記縮小前画像データにより示される画像内のうち、指示された上記特定の被写体の領域である付記4に記載の撮像素子。
 (付記6)
 上記処理部は、上記第1検出処理により上記特定被写体画像が検出された場合、上記縮小前画像データのうち、上記特定被写体画像の位置に対応する領域を示す特定被写体画像領域データを上記記憶部に対して記憶させる付記3から付記5の何れか1つに記載の撮像素子。
 (付記7)
 上記処理部は、上記第1検出処理により上記特定被写体画像が検出された場合、上記記憶部に記憶されている上記特定被写体画像領域データに対して上記第2検出処理を行う付記6に記載の撮像素子。
 (付記8)
 上記処理部は、上記画像データから複数種類の上記縮小前画像データを生成し、生成した上記複数種類の縮小前画像データを既定期間毎に上記記憶部に対して記憶させる付記3から付記7の何れか1つに記載の撮像素子。
 (付記9)
 上記処理部は、上記第2検出処理を行う前に上記画像データを上記既定期間毎に解析し、上記記憶部に記憶されている上記複数種類の縮小前画像データのうち、上記既定期間毎に、解析結果に応じて決定される上記縮小前画像データに対して上記第2検出処理を行う付記8に記載の撮像素子。
 (付記10)
 上記処理部は、上記第2検出処理を行う前に上記画像データから指示領域画像のコントラストを上記既定期間毎に解析し、上記記憶部に記憶されている上記複数種類の縮小前画像データのうち、上記既定期間毎に、上記解析結果に応じて決定される上記縮小前画像データに対して上記第2検出処理を行う付記9に記載の撮像素子。
 (付記11)
 上記第2検出処理は、上記縮小前画像データにより示される画像内から上記特定被写体画像、及び上記特定の被写体よりも小型な被写体を示す小型被写体画像の少なくとも1つを検出する処理である付記3から付記10の何れか1つに記載の撮像素子。
 (付記12)
 上記特定被写体画像は、顔を示す顔画像であり、
 上記小型被写体画像は、瞳を示す瞳画像である付記11に記載の撮像素子。
 (付記13)
 上記特定被写体画像は、上記画像データにより示される画像内のうち、指示された移動体を示す移動体画像である付記3から付記12の何れか1つに記載の撮像素子。
 (付記14)
 上記縮小前画像データは、表示用画像データである付記3から付記13の何れか1つに記載の撮像素子。
 (付記15)
 上記処理部は、解像度の異なる複数の上記縮小前画像データに対して、低解像度の上記縮小前画像データから高解像度の上記縮小前画像データにかけて段階的に上記第2検出処理を行う付記3から付記14の何れか1つに記載の撮像素子。

Claims (20)

  1.  撮像されることで得られた画像データを記憶するメモリと、
     前記画像データに対して処理を行う信号処理回路と、を備え、
     前記信号処理回路は、
     前記画像データを縮小する処理を行い、前記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行い、
     前記第1検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている縮小前の前記画像データである縮小前画像データに対して第2検出処理を行う
     撮像装置。
  2.  前記信号処理回路は、前記縮小前画像データにより示される画像内の部分領域であって、前記第2検出処理を行うフレームの前フレームにおいて前記第1検出処理により検出された前記特定被写体画像の位置に対応している部分領域を示す部分領域画像データに対して前記第2検出処理を行う請求項1に記載の撮像装置。
  3.  前記部分領域は、前記縮小前画像データにより示される画像内のうち、指示された前記特定の被写体の領域である請求項2に記載の撮像装置。
  4.  前記信号処理回路は、前記第1検出処理により前記特定被写体画像が検出された場合、前記縮小前画像データのうち、前記特定被写体画像の位置に対応する領域を示す特定被写体画像領域データを前記メモリに対して記憶させる請求項1から請求項3の何れか一項に記載の撮像装置。
  5.  前記信号処理回路は、前記第1検出処理により前記特定被写体画像が検出された場合、前記メモリに記憶されている前記特定被写体画像領域データに対して前記第2検出処理を行う請求項4に記載の撮像装置。
  6.  前記信号処理回路は、
     前記画像データから複数種類の前記縮小前画像データを生成し、
     生成した前記複数種類の縮小前画像データを既定期間毎に前記メモリに対して記憶させる請求項1から請求項5の何れか一項に記載の撮像装置。
  7.  前記信号処理回路は、
     前記第2検出処理を行う前に前記画像データを前記既定期間毎に解析し、
     前記メモリに記憶されている前記複数種類の縮小前画像データのうち、前記既定期間毎に、解析結果に応じて決定される前記縮小前画像データに対して前記第2検出処理を行う請求項6に記載の撮像装置。
  8.  前記信号処理回路は、
     前記第2検出処理を行う前に前記画像データから指示領域画像のコントラストを前記既定期間毎に解析し、
     前記メモリに記憶されている前記複数種類の縮小前画像データのうち、前記既定期間毎に、前記解析結果に応じて決定される前記縮小前画像データに対して前記第2検出処理を行う請求項7に記載の撮像装置。
  9.  前記第2検出処理は、前記縮小前画像データにより示される画像内から前記特定被写体画像、及び前記特定の被写体よりも小型な被写体を示す小型被写体画像の少なくとも1つを検出する処理である請求項1から請求項8の何れか一項に記載の撮像装置。
  10.  前記特定被写体画像は、顔を示す顔画像であり、
     前記小型被写体画像は、瞳を示す瞳画像である請求項9に記載の撮像装置。
  11.  前記特定被写体画像は、前記画像データにより示される画像内のうち、指示された移動体を示す移動体画像である請求項1から請求項10の何れか一項に記載の撮像装置。
  12.  前記縮小前画像データは、表示用画像データである請求項1から請求項11の何れか一項に記載の撮像装置。
  13.  撮像素子を更に含み、
     前記撮像素子は、前記メモリを内蔵している請求項1から請求項12の何れか一項に記載の撮像装置。
  14.  前記撮像素子は、前記信号処理回路を内蔵している請求項13に記載の撮像装置。
  15.  前記撮像素子は、少なくとも光電変換素子と前記メモリとが1チップ化された撮像素子である請求項13又は請求項14に記載の撮像装置。
  16.  前記撮像素子は、前記光電変換素子に前記メモリが積層された積層型撮像素子である請求項15に記載の撮像装置。
  17.  前記第1検出処理での検出結果、及び前記第2検出処理での検出結果のうちの少なくとも一方を表示装置に対して表示させる制御を行うプロセッサを更に含む請求項1から請求項16の何れか一項に記載の撮像装置。
  18.  前記信号処理回路は、解像度の異なる複数の前記縮小前画像データに対して、低解像度の前記縮小前画像データから高解像度の前記縮小前画像データにかけて段階的に前記第2検出処理を行う請求項1から請求項17の何れか一項に記載の撮像装置。
  19.  撮像されることで得られた画像データをメモリに記憶すること、
     前記画像データを縮小する処理を行うこと、
     前記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行うこと、及び、
     前記第1検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている縮小前の前記画像データである縮小前画像データに対して第2検出処理を行うことを含む
     撮像装置の作動方法。
  20.  コンピュータに、
     撮像されることで得られた画像データをメモリに記憶すること、
     前記画像データを縮小する処理を行うこと、
     前記画像データが縮小されることで得られた縮小画像データにより示される縮小画像から特定の被写体を示す特定被写体画像を検出する第1検出処理を行うこと、及び、
     前記第1検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている縮小前の前記画像データである縮小前画像データに対して第2検出処理を行うことを含む処理を実行させるためのプログラム。
PCT/JP2020/025833 2019-08-14 2020-07-01 撮像装置、撮像装置の作動方法、及びプログラム WO2021029152A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021539834A JP7279169B2 (ja) 2019-08-14 2020-07-01 撮像装置、撮像装置の作動方法、及びプログラム
CN202080056928.5A CN114258672B (zh) 2019-08-14 2020-07-01 摄像装置、摄像装置的工作方法及存储介质
US17/666,591 US11689816B2 (en) 2019-08-14 2022-02-08 Imaging apparatus, operation method of imaging apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019148877 2019-08-14
JP2019-148877 2019-08-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/666,591 Continuation US11689816B2 (en) 2019-08-14 2022-02-08 Imaging apparatus, operation method of imaging apparatus, and program

Publications (1)

Publication Number Publication Date
WO2021029152A1 true WO2021029152A1 (ja) 2021-02-18

Family

ID=74570572

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025833 WO2021029152A1 (ja) 2019-08-14 2020-07-01 撮像装置、撮像装置の作動方法、及びプログラム

Country Status (4)

Country Link
US (1) US11689816B2 (ja)
JP (1) JP7279169B2 (ja)
CN (1) CN114258672B (ja)
WO (1) WO2021029152A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7132392B1 (ja) * 2021-05-12 2022-09-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022517A (ja) * 2006-06-13 2008-01-31 Matsushita Electric Ind Co Ltd 画像表示装置および画像表示プログラム
JP2015070426A (ja) * 2013-09-27 2015-04-13 ソニー株式会社 画像処理装置および方法、並びにプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8081252B2 (en) 2006-06-13 2011-12-20 Panasonic Corporation Image displaying apparatus
JP2008109485A (ja) * 2006-10-26 2008-05-08 Fujifilm Corp 撮像装置及び撮像制御方法
JP5064926B2 (ja) * 2007-08-02 2012-10-31 キヤノン株式会社 撮像装置及びその制御方法
JP5129683B2 (ja) * 2008-08-05 2013-01-30 キヤノン株式会社 撮像装置及びその制御方法
JP4702418B2 (ja) * 2008-09-09 2011-06-15 カシオ計算機株式会社 撮影装置、画像領域の存否判定方法及びプログラム
JP5306106B2 (ja) * 2009-08-19 2013-10-02 キヤノン株式会社 画像認識装置及び画像認識方法
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
EP3032307A4 (en) * 2013-09-24 2017-02-22 Sony Corporation Imaging device, imaging method and program
TWI521473B (zh) * 2014-03-19 2016-02-11 晶睿通訊股份有限公司 影像分析裝置、方法及電腦可讀取媒體
KR20160050755A (ko) * 2014-10-31 2016-05-11 삼성전자주식회사 전자 장치 및 그의 홍채 인식 방법
JP6521731B2 (ja) * 2015-05-18 2019-05-29 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP2018056944A (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像装置および撮像素子
US20190034734A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated Object classification using machine learning and object tracking
EP3502954A1 (en) * 2017-12-21 2019-06-26 Vestel Elektronik Sanayi ve Ticaret A.S. Method of facial recognition for authenticating user of electronic device and electronic device
US10699126B2 (en) * 2018-01-09 2020-06-30 Qualcomm Incorporated Adaptive object detection and recognition
JP7004851B2 (ja) * 2018-12-26 2022-02-10 富士フイルム株式会社 撮像装置、撮像装置の画像データ処理方法、及びプログラム
WO2020137663A1 (ja) * 2018-12-26 2020-07-02 富士フイルム株式会社 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
JP7362748B2 (ja) * 2019-08-28 2023-10-17 富士フイルム株式会社 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
WO2021039114A1 (ja) * 2019-08-29 2021-03-04 富士フイルム株式会社 撮像装置、撮像装置の動作方法、及びプログラム
WO2021124873A1 (ja) * 2019-12-19 2021-06-24 富士フイルム株式会社 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム
CN112818933A (zh) * 2021-02-26 2021-05-18 北京市商汤科技开发有限公司 目标对象的识别处理方法、装置、设备及介质
JP7218397B2 (ja) * 2021-05-12 2023-02-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP7132392B1 (ja) * 2021-05-12 2022-09-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022517A (ja) * 2006-06-13 2008-01-31 Matsushita Electric Ind Co Ltd 画像表示装置および画像表示プログラム
JP2015070426A (ja) * 2013-09-27 2015-04-13 ソニー株式会社 画像処理装置および方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7132392B1 (ja) * 2021-05-12 2022-09-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Also Published As

Publication number Publication date
US11689816B2 (en) 2023-06-27
CN114258672A (zh) 2022-03-29
JP7279169B2 (ja) 2023-05-22
JPWO2021029152A1 (ja) 2021-02-18
CN114258672B (zh) 2024-05-14
US20220166923A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
US10055081B2 (en) Enabling visual recognition of an enlarged image
JP6808993B2 (ja) 撮像素子、電子機器、撮像方法、およびプログラム
WO2021029152A1 (ja) 撮像装置、撮像装置の作動方法、及びプログラム
US20240031706A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
US20240080410A1 (en) Imaging apparatus, image data processing method of imaging apparatus, and program
JP2023169254A (ja) 撮像素子、撮像素子の作動方法、プログラム、及び撮像システム
JP2021177646A (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
JP6991742B2 (ja) 画像処理装置、その制御方法、および制御プログラム
US11910115B2 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
JP6896181B2 (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
US20220141420A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
JP6924908B2 (ja) 撮像素子、撮像装置、画像データ出力方法、及びプログラム
JP6889622B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP6917800B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
CN111565285A (zh) 图像输出装置及其控制方法和存储介质
JP2021040349A (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20853160

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021539834

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20853160

Country of ref document: EP

Kind code of ref document: A1