WO2021039114A1 - 撮像装置、撮像装置の動作方法、及びプログラム - Google Patents

撮像装置、撮像装置の動作方法、及びプログラム Download PDF

Info

Publication number
WO2021039114A1
WO2021039114A1 PCT/JP2020/026024 JP2020026024W WO2021039114A1 WO 2021039114 A1 WO2021039114 A1 WO 2021039114A1 JP 2020026024 W JP2020026024 W JP 2020026024W WO 2021039114 A1 WO2021039114 A1 WO 2021039114A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
image sensor
imaging
sensor
Prior art date
Application number
PCT/JP2020/026024
Other languages
English (en)
French (fr)
Inventor
長谷川 亮
智行 河合
仁史 桜武
小林 誠
一文 菅原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021542590A priority Critical patent/JP7289921B2/ja
Priority to CN202080058927.4A priority patent/CN114270800A/zh
Publication of WO2021039114A1 publication Critical patent/WO2021039114A1/ja
Priority to US17/671,529 priority patent/US11678070B2/en
Priority to US18/309,965 priority patent/US20230283916A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the technology of the present disclosure relates to an image pickup apparatus, an operation method of the image pickup apparatus, and a program.
  • Japanese Unexamined Patent Publication No. 2014-176506 discloses an imaging device including a photographing optical system, a directivity sensor, an image readout device, and an image generation device.
  • the photographing optical system is composed of a central optical system in the central portion and an annular optical system having a shorter focal length than the central optical system in the peripheral portion.
  • the annular optical system forms a first image lacking the central portion on the image plane, and the central optical system forms a second image including the missing first image on the image plane.
  • the directional sensor is a directional sensor having a plurality of pixels arranged at the imaging position of the photographing optical system and composed of photoelectric conversion elements arranged in a two-dimensional manner, and is an annular optical system and a central optical system.
  • the image readout device acquires a first image in which the central portion received from the directional sensor via the annular optical system is missing and a second image received via the central optical system, respectively.
  • the image generation device adjusts the enlargement / reduction ratio of the first image and the second image acquired by the image readout device, fits the second image into the central region of the first image, and synthesizes the image to generate an image. To do.
  • a single or a plurality of spectroscopic means arranged in the optical path of an imaging optical system and capable of controlling the characteristics of the spectral ratios of transmittance and reflectance and a subject image are separated by the spectroscopic means.
  • An imaging device includes a plurality of imaging means for capturing an image and inputting a subject image by accumulating charges by photoelectric conversion, and the plurality of imaging means capture images at different imaging angles.
  • a detection process for detecting a specific subject image is performed by detecting only an image having a constant resolution, which is indicated by the first image data output from the first image pickup element. Regardless of the detection result obtained by this, the detection process for detecting the specific subject image with higher accuracy is performed as compared with the case where the first image data is always output to the specific output destination, which is suitable for the detection result by the detection process.
  • an image pickup device capable of outputting image data indicating an image having a different resolution to a specific output destination, an operation method of the image pickup device, and a program.
  • the first aspect according to the technique of the present disclosure is a first image pickup element that outputs the first image data obtained by imaging a subject to a subsequent image pickup element, and a second image pickup element provided as a subsequent image pickup element.
  • a storage unit that stores the first image data output from the first image pickup element and a processing unit that processes the second image data obtained by capturing the subject by the second image pickup element.
  • the second image shown by the second image data including the second image pickup element having the second image has a higher resolution than the first image shown by the first image data, and the processing unit selects a specific subject from the second image.
  • the detection process for detecting the specific subject image to be shown is performed, and the second imaging element outputs the first image data stored in the storage unit to the specific output destination when the specific subject image is not detected by the detection process. Then, when a specific subject image is detected by the detection process, the composite image data obtained by synthesizing the first image data and the second image data by the processing unit, or the second image data is output to. It is an image pickup device that outputs to.
  • the second aspect according to the technique of the present disclosure is the image pickup apparatus according to the first aspect in which the image pickup ranges of the first image pickup element and the second image pickup element overlap each other.
  • the first image data is imaged by the first image sensor at the first focal length of the first focal length and the second focal length longer than the first focal length.
  • the first aspect is the first focal length image data obtained by the above
  • the second image data is the second focal length image data obtained by being imaged by the second image sensor at the second focal length.
  • it is an image pickup device according to the second aspect.
  • the fourth aspect according to the technique of the present disclosure is the image pickup apparatus according to the third aspect in which the second focal length is changed by the optical zoom mechanism.
  • a fifth aspect of the technique of the present disclosure is that the second image pickup device is an image pickup device according to any one of the first to fourth aspects, in which the exposure amount can be changed for each frame. is there.
  • the first image sensor has a first photoelectric conversion element in which the first subject light is imaged, and the second image sensor has the second subject light imaged.
  • the second photoelectric conversion element is provided, the first image data is image data obtained from a designated first region of the first photoelectric conversion element, and the second image data is a second photoelectric conversion element.
  • the image data obtained from the designated second region of the image, and the second region is an image pickup according to any one of the first to fifth aspects, which is a region wider than the first region. It is a device.
  • a seventh aspect according to the technique of the present disclosure further includes a reception unit that receives a request for output of the second image data, and the second image pickup device is a detection result by the detection process when the request is received by the reception unit.
  • the image sensor according to any one of the first to sixth aspects, which outputs the second image data to the output destination.
  • An eighth aspect according to the technique of the present disclosure relates to any one of the first to seventh aspects in which the frame rate in the second image sensor is higher than the frame rate in the first image sensor. It is an image sensor.
  • the second image pickup device is at least one of the first to eighth aspects, which is an image pickup device in which the photoelectric conversion element and the storage unit are integrated into one chip. It is an image sensor according to an aspect.
  • a tenth aspect according to the technique of the present disclosure is an image pickup device according to a ninth aspect, wherein the second image pickup element is a stacked image pickup device in which a storage unit is laminated on a photoelectric conversion element.
  • the first image sensor, the second image sensor, and the output destination are connected in series, and the first image sensor outputs the first image data to the second image sensor.
  • the image pickup device according to any one of the first to tenth aspects.
  • a twelfth aspect according to the technique of the present disclosure is an image based on the first image data output by the second imaging element, and a composite image data or an image based on the second image data output by the second imaging element. At least one of the control to display at least one of them on the display unit, the first image data output by the second image pickup element, and the composite image data or the second image data output by the second image pickup element.
  • the image pickup apparatus according to any one of the first to eleventh aspects, further including a control unit that performs at least one of the controls for storing one in the storage device.
  • a thirteenth aspect according to the technique of the present disclosure is an operation method of an image sensor, in which the first image sensor obtains first image data obtained by imaging a subject by the first image sensor included in the image sensor. Outputs to the image sensor in the subsequent stage, and the storage unit of the second image sensor provided in the image sensor as the image sensor in the subsequent stage stores the first image data output from the first image sensor. Processing of the second image data obtained by the image sensor capturing the subject, and detection processing in which the second image sensor detects a specific subject image indicating a specific subject from the second image indicated by the second image data. When the specific subject image is not detected by the detection process, the second image sensor outputs the first image data stored in the storage unit to a specific output destination, and the second image sensor.
  • the element When the specific subject image is detected by the detection process, the element outputs the composite image data obtained by synthesizing the first image data and the second image data, or the second image data to the output destination.
  • the second image is a method of operating the image sensor having a higher resolution than the first image shown by the first image data.
  • a fourteenth aspect according to the technique of the present disclosure is a program for causing a computer applied to an imaging device to execute a process, in which the subject is imaged by a first imaging element included in the imaging device.
  • the first image data is output to the subsequent image pickup element by the first image pickup element, and the storage unit of the second image pickup device provided in the image pickup device as the second stage image pickup element is the first image pickup element.
  • the first image data output from the data is stored, the second image data obtained by the second imaging element capturing the subject is processed, and the second imaging element is represented by the second image data.
  • detection processing to detect a specific subject image indicating a specific subject from the image, and the first image data stored in the storage unit when the second imaging element does not detect the specific subject image by the detection processing.
  • the second image is a program having a higher resolution than the first image shown by the first image data, including outputting the composite image data or the second image data to the output destination.
  • CPU refers to the abbreviation of "Central Processing Unit".
  • RAM is an abbreviation for "Random Access Memory”.
  • ROM is an abbreviation for "Read Only Memory”.
  • DRAM refers to the abbreviation of "Dynamic Random Access Memory”.
  • SRAM refers to the abbreviation of "Static Random Access Memory”.
  • LSI refers to the abbreviation of "Large-Scale Integrated circuit”.
  • ASIC refers to the abbreviation of "Application Special Integrated Circuit”.
  • PLD refers to the abbreviation of "Programmable Logical Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • SoC refers to the abbreviation of "System-on-a-chip”.
  • SSD is an abbreviation for "Solid State Drive”.
  • USB refers to the abbreviation of "Universal Serial Bus”.
  • HDD refers to the abbreviation of "Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconducor”.
  • EL refers to the abbreviation for "Electro-Luminescence”.
  • a / D refers to the abbreviation of "Analog / Digital”.
  • I / F refers to the abbreviation of "Interface”.
  • UI refers to the abbreviation of "User Interface”.
  • LVDS is an abbreviation for "Low Voltage Differential Signaling”.
  • PCIe refers to the abbreviation of "Peripheral Component Interconnect Express”.
  • SATA is an abbreviation for "Serial Advanced Technology Attitude”.
  • SLVS-EC refers to the abbreviation of "Scalable Low Signaling with Embedded Clock”.
  • MIPI registered trademark
  • LTE is an abbreviation for "Long Term Evolution”.
  • 5G refers to the abbreviation of "5th Generation”.
  • vertical refers to vertical in the sense of including an error generally allowed in the technical field to which the technology of the present disclosure belongs, in addition to the complete vertical.
  • horizontal refers to horizontal in the sense of being perfectly horizontal, as well as including errors that are generally tolerated in the art to which the technology of the present disclosure belongs.
  • vertical refers to vertical in the sense of being perfectly vertical, as well as including errors that are generally tolerated in the art to which the technology of the present disclosure belongs.
  • the term “identical” refers to the exact same, as well as the same in the sense of including errors that are generally acceptable in the art to which the technology of the present disclosure belongs.
  • the smart device 10 includes a housing 12, and the imaging device 14 is housed in the housing 12.
  • the smart device 10 include a smartphone or a tablet terminal which is an electronic device having an imaging function.
  • the image pickup device 14 includes a first image pickup device 30 and a second image pickup device 32.
  • the first image pickup device 30 includes a first image pickup lens 16 and a first image pickup element 38.
  • the second image pickup device 32 includes a second image pickup lens 18 and a second image pickup element 52.
  • imaging elements when it is not necessary to distinguish between the first image sensor 38 and the second image sensor 52, they are referred to as “imaging elements” without reference numerals.
  • the first imaging lens 16 and the second imaging lens 18 are , Arranged at predetermined intervals (for example, intervals of several millimeters) along the vertical direction, and exposed from the back surface 12A.
  • the center of the first imaging lens 16 is located on the optical axis L1.
  • the center of the second imaging lens 18 is located on the optical axis L2.
  • the first image pickup lens 16 is arranged in front of the first image pickup element 38 (object side).
  • the first image pickup lens 16 captures subject light indicating a subject (hereinafter, also simply referred to as “subject light”), and forms the captured subject light on the first image sensor 38.
  • a second image pickup lens 18 is arranged in front of the second image pickup element 52 (object side). The second image pickup lens 18 captures the subject light, and the captured subject light is imaged on the second image pickup element 52.
  • an instruction key 22 and a touch panel display 24 are provided on the front surface 12B of the housing 12.
  • An instruction key 22 is arranged below the front surface 12B when the smart device 10 is placed vertically, and a touch panel display 24 is arranged above the instruction key 22.
  • the instruction key 22 is provided separately from the touch panel display 24, but it may be a virtual instruction key on the touch panel display 24.
  • the instruction key 22 receives various instructions.
  • the "various instructions" referred to here are, for example, an instruction for displaying the unlock reception screen, an instruction for displaying a menu screen on which various menus can be selected, an instruction for selecting one or more menus, and confirmation of the selected contents. And the instruction to delete the selected contents.
  • the unlock reception screen refers to a screen that accepts the encryption for unlocking the smart device 10.
  • the touch panel display 24 includes a display 26 and a touch panel 28 (see also FIG. 4).
  • An example of the display 26 is an organic EL display.
  • the display 26 may be not an organic EL display but another type of display such as a liquid crystal display or an inorganic EL display.
  • the display 26 is an example of a “display unit” according to the technique of the present disclosure.
  • the display 26 displays images, character information, and the like.
  • the display 26 is used for displaying a live view image obtained by continuous imaging using an image sensor.
  • the display 26 is also used for displaying still images and / or moving images. Further, the display 26 is also used for displaying a reproduced image and displaying a menu screen or the like.
  • the touch panel 28 is a transmissive touch panel and is superimposed on the surface of the display area of the display 26.
  • the touch panel 28 receives an instruction from the user by detecting contact with an indicator such as a finger or a stylus pen.
  • an out-cell type touch panel display in which the touch panel 28 is superimposed on the surface of the display area of the display 26 is given, but this is only an example.
  • an on-cell type or in-cell type touch panel display can be applied as the touch panel display 24.
  • the smart device 10 includes a controller 15 and a UI device 17 in addition to the image pickup device 14.
  • the controller 15 controls the entire smart device 10.
  • the UI device 17 is a device that presents information to the user and receives instructions from the user.
  • the controller 15 acquires various information from the UI device 17 and controls the UI device 17.
  • the first imaging device 30 includes a first imaging device main body 36 in addition to the first imaging lens 16.
  • the first image pickup lens 16 is arranged in front of the first image pickup apparatus main body 36 (object side).
  • the first image pickup device main body 36 includes a first image pickup element 38.
  • the first image sensor 38 includes a photoelectric conversion element 42 having a light receiving surface 42A.
  • the first image sensor 38 is a CMOS image sensor.
  • the CMOS image sensor is exemplified as the first image sensor 38 here, the technique of the present disclosure is not limited to this, and for example, the first image sensor 38 is another type of image sensor such as a CCD image sensor. Even so, the technique of the present disclosure is established.
  • the first imaging lens 16 includes an objective lens 16A, an imaging lens 16B, and an aperture 16C.
  • the objective lens 16A, the imaging lens 16B, and the diaphragm 16C are the objective lens 16A, the imaging lens 16B, and the diaphragm 16C along the optical axis L1 from the subject side (object side) to the light receiving surface 42A side (image side). They are arranged in the order of.
  • the diaphragm 16C a fixed diaphragm whose opening does not change is adopted.
  • the aperture 16C is a fixed aperture, the exposure is adjusted by the electronic shutter of the first image sensor 38.
  • the diaphragm 16C may be a variable diaphragm instead of a fixed diaphragm.
  • the objective lens 16A, the imaging lens 16B, and the diaphragm 16C included in the first imaging lens 16 are merely examples, and the technique of the present disclosure is established even if the configuration of the lens and / or the position of the diaphragm 16C changes.
  • the subject light passes through the first imaging lens 16 and is imaged on the light receiving surface 42A.
  • the first image sensor 38 receives the subject light on the light receiving surface 42A and photoelectrically converts the received subject light into the photoelectric conversion element 42 to image the subject.
  • the first image sensor 38 is connected to the controller 15 via a communication line 46, and by taking an image of a subject according to an instruction from the controller 15, first image data indicating an image of the subject is generated.
  • the photoelectric conversion element 42 is an example of the "first photoelectric conversion element” according to the technique of the present disclosure
  • the subject light imaged on the photoelectric conversion element 42 is the "first subject” according to the technique of the present disclosure. This is an example of "light”.
  • the second imaging device 32 includes a second imaging device main body 50 in addition to the second imaging lens 18.
  • a second imaging lens 18 is arranged in front of the second imaging apparatus main body 50 (object side).
  • the second image pickup device main body 50 includes a second image pickup element 52.
  • the second image pickup element 52 includes a photoelectric conversion element 56 having a light receiving surface 56A.
  • the second image sensor 52 is a CMOS image sensor.
  • the CMOS image sensor is exemplified as the second image sensor 52 here, the technique of the present disclosure is not limited to this, and for example, the second image sensor 52 is another type of image sensor such as a CCD image sensor. Even so, the technique of the present disclosure is established.
  • the second imaging lens 18 includes an objective lens 18A, a zoom lens 18B, and an aperture 18C.
  • the objective lens 18A, the zoom lens 18B, and the aperture 18C are arranged in the order of the objective lens 18A, the zoom lens 18B, and the aperture 18C along the optical axis L2 from the subject side (object side) to the light receiving surface 56A side (image side). It is arranged.
  • the zoom lens 18B operates by receiving power from a drive source (not shown) such as a motor. That is, the zoom lens 18B moves along the optical axis L2 according to the applied power.
  • a drive source not shown
  • the diaphragm 18C a fixed diaphragm whose opening does not change is adopted.
  • the diaphragm 18C may be a variable diaphragm instead of a fixed diaphragm.
  • the objective lens 18A, the imaging lens 18B, and the diaphragm 18C included in the second imaging lens 18 are merely examples, and the technique of the present disclosure is established even if the configuration of the lens and / or the position of the diaphragm 18C changes.
  • the subject light passes through the second imaging lens 18 and is imaged on the light receiving surface 56A.
  • the second image sensor 52 receives the subject light on the light receiving surface 56A and photoelectrically converts the received subject light into the photoelectric conversion element 56 to image the subject.
  • the second image sensor 52 is connected to the controller 15 via the communication line 58A, and by imaging the subject according to the instruction from the controller 15, second image data indicating the image of the subject is generated.
  • the photoelectric conversion element 56 is an example of the "second photoelectric conversion element” according to the technique of the present disclosure
  • the subject light imaged on the photoelectric conversion element 56 is the "second subject” according to the technique of the present disclosure. This is an example of "light”.
  • the first image sensor 38 is connected to the second image sensor 52 via a communication line 54.
  • a signal processing circuit 34 is located after the second image sensor 52, and the second image sensor 52 is connected to the signal processing circuit 34 via a communication line 44. That is, the first image sensor 38, the second image sensor 52, and the signal processing circuit 34 are connected in series.
  • the second image sensor 52 is an example of the “post-stage image sensor” according to the technology of the present disclosure
  • the signal processing circuit 34 is an example of the “specific output destination” according to the technology of the present disclosure.
  • the first image sensor 38 outputs the first image data obtained by imaging the subject to the second image sensor 52
  • the second image sensor 52 is the first image sensor 38 from the first image sensor 38. 1 Accepts image data.
  • the signal processing circuit 34 is connected to the controller 15 via a communication line 35, and the second image sensor 52 outputs image data to the signal processing circuit 34.
  • the "image data" refers to the first image data and the second image data obtained by capturing the subject by the second image sensor 52. Refers to a general term for based image data.
  • the signal processing circuit 34 is an LSI, specifically, a device including an ASIC and an FPGA.
  • the signal processing circuit 34 performs various signal processing on the image data input from the second image sensor 52.
  • Various signal processing performed by the signal processing circuit 34 includes known signal processing such as white balance adjustment, sharpness adjustment, gamma correction, color space conversion processing, and color difference correction.
  • the signal processing circuit 34 is connected to the controller 15 via the communication line 35, and image data subjected to various signal processing is output to the controller 15 by the signal processing circuit 34.
  • the signal processing circuit 34 may be a device including an ASIC, FPGA, or PLD, a device including the FPGA and PLD, or a device including the ASIC and PLD.
  • the signal processing circuit 34 may be a computer including a CPU, a storage, and a memory.
  • the storage refers to a non-volatile storage device.
  • the non-volatile storage device include various non-volatile memories such as a magnetoresistive memory and / or a ferroelectric memory instead of the flash memory or in combination with the flash memory.
  • the non-volatile storage device may be EEPROM, HDD, and / or SSD or the like.
  • the memory temporarily stores various information and is used as a work memory.
  • An example of the memory is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the number of CPUs included in the computer may be singular or plural.
  • the signal processing circuit 34 may be realized by a combination of a hardware configuration and a software configuration.
  • the second imaging lens 18 includes an optical zoom mechanism 59.
  • the optical zoom mechanism 59 includes a zoom lens 18B and a drive mechanism 60.
  • the zoom lens 18B is attached to the drive mechanism 60, and the drive mechanism 60 drives the zoom lens 18B.
  • the drive mechanism 60 is connected to the controller 15 via the communication line 58B, and operates according to an instruction from the controller 15.
  • the drive mechanism 60 includes a slide mechanism (not shown), a motor (not shown), and a driver (not shown).
  • the driver is connected to the controller 15 via the communication line 58B.
  • the controller 15 outputs a drive signal to the driver.
  • the drive signal is a signal that controls the drive of the motor.
  • the driver drives the motor according to the drive signal input from the controller 15.
  • the slide mechanism supports the zoom lens 18B and slides the zoom lens 18B along the optical axis L2 by receiving the power of the motor. Therefore, the optical zoom mechanism 59 changes the focal length by sliding the zoom lens 18B along the optical axis L2 under the control of the controller 15. The angle of view of the second imaging device 32 is adjusted by changing the focal length.
  • the peripheral views of the optical zoom mechanism 59, the drive mechanism 60, and the like are merely conceptual diagrams, and the optical zoom mechanism 60 has various configurations.
  • the controller 15 includes a CPU 15A, a storage 15B, and a memory 15C. Further, the controller 15 includes communication I / F15D1, 15D2 and 15E.
  • the CPU 15A is an example of a "control unit (processor)" according to the technique of the present disclosure.
  • the CPU 15A, storage 15B, memory 15C, communication I / F15D1, communication I / F15D2, and communication I / F15E are connected via the bus 100.
  • one bus is shown as the bus 100 for convenience of illustration, but a plurality of buses may be used.
  • the bus 100 may be a serial bus, or may be a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the storage 15B stores various parameters and various programs.
  • the storage 15B is a non-volatile storage device.
  • a flash memory is adopted as an example of the storage 15B.
  • the flash memory is merely an example, and examples thereof include various non-volatile memories such as a magnetoresistive memory and / or a ferroelectric memory instead of the flash memory or in combination with the flash memory.
  • the non-volatile storage device may be EEPROM, HDD, and / or SSD or the like.
  • the memory 15C temporarily stores various information and is used as a work memory.
  • An example of the memory 15C is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the CPU 15A reads a necessary program from the storage 15B and executes the read program on the memory 15C.
  • the CPU 15A controls the entire smart device 10 according to a program executed on the memory 15C.
  • the communication I / F15D1 is connected to the first imaging device 30 via the communication line 46, and controls the exchange of various information between the first imaging device 30 and the CPU 15A.
  • the CPU 15A controls the first imaging device 30 via the communication I / F15D1.
  • the CPU 15A supplies the first image sensor 38 with a first image pickup timing signal that defines the timing of image pickup via the communication I / F 15D1 to determine the timing of the image pickup performed by the first image sensor 38. Control.
  • the communication I / F15D2 is connected to the second imaging device 32 via the communication lines 58A and 58B, and controls the exchange of various information between the second imaging device 32 and the CPU 15A.
  • the CPU 15A controls the second image pickup apparatus 32 via the communication I / F15D2.
  • the CPU 15A supplies the second image sensor 52 with a second image pickup timing signal that defines the timing of image pickup via the communication I / F 15D2, so that the timing of the image pickup performed by the second image sensor 52 can be determined. Control.
  • the CPU 15A controls the operation of the drive mechanism 60 by supplying a drive signal to the drive mechanism 60 via the communication I / F15D2.
  • imaging timing signal when it is not necessary to distinguish between the first imaging timing signal and the second imaging timing signal, it is referred to as an "imaging timing signal".
  • the communication I / F15E is connected to the signal processing circuit 34 via the communication line 35, and controls the exchange of various information between the signal processing circuit 34 and the CPU 15A.
  • the signal processing circuit 34 is controlled by the CPU 15A via the communication I / F15E.
  • the image data obtained by performing various signal processing by the signal processing circuit 34 under the control of the CPU 15A is output to the communication I / F 15E by the signal processing circuit 34.
  • the communication I / F15E receives the image data output from the signal processing circuit 34 and transfers the received image data to the CPU 15A.
  • the external I / F 104 is connected to the bus 100.
  • the external I / F 104 is a communication device whose at least a part is composed of a circuit.
  • the external I / F 104 a device in which at least a part is composed of a circuit is illustrated, but this is only an example.
  • the external I / F 104 may be a device that includes an ASIC, FPGA, and / or PLD. Further, the external I / F 104 may be realized by a combination of a hardware configuration and a software configuration.
  • An example of an external I / F 104 is a USB interface.
  • External devices such as smart devices, personal computers, servers, USB memory sticks, memory cards, and / or printers can be directly or indirectly connected to the USB interface.
  • the external I / F 104 controls the exchange of various information between the CPU 15A and the external device.
  • the UI device 17 includes a touch panel display 24 and a reception device 84.
  • the display 26 and the touch panel 28 are connected to the bus 100. Therefore, the CPU 15A displays various information on the display 26 and operates according to various instructions received by the touch panel 28.
  • the reception device 84 includes a hard key unit 25.
  • the hard key unit 25 is at least one hard key including an instruction key 22 (see FIG. 2).
  • the hard key unit 25 is connected to the bus 100, and the CPU 15A acquires an instruction received by the hard key unit 25 and operates according to the acquired instruction.
  • the hard key unit 25 is connected to the external I / F unit 104.
  • the smart device 10 has communication functions such as LTE, 5G, wireless LAN, and / or Bluetooth (registered trademark).
  • an image pickup timing signal is input to the image pickup device from the controller 15.
  • the imaging timing signal includes a vertical synchronization signal and a horizontal synchronization signal.
  • the vertical sync signal is a sync signal that defines the start timing of reading image data for each frame from the photoelectric conversion element.
  • the horizontal synchronization signal is a synchronization signal that defines the start timing of reading image data for each horizontal line from the photoelectric conversion element.
  • image data is read from the photoelectric conversion element at an imaging frame rate determined according to the vertical synchronization signal input from the controller 15. Further, in the image sensor, processing is performed on the image data read from the photoelectric conversion element, and the processed image data is output at the output frame rate.
  • the imaging frame rate and the output frame rate have a relationship of "imaging frame rate> output frame rate". That is, the output frame rate is a frame rate lower than the imaging frame rate.
  • the imaging frame rate is a frame rate at which image data for 8 frames is read from the photoelectric conversion element within the period T as shown in FIG. 5A, and the output frame rate is as shown in FIG. 5B. This is the frame rate at which image data for two frames is output within the period T.
  • Both the imaging frame rate and the output frame rate are variable frame rates.
  • the frame rate of the second image sensor 52 is higher than the frame rate of the first image sensor 38.
  • 240 fps is adopted as the image pickup frame rate of the second image sensor 52
  • 120 fps is adopted as the image pickup frame rate of the first image sensor 38.
  • 60 fps is adopted as the output frame rate of the second image sensor 52
  • 30 fps is adopted as the image pickup frame rate of the first image sensor 38.
  • the image pickup frame rate of the second image pickup device 52 may be a frame rate of more than 240 fps or a frame rate of less than 240 fps.
  • the image pickup frame rate of the first image sensor 38 may be a frame rate of more than 60 fps or less than 60 fps as long as the frame rate is lower than the image pickup frame rate of the second image sensor 52. You may.
  • the output frame rate of the second image sensor 52 may be a frame rate of more than 60 fps or a frame rate of less than 60 fps.
  • the output frame rate of the first image sensor 38 may be a frame rate of more than 30 fps or less than 30 fps as long as the frame rate is lower than the output frame rate of the second image sensor 52. It may be a frame rate.
  • the first image sensor 38 has a photoelectric conversion element 42, a processing circuit 110, and a memory 112 built-in.
  • the first image sensor 38 is an image sensor in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip. That is, the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are packaged in one package.
  • the processing circuit 110 and the memory 112 are laminated on the photoelectric conversion element 42.
  • the photoelectric conversion element 42 and the processing circuit 110 are electrically connected to each other by conductive bumps (not shown) such as copper, so that the processing circuit 110, the memory 112, and the processing circuit 110 have conductivity.
  • the second image sensor 52 is also an image sensor having the same laminated structure as the first image sensor.
  • the second image sensor 52 contains a photoelectric conversion element 56, a processing circuit 120, and a memory 122.
  • the second image sensor 52 is an image sensor in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are integrated into one chip. That is, the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are packaged in one package.
  • the processing circuit 120 and the memory 122 are laminated on the photoelectric conversion element 56.
  • the photoelectric conversion element 56 and the processing circuit 120 are electrically connected to each other by conductive bumps (not shown) such as copper, so that the processing circuit 120, the memory 122, copper and the like have conductivity.
  • each photoelectric conversion element 56 is electrically connected to each other by having bumps (not shown).
  • a three-layer structure of a photoelectric conversion element 56, a processing circuit 120, and a memory 122 is illustrated, but the technique of the present disclosure is not limited to this, and a memory layer in which the processing circuit 120 and the memory 122 are one layer.
  • the photoelectric conversion element 56 may have a two-layer structure.
  • the second image sensor 52 is an example of the "stacked image sensor" according to the technique of the present disclosure. Since each photoelectric conversion element and a processing circuit or the like are connected without going through an external I / F, high-speed communication with each other is possible.
  • processing circuits 110 and 120 when it is not necessary to explain the processing circuits 110 and 120 separately, they are referred to as “processing circuits” without reference numerals, and when it is not necessary to separately explain the memories 112 and 122, they are indicated by reference numerals. Instead, it is called "memory”.
  • the processing circuit is, for example, an LSI.
  • the memory is a memory in which the write timing and the read timing are different.
  • DRAM is adopted as an example of the memory.
  • the technique of the present disclosure holds even if the memory is another type of storage device such as SRAM.
  • the processing circuit is a device including an ASIC and an FPGA, and controls the entire image sensor according to the instruction of the controller 15 described above.
  • a device including an ASIC and an FPGA is illustrated here as a processing circuit, the technique of the present disclosure is not limited to this.
  • the processing circuit may be a device containing an ASIC, FPGA, or PLD, a device containing an FPGA and PLD, or a device containing an ASIC and PLD.
  • the processing circuit may be a computer including a CPU, storage, and memory.
  • Storage refers to a non-volatile storage device such as flash memory.
  • the memory temporarily stores various information and is used as a work memory.
  • An example of the memory is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the number of CPUs included in the computer may be singular or plural.
  • the processing circuit may be realized by a combination of a hardware configuration and a software configuration.
  • the photoelectric conversion element has a plurality of photodiodes arranged in a matrix.
  • An example of a plurality of photodiodes is a photodiode for "4896 x 3265" pixels.
  • a color filter is arranged on each photodiode included in the photoelectric conversion element.
  • the color filter includes a G filter corresponding to G (green), an R filter corresponding to R (red), and a B filter corresponding to B (blue), which contribute most to obtain a luminance signal.
  • the photoelectric conversion element has R pixels, G pixels, and B pixels.
  • the R pixel is a pixel corresponding to the photodiode in which the R filter is arranged
  • the G pixel is the pixel corresponding to the photodiode in which the G filter is arranged
  • the B pixel is the photodiode in which the B filter is arranged. It is a pixel corresponding to.
  • the R pixel, G pixel, and B pixel are arranged in each of the row direction (horizontal direction) and the column direction (vertical direction) with a predetermined periodicity.
  • the R pixel, the G pixel, and the B pixel are arranged with a periodicity corresponding to the X-Trans (registered trademark) arrangement.
  • the X-Trans array is illustrated here, the technique of the present disclosure is not limited to this, and the array of R pixel, G pixel, and B pixel is a Bayer array, a honeycomb (registered trademark) array, or the like. It may be.
  • the image sensor has a so-called electronic shutter function, and by activating the electronic shutter function under the control of the controller 15, the charge accumulation time of each photodiode in the photoelectric conversion element is controlled.
  • the charge accumulation time refers to the so-called shutter speed.
  • Imaging with the image sensor is realized by activating the electronic shutter function of the rolling shutter type.
  • the rolling shutter method is exemplified here, the technique of the present disclosure is not limited to this, and the global shutter method may be applied instead of the rolling shutter method.
  • the area of the photoelectric conversion element 42 on the object side (the size of the light receiving area) and the area of the photoelectric conversion element 56 on the object side (the size of the light receiving area) are the same.
  • the first image data is obtained from the designated first region 42B of the photoelectric conversion element 42
  • the second image data is the designated first of the photoelectric conversion elements 56. Obtained from 2 regions 56B.
  • the second region 56B is a region wider than the first region 42B. That is, the second region 56B cut out from the photoelectric conversion element 56 is a wider region than the first region 42B cut out from the photoelectric conversion element 42.
  • the first region 42B is a region having an aspect ratio of 16: 9
  • the second region 56B is a region having an aspect ratio of 3: 2.
  • the processing circuit 110 includes communication I / F 110D1 and 110D2.
  • the communication I / F15D1 of the controller 15 is connected to the communication I / F110D1 of the processing circuit 110, and outputs the first imaging timing signal to the communication I / F110D1.
  • the communication I / F110D1 receives the first imaging timing signal output from the communication I / F15D1.
  • the second image sensor 52 includes communication I / F 120D1 and 120D2.
  • the communication I / F 120D2 is connected to the communication I / F 110D2 of the first image sensor 38.
  • the communication I / F110D2 of the processing circuit 110 outputs various information such as the first image data to the communication I / F120D2 of the second image sensor 52, and the communication I / F120D2 outputs various information output from the communication I / F110D2. Accept.
  • the communication I / F120D1 of the second image sensor 52 is connected to the communication I / F15D2 of the controller 15.
  • the controller 15 outputs various information including the second image pickup timing signal to the communication I / F 120D1 of the second image pickup element 52.
  • the communication I / F120D1 receives various information output from the communication I / F15D2.
  • the processing circuit 110 includes a reading circuit 110A, a digital processing circuit 110B, and a control circuit 110C in addition to the communication I / F 110D1 and the communication I / F 110D2.
  • the read circuit 110A is connected to each of the photoelectric conversion element 42, the digital processing circuit 110B, and the control circuit 110C.
  • the digital processing circuit 110B is connected to the control circuit 110C.
  • the control circuit 110C is connected to each of the memory 112, the communication I / F110D1, and the communication I / F110D2.
  • first image data is roughly classified into the first analog image data 70A and the first digital image data 70B.
  • first image data when it is not necessary to distinguish between the first analog image data 70A and the first digital image data 70B, they are referred to as "first image data" without reference numerals.
  • Each of the communication I / F 110D1 and 110D2 of the processing circuit 110 is a communication device whose at least a part is composed of a circuit. Further, each of the communication I / F 15D1 and 15D2 of the controller 15 is also a communication device in which at least a part thereof is composed of a circuit. Further, each of the communication I / F 120D1 and 120D2 of the second image sensor 52 is also a communication device in which at least a part thereof is composed of a circuit.
  • the communication I / F110D1 of the processing circuit 110 and the communication I / F15D1 of the controller 15 are connected according to the PCIe connection standard. Further, the communication I / F110D2 of the processing circuit 110 and the communication I / F120D2 of the second image sensor 52 are also connected according to the PCIe connection standard. Further, the communication I / F120D1 of the second image sensor 52 and the communication I / F15D2 of the controller 15 are also connected according to the PCIe connection standard.
  • the communication I / F110D1 receives the first imaging timing signal output from the communication I / F15D1 of the controller 15 and transfers the received first imaging timing signal to the control circuit 110C.
  • the reading circuit 110A controls the photoelectric conversion element 42 under the control of the control circuit 110C, and reads out the first analog image data 70A obtained by being imaged by the photoelectric conversion element 42 from the photoelectric conversion element 42.
  • the reading of the first analog image data 70A from the photoelectric conversion element 42 is performed according to the first imaging timing signal input from the controller 15 to the processing circuit 110. That is, the first analog image data 70A is read from the photoelectric conversion element 42 by the reading circuit 110A at the first imaging frame rate defined by the first imaging timing signal.
  • the communication I / F 110D1 receives the first imaging timing signal from the controller 15 and transfers the received first imaging timing signal to the control circuit 110C.
  • the control circuit 110C transfers the first imaging timing signal transferred from the communication I / F 110D1 to the reading circuit 110A. That is, the vertical synchronization signal and the horizontal synchronization signal are transferred to the reading circuit 110A.
  • the reading circuit 110A starts reading the first analog image data 70A from the photoelectric conversion element 42 in frame units according to the vertical synchronization signal transferred from the control circuit 110C. Further, the reading circuit 110A starts reading the first analog image data 70A in units of horizontal lines according to the horizontal synchronization signal transferred from the control circuit 110C.
  • the reading circuit 110A performs analog signal processing on the first analog image data 70A read from the photoelectric conversion element 42.
  • the analog signal processing includes known processing such as noise canceling processing and analog gain processing.
  • the noise canceling process is a process for canceling noise caused by variations in characteristics between pixels included in the photoelectric conversion element 42.
  • the analog gain process is a process of applying a gain to the first analog image data 70A.
  • the first analog image data 70A subjected to analog signal processing in this way is output to the digital processing circuit 110B by the reading circuit 110A.
  • the digital processing circuit 110B includes an A / D converter 110B1.
  • the A / D converter 110B1 A / D converts the first analog image data 70A.
  • the digital processing circuit 110B performs digital signal processing on the first analog image data 70A input from the reading circuit 110A.
  • the digital signal processing includes, for example, A / D conversion by the A / D converter 110B1 and digital gain processing.
  • the A / D converter 110B1 performs A / D conversion on the first analog image data 70A, whereby the first analog image data 70A is digitized and the first digital image data 70B is used as RAW data. can get. Then, the digital gain processing is performed on the first digital image data 70B by the digital processing circuit 110B.
  • the digital gain process refers to a process of applying a gain to the first digital image data 70B.
  • the first digital image data 70B obtained by performing the digital signal processing in this way is output to the control circuit 110C by the digital processing circuit 110B.
  • the memory 112 is a memory capable of storing a plurality of frames of the first digital image data 70B in frame units.
  • the control circuit 110C stores the first digital image data 70B input from the digital processing circuit 110B in the memory 112.
  • the memory 112 has a storage area in pixel units, and the first digital image data 70B is stored in the corresponding storage area of the memory 112 in pixel units by the control circuit 110C.
  • the control circuit 110C is accessible to the memory 112 and acquires the first digital image data 70B from the memory 112.
  • An example of access to the memory 112 is random access.
  • the processing circuit 120 includes communication I / F 120D1, 120D2, and 120D3.
  • the communication I / F15D2 of the controller 15 is connected to the communication I / F120D1 of the processing circuit 120, and outputs the second imaging timing signal to the communication I / F120D1.
  • the communication I / F120D1 receives the second imaging timing signal output from the communication I / F15D2.
  • the signal processing circuit 34 includes communication I / F 34A and 34B.
  • Each of the communication I / F 34A and 34B is a communication device composed of at least a part of a circuit.
  • the communication I / F34A is connected to the communication I / F120D3 of the processing circuit 120, and the communication I / F34B is connected to the communication I / F15E of the controller 15.
  • the communication I / F120D1 of the processing circuit 120 and the communication I / F15D2 of the controller 15 are connected according to the PCIe connection standard. Further, the communication I / F 120D3 of the processing circuit 120 and the communication I / F 34A of the signal processing circuit 34 are also connected according to the PCIe connection standard. Further, the communication I / F34B of the signal processing circuit 34 and the communication I / F15E of the controller 15 are also connected according to the PCIe connection standard.
  • the communication I / F 120D3 of the processing circuit 120 outputs various information such as the first image data and the composite image data 90 (see FIG. 15) described later to the communication I / F 34A of the signal processing circuit 34, and the communication I / F 34A Receives various information output from the communication I / F 120D3.
  • the signal processing circuit 34 performs signal processing on various information received by the communication I / F 34A as needed.
  • the communication I / F34B is connected to the communication I / F15E of the controller 15 and outputs various information to the communication I / F15E of the controller 15.
  • the communication I / F15E receives various information output from the communication I / F34B.
  • the communication I / F a communication device in which at least a part is composed of a circuit is adopted.
  • Examples of communication I / F include devices including ASICs, FPGAs, and / or PLDs.
  • the communication I / F may be a computer including a CPU, a storage such as a flash memory, and a memory such as a RAM. In this case, the number of CPUs included in the computer may be singular or plural.
  • a GPU may be used instead of the CPU.
  • the communication I / F may be realized by a combination of a hardware configuration and a software configuration.
  • the processing circuit 120 includes a reading circuit 120A, a digital processing circuit 120B, and a control circuit 120C in addition to the communication I / F 120D1, 120D2, and 120D3.
  • the control circuit 120C is an example of a "processing unit (control circuit)" according to the technique of the present disclosure.
  • the read circuit 120A is connected to each of the photoelectric conversion element 56, the digital processing circuit 120B, and the control circuit 120C.
  • the digital processing circuit 120B is connected to the control circuit 120C.
  • the control circuit 120C is connected to each of the memory 122, the communication I / F120D1, the communication I / F120D2, and the communication I / F120D3.
  • the above-mentioned second image data is roughly classified into a second analog image data 80A and a second digital image data 80B.
  • second image data when it is not necessary to distinguish between the second analog image data 80A and the second digital image data 80B, they are referred to as "second image data" without reference numerals.
  • the communication I / F 120D1 receives the second imaging timing signal output from the communication I / F15D2 of the controller 15 and transfers the received second imaging timing signal to the control circuit 120C.
  • the reading circuit 120A controls the photoelectric conversion element 56 under the control of the control circuit 120C, and reads out the second analog image data 80A obtained by imaging by the photoelectric conversion element 56 from the photoelectric conversion element 56.
  • the reading of the second analog image data 80A from the photoelectric conversion element 56 is performed according to the second imaging timing signal input from the controller 15 to the processing circuit 120. That is, the second analog image data 80A is read from the photoelectric conversion element 56 by the reading circuit 120A at the second imaging frame rate defined by the second imaging timing signal.
  • the communication I / F 120D1 receives the second imaging timing signal from the controller 15 and transfers the received second imaging timing signal to the control circuit 120C.
  • the control circuit 120C transfers the second imaging timing signal transferred from the communication I / F 120D1 to the reading circuit 120A. That is, the vertical synchronization signal and the horizontal synchronization signal are transferred to the reading circuit 120A.
  • the reading circuit 120A starts reading the second analog image data 80A from the photoelectric conversion element 56 in frame units according to the vertical synchronization signal transferred from the control circuit 120C. Further, the reading circuit 120A starts reading the second analog image data 80A in units of horizontal lines according to the horizontal synchronization signal transferred from the control circuit 120C.
  • the reading circuit 120A performs analog signal processing on the second analog image data 80A read from the photoelectric conversion element 56.
  • the analog signal processing includes known processing such as noise canceling processing and analog gain processing.
  • the noise canceling process is a process for canceling noise caused by variations in characteristics between pixels included in the photoelectric conversion element 56.
  • the analog gain process is a process of applying a gain to the second analog image data 80A.
  • the second analog image data 80A subjected to the analog signal processing in this way is output to the digital processing circuit 120B by the reading circuit 120A.
  • the digital processing circuit 120B includes an A / D converter 120B1.
  • the A / D converter 120B1 A / D converts the second analog image data 80A.
  • the digital processing circuit 120B performs digital signal processing on the second analog image data 80A input from the reading circuit 120A.
  • the digital signal processing includes, for example, A / D conversion by the A / D converter 120B1 and digital gain processing.
  • the A / D converter 120B1 performs A / D conversion on the second analog image data 80A, whereby the second analog image data 80A is digitized and the second digital image data 80B is used as RAW data. can get. Then, the second digital image data 80B is subjected to digital gain processing by the digital processing circuit 120B.
  • the digital gain process refers to a process of applying a gain to the second digital image data 80B.
  • the second digital image data 80B obtained by performing the digital signal processing in this way is output to the control circuit 120C by the digital processing circuit 120B.
  • the memory 122 is a memory that can store a plurality of frames of digital image data in frame units.
  • the control circuit 120C stores the second digital image data 80B input from the digital processing circuit 120B in the memory 122. Further, the control circuit 120C stores the first digital image data 70B received by the communication I / F 120D2 in the memory 122.
  • the memory 122 has a storage area in pixel units, and digital image data is stored in the corresponding storage area of the memory 122 in pixel units by the control circuit 120C.
  • the control circuit 120C is accessible to the memory 122. An example of access to the memory 122 is random access.
  • the control circuit 120C acquires digital image data from the memory 122 and outputs the image data based on the acquired digital image data to the signal processing circuit 34 via the communication I / F 120D3.
  • image data based on digital image data refers to image data based on the first digital image data 70B or the second digital image data 80B.
  • the image data based on the second digital image data 80B refers to, for example, the second digital image data 80B or the composite image data 90 described later.
  • the image data input from the communication I / F120D3 is received by the communication I / F34A, and various signal processing is performed on the received image data.
  • the first analog image data 70A is generated by exposing the photoelectric conversion element 42, and when a vertical synchronization signal is input, the photoelectric conversion element 42 sends the first analog image data 70A.
  • the first analog image data 70A is read out and the photoelectric conversion element 42 is reset.
  • the reset of the photoelectric conversion element 42 refers to an operation of erasing the residual charge of each pixel in the photoelectric conversion element 42.
  • the exposure by the photoelectric conversion element 42 is performed between the time when the photoelectric conversion element 42 is previously reset by the read circuit 110A and the time when the readout is performed.
  • the first digital image data 70B is generated by performing digital signal processing on the first analog image data 70A, and the generated first digital image data 70B is stored in the memory 112. Then, the first digital image data 70B stored in the memory 112 is output to the second image sensor 52 and stored in the memory 122 of the second image sensor 52.
  • the second analog image data 80A is generated by exposing the photoelectric conversion element 56, and when the vertical synchronization signal is input, the second analog image data 80A from the photoelectric conversion element 56 is generated. Is read out and the photoelectric conversion element 56 is reset.
  • the reset for the photoelectric conversion element 56 refers to an operation of erasing the residual charge of each pixel in the photoelectric conversion element 56. The exposure by the photoelectric conversion element 56 is performed between the time when the previous reset of the photoelectric conversion element 56 by the reading circuit 120A is performed and the time when the reading is performed.
  • the exposure time at the photoelectric conversion element 56 is a variable exposure time.
  • the variable exposure time refers to an exposure time that can be changed for each frame by the control circuit 120C.
  • the control circuit 120C changes the exposure time at the photoelectric conversion element 56 under the control of the controller 15 according to the imaging conditions (for example, the brightness of the imaging scene and / or the instruction received by the receiving device 84). To do.
  • the exposure time at the photoelectric conversion element 56 is changed, for example, by shifting the input timing of the vertical synchronization signal input to the second image pickup element 52. In this way, by changing the exposure time of the photoelectric conversion element 56 for each frame, the second image sensor 52 performs imaging in which the exposure amount can be changed for each frame.
  • the second digital image data 80B is generated by performing digital signal processing on the second analog image data 80A.
  • the second digital image data 80B is stored in the memory 122 by the control circuit 120C.
  • the focal length set for the first imaging device 30 (hereinafter, referred to as “first focal length”) is the focal length set for the second imaging device 32. It is shorter than the distance (hereinafter referred to as "second focal length"). Therefore, the angle of view of the image captured by the first imaging device 30 is wider than the angle of view of the image captured by the second imaging device 32.
  • the second focal length is changed by the optical zoom mechanism 59 (see FIG. 3). In this case, the moving range of the zoom lens 18B is limited to the range in which the relationship of "second focal length> first focal length" is maintained.
  • the position of the imaging lens 16B on the optical axis L1 does not change.
  • the imaging lens 16B may be a lens that can be moved along the optical axis L1.
  • the moving range of the imaging lens 16B maintains the relationship of "second focal length> first focal length". It is limited to the range to be done.
  • the imaging range by the first imaging device 30 (hereinafter, , “First imaging range”) is wider than the imaging range by the second imaging device 32 (hereinafter referred to as “second imaging range”). Further, the first imaging range and the second imaging range overlap. That is, the first imaging range includes the second imaging range.
  • the first image is shown by the first digital image data 70B obtained by capturing the first image pickup range by the first image pickup element 38 included in the first image pickup apparatus 30.
  • the image (hereinafter, also simply referred to as “first image”) is shown by the second digital image data 80B obtained by capturing the second image pickup range by the second image pickup element 52 included in the second image pickup device 32.
  • This is a wider-angle image than the second image (hereinafter, also simply referred to as “second image”).
  • the second image has a higher resolution than the first image. That is, the pixel density of the second image is higher than the pixel density of the first image.
  • the first digital image data 70B obtained by imaging the subject by the first image sensor 38 is temporarily stored in the memory 112 and then second imaged by the communication I / F 110D2. It is output to the element 52.
  • the first image sensor 38 and the second image sensor 52 are image sensors connected in series, and the first digital image data 70B is imaged in the subsequent stage by the communication I / F 120D2 of the first image sensor 38 which is the image sensor in the previous stage. It is output to the second image sensor 52, which is an element.
  • the first digital image data 70B output by the communication I / F 120D2 is received by the communication I / F 120D2 of the second image sensor 52, and the received first digital image data 70B is stored in the memory 122.
  • the second digital image data 80B obtained by being imaged by the second image sensor 52 is also stored in the memory 122.
  • the first digital image data 70B stored in the memory 122 is digital image data obtained by capturing the first imaging range by the first image sensor 38 at the first focal length. Further, the second digital image data 80B stored in the memory 122 is digital image data obtained by capturing the second imaging range by the second image sensor at a second focal length longer than the first focal length. is there.
  • the first digital image data 70B is an example of the "first focal length image data" according to the technique of the present disclosure
  • the second digital image data 80B is the "second focal length image data" according to the technique of the present disclosure. Is an example.
  • the control circuit 120C includes a detection unit 120C1, a determination unit 120C2, and a synthesis unit 120C3.
  • the first digital image data 70B obtained by imaging the first imaging range (see FIG. 12) by the first image sensor 38 and the second imaging range by the second image sensor 52 (FIG. 12).
  • the second digital image data 80B obtained by imaging the image (see 12) is stored.
  • the control circuit 120C processes the second digital image data 80B stored in the memory 122. Specifically, first, the detection unit 120C1 performs a detection process of detecting a person image indicating a person from the second image indicated by the second digital image data stored in the memory 122. The detection unit 120C1 detects a person image by using a known face detection process. Since the face detection process is a known technique, the description thereof is omitted here.
  • a person is an example of a "specific subject” according to the technique of the present disclosure, and a "personal image” is an example of a "specific subject image” according to the technique of the present disclosure. Further, the person may be an unspecified person or a specific person (specific individual).
  • a person is illustrated as an example of a "specific subject" according to the technique of the present disclosure, but the technique of the present disclosure is not limited to this, and a subject other than the person (for example, a building, a vehicle). , Plants, insects, animals, food and drink, and / or small items, etc.).
  • the learning result obtained by pre-learning (for example, machine learning) a specific subject image showing a specific subject or a feature amount (frequency characteristic, etc.) of the specific subject image by a computer or the like. It may be done by using.
  • the determination unit 120C2 determines whether or not a person image is detected from the second image by the detection process. When the person image is not detected by the detection process, the determination unit 120C2 acquires the first digital image data 70B from the memory 122. The determination unit 120C2 outputs the first digital image data 70B acquired from the memory 122 to the signal processing circuit 34 via the communication I / F 120D3.
  • the determination unit 120C2 When a person image is detected by the detection process, the determination unit 120C2 outputs a detection success signal indicating that the person image has been detected by the detection process to the synthesis unit 120C3.
  • the detection success signal is input from the determination unit 120C2
  • the synthesis unit 120C3 acquires the first digital image data 70B from the memory 122.
  • the synthesis unit 120C3 generates the composite image data 90 by synthesizing the first digital image data 70B acquired from the memory 122 and the second digital image data 80B targeted to be detected by the detection unit 120C1.
  • the image shown by the composite image data 90 is, for example, an image in which the second image is embedded in the first image, as shown in FIG.
  • the synthesis unit 120C3 outputs the composite image data 90 to the signal processing circuit 34 via the communication I / F 120D3.
  • the first digital image data 70B acquired from the memory 122 by the determination unit 120C2 and the synthesis unit 120C3 from the memory 112 obtains, for example, the second digital image data 80B detected by the detection unit 120C1. Therefore, it is digital image data obtained by imaging the first imaging range by the first image sensor 38 in synchronization with the timing when the second imaging range is imaged by the second image sensor 52.
  • the second image may be superimposed on the first image, the first image and the second image may be connected in a state of being adjacent to each other, or the alpha of the first image and the second image may be superimposed. It may be a blend or another synthetic method.
  • the signal processing circuit 34 performs various signal processing on the image data (first digital image data 70B or composite image data 90 in the example shown in FIG. 15) input from the second image pickup element 52, and performs various signals.
  • the processed image data is output to the controller 15.
  • the image data is stored in the storage 15B by the CPU 15A, or via an external I / F 104, a smart device, a personal computer, a server, a USB memory, and / or a memory card, etc. It is remembered in.
  • the controller 15A when the image data is input, the CPU 15A displays the image based on the image data on the display 26 as a still image or a live view image.
  • the storage of the image data or the display of the image based on the image data is performed. It may be.
  • step ST10 the control circuit 110C determines whether or not the vertical synchronization signal from the controller 15 has been received by the communication I / F 110D1. In step ST10, if the vertical synchronization signal from the controller 15 is not received by the communication I / F 110D1, the determination is denied and the pre-stage imaging process proceeds to step ST22. If the vertical synchronization signal from the controller 15 is received by the communication I / F 110D1 in step ST10, the determination is affirmed and the pre-stage imaging process proceeds to step ST12.
  • step ST12 the reading circuit 110A reads out the first analog image data 70A and resets the photoelectric conversion element 42, and then the pre-stage imaging process shifts to step ST14.
  • step ST14 the digital processing circuit 110B performs digital signal processing on the first analog image data 70A, and then the pre-stage imaging process shifts to step ST16.
  • the first digital image data 70B obtained by performing digital signal processing on the first analog image data 70A in step ST14 is transferred to the control circuit 110C.
  • step ST16 the control circuit 110C stores the first digital image data 70B in the memory 112, and then the pre-stage imaging process shifts to step ST18.
  • step ST18 the control circuit 110C determines whether or not the timing for outputting the first digital image data 70B to the second image sensor 52 (first output timing) has arrived.
  • first output timing a timing defined by the output frame rate of the first image sensor 38 can be mentioned. If the first output timing has not arrived in step ST18, the determination is denied and the determination in step ST18 is performed again. When the first output timing arrives in step ST18, the determination is affirmed, and the pre-stage imaging process shifts to step ST20.
  • step ST20 the control circuit 110C acquires the first digital image data 70B from the memory 112, outputs the acquired first digital image data 70B to the second image sensor 52 via the communication I / F 110D2, and then outputs the acquired first digital image data 70B to the second image sensor 52.
  • the pre-stage imaging process proceeds to step ST22.
  • step ST22 the control circuit 110C determines whether or not the condition for ending the pre-stage imaging process (hereinafter, referred to as "previous stage imaging process end condition") is satisfied.
  • the pre-stage imaging process end condition there is a condition that the reception device 84 (see FIG. 4) has received an instruction to end the pre-stage image pickup process. If the condition for ending the pre-stage imaging process is not satisfied in step ST22, the determination is denied and the pre-stage imaging process proceeds to step ST10. If the condition for ending the pre-stage imaging process is satisfied in step ST22, the determination is affirmed and the pre-stage imaging process ends.
  • step ST30 the control circuit 120C determines whether or not the vertical synchronization signal from the controller 15 has been received by the communication I / F 120D1. In step ST30, if the vertical synchronization signal from the controller 15 is not received by the communication I / F 120D1, the determination is denied and the subsequent imaging process proceeds to step ST56. In step ST30, when the vertical synchronization signal from the controller 15 is received by the communication I / F 120D1, the determination is affirmed, and the subsequent imaging process proceeds to step ST32.
  • step ST32 the reading circuit 120A reads out the second analog image data 80A and resets the photoelectric conversion element 56, and then the subsequent imaging process shifts to step ST34.
  • step ST34 the digital processing circuit 120B performs digital signal processing on the second analog image data 80A, and then the subsequent imaging process shifts to step ST36.
  • the second digital image data 80B obtained by performing digital signal processing on the second analog image data 80A in step ST34 is transferred to the control circuit 120C.
  • step ST36 the control circuit 120C stores the second digital image data 80B in the memory 122, and then the subsequent imaging process shifts to step ST38.
  • step ST38 the control circuit 120C determines whether or not the first digital image data 70B has been input from the first image sensor 38. If the first digital image data 70B is not input from the first image sensor 38 in step ST38, the determination is denied and the determination in step ST38 is performed again. When the first digital image data 70B is input from the first image sensor 38 in step ST38, the determination is affirmed, and the subsequent image pickup process proceeds to step ST40.
  • step ST40 the control circuit 120C stores the first digital image data 70B input in step ST38 in the memory 122, and then the subsequent imaging process shifts to step ST42.
  • step ST42 the detection unit 120C1 acquires the second digital image data 80B from the memory 122, and then the subsequent imaging process shifts to step ST44.
  • step ST44 the detection unit 120C1 performs detection processing using the second digital image data 80B acquired in step ST44, and then the subsequent imaging process shifts to step ST45.
  • step ST45 the determination unit 120C2 determines whether or not the person image is detected by the detection process in step ST44 from the second image indicated by the second digital image data 80B. If no person image is detected from the second image in step ST45, the determination is denied, and the subsequent imaging process proceeds to step ST46 shown in FIG. 17B. If a person image is detected from the second image in step ST45, the determination is affirmed, and the subsequent imaging process proceeds to step ST50.
  • step ST46 shown in FIG. 17B the determination unit 120C2 determines whether or not the timing for outputting the first digital image data 70B to the signal processing circuit 34 (second output timing) has arrived.
  • the second output timing there is a timing defined by the output frame rate of the second image sensor 52.
  • step ST46 If the second output timing has not arrived in step ST46, the determination is denied and the determination in step ST46 is performed again.
  • the determination is affirmed, and the subsequent imaging process shifts to step ST48.
  • step ST48 the determination unit 120C2 acquires the first digital image data 70B from the memory 122, outputs the acquired first digital image data 70B to the signal processing circuit 34 via the communication I / F 120D3, and then outputs the acquired first digital image data 70B to the signal processing circuit 34.
  • the imaging process proceeds to step ST56 shown in FIG. 17A.
  • step ST50 shown in FIG. 17A the synthesis unit 120C3 acquires the first digital image data 70B from the memory 122, and the acquired first digital image data 70B and the second digital image data 70B used as the detection target of the detection process in step ST44.
  • the composite image data 90 is generated by synthesizing the digital image data 80B, and then the subsequent imaging process proceeds to step ST52.
  • step ST52 the synthesis unit 120C3 determines whether or not the second output timing has arrived. If the second output timing has not arrived in step ST52, the determination is denied and the determination in step ST52 is performed again. When the second output timing arrives in step ST52, the determination is affirmed, and the subsequent imaging process shifts to step ST54.
  • step ST54 the synthesis unit 120C3 outputs the composite image data 90 generated in step ST50 to the signal processing circuit 34 via the communication I / F 120D3, and then the subsequent imaging process shifts to step ST56.
  • step ST56 the control circuit 120C determines whether or not the condition for terminating the post-stage imaging process (hereinafter, referred to as "post-stage imaging process end condition") is satisfied.
  • the condition for ending the latter-stage imaging process there is a condition that the reception device 84 (see FIG. 4) has received an instruction to end the latter-stage imaging process. If the condition for ending the subsequent imaging process is not satisfied in step ST56, the determination is denied and the subsequent imaging process proceeds to step ST30. If the condition for ending the subsequent imaging process is satisfied in step ST56, the determination is affirmed and the subsequent imaging process ends.
  • the first digital image data 70B obtained by capturing the first imaging range by the first image sensor 38 is stored in the memory 122 of the second image sensor 52.
  • the second digital image data 80B obtained by imaging the second imaging range by the second image sensor 52 is stored in the memory 122.
  • the detection unit 120C1 performs a detection process for detecting a person image from the second image indicated by the second digital image data 80B. Since the second image is an image having a higher resolution than the first image, the person image is detected with higher accuracy than when the person image is detected using the first image.
  • the first digital image data 70B stored in the memory 122 is output to the signal processing circuit 34.
  • the first digital image data 70B stored in the memory 122 and the second digital image data 80B used in the detection process are combined by the compositing unit 120C3. It is synthesized. Then, the composite image data 90 obtained by synthesizing the first digital image data 70B and the second digital image data 80B is output to the signal processing circuit 34.
  • the first digital image data 70B is always output to the signal processing circuit 34 regardless of the detection result obtained by performing the process of detecting the person image with only the first image as the detection target.
  • a detection process for detecting a person image is performed with higher accuracy than in the case where the image is performed, and image data indicating an image having a resolution suitable for the detection result by the detection process can be output to the signal processing circuit 34.
  • the imaging ranges of the first image sensor 38 and the second image sensor 52 overlap each other. That is, the second imaging range is included in the first imaging range. Therefore, according to this configuration, it is possible to easily identify whether or not a person exists in the first imaging range, as compared with the case where the first imaging range and the second imaging range do not overlap.
  • the second digital image data 80B is image data obtained by being imaged by the second image sensor 52 at a second focal length longer than the first focal length. Therefore, according to this configuration, the image data obtained by being imaged by the second image sensor 52 at the same focal length as the first focal length or a focal length shorter than the first focal length is used to obtain a portrait image. A person image can be detected with higher accuracy than when the detection is performed.
  • the second focal length is changed by the optical zoom mechanism 59. Therefore, according to this configuration, the second image sensor 52 can perform the detection process using the second digital image data 80B obtained by taking images at various angles of view.
  • the second image sensor 52 performs imaging in which the exposure amount can be changed for each frame. Therefore, according to this configuration, as compared with the case where the exposure amount of the second image indicated by the second digital image data 80B for each frame obtained by being imaged by the second image pickup element 52 is always constant, the person image The detection accuracy can be improved.
  • the aspect ratio of the second region 56B is 3: 2
  • the aspect ratio of the first region 42B is 16: 9. Therefore, according to this configuration, the range in which the person image is detected from the second image by the detection process is set as compared with the case where the aspect ratio of the second region 56B is 16: 9, which is the same as the aspect ratio of the first region 42B. Can be expanded.
  • the frame rate of the second image sensor 52 is higher than the frame rate of the first image sensor 38. Therefore, according to this configuration, the detection process can be performed at a higher speed than when the first image sensor 38 detects the person image from the first image.
  • the second image pickup element 52 an image pickup element in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are integrated into one chip is adopted. Therefore, according to this configuration, the portability of the second image sensor 52 is higher than that of the image sensor in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are not integrated into one chip. Further, the degree of freedom in design can be increased as compared with the image pickup device in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are not integrated into one chip. Further, it can contribute to the miniaturization of the image pickup device 14 as compared with the image pickup device in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are not integrated into one chip.
  • the second image pickup element 52 a laminated image pickup element in which a memory 122 is laminated on a photoelectric conversion element 56 is adopted.
  • the wiring connecting the photoelectric conversion element 56 and the memory 122 can be shortened, so that the wiring delay can be reduced.
  • the transfer speed of image data from the photoelectric conversion element 56 to the memory 122 can be increased.
  • the improvement of the transfer speed also contributes to the speeding up of the processing in the entire processing circuit 120.
  • the degree of freedom in design can be increased as compared with the case where the photoelectric conversion element 56 and the memory 122 are not stacked. Further, it can contribute to the miniaturization of the image pickup apparatus 14 as compared with the case where the photoelectric conversion element 56 and the memory 122 are not stacked.
  • a live view image or the like based on the image data output from the second image sensor 52 is displayed on the display 26 by the CPU 15A. Therefore, according to this configuration, the user can visually recognize a live view image or the like based on the image data output from the second image sensor 52.
  • the image data output from the second imaging element 52 is stored in the storage 15B, the smart device, the personal computer, the server, the USB memory, and / or the memory card by the CPU 15A. Therefore, according to this configuration, the image data output from the second image sensor 52 can be managed.
  • the first image sensor 38 is directly connected to the signal processing circuit 34 by the communication line LN1
  • the second image sensor 52 is directly connected to the signal processing circuit 34 by the communication line LN2.
  • An example of the form is shown.
  • the signal processing circuit 34 corresponds to each of the first image sensor 38 and the second image sensor 52. You need an interface to do. Therefore, the number of wirings increases as compared with the case where only a single image sensor is connected to the signal processing circuit 34.
  • the first image sensor 38, the second image sensor 52, and the signal processing circuit 34 are connected in series, and the first digital image is transmitted from the first image sensor 38 to the second image sensor 52.
  • Data 70B is output.
  • the first digital image data 70B and the composite image data 90 are selectively output from the second image sensor 52 to the signal processing circuit 34. Therefore, according to this configuration, the first image sensor 38 is directly connected to the signal processing circuit 34 by the communication line LN1, and the second image sensor 52 is directly connected to the signal processing circuit 34 by the communication line LN2.
  • the number of wirings required to connect the first image sensor 38 and the second image sensor 52 to the signal processing circuit 34 can be suppressed.
  • the technique of the present disclosure is not limited to this.
  • the second digital image data 80B may be output from the second image sensor 52 to the signal processing circuit 34.
  • the image data based on the second digital image data 80B (for example, the image data obtained by processing the second digital image data 80B) may be output from the second image pickup element 52 to the signal processing circuit 34.
  • the image data based on the second digital image data 80B is also an example of the "second image data" according to the technique of the present disclosure.
  • step ST52 shown in FIG. 17A becomes unnecessary, and the step shown in FIG. 17A
  • the process of step ST154 is performed by the control circuit 120C instead of the process of ST54. That is, in step ST154, the control circuit 120C outputs the second digital image data 80B used in the detection process of step ST44 to the signal processing circuit 34.
  • the image based on the second digital image data 80B is displayed on the display 26 under the control of the CPU 15A of the controller 15.
  • the second digital image data 80B may be stored in a storage device such as a storage 15B.
  • the second digital image data 80B may be used by the detection unit 120C1 without being stored in the memory 122. That is, the second digital image data 80B may be processed by the control circuit 120C without being stored in the memory 122.
  • the second image pickup element 52 an image pickup element in which the photoelectric conversion element 56, the processing circuit 120, and the memory 122 are integrated into one chip is exemplified, but the technique of the present disclosure is not limited thereto. ..
  • the photoelectric conversion element 56, the processing circuit 120, and the memory 122 at least the photoelectric conversion element 56 and the memory 122 may be integrated into one chip.
  • the first digital image data 70B or the composite image data 90 is selectively output according to the detection result by the detection process, but the technique of the present disclosure is limited to this. Not done.
  • the second digital image data 80B may be output from the second image sensor 52 to the signal processing circuit 34 regardless of the detection result of the detection process.
  • the communication line 58A sends an output request signal requesting that the controller 15 output the second digital image data 80B to the signal processing circuit 34 regardless of the detection result of the detection process. Is output to the second image sensor 52 via. In the second image sensor 52, the output request signal is received by the communication I / F 120D1.
  • the communication I / F 120D1 is an example of the "acceptor" according to the technology of the present disclosure.
  • the control circuit 120C When the output request signal is received by the communication I / F 120D1, the control circuit 120C outputs the second digital image data 80B to the signal processing circuit 34 regardless of the detection result by the detection processing. According to this configuration, it is possible to contribute to the improvement of convenience of the user who requests the output of the second digital image data 80B regardless of the detection result by the detection process.
  • the stacked image sensor is exemplified as the first image sensor 38, but the technique of the present disclosure is not limited to this, and the first image sensor 38 may be a non-stacked image sensor. Good.
  • the first digital image data 70B is generated from the non-stacked image sensor and the first analog image data 70A obtained by the non-stacked image sensor, and the generated first digital image data 70B is generated. 1
  • a first image pickup device having a processing circuit for outputting digital image data 70B to the second image pickup element 52 may be applied.
  • the first analog image data 70A is output from the first image sensor 38 to the second image sensor 52, and the second image sensor 52 first outputs the first analog image data 70A.
  • the analog image data 70A may be digitized to generate the first digital image data 70B.
  • the communication I / F are connected according to the PCIe connection standard, but the technique of the present disclosure is not limited to this.
  • PCIe connection standard other connection standards such as LVDS, SATA, SLVS-EC, or MIPI may be adopted.
  • communication between the second image sensor 52 and the signal processing circuit 34, communication between the controller 15 and the first image sensor 38, communication between the controller 15 and the second image sensor 52, and The communication between the signal processing circuit 34 and the controller 15 is a wired communication.
  • the communication with the controller 15 may be a wireless communication.
  • the UI device 17 is incorporated in the smart device 10
  • at least a part of the plurality of components included in the UI device 17 is the smart device 10. It may be externally attached to. Further, at least a part of the plurality of components included in the UI device 17 may be used as a separate body by being connected to the external I / F 104.
  • processing circuit 120 a device including an ASIC and an FPGA is illustrated as the processing circuit 120, but the technique of the present disclosure is not limited to this, and the processing circuit 120 is realized by a software configuration by a computer. You may.
  • the computer 852 is built in the image pickup apparatus 14.
  • the second image sensor 52 has a built-in computer 852 instead of the processing circuit 120.
  • the pre-stage imaging processing program 902A for causing the computer 852 to execute the pre-stage imaging processing according to the above embodiment is stored in the storage medium 900.
  • the post-stage image pickup processing program 902B for causing the computer 852 to execute the post-stage image pickup process according to the above embodiment is also stored in the storage medium 900.
  • An example of the storage medium 900 is an arbitrary portable storage medium such as an SSD or a USB memory which is a non-temporary storage medium.
  • imaging device processing is used to distinguish between the pre-stage imaging process program 902A and the post-stage imaging process program 902B.
  • imaging device processing program it is referred to as an "imaging device processing program”.
  • the computer 852 includes a CPU 852A, a storage 852B, and a memory 852C.
  • the storage 852B is a non-volatile storage device such as EEPROM
  • the memory 852C is a volatile storage device such as RAM.
  • the image pickup device processing program 902 stored in the storage medium 900 is installed in the computer 852.
  • the CPU 852A executes the image pickup device processing according to the image pickup device processing program 902.
  • the image pickup device processing program 902 may be stored in the storage 852B instead of the storage medium 900.
  • the CPU 852A reads the image pickup device processing program 902 from the storage 852B, and executes the read image pickup device processing program 902 in the memory 852C. In this way, the image pickup device processing is realized by executing the image pickup device processing program 902 by the CPU 852A.
  • the image pickup device processing program 902 is stored in a storage unit of another computer or server device connected to the computer 852 via the communication network (not shown), and the image pickup device processing program 902 is stored in response to the above-mentioned request of the smart device 10.
  • the device processing program 902 may be downloaded and installed on the computer 852.
  • the CPU 852A is a single CPU, but may be a plurality of CPUs. Further, a GPU may be applied instead of the CPU 852A.
  • a computer 852 is illustrated, but the technique of the present disclosure is not limited to this, and a device including an ASIC, FPGA, and / or PLD may be applied instead of the computer 852. .. Further, instead of the computer 852, a combination of a hardware configuration and a software configuration may be used.
  • the processor includes software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing image pickup device processing by executing a program.
  • examples of the processor include a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC.
  • a memory is built in or connected to each processor, and each processor executes image pickup processing by using the memory.
  • the hardware resource that performs the imaging device processing may consist of one of these various processors, or a combination of two or more processors of the same type or dissimilarity (eg, a combination of multiple FPGAs, or a combination of multiple FPGAs). It may be composed of a combination of a CPU and an FPGA). Further, the hardware resource for executing the image pickup apparatus processing may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource for executing image pickup device processing. ..
  • SoC there is a form in which a processor that realizes the functions of the entire system including a plurality of hardware resources for executing image pickup device processing with one IC chip is used.
  • the image pickup apparatus processing is realized by using one or more of the above-mentioned various processors as a hardware resource.
  • the smart device 10 is illustrated, but the technology of the present disclosure is not limited to this. That is, the technique of the present disclosure can be applied to various electronic devices (for example, interchangeable lens cameras, fixed lens cameras, personal computers, and / or wearable terminal devices, etc.) in which the image pickup device 14 is built. Yes, even with these electronic devices, the same operations and effects as those of the above smart device 10 can be obtained.
  • the first image pickup device 30 and the second image pickup device 32 are housed in the housing 12 as the image pickup device 14, but the first image pickup device 30 and the second image pickup device 30 have been described. Both of the devices 32 need not be housed in the housing 12.
  • both the first imaging device 30 and the second imaging device 32 may be used as two cameras outside the housing 12. In this case as well, the same operations and effects as those of the above-described imaging device 14 can be obtained.
  • the display 26 is illustrated, but the technique of the present disclosure is not limited to this.
  • a separate display attached to the image pickup apparatus may be used as a "display unit (display)" according to the technique of the present disclosure.
  • an image obtained by being imaged by one of three or more image sensors has a higher resolution than an image obtained by being imaged by another image sensor, and can be detected.
  • the specific image pickup device is preferably a stacked image pickup device.
  • three or more image pickup elements may be connected in series in the same manner as the first image pickup element 38 and the second image pickup element 52 are connected in series. Further, when three or more image pickup elements are used, the resolution of each image obtained by being imaged by each other's image pickup elements may be different, and the lowest resolution among the images other than the lowest resolution image.
  • the detection process may be performed (stepwise) in the order of high resolution images from the above images. Then, when the specific subject image is detected by the detection process, the image obtained by being imaged by the image sensor subjected to the detection process of the specific subject image (for example, an image including the specific subject image) and the detection An image having a resolution lower than that of the processed image sensor can be obtained.
  • the composite image data obtained by synthesizing the image obtained by being imaged by the image sensor is the subsequent circuit (for example, a signal processing circuit). It may be output to 34). Further, instead of the composite image data, image data indicating an image including a specific subject image may be output.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.
  • the first image sensor that outputs the first image data obtained by imaging the subject to the image sensor in the subsequent stage, and the first image sensor.
  • a second image sensor provided as a subsequent image sensor which is a memory for storing the first image data output from the first image sensor, and a second image sensor obtained by imaging the subject by the second image sensor. 2
  • a control circuit for processing image data and a second image sensor having the control circuit are included.
  • the second image indicated by the second image data has a higher resolution than the first image indicated by the first image data.
  • the control circuit performs detection processing to detect a specific subject image indicating a specific subject from the second image, and performs detection processing.
  • the second imaging element outputs the first image data stored in the memory to a specific output destination when the specific subject image is not detected by the detection process, and the specific subject image is detected by the detection process.
  • An image pickup device that outputs a composite image data obtained by synthesizing the first image data and the second image data by a control circuit, or a second image data to an output destination.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置は、第1撮像素子及び第2撮像素子を含む。第2撮像素子は、第1撮像素子から出力された第1画像データを記憶する記憶部と、第2画像データを処理する処理部とを有する。第2画像データにより示される第2画像は、第1画像データより示される第1画像よりも解像度が高い。第2撮像素子は、特定被写体画像が検出されなかった場合に、記憶部に記憶されている第1画像データを特定の出力先に出力し、特定被写体画像が検出された場合に、第1画像データと第2画像データとが処理部によって合成されることで得られた合成画像データ、又は、第2画像データを出力先に出力する。

Description

撮像装置、撮像装置の動作方法、及びプログラム
 本開示の技術は、撮像装置、撮像装置の動作方法、及びプログラムに関する。
 特開2014-176056号公報には、撮影光学系、指向性センサ、画像読み出し装置、及び画像生成装置を備えた撮像装置が開示されている。撮影光学系は、中央部の中央光学系と、その周辺部の中央光学系より焦点距離の短い環状光学系とから構成される。環状光学系は、中央部が欠落した第一画像を結像面に結像させ、中央光学系は、欠落した第一画像を含む第2画像を結像面に結像させる。指向性センサは、撮影光学系の結像位置に配設され、2次元状に配列された光電変換素子により構成された複数の画素を持つ指向性センサであって、環状光学系及び中央光学系を介して入射する光束をそれぞれ瞳分割して選択的に受光する複数の画素を含む。画像読み出し装置は、指向性センサから環状光学系を介して受光した中央部が欠落した第一画像と中央光学系を介して受光した第二画像とをそれぞれ取得する。画像生成装置は、画像読み出し装置により取得した第一画像と第二画像との拡大/縮小率を調整して、第一画像の中央部の領域に、第二画像を嵌め込み合成して画像を生成する。
 特開2002-262159号公報には、撮像光学系の光路中に配置され、透過率と反射率の分光比率の特性を制御可能な単数または複数の分光手段と、この分光手段で被写体像を分けて撮像して光電変換による電荷蓄積によって被写体像を入力する複数の撮像手段を備え、複数の撮像手段がそれぞれ異なった撮影画角で撮像することを特徴とする撮像装置が開示されている。
 本開示の技術に係る一つの実施形態は、第1撮像素子から出力された第1画像データにより示される常に一定の解像度の画像のみを検出対象にして特定被写体画像を検出する検出処理が行われることによって得られる検出結果に関わらず、常に第1画像データが特定の出力先に出力される場合に比べ、高い精度で特定被写体画像を検出する検出処理が行われ、検出処理による検出結果に適した解像度の画像を示す画像データを特定の出力先に出力することができる撮像装置、撮像装置の動作方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、被写体を撮像することで得た第1画像データを後段の撮像素子に出力する第1撮像素子と、後段の撮像素子として設けられた第2撮像素子であって、第1撮像素子から出力された第1画像データを記憶する記憶部と、第2撮像素子によって被写体が撮像されることで得られた第2画像データを処理する処理部と、を有する第2撮像素子と、を含み、第2画像データにより示される第2画像は、第1画像データより示される第1画像よりも解像度が高く、処理部は、第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行い、第2撮像素子は、検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている第1画像データを特定の出力先に出力し、検出処理により特定被写体画像が検出された場合に、第1画像データと第2画像データとが処理部によって合成されることで得られた合成画像データ、又は、第2画像データを出力先に出力する撮像装置である。
 本開示の技術に係る第2の態様は、第1撮像素子及び第2撮像素子の互いの撮像範囲は重複している第1の態様に係る撮像装置である。
 本開示の技術に係る第3の態様は、第1画像データは、第1焦点距離及び第1焦点距離よりも長い第2焦点距離のうちの第1焦点距離で第1撮像素子によって撮像されることで得られた第1焦点距離画像データであり、第2画像データは、第2焦点距離で第2撮像素子によって撮像されることで得られた第2焦点距離画像データである第1の態様又は第2の態様に係る撮像装置である。
 本開示の技術に係る第4の態様は、第2焦点距離は、光学ズーム機構によって変更される第3の態様に係る撮像装置である。
 本開示の技術に係る第5の態様は、第2撮像素子は、フレーム毎に露出量が変更可能な撮像を行う第1の態様から第4の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第6の態様は、第1撮像素子は、第1被写体光が結像される第1光電変換素子を有し、第2撮像素子は、第2被写体光が結像される第2光電変換素子を有し、第1画像データは、第1光電変換素子のうちの指定された第1領域から得られた画像データであり、第2画像データは、第2光電変換素子のうちの指定された第2領域から得られた画像データであり、第2領域は、第1領域よりも広い領域である第1の態様から第5の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第7の態様は、第2画像データの出力の要求を受け付ける受付部を更に含み、第2撮像素子は、受付部によって要求が受け付けられた場合に、検出処理による検出結果に関わらず、第2画像データを出力先に出力する第1の態様から第6の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第8の態様は、第2撮像素子でのフレームレートは、第1撮像素子でのフレームレートよりも高い第1の態様から第7の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第9の態様は、第2撮像素子は、少なくとも光電変換素子と記憶部とが1チップ化された撮像素子である第1の態様から第8の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第10の態様は、第2撮像素子は、光電変換素子に記憶部が積層された積層型撮像素子である第9の態様に係る撮像装置である。
 本開示の技術に係る第11の態様は、第1撮像素子、第2撮像素子、及び出力先を直列に接続しており、第1撮像素子は、第1画像データを第2撮像素子に出力する第1の態様から第10の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第12の態様は、第2撮像素子により出力された第1画像データに基づく画像、及び、第2撮像素子により出力された合成画像データ又は第2画像データに基づく画像のうちの少なくとも一方を表示部に対して表示させる制御と、第2撮像素子により出力された第1画像データ、及び、第2撮像素子により出力された合成画像データ又は第2画像データのうちの少なくとも一方を記憶装置に対して記憶させる制御とのうちの少なくとも一方を行う制御部を更に含む第1の態様から第11の態様の何れか1つの態様に係る撮像装置である。
 本開示の技術に係る第13の態様は、撮像装置の動作方法であって、撮像装置に含まれる第1撮像素子によって被写体が撮像されることで得られた第1画像データを第1撮像素子が後段の撮像素子に出力すること、後段の撮像素子として撮像装置に設けられた第2撮像素子が有する記憶部が、第1撮像素子から出力された第1画像データを記憶すること、第2撮像素子が被写体を撮像することで得た第2画像データを処理すること、第2撮像素子が、第2画像データにより示される第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行うこと、第2撮像素子が、検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている第1画像データを特定の出力先に出力すること、並びに、第2撮像素子が、検出処理により特定被写体画像が検出された場合に、第1画像データと第2画像データとが合成されることで得られた合成画像データ、又は、第2画像データを出力先に出力することを含み、第2画像は、第1画像データより示される第1画像よりも解像度が高い撮像装置の動作方法である。
 本開示の技術に係る第14の態様は、撮像装置に対して適用されるコンピュータに処理を実行させるためのプログラムであって、処理は、撮像装置に含まれる第1撮像素子によって被写体が撮像されることで得られた第1画像データを第1撮像素子が後段の撮像素子に出力すること、後段の撮像素子として撮像装置に設けられた第2撮像素子が有する記憶部が、第1撮像素子から出力された第1画像データを記憶すること、第2撮像素子が被写体を撮像することで得た第2画像データを処理すること、第2撮像素子が、第2画像データにより示される第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行うこと、第2撮像素子が、検出処理により特定被写体画像が検出されなかった場合に、記憶部に記憶されている第1画像データを特定の出力先に出力すること、並びに、第2撮像素子が、検出処理により特定被写体画像が検出された場合に、第1画像データと第2画像データとが合成されることで得られた合成画像データ、又は、第2画像データを出力先に出力することを含み、第2画像は、第1画像データより示される第1画像よりも解像度が高いプログラムである。
実施形態に係るスマートデバイスの背面側の外観の一例を示す背面視斜視図である。 図1に示すスマートデバイスの前面側の外観の一例を示す前面視斜視図である。 実施形態に係るスマートデバイスに含まれる撮像装置の構成の一例を示すブロック図である。 実施形態に係るスマートデバイスの構成の一例を示すブロック図である。 実施形態に係る撮像装置に含まれる撮像素子の撮像フレームレートの説明に供する概念図である。 実施形態に係る撮像装置に含まれる撮像素子の出力フレームレートの説明に供する概念図である。 実施形態に係る第1撮像素子及び第2撮像素子の各々の積層構造の一例を示す概念図である。 実施形態に係る第1撮像素子及び第2撮像素子の各々の光電変換素子のアスペクト比の一例を示す概念図である。 実施形態に係る第1撮像素子及びその周辺の構成の一例を示すブロック図である。 実施形態に係る第2撮像素子及びその周辺の構成の一例を示すブロック図である。 実施形態に係る撮像装置に含まれる第1撮像素子及び第2撮像素子での画像データの流れの一例を示す概念図である。 第1撮像装置による撮像の態様の一例、及び第2撮像装置による撮像の態様の一例を示す概念図である。 第1撮像装置の撮像範囲(第1撮像範囲)及び第2撮像装置による撮像範囲(第2撮像範囲)の一例を示す概念図である。 第1撮像装置によって第1撮像範囲が撮像されることで得られた第1デジタル画像データにより示される第1画像の一例、及び第2撮像装置によって第2撮像範囲が撮像されることで得られた第2デジタル画像データにより示される第2画像の一例を示す画像図である。 実施形態に係る撮像装置に含まれる第1撮像素子及び第2撮像素子の各々での処理内容の一例を示すタイムチャートである。 実施形態に係る第2撮像素子の機能の一例を示す概念図である。 実施形態に係る前段撮像処理の流れの一例を示すフローチャートである。 実施形態に係る後段撮像処理の流れの一例を示すフローチャートである。 図17Aのフローチャートの続きである。 実施形態に係る後段撮像処理の流れの変形例を示すフローチャートである。 実施形態に係る第2撮像素子の機能の変形例を示すブロック図である。 前段撮像処理プログラム及び後段撮像処理プログラムが記憶された記憶媒体から、前段撮像処理プログラム及び後段撮像処理プログラムが撮像装置内のコンピュータにインストールされる態様の一例を示す概念図である。 従来技術に係る接続方法によって第1撮像素子及び第2撮像素子が信号処理回路に接続された態様の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る撮像装置の実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。LSIとは、“Large-Scale Integrated circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。A/Dとは、“Analog/Digital”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。LVDSとは、“Low Voltage Differential Signaling”の略称を指す。PCIeとは、“Peripheral Component Interconnect Express”の略称を指す。SATAとは、“Serial Advanced Technology Attachment”の略称を指す。SLVS-ECとは、“Scalable Low Signaling with Embedded Clock”の略称を指す。MIPI(登録商標)とは、“Mobile Industry Prossor Interface”の略称を指す。LTEとは、“Long Term Evolution”の略称を指す。5Gとは、“5th Generation”の略称を指す。
 本明細書の説明において、「鉛直」とは、完全な鉛直の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの鉛直を指す。本明細書の説明において、「水平」とは、完全な水平の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの水平を指す。本明細書の説明において、「垂直」とは、完全な垂直の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの垂直を指す。本明細書の説明において、「同一」とは、完全な同一の他に、本開示の技術が属する技術分野で一般的に許容される誤差を含めた意味合いでの同一を指す。
 一例として図1に示すように、スマートデバイス10は、筐体12を備えており、筐体12に撮像装置14が収容されている。スマートデバイス10としては、例えば、撮像機能付きの電子機器であるスマートフォン又はタブレット端末等が挙げられる。
 撮像装置14は、第1撮像装置30及び第2撮像装置32を備えている。第1撮像装置30は、第1撮像レンズ16及び第1撮像素子38を備えている。第2撮像装置32は、第2撮像レンズ18及び第2撮像素子52を備えている。なお、以下では、説明の便宜上、第1撮像素子38及び第2撮像素子52を区別して説明する必要がない場合、符号を付さずに「撮像素子」と称する。
 スマートデバイス10を縦置きの状態にした場合の筐体12の背面12Aの左上部(縦置きの状態のスマートデバイス10の背面視左上部)において、第1撮像レンズ16及び第2撮像レンズ18は、鉛直方向に沿って既定の間隔(例えば、数ミリの間隔)で配置されており、背面12Aから露出している。第1撮像レンズ16の中心は光軸L1上に位置している。第2撮像レンズ18の中心は光軸L2上に位置している。
 第1撮像素子38の前方(物体側)には、第1撮像レンズ16が配置されている。第1撮像レンズ16は、被写体を示す被写体光(以下、単に「被写体光」とも称する)を取り込み、取り込んだ被写体光を第1撮像素子38に結像させる。第2撮像素子52の前方(物体側)には、第2撮像レンズ18が配置されている。第2撮像レンズ18は、被写体光を取り込み、取り込んだ被写体光を第2撮像素子52に結像させる。
 一例として図2に示すように、筐体12の前面12Bには、指示キー22及びタッチパネル・ディスプレイ24が設けられている。スマートデバイス10を縦置きの状態にした場合の前面12Bの下部には、指示キー22が配置されており、指示キー22の上方にタッチパネル・ディスプレイ24が配置されている。なお、本実施形態では、指示キー22がタッチパネル・ディスプレイ24とは別に設けられているが、タッチパネル・ディスプレイ24上の仮想的な指示キーであってもよい。
 指示キー22は、各種の指示を受け付ける。ここで言う「各種の指示」とは、例えば、ロック解除受付画面の表示の指示、各種メニューを選択可能なメニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、及び選択内容の消去の指示等を指す。なお、ロック解除受付画面とは、スマートデバイス10のロックを解除するための暗号を受け付ける画面を指す。
 タッチパネル・ディスプレイ24は、ディスプレイ26及びタッチパネル28(図4も参照)を備えている。ディスプレイ26の一例としては、有機ELディスプレイが挙げられる。ディスプレイ26は、有機ELディスプレイではなく、液晶ディスプレイ又は無機ELディスプレイなどの他種類のディスプレイであってもよい。なお、ディスプレイ26は、本開示の技術に係る「表示部(ディスプレイ)」の一例である。
 ディスプレイ26は、画像及び文字情報等を表示する。ディスプレイ26は、撮像素子を用いた連続的な撮像により得られたライブビュー画像の表示に用いられる。また、ディスプレイ26は、静止画像及び/又は動画像の表示にも用いられる。更に、ディスプレイ26は、再生画像の表示及びメニュー画面等の表示にも用いられる。
 タッチパネル28は、透過型のタッチパネルであり、ディスプレイ26の表示領域の表面に重ねられている。タッチパネル28は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。
 なお、ここでは、タッチパネル・ディスプレイ24の一例として、タッチパネル28がディスプレイ26の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ24として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
 一例として図3に示すように、スマートデバイス10は、撮像装置14の外に、コントローラ15及びUI系デバイス17を備えている。コントローラ15は、スマートデバイス10の全体を制御する。UI系デバイス17は、ユーザに対して情報を提示したり、ユーザからの指示を受け付けたりするデバイスである。コントローラ15は、UI系デバイス17からの各種情報の取得、及びUI系デバイス17の制御を行う。
 第1撮像装置30は、第1撮像レンズ16の他に、第1撮像装置本体36を備えている。第1撮像装置本体36の前方(物体側)には、第1撮像レンズ16が配置されている。
 第1撮像装置本体36は、第1撮像素子38を備えている。第1撮像素子38は、受光面42Aを有する光電変換素子42を備えている。本実施形態において、第1撮像素子38は、CMOSイメージセンサである。また、ここでは、第1撮像素子38としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、第1撮像素子38がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 第1撮像レンズ16は、対物レンズ16A、結像レンズ16B、及び絞り16Cを備えている。対物レンズ16A、結像レンズ16B、及び絞り16Cは、被写体側(物体側)から受光面42A側(像側)にかけて、光軸L1に沿って、対物レンズ16A、結像レンズ16B、及び絞り16Cの順に配置されている。ここでは、絞り16Cの一例として、開口が変化しない固定絞りが採用されている。絞り16Cが固定絞りの場合、露出調節は第1撮像素子38の電子シャッタで行う。絞り16Cは、固定絞りでなく、可変絞りであってもよい。なお、第1撮像レンズ16に含まれる対物レンズ16A、結像レンズ16B、及び絞り16Cはあくまでも一例であり、レンズの構成及び/又は絞り16Cの位置が変わっても本開示の技術は成立する。
 被写体光は、第1撮像レンズ16を透過し、受光面42Aに結像される。第1撮像素子38は、受光面42Aで被写体光を受光し、受光した被写体光を光電変換素子42に対して光電変換させることで、被写体を撮像する。第1撮像素子38は、通信ライン46を介してコントローラ15に接続されており、コントローラ15からの指示に従って被写体を撮像することで、被写体の画像を示す第1画像データを生成する。ここで、光電変換素子42は、本開示の技術に係る「第1光電変換素子」の一例であり、光電変換素子42に結像される被写体光は、本開示の技術に係る「第1被写体光」の一例である。
 一方、第2撮像装置32は、第2撮像レンズ18の他に、第2撮像装置本体50を備えている。第2撮像装置本体50の前方(物体側)には、第2撮像レンズ18が配置されている。
 第2撮像装置本体50は、第2撮像素子52を備えている。第2撮像素子52は、受光面56Aを有する光電変換素子56を備えている。本実施形態において、第2撮像素子52は、CMOSイメージセンサである。また、ここでは、第2撮像素子52としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、第2撮像素子52がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 第2撮像レンズ18は、対物レンズ18A、ズームレンズ18B、及び絞り18Cを備えている。対物レンズ18A、ズームレンズ18B、及び絞り18Cは、被写体側(物体側)から受光面56A側(像側)にかけて、光軸L2に沿って、対物レンズ18A、ズームレンズ18B、及び絞り18Cの順に配置されている。ズームレンズ18Bは、モータ等の駆動源(図示省略)からの動力を受けることで作動する。すなわち、ズームレンズ18Bは、付与された動力に応じて光軸L2に沿って移動する。ここでは、絞り18Cの一例として、開口が変化しない固定絞りが採用されている。絞り18Cが固定絞りの場合、露出調節は第2撮像素子52の電子シャッタで行う。絞り18Cは、固定絞りでなく、可変絞りであってもよい。なお、第2撮像レンズ18に含まれる対物レンズ18A、結像レンズ18B、及び絞り18Cはあくまでも一例であり、レンズの構成及び/又は絞り18Cの位置が変わっても本開示の技術は成立する。
 被写体光は、第2撮像レンズ18を透過し、受光面56Aに結像される。第2撮像素子52は、受光面56Aで被写体光を受光し、受光した被写体光を光電変換素子56に対して光電変換させることで、被写体を撮像する。第2撮像素子52は、通信ライン58Aを介してコントローラ15に接続されており、コントローラ15からの指示に従って被写体を撮像することで、被写体の画像を示す第2画像データを生成する。ここで、光電変換素子56は、本開示の技術に係る「第2光電変換素子」の一例であり、光電変換素子56に結像される被写体光は、本開示の技術に係る「第2被写体光」の一例である。
 なお、以下では、説明の便宜上、受光面42A及び56Aを区別して説明する必要がない場合、符号を付さずに「受光面」と称する。更に、以下では、説明の便宜上、光電変換素子42及び56を区別して説明する必要がない場合、符号を付さずに「光電変換素子」と称する。
 第1撮像素子38は、通信ライン54を介して第2撮像素子52に接続されている。第2撮像素子52の後段には信号処理回路34が位置しており、第2撮像素子52は、通信ライン44を介して信号処理回路34に接続されている。すなわち、第1撮像素子38、第2撮像素子52、及び信号処理回路34は、直列に接続されている。なお、第2撮像素子52は、本開示の技術に係る「後段の撮像素子」の一例であり、信号処理回路34は、本開示の技術に係る「特定の出力先」の一例である。
 詳しくは後述するが、第1撮像素子38は、被写体を撮像することで得た第1画像データを第2撮像素子52に出力し、第2撮像素子52は、第1撮像素子38からの第1画像データを受け付ける。信号処理回路34は、通信ライン35を介してコントローラ15に接続されており、第2撮像素子52は、画像データを信号処理回路34に出力する。図3、図4、図5A、及び図5Bに示す例において「画像データ」とは、第1画像データと、第2撮像素子52によって被写体が撮像されることで得られた第2画像データに基づく画像データとの総称を指す。
 信号処理回路34は、LSIであり、具体的には、ASIC及びFPGAを含むデバイスである。信号処理回路34は、第2撮像素子52から入力された画像データに対して各種の信号処理を行う。信号処理回路34によって行われる各種の信号処理には、例えば、ホワイトバランス調整、シャープネス調整、ガンマ補正、色空間変換処理、及び色差補正などの公知の信号処理が含まれる。
 信号処理回路34は、通信ライン35を介してコントローラ15に接続されており、各種の信号処理が行われた画像データが、信号処理回路34によってコントローラ15に出力される。
 なお、本実施形態では、信号処理回路34としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されない。例えば、信号処理回路34は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。
 また、信号処理回路34は、CPU、ストレージ、及びメモリを含むコンピュータであってもよい。ここで、ストレージとは、不揮発性の記憶装置を指す。不揮発性の記憶装置の一例としては、フラッシュメモリに代えて、又は、フラッシュメモリと併せて、磁気抵抗メモリ及び/又は強誘電体メモリなどの各種の不揮発性メモリが挙げられる。また、不揮発性の記憶装置は、EEPROM、HDD、及び/又はSSD等であってもよい。また、メモリは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。また、CPUに代えてGPUを用いてもよい。また、信号処理回路34は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 第2撮像レンズ18は、光学ズーム機構59を備えている。光学ズーム機構59は、ズームレンズ18B及び駆動機構60を有する。ズームレンズ18Bは、駆動機構60に取り付けられており、駆動機構60は、ズームレンズ18Bを駆動させる。駆動機構60は、通信ライン58Bを介してコントローラ15に接続されており、コントローラ15からの指示に従って動作する。駆動機構60は、スライド機構(図示省略)、モータ(図示省略)及びドライバ(図示省略)を備えている。ドライバは、通信ライン58Bを介してコントローラ15に接続されている。コントローラ15は、駆動信号をドライバに出力する。駆動信号は、モータの駆動を制御する信号である。ドライバは、コントローラ15から入力された駆動信号に従ってモータを駆動させる。スライド機構は、ズームレンズ18Bを支持しており、モータの動力を受けることでズームレンズ18Bを光軸L2に沿ってスライドさせる。従って、光学ズーム機構59は、コントローラ15の制御下でズームレンズ18Bを光軸L2に沿ってスライドさせることで、焦点距離を変更する。第2撮像装置32の画角は、焦点距離が変更されることによって調節される。なお、光学ズーム機構59及び駆動機構60等の周辺の図はあくまでも概念図であり、光学ズーム機構60は様々な構成を有する。
 一例として図4に示すように、コントローラ15は、CPU15A、ストレージ15B、及びメモリ15Cを備えている。また、コントローラ15は、通信I/F15D1、15D2及び15Eを備えている。CPU15Aは、本開示の技術に係る「制御部(プロセッサ)」の一例である。
 CPU15A、ストレージ15B、メモリ15C、通信I/F15D1、通信I/F15D2、及び通信I/F15Eは、バス100を介して接続されている。なお、図4に示す例では、図示の都合上、バス100として1本のバスが図示されているが、複数本のバスであってもよい。バス100は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 ストレージ15Bは、各種パラメータ及び各種プログラムを記憶している。ストレージ15Bは、不揮発性の記憶装置である。ここでは、ストレージ15Bの一例として、フラッシュメモリが採用されている。フラッシュメモリはあくまでも一例に過ぎず、フラッシュメモリに代えて、又は、フラッシュメモリと併せて、磁気抵抗メモリ及び/又は強誘電体メモリなどの各種の不揮発性メモリが挙げられる。また、不揮発性の記憶装置は、EEPROM、HDD、及び/又はSSD等であってもよい。また、メモリ15Cは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ15Cの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
 ストレージ15Bには、各種プログラムが記憶されている。CPU15Aは、ストレージ15Bから必要なプログラムを読み出し、読み出したプログラムをメモリ15C上で実行する。CPU15Aは、メモリ15C上で実行するプログラムに従ってスマートデバイス10の全体を制御する。
 通信I/F15D1は、通信ライン46を介して第1撮像装置30に接続されており、第1撮像装置30とCPU15Aとの間の各種情報の授受を司る。CPU15Aは、通信I/F15D1を介して第1撮像装置30を制御する。例えば、CPU15Aは、通信I/F15D1を介して第1撮像素子38に対して、撮像を行うタイミングを規定する第1撮像タイミング信号を供給することで第1撮像素子38によって行われる撮像のタイミングを制御する。
 通信I/F15D2は、通信ライン58A及び58Bを介して第2撮像装置32に接続されており、第2撮像装置32とCPU15Aとの間の各種情報の授受を司る。CPU15Aは、通信I/F15D2を介して第2撮像装置32を制御する。例えば、CPU15Aは、通信I/F15D2を介して第2撮像素子52に対して、撮像を行うタイミングを規定する第2撮像タイミング信号を供給することで第2撮像素子52によって行われる撮像のタイミングを制御する。また、CPU15Aは、通信I/F15D2を介して駆動機構60に対して、駆動信号を供給することで駆動機構60の動作を制御する。
 なお、以下では、第1撮像タイミング信号と第2撮像タイミング信号とを区別して説明する必要がない場合、「撮像タイミング信号」と称する。
 通信I/F15Eは、通信ライン35を介して信号処理回路34に接続されており、信号処理回路34とCPU15Aとの間の各種情報の授受を司る。信号処理回路34は、通信I/F15Eを介してCPU15Aによって制御される。CPU15Aの制御下で信号処理回路34によって各種の信号処理が行われた画像データは、信号処理回路34によって通信I/F15Eに出力される。通信I/F15Eは、信号処理回路34から出力された画像データを受け付け、受け付けた画像データをCPU15Aに転送する。
 バス100には、外部I/F104が接続されている。外部I/F104は、少なくとも一部が回路で構成された通信デバイスである。ここでは、外部I/F104として、少なくとも一部が回路で構成されたデバイスを例示しているが、これはあくまでも一例に過ぎない。外部I/F104は、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、外部I/F104は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 外部I/F104の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接または間接的に接続可能である。外部I/F104は、CPU15Aと外部装置との間の各種情報の授受を司る。
 UI系デバイス17は、タッチパネル・ディスプレイ24及び受付デバイス84を備えている。ディスプレイ26及びタッチパネル28は、バス100に接続されている。従って、CPU15Aは、ディスプレイ26に対して各種情報を表示させ、タッチパネル28によって受け付けられた各種指示に従って動作する。受付デバイス84は、ハードキー部25を備えている。ハードキー部25は、指示キー22(図2参照)を含む少なくとも1つのハードキーである。ハードキー部25は、バス100に接続されており、CPU15Aは、ハードキー部25によって受け付けられた指示を取得し、取得した指示に従って動作する。但し、ハードキー部25が外部I/F部104に接続されている構成もあり得る。
 なお、スマートデバイス10は、LTE、5G、無線LAN、及び/又はBluetooth(登録商標)等の通信機能を有している。
 一例として図5Aに示すように、撮像素子にはコントローラ15から撮像タイミング信号が入力される。撮像タイミング信号には、垂直同期信号及び水平同期信号が含まれている。垂直同期信号は、光電変換素子からの1フレーム毎の画像データの読み出しの開始タイミングを規定する同期信号である。水平同期信号は、光電変換素子からの水平ライン毎の画像データの読み出しの開始タイミングを規定する同期信号である。
 撮像素子では、コントローラ15から入力された垂直同期信号に応じて定まる撮像フレームレートで、光電変換素子から画像データが読み出される。また、撮像素子では、光電変換素子から読み出された画像データに対して処理が行われ、処理された画像データが出力フレームレートで出力される。
 撮像フレームレートと出力フレームレートは、“撮像フレームレート>出力フレームレート”の関係性を有している。つまり、出力フレームレートは、撮像フレームレートよりも低いフレームレートである。例えば、撮像フレームレートは、図5Aに示すように、期間T内に光電変換素子から8フレーム分の画像データの読み出しが行われるフレームレートであり、出力フレームレートは、図5Bに示すように、期間T内に2フレーム分の画像データの出力が行われるフレームレートである。撮像フレームレート及び出力フレームレートは何れも可変なフレームレートである。
 本実施形態において、第2撮像素子52でのフレームレートは、第1撮像素子38でのフレームレートよりも高い。例えば、第2撮像素子52での撮像フレームレートとしては、例えば、240fpsが採用されており、第1撮像素子38での撮像フレームレートとしては、120fpsが採用されている。また、例えば、第2撮像素子52での出力フレームレートとしては、例えば、60fpsが採用されており、第1撮像素子38での撮像フレームレートとしては、30fpsが採用されている。
 なお、ここで例示している撮像フレームレートの値及び出力フレームレートの値はあくまでも一例に過ぎない。例えば、第2撮像素子52での撮像フレームレートは、240fpsを超えるフレームレートであってもよいし、240fps未満のフレームレートであってもよい。第1撮像素子38での撮像フレームレートは、第2撮像素子52での撮像フレームレートよりも低いフレームレートであれば、60fpsを超えるフレームレートであってもよいし、60fps未満のフレームレートであってもよい。また、例えば、第2撮像素子52での出力フレームレートは、60fpsを超えるフレームレートであってもよいし、60fps未満のフレームレートであってもよい。また、例えば、第1撮像素子38での出力フレームレートは、第2撮像素子52での出力フレームレートよりも低いフレームレートであれば、30fpsを超えるフレームレートであってもよいし、30fps未満のフレームレートであってもよい。
 一例として図6に示すように、第1撮像素子38には、光電変換素子42、処理回路110、及びメモリ112が内蔵されている。第1撮像素子38は、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子である。すなわち、光電変換素子42、処理回路110、及びメモリ112は1パッケージ化されている。第1撮像素子38では、光電変換素子42に対して処理回路110及びメモリ112が積層されている。具体的には、光電変換素子42及び処理回路110は、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されており、処理回路110及びメモリ112、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されている。ここでは、光電変換素子42、処理回路110、及びメモリ112の3層構造が例示されているが、本開示の技術はこれに限らず、処理回路110とメモリ112とを1層としたメモリ層と、光電変換素子42との2層構造であってもよい。
 第2撮像素子52も第1撮像素子と同様の積層構造を有する撮像素子である。第2撮像素子52には、光電変換素子56、処理回路120、及びメモリ122が内蔵されている。第2撮像素子52は、光電変換素子56、処理回路120、及びメモリ122が1チップ化された撮像素子である。すなわち、光電変換素子56、処理回路120、及びメモリ122は1パッケージ化されている。第2撮像素子52では、光電変換素子56に対して処理回路120及びメモリ122が積層されている。具体的には、光電変換素子56及び処理回路120は、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されており、処理回路120及びメモリ122、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されている。ここでは、光電変換素子56、処理回路120、及びメモリ122の3層構造が例示されているが、本開示の技術はこれに限らず、処理回路120とメモリ122とを1層としたメモリ層と、光電変換素子56との2層構造であってもよい。なお、第2撮像素子52は、本開示の技術に係る「積層型撮像素子」の一例である。各光電変換素子と処理回路等が外部I/Fを介することなく接続されているため、相互に高速通信が可能になっている。
 なお、以下では、処理回路110及び120を区別して説明する必要がない場合、符号を付さずに「処理回路」と称し、メモリ112及び122を区別して説明する必要がない場合、符号を付さずに「メモリ」と称する。
 処理回路は、例えば、LSIである。メモリは、書き込みタイミングと読み出しタイミングとが異なるメモリである。ここでは、メモリの一例として、DRAMが採用されている。なお、メモリがSRAM等の他の種類の記憶装置であっても本開示の技術は成立する。
 処理回路は、ASIC及びFPGAを含むデバイスであり、上述のコントローラ15の指示に従って、撮像素子の全体を制御する。なお、ここでは、処理回路としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されない。例えば、処理回路は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。
 また、処理回路は、CPU、ストレージ、及びメモリを含むコンピュータであってもよい。ストレージとは、フラッシュメモリ等の不揮発性の記憶装置を指す。メモリは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリの一例としてはRAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。また、CPUに代えてGPUを用いてもよい。また、処理回路は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 光電変換素子は、マトリクス状に配置された複数のフォトダイオードを有している。複数のフォトダイオードの一例としては、“4896×3265”画素分のフォトダイオードが挙げられる。
 光電変換素子に含まれる各フォトダイオードには、カラーフィルタが配置されている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑)に対応するGフィルタ、R(赤)に対応するRフィルタ、及びB(青)に対応するBフィルタを含む。
 光電変換素子は、R画素、G画素、及びB画素を有する。R画素は、Rフィルタが配置されたフォトダイオードに対応する画素であり、G画素は、Gフィルタが配置されたフォトダイオードに対応する画素であり、B画素は、Bフィルタが配置されたフォトダイオードに対応する画素である。R画素、G画素、及びB画素は、行方向(水平方向)及び列方向(垂直方向)の各々に既定の周期性で配置されている。本実施形態では、R画素、G画素、及びB画素がX-Trans(登録商標)配列に対応した周期性で配列されている。なお、ここでは、X-Trans配列を例示しているが、本開示の技術はこれに限定されず、R画素、G画素、及びB画素の配列は、ベイヤ配列又はハニカム(登録商標)配列などであってもよい。
 撮像素子は、いわゆる電子シャッタ機能を有しており、コントローラ15の制御下で電子シャッタ機能を働かせることで、光電変換素子内の各フォトダイオードの電荷蓄積時間を制御する。電荷蓄積時間とは、いわゆるシャッタスピードを指す。撮像素子での撮像は、ローリングシャッタ方式の電子シャッタ機能を働かせることで実現される。なお、ここでは、ローリングシャッタ方式が例示されているが、本開示の技術はこれに限らず、ローリングシャッタ方式に代えてグローバルシャッタ方式を適用してもよい
 光電変換素子42の物体側の領域の面積(受光領域の広さ)と光電変換素子56の物体側の領域の面積(受光領域の広さ)とは同一である。一例として図7に示すように、第1画像データは、光電変換素子42のうちの指定された第1領域42Bから得られ、第2画像データは、光電変換素子56のうちの指定された第2領域56Bから得られる。第2領域56Bは、第1領域42Bよりも広い領域である。つまり、光電変換素子42から切り出された第1領域42Bよりも、光電変換素子56から切り出された第2領域56Bの方が広い領域である。図7に示す例では、第1領域42Bは、アスペクト比が16:9で規定された領域であり、第2領域56Bは、アスペクト比が3:2で規定された領域である。
 一例として図8に示すように、処理回路110は、通信I/F110D1及び110D2を備えている。コントローラ15の通信I/F15D1は、処理回路110の通信I/F110D1に接続されており、第1撮像タイミング信号を通信I/F110D1に出力する。通信I/F110D1は、通信I/F15D1から出力された第1撮像タイミング信号を受け付ける。
 第2撮像素子52は、通信I/F120D1及び120D2を備えている。通信I/F120D2は、第1撮像素子38の通信I/F110D2に接続されている。処理回路110の通信I/F110D2は、第1画像データ等の各種情報を第2撮像素子52の通信I/F120D2に出力し、通信I/F120D2は、通信I/F110D2から出力された各種情報を受け付ける。第2撮像素子52の通信I/F120D1は、コントローラ15の通信I/F15D2に接続されている。コントローラ15は、第2撮像タイミング信号を含む各種情報を第2撮像素子52の通信I/F120D1に出力する。通信I/F120D1は、通信I/F15D2から出力された各種情報を受け付ける。
 第1撮像素子38において、処理回路110は、通信I/F110D1及び通信I/F110D2の他に、読出回路110A、デジタル処理回路110B、及び制御回路110Cを備えている。
 読出回路110Aは、光電変換素子42、デジタル処理回路110B、及び制御回路110Cの各々に接続されている。デジタル処理回路110Bは、制御回路110Cに接続されている。制御回路110Cは、メモリ112、通信I/F110D1、及び通信I/F110D2の各々に接続されている。
 上述の第1画像データは、一例として図8に示すように、第1アナログ画像データ70Aと第1デジタル画像データ70Bとに大別される。なお、以下では、説明の便宜上、第1アナログ画像データ70Aと第1デジタル画像データ70Bとを区別して説明する必要がない場合、符号を付さずに「第1画像データ」と称する。
 処理回路110の通信I/F110D1及び110D2の各々は、少なくとも一部が回路で構成された通信デバイスである。また、コントローラ15の通信I/F15D1及び15D2の各々も、少なくとも一部が回路で構成された通信デバイスである。更に、第2撮像素子52の通信I/F120D1及び120D2の各々も、少なくとも一部が回路で構成された通信デバイスである。
 処理回路110の通信I/F110D1とコントローラ15の通信I/F15D1との間は、PCIeの接続規格に従って接続されている。また、処理回路110の通信I/F110D2と第2撮像素子52の通信I/F120D2との間も、PCIeの接続規格に従って接続されている。更に、第2撮像素子52の通信I/F120D1とコントローラ15の通信I/F15D2との間も、PCIeの接続規格に従って接続されている。
 通信I/F110D1は、コントローラ15の通信I/F15D1から出力された第1撮像タイミング信号を受け付け、受け付けた第1撮像タイミング信号を制御回路110Cに転送する。
 読出回路110Aは、制御回路110Cの制御下で、光電変換素子42を制御し、光電変換素子42により撮像されることで得られた第1アナログ画像データ70Aを光電変換素子42から読み出す。光電変換素子42からの第1アナログ画像データ70Aの読み出しは、コントローラ15から処理回路110に入力された第1撮像タイミング信号に従って行われる。すなわち、第1アナログ画像データ70Aは、第1撮像タイミング信号によって規定された第1撮像フレームレートで読出回路110Aによって光電変換素子42から読み出される。
 具体的には、先ず、通信I/F110D1がコントローラ15から第1撮像タイミング信号を受け付け、受け付けた第1撮像タイミング信号を制御回路110Cに転送する。次に、制御回路110Cは、通信I/F110D1から転送された第1撮像タイミング信号を読出回路110Aに転送する。すなわち、読出回路110Aには、垂直同期信号及び水平同期信号が転送される。そして、読出回路110Aは、制御回路110Cから転送された垂直同期信号に従って光電変換素子42からフレーム単位での第1アナログ画像データ70Aの読み出しを開始する。また、読出回路110Aは、制御回路110Cから転送された水平同期信号に従って水平ライン単位での第1アナログ画像データ70Aの読み出しを開始する。
 読出回路110Aは、光電変換素子42から読み出された第1アナログ画像データ70Aに対してアナログ信号処理を行う。アナログ信号処理には、ノイズキャンセル処理及びアナログゲイン処理などの公知の処理が含まれる。ノイズキャンセル処理は、光電変換素子42に含まれる画素間の特性のばらつきに起因するノイズをキャンセルする処理である。アナログゲイン処理は、第1アナログ画像データ70Aに対してゲインをかける処理である。このようにしてアナログ信号処理が行われた第1アナログ画像データ70Aは、読出回路110Aによってデジタル処理回路110Bに出力される。
 デジタル処理回路110Bは、A/D変換器110B1を備えている。A/D変換器110B1は、第1アナログ画像データ70AをA/D変換する。
 デジタル処理回路110Bは、読出回路110Aから入力された第1アナログ画像データ70Aに対してデジタル信号処理を行う。デジタル信号処理には、例えば、A/D変換器110B1によるA/D変換、及びデジタルゲイン処理が含まれる。
 第1アナログ画像データ70Aに対しては、A/D変換器110B1によってA/D変換が行われ、これによって、第1アナログ画像データ70Aがデジタル化され、RAWデータとして第1デジタル画像データ70Bが得られる。そして、第1デジタル画像データ70Bに対しては、デジタル処理回路110Bによってデジタルゲイン処理が行われる。デジタルゲイン処理とは、第1デジタル画像データ70Bに対してゲインをかける処理を指す。このようにデジタル信号処理が行われることによって得られた第1デジタル画像データ70Bは、デジタル処理回路110Bによって制御回路110Cに出力される。
 メモリ112は、複数フレームの第1デジタル画像データ70Bをフレーム単位で記憶可能なメモリである。制御回路110Cは、デジタル処理回路110Bから入力された第1デジタル画像データ70Bをメモリ112に対して記憶させる。メモリ112は、画素単位の記憶領域を有しており、第1デジタル画像データ70Bは、制御回路110Cによって、画素単位で、メモリ112のうちの対応する記憶領域に記憶される。制御回路110Cは、メモリ112に対してアクセス可能であり、メモリ112から第1デジタル画像データ70Bを取得する。メモリ112に対するアクセスの一例としては、ランダムアクセスが挙げられる。
 一例として図9に示すように、処理回路120は、通信I/F120D1、120D2及び120D3を備えている。コントローラ15の通信I/F15D2は、処理回路120の通信I/F120D1に接続されており、第2撮像タイミング信号を通信I/F120D1に出力する。通信I/F120D1は、通信I/F15D2から出力された第2撮像タイミング信号を受け付ける。
 信号処理回路34は、通信I/F34A及び34Bを備えている。通信I/F34A及び34Bの各々は、少なくとも一部が回路で構成された通信デバイスである。通信I/F34Aは、処理回路120の通信I/F120D3に接続されており、通信I/F34Bは、コントローラ15の通信I/F15Eに接続されている。
 処理回路120の通信I/F120D1とコントローラ15の通信I/F15D2との間は、PCIeの接続規格に従って接続されている。また、処理回路120の通信I/F120D3と信号処理回路34の通信I/F34Aとの間も、PCIeの接続規格に従って接続されている。更に、信号処理回路34の通信I/F34Bとコントローラ15の通信I/F15Eとの間も、PCIeの接続規格に従って接続されている。
 処理回路120の通信I/F120D3は、第1画像データ及び後述の合成画像データ90(図15参照)等の各種情報を信号処理回路34の通信I/F34Aに出力し、通信I/F34Aは、通信I/F120D3から出力された各種情報を受け付ける。信号処理回路34は、通信I/F34Aによって受け付けられた各種情報に対して、必要に応じて信号処理を施す。通信I/F34Bは、コントローラ15の通信I/F15Eに接続されており、各種情報をコントローラ15の通信I/F15Eに出力する。通信I/F15Eは、通信I/F34Bから出力された各種情報を受け付ける。
 なお、以下では、通信I/F110D1、通信I/F110D2、通信I/F120D1、通信I/F120D2、通信I/F102D3、通信I/F34A、通信I/F34B、通信I/F15E、通信I/F15D1、及び通信I/F15D2を区別して説明する必要がない場合、符号を付さずに「通信I/F」と称する。
 上述したように、ここでは、通信I/Fとして、少なくとも一部が回路で構成された通信デバイスが採用されている。通信I/Fの一例としては、ASIC、FPGA、及び/又はPLDを含むデバイスが挙げられる。また、通信I/Fは、CPU、フラッシュメモリ等のストレージ、及びRAM等のメモリを含むコンピュータであってもよい。この場合、コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。CPUに代えてGPUを用いてもよい。また、通信I/Fは、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 第2撮像素子52において、処理回路120は、通信I/F120D1、120D2及び120D3の他に、読出回路120A、デジタル処理回路120B、及び制御回路120Cを備えている。なお、制御回路120Cは、本開示の技術に係る「処理部(制御回路)」の一例である。
 読出回路120Aは、光電変換素子56、デジタル処理回路120B、及び制御回路120Cの各々に接続されている。デジタル処理回路120Bは、制御回路120Cに接続されている。制御回路120Cは、メモリ122、通信I/F120D1、通信I/F120D2、及び通信I/F120D3の各々に接続されている。
 上述の第2画像データは、一例として図9に示すように、第2アナログ画像データ80Aと第2デジタル画像データ80Bとに大別される。なお、以下では、説明の便宜上、第2アナログ画像データ80Aと第2デジタル画像データ80Bとを区別して説明する必要がない場合、符号を付さずに「第2画像データ」と称する。
 通信I/F120D1は、コントローラ15の通信I/F15D2から出力された第2撮像タイミング信号を受け付け、受け付けた第2撮像タイミング信号を制御回路120Cに転送する。
 読出回路120Aは、制御回路120Cの制御下で、光電変換素子56を制御し、光電変換素子56により撮像されることで得られた第2アナログ画像データ80Aを光電変換素子56から読み出す。光電変換素子56からの第2アナログ画像データ80Aの読み出しは、コントローラ15から処理回路120に入力された第2撮像タイミング信号に従って行われる。すなわち、第2アナログ画像データ80Aは、第2撮像タイミング信号によって規定された第2撮像フレームレートで読出回路120Aによって光電変換素子56から読み出される。
 具体的には、先ず、通信I/F120D1がコントローラ15から第2撮像タイミング信号を受け付け、受け付けた第2撮像タイミング信号を制御回路120Cに転送する。次に、制御回路120Cは、通信I/F120D1から転送された第2撮像タイミング信号を読出回路120Aに転送する。すなわち、読出回路120Aには、垂直同期信号及び水平同期信号が転送される。そして、読出回路120Aは、制御回路120Cから転送された垂直同期信号に従って光電変換素子56からフレーム単位での第2アナログ画像データ80Aの読み出しを開始する。また、読出回路120Aは、制御回路120Cから転送された水平同期信号に従って水平ライン単位での第2アナログ画像データ80Aの読み出しを開始する。
 読出回路120Aは、光電変換素子56から読み出された第2アナログ画像データ80Aに対してアナログ信号処理を行う。アナログ信号処理には、ノイズキャンセル処理及びアナログゲイン処理などの公知の処理が含まれる。ノイズキャンセル処理は、光電変換素子56に含まれる画素間の特性のばらつきに起因するノイズをキャンセルする処理である。アナログゲイン処理は、第2アナログ画像データ80Aに対してゲインをかける処理である。このようにしてアナログ信号処理が行われた第2アナログ画像データ80Aは、読出回路120Aによってデジタル処理回路120Bに出力される。
 デジタル処理回路120Bは、A/D変換器120B1を備えている。A/D変換器120B1は、第2アナログ画像データ80AをA/D変換する。
 デジタル処理回路120Bは、読出回路120Aから入力された第2アナログ画像データ80Aに対してデジタル信号処理を行う。デジタル信号処理には、例えば、A/D変換器120B1によるA/D変換、及びデジタルゲイン処理が含まれる。
 第2アナログ画像データ80Aに対しては、A/D変換器120B1によってA/D変換が行われ、これによって、第2アナログ画像データ80Aがデジタル化され、RAWデータとして第2デジタル画像データ80Bが得られる。そして、第2デジタル画像データ80Bに対しては、デジタル処理回路120Bによってデジタルゲイン処理が行われる。デジタルゲイン処理とは、第2デジタル画像データ80Bに対してゲインをかける処理を指す。このようにデジタル信号処理が行われることによって得られた第2デジタル画像データ80Bは、デジタル処理回路120Bによって制御回路120Cに出力される。
 なお、以下では、説明の便宜上、第1デジタル画像データ70B及び第2デジタル画像データ80Bを区別して説明する必要がない場合、符号を付さずに「デジタル画像データ」と称する。
 メモリ122は、複数フレームのデジタル画像データをフレーム単位で記憶可能なメモリである。制御回路120Cは、デジタル処理回路120Bから入力された第2デジタル画像データ80Bをメモリ122に対して記憶させる。また、制御回路120Cは、通信I/F120D2によって受け付けられた第1デジタル画像データ70Bをメモリ122に対して記憶させる。メモリ122は、画素単位の記憶領域を有しており、デジタル画像データは、制御回路120Cによって、画素単位で、メモリ122のうちの対応する記憶領域に記憶される。制御回路120Cは、メモリ122に対してアクセス可能である。メモリ122に対するアクセスの一例としては、ランダムアクセスが挙げられる。
 制御回路120Cは、メモリ122からデジタル画像データを取得し、取得したデジタル画像データに基づく画像データを通信I/F120D3を介して信号処理回路34に出力する。ここで、「デジタル画像データに基づく画像データ」とは、第1デジタル画像データ70B、又は第2デジタル画像データ80Bに基づく画像データを指す。第2デジタル画像データ80Bに基づく画像データとは、例えば、第2デジタル画像データ80B、又は、後述の合成画像データ90を指す。
 信号処理回路34では、通信I/F120D3から入力された画像データが通信I/F34Aによって受け付けられ、受け付けられた画像データに対して各種の信号処理が行われる。
 一例として図10に示すように、第1撮像素子38では、光電変換素子42が露光されることで第1アナログ画像データ70Aが生成され、垂直同期信号が入力されると、光電変換素子42からの第1アナログ画像データ70Aの読み出し、及び光電変換素子42に対するリセットが行われる。光電変換素子42に対するリセットとは、光電変換素子42内の各画素の残留電荷を消去する動作を指す。光電変換素子42による露光は、光電変換素子42に対する読出回路110Aによる前回のリセットが行われてから読み出しが行われるまでの間に行われる。
 第1アナログ画像データ70Aに対してデジタル信号処理が行われることによって第1デジタル画像データ70Bが生成され、生成された第1デジタル画像データ70Bはメモリ112に記憶される。そして、メモリ112に記憶されている第1デジタル画像データ70Bは第2撮像素子52に出力され、第2撮像素子52のメモリ122に記憶される。
 一方、第2撮像素子52では、光電変換素子56が露光されることで第2アナログ画像データ80Aが生成され、垂直同期信号が入力されると、光電変換素子56からの第2アナログ画像データ80Aの読み出し、及び光電変換素子56に対するリセットが行われる。光電変換素子56に対するリセットとは、光電変換素子56内の各画素の残留電荷を消去する動作を指す。光電変換素子56による露光は、光電変換素子56に対する読出回路120Aによる前回のリセットが行われてから読み出しが行われるまでの間に行われる。
 光電変換素子56での露光時間は、可変露光時間である。可変露光時間とは、制御回路120Cによってフレーム毎に変更可能な露光時間を指す。例えば、制御回路120Cは、コントローラ15の制御下で、撮像条件等(例えば、撮像シーンの明るさ及び/又は受付デバイス84によって受け付けられた指示等)に従って、光電変換素子56での露光時間を変更する。光電変換素子56での露光時間は、例えば、第2撮像素子52に入力される垂直同期信号の入力タイミングをずらすことによって変更される。このように、光電変換素子56での露光時間がフレーム毎に変更されることによって、第2撮像素子52では、フレーム毎に露出量が変更可能な撮像が行われる。
 第2アナログ画像データ80Aに対してデジタル信号処理が行われることによって第2デジタル画像データ80Bが生成される。第2デジタル画像データ80Bは、制御回路120Cによってメモリ122に記憶される。
 ところで、本実施形態に係る撮像装置14では、広角撮像と望遠撮像とが行われる。広角撮像は、第1撮像装置30によって行われ、望遠撮像は、第2撮像装置32によって行われる。一例として図11に示すように、第1撮像装置30に対して設定されている焦点距離(以下、「第1焦点距離」と称する)は、第2撮像装置32に対して設定されている焦点距離(以下、「第2焦点距離」と称する)よりも短い。そのため、第1撮像装置30による撮像の画角は、第2撮像装置32による撮像の画角よりも広い。また、第2焦点距離は、光学ズーム機構59(図3参照)によって変更される。なお、この場合、ズームレンズ18Bの移動範囲は、“第2焦点距離>第1焦点距離”の関係性が維持される範囲に制限されている。
 本実施形態において、光軸L1(図3参照)上での結像レンズ16Bの位置は不変である。なお、結像レンズ16Bは、光軸L1で移動可能なレンズであってもよく、この場合、結像レンズ16Bの移動範囲は、“第2焦点距離>第1焦点距離”の関係性が維持される範囲に制限される。
 第1撮像装置30及び第2撮像装置32は、“第2焦点距離>第1焦点距離”の関係性を有するので、一例として図12に示すように、第1撮像装置30による撮像範囲(以下、「第1撮像範囲」と称する)は、第2撮像装置32による撮像範囲(以下、「第2撮像範囲」と称する)よりも広い。また、第1撮像範囲及び第2撮像範囲は重複している。すなわち、第1撮像範囲に第2撮像範囲が含まれている。
 一例として図13に示すように、第1撮像範囲が第1撮像装置30に含まれる第1撮像素子38よって撮像されることで得られた第1デジタル画像データ70Bにより示される画像である第1画像(以下、単に「第1画像」とも称する)は、第2撮像範囲が第2撮像装置32に含まれる第2撮像素子52によって撮像されることで得られた第2デジタル画像データ80Bにより示される画像である第2画像(以下、単に「第2画像」とも称する)よりも広角な画像である。そして、第2画像は、第1画像よりも解像度が高い。つまり、第2画像の画素密度は、第1画像の画素密度よりも大きい。
 ここで、画像データの伝送経路及び処理方法の一例について図14及び図15を参照しながら説明する。
 一例として図14に示すように、第1撮像素子38によって被写体が撮像されることで得られた第1デジタル画像データ70Bは、メモリ112に一旦記憶されてから、通信I/F110D2によって第2撮像素子52に出力される。第1撮像素子38及び第2撮像素子52は、直列に接続された撮像素子であり、前段の撮像素子である第1撮像素子38の通信I/F120D2によって第1デジタル画像データ70Bが後段の撮像素子である第2撮像素子52に出力される。そして、通信I/F120D2によって出力された第1デジタル画像データ70Bは、第2撮像素子52の通信I/F120D2によって受け付けられ、受け付けられた第1デジタル画像データ70Bはメモリ122に記憶される。また、第2撮像素子52によって撮像されることで得られた第2デジタル画像データ80Bもメモリ122に記憶される。
 メモリ122に記憶される第1デジタル画像データ70Bは、第1焦点距離で第1撮像素子38によって第1撮像範囲が撮像されることで得られたデジタル画像データである。また、メモリ122に記憶される第2デジタル画像データ80Bは、第1焦点距離よりも長い第2焦点距離で第2撮像素子によって第2撮像範囲が撮像されることで得られたデジタル画像データである。なお、第1デジタル画像データ70Bは、本開示の技術に係る「第1焦点距離画像データ」の一例であり、第2デジタル画像データ80Bは、本開示の技術に係る「第2焦点距離画像データ」の一例である。
 一例として図15に示すように、第2撮像素子52において、制御回路120Cは、検出部120C1、判定部120C2、及び合成部120C3を有する。メモリ122には、第1撮像素子38によって第1撮像範囲(図12参照)が撮像されることで得られた第1デジタル画像データ70Bと、第2撮像素子52によって第2撮像範囲が(図12参照)が撮像されることで得られた第2デジタル画像データ80Bとが記憶されている。
 制御回路120Cは、メモリ122に記憶されている第2デジタル画像データ80Bを処理する。具体的には、先ず、検出部120C1が、メモリ122に記憶されている第2デジタル画像データにより示される第2画像から人物を示す人物画像を検出する検出処理を行う。検出部120C1は、公知の顔検出処理を利用することで人物画像の検出を行う。顔検出処理は、公知技術であるため、ここでの説明は省略する。なお、人物は、本開示の技術に係る「特定の被写体」の一例であり、「人物画像」は、本開示の技術に係る「特定被写体画像」の一例である。また、人物は、不特定の人物であってもよいし、特定の人物(特定の個人)であってもよい。
 なお、ここでは、本開示の技術に係る「特定の被写体」の一例として、人物を例示しているが、本開示の技術はこれに限定されず、人物以外の被写体(例えば、建造物、乗り物、植物、虫、動物、飲食物、及び/又は小物等)であってもよい。また、検出処理は、特定の被写体を示す特定被写体画像、又は、特定被写体画像の特徴量(周波数特性等)がコンピュータ等によって予め学習(例えば、機械学習)されることで得られた学習結果を用いることによって行われるようにしてもよい。
 判定部120C2は、検出処理によって第2画像から人物画像が検出された否かを判定する。検出処理によって人物画像が検出されなかった場合、判定部120C2は、メモリ122から第1デジタル画像データ70Bを取得する。判定部120C2は、メモリ122から取得した第1デジタル画像データ70Bを通信I/F120D3を介して信号処理回路34に出力する。
 検出処理によって人物画像が検出された場合、判定部120C2は、検出処理によって人物画像が検出されたことを示す検出成功信号を合成部120C3に出力する。合成部120C3は、判定部120C2から検出成功信号が入力されると、メモリ122から第1デジタル画像データ70Bを取得する。そして、合成部120C3は、メモリ122から取得した第1デジタル画像データ70Bと、検出部120C1での検出対象とされた第2デジタル画像データ80Bとを合成することで合成画像データ90を生成する。合成画像データ90により示される画像は、例えば、図15に示すように、第1画像内に第2画像が埋め込まれた画像である。合成部120C3は、合成画像データ90を通信I/F120D3を介して信号処理回路34に出力する。
 なお、ここで、メモリ112から判定部120C2及び合成部120C3によってメモリ122から取得される第1デジタル画像データ70Bは、例えば、検出部120C1での検出対象とされた第2デジタル画像データ80Bを得るために第2撮像素子52によって第2撮像範囲が撮像されたタイミングと同期して第1撮像素子38によって第1撮像範囲が撮像されることで得られたデジタル画像データである。
 また、ここでは、合成画像データ90により示される画像の一例として、第1画像内に第2画像が埋め込まれた画像が挙げられているが、本開示の技術はこれに限定されない。例えば、第1画像に対して第2画像を重畳させてもよいし、第1画像と第2画像とが隣り合った状態で連結させてもよいし、第1画像と第2画像とによるアルファブレンドであってもよいし、他の合成方法であってもよい。
 信号処理回路34では、第2撮像素子52から入力された画像データ(図15に示す例では、第1デジタル画像データ70B又は合成画像データ90)に対して各種の信号処理を行い、各種の信号処理を行った画像データをコントローラ15に出力する。コントローラ15では、画像データが入力されると、CPU15Aによって画像データがストレージ15Bに記憶されたり、外部I/F104を介して、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、及び/又はメモリカード等に記憶されたりする。また、コントローラ15では、画像データが入力されると、CPU15Aによって画像データに基づく画像が静止画像又はライブビュー画像としてディスプレイ26に表示される。なお、ここでは、画像データの記憶と、画像データに基づく画像の表示との双方が行われる形態例を挙げているが、画像データの記憶、又は、画像データに基づく画像の表示が行われるようにしてもよい。
 次に、スマートデバイス10の本開示の技術に係る部分の作用について説明する。
 先ず、第1撮像素子38の処理回路110によって実行される前段撮像処理の流れについて図16を参照しながら説明する。
 図12に示す前段撮像処理では、先ず、ステップST10で、制御回路110Cは、コントローラ15からの垂直同期信号が通信I/F110D1によって受け付けられたか否かを判定する。ステップST10において、コントローラ15からの垂直同期信号が通信I/F110D1によって受け付けられていない場合は、判定が否定されて、前段撮像処理はステップST22へ移行する。ステップST10において、コントローラ15からの垂直同期信号が通信I/F110D1によって受け付けられた場合は、判定が肯定されて、前段撮像処理はステップST12へ移行する。
 ステップST12で、読出回路110Aは、第1アナログ画像データ70Aの読み出し及び光電変換素子42のリセットを行い、その後、前段撮像処理はステップST14へ移行する。
 ステップST14で、デジタル処理回路110Bは、第1アナログ画像データ70Aに対してデジタル信号処理を行い、その後、前段撮像処理はステップST16へ移行する。
 ステップST14において第1アナログ画像データ70Aに対してデジタル信号処理が行われることで得られた第1デジタル画像データ70Bは、制御回路110Cに転送される。
 ステップST16で、制御回路110Cは、第1デジタル画像データ70Bをメモリ112に対して記憶させ、その後、前段撮像処理はステップST18へ移行する。
 ステップST18で、制御回路110Cは、第1デジタル画像データ70Bを第2撮像素子52に出力するタイミング(第1出力タイミング)が到来したか否かを判定する。第1出力タイミングの一例としては、第1撮像素子38の出力フレームレートによって規定されたタイミングが挙げられる。ステップST18において、第1出力タイミングが到来していない場合は、判定が否定されて、ステップST18の判定が再び行われる。ステップST18において、第1出力タイミングが到来した場合は、判定が肯定されて、前段撮像処理はステップST20へ移行する。
 ステップST20で、制御回路110Cは、メモリ112から第1デジタル画像データ70Bを取得し、取得した第1デジタル画像データ70Bを、通信I/F110D2を介して第2撮像素子52に出力し、その後、前段撮像処理はステップST22へ移行する。
 ステップST22で、制御回路110Cは、前段撮像処理を終了する条件(以下、「前段撮像処理終了条件」と称する)を満足したか否かを判定する。前段撮像処理終了条件の一例としては、前段撮像処理を終了させる指示が受付デバイス84(図4参照)によって受け付けられた、との条件が挙げられる。ステップST22において、前段撮像処理終了条件を満足していない場合は、判定が否定されて、前段撮像処理はステップST10へ移行する。ステップST22において、前段撮像処理終了条件を満足した場合は、判定が肯定されて、前段撮像処理が終了する。
 次に、第2撮像素子52の処理回路120によって実行される後段撮像処理の流れについて図17A及び図17Bを参照しながら説明する。
 図17Aに示す後段撮像処理では、先ず、ステップST30で、制御回路120Cは、コントローラ15からの垂直同期信号が通信I/F120D1によって受け付けられたか否かを判定する。ステップST30において、コントローラ15からの垂直同期信号が通信I/F120D1によって受け付けられていない場合は、判定が否定されて、後段撮像処理はステップST56へ移行する。ステップST30において、コントローラ15からの垂直同期信号が通信I/F120D1によって受け付けられた場合は、判定が肯定されて、後段撮像処理はステップST32へ移行する。
 ステップST32で、読出回路120Aは、第2アナログ画像データ80Aの読み出し及び光電変換素子56のリセットを行い、その後、後段撮像処理はステップST34へ移行する。
 ステップST34で、デジタル処理回路120Bは、第2アナログ画像データ80Aに対してデジタル信号処理を行い、その後、後段撮像処理はステップST36へ移行する。
 ステップST34において第2アナログ画像データ80Aに対してデジタル信号処理が行われることで得られた第2デジタル画像データ80Bは、制御回路120Cに転送される。
 ステップST36で、制御回路120Cは、第2デジタル画像データ80Bをメモリ122に対して記憶させ、その後、後段撮像処理はステップST38へ移行する。
 ステップST38で、制御回路120Cは、第1撮像素子38から第1デジタル画像データ70Bが入力されたか否かを判定する。ステップST38において、第1撮像素子38から第1デジタル画像データ70Bが入力されていない場合は、判定が否定されて、ステップST38の判定が再び行われる。ステップST38において、第1撮像素子38から第1デジタル画像データ70Bが入力された場合は、判定が肯定されて、後段撮像処理はステップST40へ移行する。
 ステップST40で、制御回路120Cは、ステップST38で入力された第1デジタル画像データ70Bをメモリ122に対して記憶させ、その後、後段撮像処理はステップST42へ移行する。
 ステップST42で、検出部120C1は、メモリ122から第2デジタル画像データ80Bを取得し、その後、後段撮像処理はステップST44へ移行する。
 ステップST44で、検出部120C1は、ステップST44で取得した第2デジタル画像データ80Bを用いて検出処理を行い、その後、後段撮像処理はステップST45へ移行する。
 ステップST45で、判定部120C2は、第2デジタル画像データ80Bにより示される第2画像から人物画像がステップST44での検出処理によって検出されたか否かを判定する。ステップST45において、第2画像から人物画像が検出されていない場合は、判定が否定されて、後段撮像処理は、図17Bに示すステップST46へ移行する。ステップST45において、第2画像から人物画像が検出された場合は、判定が肯定されて、後段撮像処理はステップST50へ移行する。
 図17Bに示すステップST46で、判定部120C2は、第1デジタル画像データ70Bを信号処理回路34に出力するタイミング(第2出力タイミング)が到来したか否かを判定する。第2出力タイミングの一例としては、第2撮像素子52の出力フレームレートによって規定されたタイミングが挙げられる。
 ステップST46において、第2出力タイミングが到来していない場合は、判定が否定されて、ステップST46の判定が再び行われる。ステップST46において、第2出力タイミングが到来した場合は、判定が肯定されて、後段撮像処理はステップST48へ移行する。
 ステップST48で、判定部120C2は、メモリ122から第1デジタル画像データ70Bを取得し、取得した第1デジタル画像データ70Bを、通信I/F120D3を介して信号処理回路34に出力し、その後、後段撮像処理は、図17Aに示すステップST56へ移行する。
 図17Aに示すステップST50で、合成部120C3は、メモリ122から第1デジタル画像データ70Bを取得し、取得した第1デジタル画像データ70Bと、ステップST44で検出処理の検出対象として用いられた第2デジタル画像データ80Bとを合成することで合成画像データ90を生成し、その後、後段撮像処理はステップST52へ移行する。
 ステップST52で、合成部120C3は、第2出力タイミングが到来したか否かを判定する。ステップST52において、第2出力タイミングが到来していない場合は、判定が否定されて、ステップST52の判定が再び行われる。ステップST52において、第2出力タイミングが到来した場合は、判定が肯定されて、後段撮像処理はステップST54へ移行する。
 ステップST54で、合成部120C3は、ステップST50で生成した合成画像データ90を、通信I/F120D3を介して信号処理回路34に出力し、その後、後段撮像処理はステップST56へ移行する。
 ステップST56で、制御回路120Cは、後段撮像処理を終了する条件(以下、「後段撮像処理終了条件」と称する)を満足したか否かを判定する。後段撮像処理終了条件の一例としては、後段撮像処理を終了させる指示が受付デバイス84(図4参照)によって受け付けられた、との条件が挙げられる。ステップST56において、後段撮像処理終了条件を満足していない場合は、判定が否定されて、後段撮像処理はステップST30へ移行する。ステップST56において、後段撮像処理終了条件を満足した場合は、判定が肯定されて、後段撮像処理が終了する。
 以上説明したように、スマートデバイス10では、第1撮像素子38によって第1撮像範囲が撮像されることで得られた第1デジタル画像データ70Bが第2撮像素子52のメモリ122に記憶される。また、第2撮像素子52によって第2撮像範囲が撮像されることで得られた第2デジタル画像データ80Bがメモリ122に記憶される。第2撮像素子52では、第2デジタル画像データ80Bにより示される第2画像から人物画像を検出する検出処理が検出部120C1によって行われる。第2画像は、第1画像よりも高い解像度の画像であるので、第1画像を用いて人物画像の検出が行われる場合に比べ、高い精度で人物画像が検出される。
 ここで、検出処理によって第2画像から人物画像が検出されなかった場合に、メモリ122に記憶されている第1デジタル画像データ70Bが信号処理回路34に出力される。また、検出処理によって第2画像から人物画像が検出された場合に、メモリ122に記憶されている第1デジタル画像データ70Bと、検出処理で用いた第2デジタル画像データ80Bとが合成部120C3によって合成される。そして、第1デジタル画像データ70Bと第2デジタル画像データ80Bとが合成されることで得られた合成画像データ90が信号処理回路34に出力される。
 従って、本構成によれば、第1画像のみを検出対象にして人物画像を検出する処理が行われることによって得られる検出結果に関わらず、常に第1デジタル画像データ70Bが信号処理回路34に出力される場合に比べ、高い精度で人物画像を検出する検出処理が行われ、検出処理による検出結果に適した解像度の画像を示す画像データを信号処理回路34に出力することができる。
 また、スマートデバイス10では、第1撮像素子38及び第2撮像素子52の互いの撮像範囲が重複している。すなわち、第1撮像範囲内に第2撮像範囲が含まれている。従って、本構成によれば、第1撮像範囲と第2撮像範囲とが重複していない場合に比べ、第1撮像範囲内に人物が存在しているか否かを容易に特定することができる。
 また、スマートデバイス10では、第2デジタル画像データ80Bは、第1焦点距離よりも長い第2焦点距離で第2撮像素子52によって撮像されることで得られた画像データである。従って、本構成によれば、第1焦点距離と同一の焦点距離又は第1焦点距離よりも短い焦点距離で第2撮像素子52によって撮像されることで得られた画像データを用いて人物画像の検出が行われる場合に比べ、高い精度で人物画像を検出することができる。
 また、スマートデバイス10では、第2焦点距離が光学ズーム機構59によって変更される。従って、本構成によれば、第2撮像素子52は様々な画角で撮像することにより得た第2デジタル画像データ80Bを用いて検出処理を行うことができる。
 また、スマートデバイス10では、フレーム毎に露出量が変更可能な撮像が第2撮像素子52によって行われる。従って、本構成によれば、第2撮像素子52によって撮像されることで得られるフレーム毎の第2デジタル画像データ80Bにより示される第2画像の露出量が常に一定の場合に比べ、人物画像の検出精度を高めることができる。
 また、スマートデバイス10では、第2領域56Bのアスペクト比が3:2であり、第1領域42Bのアスペクト比が16:9である。従って、本構成によれば、第2領域56Bのアスペクト比が第1領域42Bのアスペクト比と同一の16:9である場合に比べ、検出処理によって第2画像から人物画像が検出される範囲を広げることができる。
 また、スマートデバイス10では、第2撮像素子52でのフレームレートは、第1撮像素子38でのフレームレートよりも高い。従って、本構成によれば、第1撮像素子38で第1画像から人物画像の検出が行われる場合に比べ、高速に検出処理を行うことができる。
 また、スマートデバイス10では、第2撮像素子52として、光電変換素子56、処理回路120、及びメモリ122が1チップ化された撮像素子が採用されている。従って、本構成によれば、光電変換素子56、処理回路120、及びメモリ122が1チップ化されていない撮像素子に比べ、第2撮像素子52の可搬性が高くなる。また、光電変換素子56、処理回路120、及びメモリ122が1チップ化されていない撮像素子に比べ、設計の自由度も高めることができる。更に、光電変換素子56、処理回路120、及びメモリ122が1チップ化されていない撮像素子に比べ、撮像装置14の小型化にも寄与することができる。
 また、スマートデバイス10では、第2撮像素子52として、光電変換素子56にメモリ122が積層された積層型撮像素子が採用されている。これにより、光電変換素子56とメモリ122とを接続する配線を短くすることができるため、配線遅延を減らすことができ、この結果、光電変換素子56とメモリ122とが積層されていない場合に比べ、光電変換素子56からメモリ122への画像データの転送速度を高めることができる。
 また、転送速度の向上は、処理回路120全体での処理の高速化にも寄与する。また、光電変換素子56とメモリ122とが積層されていない場合に比べ、設計の自由度も高めることができる。更に、光電変換素子56とメモリ122とが積層されていない場合に比べ、撮像装置14の小型化にも寄与することができる。
 また、スマートデバイス10では、第2撮像素子52から出力された画像データに基づくライブビュー画像等がCPU15Aによってディスプレイ26に表示される。従って、本構成によれば、第2撮像素子52から出力された画像データに基づくライブビュー画像等をユーザに視認させることができる。
 また、スマートデバイス10では、第2撮像素子52から出力された画像データがCPU15Aによってストレージ15B、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、及び/又はメモリカード等に記憶される。従って、本構成によれば、第2撮像素子52から出力された画像データを管理することができる。
 ところで、図21には、信号処理回路34に対して第1撮像素子38が通信ラインLN1で直接接続され、かつ、信号処理回路34に対して第2撮像素子52が通信ラインLN2で直接接続されている形態例が示されている。図21に示す例では、第1撮像素子38及び第2撮像素子52を信号処理回路34に接続する場合、信号処理回路34には、第1撮像素子38及び第2撮像素子52の各々に対応するインタフェースが必要になる。そのため、信号処理回路34に対して単一の撮像素子のみが接続される場合に比べ、配線数が増える。
 これに対し、スマートデバイス10では、第1撮像素子38、第2撮像素子52、及び信号処理回路34が直列に接続されており、第1撮像素子38から第2撮像素子52に第1デジタル画像データ70Bが出力される。そして、第2撮像素子52から第1デジタル画像データ70B、及び合成画像データ90が選択的に信号処理回路34に出力される。従って、本構成によれば、信号処理回路34に対して第1撮像素子38が通信ラインLN1で直接接続され、かつ、信号処理回路34に対して第2撮像素子52が通信ラインLN2で直接接続される場合(図21参照)に比べ、第1撮像素子38及び第2撮像素子52を信号処理回路34に接続するのに要する配線数を抑制することができる。
 なお、上記実施形態では、第2撮像素子52が信号処理回路34に合成画像データ90が出力される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、合成画像データ90に代えて、第2デジタル画像データ80Bが第2撮像素子52から信号処理回路34に出力されるようにしてもよい。或いは、第2デジタル画像データ80Bに基づく画像データ(例えば、第2デジタル画像データ80Bを加工した画像データ)が第2撮像素子52から信号処理回路34に出力されるようにしてもよい。ここで、第2デジタル画像データ80Bの他に、第2デジタル画像データ80Bに基づく画像データも、本開示の技術に係る「第2画像データ」の一例である。
 合成画像データ90に代えて第2デジタル画像データ80Bが出力される場合、一例として図18に示すように、後段撮像処理では、図17Aに示すステップST52の処理が不要となり、図17Aに示すステップST54の処理に代えてステップST154の処理が制御回路120Cによって行われる。すなわち、ステップST154では、制御回路120Cによって、ステップST44の検出処理で用いた第2デジタル画像データ80Bが信号処理回路34に出力される。
 なお、合成画像データ90に代えて、第2デジタル画像データ80Bが信号処理回路34に出力される場合、コントローラ15のCPU15Aに制御下で、第2デジタル画像データ80Bに基づく画像がディスプレイ26に表示されたり、第2デジタル画像データ80Bがストレージ15B等の記憶装置に記憶されたりするようにしてもよい。
 また、上記実施形態では、検出部120C1がメモリ122から第2デジタル画像データ80Bを取得する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第2デジタル画像データ80Bは、メモリ122に記憶されることなく検出部120C1によって用いられるようにしてもよい。すなわち、第2デジタル画像データ80Bは、メモリ122に記憶されずに制御回路120Cによって処理されるようにしてもよい。
 また、上記実施形態では、第2撮像素子52として、光電変換素子56、処理回路120、及びメモリ122が1チップ化された撮像素子が例示されているが、本開示の技術はこれに限定されない。例えば、光電変換素子56、処理回路120、及びメモリ122のうち、少なくとも光電変換素子56及びメモリ122が1チップ化されていればよい。
 また、上記実施形態では、検出処理による検出結果に応じて第1デジタル画像データ70B又は合成画像データ90が選択的に出力される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、検出処理による検出結果に関わらず、第2撮像素子52から信号処理回路34に第2デジタル画像データ80Bが出力されるようにしてもよい。
 この場合、例えば、図19に示すように、コントローラ15が、検出処理による検出結果に関わらず信号処理回路34に第2デジタル画像データ80Bを出力することを要求する出力要求信号を、通信ライン58Aを介して第2撮像素子52に出力する。第2撮像素子52では、通信I/F120D1によって出力要求信号が受け付けられる。ここで、通信I/F120D1は、本開示の技術に係る「受付部(アクセプタ)」の一例である。
 出力要求信号が通信I/F120D1によって受け付けられた場合に、制御回路120Cは、検出処理による検出結果に関わらず、第2デジタル画像データ80Bを信号処理回路34に出力する。本構成によれば、検出処理による検出結果に関わらず第2デジタル画像データ80Bの出力を求めるユーザの利便性の向上に寄与することができる。
 また、上記実施形態では、第1撮像素子38として積層型撮像素子を例示したが、本開示の技術はこれに限定されず、第1撮像素子38は、非積層型の撮像素子であってもよい。この場合、第1撮像装置30に代えて、非積層型の撮像素子と、非積層型の撮像素子によって得られた第1アナログ画像データ70Aから第1デジタル画像データ70Bを生成し、生成した第1デジタル画像データ70Bを第2撮像素子52に出力する処理回路とを有する第1撮像装置を適用すればよい。或いは、第1撮像素子38として非積層型の撮像素子を用いる場合、例えば、第1アナログ画像データ70Aが第1撮像素子38から第2撮像素子52に出力され、第2撮像素子52によって第1アナログ画像データ70Aがデジタル化されて第1デジタル画像データ70Bが生成されるようにしてもよい。
 また、上記実施形態では、通信I/F間がPCIeの接続規格に従って接続されているが、本開示の技術はこれに限定されない。PCIeの接続規格に代えて、LVDS、SATA、SLVS-EC、又はMIPI等の他の接続規格が採用されてもよい。
 また、上記実施形態では、第2撮像素子52と信号処理回路34との間の通信、コントローラ15と第1撮像素子38との通信、コントローラ15と第2撮像素子52との間の通信、及び信号処理回路34とコントローラ15との通信は何れも有線形式の通信である。しかし、本開示の技術はこれに限定されない。第2撮像素子52と信号処理回路34との間の通信、コントローラ15と第1撮像素子38との通信、コントローラ15と第2撮像素子52との間の通信、及び/又は信号処理回路34とコントローラ15との通信を無線形式の通信としてもよい。
 また、上記実施形態では、UI系デバイス17がスマートデバイス10に組み込まれている形態例を挙げて説明したが、UI系デバイス17に含まれる複数の構成要素のうちの少なくとも一部がスマートデバイス10に対して外付けされていてもよい。また、UI系デバイス17に含まれる複数の構成要素のうちの少なくとも一部が別体として外部I/F104に接続されることによって使用されるようにしてもよい。
 また、上記実施形態では、処理回路120としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されず、処理回路120は、コンピュータによるソフトウェア構成により実現されるようにしてもよい。
 この場合、例えば、図20に示すように、撮像装置14にはコンピュータ852が内蔵されている。例えば、第2撮像素子52に、処理回路120に代えてコンピュータ852が内蔵されている。コンピュータ852に上記実施形態に係る前段撮像処理を実行させるための前段撮像処理プログラム902Aは記憶媒体900に記憶されている。また、コンピュータ852に上記実施形態に係る後段撮像処理を実行させるための後段撮像処理プログラム902Bも記憶媒体900に記憶されている。記憶媒体900の一例としては、非一時的記憶媒体であるSSD又はUSBメモリなどの任意の可搬型の記憶媒体が挙げられる。
 なお、以下では、説明の便宜上、前段撮像処理と後段撮像処理とを区別して説明する必要がない場合、「撮像装置処理」と称し、前段撮像処理プログラム902Aと後段撮像処理プログラム902Bとを区別して説明する必要がない場合、「撮像装置処理プログラム」と称する。
 コンピュータ852は、CPU852A、ストレージ852B、及びメモリ852Cを備えている。ストレージ852Bは、EEPROM等の不揮発性の記憶装置であり、メモリ852Cは、RAM等の揮発性の記憶装置である。記憶媒体900に記憶されている撮像装置処理プログラム902は、コンピュータ852にインストールされる。CPU852Aは、撮像装置処理プログラム902に従って撮像装置処理を実行する。
 撮像装置処理プログラム902は、記憶媒体900ではなく、ストレージ852Bに記憶されていてもよい。この場合、CPU852Aは、ストレージ852Bから撮像装置処理プログラム902を読み出し、読み出した撮像装置処理プログラム902をメモリ852Cで実行する。このように、撮像装置処理プログラム902がCPU852Aによって実行されることで撮像装置処理が実現される。
 また、通信網(図示省略)を介してコンピュータ852に接続される他のコンピュータ又はサーバ装置等の記憶部に撮像装置処理プログラム902を記憶させておき、上述のスマートデバイス10の要求に応じて撮像装置処理プログラム902がダウンロードされ、コンピュータ852にインストールされるようにしてもよい。
 なお、コンピュータ852に接続される他のコンピュータ又はサーバ装置等の記憶部、又はストレージ852Bに撮像装置処理プログラム902の全てを記憶させておく必要はなく、撮像装置処理プログラム902の一部を記憶させておいてもよい。
 図20に示す例では、撮像装置14にコンピュータ852が内蔵されている態様例が示されているが、本開示の技術はこれに限定されず、例えば、コンピュータ852が撮像装置14の外部に設けられるようにしてもよい。
 図20に示す例では、CPU852Aは、単数のCPUであるが、複数のCPUであってもよい。また、CPU852Aに代えてGPUを適用してもよい。
 図20に示す例では、コンピュータ852が例示されているが、本開示の技術はこれに限定されず、コンピュータ852に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ852に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 上記実施形態で説明した撮像装置処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、撮像装置処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで撮像装置処理を実行する。
 撮像装置処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、撮像装置処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、撮像装置処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、撮像装置処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、撮像装置処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の撮像装置処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、図1に示す例では、スマートデバイス10を例示したが、本開示の技術はこれに限定されない。すなわち、撮像装置14が内蔵された各種の電子機器(例えば、レンズ交換式カメラ、レンズ固定式カメラ、パーソナル・コンピュータ、及び/又はウェアラブル端末装置等)に対しても本開示の技術は適用可能であり、これらの電子機器であっても、上記のスマートデバイス10と同様の作用及び効果が得られる。また、上記実施形態では、第1撮像装置30と第2撮像装置32とが撮像装置14として筐体12に収容されている形態例を挙げて説明したが、第1撮像装置30及び第2撮像装置32の双方が筐体12に収容されている必要はない。例えば、第1撮像装置30及び第2撮像装置32の双方が筐体12外で2台のカメラとして使用されてもよい。この場合も、上述した撮像装置14と同様の作用及び効果が得られる。
 また、上記実施形態では、ディスプレイ26を例示したが、本開示の技術はこれに限定されない。例えば、撮像装置に対して後付けされた別体のディスプレイを、本開示の技術に係る「表示部(ディスプレイ)」として用いるようにしてもよい。
 また、上記実施形態では、第1撮像素子38及び第2撮像素子52という2つの撮像素子を例示したが、本開示の技術はこれに限定されず、3つ以上の撮像素子を適用してもよい。3つ以上の撮像素子のうちの1つの撮像素子(特定の撮像素子)によって撮像されることで得られる画像は、他の撮像素子によって撮像されることで得られる画像よりも解像度が高く、検出処理に用いられる。また、特定の撮像素子は、積層型撮像素子であることが好ましい。特定の撮像素子において、検出処理によって特定被写体画像(例えば、人物画像)が検出された場合に、特定の撮像素子によって撮像されることで得られた画像と、残りの撮像素子のうちの少なくとも1つの撮像素子によって撮像されることで得られた画像とが合成されることで得られた合成画像を示す合成画像データが、特定の撮像素子によって出力されるようにする。
 なお、この場合も、上記第1撮像素子38と第2撮像素子52とが直列に接続されているのと同様に、3つ以上の撮像素子も直列に接続されているようにしてもよい。また、3つ以上の撮像素子を用いる場合、互いの撮像素子によって撮像されることで得られる各画像の解像度が異なるようにしてもよく、最も低い解像度の画像以外の画像のうち、最も低い解像度の画像から高い解像度の画像の順に(段階的に)検出処理が行われるようにしてもよい。そして、検出処理によって特定被写体画像が検出された場合に、特定被写体画像の検出処理が行われた撮像素子によって撮像されることで得られた画像(例えば、特定被写体画像を含む画像)と、検出処理が行われた撮像素子よりも解像度の低い画像が得られる撮像素子によって撮像されることで得られた画像とが合成されることによって得られた合成画像データが後段回路(例えば、信号処理回路34)に出力されるようにしてもよい。また、合成画像データではなく、特定被写体画像を含む画像を示す画像データが出力されるようにしてもよい。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記)
 被写体を撮像することで得た第1画像データを後段の撮像素子に出力する第1撮像素子と、
 後段の撮像素子として設けられた第2撮像素子であって、第1撮像素子から出力された第1画像データを記憶するメモリと、第2撮像素子によって被写体が撮像されることで得られた第2画像データを処理する制御回路と、を有する第2撮像素子と、を含み、
 第2画像データにより示される第2画像は、第1画像データより示される第1画像よりも解像度が高く、
 制御回路は、第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行い、
 第2撮像素子は、検出処理により特定被写体画像が検出されなかった場合に、メモリに記憶されている第1画像データを特定の出力先に出力し、検出処理により特定被写体画像が検出された場合に、第1画像データと第2画像データとが制御回路によって合成されることで得られた合成画像データ、又は、第2画像データを出力先に出力する
 撮像装置。

Claims (14)

  1.  被写体を撮像することで得た第1画像データを後段の撮像素子に出力する第1撮像素子と、
     前記後段の撮像素子として設けられた第2撮像素子であって、前記第1撮像素子から出力された前記第1画像データを記憶するメモリと、前記第2撮像素子によって前記被写体が撮像されることで得られた第2画像データを処理する制御回路と、を有する第2撮像素子と、を備え、
     前記第2画像データにより示される第2画像は、前記第1画像データより示される第1画像よりも解像度が高く、
     前記制御回路は、前記第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行い、
     前記第2撮像素子は、前記検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている前記第1画像データを特定の出力先に出力し、前記検出処理により前記特定被写体画像が検出された場合に、前記第1画像データと前記第2画像データとが前記制御回路によって合成されることで得られた合成画像データ、又は、前記第2画像データを前記出力先に出力する
     撮像装置。
  2.  前記第1撮像素子及び前記第2撮像素子の互いの撮像範囲は重複している請求項1に記載の撮像装置。
  3.  前記第1画像データは、第1焦点距離及び前記第1焦点距離よりも長い第2焦点距離のうちの前記第1焦点距離で前記第1撮像素子によって撮像されることで得られた第1焦点距離画像データであり、
     前記第2画像データは、前記第2焦点距離で前記第2撮像素子によって撮像されることで得られた第2焦点距離画像データである請求項1又は請求項2に記載の撮像装置。
  4.  前記第2焦点距離は、光学ズーム機構によって変更される請求項3に記載の撮像装置。
  5.  前記第2撮像素子は、フレーム毎に露出量が変更可能な撮像を行う請求項1から請求項4の何れか一項に記載の撮像装置。
  6.  前記第1撮像素子は、第1被写体光が結像される第1光電変換素子を有し、
     前記第2撮像素子は、第2被写体光が結像される第2光電変換素子を有し、
     前記第1画像データは、前記第1光電変換素子のうちの指定された第1領域から得られた画像データであり、
     前記第2画像データは、前記第2光電変換素子のうちの指定された第2領域から得られた画像データであり、
     前記第2領域は、前記第1領域よりも広い領域である請求項1から請求項5の何れか一項に記載の撮像装置。
  7.  前記第2画像データの出力の要求を受け付ける通信インタフェースを更に含み、
     前記第2撮像素子は、前記通信インタフェースによって前記要求が受け付けられた場合に、前記検出処理による検出結果に関わらず、前記第2画像データを前記出力先に出力する請求項1から請求項6の何れか一項に記載の撮像装置。
  8.  前記第2撮像素子でのフレームレートは、前記第1撮像素子でのフレームレートよりも高い請求項1から請求項7の何れか一項に記載の撮像装置。
  9.  前記第2撮像素子は、少なくとも光電変換素子と前記メモリとが1チップ化された撮像素子である請求項1から請求項8の何れか一項に記載の撮像装置。
  10.  前記第2撮像素子は、前記光電変換素子に前記メモリが積層された積層型撮像素子である請求項9に記載の撮像装置。
  11.  前記第1撮像素子、前記第2撮像素子、及び前記出力先を直列に接続しており、
     前記第1撮像素子は、前記第1画像データを前記第2撮像素子に出力する請求項1から請求項10の何れか一項に記載の撮像装置。
  12.  前記第2撮像素子により出力された前記第1画像データに基づく画像、及び、前記第2撮像素子により出力された前記合成画像データ又は前記第2画像データに基づく画像のうちの少なくとも一方をディスプレイに対して表示させる制御と、前記第2撮像素子により出力された前記第1画像データ、及び、前記第2撮像素子により出力された前記合成画像データ又は前記第2画像データのうちの少なくとも一方を記憶装置に対して記憶させる制御とのうちの少なくとも一方を行うプロセッサを更に備える請求項1から請求項11の何れか一項に記載の撮像装置。
  13.  撮像装置の動作方法であって、
     前記撮像装置に含まれる第1撮像素子によって被写体が撮像されることで得られた第1画像データを前記第1撮像素子が後段の撮像素子に出力すること、
     前記後段の撮像素子として前記撮像装置に設けられた第2撮像素子が有するメモリが、前記第1撮像素子から出力された前記第1画像データを記憶すること、
     前記第2撮像素子が前記被写体を撮像することで得た第2画像データを処理すること、
     前記第2撮像素子が、前記第2画像データにより示される第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行うこと、
     前記第2撮像素子が、前記検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている前記第1画像データを特定の出力先に出力すること、並びに、
     前記第2撮像素子が、前記検出処理により前記特定被写体画像が検出された場合に、前記第1画像データと前記第2画像データとが合成されることで得られた合成画像データ、又は、前記第2画像データを前記出力先に出力することを含み、
     前記第2画像は、前記第1画像データより示される第1画像よりも解像度が高い
     撮像装置の動作方法。
  14.  撮像装置に対して適用されるコンピュータに処理を実行させるためのプログラムであって、
     前記処理は、
     前記撮像装置に含まれる第1撮像素子によって被写体が撮像されることで得られた第1画像データを前記第1撮像素子が後段の撮像素子に出力すること、
     前記後段の撮像素子として前記撮像装置に設けられた第2撮像素子が有するメモリが、前記第1撮像素子から出力された前記第1画像データを記憶すること、
     前記第2撮像素子が前記被写体を撮像することで得た第2画像データを処理すること、
     前記第2撮像素子が、前記第2画像データにより示される第2画像から特定の被写体を示す特定被写体画像を検出する検出処理を行うこと、
     前記第2撮像素子が、前記検出処理により前記特定被写体画像が検出されなかった場合に、前記メモリに記憶されている前記第1画像データを特定の出力先に出力すること、並びに、
     前記第2撮像素子が、前記検出処理により前記特定被写体画像が検出された場合に、前記第1画像データと前記第2画像データとが合成されることで得られた合成画像データ、又は、前記第2画像データを前記出力先に出力することを含み、
     前記第2画像は、前記第1画像データより示される第1画像よりも解像度が高い
     プログラム。
PCT/JP2020/026024 2019-08-29 2020-07-02 撮像装置、撮像装置の動作方法、及びプログラム WO2021039114A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021542590A JP7289921B2 (ja) 2019-08-29 2020-07-02 撮像装置、撮像装置の動作方法、及びプログラム
CN202080058927.4A CN114270800A (zh) 2019-08-29 2020-07-02 摄像装置、摄像装置的动作方法及程序
US17/671,529 US11678070B2 (en) 2019-08-29 2022-02-14 Imaging apparatus, operation method of imaging apparatus, and program
US18/309,965 US20230283916A1 (en) 2019-08-29 2023-05-01 Imaging apparatus, operation method of imaging apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019157260 2019-08-29
JP2019-157260 2019-08-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/671,529 Continuation US11678070B2 (en) 2019-08-29 2022-02-14 Imaging apparatus, operation method of imaging apparatus, and program

Publications (1)

Publication Number Publication Date
WO2021039114A1 true WO2021039114A1 (ja) 2021-03-04

Family

ID=74683689

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/026024 WO2021039114A1 (ja) 2019-08-29 2020-07-02 撮像装置、撮像装置の動作方法、及びプログラム

Country Status (4)

Country Link
US (2) US11678070B2 (ja)
JP (1) JP7289921B2 (ja)
CN (1) CN114270800A (ja)
WO (1) WO2021039114A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029152A1 (ja) * 2019-08-14 2021-02-18 富士フイルム株式会社 撮像装置、撮像装置の作動方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037757A (ja) * 2001-07-25 2003-02-07 Fuji Photo Film Co Ltd 画像撮像装置
JP2017098791A (ja) * 2015-11-25 2017-06-01 キヤノン株式会社 撮像素子および撮像装置
WO2018179671A1 (ja) * 2017-03-27 2018-10-04 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
JP2019118043A (ja) * 2017-12-27 2019-07-18 キヤノン株式会社 撮像装置、画像処理装置、制御方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3943848B2 (ja) 2001-02-28 2007-07-11 株式会社リコー 撮像装置
JP4124404B2 (ja) * 2001-05-17 2008-07-23 富士フイルム株式会社 撮像装置、画像処理装置、画像処理方法、及びプログラム
JP4513906B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
JP4513905B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2012129590A (ja) * 2010-12-13 2012-07-05 Idotai Fuzui Joho Hyoji Sochi Co Ltd 情報出力装置、プログラム及び情報出力システム
JP5017466B1 (ja) * 2011-02-28 2012-09-05 株式会社東芝 情報処理装置およびプログラム
KR101817657B1 (ko) * 2011-12-21 2018-01-11 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
JP2014176056A (ja) 2013-03-13 2014-09-22 Fujifilm Corp 撮像装置
US9710893B2 (en) * 2014-04-30 2017-07-18 Empire Technology Development Llc Image resolution modification
JP2015216482A (ja) * 2014-05-09 2015-12-03 キヤノン株式会社 撮像制御方法、および撮像装置
US10609273B2 (en) * 2014-07-31 2020-03-31 Maxell, Ltd. Image pickup device and method of tracking subject thereof
US9749543B2 (en) * 2015-07-21 2017-08-29 Lg Electronics Inc. Mobile terminal having two cameras and method for storing images taken by two cameras
JP2018015079A (ja) * 2016-07-26 2018-02-01 コニカミノルタ株式会社 画像管理装置、画像表示システム、及び画像表示方法
CN106993139B (zh) * 2017-04-28 2019-10-15 维沃移动通信有限公司 一种拍摄方法及移动终端
JP6874729B2 (ja) * 2018-04-02 2021-05-19 日本電気株式会社 画像処理装置、画像処理方法およびプログラム
CN112640429A (zh) * 2018-08-31 2021-04-09 富士胶片株式会社 成像元件、摄像装置、图像数据处理方法及程序
JP2020136898A (ja) * 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器、および撮像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003037757A (ja) * 2001-07-25 2003-02-07 Fuji Photo Film Co Ltd 画像撮像装置
JP2017098791A (ja) * 2015-11-25 2017-06-01 キヤノン株式会社 撮像素子および撮像装置
WO2018179671A1 (ja) * 2017-03-27 2018-10-04 ソニー株式会社 画像処理装置と画像処理方法および撮像装置
JP2019118043A (ja) * 2017-12-27 2019-07-18 キヤノン株式会社 撮像装置、画像処理装置、制御方法およびプログラム

Also Published As

Publication number Publication date
US11678070B2 (en) 2023-06-13
US20220174225A1 (en) 2022-06-02
US20230283916A1 (en) 2023-09-07
JP7289921B2 (ja) 2023-06-12
CN114270800A (zh) 2022-04-01
JPWO2021039114A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
US9264622B2 (en) Apparatus and method to provide a live view while photographing an image
US10277807B2 (en) Image device and method for memory-to-memory image processing
US11223762B2 (en) Device and method for processing high-resolution image
US20140267824A1 (en) Method and apparatus for image data transfer in digital photographing
WO2021039114A1 (ja) 撮像装置、撮像装置の動作方法、及びプログラム
US20240031706A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
JP2023169254A (ja) 撮像素子、撮像素子の作動方法、プログラム、及び撮像システム
WO2021039113A1 (ja) 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
WO2021029152A1 (ja) 撮像装置、撮像装置の作動方法、及びプログラム
US11711595B2 (en) Imaging apparatus, image data processing method of imaging apparatus, and program
CN112640430A (zh) 成像元件、摄像装置、图像数据处理方法及程序
WO2021020009A1 (ja) 撮像装置、撮像素子、撮像装置の作動方法、撮像素子の作動方法、及びプログラム
JP7137710B2 (ja) 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
JP7410088B2 (ja) 撮像素子、撮像装置、画像データ出力方法、及びプログラム
JP2012209798A (ja) 画像処理システム及び撮像装置
KR20210071791A (ko) 고해상도 이미지를 처리하기 위한 장치 및 방법
JP6350151B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20857667

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021542590

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20857667

Country of ref document: EP

Kind code of ref document: A1