WO2021124873A1 - 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム - Google Patents

撮像装置、撮像装置の作動方法、プログラム、及び撮像システム Download PDF

Info

Publication number
WO2021124873A1
WO2021124873A1 PCT/JP2020/044751 JP2020044751W WO2021124873A1 WO 2021124873 A1 WO2021124873 A1 WO 2021124873A1 JP 2020044751 W JP2020044751 W JP 2020044751W WO 2021124873 A1 WO2021124873 A1 WO 2021124873A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
processor
position information
imaging
Prior art date
Application number
PCT/JP2020/044751
Other languages
English (en)
French (fr)
Inventor
長谷川 亮
智行 河合
小林 誠
仁史 桜武
一文 菅原
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021565439A priority Critical patent/JP7354290B2/ja
Priority to CN202080086746.2A priority patent/CN114830626A/zh
Publication of WO2021124873A1 publication Critical patent/WO2021124873A1/ja
Priority to US17/805,232 priority patent/US20220294983A1/en
Priority to JP2023147517A priority patent/JP2023169254A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the technology of the present disclosure relates to an imaging device, an operating method of the imaging device, a program, and an imaging system.
  • Japanese Unexamined Patent Publication No. 2017-055231 discloses an image processing apparatus including a main subject identification unit and a learning unit.
  • the main subject identification unit specifies an area of the main subject in which the main subject, which is the subject to be focused on in the image, is captured, with the images continuously output from the imaging unit that captures the moving image as the processing target. ..
  • the learning unit moves the movement of a subject other than the main subject shown in the image based on the difference between the image to be processed and the previous frame image which is a specific image to be processed before the image. Learns to recognize a specific area where is less than or equal to a predetermined size.
  • Japanese Unexamined Patent Publication No. 2017-060155 discloses an image pickup device including a pixel unit, a readout unit, and an output unit. A plurality of pixels that photoelectrically convert the light from the subject are arranged in the pixel unit.
  • the reading unit reads a signal from the pixel unit.
  • the output unit outputs the signals of the pixels in the entire area of the pixel unit to the outside of the image sensor as signals for generating an image, and drives a device including the image sensor.
  • the signal of the pixel in a part of the pixel portion is output to the outside of the image sensor.
  • Japanese Unexamined Patent Publication No. 2018-07869 discloses an image pickup device including a plurality of unit pixels, an arithmetic processing unit, and a signal output unit.
  • the plurality of unit pixels are arranged in a matrix and have a first photoelectric conversion unit and a second photoelectric conversion unit that convert the incident light into electric charges.
  • the arithmetic processing unit performs predetermined arithmetic processing on the A signal based on the electric charge converted by the first photoelectric conversion unit and the B signal based on the electric charge converted by the second photoelectric conversion unit.
  • the signal output unit outputs a signal that has been subjected to predetermined arithmetic processing by the arithmetic processing unit to the outside.
  • Japanese Unexamined Patent Publication No. 2014-178603 discloses an imaging device including an imaging means, a region of interest determining means, a control means, and a focus detecting means.
  • the imaging means has a plurality of imaging regions and generates an image signal according to the light image incident on the imaging region.
  • the attention area determining means determines the attention area of the image indicated by the image signal based on the image signal output from the imaging means.
  • the control means includes a first control unit that controls an imaging region in which a light image corresponding to the region of interest is incident among the plurality of imaging regions so as to perform imaging under the first imaging condition, and a region of interest among the plurality of imaging regions.
  • the focus detection means detects the focus adjustment state of the region of interest.
  • the first control unit is characterized in that it controls to perform imaging at a higher frame rate than the second control unit.
  • One embodiment according to the technique of the present disclosure includes an image pickup device, an operation method of the image pickup device, a program, and a method of operating the image pickup device, in which the processing load of the image pickup device is reduced as compared with the case where the image recognition process for the image recognition region is performed in the image pickup device. And an imaging system.
  • the first aspect according to the technique of the present disclosure is a memory for storing image data obtained by imaging at the first frame rate, and outputting the image data at a second frame rate independent of the first frame rate. It is an image pickup apparatus including an image pickup element incorporating the first processor, and a second processor into which image data output from the first processor is input.
  • the first processor acquires position information indicating the position of the image recognition area to be processed by the image recognition process in the image data.
  • the second processor performs image recognition processing on the image recognition area based on the position information.
  • the second aspect according to the technique of the present disclosure is the image pickup apparatus according to the first aspect, in which the position information is the coordinates indicating the position of the image recognition area in the image data.
  • the first processor detects an image recognition area from the image data based on the difference between the frames of the image data, and acquires the position information based on the detection result.
  • the image pickup apparatus according to the above aspect or the second aspect.
  • the first processor outputs partial image data which is a part of image data and position information at a second frame rate, and the partial image data is image recognition.
  • An image pickup apparatus according to any one of the first to third aspects including a region.
  • a fifth aspect according to the technique of the present disclosure is an image pickup apparatus according to a fourth aspect in which the partial image data includes only an image recognition area.
  • a sixth aspect according to the technique of the present disclosure is a fourth aspect or a fifth aspect in which the first processor outputs thinned image data obtained by thinning out image data, partial image data, and position information at a second frame rate. It is an image pickup apparatus which concerns on the aspect of.
  • a seventh aspect according to the technique of the present disclosure is that the position information is information obtained from the detection result of the image recognition area by the first processor for the first thinned image data obtained by thinning the image data at the first thinning rate.
  • the image pickup apparatus according to any one of the first to sixth aspects.
  • An eighth aspect according to the technique of the present disclosure is an imaging device according to a seventh aspect in which the second processor displays an image indicated by the first thinned image data as a moving image for display on a display.
  • a ninth aspect according to the technique of the present disclosure is the fourth aspect to the fourth aspect in which the second processor performs image recognition processing on the second thinned image data obtained by thinning out the image data or the partial image data at the second thinning rate.
  • the image pickup apparatus according to any one of the six aspects.
  • a tenth aspect according to the technique of the present disclosure is an image pickup apparatus according to a ninth aspect in which the first thinning rate for thinning out image data and the second thinning rate are different.
  • the eleventh aspect according to the technique of the present disclosure is the imaging device according to the tenth aspect in which the second thinning rate is lower than the first thinning rate.
  • the first processor outputs partial image data and position information, which are a part of the image data, at a third frame rate different from the second frame rate, and the partial image data is output.
  • the image represented by the image data includes an image recognition area
  • the third frame rate is the image pickup apparatus according to the first aspect or the second aspect, which is determined according to the processing speed of the second processor.
  • the first processor creates composite image data for one frame by synthesizing image data for a plurality of frames obtained at the first frame rate, and the position information is
  • the image pickup apparatus according to the first aspect or the second aspect which is information obtained from the detection result of the image recognition area by the first processor for the image indicated by the composite image data.
  • a fourteenth aspect according to the technique of the present disclosure relates to any one of the first to thirteenth aspects, wherein the image pickup element is an image pickup element in which at least a photoelectric conversion element and a memory are integrated into one chip. It is an imaging device.
  • a fifteenth aspect according to the technique of the present disclosure is an image pickup device according to a fourteenth aspect in which the image pickup element is a stacked image pickup device in which a photoelectric conversion element and a memory are laminated.
  • a sixteenth aspect according to the technique of the present disclosure is a memory for storing image data obtained by capturing an image at the first frame rate, and outputting the image data at a second frame rate independent of the first frame rate.
  • a method of operating an image pickup apparatus including an image pickup element incorporating a first processor, and a second processor for inputting image data output from the first processor, wherein the first processor is a method of operating an image data.
  • the second processor includes performing the image recognition process on the image recognition area based on the position information. This is a method of operating the image pickup device.
  • a seventeenth aspect according to the technique of the present disclosure is a memory for storing image data obtained by capturing an image at the first frame rate, and outputting the image data at a second frame rate independent of the first frame rate.
  • the first processor is a computer that is applied to an image pickup apparatus that includes an image pickup element that incorporates a first processor, and a second processor that receives image data output from the first processor. Processing including acquiring position information indicating the position of the image recognition area to be processed by the image recognition process, and the second processor performing image recognition process on the image recognition area based on the position information. It is a program to execute.
  • An eighteenth aspect according to the technique of the present disclosure includes a photoelectric conversion element that images an imaging region, a memory that stores image data obtained by being imaged by the photoelectric conversion element, a processor that outputs image data, and the like.
  • the host computer is an imaging system that acquires position information indicating the position of an image recognition area to be processed and performs image recognition processing on the image recognition area based on the position information.
  • FIG. 1 It is a perspective view which shows an example of the appearance of the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a rear view which shows an example of the appearance of the back side of the image pickup apparatus shown in FIG. It is a block diagram which shows an example of the structure of the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a block diagram which shows an example of the hardware structure of the electric system of the image pickup apparatus main body included in the image pickup apparatus which concerns on 1st to 4th Embodiment. It is a conceptual diagram which shows an example of the laminated structure of the image pickup element included in the image pickup apparatus which concerns on 1st to 4th Embodiment.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU refers to the abbreviation of "Graphics Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • ROM is an abbreviation for "Read Only Memory”.
  • DRAM is an abbreviation for "Dynamic Random Access Memory”.
  • SRAM is an abbreviation for "Static Random Access Memory”.
  • LSI is an abbreviation for "Large-Scale Integration”.
  • ASIC refers to the abbreviation of "Application Specific Integrated Circuit”.
  • PLD refers to the abbreviation of "Programmable Logic Device”.
  • FPGA refers to the abbreviation of "Field-Programmable Gate Array”.
  • SoC is an abbreviation for "System-on-a-chip”.
  • SSD is an abbreviation for "Solid State Drive”.
  • USB is an abbreviation for “Universal Serial Bus”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • EEPROM refers to the abbreviation of "Electrically Erasable and Programmable Read Only Memory”.
  • CCD refers to the abbreviation of "Charge Coupled Device”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • EL refers to the abbreviation for "Electro-Luminescence”.
  • a / D refers to the abbreviation of "Analog / Digital”.
  • I / F refers to the abbreviation of "Interface”.
  • UI refers to the abbreviation of "User Interface”.
  • LVDS is an abbreviation for "Low Voltage Differential Signaling”.
  • PCIe registered trademark
  • SATA is an abbreviation for "Serial Advanced Technology Attachment”.
  • SLVS-EC is an abbreviation for "Scalable Low Voltage Signaling with Embedded Clock”.
  • MIPI registered trademark
  • HDMI registered trademark
  • fps is an abbreviation for "frame per second”.
  • detecting a subject means, for example, detecting subject image data indicating a subject.
  • recognizing the subject means, for example, recognizing the subject image data.
  • the image pickup apparatus 10 is a digital camera having an interchangeable lens and omitting a reflex mirror.
  • the image pickup apparatus 10 includes an image pickup apparatus main body 12 and an interchangeable lens 14 that is interchangeably attached to the image pickup apparatus main body 12.
  • an interchangeable lens 14 that is interchangeably attached to the image pickup apparatus main body 12.
  • the image pickup device 10 a digital camera having an interchangeable lens and omitting a reflex mirror is mentioned, but the technique of the present disclosure is not limited to this, and the image pickup device 10 is not limited to this.
  • Other types of digital cameras such as fixed lens type may be used.
  • the image pickup device main body 12 is provided with an image pickup element 38.
  • the interchangeable lens 14 is attached to the image sensor main body 12
  • the subject light indicating the subject is transmitted through the interchangeable lens 14 and imaged on the image sensor 38, and the image data indicating the image of the subject by the image sensor 38 (for example, , 9 and 10) are generated.
  • a hybrid finder (registered trademark) 16 is provided on the image pickup apparatus main body 12.
  • the hybrid finder 16 refers to a finder in which, for example, an optical view finder (hereinafter referred to as "OVF") and an electronic view finder (hereinafter referred to as “EVF”) are selectively used.
  • OVF refers to the abbreviation of "optical viewfinder”.
  • EVF is an abbreviation for "electronic viewfinder”.
  • a finder switching lever 18 is provided on the front surface of the image pickup apparatus main body 12.
  • the optical image visible in the OVF and the live view image which is the electronic image visible in the EVF are switched by rotating the finder switching lever 18 in the direction of the arrow SW.
  • the "live view image” refers to a moving image for display based on image data obtained by being imaged by the image sensor 38. Live view images are also commonly referred to as through images.
  • a release button 20 and a dial 23 are provided on the upper surface of the image pickup apparatus main body 12. The dial 23 is operated when setting the operation mode of the image pickup system, the operation mode of the reproduction system, and the like, whereby the image pickup device 10 selectively sets the image pickup mode and the reproduction mode as the operation modes.
  • the release button 20 functions as an imaging preparation instruction unit and an imaging instruction unit, and can detect a two-step pressing operation of an imaging preparation instruction state and an imaging instruction state.
  • the imaging preparation instruction state refers to a state in which the image is pressed from the standby position to the intermediate position (half-pressed position), and the imaging instruction state is a state in which the image is pressed to the final pressed position (fully pressed position) beyond the intermediate position. Point to. In the following, the "state of being pressed from the standby position to the half-pressed position" is referred to as the "half-pressed state", and the "state of being pressed from the standby position to the fully-pressed position” is referred to as the "fully-pressed state”.
  • a touch panel display 24, an instruction key 27, and a finder eyepiece 30 are provided on the back surface of the image pickup apparatus main body 12.
  • the touch panel display 24 includes a display 26 and a touch panel 28 (see also FIG. 4).
  • An example of the display 26 is an organic EL display.
  • the display 26 may be another type of display such as a liquid crystal display instead of the organic EL display.
  • the display of the EVF is equivalent to the display of the display 26, the description thereof will be omitted below, but in the present specification, the display on the display 26 can be read as the display on the EVF.
  • the display 26 displays images, character information, and the like.
  • the display 26 is used for displaying a live view image obtained by continuous imaging when the imaging device 10 is in the imaging mode.
  • the display 26 is also used to display a superimposed image in which the result of the image recognition process described later is superimposed on the live view image.
  • the display 26 is also used for displaying a still image obtained by taking an image when an instruction for taking an image for a still image is given. Further, the display 26 is also used for displaying a reproduced image and displaying a menu screen or the like when the imaging device 10 is in the reproduction mode.
  • the touch panel 28 is a transmissive touch panel and is superimposed on the surface of the display area of the display 26.
  • the touch panel 28 receives an instruction from the user by detecting contact with an indicator such as a finger or a stylus pen.
  • an out-cell type touch panel display in which the touch panel 28 is superimposed on the surface of the display area of the display 26 is mentioned, but this is only an example.
  • an on-cell type or in-cell type touch panel display can be applied as the touch panel display 24.
  • the instruction key 27 receives various instructions.
  • the "various instructions” are, for example, an instruction to display a menu screen on which various menus can be selected, an instruction to select one or a plurality of menus, an instruction to confirm the selected contents, and an instruction to delete the selected contents. , Zoom in, zoom out, and various instructions such as frame advance.
  • the interchangeable lens 14 has an image pickup lens 40.
  • the image pickup lens 40 includes an objective lens 40A, a focus lens 40B, and an aperture 40C.
  • the objective lens 40A, the focus lens 40B, and the aperture 40C are the objective lens 40A, the focus lens 40B, and the aperture 40C along the optical axis L1 from the subject side (object side) to the image pickup device main body 12 side (image side). They are arranged in order.
  • the focus lens 40B and the diaphragm 40C operate by receiving power from a drive source (not shown) such as a motor. That is, the focus lens 40B moves along the optical axis L1 according to the applied power. Further, the diaphragm 40C adjusts the exposure by operating according to the applied power.
  • the image pickup device main body 12 includes a post-stage circuit 13, a UI device 17, a mechanical shutter 41, and an image pickup element 38.
  • the post-stage circuit 13 is a circuit located after the image sensor 38.
  • the subsequent circuit 13 includes a controller 15 and a signal processing circuit 34.
  • the controller 15 is connected to the UI device 17, the signal processing circuit 34, and the image sensor 38, and controls the entire electrical system of the image sensor 10.
  • the subsequent circuit 13 is an example of the "second processor" according to the technique of the present disclosure.
  • the image pickup element 38 includes a photoelectric conversion element 42 having a light receiving surface 42A.
  • the image sensor 38 is a CMOS image sensor.
  • the CMOS image sensor is exemplified as the image sensor 38 here, the technique of the present disclosure is not limited to this, and for example, even if the image sensor 38 is another type of image sensor such as a CCD image sensor. The technology of the present disclosure is established.
  • the mechanical shutter 41 operates by receiving power from a drive source (not shown) such as a motor.
  • a drive source such as a motor.
  • the UI device 17 is a device that provides information to the user and receives instructions from the user.
  • the controller 15 acquires various information from the UI device 17 and controls the UI device 17.
  • the image sensor 38 is connected to the controller 15 and, under the control of the controller 15, images the subject to generate image data indicating the image of the subject.
  • the image sensor 38 is connected to the signal processing circuit 34.
  • the signal processing circuit 34 is an LSI, specifically, a device including an ASIC and an FPGA.
  • the controller 15 acquires various information from the signal processing circuit 34 and controls the image sensor 38.
  • the image sensor 38 outputs the image data generated by the photoelectric conversion element 42 to the signal processing circuit 34 under the control of the controller 15.
  • the signal processing circuit 34 is a circuit that processes image data. Specifically, the signal processing circuit 34 performs various signal processing on the image data input from the image sensor 38. Various signal processing performed by the signal processing circuit 34 includes known signal processing such as white balance adjustment, sharpness adjustment, gamma correction, color space conversion processing, and color difference correction.
  • various signal processing performed by the signal processing circuit 34 may be performed in a distributed manner by the signal processing circuit 34 and the image sensor 38. That is, at least a part of the various signal processing performed by the signal processing circuit 34 may be assigned to the processing circuit 110 of the image pickup device 38.
  • the present embodiment exemplifies a device including an ASIC and an FPGA as the signal processing circuit 34
  • the technique of the present disclosure is not limited to this.
  • the signal processing circuit 34 may be a device including an ASIC, FPGA, or PLD, a device including the FPGA and PLD, or a device including the ASIC and PLD.
  • the signal processing circuit 34 may be a computer including a CPU, storage, and memory.
  • the storage refers to a non-volatile storage device.
  • An example of the non-volatile storage device is a flash memory, but the present invention is not limited to this, and may be EEPROM, HDD, and / or SSD.
  • the memory temporarily stores various information and is used as a work memory.
  • An example of the memory is RAM, but the memory is not limited to this, and other types of storage devices may be used.
  • the number of CPUs included in the computer may be singular or plural.
  • the signal processing circuit 34 may be realized by a combination of a hardware configuration and a software configuration.
  • the controller 15 includes a CPU 50, a storage 51, a memory 52, an input I / F57A, and an output I / F57B.
  • the CPU 50, the storage 51, the memory 52, the input I / F57A, and the output I / F57B are connected via the bus 100.
  • the bus 100 may be a serial bus, or may be a parallel bus including a data bus, an address bus, a control bus, and the like.
  • the storage 51 stores various parameters and various programs.
  • the storage 51 is a non-volatile storage device.
  • a flash memory is adopted as an example of the storage 51.
  • the flash memory is merely an example, and EEPROM, HDD, and / or SSD or the like may be applied as the storage 51 in place of the flash memory or together with the flash memory.
  • the memory 52 temporarily stores various information and is used as a work memory.
  • An example of the memory 52 is RAM, but the memory 52 is not limited to this, and other types of storage devices may be used.
  • the CPU 50 reads a necessary program from the storage 51 and executes the read program on the memory 52.
  • the CPU 50 controls the entire image pickup apparatus 10 according to a program executed on the memory 52.
  • the output I / F57B is connected to the image sensor 38.
  • the CPU 50 controls the image sensor 38 via the output I / F57B.
  • the CPU 50 controls the timing of imaging performed by the image sensor 38 by supplying an image pickup timing signal that defines the timing of image pickup to the image sensor 38 via the output I / F 57B.
  • the image sensor 38 performs image pickup at a first frame rate determined according to an image pickup timing signal input from the CPU 50.
  • An example of a specific first frame rate is 240 fps, but the present invention is not limited to this.
  • the first frame rate may be a frame rate exceeding 240 fps (for example, 480 fps) or a frame rate less than 240 fps (for example, 120 fps).
  • the input I / F57A is connected to the signal processing circuit 34.
  • the image data obtained by performing various signal processing by the signal processing circuit 34 is output to the input I / F 57A by the signal processing circuit 34.
  • the image data input to the input I / F 57A is stored in the memory 52.
  • the external I / F 104 is connected to the bus 100.
  • the external I / F 104 is a communication device composed of circuits.
  • a device configured by a circuit is illustrated as an external I / F 104, but this is only an example.
  • the external I / F 104 may be a device that includes an ASIC, FPGA, and / or PLD. Further, the external I / F 104 may be realized by a combination of a hardware configuration and a software configuration.
  • An example of the external I / F 104 is a USB interface.
  • External devices such as smart devices, personal computers, servers, USB memory sticks, memory cards, and / or printers can be directly or indirectly connected to the USB interface.
  • the external I / F 104 controls the exchange of various information between the image pickup device 10 and the external device.
  • the UI device 17 includes a touch panel display 24 and a reception device 84.
  • the display 26 and the touch panel 28 are connected to the bus 100. Therefore, the CPU 50 displays various information on the display 26 and operates according to various instructions received by the touch panel 28.
  • the reception device 84 includes a hard key unit 25.
  • the hard key unit 25 is a plurality of hard keys and has a release button 20 (see FIG. 1), a dial 23 (see FIGS. 1 and 2), and an instruction key 27 (see FIG. 2).
  • the hard key unit 25 is connected to the bus 100, and the CPU 50 acquires an instruction received by the hard key unit 25 and operates according to the acquired instruction.
  • the image pickup element 38 includes a photoelectric conversion element 42, a processing circuit 110, and a memory 112.
  • the image sensor 38 is an example of an “image sensor” according to the technique of the present disclosure.
  • the image sensor 38 is an image sensor in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip. Therefore, the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are packaged in one package.
  • the image pickup element 38 is configured by stacking the processing circuit 110 and the memory 112 on the photoelectric conversion element 42.
  • the photoelectric conversion element 42 and the processing circuit 110 are electrically connected to each other by conductive bumps (not shown) such as copper, and the processing circuit 110 and the memory 112 are conductive such as copper. They are electrically connected to each other by bumps (not shown).
  • the photoelectric conversion element 42 is an example of the "photoelectric conversion element” according to the technique of the present disclosure.
  • the processing circuit 110 is an example of the "first processor” according to the technique of the present disclosure.
  • the memory 112 is an example of a “memory” according to the technique of the present disclosure.
  • the image pickup device 38 is an example of a "stacked image pickup device” according to the technique of the present disclosure.
  • the processing circuit 110 is, for example, an LSI.
  • the processing circuit 110 may be a device including an ASIC and an FPGA. Further, the processing circuit 110 may be a device including ASIC, FPGA, or PLD, a device including FPGA and PLD, or a device including ASIC and PLD. Further, the processing circuit 110 may be realized by a combination of a hardware configuration and a software configuration.
  • DRAM is adopted here.
  • SRAM static random access memory
  • the photoelectric conversion element 42 has a plurality of photodiodes arranged in a matrix.
  • An example of the plurality of photodiodes is a photodiode for "4896 x 3265" pixels.
  • a color filter is arranged on each photodiode included in the photoelectric conversion element 42.
  • the color filter includes a G filter corresponding to G (green), an R filter corresponding to R (red), and a B filter corresponding to B (blue), which contribute most to obtain a luminance signal.
  • the photoelectric conversion element 42 has R pixels, G pixels, and B pixels.
  • the R pixel is a pixel corresponding to the photodiode in which the R filter is arranged
  • the G pixel is the pixel corresponding to the photodiode in which the G filter is arranged
  • the B pixel is the photodiode in which the B filter is arranged. It is a pixel corresponding to.
  • the R pixel, G pixel, and B pixel have predetermined periodicity in each of the row direction (horizontal direction) and the column direction (vertical direction).
  • the R pixel, the G pixel, and the B pixel are arranged with a periodicity corresponding to the X-Trans (registered trademark) arrangement (see FIG. 7).
  • the X-Trans array is illustrated here, the technique of the present disclosure is not limited to this, and the array of R pixel, G pixel, and B pixel may be a Bayer array, a honeycomb array, or the like. Good.
  • the image sensor 38 has a so-called electronic shutter function.
  • the electronic shutter function By operating the electronic shutter function based on the image pickup timing signal output from the CPU 50 via the output I / F 57B, the charge accumulation time of each photodiode in the photoelectric conversion element 42 is controlled.
  • the charge accumulation time refers to the so-called shutter speed.
  • the electric charge read from each photodiode is output as image data to the signal processing circuit 34 of the subsequent circuit 13.
  • the image sensor 38 selectively performs imaging for a still image and imaging for a live view image.
  • Imaging for still images is realized by activating the electronic shutter function and operating the mechanical shutter 41, and imaging for live view images is achieved by activating the electronic shutter function without activating the mechanical shutter 41. It will be realized.
  • imaging using the mechanical shutter 41 is illustrated here, the mechanical shutter 41 is not indispensable for realizing imaging, and the electronic shutter function can be activated even without the mechanical shutter 41 for live view images. Imaging and imaging for still images are realized.
  • the rolling shutter method is exemplified here, the technique of the present disclosure is not limited to this, and a global shutter method may be applied instead of the rolling shutter method.
  • the processing circuit 110 includes a control circuit 119, a read circuit 115, a digital processing circuit 116, a first thinning circuit 118, a position information acquisition circuit 120, an image cutout circuit 122, and an input / output I / O. It is provided with F113.
  • the input / output I / F 113 includes an input I / F 113A and an output I / F 113B.
  • the control circuit 119 is connected to a memory 112, an input / output I / F 113, a read circuit 115, a digital processing circuit 116, a first thinning circuit 118, a position information acquisition circuit 120, and an image cutting circuit 122.
  • the input I / F113A is connected to the output I / F57B of the subsequent circuit 13.
  • the input I / F 113A receives the imaging timing signal output from the CPU 50 via the output I / F 57B.
  • the input I / F 113A transfers the received imaging timing signal to the control circuit 119.
  • the reading circuit 115 controls the photoelectric conversion element 42 under the control of the control circuit 119, and reads out the analog image data 70 from the photoelectric conversion element 42 at the first frame rate.
  • the input I / F 113A receives the image pickup timing signal from the subsequent circuit 13, and transfers the received image pickup timing signal to the control circuit 119.
  • the control circuit 119 transfers the transferred image pickup timing signal to the read circuit 115.
  • the imaging timing signal includes a vertical synchronization signal and a horizontal synchronization signal.
  • the reading circuit 115 starts reading the analog image data 70 in frame units from the photoelectric conversion element 42 according to the vertical synchronization signal transferred from the control circuit 119. Further, the reading circuit 115 starts reading the analog image data 70 in units of horizontal lines according to the horizontal synchronization signal transferred from the control circuit 119.
  • the reading circuit 115 performs analog signal processing on the analog image data 70 read from the photoelectric conversion element 42.
  • the analog signal processing includes known processing such as noise canceling processing and analog gain processing.
  • the noise canceling process is a process for canceling noise caused by variations in characteristics between pixels included in the photoelectric conversion element 42.
  • the analog gain process is a process of applying a gain to the analog image data 70.
  • the analog image data 70 subjected to analog signal processing in this way is output to the digital processing circuit 116 by the reading circuit 115.
  • the digital processing circuit 116 includes an A / D converter 117.
  • the A / D converter 117 converts the analog image data 70 into A / D.
  • the digital processing circuit 116 further performs demosaic processing on the A / D converted image data. The demosaic process will be described below with reference to, for example, FIG.
  • R pixels, G pixels, and B pixels are arranged in an X-Trans (registered trademark) array.
  • the electronic shutter function is activated, charge signals of the corresponding colors are output from each pixel of the photoelectric conversion element 42. That is, the data output from the photoelectric conversion element 42 is composed of R pixel data output from each R pixel, G pixel data output from each G pixel, and B pixel data output from each B pixel. It is RAW data to be performed.
  • the missing color component of the RGB components is complemented by using the pixel data of another color arranged around each pixel.
  • the missing color component is complemented by the G pixel data of the G pixels arranged around the R pixel and the B pixel data of the B pixel.
  • the insufficient color component is complemented by the B pixel data of the B pixel and the R pixel data of the R pixel arranged around the Pixel.
  • the color component that is insufficient is complemented by the R pixel data of the R pixels arranged around the pixel and the G pixel data of the G pixel.
  • digital gain processing is performed on the image data after the demosaic processing.
  • digital image data 71 in which each pixel has pixel data of RGB components is generated. In this way, the digital image data 71 obtained by imaging at the first frame rate is stored in the memory 112.
  • the first thinning circuit 118 (see FIG. 6) performs the first thinning process.
  • the thinning process refers to a process of extracting only specific column, row, or pixel data from image data to generate thinned image data.
  • the thinning process is performed based on the thinning rate obtained by the ratio of the number of thinned pixels to the total number of pixels (“number of thinned pixels / total number of pixels”).
  • the control circuit 119 has random access to the memory 112, reads the digital image data 71 from the memory 112, and outputs the digital image data 71 to the first thinning circuit 118.
  • the first thinning circuit 118 outputs the digital image data 71 to the digital image data 71 input from the control circuit 119 at a first thinning rate of, for example, two-thirds (hereinafter, referred to as “2/3”). The first thinning process is performed.
  • the first thinning circuit 118 thins out the horizontal lines in the vertical direction by, for example, skipping two lines, and the first thinning image data 73.
  • the first thinned image data 73 is data obtained by extracting only the pixel data in the “3n-2” line from the digital image data 71.
  • n is a positive integer.
  • the first thinning circuit 118 stores the first thinning image data 73 in the memory 112 and outputs the first thinning image data 73 to the position information acquisition circuit 120.
  • the first thinning rate is "2/3", but the technique of the present disclosure is not limited to this.
  • the first thinning circuit 118 may thin out a plurality of horizontal vertical lines instead of thinning out the vertical horizontal lines of the digital image data 71.
  • the first thinning circuit 118 may thin out the digital image data 71 in pixel units.
  • the position information acquisition circuit 120 detects a moving object as a subject, and detects a region including the subject as an image recognition region.
  • the image recognition area is an area to be processed for image recognition processing using machine learning (for example, deep learning) performed by the image recognition processing unit 66 of the subsequent circuit 13.
  • the position information acquisition circuit 120 further performs a position information acquisition process for acquiring the position information of the detected image recognition area.
  • the position information acquisition circuit 120 detects the image recognition area and performs the position information acquisition process using the first thinned image data 73.
  • the first thinned image data 73 for three frames continuously acquired at the first frame rate is used.
  • the image shown by the first thinned-out image data 73 shows a car moving from the right direction to the left direction in the figure as a subject image showing the subject.
  • the newest first thinned image data 73 among the first thinned image data 73 for three frames is referred to as the first thinned frame 73a.
  • the first thinned image data 73 which is the second oldest after the latest one, is called the second thinned frame 73b.
  • the oldest first thinned image data 73 is referred to as a third thinned frame 73c.
  • the position information acquisition circuit 120 takes the difference of the first thinned image data 73 for two frames acquired continuously and binarizes it. That is, the position information acquisition circuit 120 acquires the binarized difference data 73d by taking the difference between the frames of the first thinning frame 73a and the second thinning frame 73b. Further, the position information acquisition circuit 120 acquires the binarized difference data 73e by taking the difference between the frames of the second thinning frame 73b and the third thinning frame 73c. As an example, in FIG. 9, the subject image with a difference is white and the background image without a difference is black, but the opposite may be true. Further, the absolute value of the difference may be taken, a predetermined value may be used as a boundary with respect to the absolute value of the difference, a portion larger than the predetermined value may be white, and a portion smaller than the predetermined value may be black.
  • the position information acquisition circuit 120 detects the intersection by comparing the two binarized difference data obtained by the different inter-frame operations. In the example of FIG. 9, by comparing the binarized difference data 73d and 73e, the intersection for one vehicle in the center can be obtained.
  • the position information acquisition circuit 120 detects the common portion as the image recognition area 75 to be processed by the image recognition process described later, and acquires the position information 76 indicating the position of the image recognition area 75.
  • the position information 76 is information obtained from the detection result of the image recognition area 75 by the position information acquisition circuit 120 with respect to the first thinned image data 73 obtained by thinning the digital image data 71 at the first thinning rate.
  • the position information acquisition circuit 120 sets a rectangular frame surrounding the image recognition area 75, and acquires the lower right coordinates (X1, Y1) and the upper left coordinates (X2, Y2) of the frame as the position information 76.
  • the position information acquisition circuit 120 stores the acquired position information 76 in the memory 112 and outputs the acquired position information 76 to the image cutting circuit 122.
  • the coordinates of the lower right and upper left of the rectangular frame are shown as an example of the position information 76, but the position information 76 is not limited to this.
  • the position information 76 may be, for example, the coordinates of the upper right and the lower left.
  • the position information 76 uses the coordinates of one corner of the rectangular frame and the horizontal length and the vertical length of the rectangular frame. It may be included. Further, the position information acquisition circuit 120 may acquire coordinate information in pixel units of the detected image recognition area 75 without setting a rectangular frame surrounding the image recognition area 75.
  • the image cutting circuit 122 (see FIG. 6) performs an image cutting process for cutting out partial image data 72 from the digital image data 71 based on the digital image data 71 and the position information 76.
  • the control circuit 119 reads the digital image data 71 from the memory 112 and outputs the digital image data 71 to the image cutting circuit 122.
  • the image cutting process refers to a process of extracting only the image data of the coordinates indicated by the position information 76 from the digital image data 71 and outputting it as the partial image data 72. That is, the partial image data 72 is a part of the digital image data 71.
  • the control circuit 119 reads out the digital image data 71 corresponding to the second thinning frame 73b from the memory 112 and outputs the digital image data 71 to the image cutting circuit 122.
  • the image cutting circuit 122 cuts out the digital image data 71 based on the coordinates (X1, Y1) and (X2, Y2) of the position information 76 received from the position information acquisition circuit 120 to obtain the rectangular partial image data 72. Generate.
  • the cut out partial image data 72 includes only the image recognition area 75.
  • the image cutting circuit 122 stores the generated partial image data 72 in the memory 112.
  • the case where the partial image data 72 is rectangular has been described as an example, but the cut out partial image data 72 does not have to be rectangular, and may have an arbitrary shape such as a circle or an ellipse. May be good.
  • the image cutting circuit 122 may cut out the partial image data 72 in the pixel unit.
  • Digital image data 71, first thinned image data 73, position information 76, and partial image data 72 are stored in the memory 112.
  • the control circuit 119 reads the first thinned image data 73, the position information 76, and the partial image data 72 from the memory 112, and sends the first thinned image data 73, the position information 76, and the partial image data 72 to the subsequent circuit 13 at the second frame rate via the output I / F 113B and the input I / F 57A. Output.
  • the second frame rate is a frame rate independent of the first frame rate.
  • a specific example of the second frame rate is 60 fps, but the present invention is not limited to this, and a frame rate exceeding 60 fps (for example, 120 fps) or a frame rate less than 60 fps (for example, 30 fps) may be used. It may be.
  • the second frame rate is smaller than the first frame rate, but the technique of the present disclosure is not limited to this.
  • the second frame rate may be larger than the first frame rate, and the first frame rate and the second frame rate may be equal.
  • the control circuit 119 When the second frame rate is smaller than the first frame rate, the control circuit 119 thins out the first thinned image data 73, the position information 76, and the partial image data 72 acquired at the first frame rate in frame units. , The frame rate is lowered to obtain the second frame rate. For example, when the first frame rate is 240 fps and the second frame rate is 60 fps, the control circuit 119 is 3 out of 4 frames of the first thinned image data 73, the position information 76, and the partial image data 72. The frames are thinned out, and the first thinned-out image data 73, the position information 76, and the partial image data 72 for the remaining one frame are output.
  • the control circuit 119 is, for example, the first thinned image data 73, the position information 76, and the partial image data for one frame acquired at the first frame rate.
  • the frame rate is increased to obtain the second frame rate.
  • the partial image data 72, the first thinned image data 73, and the position information 76 are input to the subsequent circuit 13 and stored in the memory 52.
  • the program 60 and the trained model 62 are stored in the storage 51 of the subsequent circuit 13.
  • the CPU 50 functions as the second thinning processing unit 64 and the image recognition processing unit 66 by executing the program 60 from the storage 51 on the memory 52.
  • the second thinning processing unit 64 performs the second thinning processing on the partial image data 72 generated based on the position information 76.
  • the second thinning process refers to a process of thinning the partial image data 72 at the second thinning rate to generate the second thinned image data 74.
  • the second thinning rate is a thinning rate different from the first thinning rate. In the present embodiment, the second thinning rate is, for example, one half (hereinafter, referred to as "1/2"). Similar to the first thinning process shown in FIG. 8, the second thinning processing unit 64 generates the second thinned image data 74 in which the horizontal lines in the vertical direction are thinned by one line and stores them in the memory 52.
  • the second thinning rate is "1/2", but the technique of the present disclosure is not limited to this.
  • the second thinning processing unit 64 may thin out the horizontal vertical lines instead of thinning the vertical horizontal lines of the partial image data 72. Further, the second thinning processing unit 64 may thin out the partial image data 72 on a pixel-by-pixel basis.
  • the image recognition processing unit 66 performs image recognition processing on the image recognition area based on the position information 76.
  • the image recognition area is an area including a moving object image detected by the position information acquisition circuit 120.
  • the moving object image refers to an image showing a moving subject.
  • the image recognition processing unit 66 performs image recognition processing using machine learning on the second thinned image data 74 obtained by thinning out the partial image data 72 including the image recognition area at the second thinning rate, thereby performing image recognition information. Get 78. Specifically, the image recognition processing unit 66 executes the image recognition process to perform category recognition of the moving object image included in the second thinned image indicated by the second thinned image data 74, for example, in two steps.
  • a moving object image for example, an image showing a vehicle such as a car, a motorcycle, an airplane, a bicycle, or a ship, or an image showing a living thing such as a human being, an animal, a bird, or an insect. Can be mentioned.
  • the second stage category is a subcategory for further classifying the moving object images classified into a specific category in the first stage category recognition.
  • a subcategory for further recognizing a moving object image recognized as belonging to a "vehicle” in the first stage includes a vehicle type, a color, a manufacturer, a model, and the like.
  • a subcategory for further recognizing a moving body image recognized as belonging to a "person” in the first stage includes gender, race, body shape, age, and the like.
  • the trained model 62 stored in the storage 51 stores the models obtained in the past learning, and enables highly accurate recognition in many categories. Further, every time the image recognition processing unit 66 performs the image recognition process, new learning is performed by the image recognition area 75, and the learned model 62 is updated. In the present embodiment, the image recognition processing unit 66 performs two-stage category recognition, but the processing circuit 110 of the image sensor 38 performs the first-stage category recognition, and the image recognition processing unit 66 performs the second stage. Category recognition of the stage may be performed.
  • the image recognition information 78 obtained by the image recognition process is stored in the memory 52.
  • the second thinning rate used in the second thinning process is lower than the first thinning rate used in the first thinning process. Therefore, in the position information acquisition process performed by the position information acquisition circuit 120, the image recognition area 75 and the position information can be obtained in a short time by using the first thinned image data 73 thinned out at the first thinned out rate having a high thinning rate. 76 is acquired. On the other hand, in the image recognition process performed by the image recognition processing unit 66 of the subsequent circuit 13, accurate image recognition information 78 is obtained by using the second thinned image data 74 thinned out at the second thinned out rate having a low thinning rate. can get.
  • the imaging device 10 has a live view image display mode for displaying a live view image on the display 26 and an image recognition mode for displaying the image recognition result of the subject shown in the live view image.
  • the CPU 50 reads the first thinned image data 73 from the memory 52.
  • the CPU 50 displays the image shown by the first thinned-out image data 73 on the display 26 as a live view image 77, as shown in FIG.
  • the live view image 77 is an example of a “display moving image” according to the technique of the present disclosure.
  • the CPU 50 reads out the first thinned image data 73, the position information 76, and the image recognition information 78 from the memory 52 and outputs them to the display 26.
  • the superimposed image 79 in which the image recognition information 78 is superimposed on the live view image 77 (see FIG. 12) shown by the first thinned image data 73 is displayed on the display 26.
  • the position where the image recognition information 78 is displayed is determined based on the coordinates indicated by the position information 76.
  • FIG. 13 shows, for example, an image recognition process performed on the image recognition area 75 shown in FIG.
  • the image recognition information 78 is superimposed and displayed on the live view image 77 in the form of a balloon.
  • the image recognition processing result first includes the "car” which is the category recognition result of the first stage, and further includes the vehicle type, the manufacturer, the model, and the color which are the category recognition results of the second stage.
  • one type of image recognition information 78 is displayed, but the number of image recognition information 78 displayed in the superimposed image 79 of one frame may be plural.
  • FIG. 14 shows an example of the flow of the first image processing executed by the image sensor 38.
  • FIG. 15 shows an example of the flow of the second image processing executed by the subsequent circuit 13.
  • image data when it is not necessary to distinguish between the analog image data 70, the digital image data 71, the partial image data 72, the first thinned image data 73, and the second thinned image data 74, it is simply referred to as "image data”. ..
  • step S10 the control circuit 119 determines whether or not the imaging timing signal is received by the input I / F 113A. If the image pickup timing signal is not received by the input I / F 113A in step S10, the determination is denied and the first image processing executes step S10 again. When the image pickup timing signal is received by the input I / F 113A in step S10, the determination is affirmed and the first image processing proceeds to step S11.
  • step S11 the imaging process is performed.
  • the control circuit 119 controls the read circuit 115 and the digital processing circuit 116 based on the image pickup timing signal, so that the image sensor 38 images the subject at the first frame rate based on the image pickup timing signal and obtains the digital image data 71. Generate. After that, the first image processing proceeds to step S12.
  • step S12 the digital processing circuit 116 stores the generated digital image data 71 in the memory 112. After that, the first image processing proceeds to step S13.
  • step S13 the control circuit 119 reads the digital image data 71 from the memory 112 and outputs it to the first thinning circuit 118.
  • the first thinning circuit 118 executes the first thinning process based on the first thinning rate to generate the first thinned image data 73. After that, the first image processing proceeds to step S14.
  • step S14 the first thinning circuit 118 stores the first thinned image data 73 in the memory 112.
  • the first thinning circuit 118 further outputs the first thinning image data 73 to the position information acquisition circuit 120. After that, the first image processing proceeds to step S15.
  • step S15 the control circuit 119 determines whether or not the image pickup device 10 is in the image recognition mode. In step S15, when the image pickup device 10 is not in the image recognition mode, that is, when the image pickup device 10 is in the live view image display mode, the determination is denied and the first image processing proceeds to step S20. In step S15, when the image pickup apparatus 10 is in the image recognition mode, the determination is affirmed, and the first image processing proceeds to step S16.
  • step S16 the position information acquisition circuit 120 performs the position information acquisition process.
  • the position information acquisition process is a process of acquiring the position information of the image recognition area 75, which is the processing target of the image recognition process performed in the subsequent circuit 13 of the digital image data 71.
  • the position information 76 of the image recognition area 75 is acquired based on the first thinned image data 73. After that, the first image processing proceeds to step S17.
  • step S17 the position information acquisition circuit 120 stores the acquired position information 76 in the memory 112.
  • the position information acquisition circuit 120 further outputs the position information 76 to the image cutting circuit 122.
  • the first image processing proceeds to step S18.
  • step S18 the control circuit 119 reads the digital image data 71 from the memory 112 and outputs the digital image data 71 to the image cutting circuit 122.
  • the image cutting circuit 122 executes an image cutting process for cutting out partial image data 72 from the digital image data 71 based on the position information 76 input from the position information acquisition circuit 120. After that, the first image processing proceeds to step S19.
  • step S19 the image cutting circuit 122 stores the partial image data 72 in the memory 112. After that, the first image processing proceeds to step S20.
  • step S20 the control circuit 119 determines whether or not the output timing for outputting the data stored in the memory 112 has arrived.
  • the output timing is set to a second frame rate independent of the first frame rate. If the output timing has not arrived, the determination is denied and the first image processing proceeds to step S10.
  • the determination is affirmed, and the first image processing proceeds to step S21.
  • step S21 the control circuit 119 reads the data stored in the memory 112 and outputs the data to the subsequent circuit 13 via the output I / F113B and the input I / F57A.
  • the control circuit 119 reads the first thinned image data 73 from the memory 112 and outputs the first thinned image data 73 to the subsequent circuit 13.
  • the live view image is displayed on the display 26.
  • the control circuit 119 reads the first thinned image data 73, the position information 76, and the partial image data 72 from the memory 112 and outputs them to the subsequent circuit 13.
  • the superimposed image in which the image recognition information 78 is superimposed on the live view image is displayed on the display 26.
  • the first image processing proceeds to step S22.
  • step S22 the control circuit 119 determines whether or not the condition for ending the first image processing (hereinafter, referred to as "first image processing end condition") is satisfied.
  • first image processing end condition there is a condition that the instruction to end the imaging mode is received by the reception device 84 (see FIG. 4). If the first image processing end condition is not satisfied in step S22, the determination is denied and the first image processing proceeds to step S10. If the first image processing end condition is satisfied in step S22, the determination is affirmed and the first image processing ends.
  • step S30 the CPU 50 determines whether or not the first thinned image data 73 has been accepted by the input I / F57A. If the first thinned image data 73 is not accepted in step S30, the determination is denied, and the second image processing executes step S30 again. If the first thinned image data 73 is accepted in step S30, the determination is affirmed, and the second image processing proceeds to step S31.
  • step S31 the CPU 50 stores the first thinned image data 73 in the memory 52. After that, the second image processing proceeds to step S32.
  • step S32 the CPU 50 determines whether or not the position information 76 and the partial image data 72 are accepted by the input I / F 57A. If the position information 76 and the partial image data 72 are not accepted in step S32, the determination is denied and the second image processing proceeds to step S37.
  • step S37 the CPU 50 reads the first thinned image data 73 from the memory 52 and displays the image indicated by the first thinned image data 73 on the display 26 as the live view image 77. After that, the second image processing proceeds to step S38.
  • step S32 when the position information 76 and the partial image data 72 are received in step S32, the determination is affirmed and the second image processing proceeds to step S33.
  • step S33 the CPU 50 stores the position information 76 and the partial image data 72 in the memory 52. After that, the second image processing proceeds to step S34.
  • step S34 the CPU 50 functions as the second thinning processing unit 64 by reading the program 60 from the storage 51 and executing it in the memory 52.
  • the second thinning processing unit 64 performs the second thinning processing on the partial image data 72.
  • the second thinning process is a process of thinning out the partial image data 72 to generate the second thinned image data 74 based on the second thinning rate.
  • the second thinning processing unit 64 stores the generated second thinning image data 74 in the memory 52. After that, the second image processing proceeds to step S35.
  • step S35 the CPU 50 functions as the image recognition processing unit 66 by reading the program 60 from the storage 51 and executing it in the memory 52.
  • the image recognition processing unit 66 performs image recognition processing using machine learning on the second thinned image data 74 to recognize the category of the subject shown in the second thinned image.
  • the image recognition processing unit 66 stores the image recognition result of the image recognition processing in the memory 52 as the image recognition information 78. After that, the second image processing proceeds to step S36.
  • step S36 the CPU 50 reads out the first thinned image data 73, the position information 76, and the image recognition information 78 from the memory 52.
  • the CPU 50 displays a superimposed image 79 on which the image recognition information 78 is superimposed on the live view image 77 indicated by the first thinned image data 73 on the display 26.
  • the second image processing proceeds to step S38.
  • step S38 the CPU 50 determines whether or not the condition for ending the second image processing (hereinafter, referred to as "second image processing end condition") is satisfied.
  • the second image processing end condition there is a condition that the instruction to end the imaging mode is received by the reception device 84 (see FIG. 4). If the condition for ending the second image processing is not satisfied in step S38, the determination is denied and the second image processing proceeds to step S30. If the second image processing end condition is satisfied in step S38, the determination is affirmed and the second image processing ends.
  • the first thinning circuit 118 thins out the digital image data 71 at the first thinning rate to generate the first thinned image data 73, and the position information acquisition circuit 120 uses the first thinned image data 73. Based on this, the position information 76 was acquired. Further, the first thinned image data 73 is output to the subsequent circuit 13, and the CPU 50 displays the image indicated by the first thinned image data 73 on the display 26 as a live view image 77. Not exclusively.
  • the position information acquisition circuit 120 may acquire the position information 76 based on the digital image data 71 instead of the first thinned image data 73.
  • the CPU 50 may display the image shown by the digital image data 71 or the image shown by the thinned image obtained by thinning out the digital image data 71 by the subsequent circuit 13 on the display 26 as the live view image 77.
  • the processing circuit 110 does not need to include the first thinning circuit 118, the size of the LSI constituting the processing circuit 110 is reduced, and the circuit design is simplified.
  • the second thinning processing unit 64 thins out the partial image data 72 at the second thinning rate to generate the second thinning image data 74, and the image recognition processing unit 66 generates the second thinning image data 74.
  • Image recognition processing was performed on the data, but the technique of the present disclosure is not limited to this.
  • the image recognition processing unit 66 may perform image recognition processing on the partial image data 72.
  • the processing circuit 110 outputs the digital image data 71 and the position information 76 to the subsequent circuit 13, and the image recognition processing unit 66 may perform image recognition processing on the digital image data 71 based on the position information 76. Good.
  • the image recognition processing unit 66 performs image recognition processing on the partial image data 72 or the digital image data 71 that has not been thinned out, so that more accurate image recognition information 78 can be obtained.
  • the image pickup device 10 includes an image pickup element 38 and a subsequent circuit 13.
  • the image pickup element 38 has a memory 52 for storing digital image data 71, partial image data 72, and / or first thinned image data 73 obtained by imaging at the first frame rate, and partial image data 72 and /.
  • a processing circuit 110 that outputs the first thinned image data 73 at a second frame rate independent of the first frame rate. Partial image data 72 and / or first thinned image data 73 is input from the processing circuit 110 to the subsequent circuit 13.
  • the processing circuit 110 acquires position information 76 indicating the position of the image recognition area 75 to be processed in the image recognition processing in the digital image data 71 or the first thinned image data 73.
  • the subsequent circuit 13 performs image recognition processing on the image recognition area 75 based on the position information 76.
  • the processing load of the image sensor 38 is reduced as compared with the case where the image recognition process for the image recognition area 75 is performed in the image sensor 38.
  • the partial image data 72 and / or the first thinned image data 73 is directly input from the processing circuit 110 to the subsequent circuit 13, for example, a signal level conversion circuit, a processing circuit, or a different signal in the middle. It may go through a signal processing circuit or a signal processing processor that performs processing.
  • the position information 76 is coordinates indicating the position of the image recognition area 75 in the digital image data 71 or the first thinned image data 73.
  • the image recognition area in the digital image data 71 or the first thinned image data 73 is compared with the case where the information indicating the position of the image recognition area 75 in the digital image data 71 or the first thinned image data 73 is not used.
  • the position of 75 can be easily specified.
  • the processing circuit 110 detects the image recognition area 75 from the first thinned image data 73 based on the difference between the frames of the first thinned image data 73, and acquires the position information 76 based on the detection result.
  • the moving image can be easily detected as the image recognition area 75 as compared with the case where the image recognition area 75 is detected without using the difference between the frames of the first thinned image data 73.
  • the partial image data 72 includes only the image recognition area 75. As a result, the amount of data output from the processing circuit 110 can be reduced as compared with the case where all the digital image data 71 is output.
  • the processing circuit 110 outputs the first thinned image data 73 obtained by thinning the digital image data 71 at the first thinned rate, the partial image data 72, and the position information 76 at the second frame rate. As a result, the amount of data output from the processing circuit 110 can be reduced as compared with the case where the digital image data 71 is output without thinning out.
  • the position information 76 is information obtained from the detection result of the image recognition area 75 by the processing circuit 110 for the first thinned image data 73 obtained by thinning the digital image data 71 at the first thinned rate. As a result, the load on the process of obtaining the position information 76 is reduced as compared with the case where the position information 76 is obtained from the image without thinning.
  • the subsequent circuit 13 displays the image shown by the first thinned image data 73 on the display 26 as a live view image 77.
  • the live view image 77 can be displayed on the display 26 with a lower load than when the image without thinning is displayed on the display 26 as the live view image 77.
  • the subsequent circuit 13 performs image recognition processing on the second thinned image data 74 obtained by thinning the partial image data 72 or the digital image data 71 at the second thinning rate. As a result, the load on the image recognition process is reduced as compared with the case where the image recognition process is performed on the image without thinning out.
  • the first decimation rate and the second decimation rate are different. As a result, it is possible to achieve both easy acquisition of the position information 76 and higher accuracy of the image recognition process as compared with the case where the first thinning rate and the second thinning rate are the same.
  • the second decimation rate is lower than the first decimation rate.
  • the image recognition process can be performed with higher accuracy than the case where the image recognition process is performed on the images thinned out by the first thinning rate.
  • the image sensor 38 is an image sensor in which at least the photoelectric conversion element 42 and the memory 112 are integrated into one chip. This can contribute to the miniaturization of the image pickup apparatus as compared with the case where the image pickup device is not integrated into one chip.
  • the image sensor 38 is a stacked image sensor in which a photoelectric conversion element 42 and a memory 112 are laminated. As a result, the transfer speed of the digital image data 71 from the photoelectric conversion element 42 to the memory 112 can be increased as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked.
  • the image cutting circuit 122 creates the partial image data 72 by cutting out the digital image data 71 based on the position information 76, but the technique of the present disclosure is not limited to this.
  • the processing circuit 110 of the image pickup element 38 includes a divided image selection circuit 124 instead of the image cutout circuit 122 in the first embodiment. There is.
  • the divided image selection process performed by the divided image selection circuit 124 will be described below. Since the other configurations and processes of the image pickup apparatus 10 are the same as those of the image pickup apparatus 10 according to the first embodiment, the same reference numerals are given and detailed description thereof will be omitted.
  • the divided image selection circuit 124 performs the divided image selection process.
  • the image shown in the first thinned image data 73 is divided into a plurality of parts in advance to prepare a plurality of divided images, and the divided image including the image recognition area 75 is selected and the part is divided. This is a process for generating image data 72.
  • the image 270 shown by the first thinned image data 73 is predivided into 16 divided images 274 composed of 4 columns ⁇ 4 rows.
  • the divided image selection circuit 124 selects the divided image 274 including the image recognition area 75 based on the position information 76.
  • the divided image selection circuit 124 selects 6 divided images 274 existing in the lower center among the 16 divided images 274 as the partial image 272.
  • the divided image selection circuit 124 extracts a portion showing the partial image 272 from the digital image data 71 to generate the partial image data 72.
  • the image pickup apparatus 10 includes the divided image selection circuit 124.
  • the divided image selection circuit 124 generates partial image data 72 including the image recognition area 75 based on the position information 76.
  • the partial image data 72 can be generated by a simpler process as compared with the image cutting process.
  • the image 270 is divided into 16 divided images 274 in advance, but if the number of divided images 270 is 2 or more, it may be more or less than 16.
  • the processing circuit includes a synthesis circuit that synthesizes digital image data for a plurality of frames obtained at the first frame rate to create high-quality composite image data for one frame.
  • the processing circuit 110 includes a synthesis circuit 126.
  • the synthesizing circuit 126 performs a synthesizing process of synthesizing a plurality of frames of digital image data 71 to create one frame of composite image data 80.
  • the composite image data 80 is an example of "composite image data" according to the technique of the present disclosure. Since the other configurations and processes of the image pickup apparatus 10 are the same as those of the image pickup apparatus 10 according to the first embodiment, the same reference numerals are given and detailed description thereof will be omitted.
  • digital image data 71 is sequentially generated at the first frame rate and stored in the memory 112. Further, the first thinned image data 73, the position information 76, and the partial image data 72 generated from the digital image data 71 are output from the image sensor 38 at the second frame rate.
  • the control circuit 119 reads out the continuously generated digital image data 71 for four frames and outputs the digital image data 71 to the synthesis circuit 126.
  • the synthesis circuit 126 creates high-quality composite image data 80 for one frame by synthesizing the input digital image data 71 for four frames.
  • the synthesis circuit 126 stores the generated composite image data 80 in the memory 112, and outputs the generated composite image data 80 to the first thinning circuit 118 and the image cutting circuit 122.
  • the first thinning circuit 118 generates the first thinned image data 73 by performing the first thinning process on the input composite image data 80. Since the details of the first thinning process are the same as those of the first embodiment, the description thereof will be omitted.
  • the first thinning circuit 118 stores the created first thinned image data 73 in the memory 112 and outputs the created first thinning image data 73 to the position information acquisition circuit 120.
  • the position information acquisition circuit 120 performs position information acquisition processing on the input first thinned image data 73.
  • the position information acquisition process is a process of detecting an image recognition area 75 with respect to the image indicated by the composite image data 80 and generating position information 76 indicating the position of the detected image recognition area 75. Since the details of the position information acquisition process are the same as those in the first embodiment, the description thereof will be omitted.
  • the position information acquisition circuit 120 stores the generated position information 76 in the memory 112 and outputs the generated position information 76 to the image cutting circuit 122.
  • the position information acquisition circuit 120 performs the position information acquisition process using the first thinned image data 73 created from the composite image data 80 having less noise and higher image quality than the digital image data 71. Therefore, the position information 76 is detected with higher accuracy than the position information 76 detected based on the first thinned image data 73 according to the first embodiment.
  • the image cutting circuit 122 generates partial image data 72 by performing an image cutting process for cutting out the composite image data 80 based on the input position information 76.
  • the image cutting circuit 122 performs the image cutting process using the composite image data 80 having a higher image quality than the digital image data 71. Therefore, the partial image data 72 having a higher image quality than the partial image data 72 generated from the digital image data 71 according to the first embodiment is generated.
  • the high-quality partial image data 72 is output to the rear-stage circuit 13, and the rear-stage circuit 13 performs image recognition processing on the partial image data 72. Therefore, an image recognition result with higher accuracy than the image recognition result for the partial image data 72 according to the first embodiment can be obtained.
  • the synthesis circuit 126 synthesizes the digital image data 71 for four frames obtained at the first frame rate to form a composite image for one frame.
  • Data 80 is created.
  • the position information 76 is information obtained from the detection result of the image recognition area 75 by the position information acquisition circuit 120 with respect to the image indicated by the composite image data 80. As a result, the position information can be obtained with higher accuracy than when the position information is obtained from the non-composite image data.
  • the synthesis circuit 126 creates the composite image data 80 for one frame from the digital image data 71 for four frames, but the technique of the present disclosure is not limited to this.
  • the number of frames of the digital image data used to create the composite image data for one frame may be any number as long as it is plural. Further, the number of frames of the digital image data used to create the composite image data for one frame may be determined according to the processing speed of the subsequent circuit 13.
  • the processing circuit 110 outputs the first thinned image data 73, the position information 76, and the partial image data 72 to the subsequent circuit 13 at a predetermined second frame rate. Not limited to this.
  • the processing circuit 110 transfers the first thinned image data 73, the position information 76, and the partial image data 72 to the subsequent circuit 13 at a third frame rate determined according to the processing speed of the subsequent circuit 13. Output.
  • the CPU 50 outputs a communication control signal to the processing circuit 110 via the input I / F57A and the output I / F113B.
  • the communication control signal is a signal for designating the frame rates of the first thinned image data 73, the position information 76, and the partial image data 72 output from the processing circuit 110, and is determined according to the processing speed of the subsequent circuit 13. Be done.
  • the processing circuit 110 receives the communication control signal and outputs the first thinned image data 73, the partial image data 72, and the position information 76 at the third frame rate.
  • the third frame rate is a frame rate different from the second frame rate described in each of the above embodiments.
  • the partial image data 72 is data cut out from the digital image data 71 based on the position information 76 indicating the position of the image recognition area 75. That is, the partial image data 72 is a part of the digital image data 71 and includes the image recognition area 75.
  • the third frame rate is a frame rate determined according to the processing speed of the subsequent circuit 13.
  • a specific example of the third frame rate is 30 fps, but the present invention is not limited to this, and a frame rate exceeding 30 fps (for example, 60 fps) may be used, or a frame rate less than 30 fps (for example, 15 fps) may be used. It may be.
  • the processing circuit 110 may output the first thinned image data 73 at the second frame rate, and output the partial image data 72 and the position information 76 at the third frame rate. That is, since the first thinned image data 73 is data used for displaying the live view image, it is output at the display frame rate of the live view image. On the other hand, since the partial image data 72 and the position information 76 are data used for the image recognition process in the post-stage circuit 13, they are output at a frame rate corresponding to the processing speed of the post-stage circuit 13.
  • the processing circuit 110 uses the partial image data 72, which is a part of the digital image data 71, and the position information 76 as the second frame rate. Outputs at a different third frame rate.
  • the image shown by the partial image data 72 includes the image recognition area 75, and the third frame rate is determined according to the processing speed of the subsequent circuit 13.
  • the partial image data 72 and the position information 76 are output at a frame rate corresponding to the processing speed of the subsequent circuit 13, so that the partial image data 72 and the position information 76 are always output at the second frame rate, as compared with the case where the partial image data 72 and the position information 76 are always output at the second frame rate. It is possible to reduce unnecessary output of the partial image data 72 and the position information 76.
  • the image recognition area 75 detected from the first thinned image data 73 is one, and the partial image data 72 created from the digital image data 71 is one type.
  • the technology is not limited to this. Two or more image recognition areas 75 may be detected, and two or more types of partial image data 72 may be created.
  • the position information acquisition circuit 120 detects the image recognition region 75 by using the inter-frame difference method, but the technique of the present disclosure is not limited to this.
  • the position information acquisition circuit 120 may detect the image recognition area 75 based on the contrast in the image data, for example. Further, the position information acquisition circuit 120 may detect the image recognition area 75 by pattern matching, for example. Pattern matching is a method of giving a specific pattern as a pattern of a subject in advance and detecting whether or not the specific pattern is included in the image data. When contrast or pattern matching is used, the subject does not have to be a moving object.
  • the image recognition processing unit 66 performs image recognition processing using machine learning, but the technique of the present disclosure is not limited to this.
  • the image recognition processing unit 66 may perform image recognition processing by pattern matching, for example.
  • the image pickup device 10 As the image pickup element 38, an image pickup element in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip is adopted. As a result, the portability of the image pickup device 10 becomes higher than that of the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip. Further, the degree of freedom in design can be increased as compared with the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip. Further, it can contribute to the miniaturization of the image pickup device 10 as compared with the image pickup device in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are not integrated into one chip.
  • the image pickup element 38 a stacked image pickup element in which the memory 112 is laminated on the photoelectric conversion element 42 is adopted.
  • the transfer rate of image data from the photoelectric conversion element 42 to the memory 112 can be increased as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked.
  • the improvement in transfer speed also contributes to speeding up processing in the entire processing circuit.
  • the degree of freedom in design can be increased as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked. Further, it can contribute to the miniaturization of the image pickup apparatus 10 as compared with the case where the photoelectric conversion element 42 and the memory 112 are not stacked.
  • the image pickup device 38 in which the photoelectric conversion element 42, the processing circuit 110, and the memory 112 are integrated into one chip is exemplified as the image pickup element, but the technique of the present disclosure is not limited to this.
  • the photoelectric conversion element 42, the processing circuit 110, and the memory 112 at least the photoelectric conversion element 42 and the memory 112 may be integrated into one chip.
  • the interchangeable lens type image pickup apparatus 10 has been illustrated, but the technique of the present disclosure is not limited to this.
  • the smart device may be equipped with the image sensor 38 and the subsequent circuit 13 described in each of the above embodiments.
  • An example of a smart device is a smartphone or tablet terminal, which is an electronic device having an imaging function.
  • the UI system device 17 has been described with reference to the embodiment in which the image pickup device main body 12 is incorporated. However, at least a part of the plurality of components included in the UI system device 17 is the image pickup device main body. It may be externally attached to 12. Further, at least a part of the plurality of components included in the UI device 17 may be used as a separate body by being connected to the external I / F 104.
  • the first frame rate and the second frame rate may be a fixed frame rate or a variable frame rate.
  • a predetermined condition for example, a condition that an instruction to change the frame rate has been accepted by the receiving device 84, and / or a predetermined timing as a timing for changing the frame rate has arrived.
  • the frame rate may be changed when the condition of) is satisfied.
  • the specific numerical value of the frame rate may be changed according to the instruction received by the receiving device 84, or according to the operating rate of the subsequent circuit 13 and / or the image sensor 38. It may be changed.
  • the program 60 is stored in the storage 51, and the CPU 50 controls the entire image pickup apparatus 10 according to the program 60 executed on the memory 52, but the technique of the present disclosure is not limited thereto. ..
  • the program 60 is stored in a storage 300 (for example, a non-volatile storage device) of another computer or server device connected to the image pickup device 10 via a communication network (not shown).
  • the program 60 may be downloaded and installed in the image pickup device 10 in response to the request of the image pickup device 10.
  • the CPU 50 is a single CPU, but may be a plurality of CPUs. Further, the GPU may be applied instead of the CPU 50.
  • the processing circuit 110 has been described with reference to an example of a form realized by a device including an ASIC and an FPGA, but the technique of the present disclosure is not limited thereto.
  • the control circuit 119 of the plurality of devices included in the processing circuit 110 may be realized by a software configuration by a computer.
  • the processor includes, as described above, software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing a second image process by executing a program. Further, examples of the processor include a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC. A memory is built in or connected to each processor, and each processor executes the second image processing by using the memory.
  • the hardware resource that executes the second image processing may be composed of one of various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a CPU). And FPGA).
  • one processor is configured by a combination of one or more CPUs and software, and this processor is second.
  • this processor is second.
  • SoC there is a form in which a processor that realizes the functions of the entire system including a plurality of hardware resources for executing the second image processing with one IC chip is used.
  • the second image processing is realized by using one or more of the above-mentioned various processors as a hardware resource.
  • the image pickup apparatus 10 is illustrated, but the technique of the present disclosure is not limited to this. That is, in various electronic devices (for example, a fixed-lens camera, a personal computer, a wearable terminal device, etc.) in which an image pickup device having a configuration and a function corresponding to the image pickup device main body 12 described in each of the above embodiments is built.
  • the technique of the present disclosure is applicable, and even with these electronic devices, the same operations and effects as those of the image pickup apparatus 10 can be obtained.
  • the display 26 has been illustrated, but the technique of the present disclosure is not limited to this.
  • a separate display attached to the image pickup device may be used.
  • the imaging system 500 is used as, for example, a surveillance camera.
  • the image pickup system 500 includes a plurality of image pickup devices 502 and a host computer 504.
  • the image pickup device 502 has the image pickup device main body 12 described in any one of the first to fourth embodiments.
  • Each imaging device 502 has a memory for storing image data obtained by imaging and a processor for outputting image data.
  • the processor acquires position information indicating the position of the image recognition area from the image data.
  • the image recognition area is an area to be processed by the image recognition process performed by the host computer 504. Since the image recognition process has been described in the first embodiment, the description thereof will be omitted.
  • the processor outputs the image data and the acquired position information to the host computer 504.
  • the host computer 504 receives image data and position information from each imaging device.
  • the host computer 504 performs image recognition processing on the image recognition area of the image data based on the position information.
  • the image pickup system 500 there are a plurality of image pickup devices 502 each having a memory for storing image data obtained by imaging and a processor for outputting image data.
  • the processor acquires position information indicating the position of the image recognition area to be processed by the image recognition process in the image data.
  • the host computer 504 performs image recognition processing on the image recognition area based on the position information. As a result, the processing load on the image recognition process can be reduced and the processing speed can be increased as compared with the case where the host computer 504 does not perform the image recognition process based on the position information.
  • PCIe is connected between the input / output I / F 113 included in the processing circuit 110 provided in the image sensor 38 and the input I / F57A and the output I / F57B included in the controller 15 of the subsequent circuit 13.
  • PCIe connection standard other connection standards such as LVDS, SATA, SLVS-EC, or MIPI may be adopted as the high-speed communication standard.
  • USB interface is adopted as the external I / F 104, but the technique of the present disclosure is not limited to this.
  • other types of hardware interfaces such as HDMI and / or wireless interfaces such as Wi-Fi® may be employed.
  • the communication between the image sensor 38 and the subsequent circuit 13 and the communication between the image sensor 502 and the host computer 504 are all wired communication.
  • the techniques of the present disclosure are not limited to this.
  • the communication between the image sensor 38 and the subsequent circuit 13 and the communication between the image sensor 502 and the host computer 504 may be wireless communication.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Abstract

撮像装置は、撮像素子と第2プロセッサとを備える。撮像素子は、第1フレームレートで撮像されることで得られた画像データを記憶するメモリと、画像データを第1フレームレートとは独立した第2フレームレートで出力する第1プロセッサとを内蔵する。第2プロセッサには、第1プロセッサから画像データが入力される。第1プロセッサは、画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得する。第2プロセッサは、位置情報に基づいて、画像認識領域に対して画像認識処理を行う。

Description

撮像装置、撮像装置の作動方法、プログラム、及び撮像システム
 本開示の技術は、撮像装置、撮像装置の作動方法、プログラム、及び撮像システムに関する。
 特開2017-055231号公報には、主被写体特定部と、学習部と、を備えた画像処理装置が開示されている。主被写体特定部は、動画像を撮像する撮像部から連続的に出力される画像を処理対象として、画像においてピントを合わせる対象とする被写体である主被写体が写されている主被写体領域を特定する。学習部は、処理対象の画像と、その画像の前に処理対象とされた特定の画像である前フレーム画像との差分に基づいて、画像に写されている主被写体以外の他の被写体の動きが所定の大きさ以下である特定の領域を認識する学習を行う。
 特開2017-060155号公報には、画素部と、読み出し部と、出力部と、を備えた撮像素子が開示されている。画素部には、被写体からの光を光電変換する複数の画素が配置されている。読み出し部は、画素部から信号を読み出す。出力部は、読み出し部により読み出された信号のうち、画像を生成するための信号として、画素部の全領域の画素の信号を撮像素子の外部に出力するとともに、撮像素子を備える装置の駆動制御に用いる評価値を算出するための信号として、画素部の一部の領域の画素の信号を撮像素子の外部に出力する。
 特開2018-078609号公報には、複数の単位画素と、演算処理部と、信号出力部と、を備えた撮像素子が開示されている。複数の単位画素は、行列状に配置され、各々が入射する光を電荷に変換する第1の光電変換部と第2の光電変換部とを有する。演算処理部は、第1の光電変換部により変換された電荷に基づくA信号と第2の光電変換部により変換された電荷に基づくB信号に所定の演算処理を施す。信号出力部は、演算処理部により所定の演算処理を施された信号を外部に出力する。
 特開2014-178603号公報には、撮像手段と、注目領域決定手段と、制御手段と、焦点検出手段と、を備えた撮像装置が開示されている。撮像手段は、複数の撮像領域を有し、撮像領域に入射した光像に応じた画像信号を生成する。注目領域決定手段は、撮像手段から出力された画像信号に基づいて、画像信号の示す画像の注目領域を決定する。制御手段は、複数の撮像領域のうち注目領域に対応する光像が入射した撮像領域を第1撮像条件で撮像を行うように制御する第1制御部と、複数の撮像領域のうち注目領域に対応する光像が入射した撮像領域以外の撮像領域を第1撮像条件とは異なる第2撮像条件で撮像を行うように制御する第2制御部と、を有する。焦点検出手段は、注目領域の焦点調節状態を検出する。撮像装置において、第1制御部は、第2制御部よりも高いフレームレートで撮像を行うように制御することを特徴とする。
 本開示の技術に係る一つの実施形態は、撮像素子内で画像認識領域に対する画像認識処理が行われる場合に比べ、撮像素子の処理負荷が軽減される撮像装置、撮像装置の作動方法、プログラム、及び撮像システムを提供する。
 本開示の技術に係る第1の態様は、第1フレームレートで撮像されることで得られた画像データを記憶するメモリと、画像データを第1フレームレートとは独立した第2フレームレートで出力する第1プロセッサと、を内蔵する撮像素子と、第1プロセッサから出力される画像データが入力される第2プロセッサと、を備える撮像装置である。第1プロセッサは、画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得する。第2プロセッサは、位置情報に基づいて、画像認識領域に対して画像認識処理を行う。
 本開示の技術に係る第2の態様は、位置情報は、画像データ内での画像認識領域の位置を示す座標である第1の態様に係る撮像装置である。
 本開示の技術に係る第3の態様は、第1プロセッサは、画像データのフレーム間の差分に基づいて、画像データから画像認識領域を検出し、検出結果に基づいて位置情報を取得する第1の態様又は第2の態様に係る撮像装置である。
 本開示の技術に係る第4の態様は、第1プロセッサは、画像データのうちの一部である部分画像データと、位置情報とを第2フレームレートで出力し、部分画像データは、画像認識領域を含む第1の態様から第3の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第5の態様は、部分画像データは、画像認識領域のみを含む第4の態様に係る撮像装置である。
 本開示の技術に係る第6の態様は、第1プロセッサは、画像データを間引いた間引き画像データと、部分画像データと、位置情報とを第2フレームレートで出力する第4の態様又は第5の態様に係る撮像装置である。
 本開示の技術に係る第7の態様は、位置情報は、画像データを第1間引き率で間引いた第1間引き画像データに対する第1プロセッサによる画像認識領域の検出結果から得られた情報である第1の態様から第6の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第8の態様は、第2プロセッサは、第1間引き画像データにより示される画像をディスプレイに表示用動画像として表示する第7の態様に係る撮像装置である。
 本開示の技術に係る第9の態様は、第2プロセッサは、画像データ又は部分画像データを第2間引き率で間引いた第2間引き画像データに対して画像認識処理を行う第4の態様から第6の態様の何れか一つの態様に係る撮像装置である。
 本開示の技術に係る第10の態様は、画像データを間引く第1間引き率と第2間引き率が異なる第9の態様に係る撮像装置である。
 本開示の技術に係る第11の態様は、第2間引き率は第1間引き率よりも低い第10の態様に係る撮像装置である。
 本開示の技術に係る第12の態様は、第1プロセッサは、画像データのうちの一部である部分画像データと位置情報とを第2フレームレートとは異なる第3フレームレートで出力し、部分画像データにより示される画像は画像認識領域を含み、第3フレームレートは、第2プロセッサの処理速度に応じて定められる第1の態様又は第2の態様に記載の撮像装置である。
 本開示の技術に係る第13の態様は、第1プロセッサは、第1フレームレートで得られた複数フレーム分の画像データを合成することによって1フレーム分の合成画像データを作成し、位置情報は、合成画像データにより示される画像に対する第1プロセッサによる画像認識領域の検出結果から得られた情報である第1の態様又は第2の態様に記載の撮像装置である。
 本開示の技術に係る第14の態様は、撮像素子は、少なくとも光電変換素子とメモリとが1チップ化された撮像素子である第1の態様から第13の態様の何れか一つの様態に係る撮像装置である。
 本開示の技術に係る第15の態様は、撮像素子は、光電変換素子とメモリとが積層された積層型撮像素子である第14の態様に係る撮像装置である。
 本開示の技術に係る第16の態様は、第1フレームレートで撮像されることで得られた画像データを記憶するメモリと、画像データを第1フレームレートとは独立した第2フレームレートで出力する第1プロセッサと、を内蔵する撮像素子と、第1プロセッサから出力される画像データが入力される第2プロセッサと、を備える撮像装置の作動方法であって、第1プロセッサは、画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、第2プロセッサは、位置情報に基づいて、画像認識領域に対して画像認識処理を行うことを含む、撮像装置の作動方法である。
 本開示の技術に係る第17の態様は、第1フレームレートで撮像されることで得られた画像データを記憶するメモリと、画像データを第1フレームレートとは独立した第2フレームレートで出力する第1プロセッサと、を内蔵する撮像素子と、第1プロセッサから出力される画像データが入力される第2プロセッサと、を備える撮像装置に適用されるコンピュータに、第1プロセッサは、画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、第2プロセッサは、位置情報に基づいて、画像認識領域に対して画像認識処理を行うことを含む処理を実行させるためのプログラムである。
 本開示の技術に係る第18の態様は、撮像領域を撮像する光電変換素子と、光電変換素子によって撮像されることで得られた画像データを記憶するメモリと、画像データを出力するプロセッサと、を各々有する複数の撮像装置と、複数の撮像装置の各々の後段に設けられ、プロセッサから画像データが入力されるホストコンピュータと、を含み、プロセッサは、画像データにより示される画像のうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、ホストコンピュータは、位置情報に基づいて、画像認識領域に対して画像認識処理を行う、撮像システムである。
第1~第4実施形態に係る撮像装置の外観の一例を示す斜視図である。 図1に示す撮像装置の背面側の外観の一例を示す背面図である。 第1~第4実施形態に係る撮像装置の構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像装置に含まれる撮像装置本体の電気系のハードウェア構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像装置に含まれる撮像素子の積層構造の一例を示す概念図である。 第1実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 第1~第4実施形態に係る撮像装置における光電変換素子の画素配列、及びデジタル画像データの処理の一例を示す概念図である。 第1~第4実施形態に係る撮像素子に含まれる第1間引き回路によって行われる第1間引き処理の内容の一例を示す概念図である。 被写体の位置情報を取得するための方法の一例であるフレーム間差分法の説明に供する概念図である。 第1実施形態に係る撮像素子に含まれる画像切出回路によって行われる画像切出処理の内容の一例を示す概念図である。 第1~第4実施形態に係る後段回路の構成の一例を示すブロック図である。 第1~第4実施形態において、ディスプレイに表示されたライブビュー画像の一例を示す概念図である。 第1~第4実施形態において、ディスプレイに表示された重畳画像の一例を示す概念図である。 第1実施形態に係る第1画像処理の流れの一例を示すフローチャートである。 第1実施形態に係る第2画像処理の流れの一例を示すフローチャートである。 第2実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 第2実施形態に係る部分画像データの一例を示す概念図である。 第3実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 第3実施形態に係る撮像素子の画像合成処理の説明に供する概念図である。 第4実施形態に係る撮像装置に含まれる撮像素子の電気系のハードウェア構成の一例を示すブロック図である。 プログラムが記憶された記憶媒体から、プログラムが後段回路内のコンピュータにインストールされる態様の一例を示す概念図である。 第5実施形態に係る監視カメラの外観の一例を示す斜視図である。
 以下、添付図面に従って本開示の技術に係る撮像装置の実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。LSIとは、“Large-Scale Integration”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。A/Dとは、“Analog/Digital”の略称を指す。I/Fとは、“Interface”の略称を指す。UIとは、“User Interface”の略称を指す。LVDSとは、“Low Voltage Differential Signaling”の略称を指す。PCIe(登録商標)とは、“Peripheral Component Interconnect Express”の略称を指す。SATAとは、“Serial Advanced Technology Attachment”の略称を指す。SLVS-ECとは、“Scalable Low Voltage Signaling with Embedded Clock”の略称を指す。MIPI(登録商標)とは、“Mobile Industry Processor Interface”の略称を指す。HDMI(登録商標)とは、“High-Definition Multimedia Interface”の略称を指す。fpsとは、“frame per second”の略称を指す。
 以下の説明において、「被写体を検出する」とは、例えば、被写体を示す被写体画像データを検出することを意味する。また、「被写体を認識する」とは、例えば、被写体画像データを認識することを意味する。
 [第1実施形態]
 一例として図1に示すように、撮像装置10は、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラである。撮像装置10は、撮像装置本体12と、撮像装置本体12に交換可能に装着される交換レンズ14と、を備えている。なお、ここでは、撮像装置10の一例として、レンズ交換式で、かつ、レフレックスミラーが省略されたデジタルカメラが挙げられているが、本開示の技術はこれに限定されず、撮像装置10は、レンズ固定式等の他種類のデジタルカメラであってもよい。
 撮像装置本体12には、撮像素子38が設けられている。交換レンズ14が撮像装置本体12に装着された場合に、被写体を示す被写体光は、交換レンズ14を透過して撮像素子38に結像され、撮像素子38によって被写体の画像を示す画像データ(例えば、図9及び図10参照)が生成される。
 撮像装置本体12には、ハイブリッドファインダー(登録商標)16が設けられている。ここで、ハイブリッドファインダー16とは、例えば光学ビューファインダー(以下、「OVF」という)及び電子ビューファインダー(以下、「EVF」という)が選択的に使用されるファインダーを指す。なお、OVFとは、“optical viewfinder”の略称を指す。また、EVFとは、“electronic viewfinder”の略称を指す。
 撮像装置本体12の前面には、ファインダー切替レバー18が設けられている。OVFで視認可能な光学像とEVFで視認可能な電子像であるライブビュー画像とは、ファインダー切替レバー18を矢印SW方向に回動させることで切り換わる。ここで、「ライブビュー画像」とは、撮像素子38によって撮像されることにより得られた画像データに基づく表示用の動画像を指す。ライブビュー画像は、一般的には、スルー画像とも称されている。撮像装置本体12の上面には、レリーズボタン20及びダイヤル23が設けられている。ダイヤル23は、撮像系の動作モード及び再生系の動作モード等の設定の際に操作され、これによって、撮像装置10では、動作モードとして撮像モードと再生モードとが選択的に設定される。
 レリーズボタン20は、撮像準備指示部及び撮像指示部として機能し、撮像準備指示状態と撮像指示状態との2段階の押圧操作が検出可能である。撮像準備指示状態とは、例えば待機位置から中間位置(半押し位置)まで押下される状態を指し、撮像指示状態とは、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 一例として図2に示すように、撮像装置本体12の背面には、タッチパネル・ディスプレイ24、指示キー27、及びファインダー接眼部30が設けられている。
 タッチパネル・ディスプレイ24は、ディスプレイ26及びタッチパネル28(図4も参照)を備えている。ディスプレイ26の一例としては、有機ELディスプレイが挙げられる。ディスプレイ26は、有機ELディスプレイではなく、液晶ディスプレイなどの他種類のディスプレイであってもよい。
 EVFの表示についてはディスプレイ26の表示と同等であるため、以下では説明を省略するが、本明細書においてディスプレイ26への表示は、EVFへの表示と読み替えることができる。
 ディスプレイ26は、画像及び文字情報等を表示する。ディスプレイ26は、撮像装置10が撮像モードの場合に連続的な撮像により得られたライブビュー画像の表示に用いられる。また、ディスプレイ26は、後述する画像認識処理の結果をライブビュー画像に重畳した重畳画像を表示するのにも用いられる。また、ディスプレイ26は、静止画像用の撮像の指示が与えられた場合に撮像されることで得られた静止画像の表示にも用いられる。更に、ディスプレイ26は、撮像装置10が再生モードの場合の再生画像の表示及びメニュー画面等の表示にも用いられる。
 タッチパネル28は、透過型のタッチパネルであり、ディスプレイ26の表示領域の表面に重ねられている。タッチパネル28は、指又はスタイラスペン等の指示体による接触を検知することで、ユーザからの指示を受け付ける。
 なお、ここでは、タッチパネル・ディスプレイ24の一例として、タッチパネル28がディスプレイ26の表示領域の表面に重ねられているアウトセル型のタッチパネル・ディスプレイを挙げているが、これはあくまでも一例に過ぎない。例えば、タッチパネル・ディスプレイ24として、オンセル型又はインセル型のタッチパネル・ディスプレイを適用することも可能である。
 指示キー27は、各種の指示を受け付ける。ここで、「各種の指示」とは、例えば、各種メニューを選択可能なメニュー画面の表示の指示、1つ又は複数のメニューの選択の指示、選択内容の確定の指示、選択内容の消去の指示、ズームイン、ズームアウト、及びコマ送り等の各種の指示等を指す。
 一例として図3に示すように、交換レンズ14は、撮像レンズ40を有する。撮像レンズ40は、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cを備えている。対物レンズ40A、フォーカスレンズ40B、及び絞り40Cは、被写体側(物体側)から撮像装置本体12側(像側)にかけて、光軸L1に沿って、対物レンズ40A、フォーカスレンズ40B、及び絞り40Cの順に配置されている。フォーカスレンズ40B及び絞り40Cは、モータ等の駆動源(図示省略)からの動力を受けることで作動する。すなわち、フォーカスレンズ40Bは、付与された動力に応じて光軸L1に沿って移動する。また、絞り40Cは、付与された動力に応じて作動することで露出を調節する。
 撮像装置本体12は、後段回路13、UI系デバイス17、メカニカルシャッタ41、及び撮像素子38を備えている。後段回路13は、撮像素子38の後段に位置する回路である。後段回路13は、コントローラ15及び信号処理回路34を有する。コントローラ15は、UI系デバイス17、信号処理回路34、及び撮像素子38に接続されており、撮像装置10の電気系の全体を制御する。なお、後段回路13は、本開示の技術に係る「第2プロセッサ」の一例である。
 撮像素子38は、受光面42Aを有する光電変換素子42を備えている。本実施形態において、撮像素子38は、CMOSイメージセンサである。また、ここでは、撮像素子38としてCMOSイメージセンサを例示しているが、本開示の技術はこれに限定されず、例えば、撮像素子38がCCDイメージセンサ等の他種類のイメージセンサであっても本開示の技術は成立する。
 メカニカルシャッタ41は、モータ等の駆動源(図示省略)からの動力を受けることで作動する。交換レンズ14が撮像装置本体12に装着された場合に、被写体を示す被写体光は、撮像レンズ40を透過し、メカニカルシャッタ41を介して受光面42Aに結像される。
 UI系デバイス17は、ユーザに対して情報を提供したり、ユーザからの指示を受け付けたりするデバイスである。コントローラ15は、UI系デバイス17からの各種情報の取得、及びUI系デバイス17の制御を行う。
 撮像素子38は、コントローラ15に接続されており、コントローラ15の制御下で、被写体を撮像することで、被写体の画像を示す画像データを生成する。
 撮像素子38は、信号処理回路34に接続されている。信号処理回路34は、LSIであり、具体的には、ASIC及びFPGAを含むデバイスである。コントローラ15は、信号処理回路34からの各種情報の取得、及び撮像素子38の制御を行う。撮像素子38は、コントローラ15の制御下で、光電変換素子42によって生成された画像データを信号処理回路34に出力する。
 信号処理回路34は、画像データに対して処理を行う回路である。具体的には、信号処理回路34は、撮像素子38から入力された画像データに対して各種の信号処理を行う。信号処理回路34によって行われる各種の信号処理には、例えば、ホワイトバランス調整、シャープネス調整、ガンマ補正、色空間変換処理、及び色差補正などの公知の信号処理が含まれる。
 なお、信号処理回路34によって行われる各種の信号処理は、信号処理回路34と撮像素子38とで分散して行われるようにしてもよい。すなわち、信号処理回路34によって行われる各種の信号処理のうちの少なくとも一部を撮像素子38の処理回路110に担わせるようにしてもよい。
 なお、本実施形態では、信号処理回路34としてASIC及びFPGAを含むデバイスを例示しているが、本開示の技術はこれに限定されない。例えば、信号処理回路34は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。
 また、信号処理回路34は、CPU、ストレージ、及びメモリを含むコンピュータであってもよい。ここで、ストレージとは、不揮発性の記憶装置を指す。不揮発性の記憶装置の一例としては、フラッシュメモリが挙げられるが、これに限らず、EEPROM、HDD、及び/又はSSD等であってもよい。また、メモリは、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリの一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。コンピュータに含まれるCPUは、単数であってもよいし、複数であってもよい。また、CPUに代えてGPUを用いてもよい。また、信号処理回路34は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 一例として図4に示すように、コントローラ15は、CPU50、ストレージ51、メモリ52、入力I/F57A、及び出力I/F57Bを備えている。CPU50、ストレージ51、メモリ52、入力I/F57A、及び出力I/F57Bは、バス100を介して接続されている。
 なお、図4に示す例では、図示の都合上、バス100として1本のバスが図示されているが、複数本のバスであってもよい。バス100は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
 ストレージ51は、各種パラメータ及び各種プログラムを記憶している。ストレージ51は、不揮発性の記憶装置である。ここでは、ストレージ51の一例として、フラッシュメモリが採用されている。フラッシュメモリはあくまでも一例に過ぎず、フラッシュメモリに代えて、又は、フラッシュメモリと共に、EEPROM、HDD、及び/又はSSD等をストレージ51として適用してもよい。また、メモリ52は、各種情報を一時的に記憶し、ワークメモリとして用いられる。メモリ52の一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
 ストレージ51には、各種プログラムが記憶されている。CPU50は、ストレージ51から必要なプログラムを読み出し、読み出したプログラムをメモリ52上で実行する。CPU50は、メモリ52上で実行するプログラムに従って撮像装置10の全体を制御する。
 出力I/F57Bは、撮像素子38に接続されている。CPU50は、出力I/F57Bを介して撮像素子38を制御する。例えば、CPU50は、出力I/F57Bを介して撮像素子38に対して、撮像を行うタイミングを規定する撮像タイミング信号を供給することで、撮像素子38によって行われる撮像のタイミングを制御する。撮像素子38は、CPU50から入力された撮像タイミング信号に応じて定まる第1フレームレートで撮像を行う。具体的な第1フレームレートの一例としては、240fpsが挙げられるが、これに限らない。第1フレームレートは、240fpsを超えるフレームレート(例えば、480fps)であってもよいし、240fps未満のフレームレート(例えば、120fps)であってもよい。
 入力I/F57Aは、信号処理回路34に接続されている。信号処理回路34によって各種の信号処理が行われた画像データは、信号処理回路34によって入力I/F57Aに出力される。入力I/F57Aに入力された画像データは、メモリ52に記憶される。
 バス100には、外部I/F104が接続されている。外部I/F104は、回路で構成された通信デバイスである。ここでは、外部I/F104として、回路で構成されたデバイスを例示しているが、これはあくまでも一例に過ぎない。外部I/F104は、ASIC、FPGA、及び/又はPLDを含むデバイスであってもよい。また、外部I/F104は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 外部I/F104の一例としては、USBインタフェースが挙げられる。USBインタフェースには、スマートデバイス、パーソナル・コンピュータ、サーバ、USBメモリ、メモリカード、及び/又はプリンタ等の外部装置(図示省略)が直接または間接的に接続可能である。外部I/F104は、撮像装置10と外部装置との間の各種情報の授受を司る。
 UI系デバイス17は、タッチパネル・ディスプレイ24及び受付デバイス84を備えている。ディスプレイ26及びタッチパネル28は、バス100に接続されている。従って、CPU50は、ディスプレイ26に対して各種情報を表示させ、タッチパネル28によって受け付けられた各種指示に従って動作する。
 受付デバイス84は、ハードキー部25を備えている。ハードキー部25は、複数のハードキーであり、レリーズボタン20(図1参照)、ダイヤル23(図1及び図2参照)、及び指示キー27(図2参照)を有する。ハードキー部25は、バス100に接続されており、CPU50は、ハードキー部25によって受け付けられた指示を取得し、取得した指示に従って動作する。
 一例として図5に示すように、撮像素子38には、光電変換素子42、処理回路110、及びメモリ112が内蔵されている。撮像素子38は、本開示の技術に係る「撮像素子」の一例である。撮像素子38は、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子である。したがって、光電変換素子42、処理回路110、及びメモリ112は1パッケージ化されている。撮像素子38は、光電変換素子42に対して処理回路110及びメモリ112を積層することにより構成されている。具体的には、光電変換素子42及び処理回路110は、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されており、処理回路110及びメモリ112は、銅等の導電性を有するバンプ(図示省略)によって互いに電気的に接続されている。
 光電変換素子42は、本開示の技術に係る「光電変換素子」の一例である。処理回路110は、本開示の技術に係る「第1プロセッサ」の一例である。メモリ112は、本開示の技術に係る「メモリ」の一例である。撮像素子38は、本開示の技術に係る「積層型撮像素子」の一例である。
 処理回路110は、例えば、LSIである。処理回路110は、ASIC及びFPGAを含むデバイスであってもよい。また、処理回路110は、ASIC、FPGA、又はPLDを含むデバイスであってもよいし、FPGA及びPLDを含むデバイスであってもよいし、ASIC及びPLDを含むデバイスであってもよい。また、処理回路110は、ハードウェア構成及びソフトウェア構成の組み合わせによって実現されてもよい。
 メモリ112の一例として、ここではDRAMが採用されている。なお、メモリ112がSRAM等の他の種類の記憶装置であっても本開示の技術は成立する。
 光電変換素子42は、マトリクス状に配置された複数のフォトダイオードを有している。複数のフォトダイオードの一例としては、“4896×3265”画素分のフォトダイオードが挙げられる。
 光電変換素子42に含まれる各フォトダイオードには、カラーフィルタが配置されている。カラーフィルタは、輝度信号を得るために最も寄与するG(緑)に対応するGフィルタ、R(赤)に対応するRフィルタ、及びB(青)に対応するBフィルタを含む。
 光電変換素子42は、R画素、G画素、及びB画素を有する。R画素は、Rフィルタが配置されたフォトダイオードに対応する画素であり、G画素は、Gフィルタが配置されたフォトダイオードに対応する画素であり、B画素は、Bフィルタが配置されたフォトダイオードに対応する画素である。R画素、G画素、及びB画素は、行方向(水平方向)及び列方向(垂直方向)の各々に既定の周期性を持つ。本実施形態では、R画素、G画素、及びB画素がX-Trans(登録商標)配列に対応した周期性で配列されている(図7参照)。なお、ここでは、X-Trans配列を例示しているが、本開示の技術はこれに限定されず、R画素、G画素、及びB画素の配列は、ベイヤ配列又はハニカム配列などであってもよい。
 撮像素子38は、いわゆる電子シャッタ機能を有している。CPU50から出力I/F57Bを介して出力される撮像タイミング信号に基づいて電子シャッタ機能が作動することで、光電変換素子42内の各フォトダイオードの電荷蓄積時間が制御される。電荷蓄積時間とは、いわゆるシャッタスピードを指す。各フォトダイオードから読み出された電荷は、画像データとして後段回路13の信号処理回路34に出力される。
 撮像素子38では、静止画像用の撮像と、ライブビュー画像用の撮像とが選択的に行われる。静止画像用の撮像は、電子シャッタ機能を働かせ、かつ、メカニカルシャッタ41を作動させることで実現され、ライブビュー画像用の撮像は、メカニカルシャッタ41を作動させずに、電子シャッタ機能を働かせることで実現される。なお、ここでは、メカニカルシャッタ41を用いた撮像を例示しているが、撮像を実現する上でメカニカルシャッタ41は必須ではなく、メカニカルシャッタ41が無くとも電子シャッタ機能を働かせることでライブビュー画像用の撮像及び静止画像用の撮像は実現される。また、ここでは、ローリングシャッタ方式が例示されているが、本開示の技術はこれに限らず、ローリングシャッタ方式に代えてグローバルシャッタ方式を適用してもよい。
 一例として図6に示すように、処理回路110は、制御回路119、読出回路115、デジタル処理回路116、第1間引き回路118、位置情報取得回路120、画像切出回路122、及び入出力I/F113を備える。入出力I/F113は入力I/F113Aと出力I/F113Bとを含む。制御回路119は、メモリ112、入出力I/F113、読出回路115、デジタル処理回路116、第1間引き回路118、位置情報取得回路120、及び画像切出回路122に接続されている。
 入力I/F113Aは、後段回路13の出力I/F57Bに接続されている。入力I/F113Aは、CPU50から出力された撮像タイミング信号を出力I/F57Bを介して受け付ける。入力I/F113Aは、受け付けた撮像タイミング信号を制御回路119に転送する。
 読出回路115は、制御回路119の制御下で光電変換素子42を制御し、光電変換素子42からアナログ画像データ70を第1フレームレートで読み出す。
 具体的には、先ず、入力I/F113Aが後段回路13から撮像タイミング信号を受け付け、受け付けた撮像タイミング信号を制御回路119に転送する。次に、制御回路119は、転送された撮像タイミング信号を読出回路115に転送する。撮像タイミング信号は、垂直同期信号及び水平同期信号を含む。読出回路115は、制御回路119から転送された垂直同期信号に従って光電変換素子42からフレーム単位でのアナログ画像データ70の読み出しを開始する。また、読出回路115は、制御回路119から転送された水平同期信号に従って水平ライン単位でのアナログ画像データ70の読み出しを開始する。
 読出回路115は、光電変換素子42から読み出されたアナログ画像データ70に対してアナログ信号処理を行う。アナログ信号処理には、ノイズキャンセル処理及びアナログゲイン処理などの公知の処理が含まれる。ノイズキャンセル処理は、光電変換素子42に含まれる画素間の特性のばらつきに起因するノイズをキャンセルする処理である。アナログゲイン処理は、アナログ画像データ70に対してゲインをかける処理である。このようにしてアナログ信号処理が行われたアナログ画像データ70は、読出回路115によってデジタル処理回路116に出力される。
 デジタル処理回路116は、A/D変換器117を備えている。A/D変換器117は、アナログ画像データ70をA/D変換する。デジタル処理回路116は、A/D変換された画像データに対して、さらにデモザイク処理を行う。デモザイク処理について、例えば、図7を参照して以下に説明する。
 一例として図7に示すように、光電変換素子42では、R画素、G画素、及びB画素がX-Trans(登録商標)配列で配列されている。電子シャッタ機能が作動することで、光電変換素子42のそれぞれの画素から対応した色の電荷信号が出力される。すなわち、光電変換素子42から出力されるデータは、各R画素から出力されたR画素データと、各G画素から出力されたG画素データと、各B画素から出力されたB画素データとで構成されるRAWデータである。
 デモザイク処理では、各画素の周囲に配置された別の色の画素データを用いて、RGB成分のうち、足りない色の成分が補完される。R画素は、周囲に配置されたG画素のG画素データとB画素のB画素データで足りない色の成分が補完される。G画素は、周囲に配置されたB画素のB画素データとR画素のR画素データで足りない色の成分が補完される。B画素は、周囲に配置されたR画素のR画素データとG画素のG画素データで足りない色の成分が補完される。さらに、デモザイク処理後の画像データに対して、デジタルゲイン処理が行われる。これにより、各画素がRGB成分の画素データを有するデジタル画像データ71が生成される。このように、第1フレームレートで撮像されることで得られたデジタル画像データ71は、メモリ112に記憶される。
 第1間引き回路118(図6参照)は、第1間引き処理を行う。ここで、間引き処理とは、画像データから特定の列、行、又は画素のデータのみを抽出して、間引き画像データを生成する処理を指す。間引き処理は、全画素数に対する間引く画素数の割合(「間引く画素数/全画素数」)で求められる間引き率に基づいて行われる。
 制御回路119は、メモリ112に対してランダムアクセス可能であり、メモリ112からデジタル画像データ71を読み出して、第1間引き回路118に出力する。第1間引き回路118は、制御回路119から入力されたデジタル画像データ71に対して、例えば、3分の2(以下、「2/3」と称する)の第1間引き率でデジタル画像データ71を間引く第1間引き処理を行う。
 一例として図8に示すように、第1間引き率は「2/3」であるので、第1間引き回路118は、垂直方向の水平ラインを、例えば2ライン飛ばしで間引きした第1間引き画像データ73を生成する。すなわち、第1間引き画像データ73は、デジタル画像データ71のうち「3n-2」行目の画素データだけを抽出したデータである。ここで、nは正の整数である。第1間引き回路118は、第1間引き画像データ73をメモリ112に記憶し、かつ、位置情報取得回路120に出力する。本実施形態では、第1間引き率は「2/3」であるが、本開示の技術はこれに限らない。また、第1間引き回路118は、デジタル画像データ71の垂直方向の水平ラインを間引きする代わりに、水平方向の垂直ラインを複数ライン飛ばしで間引きしてもよい。更に、第1間引き回路118は、デジタル画像データ71を画素単位で間引きしてもよい。
 位置情報取得回路120(図6参照)は、動きのある物体を被写体として検出し、被写体を含む領域を画像認識領域として検出する。画像認識領域とは、後段回路13の画像認識処理部66で行われる機械学習(例えば、ディープラーニング)を用いた画像認識処理の処理対象とされる領域である。位置情報取得回路120は、さらに、検出された画像認識領域の位置情報を取得する位置情報取得処理を行う。位置情報取得回路120は、第1間引き画像データ73を用いて画像認識領域の検出、及び位置情報取得処理を行う。
 一例として図9に示すように、位置情報取得処理では、第1フレームレートで連続して取得された3フレーム分の第1間引き画像データ73が用いられる。例えば、第1間引き画像データ73により示される画像は、被写体を示す被写体画像として、図中右方向から左方向へ移動する車が写っているとする。説明を簡単にするため、3フレーム分の第1間引き画像データ73のうち、最も新しい第1間引き画像データ73を第1間引きフレーム73aと呼ぶ。最新のものの次に古い第1間引き画像データ73を第2間引きフレーム73bと呼ぶ。最も古い第1間引き画像データ73を第3間引きフレーム73cと呼ぶ。
 位置情報取得回路120は、連続して取得された2フレーム分の第1間引き画像データ73の差分を取り、二値化する。すなわち、位置情報取得回路120は、第1間引きフレーム73aと第2間引きフレーム73bとのフレーム間の差分を取ることで、二値化差分データ73dを取得する。また、位置情報取得回路120は、第2間引きフレーム73bと第3間引きフレーム73cとのフレーム間の差分を取ることで、二値化差分データ73eを取得する。一例として図9では、差分のある被写体画像が白で差分のない背景画像が黒となっているが、その反対でもよい。また差分の絶対値を取り、差分の絶対値に対して所定の値を境界にして、所定の値より大きい部分を白とし、小さい部分を黒としてもよい。
 次に、位置情報取得回路120は、異なるフレーム間演算で得られたふたつの二値化差分データを比較することにより、共通部分を検出する。図9の例では、二値化差分データである73d及び73eを比較することにより、中央にある車1台分の共通部分が得られる。位置情報取得回路120は、共通部分を、後述する画像認識処理の処理対象とされる画像認識領域75として検出し、画像認識領域75の位置を示す位置情報76を取得する。このように、位置情報76は、デジタル画像データ71を第1間引き率で間引いた第1間引き画像データ73に対する、位置情報取得回路120による画像認識領域75の検出結果から得られた情報である。
 一例として、位置情報取得回路120は、画像認識領域75を囲む矩形枠を設定し、枠の右下の座標(X1,Y1)及び左上の座標(X2,Y2)を位置情報76として取得する。位置情報取得回路120は、取得した位置情報76をメモリ112に記憶し、かつ、画像切出回路122に出力する。なお、本実施形態では、位置情報76の一例として矩形枠の右下及び左上の座標が示されているが、位置情報76はこれに限らない。位置情報76は、例えば、右上と左下の座標でもよい。また、矩形枠の対角線上にある2つの角の座標を用いる代わりに、位置情報76は、矩形枠のある1つの角の座標と、矩形枠の水平方向の長さ及び垂直方向の長さを含んでもよい。また、位置情報取得回路120は、画像認識領域75を囲む矩形枠を設定せず、検出された画像認識領域75の画素単位で座標情報を取得してもよい。
 画像切出回路122(図6参照)は、デジタル画像データ71と位置情報76とに基づいて、デジタル画像データ71から部分画像データ72を切り出す画像切出処理を行う。制御回路119は、メモリ112からデジタル画像データ71を読み出し、画像切出回路122に出力する。画像切出処理とは、デジタル画像データ71から位置情報76で示される座標の画像データだけを抽出して、部分画像データ72として出力する処理を指す。すなわち、部分画像データ72は、デジタル画像データ71のうちの一部である。
 一例として図10に示すように、制御回路119は、メモリ112から第2間引きフレーム73bに対応するデジタル画像データ71を読み出して画像切出回路122に出力する。画像切出回路122は、位置情報取得回路120から受信した位置情報76の座標(X1,Y1)及び(X2,Y2)に基づいてデジタル画像データ71を切り出すことで、矩形の部分画像データ72を生成する。
 切り出された部分画像データ72は、画像認識領域75のみを含んでいる。画像切出回路122は、生成した部分画像データ72をメモリ112に記憶する。なお、本実施形態では、部分画像データ72が矩形である場合を例に説明したが、切り出された部分画像データ72では矩形である必要はなく、円形又は楕円形等の任意の形状であってもよい。また、検出された画像認識領域75の画素単位で座標情報が取得された場合には、画像切出回路122は、画素単位で部分画像データ72を切り出してもよい。
 メモリ112には、デジタル画像データ71、第1間引き画像データ73、位置情報76、及び部分画像データ72が記憶される。制御回路119は、第1間引き画像データ73、位置情報76、及び部分画像データ72を、メモリ112から読み出し、出力I/F113B及び入力I/F57Aを介して、第2フレームレートで後段回路13へ出力する。第2フレームレートは、第1フレームレートとは独立したフレームレートである。具体的な第2フレームレートの一例としては、60fpsが挙げられるが、これに限らず、60fpsを超えるフレームレート(例えば、120fps)であってもよいし、60fps未満のフレームレート(例えば、30fps)であってもよい。ここでは、第1フレームレートに比べて第2フレームレートは小さくなっているが、本開示の技術はこれに限らない。第1フレームレートに比べて第2フレームレートが大きくてもよく、第1フレームレートと第2フレームレートが等しくてもよい。
 第2フレームレートが第1フレームレートよりも小さい場合、制御回路119は、第1フレームレートで取得された第1間引き画像データ73、位置情報76、及び部分画像データ72をフレーム単位で間引くことで、フレームレートを低下させて第2フレームレートとする。例えば、第1フレームレートが240fpsであり、第2フレームレートが60fpsである場合、制御回路119は、4フレーム分の第1間引き画像データ73、位置情報76、及び部分画像データ72の中から3フレームを間引き、残りの1フレーム分の第1間引き画像データ73、位置情報76、及び部分画像データ72を出力する。
 一方、第2フレームレートが第1フレームレートよりも大きい場合、制御回路119は、例えば、第1フレームレートで取得された1フレーム分の第1間引き画像データ73、位置情報76、及び部分画像データ72を、複数回続けて出力することにより、フレームレートを上げて第2フレームレートとする。
 一例として図11に示すように、部分画像データ72、第1間引き画像データ73、及び位置情報76は後段回路13に入力され、メモリ52に記憶される。後段回路13のストレージ51には、プログラム60と学習済みモデル62が記憶されている。CPU50は、ストレージ51からプログラム60をメモリ52上で実行することで、第2間引き処理部64及び画像認識処理部66として機能する。
 第2間引き処理部64は、位置情報76に基づいて生成された部分画像データ72に対して第2間引き処理を行う。第2間引き処理とは、部分画像データ72を第2間引き率で間引いて、第2間引き画像データ74を生成する処理を指す。第2間引き率は、第1間引き率とは異なる間引き率である。本実施形態では、第2間引き率は、例えば2分の1(以下、「1/2」と称する)である。第2間引き処理部64は、図8に示す第1間引き処理と同様に、垂直方向の水平ラインを1ライン飛ばしで間引きした第2間引き画像データ74を生成してメモリ52に記憶する。また、本実施形態では、第2間引き率は「1/2」であるが、本開示の技術はこれに限らない。また、第2間引き処理部64は、部分画像データ72の垂直方向の水平ラインを間引きする代わりに、水平方向の垂直ラインを間引きしてもよい。更に、第2間引き処理部64は、部分画像データ72を画素単位で間引きしてもよい。
 画像認識処理部66は、位置情報76に基づいて、画像認識領域に対して画像認識処理を行う。本実施形態では、画像認識領域は、位置情報取得回路120で検出された動体画像を含む領域である。ここで、動体画像とは、動きのある被写体を示す画像を指す。
 画像認識処理部66は、画像認識領域を含む部分画像データ72を第2間引き率で間引いた第2間引き画像データ74に対して、機械学習を用いた画像認識処理を施すことで、画像認識情報78を取得する。具体的には、画像認識処理部66は、画像認識処理を実行することにより、第2間引き画像データ74によって示される第2間引き画像に含まれる動体画像のカテゴリ認識を、例えば2段階で行う。本開示の技術では、第1段階のカテゴリとして、動体画像、例えば、車、オートバイ、飛行機、自転車、若しくは船等の乗り物を示す画像、又は人間、動物、鳥、若しくは昆虫等の生物を示す画像が挙げられる。
 第2段階のカテゴリは、第1段階のカテゴリ認識で特定のカテゴリに分類された動体画像をさらに分類するためのサブカテゴリである。例えば、第1段階で「車」に属すると認識された動体画像をさらに認識するためのサブカテゴリには、車種、色、製造メーカ、又は型式等が含まれる。例えば、第1段階で「人物」に属すると認識された動体画像をさらに認識するためのサブカテゴリには、性別、人種、体形、又は年齢等が含まれる。
 ストレージ51に記憶された学習済みモデル62には、過去の学習で得られたモデルが収納されており、多数のカテゴリにおける高精度な認識を可能にする。さらに、画像認識処理部66が画像認識処理を行う毎に、画像認識領域75により新たに学習が行われて、学習済みモデル62が更新される。なお、本実施形態では、画像認識処理部66が2段階のカテゴリ認識を行っているが、撮像素子38の処理回路110で第1段階目のカテゴリ認識を行い、画像認識処理部66で第2段階目のカテゴリ認識を行ってもよい。画像認識処理で得られた画像認識情報78は、メモリ52に記憶される。
 第2間引き処理で使用される第2間引き率は、第1間引き処理で使用される第1間引き率よりも低い。このため、位置情報取得回路120で行われる位置情報取得処理では、間引き率の高い第1間引き率で間引かれた第1間引き画像データ73を使って、短時間で画像認識領域75及び位置情報76が取得される。一方、後段回路13の画像認識処理部66で行われる画像認識処理では、間引き率の低い第2間引き率で間引かれた第2間引き画像データ74を使って、精度の良い画像認識情報78が得られる。
 撮像装置10は、ディスプレイ26にライブビュー画像を表示するライブビュー画像表示モードと、ライブビュー画像に示された被写体の画像認識結果を表示する画像認識モードとを有する。撮像装置10がライブビュー画像表示モードである場合、CPU50は、第1間引き画像データ73をメモリ52から読み出す。CPU50は、一例として図12に示すように、第1間引き画像データ73により示される画像をライブビュー画像77としてディスプレイ26に表示する。ライブビュー画像77は、本開示の技術に係る「表示用動画像」の一例である。
 撮像装置10が画像認識モードである場合、CPU50は、メモリ52から第1間引き画像データ73、位置情報76、及び画像認識情報78を読み出してディスプレイ26に出力する。これにより、一例として図13に示すように、第1間引き画像データ73により示されるライブビュー画像77(図12参照)に画像認識情報78が重畳された重畳画像79がディスプレイ26に表示される。なお、重畳画像79において、画像認識情報78が表示される位置は、位置情報76が示す座標に基づいて決定される。
 図13は、例えば、図9に示す画像認識領域75に対して、画像認識処理が行われたものである。画像認識処理結果として、画像認識情報78が吹き出しの形でライブビュー画像77に重畳されて表示されている。画像認識処理結果には、まず第1段階のカテゴリ認識結果である「車」が含まれ、さらに、第2段階のカテゴリ認識結果である車種、製造メーカ、型式、及び色が含まれる。なお、図13の例では1種類の画像認識情報78が表示されているが、1フレームの重畳画像79に表示される画像認識情報78の数は複数でも構わない。
 次に、本第1実施形態に係る撮像装置10の作用について図14及び図15を参照しながら説明する。図14には、撮像素子38によって実行される第1画像処理の流れの一例が示されている。図15には、後段回路13によって実行される第2画像処理の流れの一例が示されている。説明の便宜上、アナログ画像データ70、デジタル画像データ71、部分画像データ72、第1間引き画像データ73、及び第2間引き画像データ74を区別して説明する必要がない場合、単に「画像データ」と称する。
 図14に示す第1画像処理では、先ず、ステップS10で、制御回路119は、入力I/F113Aによって撮像タイミング信号が受け付けられたか否かを判定する。ステップS10において、入力I/F113Aによって撮像タイミング信号が受け付けられていない場合には、判定が否定されて、第1画像処理はステップS10を再度実行する。ステップS10において、入力I/F113Aによって撮像タイミング信号が受け付けられた場合には、判定が肯定されて、第1画像処理はステップS11へ移行する。
 ステップS11で、撮像処理が行われる。制御回路119が撮像タイミング信号に基づいて読出回路115及びデジタル処理回路116を制御することで、撮像素子38は撮像タイミング信号に基づいて第1フレームレートで被写体を撮像して、デジタル画像データ71を生成する。その後、第1画像処理はステップS12へ移行する。
 ステップS12で、デジタル処理回路116は、生成されたデジタル画像データ71をメモリ112に記憶する。その後、第1画像処理はステップS13へ移行する。
 ステップS13で、制御回路119はデジタル画像データ71をメモリ112から読み出して第1間引き回路118に出力する。第1間引き回路118は、第1間引き率に基づいて第1間引き処理を実行して、第1間引き画像データ73を生成する。その後、第1画像処理はステップS14へ移行する。
 ステップS14で、第1間引き回路118は、第1間引き画像データ73をメモリ112に記憶する。第1間引き回路118は、さらに、第1間引き画像データ73を位置情報取得回路120へ出力する。その後、第1画像処理はステップS15へ移行する。
 ステップS15で、制御回路119は、撮像装置10が画像認識モードか否かを判定する。ステップS15において、撮像装置10が画像認識モードではない場合、すなわち撮像装置10がライブビュー画像表示モードである場合には、判定が否定されて、第1画像処理はステップS20へ移行する。ステップS15において、撮像装置10が画像認識モードである場合には、判定が肯定されて、第1画像処理はステップS16へ移行する。
 ステップS16で、位置情報取得回路120は位置情報取得処理を行う。位置情報取得処理とは、デジタル画像データ71のうち、後段回路13で行われる画像認識処理の処理対象とされる画像認識領域75の位置情報を取得する処理である。位置情報取得処理では、第1間引き画像データ73に基づいて、画像認識領域75の位置情報76が取得される。その後、第1画像処理はステップS17へ移行する。
 ステップS17で、位置情報取得回路120は、取得された位置情報76をメモリ112に記憶する。位置情報取得回路120は、さらに、位置情報76を画像切出回路122へ出力する。その後、第1画像処理はステップS18へ移行する。
 ステップS18で、制御回路119はデジタル画像データ71をメモリ112から読み出して画像切出回路122に出力する。画像切出回路122は、位置情報取得回路120から入力された位置情報76に基づいて、デジタル画像データ71から部分画像データ72を切り出す画像切出処理を実行する。その後、第1画像処理はステップS19へ移行する。
 ステップS19で、画像切出回路122は、部分画像データ72をメモリ112に記憶する。その後、第1画像処理はステップS20へ移行する。
 ステップS20で、制御回路119は、メモリ112に記憶されたデータを出力する出力タイミングが到来したか否かを判定する。出力タイミングは、第1フレームレートとは独立した第2フレームレートに設定されている。出力タイミングが到来していない場合には、判定が否定されて、第1画像処理はステップS10へ移行する。ステップS20において、出力タイミングが到来した場合には、判定が肯定されて、第1画像処理はステップS21へ移行する。
 ステップS21で、制御回路119はメモリ112に記憶されたデータを読み出し、出力I/F113B及び入力I/F57Aを介して後段回路13へ出力する。撮像装置10がライブビュー画像表示モードである場合、制御回路119は第1間引き画像データ73をメモリ112から読み出して後段回路13へ出力する。これにより、ライブビュー画像がディスプレイ26に表示される。撮像装置10が画像認識モードである場合、制御回路119は第1間引き画像データ73、位置情報76、及び部分画像データ72をメモリ112から読み出して後段回路13へ出力する。これにより、ライブビュー画像に画像認識情報78が重畳した重畳画像がディスプレイ26に表示される。その後、第1画像処理はステップS22へ移行する。
 ステップS22で、制御回路119は、第1画像処理を終了する条件(以下、「第1画像処理終了条件」と称する)を満足したか否かを判定する。第1画像処理終了条件の一例としては、撮像モードを終了させる指示が受付デバイス84(図4参照)によって受け付けられた、との条件が挙げられる。ステップS22において、第1画像処理終了条件を満足していない場合は、判定が否定されて、第1画像処理はステップS10へ移行する。ステップS22において、第1画像処理終了条件を満足した場合は、判定が肯定されて、第1画像処理が終了する。
 次に、図15に示す第2画像処理では、先ず、ステップS30で、CPU50は、入力I/F57Aによって第1間引き画像データ73が受け付けられたか否かを判定する。ステップS30において、第1間引き画像データ73が受け付けられていない場合には、判定が否定されて、第2画像処理はステップS30を再度実行する。ステップS30において、第1間引き画像データ73が受け付けられた場合には、判定が肯定されて、第2画像処理はステップS31へ移行する。
 ステップS31で、CPU50は第1間引き画像データ73をメモリ52に記憶する。その後、第2画像処理はステップS32へ移行する。
 ステップS32で、CPU50は、入力I/F57Aによって位置情報76及び部分画像データ72が受け付けられたか否かを判定する。ステップS32において、位置情報76及び部分画像データ72が受け付けられていない場合には、判定が否定されて、第2画像処理はステップS37へ移行する。
 ステップS37で、CPU50は、メモリ52から第1間引き画像データ73を読み出して、第1間引き画像データ73により示される画像をライブビュー画像77としてディスプレイ26に表示する。その後、第2画像処理はステップS38へ移行する。
 一方、ステップS32において、位置情報76及び部分画像データ72が受け付けられた場合には、判定が肯定されて、第2画像処理はステップS33へ移行する。
 ステップS33で、CPU50は位置情報76及び部分画像データ72をメモリ52に記憶する。その後、第2画像処理はステップS34へ移行する。
 ステップS34で、CPU50は、ストレージ51からプログラム60を読み出してメモリ52で実行することにより、第2間引き処理部64として機能する。第2間引き処理部64は、部分画像データ72に対して第2間引き処理を行う。第2間引き処理とは、第2間引き率に基づき、部分画像データ72を間引いて第2間引き画像データ74を生成する処理である。第2間引き処理部64は、生成された第2間引き画像データ74をメモリ52に記憶する。その後、第2画像処理はステップS35へ移行する。
 ステップS35で、CPU50は、ストレージ51からプログラム60を読み出してメモリ52で実行することにより、画像認識処理部66として機能する。画像認識処理部66は、第2間引き画像データ74に対して、機械学習を用いた画像認識処理を施すことで、第2間引き画像に写っている被写体のカテゴリ認識を行う。画像認識処理部66は、画像認識処理による画像認識結果を、画像認識情報78としてメモリ52に記憶する。その後、第2画像処理はステップS36へ移行する。
 ステップS36で、CPU50は、メモリ52から第1間引き画像データ73、位置情報76、及び画像認識情報78を読み出す。CPU50は、第1間引き画像データ73により示されるライブビュー画像77に画像認識情報78を重ねた重畳画像79をディスプレイ26に表示する。その後、第2画像処理はステップS38へ移行する。
 ステップS38で、CPU50は、第2画像処理を終了する条件(以下、「第2画像処理終了条件」と称する)を満足したか否かを判定する。第2画像処理終了条件の一例としては、撮像モードを終了させる指示が受付デバイス84(図4参照)によって受け付けられた、との条件が挙げられる。ステップS38において、第2画像処理終了条件を満足していない場合は、判定が否定されて、第2画像処理はステップS30へ移行する。ステップS38において、第2画像処理終了条件を満足した場合は、判定が肯定されて、第2画像処理が終了する。
 なお、本第1実施形態では、第1間引き回路118はデジタル画像データ71を第1間引き率で間引いて第1間引き画像データ73を生成し、位置情報取得回路120は第1間引き画像データ73に基づいて位置情報76を取得した。また、第1間引き画像データ73が後段回路13に出力されて、CPU50は、第1間引き画像データ73により示される画像をライブビュー画像77としてディスプレイ26に表示したが、本開示の技術はこれに限らない。位置情報取得回路120は、第1間引き画像データ73の代わりに、デジタル画像データ71に基づいて位置情報76を取得してもよい。また、CPU50は、デジタル画像データ71により示される画像、又はデジタル画像データ71を後段回路13で間引いた間引き画像により示される画像をライブビュー画像77としてディスプレイ26に表示してもよい。この場合、処理回路110は、第1間引き回路118を備えなくてよいので、処理回路110を構成するLSIの大きさが小さくなり、回路設計が簡単になる。
 なお、本第1実施形態では、第2間引き処理部64は部分画像データ72を第2間引き率で間引いて第2間引き画像データ74を生成し、画像認識処理部66は第2間引き画像データ74に対して画像認識処理を行ったが、本開示の技術はこれに限らない。画像認識処理部66は、部分画像データ72に対して画像認識処理を行ってもよい。また、処理回路110はデジタル画像データ71と位置情報76とを後段回路13に出力し、画像認識処理部66は、位置情報76に基づき、デジタル画像データ71に対して画像認識処理を行ってもよい。この場合、画像認識処理部66は、間引き処理を施していない部分画像データ72又はデジタル画像データ71に対して画像認識処理を行うので、より精度の高い画像認識情報78を得ることができる。
 以上説明したように、本第1実施形態に係る撮像装置10は、撮像素子38と後段回路13とを備える。撮像素子38は、第1フレームレートで撮像されることで得られたデジタル画像データ71、部分画像データ72、及び/又は第1間引き画像データ73を記憶するメモリ52と、部分画像データ72及び/又は第1間引き画像データ73を第1フレームレートとは独立した第2フレームレートで出力する処理回路110とを内蔵する。後段回路13には、処理回路110から部分画像データ72及び/又は第1間引き画像データ73が入力される。処理回路110は、デジタル画像データ71又は第1間引き画像データ73のうちの画像認識処理の処理対象とされる画像認識領域75の位置を示す位置情報76を取得する。後段回路13は、位置情報76に基づいて、画像認識領域75に対して画像認識処理を行う。これにより、撮像素子38内で画像認識領域75に対する画像認識処理が行われる場合に比べ、撮像素子38の処理負荷が軽減される。なお、後段回路13には、処理回路110から部分画像データ72及び/又は第1間引き画像データ73が直接入力されることは必須ではなく、例えば中間に信号レベル変換回路や処理回路、又は異なる信号処理を行う信号処理回路や信号処理プロセッサを経由してもよい。
 位置情報76は、デジタル画像データ71又は第1間引き画像データ73内での画像認識領域75の位置を示す座標である。これにより、デジタル画像データ71又は第1間引き画像データ73内での画像認識領域75の位置を示す情報を用いない場合に比べ、デジタル画像データ71又は第1間引き画像データ73内での画像認識領域75の位置を容易に特定することができる。
 処理回路110は、第1間引き画像データ73のフレーム間の差分に基づいて、第1間引き画像データ73から画像認識領域75を検出し、検出結果に基づいて位置情報76を取得する。これにより、第1間引き画像データ73のフレーム間の差分を用いずに画像認識領域75を検出する場合に比べ、動体画像を画像認識領域75として容易に検出することができる。
 部分画像データ72は、画像認識領域75のみを含む。これにより、デジタル画像データ71を全部出力する場合に比べ、処理回路110から出力されるデータ量を少なくすることができる。
 処理回路110は、デジタル画像データ71を第1間引き率で間引いた第1間引き画像データ73と、部分画像データ72と、位置情報76とを第2フレームレートで出力する。これにより、デジタル画像データ71を間引かずに出力する場合に比べ、処理回路110から出力されるデータ量を少なくすることができる。
 位置情報76は、デジタル画像データ71を第1間引き率で間引いた第1間引き画像データ73に対する処理回路110による画像認識領域75の検出結果から得られた情報である。これにより、間引き無しの画像から位置情報76が得られる場合に比べ、位置情報76を得る処理にかかる負荷が軽減される。
 後段回路13は、第1間引き画像データ73により示される画像をディスプレイ26にライブビュー画像77として表示する。これにより、間引き無しの画像をライブビュー画像77としてディスプレイ26に表示する場合に比べ、低負荷でライブビュー画像77をディスプレイ26に表示することができる。
 後段回路13は、部分画像データ72又はデジタル画像データ71を第2間引き率で間引いた第2間引き画像データ74に対して画像認識処理を行う。これにより、間引き無しの画像に対して画像認識処理を行う場合に比べ、画像認識処理にかかる負荷が軽減される。
 第1間引き率と第2間引き率は異なる。これにより、第1間引き率と第2間引き率が同じである場合に比べ、位置情報76の容易な取得と画像認識処理の高精度化とを両立させることができる。
 第2間引き率は第1間引き率よりも低い。これにより、第1間引き率で間引かれた画像に対して画像認識処理を行う場合に比べ、画像認識処理を高精度に行うことができる。
 撮像素子38は、少なくとも光電変換素子42とメモリ112とが1チップ化された撮像素子である。これにより、1チップ化されていない場合に比べ、撮像装置の小型化に寄与することができる。
 撮像素子38は、光電変換素子42とメモリ112とが積層された積層型撮像素子である。これにより、光電変換素子42とメモリ112とが積層されていない場合に比べ、光電変換素子42からメモリ112へのデジタル画像データ71の転送速度を高めることができる。
 [第2実施形態]
 上記第1実施形態では、画像切出回路122は位置情報76に基づいてデジタル画像データ71を切り出すことで部分画像データ72を作成したが、本開示の技術はこれに限らない。
 一例として図16に示すように、第2実施形態による撮像装置10において、撮像素子38の処理回路110は、第1実施形態における画像切出回路122の代わりに、分割画像選択回路124を備えている。分割画像選択回路124によって行われる分割画像選択処理について以下に説明する。なお、撮像装置10のその他の構成及び処理は、第1実施形態による撮像装置10と同じであるので、同じ符号を付して、その詳細な説明を省略する。
 分割画像選択回路124は、分割画像選択処理を行う。分割画像選択処理とは、第1間引き画像データ73で示される画像を予め複数の部分に分割して複数の分割画像を用意しておき、画像認識領域75を含む分割画像を選択して、部分画像データ72を生成する処理である。
 一例として図17に示すように、第1間引き画像データ73によって示される画像270は、縦4列×横4行から成る16個の分割画像274に予め分割されている。分割画像選択回路124は、位置情報76に基づいて、画像認識領域75を含む分割画像274を選択する。図17の例では、分割画像選択回路124は、16個の分割画像274のうち、中央下部に存在する6個の分割画像274を部分画像272として選択する。分割画像選択回路124は、デジタル画像データ71から部分画像272を示す部分を抽出して、部分画像データ72を生成する。
 以上説明したように、本第2実施形態に係る撮像装置10は、分割画像選択回路124を備える。分割画像選択回路124は、位置情報76に基づいて、画像認識領域75を含む部分画像データ72を生成する。第2実施形態によれば、画像切出回路122が不要になるので、画像切出処理に比べて、簡単な処理で部分画像データ72を生成することができる。
 なお、本第2実施形態では画像270は16個の分割画像274に予め分割されていたが、画像270を分割する数は2以上であれば、16よりも多くても少なくてもよい。
 [第3実施形態]
 第3実施形態では、処理回路は、第1フレームレートで得られた複数フレーム分のデジタル画像データを合成して、1フレーム分の高画質な合成画像データを作成する合成回路を備える。
 一例として図18に示すように、第3実施形態による撮像装置10において、処理回路110は合成回路126を備える。合成回路126は、複数フレーム分のデジタル画像データ71を合成して1フレーム分の合成画像データ80を作成する合成処理を行う。合成画像データ80は、本開示の技術に係る「合成画像データ」の一例である。なお、撮像装置10のその他の構成及び処理は、第1実施形態による撮像装置10と同じであるので、同じ符号を付して、その詳細な説明を省略する。
 一例として図19に示すように、撮像素子38では、第1フレームレートでデジタル画像データ71が順次生成されてメモリ112に記憶される。また、デジタル画像データ71から生成された第1間引き画像データ73、位置情報76、及び部分画像データ72が、第2フレームレートで撮像素子38から出力される。例えば、第1フレームレートが240fpsであり、第2フレームレートが60fpsである場合、制御回路119は、連続して生成された4フレーム分のデジタル画像データ71を読み出し、合成回路126に出力する。合成回路126は入力された4フレーム分のデジタル画像データ71を合成することで、1フレーム分の高画質な合成画像データ80を作成する。合成回路126は、生成された合成画像データ80をメモリ112に記憶し、かつ第1間引き回路118及び画像切出回路122に出力する。
 第1間引き回路118は、入力された合成画像データ80に対して第1間引き処理を行うことで、第1間引き画像データ73を生成する。第1間引き処理の詳細は、第1実施形態と同じであるのでその説明を省略する。第1間引き回路118は、作成された第1間引き画像データ73をメモリ112に記憶し、かつ位置情報取得回路120に出力する。
 位置情報取得回路120は、入力された第1間引き画像データ73に対して、位置情報取得処理を行う。位置情報取得処理は、合成画像データ80により示される画像に対して画像認識領域75を検出して、検出された画像認識領域75の位置を示す位置情報76を生成する処理である。位置情報取得処理の詳細は、第1実施形態と同じであるのでその説明を省略する。位置情報取得回路120は、生成された位置情報76をメモリ112に記憶し、かつ画像切出回路122に出力する。位置情報取得回路120は、デジタル画像データ71よりもノイズが少なく高画質な合成画像データ80から作成された第1間引き画像データ73を使って位置情報取得処理を行う。このため、第1実施形態による第1間引き画像データ73に基づいて検出された位置情報76に比べて、高精度な位置情報76が検出される。
 画像切出回路122は、入力された位置情報76に基づいて、合成画像データ80を切り出す画像切出処理を行うことで、部分画像データ72を生成する。画像切出回路122は、デジタル画像データ71よりも高画質な合成画像データ80を使って画像切出処理を行う。このため、第1実施形態によるデジタル画像データ71から生成された部分画像データ72よりも、高画質な部分画像データ72が生成される。
 さらに、高画質な部分画像データ72は後段回路13に出力され、後段回路13は、部分画像データ72に対して画像認識処理を行う。このため、第1実施形態による部分画像データ72に対する画像認識結果よりも、精度が高い画像認識結果が得られる。
 以上説明したように、本第3実施形態に係る撮像装置10では、合成回路126は、第1フレームレートで得られた4フレーム分のデジタル画像データ71を合成することによって1フレーム分の合成画像データ80を作成する。位置情報76は、合成画像データ80により示される画像に対する、位置情報取得回路120による画像認識領域75の検出結果から得られた情報である。これにより、非合成画像データから位置情報を得る場合に比べ、位置情報を精度良く得ることができる。
 なお、本第3実施形態では、合成回路126は、4フレーム分のデジタル画像データ71から1フレーム分の合成画像データ80を作成したが、本開示の技術はこれに限らない。1フレーム分の合成画像データを作成するのに使用されるデジタル画像データのフレーム数は、複数であればいくつでもよい。また、後段回路13の処理速度に応じて、1フレーム分の合成画像データを作成するのに使用されるデジタル画像データのフレーム数を決めてもよい。
 [第4実施形態]
 上記各実施形態では、処理回路110は、予め定められた第2フレームレートで第1間引き画像データ73、位置情報76、及び部分画像データ72を後段回路13へ出力したが、本開示の技術はこれに限らない。本第4実施形態では、処理回路110は、後段回路13の処理速度に応じて定められる第3フレームレートで、第1間引き画像データ73、位置情報76、及び部分画像データ72を後段回路13へ出力する。
 一例として図20に示すように、第4実施形態による撮像装置は、第1実施形態による撮像装置10と同一の構成を有するので、第1実施形態と同一の符号を付しその説明を省略する。第4実施形態に係る撮像装置10では、CPU50は、通信制御信号を入力I/F57A及び出力I/F113Bを介して処理回路110に出力する。通信制御信号は、処理回路110から出力される第1間引き画像データ73、位置情報76、及び部分画像データ72のフレームレートを指定するための信号であり、後段回路13の処理速度に応じて定められる。
 処理回路110は、通信制御信号を受け付けて、第1間引き画像データ73、部分画像データ72、及び位置情報76を第3フレームレートで出力する。第3フレームレートは、上記各実施例で説明した第2フレームレートとは異なるフレームレートである。なお、上記各実施例で説明したように、部分画像データ72は、画像認識領域75の位置を示す位置情報76に基づいてデジタル画像データ71から切り出されたデータである。すなわち、部分画像データ72は、デジタル画像データ71のうちの一部であり、画像認識領域75を含む。
 第3フレームレートは、後段回路13の処理速度に応じて定められるフレームレートである。具体的な第3フレームレートの一例としては、30fpsが挙げられるが、これに限らず、30fpsを超えるフレームレート(例えば、60fps)であってもよいし、30fps未満のフレームレート(例えば、15fps)であってもよい。
 処理回路110は、第1間引き画像データ73を第2フレームレートで出力し、部分画像データ72及び位置情報76を第3フレームレートで出力してもよい。すなわち、第1間引き画像データ73はライブビュー画像の表示に使用されるデータであるので、ライブビュー画像の表示フレームレートで出力される。一方、部分画像データ72及び位置情報76は、後段回路13での画像認識処理に使用されるデータであるので、後段回路13の処理速度に応じたフレームレートで出力される。
 以上説明したように、本第4実施形態に係る撮像装置10では、処理回路110は、デジタル画像データ71のうちの一部である部分画像データ72と、位置情報76とを第2フレームレートとは異なる第3フレームレートで出力する。部分画像データ72により示される画像は画像認識領域75を含み、第3フレームレートは、後段回路13の処理速度に応じて定められる。これにより、後段回路13の処理速度に応じたフレームレートで部分画像データ72と位置情報76を出力するので、部分画像データ72と位置情報76が常に第2フレームレートで出力される場合に比べ、部分画像データ72及び位置情報76の無駄な出力を減らすことができる。
 なお、上記各実施形態では、第1間引き画像データ73から検出される画像認識領域75は1つで、デジタル画像データ71から作成された部分画像データ72は1種類であったが、本開示の技術はこれに限定されない。2つ以上の画像認識領域75が検出されて、2種類以上の部分画像データ72が作成されてもよい。
 上記各実施形態では、位置情報取得回路120は、フレーム間差分法を用いて、画像認識領域75を検出したが、本開示の技術はこれに限定されない。位置情報取得回路120は、例えば、画像データにおけるコントラストに基づいて画像認識領域75を検出してもよい。また、位置情報取得回路120は、例えば、パターンマッチングによって画像認識領域75を検出してもよい。パターンマッチングとは、特定のパターンを予め被写体のパターンとして与えておき、画像データの中に特定のパターンが含まれているか否かを検出する方法である。コントラスト、又はパターンマッチングが使われる場合、被写体は動体でなくてもよい。
 また、上記各実施形態では、画像認識処理部66は、機械学習を用いて画像認識処理を行ったが、本開示の技術はこれに限定されない。画像認識処理部66は、例えば、パターンマッチングによって画像認識処理を行ってもよい。
 また、上記各実施形態による撮像装置10では、撮像素子38として、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子が採用されている。これにより、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、撮像装置10の可搬性が高くなる。また、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、設計の自由度も高めることができる。更に、光電変換素子42、処理回路110、及びメモリ112が1チップ化されていない撮像素子に比べ、撮像装置10の小型化にも寄与することができる。
 また、上記各実施形態による撮像装置10では、撮像素子38として、光電変換素子42にメモリ112が積層された積層型撮像素子が採用されている。これにより、光電変換素子42とメモリ112とが積層されていない場合に比べ、光電変換素子42からメモリ112への画像データの転送速度を高めることができる。転送速度の向上は、処理回路全体での処理の高速化にも寄与する。また、光電変換素子42とメモリ112とが積層されていない場合に比べ、設計の自由度も高めることができる。更に、光電変換素子42とメモリ112とが積層されていない場合に比べ、撮像装置10の小型化にも寄与することができる。
 また、上述した撮像装置では、撮像素子として、光電変換素子42、処理回路110、及びメモリ112が1チップ化された撮像素子38が例示されているが、本開示の技術はこれに限定されない。例えば、光電変換素子42、処理回路110、及びメモリ112のうち、少なくとも光電変換素子42及びメモリ112が1チップ化されていればよい。
 また、上記各実施形態では、レンズ交換式の撮像装置10を例示したが、本開示の技術はこれに限定されない。例えば、スマートデバイスに、上記各実施形態で説明した撮像素子38及び後段回路13が搭載されていてもよい。スマートデバイスの一例としては、撮像機能付きの電子機器であるスマートフォン又はタブレット端末等が挙げられる。
 また、上記各実施形態では、UI系デバイス17が撮像装置本体12に組み込まれている形態例を挙げて説明したが、UI系デバイス17に含まれる複数の構成要素の少なくとも一部が撮像装置本体12に対して外付けされていてもよい。また、UI系デバイス17に含まれる複数の構成要素のうちの少なくとも一部が別体として外部I/F104に接続されることによって使用されるようにしてもよい。
 また、上記実施形態において、第1フレームレート及び第2フレームレートは固定のフレームレートであってもよいし、可変のフレームレートであってもよい。可変のフレームレートの場合、例えば、既定条件(例えば、フレームレートを変更する指示が受付デバイス84によって受け付けられたとの条件、及び/又はフレームレートを変更するタイミングとして事前に定められたタイミングが到来したとの条件)を満足した場合にフレームレートが変更されるようにしてもよい。可変のフレームレートの場合、フレームレートの具体的な数値は、例えば、受付デバイス84によって受け付けられた指示に従って変更されるようにしてもよいし、後段回路13及び/又は撮像素子38の稼働率に従って変更されるようにしてもよい。
 また、上記各実施形態では、ストレージ51にプログラム60を記憶させておき、CPU50は、メモリ52上で実行するプログラム60に従って撮像装置10の全体を制御したが、本開示の技術はこれに限定されない。一例として図21に示すように、通信網(図示省略)を介して撮像装置10に接続される他のコンピュータ又はサーバ装置等のストレージ300(例えば、不揮発性の記憶装置)にプログラム60を記憶させておき、撮像装置10の要求に応じてプログラム60がダウンロードされ、撮像装置10にインストールされるようにしてもよい。
 なお、ストレージ300にプログラム60の全てを記憶させておく必要はなく、プログラム60の一部を記憶させておいてもよい。
 図3に示す例では、CPU50は、単数のCPUであるが、複数のCPUであってもよい。また、CPU50に代えてGPUを適用してもよい。
 また、上記各実施形態では、処理回路110がASIC及びFPGAを含むデバイスによって実現される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、処理回路110に含まれる複数のデバイスのうちの少なくとも制御回路119はコンピュータによるソフトウェア構成により実現されるようにしてもよい。
 上記各実施形態で説明した第2画像処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムを実行することで、第2画像処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで第2画像処理を実行する。
 第2画像処理を実行するハードウェア資源は、各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。
 1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、第2画像処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、第2画像処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、第2画像処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
 また、上記の各種処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、図1に示す例では、撮像装置10を例示したが、本開示の技術はこれに限定されない。すなわち、上記各実施形態で説明した撮像装置本体12に相当する構成及び機能を有する撮像装置が内蔵された各種の電子機器(例えば、レンズ固定式カメラ、パーソナル・コンピュータ、又はウェアラブル端末装置等)に対しても本開示の技術は適用可能であり、これらの電子機器であっても、撮像装置10と同様の作用及び効果が得られる。
 また、上記各実施形態では、ディスプレイ26を例示したが、本開示の技術はこれに限定されない。例えば、撮像装置に対して後付けされた別体のディスプレイを用いるようにしてもよい。
 [第5実施形態]
 第5実施形態として、本開示の技術に係る撮像装置を適用した撮像システムについて説明する。
 一例として図22に示すように、撮像システム500は、例えば監視カメラとして使用される。撮像システム500は、複数の撮像装置502と、ホストコンピュータ504とを備える。撮像装置502は、上記第1実施形態から第4実施形態のうちの何れか1つの実施形態に記載された撮像装置本体12を有する。各々の撮像装置502は、撮像されることで得られた画像データを記憶するメモリと、画像データを出力するプロセッサとを有する。
 プロセッサは、画像データから、画像認識領域の位置を示す位置情報を取得する。画像認識領域とは、ホストコンピュータ504で行われる画像認識処理の処理対象とされる領域である。画像認識処理については上記第1実施形態で説明したので、その説明を省略する。プロセッサは、画像データと、取得された位置情報とをホストコンピュータ504に出力する。
 ホストコンピュータ504は、各撮像装置から画像データと位置情報を受け付ける。ホストコンピュータ504は、位置情報に基づいて、画像データの画像認識領域に対して画像認識処理を行う。
 以上説明したように、本第5実施形態に係る撮像システム500では、撮像されることで得られた画像データを記憶するメモリと、画像データを出力するプロセッサとを各々有する複数の撮像装置502と、プロセッサから画像データが入力されるホストコンピュータ504とを備える。プロセッサは、画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得する。ホストコンピュータ504は、位置情報に基づいて、画像認識領域に対して画像認識処理を行う。これにより、ホストコンピュータ504が位置情報に基づいて画像認識処理を行わない場合に比べ、画像認識処理にかかる処理負荷を軽減し、処理速度を速くすることができる。
 上記各実施形態では、撮像素子38に設けられた処理回路110に含まれる入出力I/F113と後段回路13のコントローラ15に含まれる入力I/F57A及び出力I/F57Bとの間がPCIeの接続規格に従って接続されているが、本開示の技術はこれに限定されない。PCIeの接続規格に代えて、高速通信規格としてLVDS、SATA、SLVS-EC、又はMIPI等の他の接続規格が採用されてもよい。また、撮像素子38に設けられた処理回路110に含まれる入出力I/F113と信号処理回路34に含まれる入出力I/F(図示省略)との間も同様に、PCIe、LVDS、SATA、SLVS-EC、又はMIPI等の高速通信規格を用いて接続されている。
 上記各実施形態では、外部I/F104としてUSBインタフェースが採用されているが、本開示の技術はこれに限定されない。例えば、HDMI等の他の種類のハードウェアインタフェース、及び/又は、Wi-Fi(登録商標)等の無線インタフェースを採用してもよい。
 上記各実施形態では、撮像素子38と後段回路13との間の通信、及び撮像装置502とホストコンピュータ504との通信は何れも有線形式の通信である。しかし、本開示の技術はこれに限定されない。撮像素子38と後段回路13との間の通信、及び撮像装置502とホストコンピュータ504との通信を無線形式の通信としてもよい。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (18)

  1.  第1フレームレートで撮像されることで得られた画像データを記憶するメモリと、前記画像データを前記第1フレームレートとは独立した第2フレームレートで出力する第1プロセッサと、を内蔵する撮像素子と、
     前記第1プロセッサから出力される前記画像データが入力される第2プロセッサと、を備え、
     前記第1プロセッサは、前記画像データのうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、
     前記第2プロセッサは、前記位置情報に基づいて、前記画像認識領域に対して前記画像認識処理を行う
     撮像装置。
  2.  前記位置情報は、前記画像データ内での前記画像認識領域の位置を示す座標である請求項1に記載の撮像装置。
  3.  前記第1プロセッサは、前記画像データのフレーム間の差分に基づいて、前記画像データから前記画像認識領域を検出し、検出結果に基づいて前記位置情報を取得する請求項1又は請求項2に記載の撮像装置。
  4.  前記第1プロセッサは、前記画像データのうちの一部である部分画像データと、前記位置情報とを前記第2フレームレートで出力し、
     前記部分画像データは、前記画像認識領域を含む請求項1から請求項3の何れか一項に記載の撮像装置。
  5.  前記部分画像データは、前記画像認識領域のみを含む請求項4に記載の撮像装置。
  6.  前記第1プロセッサは、前記画像データを間引いた間引き画像データと、前記部分画像データと、前記位置情報とを前記第2フレームレートで出力する請求項4又は請求項5に記載の撮像装置。
  7.  前記位置情報は、前記画像データを第1間引き率で間引いた第1間引き画像データに対する前記第1プロセッサによる前記画像認識領域の検出結果から得られた情報である請求項1から請求項6の何れか一項に記載の撮像装置。
  8.  前記第2プロセッサは、前記第1間引き画像データにより示される画像をディスプレイに表示用動画像として表示する請求項7に記載の撮像装置。
  9.  前記第2プロセッサは、前記画像データ又は前記部分画像データを第2間引き率で間引いた第2間引き画像データに対して前記画像認識処理を行う請求項4から請求項6の何れか一項に記載の撮像装置。
  10.  前記画像データを間引く第1間引き率と前記第2間引き率が異なる請求項9に記載の撮像装置。
  11.  前記第2間引き率は前記第1間引き率よりも低い請求項10に記載の撮像装置。
  12.  前記第1プロセッサは、前記画像データのうちの一部である部分画像データと、前記位置情報とを前記第2フレームレートとは異なる第3フレームレートで出力し、
     前記部分画像データにより示される画像は、前記画像認識領域を含み、
     前記第3フレームレートは、前記第2プロセッサの処理速度に応じて定められる請求項1又は請求項2に記載の撮像装置。
  13.  前記第1プロセッサは、前記第1フレームレートで得られた複数フレーム分の画像データを合成することによって1フレーム分の合成画像データを作成し、
     前記位置情報は、前記合成画像データにより示される画像に対する前記第1プロセッサによる前記画像認識領域の検出結果から得られた情報である請求項1又は請求項2に記載の撮像装置。
  14.  前記撮像素子は、少なくとも光電変換素子と前記メモリとが1チップ化された撮像素子である請求項1から請求項13の何れか一項に記載の撮像装置。
  15.  前記撮像素子は、前記光電変換素子と前記メモリとが積層された積層型撮像素子である請求項14に記載の撮像装置。
  16.  第1フレームレートで撮像領域を撮像する光電変換素子と、前記光電変換素子によって撮像されることで得られた画像データを記憶するメモリと、前記画像データを前記第1フレームレート以下の第2フレームレートで出力する第1プロセッサと、を有し、前記第1プロセッサ及び前記メモリが内蔵された撮像素子と、前記撮像素子の後段に設けられ、前記第1プロセッサから出力される前記画像データが入力される第2プロセッサと、を含む撮像装置の作動方法であって、
     前記第1プロセッサは、前記画像データにより示される画像のうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、
     前記第2プロセッサは、前記位置情報に基づいて、前記画像認識領域に対して前記画像認識処理を行うことを含む、
     撮像装置の作動方法。
  17.  第1フレームレートで撮像領域を撮像する光電変換素子と、前記光電変換素子によって撮像されることで得られた画像データを記憶するメモリと、前記画像データを前記第1フレームレート以下の第2フレームレートで出力する第1プロセッサと、を有し、前記第1プロセッサ及び前記メモリが内蔵された撮像素子と、前記撮像素子の後段に設けられ、前記第1プロセッサから出力される前記画像データが入力される第2プロセッサと、を含む撮像装置に適用されるコンピュータに
     前記第1プロセッサは、前記画像データにより示される画像のうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、
     前記第2プロセッサは、前記位置情報に基づいて、前記画像認識領域に対して前記画像認識処理を行うことを含む処理を実行させるためのプログラム。
  18.  複数の撮像装置であって、撮像領域を撮像する光電変換素子と、前記光電変換素子によって撮像されることで得られた画像データを記憶するメモリと、前記画像データを出力するプロセッサと、を各々有する複数の撮像装置と、
     前記複数の撮像装置の各々の後段に設けられ、前記プロセッサから前記画像データが入力されるホストコンピュータと、を含み、
     前記プロセッサは、前記画像データにより示される画像のうちの画像認識処理の処理対象とされる画像認識領域の位置を示す位置情報を取得し、
     前記ホストコンピュータは、前記位置情報に基づいて、前記画像認識領域に対して前記画像認識処理を行う、
     撮像システム。
PCT/JP2020/044751 2019-12-19 2020-12-01 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム WO2021124873A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021565439A JP7354290B2 (ja) 2019-12-19 2020-12-01 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム
CN202080086746.2A CN114830626A (zh) 2019-12-19 2020-12-01 摄像装置、摄像装置的工作方法、程序及摄像系统
US17/805,232 US20220294983A1 (en) 2019-12-19 2022-06-03 Imaging apparatus, operation method of imaging apparatus, program, and imaging system
JP2023147517A JP2023169254A (ja) 2019-12-19 2023-09-12 撮像素子、撮像素子の作動方法、プログラム、及び撮像システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-229629 2019-12-19
JP2019229629 2019-12-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/805,232 Continuation US20220294983A1 (en) 2019-12-19 2022-06-03 Imaging apparatus, operation method of imaging apparatus, program, and imaging system

Publications (1)

Publication Number Publication Date
WO2021124873A1 true WO2021124873A1 (ja) 2021-06-24

Family

ID=76478699

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044751 WO2021124873A1 (ja) 2019-12-19 2020-12-01 撮像装置、撮像装置の作動方法、プログラム、及び撮像システム

Country Status (4)

Country Link
US (1) US20220294983A1 (ja)
JP (2) JP7354290B2 (ja)
CN (1) CN114830626A (ja)
WO (1) WO2021124873A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021029152A1 (ja) * 2019-08-14 2021-02-18 富士フイルム株式会社 撮像装置、撮像装置の作動方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002553A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理システムおよびその制御方法
JP2015156054A (ja) * 2014-02-19 2015-08-27 キヤノン株式会社 画像処理装置およびその制御方法
JP2018107759A (ja) * 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278481A (ja) * 2007-09-25 2010-12-09 Panasonic Corp データ処理装置
JP6314477B2 (ja) * 2013-12-26 2018-04-25 ソニー株式会社 電子デバイス
CN106791856A (zh) * 2016-12-28 2017-05-31 天津天地伟业生产力促进有限公司 一种基于自适应感兴趣区域的视频编码方法
JP2018198406A (ja) * 2017-05-24 2018-12-13 ルネサスエレクトロニクス株式会社 監視カメラシステムおよび画像処理装置
US10776665B2 (en) * 2018-04-26 2020-09-15 Qualcomm Incorporated Systems and methods for object detection
WO2020027229A1 (ja) * 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015002553A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理システムおよびその制御方法
JP2015156054A (ja) * 2014-02-19 2015-08-27 キヤノン株式会社 画像処理装置およびその制御方法
JP2018107759A (ja) * 2016-12-28 2018-07-05 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム

Also Published As

Publication number Publication date
JP7354290B2 (ja) 2023-10-02
JP2023169254A (ja) 2023-11-29
CN114830626A (zh) 2022-07-29
US20220294983A1 (en) 2022-09-15
JPWO2021124873A1 (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
US20120127346A1 (en) Imaging apparatus, imaging method and computer program
CN103139473A (zh) 消除快门迟滞的方法、照相机模块和具有其的移动设备
US10095941B2 (en) Vision recognition apparatus and method
CN111464754B (zh) 用于生成hdr图像的成像系统及其操作方法
JP2023169254A (ja) 撮像素子、撮像素子の作動方法、プログラム、及び撮像システム
JP2023145575A (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
US20240031706A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
US20240080410A1 (en) Imaging apparatus, image data processing method of imaging apparatus, and program
US20230283916A1 (en) Imaging apparatus, operation method of imaging apparatus, and program
US11689816B2 (en) Imaging apparatus, operation method of imaging apparatus, and program
US11910115B2 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
US20220385814A1 (en) Method for generating plurality of content items and electronic device therefor
CN112514370B (zh) 图像处理装置、摄像装置、图像处理方法及记录介质
CN112640430A (zh) 成像元件、摄像装置、图像数据处理方法及程序
JP6539788B2 (ja) 撮像装置、静止画撮像方法、及び、静止画撮像プログラム
US20220141420A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
US11711595B2 (en) Imaging apparatus, image data processing method of imaging apparatus, and program
US11729506B2 (en) Imaging element with processor configured to receive vibration information, imaging apparatus, operation method of imaging element, and program
JP6915166B2 (ja) 撮像素子、撮像装置、画像データ処理方法、及びプログラム
WO2020066186A1 (ja) 撮像素子、撮像装置、画像データ出力方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20903203

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565439

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20903203

Country of ref document: EP

Kind code of ref document: A1