WO2016052438A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2016052438A1
WO2016052438A1 PCT/JP2015/077385 JP2015077385W WO2016052438A1 WO 2016052438 A1 WO2016052438 A1 WO 2016052438A1 JP 2015077385 W JP2015077385 W JP 2015077385W WO 2016052438 A1 WO2016052438 A1 WO 2016052438A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
unit
area
data
image
Prior art date
Application number
PCT/JP2015/077385
Other languages
English (en)
French (fr)
Inventor
成倫 藤尾
清 安夛
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to EP15847259.7A priority Critical patent/EP3203723A4/en
Priority to CN201580064773.9A priority patent/CN107005636A/zh
Priority to US15/509,937 priority patent/US20170310887A1/en
Publication of WO2016052438A1 publication Critical patent/WO2016052438A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Definitions

  • the present invention relates to an electronic device.
  • an electronic device including an imaging element (hereinafter referred to as a laminated imaging element) in which a backside illumination imaging chip and a signal processing chip are stacked (see Patent Document 1).
  • the multilayer imaging element is laminated so that the back-illuminated imaging chip and the signal processing chip are connected to each other through micro bumps.
  • the electronic device has a plurality of imaging areas, and the imaging condition data for each imaging area of the imaging unit having different imaging conditions for each imaging area, and the position of the imaging area
  • An input unit that inputs information data
  • a recording control unit that records the imaging condition data of the imaging region and the positional information data of the imaging region input from the input unit in a recording unit.
  • the position information data of the imaging region is data of the position information of the imaging region in the imaging unit.
  • the input unit inputs image data generated by an imaging unit having different imaging conditions for each imaging region, and the recording control It is preferable that the unit records the image data input from the input unit in the recording unit.
  • the recording control unit records image data representing the position of the imaging region in the recording unit as position information data of the imaging region. Is preferred.
  • the input unit uses the first imaging region among the plurality of imaging regions as a first imaging condition as the image data.
  • the first imaging area is set as the second imaging condition in the plurality of imaging areas and the image data generated by the imaging unit and the imaging condition data of the imaging area are set as the first imaging condition.
  • the imaging condition data, the second imaging condition data, and the positional information data of the second imaging area are input as the positional information data of the imaging area, and the recording control unit receives the image data as the image data.
  • the data of the first imaging condition, the data of the second imaging condition, and the data of the position information of the second imaging area as data of the position information of the imaging area are recorded in the recording unit. It is preferable to do.
  • the recording control unit uses the image data representing the position of the second imaging area as the position information data of the second imaging area. It is preferable to record in the recording unit.
  • the recording control unit includes the image data, the first imaging condition data, the second imaging condition data, and the imaging unit. It is preferable to record one file having image data representing the position of the second imaging region in the recording unit.
  • the one image file is an image file in a multi-picture format.
  • the recording control unit records the first file having the image data and the data of the first imaging condition in the recording unit, It is preferable to record a second file having data on the second imaging condition and image data representing a position of the second imaging area in the recording unit.
  • the recording control unit records the first file and the second file in association with each other in the recording unit.
  • the imaging condition is at least one of an exposure time, an amplification factor, and a frame rate of the imaging unit. It is preferable.
  • FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus according to the first embodiment.
  • FIG. 2A is a plan view schematically showing the imaging surface of the imaging device
  • FIG. 2B is an enlarged plan view of a partial region of the imaging surface.
  • FIG. 3 is a schematic diagram showing a state in which the subject image is displayed on the liquid crystal monitor.
  • FIG. 4A is a diagram showing divided areas
  • FIG. 4B is a table showing an example of imaging conditions for each area.
  • FIG. 5 is a diagram in which the boundary lines of the regions are displayed superimposed on the subject image.
  • FIG. 6 is a mask image for a building area.
  • FIG. 7 is a mask image for a mountain area.
  • FIG. 8 is a mask image for the background region.
  • FIG. 6 is a mask image for a building area.
  • FIG. 7 is a mask image for a mountain area.
  • FIG. 8 is a mask image for the background region.
  • FIG. 9 is a diagram showing the basic structure of the multi-picture format.
  • FIG. 10 is a diagram conceptually illustrating one image file generated by the recording control unit in accordance with the multi-picture format.
  • FIG. 11 is a flowchart of a process for generating one image file conforming to the multi-picture format and recording it on a memory card.
  • FIG. 12 is a block diagram illustrating a configuration of the imaging apparatus according to the second embodiment.
  • FIG. 13 is a diagram illustrating a modification.
  • FIG. 14 is a cross-sectional view of a multilayer image sensor.
  • FIG. 15 is a diagram illustrating a pixel array and a block of the imaging chip.
  • FIG. 16 is a circuit diagram corresponding to the unit of the imaging chip.
  • FIG. 17 is a block diagram illustrating a functional configuration of the image sensor.
  • FIG. 14 is a cross-sectional view of the multilayer image sensor 22.
  • the imaging element 22 includes a backside illumination type imaging chip 2113 that outputs a pixel signal corresponding to incident light, a signal processing chip 2111 that processes the pixel signal, and a memory chip 2112 that stores the pixel signal.
  • These imaging chip 2113, signal processing chip 2111 and memory chip 2112 are stacked and electrically connected to each other by a conductive bump 2109 such as Cu.
  • incident light is incident mainly in the positive direction of the Z axis indicated by the white arrow.
  • a surface on the side where incident light enters is referred to as a back surface.
  • the left direction of the paper orthogonal to the Z axis is the X axis plus direction
  • the front side of the paper orthogonal to the Z axis and the X axis is the Y axis plus direction.
  • the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes in FIG.
  • the imaging chip 2113 is a back-illuminated MOS image sensor.
  • the PD layer 2106 is disposed on the back side of the wiring layer 2108.
  • the PD layer 2106 includes a plurality of PDs (photodiodes) 2104 that are two-dimensionally arranged and accumulate charges corresponding to incident light, and transistors 2105 that are provided corresponding to the PDs 2104.
  • a color filter 2102 is provided on the incident light incident side of the PD layer 2106 via a passivation film 2103.
  • the color filter 2102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 2104. The arrangement of the color filter 2102 will be described later.
  • a set of the color filter 2102, the PD 2104, and the transistor 2105 forms one pixel.
  • the incident side of incident light in the color filter 2102 is provided with a microlens 2101 corresponding to each pixel.
  • the micro lens 2101 condenses incident light toward the corresponding PD 2104.
  • the wiring layer 2108 includes a wiring 2107 that transmits a pixel signal from the PD layer 2106 to the signal processing chip 2111.
  • the wiring 2107 may be a multilayer, and a passive element and an active element may be provided.
  • a plurality of bumps 2109 are arranged on the surface of the wiring layer 2108.
  • the plurality of bumps 2109 are aligned with the plurality of bumps 2109 provided on the opposing surfaces of the signal processing chip 2111, and the imaging chip 2113 and the signal processing chip 2111 are aligned by being pressed or the like.
  • the bumps 2109 are joined and electrically connected.
  • a plurality of bumps 2109 are arranged on the mutually opposing surfaces of the signal processing chip 2111 and the memory chip 2112. These bumps 2109 are aligned with each other, and the signal processing chip 2111 and the memory chip 2112 are pressurized, so that the aligned bumps 2109 are joined and electrically connected.
  • the bonding between the bumps 2109 is not limited to Cu bump bonding by solid phase diffusion, but micro bump bonding by solder melting may be employed. Further, for example, about one bump 2109 may be provided for one block described later. Therefore, the size of the bump 2109 may be larger than the pitch of the PD 2104. Further, a bump larger than the bump 2109 corresponding to the pixel region may be provided in a peripheral region other than the pixel region where the pixels are arranged.
  • the signal processing chip 2111 has TSVs (through silicon electrodes) 2110 that connect circuits provided on the front and back surfaces to each other.
  • the TSV 2110 is preferably provided in the peripheral region.
  • the TSV 2110 may also be provided in the peripheral area of the imaging chip 2113 and the memory chip 2112.
  • FIG. 15 is a diagram for explaining the pixel arrangement of the imaging chip 113.
  • a state in which the imaging chip 2113 is observed from the back side is shown.
  • the pixel area for example, 8 million or more pixels are arranged in a matrix.
  • one block 2131 is formed by four pixels of adjacent 2 pixels ⁇ 2 pixels.
  • one unit group 32 is formed by 4 blocks of adjacent 2 blocks ⁇ 2 blocks.
  • the grid lines in the figure indicate the concept of forming adjacent blocks together to form a block 2131 and a unit group 32.
  • the number of pixels forming the block 2131 and the number of blocks 2131 forming the unit group 32 are not limited to the above example, and may be more or less.
  • the block 2131 includes four so-called Bayer arrays, which are composed of four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R, vertically and horizontally.
  • the green pixel is a pixel having a green filter as the color filter 2102 and receives light in the green wavelength band of incident light.
  • the blue pixel is a pixel having a blue filter as the color filter 2102 and receives light in the blue wavelength band
  • the red pixel is a pixel having a red filter as the color filter 2102 and receiving light in the red wavelength band. Receive light.
  • each block 2131 includes at least one Gb, Gr, B, and R pixels.
  • Each block 2131 can control the four pixels in the block 2131 with control parameters determined for each block 2131. That is, a pixel group included in one block 2131 and another block 2131.
  • the imaging signals having different imaging conditions can be acquired from the pixel group included in the.
  • the control parameters are a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which pixel signals are added, the charge accumulation time or accumulation count, the number of digitization bits, and the like.
  • the control parameter may be a parameter in image processing after obtaining an image signal from a pixel.
  • FIG. 16 is a circuit diagram corresponding to one unit group 32 in the imaging chip 2113.
  • a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel.
  • a rectangle surrounded by an alternate long and short dash line corresponds to one block 2131. Note that at least some of the transistors described below correspond to the transistor 2105 in FIG.
  • the unit group 32 is formed of four blocks 2131.
  • the reset transistors 2303 of the pixels included in the unit group 32 are turned on / off on a block 2131 basis.
  • the transfer transistors 2302 of the pixels included in the unit group 32 are also turned on / off in units of the block 2131.
  • the reset wiring 2300-1 for turning on / off the four reset transistors 2303 corresponding to the upper left block 2131-1 is provided, and the four transfer transistors corresponding to the block 2131-1 are provided.
  • a TX wiring 2307-1 for supplying a transfer pulse to 2302 is also provided.
  • a reset wiring 2300-3 for turning on / off the four reset transistors 2303 corresponding to the lower left block 2131-3 is provided separately from the reset wiring 2300-1.
  • a TX wiring 2307-3 for supplying a transfer pulse to the four transfer transistors 2302 corresponding to the block 2131-3 is provided separately from the TX wiring 2307-1.
  • a reset wiring 2300-2 and a TX wiring 2307-2, and a reset wiring 2300-4 and a TX wiring 2307-4 are provided in each block 2131, respectively. It has been.
  • the 16 PDs 2104 corresponding to each pixel are connected to corresponding transfer transistors 2302, respectively.
  • a transfer pulse is supplied to the gate of each transfer transistor 2302 via the TX wiring for each block 2131.
  • the drain of each transfer transistor 2302 is connected to the source of the corresponding reset transistor 2303, and a so-called floating diffusion FD between the drain of the transfer transistor 2302 and the source of the reset transistor 2303 is connected to the gate of the corresponding amplification transistor 2304.
  • each reset transistor 2303 is commonly connected to a Vdd wiring 2310 to which a power supply voltage is supplied. A reset pulse is supplied to the gate of each reset transistor 2303 through the reset wiring for each block 2131.
  • the drains of the amplification transistors 2304 are commonly connected to a Vdd wiring 2310 to which a power supply voltage is supplied.
  • the source of each amplification transistor 2304 is connected to the drain of the corresponding selection transistor 2305.
  • the gate of each selection transistor 2305 is connected to a decoder wiring 2308 to which a selection pulse is supplied.
  • the decoder wiring 2308 is provided independently for each of the 16 selection transistors 2305.
  • the source of each selection transistor 2305 is connected to a common output wiring 2309.
  • the load current source 2311 supplies current to the output wiring 2309. That is, the output wiring 2309 for the selection transistor 2305 is formed by a source follower. Note that the load current source 2311 may be provided on the imaging chip 2113 side or may be provided on the signal processing chip 2111 side.
  • Each PD 2104 converts received light into electric charge and stores it when the application of the transfer pulse is released. Thereafter, when the transfer pulse is applied again without the reset pulse being applied, the accumulated charge is transferred to the floating diffusion FD, and the potential of the floating diffusion FD changes from the reset potential to the signal potential after the charge accumulation. .
  • a selection pulse is applied to the selection transistor 2305 through the decoder wiring 2308, a change in the signal potential of the floating diffusion FD is transmitted to the output wiring 2309 through the amplification transistor 2304 and the selection transistor 2305. Accordingly, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 2309.
  • the reset wiring and the TX wiring are common to the four pixels forming the block 2131. That is, the reset pulse and the transfer pulse are simultaneously applied to the four pixels in the block 2131, respectively. Accordingly, all the pixels forming a certain block 2131 start charge accumulation at the same timing and end charge accumulation at the same timing. However, pixel signals corresponding to accumulated charges are selectively output from the output wiring 2309 by sequentially applying selection pulses to the selection transistors 2305.
  • the charge accumulation start timing can be controlled for each block 2131. In other words, it is possible to capture images at different timings between different blocks 2131.
  • FIG. 17 is a block diagram showing a functional configuration of the image sensor 22.
  • the analog multiplexer 2411 sequentially selects the 16 PDs 2104 forming the unit group 32 and outputs each pixel signal to the output wiring 2309 provided corresponding to the unit group 32.
  • the multiplexer 2411 is formed in the imaging chip 2113 together with the PD 2104.
  • the pixel signal output via the multiplexer 2411 is converted into CDS and A / D by a signal processing circuit 2412 that performs correlated double sampling (CDS) / analog / digital (A / D) conversion, which is formed in the signal processing chip 2111. D conversion is performed.
  • the A / D converted pixel signal is transferred to the demultiplexer 2413 and stored in the pixel memory 2414 corresponding to each pixel.
  • the demultiplexer 2413 and the pixel memory 2414 are formed in the memory chip 2112.
  • the arithmetic circuit 2415 processes the pixel signal stored in the pixel memory 2414 and passes it to the subsequent image processing unit.
  • the arithmetic circuit 2415 may be provided in the signal processing chip 2111, or may be provided in the memory chip 2112. Note that FIG. 17 shows connections for one unit group 32, but actually these exist for each unit group 32 and operate in parallel. However, the arithmetic circuit 2415 may not exist for each unit group 32. For example, one arithmetic circuit 2415 may perform sequential processing while sequentially referring to the values of the pixel memory 2414 corresponding to each unit group 32. Good.
  • the output wiring 2309 is provided corresponding to each of the unit groups 32. Since the image pickup element 22 has an image pickup chip 2113, a signal processing chip 2111 and a memory chip 2112 stacked, by using electrical connection between the chips using bumps 2109 for these output wirings 2309, each chip is arranged in the plane direction. Wiring can be routed without increasing the size.
  • FIG. 1 is a block diagram showing a configuration of a recording apparatus according to an embodiment of the present invention.
  • an imaging apparatus 10 will be described as an example of a recording apparatus.
  • the imaging apparatus 10 includes an imaging optical system 21, an imaging element 22, a control unit 23, a liquid crystal monitor 24, a memory card 25, an operation unit 26, a DRAM 27, and a flash memory 28.
  • the imaging optical system 21 is composed of a plurality of lenses, and forms a subject image on the imaging surface of the imaging element 22.
  • the imaging optical system 21 is illustrated as a single lens.
  • the image pickup unit that is, the image pickup element 22 is an image pickup element such as a CMOS or a CCD, for example, picks up a subject image formed by the image pickup optical system 21 and outputs an image pickup signal.
  • the imaging element 22 has an imaging surface 30 on which a plurality of imaging pixels are arranged.
  • the control unit 23 is an electronic circuit that controls each unit of the imaging apparatus 10 and includes a CPU and its peripheral circuits. A predetermined control program is written in advance in the flash memory 28 which is a nonvolatile recording medium. The control unit 23 controls each unit by reading and executing a control program from the flash memory 28. This control program uses the DRAM 27, which is a volatile recording medium, as a work area.
  • the liquid crystal monitor 24 as a display unit is a display device using a liquid crystal panel.
  • the control unit 23 causes the image sensor 22 to repeatedly capture a subject image every predetermined cycle (for example, 1/60 second).
  • the control unit 23 performs various image processing on the imaging signal output from the imaging element 22 to generate a subject image, a so-called through image, and displays it on the liquid crystal monitor 24.
  • a setting screen for setting imaging conditions is displayed on the liquid crystal monitor 24.
  • FIG. 2A is a plan view schematically showing the imaging surface 30 of the imaging element 22, and FIG. 2B is a plan view in which a partial region 30a of the imaging surface 30 is enlarged.
  • a large number of imaging pixels 31 are arranged in a two-dimensional manner on the imaging surface 30.
  • Each of the imaging pixels 31 has a color filter (not shown).
  • FIG. 2B on the imaging surface 30 of the imaging element 22, imaging pixels 31 having such color filters are arranged according to a so-called Bayer array.
  • the imaging pixel 31 having a red filter photoelectrically converts light in the red wavelength band out of incident light and outputs a light reception signal (photoelectric conversion signal).
  • the imaging pixel 31 having a green filter photoelectrically converts light in the green wavelength band out of incident light and outputs a light reception signal.
  • the imaging pixel 31 having a blue filter photoelectrically converts light in the blue wavelength band out of incident light and outputs a light reception signal.
  • the image sensor 22 of the present embodiment is configured to be individually controllable for each unit group 32 composed of a total of four image pickup pixels 31 of adjacent 2 pixels ⁇ 2 pixels. For example, when charge accumulation is started for two different unit groups 32 at the same time, one unit group 32 performs charge readout after 1/30 seconds from the start of charge accumulation, that is, a light reception signal, and the other unit group 32 In the group 32, the charge can be read after 1/15 seconds from the start of the charge accumulation.
  • the imaging element 22 can set different exposure times (so-called shutter speeds) for each unit group 32 in one imaging.
  • the image sensor 22 can change the amplification factor (so-called ISO sensitivity) of the received light signal for each unit group 32 in addition to the exposure time described above.
  • the timing for starting charge accumulation and the timing for reading the received light signal can be changed for each unit group 32. That is, the frame rate at the time of moving image capturing can be changed for each unit group 32.
  • the imaging control unit 23e illustrated in FIG. 1 controls imaging conditions such as an exposure time, an amplification factor, and a frame rate for each unit group 32.
  • the image pickup device 22 is configured to be able to vary the image pickup conditions such as the exposure time, the amplification factor, and the frame rate for each unit group 32.
  • the control unit 23 performs various image processing based on the imaging signal output from the imaging element 22 to generate captured image data.
  • the control unit 23 generates an image file in which the captured image data and the shooting condition information are combined into one file, and records the image file in a memory card 25 that is a removable recording medium.
  • the operation unit 26 has various operation members such as push buttons, and outputs an operation signal to the control unit 23 in response to the operation members being operated.
  • the liquid crystal monitor 24 is a touch panel display device, the liquid crystal monitor 24 may constitute a part of the operation unit 26.
  • the control unit 23 performs display control for displaying the subject image captured by the image sensor 22 on the liquid crystal monitor 24.
  • the control unit 23 includes a luminance distribution detection unit 23a, an area division unit 23b, an imaging condition setting unit 23c, a recording control unit 23d, an imaging control unit 23e, and a luminance value map generation unit 23f. Each of these units is realized by software by the control unit 23 executing a predetermined control program stored in the flash memory 28. Each of these units can be configured as an electronic circuit.
  • the luminance distribution detection unit 23a detects the luminance distribution based on each imaging pixel of the imaging element 22 that has captured the subject image.
  • the luminance value map generation unit 23f generates a luminance value map that represents the luminance distribution in a two-dimensional manner based on the luminance distribution.
  • the region dividing unit 23b is an approximate luminance value region in which substantially the same luminance value or approximate luminance values are continuous on the luminance value map, that is, By detecting an approximate luminance value region in which luminance values within a predetermined narrow luminance value range are continuous, the luminance value map or the subject image is divided into a plurality of regions.
  • a frame representing a region on the subject image segmented by the region segmenting unit 23b is superimposed on the subject image and displayed. Note that the area dividing unit 23b divides the area on the subject image is nothing but the identification of the imaging area on the imaging surface of the imaging element 22, that is, the partitioning.
  • the imaging condition setting unit 23c sets imaging conditions such as an exposure time, an amplification factor, and a frame rate of the imaging element 22. As will be described later, the imaging condition setting unit 23c sets the imaging condition for each area segmented by the area segmenting unit 23b.
  • the recording control unit 23d uses the image data captured under the imaging conditions set for each area divided by the area classification unit 23b and the imaging conditions for each area as one image file. 10 is recorded on a memory card 25 which is a removable recording medium.
  • the imaging control unit 23e controls each of a plurality of imaging regions each including at least one imaging pixel of the imaging element 22 independently of each other. That is, as described above, the imaging control unit 23e controls imaging conditions such as an exposure time, an amplification factor, and a frame rate for each unit group 32 of the imaging element 22. Note that the function of the imaging control unit 23e may be provided in the imaging element 22.
  • the imaging apparatus 10 configured as described above is configured so that the imaging conditions can be automatically set for each area segmented by the area segmenting unit 23b. Details will be described below.
  • FIG. 3 is a schematic diagram showing a state in which the subject image 110 is displayed on the liquid crystal monitor 24.
  • a person 101 at a close distance, a building 102 at a close distance, a distant mountain 103, and a background 104 including a distant sun 104a exist in the image capturing range of the image capturing apparatus 10.
  • the person 101 and the building 102 are backlit.
  • the subject image 110 has the same imaging condition (exposure time, amplification) for all the unit groups 32, that is, the entire imaging surface 30, based on the exposure condition based on the photometric value of the subject brightness or the exposure condition manually set by the user. (Rate, frame rate).
  • the luminance distribution detector 23a detects the luminance distribution of the subject image 110.
  • the luminance value map generation unit 23f generates a luminance value map that represents the detected luminance distribution in a two-dimensional manner.
  • the luminance value map is a map in which the brightness for each imaging pixel (luminance value, that is, Bv value representing the luminance of the subject light incident on each imaging pixel) is two-dimensionally arranged in accordance with the arrangement of the imaging pixels.
  • the brightness value map is the brightness for each unit group 32 (in the case where the unit group 32 is composed of one imaging pixel, the brightness value detected by the imaging pixel, and the unit group 32 is composed of a plurality of imaging pixels. In such a case, the map may be a two-dimensional array of Bv values representing the average value of the luminance values detected by the plurality of imaging pixels in accordance with the arrangement of the unit groups 32.
  • the area sorting unit 23b detects the approximate brightness value area that is continuous with the approximate brightness based on the brightness value map generated by the brightness value map generation unit 23f, thereby converting the brightness value map or the subject image into a plurality of areas. Break down. From the subject image 110 shown in FIG. 3, for example, as shown in FIG. 4A, the area classification unit 23 b includes an area 121 of the person 101, an area 122 of the building 102, an area 123 of the mountain 103, and a background. The subject image 110 is divided into 104 areas 124.
  • control unit 23 When the region segmentation by the region segmentation unit 23b is performed, the control unit 23 superimposes the boundary lines 131 to 133 indicated by dotted lines on the subject image 110 displayed on the liquid crystal monitor 24 as shown in FIG. To display it explicitly.
  • the imaging condition setting unit 23c sets the shutter speed and ISO sensitivity, which are imaging conditions, based on the luminance value map generated by the luminance value map generation unit 23f for each of the region classifications 121 to 124 by the region classification unit 23b.
  • the shutter speed is set to 1/125 seconds and the ISO sensitivity is set to 400 as the imaging condition of the area 121 of the person 101.
  • the shutter speed is set to 1/125 seconds, and the ISO sensitivity is set to 400.
  • the shutter speed is set to 1/1000 second, and the ISO sensitivity is set to 100.
  • the shutter speed is set to 1/3000 seconds, and the ISO sensitivity is set to 100.
  • the imaging condition setting unit 23c sets an image processing effect for each of the regions 121 to 124 in the present embodiment. As shown in FIG. 4B, the imaging condition setting unit 23c sets “standard” for the area 121 of the person 101 and the area 122 of the building 102 as the image processing effect, and sets the area 123 of the mountain 103 and the background 104. “Landscape” is set for the area 124. Note that the setting of the image processing effect for each of the regions 121 to 124 is performed by, for example, the person 101, the building 102, the mountain 103, and the like detected by the phase difference focus detection device (not shown) included in the imaging device 10, respectively.
  • the imaging condition setting unit 23 c may set an image processing effect of “skin-beautifying” on the face of a person detected by a face recognition device (not shown) included in the imaging device 10.
  • the control unit 23 determines a main area (main area) from the subject image 110. For example, when the face recognition device (not shown) detects a human face from the subject image 110, the control unit 23 sets the area 121 of the person 101 including the detected human face as the main area. In addition, when the focus detection device performs focus detection on a specific subject among the plurality of subject images 101 to 104 of the subject image 110 and performs focus adjustment based on the focus detection, the region of the specific subject is set as a main region. You may decide. Furthermore, when the subject image is divided into a plurality of regions 121 to 124, the control unit 23 sets a region having the largest area or a relatively large region, for example, the region 123 or 124 in FIG. 4 as the main region. May be. An area other than the main area is called a sub area.
  • the user can change the setting value of an arbitrary setting item in an arbitrary area for the imaging condition of each area automatically set by the imaging condition setting unit 23c. That is, for example, as shown in FIG. 5, when it is detected that any region divided by the boundary lines 131 to 133 is selected by the user from the subject image 110 displayed on the liquid crystal monitor 24, the control unit 23 displays a setting change screen for changing the setting of the imaging condition relating to the selected area on the liquid crystal monitor 24. The user can change any imaging condition from the setting change screen.
  • the control unit 23 sets the imaging conditions and images set by the imaging condition setting unit 23c for each of the plurality of areas. An imaging process is instructed under an image processing condition that determines a processing effect, and a captured image file is generated.
  • the image capturing data, information on the division of each area, information on the image capturing condition of each area, and information on the image processing condition of each area are stored in the recording control unit 23d. Entered. Of these pieces of information, information relating to the division of each region may be output from the region division unit 23b and input to the recording control unit 23d. It may be output from the condition setting unit 23c and input to the recording control unit 23d.
  • the recording control unit 23d generates an image file as follows. First, when the control unit 23 sets the area 121 of the person 101 including the face as the main area, the recording control unit 23d uses the mask image as area information (area image) indicating which area of the subject image the sub area is. Is generated. That is, the recording control unit 23d has a mask image 141 having a masking area 141a corresponding to the area 122 of the building 102 as shown in FIG. 6, and a masking area corresponding to the area 123 of the mountain 103 as shown in FIG. A mask image 142 having 142a and a mask image 143 having a masking region 143a corresponding to the region 124 of the background 104 as shown in FIG. 8 are generated. The recording control unit 23d generates mask image data from the mask image.
  • FIG. 9 is a diagram showing a basic structure of a multi-picture format (hereinafter referred to as MP format).
  • the MP format 200 is a format for recording information of a plurality of image data in one image file, and recording areas 210, 220, 230, 240,... For image data information are provided in order from the top. Yes.
  • the image data information includes captured image data, mask image data, and information on imaging conditions of each region.
  • the recording areas 210, 220, 230, 240,... For image data information and the recording areas 211, 221, 231, 241,. Regions 212, 222, 232, 242, and so on.
  • the first image data (image data (1)) is also referred to as first image data.
  • FIG. 10 is a diagram conceptually illustrating one image file generated by the recording control unit 23d in accordance with the multi-picture format.
  • the recording control unit 23d records the captured image data generated by the imaging process in the recording area 212 of the image data in the recording area 210 for the information of the head image data.
  • the information of the imaging conditions for the area 121 of the person 101 (“shutter speed 1/125 seconds”, “ISO sensitivity 400”, “image processing effect standard”) is recorded in the recording area 211 of the header.
  • the recording control unit 23d records the mask image data of the mask image 141 for the region 122 of the building 102 in the recording region 222 of the second image data (image data (2)) from the top.
  • the recording control unit 23d displays the imaging condition information (“shutter speed 1/125 seconds”, “ISO sensitivity 400”, “image processing effect standard”) for the area 122 of the building 102 which is the sub area from the top.
  • the imaging condition information (“shutter speed 1/125 seconds”, “ISO sensitivity 400”, “image processing effect standard”) for the area 122 of the building 102 which is the sub area from the top.
  • recording is performed in the recording area 221 of the header.
  • the recording control unit 23d records the mask image data of the mask image 142 for the region 123 of the mountain 103, for example, in the recording region 232 of the third image data (image data (3)) from the beginning, and records the header.
  • information on imaging conditions (“shutter speed 1/1000 seconds”, “ISO sensitivity 100”, “image processing effect landscape”) for the area 123 of the mountain 103 which is the sub area is recorded.
  • the recording control unit 23d adds, for example, an area 124 of the background 104 to the recording area 242 of the fourth image data (image data (4)) from the top.
  • the mask image data of the mask image 143 is recorded, and information on the imaging conditions for the area 124 of the background 104 that is the sub area (“shutter speed 1/3000 sec”, “ISO sensitivity 100”) is recorded in the recording area 241 of the header. , “Image processing effect landscape”).
  • the image data to be recorded in the image data recording areas 212, 222, 232, 242,... May be image data compressed in a predetermined format, for example, or may be RAW format image data.
  • the recording control unit 23d records one image file generated as described above on the memory card 25 which is a detachable recording medium.
  • editing or processing that takes into consideration the imaging conditions of each region can be performed by so-called photo retouching software. That is, for example, in consideration of the imaging conditions of each region, editing can be performed so that the reproduced image is closer to the appearance.
  • correction can be performed in consideration of the imaging conditions of each region. That is, for example, since noise increases in a region with high ISO sensitivity, it is possible to perform correction for reducing noise in a region with high ISO sensitivity.
  • captured image data compressed in a predetermined format is recorded in the recording area 212.
  • RAW-format captured image data may be recorded in the recording area 212.
  • development can be performed under different conditions for each area in consideration of the imaging conditions of each area.
  • FIG. 11 is a flowchart of processing for generating one image file and recording it in the memory card 25 described above.
  • the program whose processing is shown in FIG. 11 is started and executed by the control unit 23.
  • the imaging control unit 23 e captures the imaging pixels so that the charge accumulation time and the amplification factor of the imaging pixels 31 of the imaging device 22 become the same values determined based on, for example, the luminance of the subject luminance for all the unit groups 32. 31, and the subject image 110 based on the imaging signal from the imaging pixel 31 controlled in this way is displayed on the liquid crystal monitor 24.
  • step S3 the luminance distribution detector 23a detects the luminance distribution of the subject image 110. Then, the luminance value map generation unit 23f generates a luminance value map that represents the luminance distribution two-dimensionally.
  • step S5 the area dividing unit 23b divides the subject image 110 shown in FIG. 4 into a plurality of areas 121 to 124 based on the luminance value map generated by the luminance value map generating unit 23f.
  • step S7 the control unit 23 displays the boundary lines 131 to 133 of the regions 121 to 124 divided by the region dividing unit 23b in a superimposed manner on the subject image 110 as shown in FIG.
  • step S9 the imaging condition setting unit 23c sets the imaging conditions of the respective regions 121 to 124 based on the luminance value map generated by the luminance value map generating unit 23f for each of the region divisions 121 to 124 by the region dividing unit 23b.
  • the control unit 23 determines the person 101 as the main area from the subject image 110.
  • the control unit 23 accepts a change in the setting value of an arbitrary setting item in an arbitrary region by the user's operation for the imaging condition of each region automatically set by the imaging condition setting unit 23 c.
  • step S15 the control unit 23 determines whether there is an imaging instruction from the user, that is, whether a release button of the operation unit 26 or a button for instructing imaging processing is operated. If a positive determination is made in step S15, the process proceeds to step S17. If a negative determination is made in step S15, the process returns to step S15.
  • step S ⁇ b> 17 the control unit 23 performs an imaging process with respect to each of the plurality of areas under the imaging condition and the image processing condition set by the imaging condition setting unit 23 c.
  • step S19 the recording control unit 23d generates mask images 141 to 143 for the sub-regions as shown in FIGS.
  • step S21 the recording control unit 23d generates, as described above, one image file that stores captured image data, mask image data of a mask image, and information on imaging conditions of each region.
  • step S23 the recording control unit 23d records one image file obtained as described above on the memory card 25 which is a detachable recording medium.
  • step S25 the control unit 23 determines whether or not to continue the imaging process. For example, the control unit 23 determines whether the power of the imaging device 10 is turned off. If it is determined in step S25 that imaging is to be continued, the process returns to step S1, and if it is determined that imaging is to be terminated, this program is terminated.
  • a first imaging area for example, the area 121) among the plurality of imaging areas is controlled based on a first imaging condition (for example, an imaging condition for the area 121), and is different from the first imaging area.
  • the imaging region (for example, the region 122) is configured to be controlled and imaged based on the second imaging condition (for example, the imaging condition for the region 122). And it comprised so that the captured image data imaged in this way and the information regarding 1st imaging conditions might be linked
  • the configuration is such that the area information (for example, the mask image 141 for the area 122) representing the imaging area controlled under the second imaging condition and the information regarding the second imaging condition are recorded in association with each other.
  • one image file in a multi-picture format is generated that stores captured image data, mask image data of a mask image, and information on imaging conditions of each area. Configured. Thereby, even if it is the captured image data from which imaging conditions differ for every imaging area, captured image data and imaging conditions can be preserve
  • the memory card 25 that is a recording medium on which an image file is recorded in this manner, the above-described image file can be read by various devices, and the use range of the image file is widened.
  • the recording control unit 23d is configured to generate a mask image for the sub-region based on the information regarding the division of each region. As a result, area information indicating which area of the subject image is the sub area can be recorded as image data, so that the data structure of the image file becomes simple.
  • the captured image data is recorded in the image data recording area 212 in the recording area 210 for the head image information, and the imaging condition information for the main area is recorded in the header recording area 211. Configured. Further, the mask image data of the mask image for an arbitrary sub-region is recorded in the recording region of the captured image data in the recording region for the information of the second and subsequent image data from the top of the data. The imaging condition information for the sub area is recorded in the header recording area in the recording area for the image data information. Thereby, the data structure of the image file becomes rational.
  • Second Embodiment A second embodiment of the recording apparatus according to the present invention will be described.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment.
  • This embodiment is different from the first embodiment mainly in that the user can divide the subject image into a plurality of regions.
  • FIG. 12 is a block diagram illustrating a configuration of the imaging apparatus 10A according to the second embodiment.
  • the imaging apparatus 10A of the second embodiment is different from the imaging apparatus 10 of the first embodiment in that it further includes a locus detection unit 23g. About others, it is the same as the imaging device 10 of 1st Embodiment.
  • the trajectory detection unit 23g detects the movement trajectory of a finger when the user traces the outline of a desired subject portion on the subject image of the liquid crystal monitor 24 with a finger or the like.
  • the region segmenting unit 23b segments the subject image into a plurality of regions as in the case of FIG.
  • the imaging condition setting unit 23 sets imaging conditions for each region based on the luminance distribution as a detection result of the luminance distribution detection unit 23a and the plurality of regions divided by the region dividing unit 23b. Specifically, the imaging condition setting unit 23c sets the imaging condition based on the average luminance value of the luminance distribution in the area divided by the area dividing unit 23b.
  • the imaging condition setting unit 23c manually operates the imaging conditions for each area segmented by the area segmenting unit 23b, instead of setting the imaging condition based on the average luminance value of the luminance distribution in the area segmented by the area segmenting unit 23b. You may set by. For example, every time the user touches each area, an imaging condition setting screen for the touched area may be displayed on the monitor 24, and the imaging condition setting screen may be touched to set the imaging conditions. Other functions and operations are the same as those in the first embodiment.
  • the subject image is configured to be divided into a plurality of regions based on the trajectory detected by the trajectory detection unit 23g.
  • the subject image can be divided into a plurality of regions as intended by the user, so that the imaging condition intended by the user can be set for each region, and a subject image having the image quality intended by the user can be easily obtained.
  • the mask image is generated for each sub-region, but the present invention is not limited to this.
  • the recording control unit 23d displays one mask image indicating which region of the subject image the plurality of sub-regions is. May be generated. Further, when attention is paid to any one of the setting items of the imaging condition, and there are a plurality of sub areas having the same setting value of the setting item, the recording control unit 23d determines which of the subject images is the plurality of sub areas. One mask image indicating whether the region is an area may be generated.
  • one image in a multi-picture format format that stores captured image data, mask image data of a mask image, and information on imaging conditions of each area.
  • the present invention is not limited to this.
  • the file format is other than the known multi-picture format
  • one image file that stores captured image data, mask image data of a mask image, and information on imaging conditions of each region is generated.
  • other file formats may be used. That is, as long as image data of a plurality of areas related to one subject image can be recorded in one image file together with information (attachment information) of imaging conditions of the image data of the plurality of areas, a known multi-picture is known.
  • a file format other than the format may be used.
  • one image in a multi-picture format format that stores captured image data, mask image data of a mask image, and information on imaging conditions of each area.
  • the present invention is not limited to this. For example, even when the subject image and the mask image are recorded in different image files, the subject image and the mask image need only be recorded in association with each other.
  • the image data of the subject image and the imaging condition information for the main area are associated with each other to form one block, and for each of the other areas (sub areas), information for specifying the area and the imaging for each sub area If the condition information is associated with one block and the plurality of blocks are associated and recorded, the subject image and the mask image may be recorded in different image files.
  • the imaging device 10 may be a lens-integrated camera, or an interchangeable lens camera in which an interchangeable lens can be attached to and detached from the camera body.
  • a tablet-type information terminal device or a smartphone Such an information terminal device, a camera-equipped PC or a camera-equipped game machine may be used.
  • the imaging device 10 has been described as including the imaging function, that is, the imaging optical system 21 and the imaging element 22, but the present invention is not limited to this.
  • a recording apparatus 10B configured to be able to transmit and receive imaging signals and various control signals by wire or wirelessly with an external apparatus 10A having an imaging element similar to the imaging element 22 described above. May be.
  • a function related to imaging is provided to the external device 10A, and the other functions are provided to the recording device 10B.
  • the main region is set from the subject image in the through image 110 before the main imaging, the present invention is not limited to this.
  • the main region may be set from the subject image obtained by the main imaging after the main imaging is completed.
  • the minimum unit of the area section is not particularly mentioned.
  • the minimum unit of the area section may be one unit group 32, for example, one pixel. (9) You may combine each embodiment and modification which were mentioned above, respectively.
  • the programs according to the above-described embodiments can be supplied as various computer-readable computer program products such as a recording medium and a data signal (carrier wave).
  • the above-described program can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

 電子機器は、複数の撮像領域を有し、前記撮像領域ごとに撮像条件が異なる撮像部の前記撮像領域ごとの撮像条件のデータと、前記撮像領域の位置情報のデータとを入力する入力部と、前記入力部から入力された前記撮像領域の撮像条件のデータと前記撮像領域の位置情報のデータとを記録部に記録する記録制御部とを備える。

Description

電子機器
 本発明は、電子機器に関する。
 裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、積層型撮像素子という)を備えた電子機器が提案されている(特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、所定の領域ごとにマイクロバンプを介して接続されるように積層されている。
日本国特開2006-49361号公報
 従来の積層型撮像素子を備えた電子機器において、1または2以上の上記領域を有する撮像領域に画像を分けて、該撮像領域ごとに撮像画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分とはいえなかった。
 本発明の第1の態様によると、電子機器は、複数の撮像領域を有し、前記撮像領域ごとに撮像条件が異なる撮像部の前記撮像領域ごとの撮像条件のデータと、前記撮像領域の位置情報のデータとを入力する入力部と、前記入力部から入力された前記撮像領域の撮像条件のデータと前記撮像領域の位置情報のデータとを記録部に記録する記録制御部とを備える。
 本発明の第2の態様では、第1の態様の電子機器において、前記撮像領域の位置情報のデータは、前記撮像部における前記撮像領域の位置情報のデータであることが好ましい。
 本発明の第3の態様では、第1または第2の態様の電子機器において、前記入力部は、前記撮像領域ごとに撮像条件が異なる撮像部により生成された画像データを入力し、前記記録制御部は、前記入力部から入力された前記画像データを前記記録部に記録することが好ましい。
 本発明の第4の態様では、第3の態様の電子機器において、前記記録制御部は、前記撮像領域の位置情報のデータとして前記撮像領域の位置を表す画像データを前記記録部に記録することが好ましい。
 本発明の第5の態様では、第3または第4の態様の電子機器において、前記入力部は、前記画像データとして、前記複数の撮像領域のうち第1の撮像領域が第1の撮像条件に設定され、前記複数の撮像領域のうち第2の撮像領域が第2の撮像条件に設定されて前記撮像部で生成された画像データと、前記撮像領域の撮像条件のデータとして、前記第1の撮像条件のデータと前記第2の撮像条件のデータと、前記撮像領域の位置情報のデータとして前記第2の撮像領域の位置情報のデータとを入力し、前記記録制御部は、前記画像データとして、前記入力部から入力された、前記第1の撮像領域が第1の撮像条件に設定され、前記第2の撮像領域が第2の撮像条件に設定されて前記撮像部で生成された画像データと、前記撮像領域の撮像条件のデータとして、前記第1の撮像条件のデータと前記第2の撮像条件のデータと、前記撮像領域の位置情報のデータとして前記第2の撮像領域の位置情報のデータとを前記記録部に記録することが好ましい。
 本発明の第6の態様では、第5の態様の電子機器において、前記記録制御部は、前記第2の撮像領域の位置情報のデータとして前記第2の撮像領域の位置を表す画像データを前記記録部に記録することが好ましい。
 本発明の第7の態様では、第6の態様の電子機器において、前記記録制御部は、前記画像データと前記第1の撮像条件のデータと前記第2の撮像条件のデータと前記撮像部における前記第2の撮像領域の位置を表す画像データとを有する一つのファイルを前記記録部に記録することが好ましい。
 本発明の第8の態様では、第7の態様の電子機器において、前記一つの画像ファイルは、マルチピクチャーフォーマット形式の画像ファイルである。
 本発明の第9の態様では、第7の態様の電子機器において、前記記録制御部は、前記画像データと前記第1の撮像条件のデータとを有する第1ファイルを前記記録部に記録し、前記第2の撮像条件のデータと前記第2の撮像領域の位置を表す画像データとを有する第2ファイルを前記記録部に記録することが好ましい。
 本発明の第10の態様では、第9の態様の電子機器において、前記記録制御部は、前記第1ファイルと前記第2ファイルとを関連付けて前記記録部に記録することが好ましい。
 本発明の第11の態様では、第1から第10のいずれか一つの態様の電子機器において、前記撮像条件は、前記撮像部の露光時間、増幅率、フレームレートのうちの少なくとも1つであることが好ましい。
図1は、第1の実施の形態の撮像装置の構成を示すブロック図である。 図2(a)は、撮像素子の撮像面を模式的に示す平面図であり、図2(b)は、撮像面の一部領域を拡大した平面図である。 図3は、被写体画像が液晶モニタに表示された状態を示す模式的な図である。 図4(a)は、区分された領域を示す図であり、図4(b)は、領域毎の撮像条件の一例を示す表である。 図5は、被写体画像に領域の境界線を重畳的に表示した図である。 図6は、建物の領域についてのマスク画像である。 図7は、山の領域についてのマスク画像である。 図8は、背景の領域についてのマスク画像である。 図9は、マルチピクチャーフォーマットの基本構造を示す図である。 図10は、マルチピクチャーフォーマットに則って、記録制御部が生成した1つの画像ファイルを概念的に例示する図である。 図11は、マルチピクチャーフォーマットに則った1つの画像ファイルを生成してメモリカードに記録させる処理についてのフローチャートである。 図12は、第2の実施の形態の撮像装置の構成を示すブロック図である。 図13は、変形例を示す図である。 図14は、積層型撮像素子の断面図である。 図15は、撮像チップの画素配列とブロックを説明する図である。 図16は、撮像チップのユニットに対応する回路図である。 図17は、撮像素子の機能的構成を示すブロック図である。
 初めに、本発明の一実施の形態による電子機器(例えば撮像装置10)に搭載する積層型撮像素子22について説明する。なお、この積層型撮像素子22は、本願出願人が先に出願した特願2012-139026号に記載されているものである。図14は、積層型撮像素子22の断面図である。撮像素子22は、入射光に対応した画素信号を出力する裏面照射型撮像チップ2113と、画素信号を処理する信号処理チップ2111と、画素信号を記憶するメモリチップ2112とを備える。これら撮像チップ2113、信号処理チップ2111およびメモリチップ2112は積層されており、Cu等の導電性を有するバンプ2109により互いに電気的に接続される。
 なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ2113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図14の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。
 撮像チップ2113の一例は、裏面照射型のMOSイメージセンサである。PD層2106は、配線層2108の裏面側に配されている。PD層2106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)2104、および、PD2104に対応して設けられたトランジスタ2105を有する。
 PD層2106における入射光の入射側にはパッシベーション膜2103を介してカラーフィルタ2102が設けられる。カラーフィルタ2102は、互いに異なる波長領域を透過する複数の種類を有しており、PD2104のそれぞれに対応して特定の配列を有している。カラーフィルタ2102の配列については後述する。カラーフィルタ2102、PD2104およびトランジスタ2105の組が、一つの画素を形成する。
 カラーフィルタ2102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ2101が設けられる。マイクロレンズ2101は、対応するPD2104へ向けて入射光を集光する。
 配線層2108は、PD層2106からの画素信号を信号処理チップ2111に伝送する配線2107を有する。配線2107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。
 配線層2108の表面には複数のバンプ2109が配される。当該複数のバンプ2109が信号処理チップ2111の対向する面に設けられた複数のバンプ2109と位置合わせされて、撮像チップ2113と信号処理チップ2111とが加圧等されることにより、位置合わせされたバンプ2109同士が接合されて、電気的に接続される。
 同様に、信号処理チップ2111およびメモリチップ2112の互いに対向する面には、複数のバンプ2109が配される。これらのバンプ2109が互いに位置合わせされて、信号処理チップ2111とメモリチップ2112とが加圧等されることにより、位置合わせされたバンプ2109同士が接合されて、電気的に接続される。
 なお、バンプ2109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ2109は、例えば後述する一つのブロックに対して一つ程度設ければよい。したがって、バンプ2109の大きさは、PD2104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ2109よりも大きなバンプを併せて設けてもよい。
 信号処理チップ2111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)2110を有する。TSV2110は、周辺領域に設けられることが好ましい。また、TSV2110は、撮像チップ2113の周辺領域、メモリチップ2112にも設けられてよい。
 図15は、撮像チップ113の画素配列を説明する図である。特に、撮像チップ2113を裏面側から観察した様子を示す。画素領域には、例えば800万個以上の画素がマトリックス状に配列されている。本実施形態においては、例えば隣接する2画素×2画素の4画素で1つのブロック2131を形成する。そして、隣接する2ブロック×2ブロックの4ブロックで1つの単位グループ32を形成する。図の格子線は、隣接する画素をまとめてブロック2131および単位グループ32を形成する概念を示す。ブロック2131を形成する画素の数や、単位グループ32を形成するブロック2131の数は、上記例に限らず、それ以上でもそれ以下でもよい。
 画素領域の部分拡大図に示すように、ブロック2131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ2102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ2102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素は、カラーフィルタ2102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。
 本実施形態において、1ブロック2131につきGb、Gr、BおよびRの4画素を少なくとも1つ含むように複数のブロック2131が定義される。各ブロック2131はそれぞれ、ブロック2131内の4画素をブロック2131ごとに定めた制御パラメータで制御できる。つまり、あるブロック2131に含まれる画素群と、別のブロック2131
に含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数等である。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。
 図16は、撮像チップ2113における1つの単位グループ32に対応する回路図である。図16において、代表的に点線で囲む矩形が、1つの画素に対応する回路を表す。また、一点鎖線で囲む矩形が1つのブロック2131に対応する。なお、以下に説明する各トランジスタの少なくとも一部は、図14のトランジスタ2105に対応する。
 上述したように、単位グループ32は4つのブロック2131から形成される。単位グループ32に含まれる画素のリセットトランジスタ2303は、ブロック2131単位でオン/オフされる。また、単位グループ32に含まれる画素の転送トランジスタ2302も、ブロック2131単位でオン/オフされる。図16に示す例において、左上ブロック2131-1に対応する4つのリセットトランジスタ2303をオン/オフするためのリセット配線2300-1が設けられており、同ブロック2131-1に対応する4つの転送トランジスタ2302に転送パルスを供給するためのTX配線2307-1も設けられる。
 同様に、左下ブロック2131-3に対応する4つのリセットトランジスタ2303をオン/オフするためのリセット配線2300-3が、上記リセット配線2300-1とは別個に設けられる。また、同ブロック2131-3に対応する4つの転送トランジスタ2302に転送パルスを供給するためのTX配線2307-3が、上記TX配線2307-1と別個に設けられる。
 右上ブロック2131-2や右下ブロック2131-4についても同様に、それぞれリセット配線2300-2とTX配線2307-2、およびリセット配線2300-4とTX配線2307-4が、それぞれのブロック2131に設けられている。
 各画素に対応する16個のPD2104は、それぞれ対応する転送トランジスタ2302に接続される。各転送トランジスタ2302のゲートには、上記ブロック2131ごとのTX配線を介して転送パルスが供給される。各転送トランジスタ2302のドレインは、対応するリセットトランジスタ2303のソースに接続されるとともに、転送トランジスタ2302のドレインとリセットトランジスタ2303のソース間のいわゆるフローティングディフュージョンFDが、対応する増幅トランジスタ2304のゲートに接続される。
 各リセットトランジスタ2303のドレインは、電源電圧が供給されるVdd配線2310に共通に接続される。各リセットトランジスタ2303のゲートには、上記ブロック2131ごとのリセット配線を介してリセットパルスが供給される。
 各増幅トランジスタ2304のドレインは、電源電圧が供給されるVdd配線2310に共通に接続される。また、各増幅トランジスタ2304のソースは、対応する選択トランジスタ2305のドレインに接続される。各選択トランジスタ2305のゲートには、選択パルスが供給されるデコーダ配線2308に接続される。本実施形態において、デコーダ配線2308は、16個の選択トランジスタ2305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ2305のソースは、共通の出力配線2309に接続される。負荷電流源2311は、出力配線2309に電流を供給する。すなわち、選択トランジスタ2305に対する出力配線2309は、ソースフォロアにより形成される。なお、負荷電流源2311は、撮像チップ2113側に設けてもよいし、信号処理チッ
プ2111側に設けてもよい。
 ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。上記ブロック2131ごとのリセット配線を通じてリセットパルスがリセットトランジスタ2303に印加され、同時に上記ブロック2131ごとのTX配線を通じて転送パルスが転送トランジスタ2302に印加されると、上記ブロック2131ごとに、PD2104およびフローティングディフュージョンFDの電位がリセットされる。
 各PD2104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、蓄積された電荷はフローティングディフュージョンFDへ転送され、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線2308を通じて選択パルスが選択トランジスタ2305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ2304および選択トランジスタ2305を介して出力配線2309に伝わる。これにより、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線2309に出力される。
 上述したように、本実施形態においては、ブロック2131を形成する4画素に対して、リセット配線とTX配線が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、同ブロック2131内の4画素に対して同時に印加される。したがって、あるブロック2131を形成する全ての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ2305に選択パルスが順次印加されることにより、選択的に出力配線2309から出力される。
 このように、本実施形態ではブロック2131ごとに電荷蓄積開始タイミングを制御することができる。換言すると、異なるブロック2131間では、異なったタイミングで撮像することができる。
 図17は、撮像素子22の機能的構成を示すブロック図である。アナログのマルチプレクサ2411は、単位グループ32を形成する16個のPD2104を順番に選択して、それぞれの画素信号を当該単位グループ32に対応して設けられた出力配線2309へ出力させる。マルチプレクサ2411は、PD2104と共に、撮像チップ2113に形成される。
 マルチプレクサ2411を介して出力された画素信号は、信号処理チップ2111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路2412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ2413に引き渡され、それぞれの画素に対応する画素メモリ2414に格納される。デマルチプレクサ2413および画素メモリ2414は、メモリチップ2112に形成される。
 演算回路2415は、画素メモリ2414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路2415は、信号処理チップ2111に設けられてもよいし、メモリチップ2112に設けられてもよい。なお、図17では1つの単位グループ32の分の接続を示すが、実際にはこれらが単位グループ32ごとに存在して、並列で動作する。ただし、演算回路2415は単位グループ32ごとに存在しなくてもよく、例えば、一つの演算回路2415がそれぞれの単位グループ32に対応する画素メモリ2414の値を順に参照しながらシーケンシャルに処理してもよい。
 上記の通り、単位グループ32のそれぞれに対応して出力配線2309が設けられている。撮像素子22は撮像チップ2113、信号処理チップ2111およびメモリチップ2112を積層しているので、これら出力配線2309にバンプ2109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。
 図1は、本発明の実施の形態に係る記録装置の構成を示すブロック図である。本実施の形態では、記録装置の一例として、撮像装置10を例に挙げて説明する。撮像装置10は、撮像光学系21と、撮像素子22と、制御部23と、液晶モニタ24と、メモリカード25と、操作部26と、DRAM27と、フラッシュメモリ28とを備える。
 撮像光学系21は、複数のレンズから構成され、撮像素子22の撮像面に被写体像を結像させる。なお図1では、撮像光学系21を1枚のレンズとして図示している。
 撮像部、すなわち撮像素子22はたとえばCMOSやCCD等の撮像素子であり、撮像光学系21により結像された被写体像を撮像して撮像信号を出力する。撮像素子22は、複数の撮像画素が配列された撮像面30を有する。制御部23は、撮像装置10の各部を制御する電子回路であり、CPUとその周辺回路とから構成される。不揮発性の記録媒体であるフラッシュメモリ28には、予め所定の制御プログラムが書き込まれている。制御部23は、フラッシュメモリ28から制御プログラムを読み込んで実行することにより、各部の制御を行う。この制御プログラムは、揮発性の記録媒体であるDRAM27を作業用領域として使用する。
 表示部としての液晶モニタ24は、液晶パネルを利用した表示装置である。制御部23は、所定周期(たとえば60分の1秒)ごとに撮像素子22に繰り返し被写体像を撮像させる。そして、制御部23は、撮像素子22から出力された撮像信号に種々の画像処理を施して被写体画像、いわゆるスルー画像を生成し、液晶モニタ24に表示する。液晶モニタ24には、上記の被写体画像以外に、たとえば撮像条件を設定する設定画面等が表示される。
 図2(a)は、撮像素子22の撮像面30を模式的に示す平面図であり、図2(b)は撮像面30の一部領域30aを拡大した平面図である。図2(b)に示すように、撮像面30には、撮像画素31が二次元状に多数配列されている。撮像画素31は、それぞれ不図示の色フィルタを有している。色フィルタは、赤(R)、緑(G)、青(B)の3種類からなり、図2(b)における「R」、「G」、および「B」という表記は、撮像画素31が有する色フィルタの種類を表している。図2(b)に示すように、撮像素子22の撮像面30には、このような各色フィルタを備えた撮像画素31が、いわゆるベイヤー配列に従って配列されている。
 赤フィルタを有する撮像画素31は、入射光のうち、赤色の波長帯の光を光電変換して受光信号(光電変換信号)を出力する。同様に、緑フィルタを有する撮像画素31は、入射光のうち、緑色の波長帯の光を光電変換して受光信号を出力する。また、青フィルタを有する撮像画素31は、入射光のうち、青色の波長帯の光を光電変換して受光信号を出力する。
 本実施形態の撮像素子22は、隣接する2画素×2画素の計4つの撮像画素31から成る単位グループ32毎に、個別に制御可能に構成されている。たとえば、互いに異なる2つの単位グループ32について、同時に電荷蓄積を開始したときに、一方の単位グループ32では電荷蓄積開始から1/30秒後に電荷の読み出し、すなわち受光信号の読み出し
を行い、他方の単位グループ32では電荷蓄積開始から1/15秒後に電荷の読み出しを行うことができる。換言すると、撮像素子22は、1回の撮像において、単位グループ32毎に異なる露光時間(いわゆるシャッタースピード)を設定することができる。
 撮像素子22は、上述した露光時間以外にも、受光信号の増幅率(いわゆるISO感度)を単位グループ32毎に異ならせることが可能である。また、電荷蓄積を開始するタイミングや受光信号を読み出すタイミングを単位グループ32毎に変化させることができるということは、すなわち、動画撮像時のフレームレートを単位グループ32毎に変化させることができるということでもある。図1に示した撮像制御部23eは、単位グループ32毎に露光時間、増幅率、フレームレート等の撮像条件を制御する。
 以上をまとめると、撮像素子22は、単位グループ32毎に、露光時間、増幅率、フレームレート等の撮像条件を異ならせることが可能に構成されている。
 制御部23は、撮像素子22から出力された撮像信号に基づいて、種々の画像処理を施して撮像画像データを生成する。制御部23は、撮像画像データとその撮影条件の情報とを一つのファイルにまとめた画像ファイルを生成し、着脱可能な記録媒体であるメモリカード25に画像ファイルを記録させる。操作部26は、プッシュボタン等の種々の操作部材を有し、それら操作部材が操作されたことに応じて制御部23に操作信号を出力する。なお、液晶モニタ24はタッチパネル式の表示装置とした場合、操作部26の一部を構成するようにしてもよい。制御部23は、撮像素子22によって撮像された被写体画像を液晶モニタ24に表示させる表示制御を行う。
 制御部23は、輝度分布検出部23aと、領域区分部23bと、撮像条件設定部23cと、記録制御部23dと、撮像制御部23eと、輝度値マップ生成部23fを備える。これらの各部は、制御部23がフラッシュメモリ28に格納されている所定の制御プログラムを実行することにより、ソフトウェア的に実現される。なお、これらの各部を電子回路として構成することも可能である。
 輝度分布検出部23aは、被写体像を撮像した撮像素子22の各撮像画素に基づき、輝度分布を検出する。輝度値マップ生成部23fは、輝度分布に基づいて、輝度分布を二次元状に表した輝度値マップを生成する。
 領域区分部23bは、輝度値マップ生成部23fが生成した輝度値マップに基づいて、輝度値マップ上で略同一の輝度値、または近似の輝度値が連続している近似輝度値領域、即ち、所定の狭い輝度値範囲内の輝度値が連続している近似輝度値領域を検出することで、輝度値マップまたは被写体画像を複数の領域に区分する。後述するように、液晶モニタ24に被写体画像が表示されている場合には、領域区分部23bによって区分された被写体画像上の領域を表す枠が被写体画像に重畳されて、表示される。なお、領域区分部23bが被写体画像上で領域を区画することは、撮像素子22の撮像面において、撮像領域を特定する、即ち区画することに他ならない。
 撮像条件設定部23cは、撮像素子22の露光時間、増幅率、フレームレート等の撮像条件を設定する。なお、後述するように、撮像条件設定部23cは、領域区分部23bで区分された領域毎に撮像条件を設定する。
 記録制御部23dは、後述するように、領域区分部23bで区分された領域毎にそれぞれ設定された撮像条件で撮像された画像のデータおよび各領域の撮像条件を1つの画像ファイルとして、撮像装置10から着脱可能な記録媒体であるメモリカード25に記録させる。撮像制御部23eは、撮像素子22の少なくとも1個の撮像画素をそれぞれ含む複数
の撮像領域の各々を互いに独立に制御する。すなわち、撮像制御部23eは、上述したように、撮像素子22の単位グループ32毎に露光時間、増幅率、フレームレート等の撮像条件を制御する。なお、撮像制御部23eの機能を撮像素子22に設けるようにしてもよい。
 このように構成される撮像装置10では、領域区分部23bで区分された領域毎に撮像条件を自動的に設定することができるように構成されている。以下、詳細に説明する。
 図3は、被写体画像110が液晶モニタ24に表示された状態を示す模式的な図である。以下の説明では、被写体の一例として、撮像装置10の撮像範囲に、至近距離の人物101と、至近距離の建物102と、遠方の山103と、遠方の太陽104aを含む背景104とが存在していることとする。そして、人物101および建物102が逆光状態となっているものとする。なお、この被写体画像110は、被写体輝度の測光値による露出条件またはユーザーによる手動設定された露出条件に基づき、全ての単位グループ32について、すなわち撮像面30全体について同一の撮像条件(露光時間、増幅率、フレームレート)で撮像されたものである。
 輝度分布検出部23aは、被写体画像110の輝度分布を検出する。輝度値マップ生成部23fは、検出された輝度分布を二次元状に表した輝度値マップを生成する。輝度値マップは、撮像画素ごとの明るさ(輝度値すなわち、各撮像画素に入射した被写体光の輝度を表すBv値)を、撮像画素の配列に合わせて二次元状に配列したマップである。輝度値マップは、単位グループ32ごとの明るさ(単位グループ32が一つの撮像画素から構成される場合には、その撮像画素が検出する輝度値、単位グループ32が複数の撮像画素から構成される場合には、当該複数の撮像画素が検出する輝度値の平均値を表すBv値)を、単位グループ32の配列に合わせて二次元状に配列したマップであってもよい。
 領域区分部23bは、輝度値マップ生成部23fが生成した輝度値マップに基づいて、近似の輝度で連続している近似輝度値領域を検出することで輝度値マップまたは被写体画像を複数の領域に区分する。図3に示す被写体画像像110からは、たとえば図4(a)に示すように、領域区分部23bは、人物101の領域121と、建物102の領域122と、山103の領域123と、背景104の領域124とに被写体画像110を区分する。
 制御部23は、領域区分部23bによる領域区分が行われると、図5に示されたように液晶モニタ24に表示される被写体画像110に点線で示した領域の境界線131~133を重畳して明示的に表示させる。
 撮像条件設定部23cは、領域区分部23bによる領域区分121~124の各々について輝度値マップ生成部23fが生成した輝度値マップに基づいて、撮像条件であるシャッタースピードとISO感度等を設定する。たとえば、図3に示す被写体画像110の場合、図4(b)に示すように、人物101の領域121の撮像条件として、シャッタースピードが1/125秒に設定され、ISO感度が400に設定される。建物102の領域122の撮像条件として、シャッタースピードが1/125秒に設定され、ISO感度が400に設定される。山103の領域123の撮像条件として、シャッタースピードが1/1000秒に設定され、ISO感度が100に設定される。背景104の領域124の撮像条件として、シャッタースピードが1/3000秒に設定され、ISO感度が100に設定される。
 撮像条件設定部23cは、撮像条件の設定に加えて、本実施の形態にあっては、各領域121~124毎に画像処理効果を設定する。図4(b)に示すように、撮像条件設定部
23cは、画像処理効果として、人物101の領域121及び建物102の領域122について「標準」を設定し、山103の領域123及び背景104の領域124について「風景」を設定する。なお、このような各領域121~124毎の画像処理効果の設定は、たとえば、撮像装置10が備える図示を省略した位相差式焦点検出装置がそれぞれ検出した人物101、建物102、山103、及び背景104に関するデフォーカス量に基づき、山103及び背景104が遠方に位置することを判定して、その判定結果に基づき山103の領域123及び背景104の領域124について画像処理効果「風景」を設定するようにしてもよい。撮像条件設定部23cは、撮像装置10が備える不図示の顔認識装置によって検出された人物の顔に「美肌」の画像処理効果を設定するようにしてもよい。
 また、制御部23は、被写体画像110から、主となる領域(主領域)を決定する。たとえば、制御部23は、不図示の顔認識装置が被写体画像110の中から人の顔を検出すると、検出した人の顔を含む人物101の領域121を主領域として設定する。また、焦点検出装置が、被写体画像110の複数の被写体画像101~104の中の特定の被写体について、焦点検出しそれに基づき焦点調節を行った場合には、その特定の被写体の領域を主領域と決定してもよい。更には、制御部23は、被写体画像を複数の領域121~124に領域分割した時に、面積の最も大きい領域または比較的大きい領域を、たとえば図4では領域123または124を、主領域として設定してもよい。なお、主領域以外の領域を副領域と呼ぶ。
 なお、図示はしないが、ユーザーは、撮像条件設定部23cが自動的に設定した各領域の撮像条件について、任意の領域の任意の設定項目の設定値を変更できる。すなわち、たとえば、図5に示すように、液晶モニタ24に表示された被写体画像110のうち、境界線131~133で区分されたいずれかの領域がユーザーによって選択されたことを検出すると、制御部23は、選択された領域に係る撮像条件の設定を変更するための設定変更画面を液晶モニタ24に表示させる。ユーザーは、当該設定変更画面から任意の撮像条件を変更できる。
 その後に、操作部26のレリーズボタン、または撮像処理を指示するボタンが操作されると、制御部23は、複数の領域の各々に対して撮像条件設定部23cによってそれぞれ設定された撮像条件及び画像処理効果を定める画像処理条件で、撮像処理を指示し、撮像画像ファイルを生成する。
 撮影処理が行われると、撮影画像データと、各領域の区分に関する情報と、各領域の撮像条件の情報と、各領域の画像処理条件の情報とを含む、これらの情報は記録制御部23dに入力される。なお、これらの情報のうち、各領域の区分に関する情報については、領域区分部23bから出力されて記録制御部23dに入力されるようにしてもよく、各領域の撮像条件の情報については、撮像条件設定部23cから出力されて記録制御部23dに入力されるようにしてもよい。
 記録制御部23dは、次のようにして画像ファイルを生成する。まず、制御部23が顔を含む人物101の領域121を主領域として設定すると、記録制御部23dは、副領域が被写体画像のどの領域であるのかを示す領域情報(領域画像)として、マスク画像を生成する。すなわち、記録制御部23dは、図6に示すような、建物102の領域122に対応するマスキング領域141aを有するマスク画像141と、図7に示すような、山103の領域123に対応するマスキング領域142aを有するマスク画像142と、図8に示すような、背景104の領域124に対応するマスキング領域143aを有するマスク画像143とを生成する。記録制御部23dは、マスク画像からマスク画像データを生成する。
 マスク画像の生成後、記録制御部23dは、たとえば公知のマルチピクチャーフォーマットに則って、撮像画像データと、マスク画像データと、各領域の撮像条件の情報とを格納する、マルチピクチャーフォーマット形式の1つの画像ファイルを生成する。図9は、マルチピクチャーフォーマット(以下、MPフォーマットと称する)の基本構造を示す図である。MPフォーマット200は、複数の画像データの情報を1つの画像ファイルに記録するためのフォーマットであり、画像データの情報についての記録領域210,220,230,240・・・が先頭から順に設けられている。画像データの情報は、撮像画像データとマスク画像データと各領域の撮像条件の情報とを含む。画像データの情報についての記録領域210,220,230,240・・・は、それぞれ、画像データについてのヘッダの記録領域211,221,231,241・・・と、画像データの撮像画像データの記録領域212,222,232,242・・・とを含む。画像データのうち、先頭の画像データ(画像データ(1))は、先頭画像データとも呼ばれる。
 図10は、マルチピクチャーフォーマットに則って、記録制御部23dが生成する1つの画像ファイルを概念的に例示する図である。図9および図10において、記録制御部23dは撮像処理によって生成された撮像画像データを、先頭画像データの情報についての記録領域210のうち、画像データの記録領域212に記録し、主領域、すなわち、人物101の領域121についての撮像条件の情報(「シャッタースピード 1/125秒」、「ISO感度 400」、「画像処理効果 標準」)を、ヘッダの記録領域211に記録する。記録制御部23dは、たとえば建物102の領域122についてのマスク画像141のマスク画像データを、先頭から2番目の画像データ(画像データ(2))の記録領域
222に記録する。そして、記録制御部23dは、副領域である建物102の領域122についての撮像条件の情報(「シャッタースピード 1/125秒」、「ISO感度 400」、「画像処理効果 標準」)を、先頭から2番目の記録領域220のうち、ヘッダの記録領域221に記録する。
 同様に記録制御部23dは、先頭から3番目の画像データ(画像データ(3))の記録領
域232に、たとえば山103の領域123についてのマスク画像142のマスク画像データを記録し、ヘッダの記録領域231に、副領域である山103の領域123についての撮像条件の情報(「シャッタースピード 1/1000秒」、「ISO感度 100」、「画像処理効果 風景」)を記録する。同様に記録制御部23dは、先頭から4番目の画像データ(画像データ(4))の記録領域242に、たとえば背景104の領域124
についてのマスク画像143のマスク画像データを記録し、ヘッダの記録領域241に、副領域である背景104の領域124についての撮像条件の情報(「シャッタースピード
 1/3000秒」、「ISO感度 100」、「画像処理効果 風景」)を記録する。
 画像データの記録領域212,222,232,242・・・に記録する画像データは、たとえば所定の形式にて圧縮された画像データであってもよく、RAW形式の画像データであってもよい。
 その後、記録制御部23dは、上述のようにして生成した1つの画像ファイルを着脱可能な記録媒体であるメモリカード25に記録させる。
 このようにして画像ファイルを生成することで、たとえば、撮像装置10や外部の画像再生装置において、いわゆるフォトレタッチソフトによって、各領域の撮像条件を加味した編集や加工を行うことができる。すなわち、たとえば、各領域の撮像条件を考慮して、再生される画像がより見た目に近づくように編集加工することができる。また、撮像装置10や外部の画像再生装置において、撮像画像データに対して補正を行う際に、各領域の撮像条件を加味した補正ができる。すなわち、たとえば、ISO感度が高い領域ではノイズが多くなるため、ISO感度が高い領域に対してノイズを低減する補正を行うことが可
能となる。
 また、上述の説明では、記録領域212には、所定の形式にて圧縮された撮像画像データが記録されたが、その代わりに、RAW形式の撮像画像データを記録領域212に記録させてもよい。RAW形式の撮像画像データを記録領域212に記録させた場合、各領域の撮像条件を考慮して、領域毎に異なる条件で現像を行うことが可能となる。
---フローチャート---
 図11は、上述した1つの画像ファイルを生成してメモリカード25に記録させる処理についてのフローチャートである。撮像装置10の電源がオンされると、図11に処理を示したプログラムが起動されて、制御部23で実行される。ステップS1で撮像制御部23eは、撮像素子22の撮像画素31の電荷蓄積時間及び増幅率が全ての単位グループ32についてたとえば被写体輝度の輝度に基づいて決定される同一値となるように、撮像画素31を制御し、このように制御された撮像画素31からの撮像信号に基づく被写体画像110を液晶モニタ24に表示させる。
 ステップS3で輝度分布検出部23aは、被写体画像110の輝度分布を検出する。そして、輝度値マップ生成部23fは、輝度分布を二次元状に表した輝度値マップを生成する。ステップS5で領域区分部23bは、輝度値マップ生成部23fが生成した輝度値マップに基づいて、図4に示された被写体画像110を複数の領域121~124に区分する。ステップS7で制御部23は、図5に示されたように、領域区分部23bによって区分された領域121~124の境界線131~133を被写体画像110上に重畳的に表示する。
 ステップS9で撮像条件設定部23cは、領域区分部23bによる領域区分121~124の各々について輝度値マップ生成部23fが生成した輝度値マップに基づいて、各領域121~124の撮像条件を設定する。ステップS11で制御部23は、被写体画像110から、人物101を主領域として決定する。ステップS13で制御部23は、撮像条件設定部23cが自動的に設定した各領域の撮像条件について、ユーザーの操作による任意の領域の任意の設定項目の設定値の変更を受け付ける。
 ステップS15で制御部23は、ユーザーからの撮像指示があったか否か、すなわち、操作部26のレリーズボタン、または撮像処理を指示するボタンが操作されたか否かを判断する。ステップS15が肯定判断されるとステップS17へ進み、ステップS15が否定判断されると、ステップS15に戻る。
 ステップS17で制御部23は、複数の領域の各々に対して撮像条件設定部23cによってそれぞれ設定された撮像条件及び画像処理条件で撮像処理を行う。ステップS19で記録制御部23dは、図6~8に示されたように、副領域についてのマスク画像141~143を生成する。ステップS21で記録制御部23dは、撮像画像データと、マスク画像のマスク画像データと、各領域の撮像条件の情報とを格納する1つの画像ファイルを上述したように生成する。
 ステップS23で記録制御部23dは、上述のようにして得られた1つの画像ファイルを着脱可能な記録媒体であるメモリカード25に記録させる。
 ステップS25で制御部23は、撮像処理を継続するか否かを判断する。たとえば、制御部23は、撮像装置10の電源がオフされたか否かを判断する。ステップS25で撮像を継続すると判断されるとステップS1へ戻り、撮像を終了すると判断されると、本プログラムを終了する。
 上述した第1の実施の形態では、次の作用効果を奏する。
(1) 複数の撮像領域のうち第1の撮像領域(たとえば領域121)が第1の撮像条件(たとえば領域121についての撮像条件)に基づき制御され、第1の撮像領域とは異なる第2の撮像領域(たとえば領域122)が第2の撮像条件(たとえば領域122についての撮像条件)に基づき制御されて撮像されるように構成した。そして、このようにして撮像された撮像画像データと、第1の撮像条件に関する情報とを関連付けて記録するように構成した。そして、第2の撮像条件で制御された撮像領域を表す領域情報(たとえば領域122についてのマスク画像141)と、第2の撮像条件に関する情報とを関連付けて記録するように構成した。すなわち、公知のマルチピクチャーフォーマットに則って、撮像画像データと、マスク画像のマスク画像データと、各領域の撮像条件の情報とを格納する、マルチピクチャーフォーマット形式の1つの画像ファイルを生成するように構成した。これにより、撮像領域ごとに撮像条件が異なっている撮像画像データであっても、撮像画像データおよび撮像条件を適切に保存することができる。また、撮像領域ごとに撮像条件が異なっている撮像画像データであっても、フォトレタッチや画像の自動補正等を適切に行うことができる。また、このようにして画像ファイルを記録した記録媒体であるメモリカード25を用いることで、様々な機器で上記の画像ファイルを読み込むことができ、画像ファイルの利用範囲が広まる。
(2) 記録制御部23dが、各領域の区分に関する情報に基づいて、副領域についてのマスク画像を生成するように構成した。これにより、副領域が被写体画像のどの領域であるのかを示す領域情報が画像データとして記録できるので、画像ファイルのデータ構成が簡便なものとなる。
(3) 撮像画像データを、先頭画像の情報についての記録領域210のうち、画像データの記録領域212に記録し、主領域についての撮像条件の情報を、ヘッダの記録領域211に記録するように構成した。また、任意の副領域についてのマスク画像のマスク画像データを、データの先頭から2番目以降の画像データの情報についての記録領域のうち、撮像画像データの記録領域に記録するように構成した。そして、当該副領域についての撮像条件の情報を、当該画像データの情報についての記録領域のうち、ヘッダの記録領域に記録するように構成した。これにより、画像ファイルのデータ構成が合理的になる。
---第2の実施の形態---
 本発明による記録装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、ユーザーが被写体画像を複数の領域に区分できるように構成した点で、第1の実施の形態と異なる。
 図12は、第2の実施の形態の撮像装置10Aの構成を示すブロック図である。第2の実施の形態の撮像装置10Aでは、軌跡検出部23gをさらに有する点で、第1の実施の形態の撮像装置10と異なる。その他については、第1の実施の形態の撮像装置10と同じである。軌跡検出部23gは、ユーザーが液晶モニタ24の被写体画像上の所望の被写体部分の輪郭を指などでなぞると、その指の移動軌跡を検出する。
 領域区分部23bは、軌跡検出部23gで検出した指の移動軌跡に基づいて、図4の場合と同様に被写体画像を複数の領域に区分する。撮像条件設定部23は、輝度分布検出部23aの検出結果である輝度分布と領域区分部23bによって区分された複数の領域とに基づき、各領域についての撮像条件を設定する。具体的には、撮像条件設定部23cは、領域区分部23bによって区分された領域内の輝度分布の平均輝度値に基づき、撮像条件を設定する。撮像条件設定部23cは、領域区分部23bによって区分された領域内の輝
度分布の平均輝度値に基づき撮像条件を設定する代わりに、領域区分部23bによって区分された各領域について撮像条件を手動操作によって設定してもよい。たとえば、ユーザーが各領域をタッチする毎に、そのタッチされた領域に対する撮像条件設定画面をモニタ24に表示し、その撮像条件設定画面をタッチして、撮像条件を設定しても良い。その他の機能及び動作は、第1の実施の態様と同一である。
 上述した第2の実施の形態では、第1の実施の形態の作用効果に加えて、次の作用効果を奏する。
(1) 軌跡検出部23gで検出した軌跡に基づいて、被写体画像を複数の領域に区分するように構成した。これにより、ユーザーが意図するように被写体画像を複数の領域に区分できるので、ユーザーが意図する撮像条件を領域毎に設定できるようになり、ユーザーが意図する画質の被写体画像が容易に得られる。
---変形例---
(1) 上述の説明では、撮像条件の設定項目の一例として、たとえば、「シャッタースピード」、「ISO感度」、「画像処理効果」を挙げ、撮像条件の情報の記録に際し、各マスク画像に係る撮像条件として例示した全ての設定項目の設定値を記録するように構成したが、本発明はこれに限定されない。たとえば、先頭画像についての撮像条件とは異なる撮像条件だけを個別画像のヘッダの記録領域に記録させてもよい。
(2) 上述の説明では、副領域ごとにマスク画像を生成するように構成したが、本発明はこれに限定されない。たとえば、撮像条件の全ての設定項目について設定値が一致する複数の副領域が存在する場合、記録制御部23dが、当該複数の副領域が被写体画像のどの領域であるのかを示す1つのマスク画像を生成するようにしてもよい。また、撮像条件の各設定項目の任意の1つに着目し、その設定項目の設定値が同じ複数の副領域が存在する場合、記録制御部23dが、当該複数の副領域が被写体画像のどの領域であるのかを示す1つのマスク画像を生成するようにしてもよい。
(3) 上述の説明では、公知のマルチピクチャーフォーマットに則って、撮像画像データと、マスク画像のマスク画像データと、各領域の撮像条件の情報とを格納する、マルチピクチャーフォーマット形式の1つの画像ファイルを生成するように構成したが、本発明はこれに限定されない。たとえば、公知のマルチピクチャーフォーマット以外のファイル形式であっても、撮像画像データと、マスク画像のマスク画像データと、各領域の撮像条件の情報とを格納する、1つの画像ファイルを生成するのであれば、他のファイル形式であってもよい。すなわち、1つの被写体画像に係る複数の領域の画像データを、それら複数の領域の画像データのそれぞれの撮像条件の情報(付属情報)とともに1つの画像ファイルに記録できるのであれば、公知のマルチピクチャーフォーマット以外のファイル形式であってもよい。
(4) 上述の説明では、公知のマルチピクチャーフォーマットに則って、撮像画像データと、マスク画像のマスク画像データと、各領域の撮像条件の情報とを格納する、マルチピクチャーフォーマット形式の1つの画像ファイルを生成するように構成したが、本発明はこれに限定されない。たとえば、被写体画像とマスク画像とを異なる画像ファイルに記録する場合であっても、被写体画像とマスク画像とが関連づけられて記録されていればよい。すなわち、被写体画像の画像データと、主領域についての撮像条件の情報とを関連づけて1つのブロックとし、他の各領域(副領域)について、その領域を特定する情報と、各副領域についての撮像条件の情報とを関連づけて1つのブロックとし、それら複数の各ブロックを関連づけて記録するのであれば、被写体画像とマスク画像とを異なる画像ファイルに記録してもよい。
(5) 撮像装置10が、レンズ一体型のカメラであってもよく、交換レンズをカメラボディに着脱可能なレンズ交換式のカメラであってもよく、たとえば、タブレット型の情報端末装置やスマートフォンのような情報端末装置やカメラ付PCやカメラ付ゲーム機であってもよい。
(6) 上述の説明では、撮像装置10として、撮像機能、すなわち撮像光学系21と撮像素子22を備えていることとして説明したが、本発明はこれに限定されない。たとえば、図13に示すように、上述した撮像素子22と同様の撮像素子を備えた外部の装置10Aと撮像信号や各種の制御信号を有線や無線によって送受信できるように構成した記録装置10Bであってもよい。図13に示す例では、上述した撮像装置10の各種機能のうち、撮像に関する機能を外部の装置10Aに持たせ、その他の機能を記録装置10Bに持たせている。
(7) 本撮像の前にスルー画像110における被写体画像から主領域を設定するように構成しているが、本発明はこれに限定されない。たとえば、本撮像を終えた後に、本撮像によって得られた被写体画像から主領域を設定するように構成してもよい。
(8) 上述の説明では、領域区分の最小単位について特に言及していなかったが、たとえば、領域区分の最小単位を1つの単位グループ32としてもよく、たとえば、1画素としてもよい。
(9) 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
 なお、上記実施形態に係るプログラムは、それぞれ記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。上述したプログラムは、CD-ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。
 なお、本発明は、上述した実施の形態のものに何ら限定されない。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2014年第202291号(2014年9月30日出願)
10,10A 撮像装置、22 撮像素子、22a 撮像制御部、23 制御部、23a輝度分布検出部、23b 領域区分部、23c 撮像条件設定部、23d 記録制御部、23e 撮像制御部、23f 輝度値マップ生成部、23g 軌跡検出部、24 液晶モニタ、25 メモリカード、26 操作部

Claims (11)

  1.  複数の撮像領域を有し、前記撮像領域ごとに撮像条件が異なる撮像部の前記撮像領域ごとの撮像条件のデータと、前記撮像領域の位置情報のデータとを入力する入力部と、
     前記入力部から入力された前記撮像領域の撮像条件のデータと前記撮像領域の位置情報のデータとを記録部に記録する記録制御部と
    を備える電子機器。
  2.  請求項1に記載の電子機器において、
     前記撮像領域の位置情報のデータは、前記撮像部における前記撮像領域の位置情報のデータである電子機器。
  3.  請求項1または2に記載の電子機器において、
     前記入力部は、前記撮像領域ごとに撮像条件が異なる撮像部により生成された画像データを入力し、
     前記記録制御部は、前記入力部から入力された前記画像データを前記記録部に記録する電子機器。
  4.  請求項3に記載の電子機器において、
     前記記録制御部は、前記撮像領域の位置情報のデータとして前記撮像領域の位置を表す画像データを前記記録部に記録する電子機器。
  5.  請求項3または4に記載の電子機器において、
     前記入力部は、前記画像データとして、前記複数の撮像領域のうち第1の撮像領域が第1の撮像条件に設定され、前記複数の撮像領域のうち第2の撮像領域が第2の撮像条件に設定されて前記撮像部で生成された画像データと、前記撮像領域の撮像条件のデータとして、前記第1の撮像条件のデータと前記第2の撮像条件のデータと、前記撮像領域の位置情報のデータとして前記第2の撮像領域の位置情報のデータとを入力し、
     前記記録制御部は、前記画像データとして、前記入力部から入力された、前記第1の撮像領域が第1の撮像条件に設定され、前記第2の撮像領域が第2の撮像条件に設定されて前記撮像部で生成された画像データと、前記撮像領域の撮像条件のデータとして、前記第1の撮像条件のデータと前記第2の撮像条件のデータと、前記撮像領域の位置情報のデータとして前記第2の撮像領域の位置情報のデータとを前記記録部に記録する電子機器。
  6.  請求項5に記載の電子機器において、
     前記記録制御部は、前記第2の撮像領域の位置情報のデータとして前記第2の撮像領域の位置を表す画像データを前記記録部に記録する電子機器。
  7.  請求項6に記載の電子機器において、
     前記記録制御部は、前記画像データと前記第1の撮像条件のデータと前記第2の撮像条件のデータと前記撮像部における前記第2の撮像領域の位置を表す画像データとを有する一つのファイルを前記記録部に記録する電子機器。
  8.  請求項7に記載の電子機器において、
     前記一つの画像ファイルは、マルチピクチャーフォーマット形式の画像ファイルである電子機器。
  9.  請求項7に記載の電子機器において、
     前記記録制御部は、前記画像データと前記第1の撮像条件のデータとを有する第1ファイルを前記記録部に記録し、前記第2の撮像条件のデータと前記第2の撮像領域の位置を表す画像データとを有する第2ファイルを前記記録部に記録する電子機器。
  10.  請求項9に記載の電子機器において、
     前記記録制御部は、前記第1ファイルと前記第2ファイルとを関連付けて前記記録部に記録する電子機器。
  11.  請求項1から10のいずれか一項に記載の電子機器において、
     前記撮像条件は、前記撮像部の露光時間、増幅率、フレームレートのうちの少なくとも1つである電子機器。
PCT/JP2015/077385 2014-09-30 2015-09-28 電子機器 WO2016052438A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15847259.7A EP3203723A4 (en) 2014-09-30 2015-09-28 Electronic device
CN201580064773.9A CN107005636A (zh) 2014-09-30 2015-09-28 电子设备
US15/509,937 US20170310887A1 (en) 2014-09-30 2015-09-28 Electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014202291A JP6520036B2 (ja) 2014-09-30 2014-09-30 電子機器
JP2014-202291 2014-09-30

Publications (1)

Publication Number Publication Date
WO2016052438A1 true WO2016052438A1 (ja) 2016-04-07

Family

ID=55630468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077385 WO2016052438A1 (ja) 2014-09-30 2015-09-28 電子機器

Country Status (5)

Country Link
US (1) US20170310887A1 (ja)
EP (1) EP3203723A4 (ja)
JP (1) JP6520036B2 (ja)
CN (1) CN107005636A (ja)
WO (1) WO2016052438A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110679140B (zh) 2017-06-08 2021-04-13 富士胶片株式会社 摄像装置、摄像装置的控制方法及存储介质
JP6991816B2 (ja) 2017-09-29 2022-01-13 キヤノン株式会社 半導体装置および機器
JP7271895B2 (ja) * 2018-09-28 2023-05-12 株式会社ニコン 電子機器および設定プログラム
JP7287379B2 (ja) * 2020-12-10 2023-06-06 セイコーエプソン株式会社 表示方法、検出装置、および、プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139487A (ja) * 2006-11-30 2008-06-19 Nikon Corp 顕微鏡装置
JP2012060468A (ja) * 2010-09-09 2012-03-22 Casio Comput Co Ltd 撮像装置、画像生成装置、画像生成プログラム、及び画像生成方法
JP2014179892A (ja) * 2013-03-15 2014-09-25 Nikon Corp 撮像装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0528433B1 (en) * 1991-08-21 2002-03-06 Canon Kabushiki Kaisha Video camera provided with a plurality of photographing modes
US20090282365A1 (en) * 2007-02-06 2009-11-12 Nikon Corporation Image processing apparatus, image reproducing apparatus, imaging apparatus and program recording medium
JP2009164951A (ja) * 2008-01-08 2009-07-23 Fujifilm Corp 撮像システム、画像処理装置、画像処理方法、およびプログラム
JP2010028596A (ja) * 2008-07-23 2010-02-04 Hitachi Ltd 撮像装置
JP5294922B2 (ja) * 2009-02-26 2013-09-18 キヤノン株式会社 再生装置および再生方法
JP5524495B2 (ja) * 2009-03-10 2014-06-18 富士機械製造株式会社 撮像システムおよび電子回路部品装着機
JP2011239195A (ja) * 2010-05-11 2011-11-24 Sanyo Electric Co Ltd 電子機器
CN103109526B (zh) * 2010-07-16 2016-08-03 富士胶片株式会社 放射线图像捕捉设备、放射线图像捕捉系统、放射线图像捕捉方法、以及程序
WO2012014452A1 (ja) * 2010-07-26 2012-02-02 パナソニック株式会社 レンズユニット
KR101700366B1 (ko) * 2010-10-01 2017-02-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
CN102930593B (zh) * 2012-09-28 2016-01-13 上海大学 一种双目系统中基于gpu的实时绘制方法
CN103002289B (zh) * 2013-01-08 2015-06-17 中国电子科技集团公司第三十八研究所 面向监控应用的视频恒定质量编码装置及其编码方法
EP2963917B1 (en) * 2013-02-27 2021-04-14 Nikon Corporation Electronic apparatus comprising an image sensor
JP6249202B2 (ja) * 2013-05-10 2017-12-20 ソニー株式会社 画像表示装置、画像表示方法、およびプログラム
CN103905813B (zh) * 2014-04-15 2016-02-24 福州大学 基于背景提取与分区修复的dibr空洞填补方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008139487A (ja) * 2006-11-30 2008-06-19 Nikon Corp 顕微鏡装置
JP2012060468A (ja) * 2010-09-09 2012-03-22 Casio Comput Co Ltd 撮像装置、画像生成装置、画像生成プログラム、及び画像生成方法
JP2014179892A (ja) * 2013-03-15 2014-09-25 Nikon Corp 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3203723A4 *

Also Published As

Publication number Publication date
US20170310887A1 (en) 2017-10-26
CN107005636A (zh) 2017-08-01
JP6520036B2 (ja) 2019-05-29
EP3203723A1 (en) 2017-08-09
JP2016072896A (ja) 2016-05-09
EP3203723A4 (en) 2018-02-28

Similar Documents

Publication Publication Date Title
JP6780745B2 (ja) 電子機器
JP6075393B2 (ja) 電子機器及び制御プログラム
JP6090425B2 (ja) 撮像素子および電子機器
JP2023024534A (ja) 撮像素子
JP6413233B2 (ja) 撮像装置および撮像素子
JP2016192605A (ja) 電子機器、記録媒体およびプログラム
US20240089402A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
WO2016052438A1 (ja) 電子機器
WO2016052437A1 (ja) 電子機器および画像処理方法
US20170318256A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP6409883B2 (ja) 電子機器及び制御プログラム
CN107005632B (zh) 电子设备
US20170324911A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP7176591B2 (ja) 電子機器
JP6916418B2 (ja) 撮像装置
JP6852712B2 (ja) 撮像素子および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15847259

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015847259

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15509937

Country of ref document: US