WO2020045202A1 - 撮像装置、補正方法及びコンピュータプログラム - Google Patents

撮像装置、補正方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2020045202A1
WO2020045202A1 PCT/JP2019/032708 JP2019032708W WO2020045202A1 WO 2020045202 A1 WO2020045202 A1 WO 2020045202A1 JP 2019032708 W JP2019032708 W JP 2019032708W WO 2020045202 A1 WO2020045202 A1 WO 2020045202A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
image
imaging
imaging device
correction data
Prior art date
Application number
PCT/JP2019/032708
Other languages
English (en)
French (fr)
Inventor
智哉 竹田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/250,674 priority Critical patent/US11838656B2/en
Publication of WO2020045202A1 publication Critical patent/WO2020045202A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to an imaging device, a correction method, and a computer program.
  • a semiconductor imaging device configured by an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) is used for a video camera, a digital still camera, and the like.
  • a light receiving unit including a photodiode is formed for each element, and the light receiving unit photoelectrically converts incident light to generate signal charges.
  • phase difference detection method image plane phase difference detection method of detecting a phase by using a part of imaging pixels in an imaging apparatus and increasing an autofocus (AF) speed.
  • focus detection by a pupil division method is performed using a two-dimensional sensor in which an on-chip lens is provided for each pixel of an image sensor. Pixels provided below the on-chip lens are called pupil division pixels. Then, by using the image generated by the pupil division pixels, the distance information of the subject in the image can be obtained as a depth map.
  • the depth of the image is dependent on the depth of the lens due to the curved shape of the lens and the displacement of the lens mount. That is, even if subjects at the same distance exist at different image height positions, a phenomenon has been observed that the depths detected from these subjects are different.
  • Patent Document 1 a lens position that is in-focus (in focus) is searched for in contrast AF (Auto Focus), and a phase difference at that position is used as an offset shift.
  • the purpose disclosed in Patent Document 1 is to improve the phase difference AF, and only the offset deviation is corrected. Therefore, the shift amount of the phase difference generated when the lens position changes cannot be corrected, and as a result, the in-plane depth variation in the depth map cannot be corrected.
  • the present disclosure provides a new and improved imaging device, a correction method, and a computer program that reduce the image height dependency of depth detected by a sensor having a pixel whose depth can be detected.
  • an image sensor including a pixel capable of detecting a depth, an image processing unit that detects a depth using a signal obtained by the pixel, and performs a process based on the depth
  • An image pickup apparatus includes: a correction data generation unit that generates correction data for correcting the image height dependency of depth based on the signal in the image processing unit.
  • the processor detects depth using a signal obtained from an image sensor including pixels capable of detecting depth, and executes a process based on the depth, and And generating correction data for correcting the image height dependency of the depth based on the signal.
  • the computer detects the depth using a signal obtained from an imaging device including a pixel capable of detecting the depth, and executes a process based on the depth, And generating correction data for correcting the image height dependency of the depth based on the signal.
  • a new and improved imaging apparatus As described above, according to the present disclosure, there is provided a new and improved imaging apparatus, a correction method, and a computer program that reduce the image height dependency of depth detected by a sensor having a pixel that can detect depth. You.
  • FIG. 4 is an explanatory diagram illustrating an example of a pupil division pixel.
  • FIG. 9 is an explanatory diagram illustrating an example of an image generated from pupil division pixels.
  • FIG. 9 is an explanatory diagram illustrating an example of an image generated from pupil division pixels.
  • FIG. 9 is an explanatory diagram illustrating an example of an image generated from pupil division pixels.
  • FIG. 3 is an explanatory diagram illustrating an example of an image generated by an image sensor and a depth map generated from the image. It is explanatory drawing shown about an image height.
  • FIG. 4 is an explanatory diagram showing the image height dependency of depth.
  • FIG. 4 is an explanatory diagram illustrating contrast AF.
  • FIG. 9 is an explanatory diagram illustrating an example of a pupil division pixel.
  • FIG. 9 is an explanatory diagram illustrating an example of an image generated from pupil division pixels.
  • FIG. 9 is an explanatory diagram illustrating an example of an image generated from pupil division pixels.
  • FIG. 3 is an explan
  • FIG. 4 is an explanatory diagram illustrating a phase difference AF.
  • FIG. 11 is an explanatory diagram showing the technique in Patent Document 1.
  • FIG. 1 is an explanatory diagram illustrating a functional configuration example of an imaging device according to an embodiment of the present disclosure.
  • FIG. 9 is an explanatory diagram illustrating an example of a relationship between focus (lens position) and depth at a plurality of image heights.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • FIG. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • FIG. 4 is an explanatory diagram illustrating a relationship between a distance to a subject and a depth in a graph.
  • FIG. 4 is an explanatory diagram illustrating an example of a subject imaged by an imaging device when a correction map is generated.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • FIG. 9 is an explanatory diagram illustrating an example of a relationship between a difference in depth depending on an image height and a parameter on an application side that is changed by the difference.
  • FIG. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • FIG. 9 is an explanatory diagram illustrating a state in which a pupil division image is corrected from a depth map obtained from the pupil division image.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • FIG. 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 4 is a flowchart illustrating an operation example of the imaging device according to the embodiment.
  • 1 is a block diagram illustrating a configuration example of an embodiment of an imaging device to which the technology according to the present disclosure can be applied.
  • 1 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a moving object control system to which the technology according to the present disclosure can be applied.
  • FIG. 4 is a diagram illustrating an example of an installation position of an imaging unit.
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an imaging device to which the technology according to the present disclosure can be applied.
  • 1 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a moving object control system to which the technology according to the present disclosure can be applied.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • FIG. 37 is a block diagram illustrating an example of a functional configuration of a camera head and a CCU illustrated in FIG. 36.
  • FIG. 1 is an explanatory diagram illustrating an example of a pupil division pixel.
  • the pupil division pixels include a plurality of pixels corresponding to one on-chip lens 10. In FIG. 1, four pupil division pixels exist in one on-chip lens 10, but the number of pupil division pixels per one on-chip lens is not limited to this example.
  • the shift amount of the subject in the image is reduced by the image sensor. It changes according to the distance from the vehicle. In other words, the shift amount is zero at the position where the subject is in focus (the in-focus position), and the shift amount increases as the distance from the in-focus position increases.
  • FIGS. 2A to 2D are explanatory diagrams showing examples of images generated from pupil division pixels.
  • 2A to 2D each show an example of an image of a checker pattern plate and a doll placed in front of the plate using pupil division pixels. The focus of each of these images is adjusted so that the image is focused slightly behind the checker pattern plate.
  • FIG. 2A is an example of an image generated by the left two pixels of the four pupil division pixels.
  • FIG. 2B is an example of an image generated by two right pixels among the four pupil division pixels.
  • FIG. 2C is an example of an image generated by the lower two pixels of the four pupil division pixels.
  • FIG. 2D is an example of an image generated by the upper two pixels of the four pupil division pixels.
  • the depth map is an image of the distance from the image sensor to the subject.
  • the depth map there is a map in which the distance to the subject is expressed in black and white shades.
  • FIG. 3 is an example of an image generated by the image sensor and a depth map generated from the image.
  • the depth map shown in FIG. 3 is an image that is blacker at a position closer to the image sensor and whiter at a position farther from the image sensor.
  • the depth of the image is dependent on the depth of the lens due to the curved shape of the lens and the displacement of the lens mount. That is, even if subjects at the same distance exist at different image height positions, a phenomenon has been observed that the depths detected from these subjects are different.
  • Image height refers to the distance from the optical axis (for example, the center of the image).
  • the optical axis When the optical axis is at the center of the image, the central portion of the image is expressed as having a low image height, and the end portion of the image is expressed as having a high image height.
  • FIG. 4 is an explanatory diagram showing the image height.
  • FIG. 4 shows the image height when the center of the image is the optical axis. The image height is low at the center of the image, and high at the edges of the image.
  • FIG. 5 is an explanatory diagram showing the image height dependency of the depth.
  • a phenomenon occurs in which the depth value differs depending on the image height. If the depth value differs depending on the image height, for example, an application that obtains a distance from the depth value determines that the subject is at a different distance depending on the image height even if the subject is at the same distance from the image sensor. .
  • Contrast AF is a method in which the position of a lens is moved to find the position of the lens at which the contrast of an image peaks.
  • FIG. 6 is an explanatory diagram showing the contrast AF.
  • the horizontal axis represents the lens position
  • the vertical axis represents the contrast of the image.
  • Phase difference AF is a method in which the position of the lens is moved to find the position of the lens where the phase difference (blur amount) of the image becomes zero.
  • FIG. 7 is an explanatory diagram showing the phase difference AF.
  • the horizontal axis represents the lens position
  • the vertical axis represents the phase difference.
  • Patent Literature 1 discloses a technique of searching for an in-focus lens position using contrast AF, and using the value of the phase difference at that position as an offset to correct the offset.
  • FIG. 8 is an explanatory diagram showing the technique in Patent Document 1. In the graph shown in FIG. 8, the solid line indicates the relationship between the lens position and the contrast, and the dashed line indicates the relationship between the lens position and the phase difference.
  • Patent Document 1 the purpose disclosed in Patent Document 1 is to improve the phase difference AF, and only the offset deviation is corrected. Therefore, the shift amount of the phase difference generated when the lens position changes cannot be corrected, and as a result, the in-plane depth variation in the depth map cannot be corrected.
  • the present discloser has conducted intensive studies on a technology capable of correcting the in-plane depth variation in the depth map.
  • the present inventors have come up with a technique capable of correcting the in-plane depth variation in the depth map, as described below.
  • FIG. 9 is an explanatory diagram illustrating a functional configuration example of the imaging device 100 according to the embodiment of the present disclosure.
  • a functional configuration example of the imaging device 100 according to the embodiment of the present disclosure will be described with reference to FIG.
  • the imaging device 100 includes a lens unit 110, an imaging element 112, an image processing unit 120, and a correction map generation unit 130. .
  • the lens unit 110 includes a lens group for irradiating light to the image sensor 112.
  • the lens unit 110 is driven by the correction map generation unit 130 to move the lens position.
  • the image sensor 112 is configured by the above-described image sensor configured to be capable of detecting a depth such that a plurality of pixels correspond to one on-chip lens.
  • the image sensor 112 generates image data from light emitted through the lens unit 110 and outputs the image data to the image processing unit 120 at the subsequent stage.
  • the image sensor 112 generates two pupil division images A and B and outputs the images to the image processing unit 120.
  • the pupil division image is an image obtained by collecting pupil division pixels. This pupil division image may be generated from left and right pupil division pixels as shown in FIGS. 2A and 2B, or may be generated from upper and lower pupil division pixels as shown in FIGS. 2C and 2D. You may. Further, the pupil division image may be generated from an oblique pair such as the upper right and lower left or the upper left and lower right among the four pupil division pixels shown in FIG.
  • the image processing unit 120 performs image processing using image data output from the image sensor 112.
  • the image processing unit 120 generates a depth map using the image data output from the image sensor 112, and executes a process using the depth map.
  • the image processing unit 120 performs a depth detection processing unit 122 that detects a depth of an image and generates a depth map, and performs processing using the depth map generated by the depth detection processing unit 122.
  • an application 124 an application 124.
  • the depth detection processing unit 122 detects a depth in an image using the pupil division images A and B, and generates a depth map. As described above, if the pupil division pixels used for generating an image are different in the vertical, horizontal, or oblique directions, the shift amount of the subject in the image changes according to the distance from the image sensor 112. That is, the shift amount of the subject focused on the image sensor 112 becomes zero, and the shift amount of the subject farther from the in-focus position of the image sensor 112 increases as the distance from the in-focus position increases. The depth detection processing unit 122 generates a depth map using the information on the magnitude of the shift amount.
  • the application 124 executes various processes based on the depth map sent from the depth detection processing unit 122.
  • the processing executed by the application 124 may include, for example, an autofocus processing, a background blur processing, a distance measurement processing, and the like.
  • the image processing unit 120 may be configured as, for example, a general-purpose processor, or may be configured as a processor specialized in image processing such as an image processing processor or a graphic processor. Further, the image processing unit 120 may include various memories in which the entity of the application 124 is stored.
  • the correction map generation unit 130 generates a correction map 132 for correcting the depth map generated by the image processing unit 120.
  • the correction map 132 is an example of the correction data of the present disclosure, and is correction data in a map format for correcting the image height dependency of the depth map. Therefore, the correction map generator 130 functions as a correction data generator of the present disclosure.
  • the correction map generator 130 uses data of depth maps at a plurality of lens positions when generating the correction map 132. Therefore, the correction map generation unit 130 may have a function of driving the lens unit 110.
  • the generation of the correction map 132 by the correction map generation unit 130 is assumed to be performed before the shipment of the product, but may be performed by, for example, a user operation on the imaging device 100.
  • the correction map generation unit 130 may be configured as, for example, a general-purpose processor, or may be configured as a processor specialized in image processing such as an image processing processor or a graphic processor.
  • the correction map 132 generated by the correction map generation unit 130 is used for correcting a depth map.
  • the depth detection processing unit 122 may output a depth map corrected using the correction map 132, and the application 124 may correct the depth map generated by the depth detection processing unit 122 using the correction map 132.
  • the correction map 132 may be applied to the pupil division image output from the image sensor 112.
  • Outputting the depth map corrected using the correction map 132 by the depth detection processing unit 122 means performing correction of the image height dependency of the depth map during the depth detection processing of the depth detection processing unit 122. .
  • the application 124 corrects the depth map generated by the depth detection processing unit 122 using the correction map 132, the application 124 does not correct the image height dependency of the depth map generated by the depth detection processing unit 122, Is changed for each image height.
  • Applying the correction map 132 to the pupil division image output from the image sensor 112 means correcting the pupil division image so that the image height dependency of the depth is reduced. Each method will be described later in detail.
  • the imaging apparatus 100 can generate a depth map in which the image height dependency of the depth is corrected by having the above configuration.
  • the imaging device 100 illustrated in FIG. 9 detects a depth using two pupil division images and generates a depth map, but the number of pupil division images for detecting the depth is limited to the example. It is not done.
  • the imaging device 100 fixes a plate having a texture (checker pattern, ladder pattern, random dot pattern, etc.) in front of the imaging device 100, for example.
  • the correction map may be created by installing the camera and imaging with different focus (lens position).
  • FIG. 10 is an explanatory diagram showing an example of the relationship between focus (lens position) and depth at a plurality of image heights.
  • the imaging device 100 can obtain a plurality of data items indicating the relationship between the focus and the depth at the full image height position.
  • the imaging device 100 can acquire, for example, the following correction map by using these data.
  • the imaging device 100 can create a correction map corresponding to each focus.
  • the depth detection processing unit 122 prepares a correction map corresponding to the focus at that time, and can perform a calculation for reducing the image height variation of the depth for each image height. .
  • FIG. 11 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example in which the correction map generation unit 130 creates a correction map corresponding to a plurality of focuses.
  • the imaging apparatus 100 first initializes a variable i to 0 (step S101). Subsequently, the imaging apparatus 100 determines whether the variable i is less than a variable N indicating the number of desired depth maps (step S102). If i is less than N (Step S102, Yes), the imaging device 100 moves the lens of the lens unit 110 to image a textured plate at the lens position i as described above (Step S103).
  • the lens position i indicates an i-th lens position among a plurality of lens positions predetermined when the correction map is generated. The lens positions may be set at equal intervals, but need not necessarily be set at equal intervals.
  • the imaging apparatus 100 performs a depth detection process in the depth detection processing unit 122 using the image captured at the lens position i, and obtains a depth map i (step S104). Then, using the depth map i, the imaging apparatus 100 creates a depth image height correction map i adjusted to the depth of a specific image height (for example, the image height at the center of the image) by the correction map generation unit 130. (Step S105).
  • the imaging apparatus 100 increments the variable i by one (step S106), and returns to the determination processing of step S102. If i is equal to or greater than N (step S102, No), the imaging device 100 ends a series of processes.
  • the relationship between the focus (lens position) and the depth is plotted, and those points can be regressed by an n-th order equation (n is an arbitrary integer of 1 or more).
  • the imaging apparatus 100 creates a correction map for performing a calculation that can reduce the n-order image height variation.
  • the depth detection processing unit 122 acquires a correction value corresponding to the focus at the time of imaging from this correction map, and performs a calculation for reducing the image height variation of the depth for each image height. Can be done.
  • FIG. 12 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging device 100 first initializes a variable i to 0 (step S111). Subsequently, the imaging apparatus 100 determines whether the variable i is less than a variable N indicating the number of desired depth maps (Step S112). If i is less than N (Step S112, Yes), the imaging device 100 images the textured plate at the lens position i as described above (Step S113).
  • the image capturing apparatus 100 performs a depth detection process in the depth detection processing unit 122 using the image captured at the lens position i, and obtains a depth map i (step S114). Subsequently, the imaging device 100 increments the variable i by one (step S115), and returns to the determination processing of step S112. If i is equal to or greater than N (No at Step S112), the imaging apparatus 100 uses the N depth maps to adjust the depth image to a specific image height (for example, the image height at the center of the image). A high correction map is created by the correction map generator 130 (step S116).
  • the imaging device 100 is, for example, a textured plate fixed and installed in front of the imaging device 100, and one lens position (eg, in-focus and The correction map may be created by imaging at a certain position.
  • the imaging apparatus 100 moves the lens to a position as close as possible to in-focus using the phase difference AF.
  • the imaging apparatus 100 calculates a difference between the depth of the reference image height (for example, the center of the image height) and the depth of each image height, thereby creating a map holding the offset shift amount of the depth at each image height.
  • the imaging apparatus 100 can reduce the image height dependency of the depth by using the shift amount as the correction value.
  • FIG. 13 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging apparatus 100 moves the lens of the lens unit 110 to a position close to in-focus using the phase difference AF, and captures an image at one of the lens positions (step S121). Subsequently, in the imaging device 100, the depth detection processing unit 122 performs a depth detection process using the image captured at the lens position, and acquires a depth map (step S122).
  • the imaging apparatus 100 uses the one depth map to create a depth image height correction map adjusted to the depth of a specific image height (for example, the image height at the center of the image) by the correction map generation unit 130 ( Step S123).
  • the imaging apparatus 100 calculates a depth value (ideal depth value) in an ideal state without errors by a simulation using design data of a lens provided in the lens unit 110, for example.
  • a correction map may be generated such that actual depth data obtained by photographing a plate having a depth is adjusted to an ideal depth value.
  • the method of creating the image height correction map using the actual data may be any of the methods described above.
  • FIG. 14 is a modification of the example of creating the correction map corresponding to a plurality of focuses shown in FIG.
  • the flowchart shown in FIG. 14 is different from the flowchart shown in FIG. 11 in that the process of creating the depth image height correction map is created so as to match the simulation result (step S105 ').
  • FIG. 15 is a modification of the example of creating a correction map for performing a calculation capable of reducing the image height variation of the n-th order shown in FIG.
  • the flowchart shown in FIG. 15 is different from the flowchart shown in FIG. 12 in that the process of creating the depth image height correction map is created so as to match the simulation result (step S ⁇ b> 116 ′).
  • FIG. 16 is a modification of the example of creating the correction map corresponding to one focus shown in FIG.
  • the flowchart shown in FIG. 16 is different from the flowchart shown in FIG. 13 in that the process of creating the depth image height correction map is created so as to match the simulation result (step S123 ').
  • FIG. 17 is an explanatory diagram showing the relationship between the distance to the subject and depth in a graph.
  • FIG. 17 shows the relationship between the distance to the subject and the depth at the center of the image height, and the relationship between the distance to the subject and the depth at a certain image height of interest.
  • the imaging device 100 may create a correction map by, for example, installing a textured plate in front of the camera, and imaging while changing the distance between the camera and the plate in a state where the focus is fixed. By creating the correction map in this way, a plurality of data representing the relationship as shown in FIG. 17 can be obtained at the entire image height position. Using these data, the imaging apparatus 100 can create a map for correcting a depth that differs for each image height.
  • FIG. 18 is an explanatory diagram illustrating an example of a subject imaged by the imaging device 100 when the correction map is generated.
  • FIG. 18 illustrates an example of a subject including planes at a plurality of distances.
  • the imaging apparatus 100 captures an image of a subject in which planes at a plurality of distances are included in each area obtained by dividing the image as shown in FIG. 18, and generates a correction map from the captured data. May be created. It is assumed that a texture is drawn on the plane shown in FIG.
  • the imaging device 100 can obtain data at a plurality of distances by only once imaging the subject as shown in FIG.
  • FIG. 19 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging device 100 first initializes the variable i to 0 (step S141). Subsequently, the imaging apparatus 100 determines whether the variable i is less than a variable N indicating the number of desired depth maps (step S142). If i is less than N (step S142, Yes), the imaging device 100 images the textured plate at the subject position i as described above (step S143).
  • the subject position i indicates the i-th position among a plurality of positions up to a subject which is predetermined when the correction map is generated.
  • the image capturing apparatus 100 performs the depth detection process in the depth detection processing unit 122 using the image captured at the subject position i, and acquires the depth map i (step S144). Then, subsequently, the imaging device 100 increments the variable i by one (step S145), and returns to the determination processing of step S142. If i is equal to or greater than N (step S142, No), the imaging apparatus 100 uses the N depth maps to adjust the depth image to a specific image height (for example, the image height at the center of the image). The high correction map is created by the correction map generation unit 130 (step S146).
  • step S146 may be such that it is created so as to match the simulation result as shown in the flowchart in FIG. 20 (step S146 ').
  • FIG. 21 is an explanatory diagram showing an example of the relationship between the difference in depth depending on the image height and the parameter on the application side changed by the difference.
  • the imaging device 100 changes the threshold value for determining the blurring amount in conjunction with the depth change due to the image height.
  • the imaging apparatus 100 changes the proportionality constant of the depth and the movement amount of the lens in conjunction with the change of the depth due to the image height.
  • the correction map may be generated by any one of the above-described methods in FIGS.
  • FIG. 22 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of the correction map generation unit 130 generating a correction map corresponding to a plurality of focuses.
  • the flowchart shown in FIG. 22 generates a correction map corresponding to the lens position from a depth map obtained by imaging at a plurality of lens positions, similarly to the flowchart shown in FIG.
  • the processing shown in FIG. 22 differs from the processing shown in FIG. 11 in that a correction map in which application parameters are determined for each image height is obtained (step S151) instead of a depth image height correction map.
  • FIG. 23 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the flow chart shown in FIG. 23 is for generating a correction map for performing a calculation capable of reducing the image height variation of the n-th order, similarly to the flow chart shown in FIG.
  • the processing shown in FIG. 23 differs from the processing shown in FIG. 12 in that a correction map in which application parameters are determined for each image height is obtained (step S152) instead of a depth image height correction map.
  • FIG. 24 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the flow chart shown in FIG. 24 generates a correction map by imaging at one lens position (for example, an in-focus position), similarly to the flow chart shown in FIG.
  • the processing shown in FIG. 24 differs from the processing shown in FIG. 13 in that a correction map in which application parameters are determined for each image height is obtained (step S153) instead of a depth image height correction map.
  • a correction map corresponding to the lens position is generated from a depth map obtained by imaging at one or a plurality of lens positions.
  • the imaging apparatus 100 may generate a correction map so as to match the simulation result, as in the processing shown in FIGS.
  • the imaging apparatus 100 uses a plurality of pupil-divided images to detect depth. At this time, the imaging device 100 may reduce the image height dependency of the depth by correcting those pupil division images.
  • an image obtained by collecting only the left pixel as shown in FIG. 2A is called an L image
  • an image obtained by collecting only the right pixel as shown in FIG. 2B is called an R image.
  • the image capturing apparatus 100 captures an image of a plate having a texture and performs depth detection on the L image and the R image.
  • the pupil division image used for depth detection may be generated from pupil division pixels that are different not only in the left and right but also in the up and down or oblique directions.
  • the image capturing apparatus 100 may correct the L image and the R image by referring to the depth map obtained from the L image and the R image, and reduce the variation in depth at the entire image height.
  • FIG. 25 is an explanatory diagram illustrating a state where the L image and the R image are corrected from the depth map obtained from the L image and the R image. At the time of this correction, the imaging apparatus 100 creates a map in which a correction value for correcting each of the L image and the R image for each image height is recorded.
  • the correction map may be generated by any one of the above-described methods shown in FIGS.
  • FIG. 26 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of how the correction map generation unit 130 creates a correction map corresponding to a plurality of focuses.
  • the flowchart shown in FIG. 26 generates a correction map corresponding to the lens position from a depth map obtained by imaging at a plurality of lens positions, similarly to the flowchart shown in FIG.
  • the processing shown in FIG. 26 differs from the processing shown in FIG. 11 in that a correction map for correcting the pupil division image is obtained (step S161).
  • FIG. 27 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the flow chart shown in FIG. 27 is for generating a correction map for performing a calculation capable of reducing the image height variation of the n-th order, similarly to the flow chart shown in FIG.
  • the processing shown in FIG. 27 differs from the processing shown in FIG. 11 in that a correction map for correcting the pupil division image is obtained (step S162).
  • FIG. 28 is a flowchart illustrating an operation example of the imaging device 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the flowchart shown in FIG. 28 generates a correction map by capturing an image at one lens position (for example, an in-focus position), similarly to the flowchart shown in FIG.
  • the processing shown in FIG. 28 differs from the processing shown in FIG. 13 in that a correction map for correcting the pupil division image is obtained (step S163).
  • a correction map corresponding to the lens position is generated from a depth map obtained by imaging at one or a plurality of lens positions.
  • the imaging apparatus 100 may generate a correction map so as to match the simulation result, as in the processing shown in FIGS.
  • the imaging apparatus 100 changes both the position of the lens and the distance to the subject, so that the image height dependence obtained by combining the above-described methods is improved.
  • a correction map for correcting the characteristics may be generated.
  • the imaging device 100 generates a correction map by changing the distance between the textured plate and the image sensor, and changing the lens position at each distance to perform imaging. May be.
  • the imaging apparatus 100 may generate the correction map by changing the distance between the plate and the image sensor while changing the lens position and performing imaging.
  • FIG. 29 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging device 100 first initializes both the variables i and j to 0 (step S201). Subsequently, the imaging device 100 determines whether the variable i is less than the variable N (Step S202). If i is less than N (Step S202, Yes), the imaging device 100 subsequently determines whether the variable j is less than the variable M (Step S203). If j is less than M (Step S203, Yes), the imaging apparatus 100 captures an image at the lens position j in a state where the distance to the subject (a plate with a texture) is i (Step S204).
  • the imaging device 100 performs depth detection processing by the depth detection processing unit 122 using the image captured at the distance i to the subject and the lens position j, and acquires the depth map (i, j) (step S205). ). Then, the imaging apparatus 100 uses the depth map (i, j) to generate a depth image height correction map (i, j) adjusted to the depth of a specific image height (for example, the image height at the center of the image). It is created by the correction map generator 130 (step S206).
  • the imaging apparatus 100 increments the variable i by one (step S207), and returns to the determination processing of step S203. If j is equal to or greater than M (No at Step S203), the imaging apparatus 100 increments the variable i by one (Step S208), and returns to the determination processing at Step S202. If i is equal to or greater than N (step S202, No), the imaging device 100 ends a series of processes.
  • the distance to the subject is changed after the image pickup is completed at all lens positions by moving the lens position after fixing the distance to the subject.
  • the distance to the subject may be changed after fixing the lens position first, and the lens position may be changed when the image pickup is completed at all the subject distances.
  • FIG. 30 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging device 100 first initializes both the variables i and j to 0 (step S201). Subsequently, the imaging device 100 determines whether the variable i is less than the variable N (Step S202). If i is less than N (Step S202, Yes), the imaging device 100 subsequently determines whether the variable j is less than the variable M (Step S203). If j is less than M (Step S203, Yes), the imaging device 100 captures an image at a distance j to a subject (a plate with a texture) in the state of the lens position i (Step S204 ').
  • the imaging device 100 performs a depth detection process in the depth detection processing unit 122 using the image captured at the lens position i and the distance j to the subject, and acquires a depth map (i, j) (step S205 ′). ). Then, the imaging apparatus 100 uses the depth map (i, j) to generate a depth image height correction map (i, j) adjusted to the depth of a specific image height (for example, the image height at the center of the image). It is created by the correction map generator 130 (step S206 ′).
  • the imaging apparatus 100 increments the variable i by one (step S207), and returns to the determination processing of step S203. If j is equal to or greater than M (No at Step S203), the imaging apparatus 100 increments the variable i by one (Step S208), and returns to the determination processing at Step S202. If i is equal to or greater than N (step S202, No), the imaging device 100 ends a series of processes.
  • FIG. 31 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of creating a correction map by the correction map generation unit 130.
  • the imaging apparatus 100 first initializes both the variables i and j to 0 (step S211). Subsequently, the imaging device 100 determines whether the variable i is less than the variable N (Step S212). If i is less than N (Step S212, Yes), the imaging device 100 subsequently determines whether the variable j is less than the variable M (Step S213). If j is less than M (Step S213, Yes), the imaging device 100 captures an image at the lens position j in a state where the distance to the subject (a plate with a texture) is i (Step S214).
  • the image capturing apparatus 100 performs depth detection processing by the depth detection processing unit 122 using the image captured at the distance i to the subject and the lens position j, and acquires the depth map (i, j) (step S215). ).
  • the imaging apparatus 100 increments the variable i by one (step S216), and returns to the determination processing of step S213. If j is equal to or greater than M (No in step S213), the imaging apparatus 100 increments the variable i by one (step S217), and returns to the determination processing in step S212. If i is equal to or larger than N (No in step S212), the imaging apparatus 100 uses the depth map (N-1, M-1) from the depth map (0, 0) to specify a specific image height (for example, image center). The image height correction map of the depth adjusted to the depth of (image height) is generated by the correction map generation unit 130 (step S218). After generating the correction map, the imaging device 100 ends the series of processing.
  • the distance to the subject is changed after the distance to the subject is fixed, and then the lens position is moved, and the image pickup is completed at all lens positions.
  • the distance to the subject may be changed after fixing the lens position first, and the lens position may be changed when the image pickup is completed at all the subject distances.
  • FIG. 32 is a flowchart illustrating an operation example of the imaging apparatus 100 according to the present embodiment, and is a flowchart illustrating an example of generating a correction map by the correction map generation unit 130.
  • the imaging apparatus 100 first initializes both the variables i and j to 0 (step S211). Subsequently, the imaging device 100 determines whether the variable i is less than the variable N (Step S212). If i is less than N (Step S212, Yes), the imaging device 100 subsequently determines whether the variable j is less than the variable M (Step S213). If j is less than M (Step S213, Yes), the imaging device 100 captures an image at a distance j to a subject (a plate with a texture) in the state of the lens position i (Step S214 ').
  • the imaging device 100 performs depth detection processing by the depth detection processing unit 122 using the image captured at the lens position i and the distance j to the subject, and acquires a depth map (i, j) (step S215 ′). ).
  • the imaging apparatus 100 increments the variable i by one (step S216), and returns to the determination processing of step S213. If j is equal to or greater than M (No in step S213), the imaging apparatus 100 increments the variable i by one (step S217), and returns to the determination processing in step S212. If i is equal to or larger than N (No in step S212), the imaging apparatus 100 uses the depth map (N-1, M-1) from the depth map (0, 0) to specify a specific image height (for example, image center). The image height correction map of the depth adjusted to the depth of (image height) is generated by the correction map generation unit 130 (step S218). After generating the correction map, the imaging device 100 ends the series of processing.
  • the correction maps generated in FIGS. 29 to 32 are not limited to the above-described maps (maps for correcting the depth map itself, maps for correcting application parameters, and maps for correcting the pupil division image), but also the depth image height. Any map can be used as long as the dependency can be corrected.
  • the correction amount is determined based on the image height, but the present disclosure is not limited to such an example.
  • the imaging device 100 may determine the correction amount according to the position in the image without being limited to the image height.
  • the imaging device 100 may generate a correction map having different correction amounts at the upper left and lower right of the image even at the same image height position.
  • the imaging device 100 capable of correcting the in-plane depth variation in the depth map.
  • the imaging apparatus 100 can execute, for example, an application that obtains a distance based on a depth value. Can be determined to be at the same distance regardless of the image height.
  • Example of application to imaging device> The technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be realized as an image sensor.
  • FIG. 33 is a block diagram illustrating a configuration example of an embodiment of an imaging element to which the technology according to the present disclosure can be applied.
  • the image sensor 11 is a CMOS solid-state image sensor, and includes a pixel array unit 12, a vertical drive unit 13, a column processing unit 14, a horizontal drive unit 15, an output unit 16, and a drive control unit 17. It is composed.
  • the pixel array unit 12 includes a plurality of pixels 21 arranged in an array.
  • the pixel array unit 12 is connected to the vertical driving unit 13 via a plurality of horizontal wirings 22 corresponding to the number of rows of the pixels 21, and the columns of the pixels 21 It is connected to the column processing unit 14 via a plurality of vertical wires 23 corresponding to the number. That is, the plurality of pixels 21 included in the pixel array unit 12 are arranged at points where the horizontal wiring 22 and the vertical wiring 23 intersect.
  • the vertical driving unit 13 supplies a driving signal (a transfer signal, a selection signal, a reset signal, etc.) for driving each pixel 21 to the horizontal wiring 22 for each row of the plurality of pixels 21 included in the pixel array unit 12. Sequentially supplied via a driving signal (a transfer signal, a selection signal, a reset signal, etc.) for driving each pixel 21 to the horizontal wiring 22 for each row of the plurality of pixels 21 included in the pixel array unit 12. Sequentially supplied via a driving signal (a transfer signal, a selection signal, a reset signal, etc.) for driving each pixel 21 to the horizontal wiring 22 for each row of the plurality of pixels 21 included in the pixel array unit 12. Sequentially supplied via a driving signal (a transfer signal, a selection signal, a reset signal, etc.) for driving each pixel 21 to the horizontal wiring 22 for each row of the plurality of pixels 21 included in the pixel array unit 12. Sequentially supplied via a driving signal (a transfer signal, a selection signal, a reset signal, etc.) for driving
  • the column processing unit 14 extracts a signal level of the pixel signal by performing a CDS (Correlated Double Sampling: correlated double sampling) process on a pixel signal output from each pixel 21 via the vertical wiring 23, Pixel data corresponding to the amount of light received by the pixel 21 is obtained.
  • CDS Correlated Double Sampling: correlated double sampling
  • the horizontal drive unit 15 outputs, for each column of the plurality of pixels 21 included in the pixel array unit 12, a drive signal for sequentially outputting pixel data acquired from each pixel 21 from the column processing unit 14 to the column processing unit. 14 sequentially.
  • the output unit 16 is supplied with pixel data from the column processing unit 14 at a timing according to the drive signal of the horizontal drive unit 15, and the output unit 16 amplifies the pixel data, for example, and sends it to the subsequent image processing circuit. Output.
  • the drive control unit 17 controls the driving of each block inside the image sensor 11. For example, the drive control unit 17 generates a clock signal according to the drive cycle of each block and supplies the clock signal to each block.
  • the imaging device 11 according to the present disclosure has the following ⁇ 1.
  • Embodiments of the Present Disclosure> can be applied to the imaging element 112. This makes it possible to obtain a captured image that is easier to see.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of moving object such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 34 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio / video output unit 12052, and a vehicle-mounted network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generating device for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting driving force to wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism for adjusting and a braking device for generating a braking force of the vehicle.
  • the body control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a blinker, and a fog lamp.
  • a radio wave or various switch signals transmitted from a portable device replacing the key may be input to the body control unit 12020.
  • the body control unit 12020 receives the input of these radio waves or signals and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • Out-of-vehicle information detection unit 12030 detects information outside the vehicle equipped with vehicle control system 12000.
  • an imaging unit 12031 is connected to the outside-of-vehicle information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform an object detection process or a distance detection process of a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output an electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information in the vehicle.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver status detection unit 12041 that detects the status of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of driver fatigue or concentration based on the detection information input from the driver state detection unit 12041. The calculation may be performed, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 implements the functions of ADAS (Advanced Driver Assistance System) including vehicle collision avoidance or impact mitigation, following running based on the following distance, vehicle speed maintaining running, vehicle collision warning, vehicle lane departure warning, and the like. Cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the information about the surroundings of the vehicle obtained by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver 120 It is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp in accordance with the position of the preceding vehicle or the oncoming vehicle detected by the outside-of-vehicle information detection unit 12030, and performs cooperative control for the purpose of preventing glare such as switching a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits at least one of a sound signal and an image signal to an output device capable of visually or audibly notifying a passenger of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 35 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door of the vehicle 12100, and an upper portion of a windshield in the vehicle interior.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided above the windshield in the passenger compartment mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, and the like.
  • FIG. 35 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates 13 shows an imaging range of an imaging unit 12104 provided in a rear bumper or a back door.
  • a bird's-eye view image of the vehicle 12100 viewed from above is obtained by superimposing image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements or an imaging element having pixels for detecting a phase difference.
  • the microcomputer 12051 calculates a distance to each three-dimensional object in the imaging ranges 12111 to 12114 and a temporal change of the distance (relative speed with respect to the vehicle 12100). , It is possible to extract, as a preceding vehicle, a three-dimensional object that travels at a predetermined speed (for example, 0 km / h or more) in a direction substantially the same as that of the vehicle 12100, which is the closest three-dimensional object on the traveling path of the vehicle 12100. it can.
  • a predetermined speed for example, 0 km / h or more
  • microcomputer 12051 can set an inter-vehicle distance to be secured before the preceding vehicle and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts the three-dimensional object data relating to the three-dimensional object into other three-dimensional objects such as a motorcycle, a normal vehicle, a large vehicle, a pedestrian, a telephone pole, and the like based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating a risk of collision with each obstacle, and when the collision risk is equal to or more than the set value and there is a possibility of collision, via the audio speaker 12061 or the display unit 12062. By outputting a warning to the driver through forced driving and avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • the microcomputer 12051 converts the three-dimensional object data relating to the three-dimensional object into other three-dimensional objects such as a
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian exists in the captured images of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed by, for example, extracting a feature point in an image captured by the imaging units 12101 to 12104 as an infrared camera, and performing a pattern matching process on a series of feature points indicating the outline of the object to determine whether the object is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular contour for emphasis to the recognized pedestrian.
  • the display unit 12062 is controlled so that is superimposed. Further, the sound image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 or the like among the configurations described above.
  • the imaging device 100 the imaging element 112 and the image processing unit 120 illustrated in FIG. 9 can be applied to the imaging unit 12031.
  • Example of application to endoscopic surgery system The technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 36 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure may be applied.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100. And a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 having a predetermined length from the distal end inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • the endoscope 11100 which is configured as a so-called rigid endoscope having a hard lens barrel 11101 is illustrated.
  • the endoscope 11100 may be configured as a so-called flexible endoscope having a soft lens barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the distal end of the lens barrel by a light guide that extends inside the lens barrel 11101, and the objective The light is radiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct view scope, a perspective view scope, or a side view scope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to a camera control unit (CCU: Camera ⁇ Control ⁇ Unit) 11201 as RAW data.
  • CCU Camera ⁇ Control ⁇ Unit
  • the $ CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the operations of the endoscope 11100 and the display device 11202 overall. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as a development process (demosaicing process).
  • a development process demosaicing process
  • the display device 11202 displays an image based on an image signal on which image processing has been performed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light when imaging an operation part or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light when imaging an operation part or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction or the like to change imaging conditions (type of irradiation light, magnification, focal length, and the like) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the driving of the energy treatment instrument 11112 for cauterizing, incising a tissue, sealing a blood vessel, and the like.
  • the insufflation device 11206 is used to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and securing the working space of the operator.
  • the recorder 11207 is a device that can record various types of information related to surgery.
  • the printer 11208 is a device capable of printing various types of information on surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light at the time of imaging the operation site can be configured by, for example, a white light source including an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of the RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is radiated to the observation target in a time-division manner, and the driving of the image pickup device of the camera head 11102 is controlled in synchronization with the irradiation timing. It is also possible to capture the image obtained in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of output light at predetermined time intervals.
  • the driving of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity, an image is acquired in a time-division manner, and the image is synthesized, so that a high dynamic image without so-called blackout and whiteout is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of the absorption of light in the body tissue, by irradiating light in a narrower band than the irradiation light (ie, white light) at the time of normal observation, the surface of the mucous membrane is exposed.
  • a so-called narrow-band light observation (Narrow / Band / Imaging) for photographing a predetermined tissue such as a blood vessel with high contrast is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating excitation light may be performed.
  • body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and Irradiation with excitation light corresponding to the fluorescence wavelength of the reagent can be performed to obtain a fluorescence image.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 37 is a block diagram showing an example of a functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102, and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 includes an imaging element.
  • the number of imaging elements constituting the imaging unit 11402 may be one (so-called single-panel type) or plural (so-called multi-panel type).
  • an image signal corresponding to each of RGB may be generated by each imaging element, and a color image may be obtained by combining the image signals.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the operative part.
  • a plurality of lens units 11401 may be provided for each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405.
  • the magnification and the focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information indicating that the frame rate of the captured image is specified, information that specifies the exposure value at the time of imaging, and / or information that specifies the magnification and focus of the captured image. Contains information about the condition.
  • the above-described imaging conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • the endoscope 11100 has a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on an image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various kinds of control related to imaging of the operation section and the like by the endoscope 11100 and display of a captured image obtained by imaging the operation section and the like. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image showing the operative part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects a shape, a color, or the like of an edge of an object included in the captured image, and thereby detects a surgical tool such as forceps, a specific living body site, bleeding, a mist when using the energy treatment tool 11112, and the like. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operative site.
  • the burden on the operator 11131 can be reduced, and the operator 11131 can reliably perform the operation.
  • the transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the endoscope 11100, the imaging unit 11402 of the camera head 11102, the image processing unit 11412 of the CCU 11201, and the like among the configurations described above.
  • the imaging device 100 (the imaging element 112 and the image processing unit 120) illustrated in FIG. 9 can be applied to the endoscope 11100, the imaging unit 11402, the image processing unit 11412, and the like.
  • the endoscopic surgery system has been described as an example, but the technology according to the present disclosure may be applied to, for example, a microscopic surgery system or the like.
  • each step in the processing executed by each device in this specification does not necessarily have to be processed in chronological order in the order described as a sequence diagram or a flowchart.
  • each step in the processing executed by each device may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
  • a computer program for causing hardware such as a CPU, a ROM, and a RAM built in each device to exhibit the same function as the configuration of each device described above can be created.
  • a storage medium storing the computer program can be provided. Further, by configuring each functional block shown in the functional block diagram by hardware, a series of processing can be realized by hardware.
  • An image sensor having pixels capable of detecting depth, An image processing unit that detects a depth using a signal obtained by the pixel, and performs a process based on the depth, A correction data generation unit that generates correction data for correcting the image height dependency of depth based on the signal in the image processing unit;
  • An imaging device comprising: (2) The imaging device according to (1), wherein the image processing unit corrects the image height dependency of the depth by applying the correction data when detecting the depth. (3) The imaging device according to (1), wherein the image processing unit corrects the image height dependence of the depth by applying the correction data when performing the processing based on the depth.
  • the imaging device wherein the image processing unit corrects the image height dependency of depth by applying the correction data to the signal.
  • the correction data generation unit calculates a relationship between the position of the lens and the depth at all image height positions based on depth information acquired while changing a position of a lens that forms a subject image on the image sensor.
  • the imaging device according to any one of (1) to (4), wherein the correction data is generated by performing the correction.
  • the correction data generation unit calculates the relationship between the distance and the depth at all image height positions based on depth information acquired while changing the distance between the subject and the image sensor.
  • the imaging device according to any one of (1) to (4), which generates data.
  • the correction data generation unit is configured to, based on information on depth obtained by imaging the predetermined subject in a state where the distance between the predetermined subject and the image sensor is fixed, determine a depth offset from a reference image height.
  • the imaging apparatus according to any one of (1) to (4), wherein the correction data generating the shift amount is generated.
  • the correction data generation unit depth information obtained by simulation using design data of a lens that forms a subject image on the imaging device, and the correction data based on the actual depth information, the correction data, The imaging device according to any one of (1) to (4).
  • the processor Detecting depth using a signal obtained from an image sensor including pixels capable of detecting depth, and executing a process based on the depth, Generating correction data for correcting the image height dependency of the detected depth based on the signal, And a correction method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

デプスを検出することが可能な画素を備える撮像素子(112)と、前記画素により得られた信号を用いてデプスを検出する画像処理部(120)と、前記画像処理部(120)においてデプスの像高依存性を補正する補正マップを前記信号に基づいて生成する補正マップ生成部(130)と、を備える、撮像装置(100)が提供される。

Description

撮像装置、補正方法及びコンピュータプログラム
 本開示は、撮像装置、補正方法及びコンピュータプログラムに関する。
 ビデオカメラやデジタルスチルカメラ等には、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等のイメージセンサによって構成された半導体イメージングデバイス(撮像装置)が用いられている。これら撮像装置では、素子ごとにフォトダイオードを含む受光部が形成されており、受光部では入射光を光電変換して信号電荷が生成されている。
 近年、撮像装置において撮像画素の一部を使用して位相を検出し、オートフォーカス(AF)速度を速めようとする方式(像面位相差検出方式)の開発がなされている。この位相差検出方式は、イメージセンサの各画素にオンチップレンズが設けられた2次元のセンサを用いて瞳分割法の焦点検出を行うものである。このオンチップレンズの下部に設けられる画素を瞳分割画素と称する。そして、この瞳分割画素が生成する画像を用いることで、画像中の被写体の距離情報をデプスマップとして得ることができる。
特開2012-128101号公報
 瞳分割画素を用いてデプス検出を行う際には、レンズが湾曲した形状をしていることや、レンズマウントずれに起因した、デプスの像高依存性が生じていた。すなわち、異なる像高位置に同じ距離の被写体が存在していたとしても、それらの被写体から検出されるデプスが異なるという現象が観測されていた。
 上記特許文献1では、コントラストAF(Auto Focus)でin-focusとなる(焦点が合っている)レンズ位置を探し出し、その位置における位相差をオフセットずれとして用いている。しかし特許文献1で開示された目的とするのは位相差AFの改善であり、補正しているのはオフセットずれのみである。そのため、レンズ位置が変化した際に生じる位相差のずれ量は補正することができず、結果的にデプスマップにおける面内のデプスのばらつきを補正しきれない。
 そこで本開示は、デプス検出可能な画素を持ったセンサで検出されたデプスの像高依存性を低減させる、新規かつ改良された撮像装置、補正方法及びコンピュータプログラムを提供する。
 本開示によれば、デプスを検出することが可能な画素を備える撮像素子と、前記画素により得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行する画像処理部と、前記画像処理部においてデプスの像高依存性を補正する補正データを前記信号に基づいて生成する補正データ生成部と、を備える、撮像装置が提供される。
 また、本開示によれば、プロセッサが、デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、を含む、補正方法が提供される。
 また、本開示によれば、コンピュータに、デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、を実行させる、コンピュータプログラムが提供される。
 以上説明したように本開示によれば、デプス検出可能な画素を持ったセンサで検出されたデプスの像高依存性を低減させる、新規かつ改良された撮像装置、補正方法及びコンピュータプログラムが提供される。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
瞳分割画素の例を示す説明図である。 瞳分割画素から生成した画像の例を示す説明図である。 瞳分割画素から生成した画像の例を示す説明図である。 瞳分割画素から生成した画像の例を示す説明図である。 瞳分割画素から生成した画像の例を示す説明図である。 イメージセンサが生成する画像及びその画像から生成したデプスマップの例を示す説明図である。 像高について示す説明図である。 デプスの像高依存性を示す説明図である。 コントラストAFについて示す説明図である。 位相差AFについて示す説明図である。 特許文献1における技術を示す説明図である。 本開示の実施の形態に係る撮像装置の機能構成例を示す説明図である。 複数の像高におけるフォーカス(レンズ位置)とデプスとの関係例を示す説明図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 被写体までの距離とデプスとの関係をグラフで示す説明図である。 撮像装置が補正マップの生成時に撮像する被写体の例を示す説明図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 像高によるデプスの違いと、それにより変化させるアプリケーション側のパラメータとの関係例を示す説明図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 瞳分割画像から得られたデプスマップから、瞳分割画像を補正する様子を示す説明図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 同実施形態に係る撮像装置の動作例を示す流れ図である。 本開示に係る技術が適用され得る撮像素子の一実施の形態の構成例を示すブロック図である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の例を示す図である。 本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 図36に示すカメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施の形態
  1.1.経緯
  1.2.構成例
  1.3.動作例
 2.まとめ
 3.撮像素子への応用例
 4.移動体への応用例
 5.内視鏡手術システムへの応用例
 <1.本開示の実施の形態>
 [1.1.経緯]
 まず、本開示の実施の形態に至った経緯について説明する。上述したように、瞳分割画素が生成する画像を用いることで、画像中の被写体の距離情報をデプスマップとして得ることができる。図1は、瞳分割画素の例を示す説明図である。瞳分割画素は、1つのオンチップレンズ10に対応する複数の画素からなる。図1では、1つのオンチップレンズ10に4つの瞳分割画素が存在しているが、1つのオンチップレンズあたりの瞳分割画素の数は係る例に限定されるものではない。
 例えば、図1のように1つのオンチップレンズあたり4つの瞳分割画素が存在する場合、画像の生成に用いる瞳分割画素を上下または左右で異ならせると、画像中の被写体のシフト量がイメージセンサからの距離に応じて変化する。つまり、ピントが合っている位置(合焦位置)ではシフト量はゼロとなり、合焦位置から離れるほどシフト量が大きくなる。
 図2A~2Dは、瞳分割画素から生成した画像の例を示す説明図である。図2A~2Dには、いずれもチェッカパターンの板と、その板の前に置かれている人形とを、瞳分割画素を用いて撮像した画像の例が示されている。これらの画像は、いずれもチェッカパターンの板のやや奥で合焦するようにピントが調整されている。
 図2Aは、4つの瞳分割画素の内、左の2つの画素で生成した画像の例である。図2Bは、4つの瞳分割画素の内、右の2つの画素で生成した画像の例である。画像の生成に用いる瞳分割画素を切り替えると、図2A、2Bに示したように、合焦位置からあまり離れていない奥のチェッカパターンの板はあまりシフトしないが、その手前に置かれた、合焦位置からより離れている人形は比較的大きくシフトしている。
 図2Cは、4つの瞳分割画素の内、下の2つの画素で生成した画像の例である。図2Dは、4つの瞳分割画素の内、上の2つの画素で生成した画像の例である。画像の生成に用いる瞳分割画素を切り替えると、図2C、2Dに示したように、合焦位置からあまり離れていない奥のチェッカパターンの板はあまりシフトしないが、その手前に置かれた、合焦位置からより離れている人形は比較的大きくシフトしている。
 このシフト量を用いることで、イメージセンサから被写体までの距離(デプス)の算出ができる。
 デプスマップとは、イメージセンサから被写体までの距離を画像化したものである。デプスマップの例として、被写体までの遠近を白黒の濃淡で表現したものがある。図3は、イメージセンサが生成する画像及びその画像から生成したデプスマップの例である。図3に示したデプスマップは、イメージセンサから近い位置にあるほど黒く、遠いほど白くなる画像である。
 このように瞳分割画素を用いてデプス検出を行う際、レンズが湾曲した形状をしていることや、レンズマウントずれに起因した、デプスの像高依存性が生じていた。すなわち、異なる像高位置に同じ距離の被写体が存在していたとしても、それらの被写体から検出されるデプスが異なるという現象が観測されていた。
 像高とは、光軸(例えば画像の中心)からの距離のことをいう。光軸が画像の中心の場合、画像の中央部分は像高が低いと表現され、画像の端の部分は像高が高いと表現される。図4は、像高について示す説明図である。図4では、画像の中心を光軸とした場合の像高を示しており、画像の中央部分は像高が低く、画像の端の部分は像高が高いことを現している。
 模様の描かれた板を撮像すると、板は平面なので、イメージセンサからの距離は像高に依らず等しいはずであるが、この板を撮像した画像から得られたデプスマップを見ると、像高によってデプスの値が異なるという現象が生じる。この現象のことをデプスの像高依存性と称する。図5は、デプスの像高依存性を示す説明図である。図5の上の画像のような、模様が描かれている板を撮像した画像から得られるデプスマップの例を図5の左下に示す。このように像高によってデプスの値が異なるという現象が生じる。像高によってデプスの値が異なると、例えば、デプスの値から距離を求めるアプリケーションが、イメージセンサから同じ距離にある被写体であっても、像高によってその被写体が異なる距離にあると判定してしまう。
 続いて、被写体に自動的に合焦させる技術について説明する。被写体に自動的に合焦させる方法として、コントラストAFと、位相差AFとがある。コントラストAFとは、レンズの位置を動かして、画像のコントラストがピークになるレンズの位置を探し出す方法である。図6は、コントラストAFについて示す説明図である。図6のグラフは、横軸がレンズ位置、縦軸が画像のコントラストである。レンズ位置とコントラストとの関係が図6のグラフのような場合、コントラストがもっとも大きいレンズ位置が、被写体にピントが合っている位置であるとするのがコントラストAFである。
 位相差AFは、レンズの位置を動かして、画像の位相差(ぼけ量)がゼロになるレンズの位置を探し出す方法である。図7は、位相差AFについて示す説明図である。図7のグラフは、横軸がレンズ位置、縦軸が位相差である。レンズ位置と位相差との関係が図7のグラフのような場合、位相差がゼロとなるレンズ位置が、被写体にピントが合っている位置であるとするのが位相差AFである。
 位相差AFを用いると、原理的にはin-focusの位置で位相差が0になるはずであるが、実際はオフセットが乗ってしまう。上記特許文献1では、コントラストAFを用いてin-focusのレンズ位置を探し、その位置における位相差の値をオフセットとして、このオフセットを補正する技術が開示されている。図8は、上記特許文献1における技術を示す説明図である。図8に示したグラフは、実線がレンズ位置とコントラストとの関係を、一点鎖線がレンズ位置と位相差との関係を表している。
 しかし特許文献1で開示された目的とするのは位相差AFの改善であり、補正しているのはオフセットずれのみである。そのため、レンズ位置が変化した際に生じる位相差のずれ量は補正することができず、結果的にデプスマップにおける面内のデプスのばらつきを補正しきれない。
 そこで本件開示者は、上述した点に鑑み、デプスマップにおける面内のデプスのばらつきを補正することが可能な技術について鋭意検討を行った。その結果、本件開示者は、以下で説明するように、デプスマップにおける面内のデプスのばらつきを補正することが可能な技術を考案するに至った。
 以上、本開示の実施の形態に至った経緯について説明した。続いて、本開示の実施の形態について詳細に説明する。
 [1.2.構成例]
 まず、本開示の実施の形態に係る撮像装置の機能構成例について説明する。図9は、本開示の実施の形態に係る撮像装置100の機能構成例を示す説明図である。以下、図9を用いて本開示の実施の形態に係る撮像装置100の機能構成例について説明する。
 図9に示したように、本開示の実施の形態に係る撮像装置100は、レンズ部110と、撮像素子112と、画像処理部120と、補正マップ生成部130と、を含んで構成される。
 レンズ部110は、撮像素子112へ光を照射するためのレンズ群が配置されている。本実施形態では、後述の補正マップ生成部130が補正マップを生成する際に、レンズ部110が補正マップ生成部130により駆動されて、レンズ位置が移動される。
 撮像素子112は、上述の、1つのオンチップレンズに複数の画素が対応しているような、デプス検出可能に構成されるイメージセンサで構成される。撮像素子112は、レンズ部110を通して照射された光から画像データを生成して、後段の画像処理部120に出力する。本実施形態では、撮像素子112は2つの瞳分割画像A、Bを生成して画像処理部120に出力する。瞳分割画像は、瞳分割画素を集めて得られる画像である。この瞳分割画像は、図2A、2Bに示したような左右の瞳分割画素から生成したものであってもよく、図2C、2Dに示したような上下の瞳分割画素から生成したものであってもよい。また、瞳分割画像は図1に示した4つの瞳分割画素のうち、右上と左下、または左上と右下のような斜めのペアから生成したものであってもよい。
 画像処理部120は、撮像素子112から出力される画像データを用いた画像処理を実行する。本実施形態では、画像処理部120は、撮像素子112から出力される画像データを用いてデプスマップを生成し、そのデプスマップを用いた処理を実行する。図9に示したように、画像処理部120は、画像のデプスを検出してデプスマップを生成するデプス検出処理部122と、デプス検出処理部122が生成したデプスマップを用いた処理を実行するアプリケーション124と、を含んで構成される。
 デプス検出処理部122は、瞳分割画像A、Bを用いて画像中のデプスを検出し、デプスマップを生成する。上述したように、画像の生成に用いる瞳分割画素を上下、左右または斜め方向で異ならせると、画像中の被写体のシフト量が撮像素子112からの距離に応じて変化する。つまり、撮像素子112に合焦している被写体のシフト量はゼロとなり、撮像素子112の合焦位置から離れている被写体のシフト量は、合焦位置から離れるほど大きくなる。デプス検出処理部122は、このシフト量の大小の情報を用いてデプスマップを生成する。
 アプリケーション124は、デプス検出処理部122から送られるデプスマップに基づいた各種処理を実行する。アプリケーション124が実行する処理には、例えばオートフォーカス処理、背景ぼかし処理、測距処理などがあり得る。
 画像処理部120は、例えば、汎用的なプロセッサとして構成されてもよく、画像処理プロセッサやグラフィックプロセッサのような画像処理に特化したプロセッサとして構成されてもよい。また画像処理部120は、アプリケーション124の実体が記憶される各種メモリを備えていても良い。
 補正マップ生成部130は、画像処理部120において生成されるデプスマップを補正するための補正マップ132を生成する。補正マップ132は、本開示の補正データの一例であり、デプスマップに対して像高依存性を補正するための、マップ形式の補正データである。従って補正マップ生成部130は、本開示の補正データ生成部として機能する。
 補正マップ生成部130は、補正マップ132の生成に際し、複数のレンズ位置でのデプスマップのデータを用いる。従って補正マップ生成部130は、レンズ部110を駆動させる機能を有しうる。この補正マップ生成部130による補正マップ132の生成は、製品の出荷前に実行されることを想定しているが、その他にも、例えば撮像装置100に対するユーザの操作により実行されても良い。
 補正マップ生成部130は、例えば、汎用的なプロセッサとして構成されてもよく、画像処理プロセッサやグラフィックプロセッサのような画像処理に特化したプロセッサとして構成されてもよい。
 補正マップ生成部130が生成した補正マップ132は、デプスマップの補正に用いられる。デプス検出処理部122が、補正マップ132を用いて補正したデプスマップを出力しても良く、アプリケーション124が、補正マップ132を用いてデプス検出処理部122が生成したデプスマップを補正しても良く、撮像素子112が出力する瞳分割画像に対して補正マップ132が適用されても良い。
 デプス検出処理部122が、補正マップ132を用いて補正したデプスマップを出力するということは、デプス検出処理部122のデプス検出処理の途中でデプスマップの像高依存性の補正を行うことである。
 アプリケーション124が、補正マップ132を用いてデプス検出処理部122が生成したデプスマップを補正するとは、デプス検出処理部122が生成するデプスマップの像高依存性を補正せずに、後段のアプリケーション側のパラメータを像高別に変化させることである。
 撮像素子112が出力する瞳分割画像に対して補正マップ132が適用されるようにするとは、デプスの像高依存性が軽減されるように瞳分割画像を補正することである。それぞれの手法については後に詳述する。
 本開示の実施の形態に係る撮像装置100は、係る構成を有することで、デプスの像高依存性を補正したデプスマップを生成することが出来る。
 なお、図9に示した撮像装置100は、2つの瞳分割画像を用いてデプスを検出し、デプスマップを生成しているが、デプスを検出するための瞳分割画像の数は係る例に限定されるものでは無い。
 以上、本開示の実施の形態に係る撮像装置100の機能構成例について説明した。続いて、本開示の実施の形態に係る撮像装置100の動作例について説明する。
 [1.3.動作例]
 (1.3.1)デプス検出処理の途中でデプスマップを補正
 まず、デプス検出処理部122のデプス検出処理の途中でデプスマップの像高依存性の補正を行う場合の動作例を説明する。デプス検出処理部122は、複数の瞳分割画像を入力し、それらを用いてデプス検出処理を行う。この際に、デプス検出処理部122は、事前に作成された補正マップ132を用いることで、デプスマップの像高依存性を補正する。補正マップの作成方法の例として、以下のようなものが挙げられる。
 (1)テクスチャ付きの被写体を複数のレンズ位置で撮像して補正
 撮像装置100は、例えば、テクスチャ(チェッカパターン、ラダーパターン、ランダムドットパターンなど)のある板を撮像装置100の前に固定して設置し、異なるフォーカス(レンズ位置)で撮像することによって補正マップを作成してもよい。図10は、複数の像高におけるフォーカス(レンズ位置)とデプスとの関係例を示す説明図である。撮像装置100は、このような、フォーカスとデプスとの関係を表すデータを全像高位置において複数得ることができる。撮像装置100は、これらのデータを用いることで、例えば以下のような補正マップを取得できる。
 撮像装置100は、各フォーカスに対応した補正マップを作成することができる。デプス検出処理部122は、補正処理を行う際には、その時のフォーカスに対応する補正マップを用意し、デプスの像高ばらつきを軽減するような計算をそれぞれの像高に対して行うことができる。
 図11は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による、複数のフォーカスに対応する補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数iを0に初期化する(ステップS101)。続いて、撮像装置100は、変数iが、所望のデプスマップの数を示す変数N未満であるかどうか判断する(ステップS102)。iがN未満であれば(ステップS102、Yes)、撮像装置100は、上述したように、レンズ部110のレンズを移動させて、テクスチャのある板をレンズ位置iで撮像する(ステップS103)。このレンズ位置iとは、補正マップの生成の際に予め定められた複数のレンズ位置の内のi番目のレンズ位置のことを指す。レンズ位置は、等間隔に定められてもよいが、必ずしも等間隔に定められている必要は無い。
 続いて撮像装置100は、レンズ位置iで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップiを取得する(ステップS104)。そして、撮像装置100は、そのデプスマップiを用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップiを補正マップ生成部130で作成する(ステップS105)。
 その後、撮像装置100は変数iを1つインクリメントし(ステップS106)、ステップS102の判断処理に戻る。iがN以上となれば(ステップS102、No)、撮像装置100は、一連の処理を終了する。
 図10のように、フォーカス(レンズ位置)とデプスの関係をプロットし、それらの点をn次式(nは任意の1以上の整数)で回帰させることができる。撮像装置100は、このn次式の像高ばらつきを軽減できるような計算を行うための補正マップを作成する。デプス検出処理部122は、補正処理を行う際には、この補正マップから撮像時のフォーカスに対応する補正値を取得し、デプスの像高ばらつきを軽減するような計算をそれぞれの像高に対して行うことができる。
 図12は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数iを0に初期化する(ステップS111)。続いて、撮像装置100は、変数iが、所望のデプスマップの数を示す変数N未満であるかどうか判断する(ステップS112)。iがN未満であれば(ステップS112、Yes)、撮像装置100は、上述したように、テクスチャのある板をレンズ位置iで撮像する(ステップS113)。
 続いて撮像装置100は、レンズ位置iで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップiを取得する(ステップS114)。そして、続いて、撮像装置100は変数iを1つインクリメントし(ステップS115)、ステップS112の判断処理に戻る。iがN以上となれば(ステップS112、No)、撮像装置100は、N個のデプスマップを用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップを補正マップ生成部130で作成する(ステップS116)。
 (2)テクスチャ付きの被写体を1つのフォーカスで撮像して補正
 撮像装置100は、例えば、テクスチャのある板を撮像装置100の前に固定して設置し、1つのレンズ位置(例えばin-focusとなる位置)で撮像することによって補正マップを作成してもよい。この補正マップの作成の際に、撮像装置100は、位相差AFを用いてなるべくin-focusに近い位置にレンズを移動させておく。そして撮像装置100は、基準となる像高(例えば像高中心)のデプスと各像高のデプスの差を計算することで、各像高におけるデプスのオフセットずれ量を保持したマップを作成する。撮像装置100は、このずれ量を補正値として用いることで、デプスの像高依存性を軽減することができる。
 図13は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、位相差AFを用いて、in-focusに近い位置にレンズ部110のレンズを移動させ、その1種類のレンズ位置で撮像する(ステップS121)。続いて撮像装置100は、そのレンズ位置で撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップを取得する(ステップS122)。
 そして撮像装置100は、この1つのデプスマップを用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップを補正マップ生成部130で作成する(ステップS123)。
 (3)シミュレーション結果を用いて補正
 撮像装置100は、例えば、レンズ部110に備えられるレンズの設計データを用いたシミュレーションによって、誤差のない理想状態におけるデプス値(理想デプス値)を算出し、テクスチャのある板を撮影して得られた実際のデプスデータを理想デプス値に合わせこむような補正マップを生成しても良い。実データを用いた像高補正マップの作成方法は先述のいずれの方法でも良い。
 図14は、図11に示した複数のフォーカスに対応する補正マップの作成例の変形例である。図14に示した流れ図は、図11に示した流れ図と比較して、デプスの像高補正マップを作成する処理が、シミュレーション結果に合わせこむように作成する(ステップS105’)点で異なる。
 図15は、図12に示したn次式の像高ばらつきを軽減できるような計算を行うための補正マップの作成例の変形例である。図15に示した流れ図は、図12に示した流れ図と比較して、デプスの像高補正マップを作成する処理が、シミュレーション結果に合わせこむように作成する(ステップS116’)点で異なる。
 図16は、図13に示した1つのフォーカスに対応する補正マップの作成例の変形例である。図16に示した流れ図は、図13に示した流れ図と比較して、デプスの像高補正マップを作成する処理が、シミュレーション結果に合わせこむように作成する(ステップS123’)点で異なる。
 (4)テクスチャ付きの被写体を複数の距離で撮像して補正
 図17は、被写体までの距離とデプスとの関係をグラフで示す説明図である。図17には、像高中心における被写体までの距離とデプスとの関係、および、注目しているある像高における被写体までの距離とデプスとの関係が示されている。
 撮像装置100は、例えば、テクスチャのある板をカメラの前に設置し、フォーカスを固定した状態で、カメラと板の距離を変化させながら撮像することによって補正マップを作成してもよい。このように補正マップを作成することで、図17に示したような関係を表すデータを、全像高位置において複数得ることができる。撮像装置100は、これらのデータを用いることで、像高ごとに異なっているデプスを補正するためのマップを作成することができる。
 図18は、撮像装置100が補正マップの生成時に撮像する被写体の例を示す説明図である。図18には、複数の距離の平面が含まれている被写体の例が示されている。撮像装置100は、図18に示したような、画像を分割して得られた各領域内に、複数の距離の平面が含まれているような被写体を撮像し、その撮像データから補正マップを作成してもよい。図18に示した平面にはテクスチャが描かれているものとする。撮像装置100は、この図18に示したような被写体を一度撮像するだけで、複数の距離のデータを得ることができる。
 図19は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数iを0に初期化する(ステップS141)。続いて、撮像装置100は、変数iが、所望のデプスマップの数を示す変数N未満であるかどうか判断する(ステップS142)。iがN未満であれば(ステップS142、Yes)、撮像装置100は、上述したように、テクスチャのある板を被写体位置iで撮像する(ステップS143)。被写体位置iとは、補正マップの生成の際に予め定められた被写体までの複数の位置の内のi番目の位置のことを指す。
 続いて撮像装置100は、被写体位置iで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップiを取得する(ステップS144)。そして、続いて、撮像装置100は変数iを1つインクリメントし(ステップS145)、ステップS142の判断処理に戻る。iがN以上となれば(ステップS142、No)、撮像装置100は、N個のデプスマップを用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップを補正マップ生成部130で作成する(ステップS146)。
 なお、ステップS146の処理は、図20に示した流れ図のようにシミュレーション結果に合わせこむように作成する(ステップS146’)ものであってもよい。
 (1.3.2)アプリケーションのパラメータの像高別変化
 本開示の実施の形態に係る撮像装置100は、アプリケーション124においてデプスマップを使用する際に、デプスマップに対しては像高依存性の補正処理を適用せず、像高ごとにアプリケーション側のパラメータを変化させることで、デプスの像高依存性を軽減してもよい。
 図21は、像高によるデプスの違いと、それにより変化させるアプリケーション側のパラメータとの関係例を示す説明図である。図21のように、テクスチャのある板を撮影した際に、像高中心と像高端でデプスの大小が異なったというケースを考える。この場合、撮像装置100は、アプリケーション124においてデプスマップを背景ぼかしに用いる際に、像高によるデプスの変化に連動させてぼかし量を決定する閾値を変化させる。また、撮像装置100は、アプリケーション124においてデプスマップをオートフォーカス処理に用いる場合であれば、像高によるデプスの変化に連動させて、デプスとレンズの移動量の比例定数を変化させる。
 アプリケーション124でパラメータを変化させることで像高依存性を軽減させる場合、補正マップは上述の図11~図16のいずれかの方法で生成されたものであってもよい。
 図22は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による、複数のフォーカスに対応する補正マップの作成例を示す流れ図である。
 図22に示した流れ図は、図11に示した流れ図と同様に、複数のレンズ位置で撮像して得られるデプスマップから、そのレンズ位置に対応する補正マップを生成するものである。図22に示した処理では、デプスの像高補正マップではなく、アプリケーションのパラメータを像高ごとに決定した補正マップを取得する(ステップS151)点で図11に示した処理と異なっている。
 図23は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 図23に示した流れ図は、図12に示した流れ図と同様に、n次式の像高ばらつきを軽減できるような計算を行うための補正マップを生成するものである。図23に示した処理では、デプスの像高補正マップではなく、アプリケーションのパラメータを像高ごとに決定した補正マップを取得する(ステップS152)点で図12に示した処理と異なっている。
 図24は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 図24に示した流れ図は、図13に示した流れ図と同様に、1つのレンズ位置(例えばin-focusとなる位置)で撮像することによって補正マップを生成するものである。図24に示した処理では、デプスの像高補正マップではなく、アプリケーションのパラメータを像高ごとに決定した補正マップを取得する(ステップS153)点で図13に示した処理と異なっている。
 図22~24の例では、1つまたは複数のレンズ位置で撮像して得られるデプスマップから、そのレンズ位置に対応する補正マップを生成しているものであるが、本開示は係る例に限定されるものではない。撮像装置100は、図14~16に示した処理のように、シミュレーション結果に合わせこむように補正マップを生成しても良い。
 (1.3.3)デプス検出用の瞳分割画像を補正
 本実施形態に係る撮像装置100は、デプスを検出するために複数の瞳分割画像を用いる。その際、撮像装置100は、それらの瞳分割画像を補正することで、デプスの像高依存性を軽減してもよい。
 瞳分割画素のうち、図2Aのように左の画素のみを集めて得られた画像をL画像、図2Bのように右の画素のみを集めて得られた画像をR画像と呼ぶことにする。そして本実施形態に係る撮像装置100は、テクスチャのある板を撮影し、このL画像とR画像とでデプス検出を行うとする。もちろん、上述したようにデプス検出に用いられる瞳分割画像は、左右だけでなく、上下または斜め方向で異ならせた瞳分割画素から生成されてもよい。
 撮像装置100は、このL画像とR画像とから得られたデプスマップを参照することでL画像とR画像とを補正し、全像高でデプスのばらつきを軽減させてもよい。図25は、L画像とR画像とから得られたデプスマップから、L画像とR画像とを補正する様子を示す説明図である。この補正に際し、撮像装置100は、L画像とR画像とのそれぞれに対し、像高ごとに補正するための補正値を記録したマップを作成する。
 瞳分割画像を補正することで像高依存性を軽減させる場合、補正マップは上述の図11~図16のいずれかの方法で生成されたものであってもよい。
 図26は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による、複数のフォーカスに対応する補正マップの作成例を示す流れ図である。
 図26に示した流れ図は、図11に示した流れ図と同様に、複数のレンズ位置で撮像して得られるデプスマップから、そのレンズ位置に対応する補正マップを生成するものである。図26に示した処理では、瞳分割画像を補正するための補正マップを取得する(ステップS161)点で図11に示した処理と異なっている。
 図27は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 図27に示した流れ図は、図12に示した流れ図と同様に、n次式の像高ばらつきを軽減できるような計算を行うための補正マップを生成するものである。図27に示した処理では、瞳分割画像を補正するための補正マップを取得する(ステップS162)点で図11に示した処理と異なっている。
 図28は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 図28に示した流れ図は、図13に示した流れ図と同様に、1つのレンズ位置(例えばin-focusとなる位置)で撮像することによって補正マップを生成するものである。図28に示した処理では、瞳分割画像を補正するための補正マップを取得する(ステップS163)点で図13に示した処理と異なっている。
 図26~28の例では、1つまたは複数のレンズ位置で撮像して得られるデプスマップから、そのレンズ位置に対応する補正マップを生成しているものであるが、本開示は係る例に限定されるものではない。撮像装置100は、図14~16に示した処理のように、シミュレーション結果に合わせこむように補正マップを生成しても良い。
 (1.3.4)上述の方法の組み合わせ
 本開示の実施の形態に係る撮像装置100は、レンズの位置と被写体までの距離の両方を変化させることで、上述の手法を組み合わせた像高依存性を補正するための補正マップを生成しても良い。
 すなわち本開示の実施の形態に係る撮像装置100は、テクスチャのある板とイメージセンサとの間の距離を変化させながら、各距離にてレンズ位置を変化させて撮像することで補正マップを生成しても良い。逆に、本開示の実施の形態に係る撮像装置100は、レンズ位置を変化させながら、板とイメージセンサの間の距離を変化させて撮像することで補正マップを生成しても良い。
 図29は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数i、jをいずれも0に初期化する(ステップS201)。続いて、撮像装置100は、変数iが変数N未満であるかどうか判断する(ステップS202)。iがN未満であれば(ステップS202、Yes)、続いて撮像装置100は、撮像装置100は、変数jが、変数M未満であるかどうか判断する(ステップS203)。jがM未満であれば(ステップS203、Yes)、撮像装置100は、被写体(テクスチャのある板)までの距離がiの状態で、レンズ位置jで撮像する(ステップS204)。
 続いて撮像装置100は、被写体までの距離がi、レンズ位置jで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップ(i,j)を取得する(ステップS205)。そして、撮像装置100は、そのデプスマップ(i,j)を用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップ(i,j)を補正マップ生成部130で作成する(ステップS206)。
 その後、撮像装置100は変数iを1つインクリメントし(ステップS207)、ステップS203の判断処理に戻る。jがM以上となれば(ステップS203、No)、撮像装置100は、変数iを1つインクリメントし(ステップS208)、ステップS202の判断処理に戻る。iがN以上となれば(ステップS202、No)、撮像装置100は、一連の処理を終了する。
 図29に示した処理では、被写体までの距離を固定してからレンズ位置を移動させて、全てのレンズ位置で撮像し終えたら被写体までの距離を変えていたが、本開示は係る例に限定されるものではない。先にレンズ位置を固定してから被写体までの距離を変化させ、全ての被写体距離で撮像し終えたらレンズ位置を変えても良い。
 図30は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数i、jをいずれも0に初期化する(ステップS201)。続いて、撮像装置100は、変数iが変数N未満であるかどうか判断する(ステップS202)。iがN未満であれば(ステップS202、Yes)、続いて撮像装置100は、撮像装置100は、変数jが、変数M未満であるかどうか判断する(ステップS203)。jがM未満であれば(ステップS203、Yes)、撮像装置100は、レンズ位置iの状態で、被写体(テクスチャのある板)までの距離jで撮像する(ステップS204’)。
 続いて撮像装置100は、レンズ位置i、被写体までの距離jで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップ(i,j)を取得する(ステップS205’)。そして、撮像装置100は、そのデプスマップ(i,j)を用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップ(i,j)を補正マップ生成部130で作成する(ステップS206’)。
 その後、撮像装置100は変数iを1つインクリメントし(ステップS207)、ステップS203の判断処理に戻る。jがM以上となれば(ステップS203、No)、撮像装置100は、変数iを1つインクリメントし(ステップS208)、ステップS202の判断処理に戻る。iがN以上となれば(ステップS202、No)、撮像装置100は、一連の処理を終了する。
 図31は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数i、jをいずれも0に初期化する(ステップS211)。続いて、撮像装置100は、変数iが変数N未満であるかどうか判断する(ステップS212)。iがN未満であれば(ステップS212、Yes)、続いて撮像装置100は、撮像装置100は、変数jが、変数M未満であるかどうか判断する(ステップS213)。jがM未満であれば(ステップS213、Yes)、撮像装置100は、被写体(テクスチャのある板)までの距離がiの状態で、レンズ位置jで撮像する(ステップS214)。
 続いて撮像装置100は、被写体までの距離がi、レンズ位置jで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップ(i,j)を取得する(ステップS215)。
 その後、撮像装置100は変数iを1つインクリメントし(ステップS216)、ステップS213の判断処理に戻る。jがM以上となれば(ステップS213、No)、撮像装置100は、変数iを1つインクリメントし(ステップS217)、ステップS212の判断処理に戻る。iがN以上となれば(ステップS212、No)、撮像装置100は、デプスマップ(0,0)からデプスマップ(N-1,M-1)を用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップを補正マップ生成部130で作成する(ステップS218)。撮像装置100は、補正マップを生成すると、一連の処理を終了する。
 図31に示した処理では、被写体までの距離を固定してからレンズ位置を移動させて、全てのレンズ位置で撮像し終えたら被写体までの距離を変えていたが、本開示は係る例に限定されるものではない。先にレンズ位置を固定してから被写体までの距離を変化させ、全ての被写体距離で撮像し終えたらレンズ位置を変えても良い。
 図32は、本実施形態に係る撮像装置100の動作例を示す流れ図であり、補正マップ生成部130による補正マップの作成例を示す流れ図である。
 撮像装置100は、まず変数i、jをいずれも0に初期化する(ステップS211)。続いて、撮像装置100は、変数iが変数N未満であるかどうか判断する(ステップS212)。iがN未満であれば(ステップS212、Yes)、続いて撮像装置100は、撮像装置100は、変数jが、変数M未満であるかどうか判断する(ステップS213)。jがM未満であれば(ステップS213、Yes)、撮像装置100は、レンズ位置iの状態で、被写体(テクスチャのある板)までの距離jで撮像する(ステップS214’)。
 続いて撮像装置100は、レンズ位置i、被写体までの距離jで撮像した画像を用いて、デプス検出処理部122でデプス検出処理を行い、デプスマップ(i,j)を取得する(ステップS215’)。
 その後、撮像装置100は変数iを1つインクリメントし(ステップS216)、ステップS213の判断処理に戻る。jがM以上となれば(ステップS213、No)、撮像装置100は、変数iを1つインクリメントし(ステップS217)、ステップS212の判断処理に戻る。iがN以上となれば(ステップS212、No)、撮像装置100は、デプスマップ(0,0)からデプスマップ(N-1,M-1)を用いて、特定の像高(例えば画像中央の像高)のデプスに合わせこんだ、デプスの像高補正マップを補正マップ生成部130で作成する(ステップS218)。撮像装置100は、補正マップを生成すると、一連の処理を終了する。
 この図29~32で生成する補正マップは、上述したようなマップ(デプスマップそのものを補正するマップ、アプリケーションのパラメータを補正するマップ、瞳分割画像を補正するマップ)に限らず、デプスの像高依存性を補正できるようなマップであればどのようなものでも良い。
 (1.3.5)画像位置ごとの補正量決定
 上述の手法では、補正量を像高に基づいて決定しているが、本開示は係る例に限定されるものでは無い。例えば、撮像装置100は、像高に限らず画像中の位置に応じて補正量を決定しても良い。例えば、撮像装置100は、同じ像高の位置であっても、画像の左上と右下で補正量が異なる補正マップを生成しても良い。
 <2.まとめ>
 以上説明したように本開示の実施の形態によれば、デプスマップにおける面内のデプスのばらつきを補正することが可能な撮像装置100が提供される。デプスマップにおける面内のデプスのばらつきを補正することで、本開示の実施の形態に係る撮像装置100は、例えば、デプスの値によって距離を求めるようなアプリケーションを実行する場合、撮像素子から同じ距離にある被写体は、像高によらず同じ距離にあると判定することが出来る。
 <3.撮像素子への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、撮像素子として実現されてもよい。
 図33は、本開示に係る技術が適用され得る撮像素子の一実施の形態の構成例を示すブロック図である。
 図33に示すように、撮像素子11はCMOS型固体撮像素子であり、画素アレイ部12、垂直駆動部13、カラム処理部14、水平駆動部15、出力部16、および駆動制御部17を備えて構成される。
 画素アレイ部12は、アレイ状に配置された複数の画素21を有しており、画素21の行数に応じた複数の水平配線22を介して垂直駆動部13に接続され、画素21の列数に応じた複数の垂直配線23を介してカラム処理部14に接続されている。即ち、画素アレイ部12が有する複数の画素21は、水平配線22および垂直配線23が交差する点にそれぞれ配置されている。
 垂直駆動部13は、画素アレイ部12が有する複数の画素21の行ごとに、それぞれの画素21を駆動するための駆動信号(転送信号や、選択信号、リセット信号など)を、水平配線22を介して順次供給する。
 カラム処理部14は、それぞれの画素21から垂直配線23を介して出力される画素信号に対してCDS(Correlated Double Sampling:相関2重サンプリング)処理を施すことで画素信号の信号レベルを抽出し、画素21の受光量に応じた画素データを取得する。
 水平駆動部15は、画素アレイ部12が有する複数の画素21の列ごとに、それぞれの画素21から取得された画素データをカラム処理部14から順番に出力させるための駆動信号を、カラム処理部14に順次供給する。
 出力部16には、水平駆動部15の駆動信号に従ったタイミングでカラム処理部14から画素データが供給され、出力部16は、例えば、その画素データを増幅して、後段の画像処理回路に出力する。
 駆動制御部17は、撮像素子11の内部の各ブロックの駆動を制御する。例えば、駆動制御部17は、各ブロックの駆動周期に従ったクロック信号を生成して、それぞれのブロックに供給する。
 以上、本開示に係る技術が適用され得る撮像素子の一例について説明した。本開示に係る撮像素子11は、<1.本開示の実施の形態>に説明した構成のうち、撮像素子112に適用され得る。これにより、より見やすい撮影画像を得ることができる。
 <4.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図34は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図34に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図34の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図35は、撮像部12031の設置位置の例を示す図である。
 図35では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図35には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。例えば、図9に示す撮像装置100(撮像素子112及び画像処理部120)は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 <5.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図36は、本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図36では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図37は、図36に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に適用され得る。例えば、図9に示す撮像装置100(撮像素子112及び画像処理部120)は、内視鏡11100、撮像部11402、画像処理部11412等に適用することができる。内視鏡11100、撮像部11402、画像処理部11412等に本開示に係る技術を適用することにより、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
 また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 デプスを検出することが可能な画素を備える撮像素子と、
 前記画素により得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行する画像処理部と、
 前記画像処理部においてデプスの像高依存性を補正する補正データを前記信号に基づいて生成する補正データ生成部と、
を備える、撮像装置。
(2)
 前記画像処理部は、デプスの検出時に前記補正データを適用してデプスの像高依存性を補正する、前記(1)に記載の撮像装置。
(3)
 前記画像処理部は、前記デプスに基づく処理を実行する際に前記補正データを適用してデプスの像高依存性を補正する、前記(1)に記載の撮像装置。
(4)
 前記画像処理部は、前記信号に対して前記補正データを適用してデプスの像高依存性を補正する、前記(1)に記載の撮像装置。
(5)
 前記補正データ生成部は、前記撮像素子に被写体像を結像させるレンズの位置を変化させながら取得したデプスの情報に基づき、前記レンズの位置と前記デプスとの関係を全ての像高位置において算出することで前記補正データを生成する、前記(1)~(4)のいずれかに記載の撮像装置。
(6)
 前記補正データ生成部は、被写体と前記撮像素子との間の距離を変化させながら取得したデプスの情報に基づき、前記距離と前記デプスとの関係を全ての像高位置において算出することで前記補正データを生成する、前記(1)~(4)のいずれかに記載の撮像装置。
(7)
 前記補正データ生成部は、所定の被写体と前記撮像素子との間の距離を固定した状態で前記所定の被写体を撮像して取得したデプスの情報に基づき、基準となる像高からのデプスのオフセットずれ量を保持した前記補正データを生成する、前記(1)~(4)のいずれかに記載の撮像装置。
(8)
 前記補正データ生成部は、前記撮像素子に被写体像を結像させるレンズの設計データを用いたシミュレーションにより得られるデプスの情報と、実際のデプスの情報とに基づいて前記補正データを生成する、前記(1)~(4)のいずれかに記載の撮像装置。
(9)
 プロセッサが、
 デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、
 検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、
を含む、補正方法。
(10)
 コンピュータに、
 デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、
 検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、
を実行させる、コンピュータプログラム。
 100  撮像装置
 120  画像処理部

Claims (10)

  1.  デプスを検出することが可能な画素を備える撮像素子と、
     前記画素により得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行する画像処理部と、
     前記画像処理部においてデプスの像高依存性を補正する補正データを前記信号に基づいて生成する補正データ生成部と、
    を備える、撮像装置。
  2.  前記画像処理部は、デプスの検出時に前記補正データを適用してデプスの像高依存性を補正する、請求項1に記載の撮像装置。
  3.  前記画像処理部は、前記デプスに基づく処理を実行する際に前記補正データを適用してデプスの像高依存性を補正する、請求項1に記載の撮像装置。
  4.  前記画像処理部は、前記信号に対して前記補正データを適用してデプスの像高依存性を補正する、請求項1に記載の撮像装置。
  5.  前記補正データ生成部は、前記撮像素子に被写体像を結像させるレンズの位置を変化させながら取得したデプスの情報に基づき、前記レンズの位置と前記デプスとの関係を全ての像高位置において算出することで前記補正データを生成する、請求項1に記載の撮像装置。
  6.  前記補正データ生成部は、被写体と前記撮像素子との間の距離を変化させながら取得したデプスの情報に基づき、前記距離と前記デプスとの関係を全ての像高位置において算出することで前記補正データを生成する、請求項1に記載の撮像装置。
  7.  前記補正データ生成部は、所定の被写体と前記撮像素子との間の距離を固定した状態で前記所定の被写体を撮像して取得したデプスの情報に基づき、基準となる像高からのデプスのオフセットずれ量を保持した前記補正データを生成する、請求項1に記載の撮像装置。
  8.  前記補正データ生成部は、前記撮像素子に被写体像を結像させるレンズの設計データを用いたシミュレーションにより得られるデプスの情報と、実際のデプスの情報とに基づいて前記補正データを生成する、請求項1に記載の撮像装置。
  9.  プロセッサが、
     デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、
     検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、
    を含む、補正方法。
  10.  コンピュータに、
     デプスを検出することが可能な画素を備える撮像素子から得られた信号を用いてデプスを検出し、前記デプスに基づく処理を実行することと、
     検出された前記デプスの像高依存性を補正する補正データを前記信号に基づいて生成することと、
    を実行させる、コンピュータプログラム。
PCT/JP2019/032708 2018-08-31 2019-08-21 撮像装置、補正方法及びコンピュータプログラム WO2020045202A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/250,674 US11838656B2 (en) 2018-08-31 2019-08-21 Imaging device and correction method for reducing image height dependency of a depth

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018162707A JP2020034830A (ja) 2018-08-31 2018-08-31 撮像装置、補正方法及びコンピュータプログラム
JP2018-162707 2018-08-31

Publications (1)

Publication Number Publication Date
WO2020045202A1 true WO2020045202A1 (ja) 2020-03-05

Family

ID=69644310

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032708 WO2020045202A1 (ja) 2018-08-31 2019-08-21 撮像装置、補正方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US11838656B2 (ja)
JP (1) JP2020034830A (ja)
WO (1) WO2020045202A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128101A (ja) * 2010-12-14 2012-07-05 Olympus Corp 撮像装置
JP2015031754A (ja) * 2013-07-31 2015-02-16 キヤノン株式会社 撮像装置及びその制御方法、情報処理装置及びその制御方法、及び、システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6381422B2 (ja) * 2014-11-21 2018-08-29 キヤノン株式会社 距離検出装置、撮像装置、および距離検出方法
KR102406502B1 (ko) * 2016-12-14 2022-06-10 현대자동차주식회사 차량의 협로 주행 안내 장치 및 방법
US10417781B1 (en) * 2016-12-30 2019-09-17 X Development Llc Automated data capture
CN108960202B (zh) * 2018-08-01 2022-05-10 京东方科技集团股份有限公司 一种智能货架、系统、判断商品叠放的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128101A (ja) * 2010-12-14 2012-07-05 Olympus Corp 撮像装置
JP2015031754A (ja) * 2013-07-31 2015-02-16 キヤノン株式会社 撮像装置及びその制御方法、情報処理装置及びその制御方法、及び、システム

Also Published As

Publication number Publication date
US20220353424A1 (en) 2022-11-03
JP2020034830A (ja) 2020-03-05
US11838656B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
JP7022057B2 (ja) 撮像装置
US10958847B2 (en) Imaging device, image processing method, and image processing system
JP7166920B2 (ja) 撮像装置、固体撮像素子、カメラモジュール、および撮像方法
WO2020050289A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2022044653A (ja) 撮像装置
US11750932B2 (en) Image processing apparatus, image processing method, and electronic apparatus
US20220058411A1 (en) Solid state image capturing system, solid state image capturing device, information processing device, image processing method, information processing method, and program
JP7111098B2 (ja) ぶれ補正装置及び撮像装置
WO2019049662A1 (ja) センサチップおよび電子機器
JP6869717B2 (ja) 撮像装置および撮像装置の製造方法、並びに、電子機器
WO2020045598A1 (ja) 電子機器及び固体撮像装置
JP2021051015A (ja) 測距装置、測距方法、並びにプログラム
WO2021029269A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
WO2021029252A1 (ja) 撮像装置および撮像方法
WO2020045202A1 (ja) 撮像装置、補正方法及びコンピュータプログラム
WO2021075116A1 (ja) 固体撮像装置及び電子機器
WO2022254845A1 (ja) 信号処理方法、信号処理装置および撮像装置
WO2023013121A1 (ja) THz検出装置
WO2019082775A1 (ja) 画像処理装置、画像処理方法および撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19855991

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19855991

Country of ref document: EP

Kind code of ref document: A1