WO2022168500A1 - 測距装置およびその制御方法、並びに、測距システム - Google Patents

測距装置およびその制御方法、並びに、測距システム Download PDF

Info

Publication number
WO2022168500A1
WO2022168500A1 PCT/JP2021/048507 JP2021048507W WO2022168500A1 WO 2022168500 A1 WO2022168500 A1 WO 2022168500A1 JP 2021048507 W JP2021048507 W JP 2021048507W WO 2022168500 A1 WO2022168500 A1 WO 2022168500A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance measuring
measuring device
light
sampling
depth image
Prior art date
Application number
PCT/JP2021/048507
Other languages
English (en)
French (fr)
Inventor
貴之 佐々木
憲一郎 中村
優介 森内
幹修 藤岡
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022579386A priority Critical patent/JPWO2022168500A1/ja
Priority to CN202180092053.9A priority patent/CN116745644A/zh
Publication of WO2022168500A1 publication Critical patent/WO2022168500A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • the present technology relates to a range finder, its control method, and a range finder system. It also relates to a ranging system.
  • depth cameras In recent years, attention has been paid to distance measuring devices (hereinafter also referred to as depth cameras) that measure distance by the ToF (Time-of-Flight) method.
  • Some depth cameras use SPAD (Single Photon Avalanche Diode) for light receiving pixels.
  • SPAD Single Photon Avalanche Diode
  • avalanche amplification occurs when a single photon enters a PN junction region with a high electric field while a voltage greater than the breakdown voltage is applied.
  • the timing at which the current instantaneously flows by avalanche amplification the timing at which the light reaches can be detected with high accuracy, and the distance can be measured (see, for example, Patent Document 1).
  • the accuracy may deteriorate depending on the pixel position of the sparse depth information.
  • This technology has been developed in view of this situation, and enables high-resolution depth images to be generated with high accuracy from sparse depth information.
  • a distance measuring device includes a light receiving unit having a plurality of pixels that receive reflected light that is reflected by an object, and a sparse depth image obtained by the light receiving unit.
  • a high-resolution processing unit that generates a depth image, and a position determination unit that determines active pixels that perform light-receiving operations in the light-receiving unit based on edge information of the high-resolution depth image.
  • a method for controlling a distance measuring device is a distance measuring device including a light receiving unit having a plurality of pixels for receiving reflected light of irradiated light reflected by an object.
  • a high-resolution depth image is generated from the sparse depth image, and active pixels that perform a light-receiving operation in the light-receiving unit are determined based on edge information of the high-resolution depth image.
  • a distance measurement system includes an illumination device that emits irradiation light, and a distance measurement device that receives light reflected by an object from the irradiation light, and the distance measurement device includes: a light receiving unit having a plurality of pixels for receiving reflected light; a high resolution processing unit for generating a high resolution depth image from a sparse depth image acquired by the light receiving unit; and edge information of the high resolution depth image. and a position determination unit that determines an active pixel that performs a light-receiving operation in the light-receiving unit.
  • a high-resolution depth image is generated from a sparse depth image acquired by a light receiving unit having a plurality of pixels that receive reflected light reflected by an object. and, based on the edge information of the high-resolution depth image, an active pixel that performs a light-receiving operation in the light-receiving section is determined.
  • the ranging device and ranging system may be independent devices or may be modules incorporated into other devices.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a distance measuring system of the present disclosure
  • FIG. It is a figure explaining the structure of an illuminating device. It is a figure which shows the example of the irradiation pattern which an illuminating device irradiates.
  • 2 is a block diagram showing a more detailed configuration example of the distance measuring device of FIG. 1; FIG. It is a figure explaining the example of arrangement
  • FIG. 4 is a diagram showing examples of a color image and a high-resolution depth image; It is a figure explaining the process of an edge information detection part and an adaptive sampling part. 2 is a flowchart for explaining distance measurement processing by the distance measurement system of FIG. 1;
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a distance measuring system of the present disclosure
  • FIG. It is a figure explaining the structure of an illuminating device. It is a figure which shows the example of the irradiation
  • FIG. 9 is a detailed flowchart of high-resolution depth image generation processing executed as step S4 in FIG. 8;
  • FIG. FIG. 10 is a diagram illustrating processing for determining whether a sampling position is on an edge; It is a figure explaining the determination method of the moving direction and moving amount
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of a ranging system of the present disclosure.
  • the ranging system 1 in FIG. 1 is a system that measures and outputs the distance to an object using, for example, the ToF (Time-of-Flight) method.
  • the distance measurement system 1 performs distance measurement by the direct ToF method among the ToF methods.
  • the direct ToF method is a method in which the distance to an object is calculated by directly measuring the flight time from the timing when the irradiation light is emitted to the timing when the reflected light is received.
  • the distance measurement system 1 includes an illumination device 11 and a distance measurement device 12, and measures the distance to a predetermined object 13 as a subject. More specifically, when the distance measuring system 1 is supplied with a distance measuring instruction from a higher-level host device, the distance measuring system 1 emits irradiation light and receives the reflected light a predetermined number of times (for example, several times or more). 100 times) repeat. The distance measurement system 1 generates a histogram of the time of flight of the illumination light based on the emission of the illumination light repeatedly performed a predetermined number of times and the reception of the reflected light, and from the time of flight corresponding to the peak of the histogram, A distance to the object 13 is calculated.
  • the lighting device 11 irradiates a predetermined object 13 with irradiation light based on the light emission control signal and the light emission trigger supplied from the distance measuring device 12 .
  • irradiation light for example, infrared light (IR light) having a wavelength in the range of approximately 850 nm to 940 nm is used.
  • the illumination device 11 includes a light emission controller 31 , a light emitter 32 and a diffractive optical element (DOE) 33 .
  • DOE diffractive optical element
  • the distance measurement device 12 determines the light emission conditions, outputs the light emission control signal and the light emission trigger to the lighting device 11 based on the determined light emission conditions, and irradiates the irradiation light.
  • the light emission conditions determined here include, for example, various types of information such as the irradiation method, irradiation area, and irradiation pattern.
  • the distance measuring device 12 receives light reflected by the object 13 to calculate the distance to the object 13, and outputs the result as a depth image to a higher-level host device.
  • the distance measuring device 12 includes a control section 51 , a light receiving section 52 , a signal processing section 53 and an input/output section 54 .
  • This ranging system 1 is used with an RGB camera (not shown) that captures a subject including the object 13 and the like.
  • the distance measurement system 1 sets the same range as the imaging range of the RGB camera, which is an external camera, as the distance measurement range, and generates the distance information of the subject captured by the RGB camera.
  • the resolution of the light-receiving unit 52 of the distance measuring device 12 is lower than the resolution of the color image generated by the RGB camera, the distance measuring device 12 converts the resolution to the same resolution as the color image in the signal processing unit 53.
  • a high-resolution depth image which is a normalized depth image, is generated and output.
  • the light emission control unit 31 of the illumination device 11 includes, for example, a microprocessor, an LSI, a laser driver, etc., and controls the light emission unit 32 and the diffractive optical element based on a light emission control signal supplied from the control unit 51 of the distance measuring device 12. 33. Further, the light emission control unit 31 emits irradiation light according to a light emission trigger supplied from the control unit 51 of the distance measuring device 12 .
  • the light emission trigger is, for example, a pulse waveform composed of two values of "High (1)" and "Low (0)", and "High" represents the timing of emitting the irradiation light.
  • the light emitting unit 32 is composed of, for example, a VCSEL array in which a plurality of VCSELs (Vertical Cavity Surface Emitting Laser) as a light source are arranged in a plane, and each VCSEL turns on and off light emission according to a light emission trigger. I do.
  • the light emission unit of the VCSEL (the size of the light source) and the position of the VCSEL to emit light (light emission position) can be varied under the control of the light emission control section 31 .
  • the diffractive optical element 33 reproduces, in a direction perpendicular to the optical axis direction, the light emission pattern of a predetermined area that is emitted from the light emission unit 32 and passed through a projection lens (not shown). Expand your area.
  • a variable focus lens, a liquid crystal element, or the like can be used to switch between spot irradiation and surface irradiation, or to switch the emission pattern (irradiation area) to a specific pattern. can.
  • a photonic crystal surface emitting laser may be used to change the emission pattern with which the object 13 is irradiated to a specific pattern.
  • photonic crystal light emitting lasers for example, see ""Feature next-generation laser light source! Photonic crystal lasers that have come this far: Advances in large-area coherent photonic crystal lasers, De Zoysa Menaka, Masahiro Yoshida, Yoshinori Tanaka, Susumu Noda, OPTRONICS (2017) No.5.
  • FIG. 3 shows an example of an irradiation pattern with which the lighting device 11 irradiates the object 13 based on the light emission conditions supplied from the control unit 51.
  • the illuminating device 11 has, as an irradiation method, a surface irradiation that irradiates a predetermined irradiation area with a uniform emission intensity within a predetermined luminance range, and a spot irradiation that uses a plurality of spots (circles) arranged at predetermined intervals as the irradiation area. It is possible to select and irradiate. Surface illumination enables measurement (light reception) with high resolution, but the emitted light is diffused, resulting in low emission intensity and a short measurement range. On the other hand, spot illumination has a high emission intensity, so it is possible to obtain a noise-robust (highly reliable) depth value, but the resolution is low.
  • the lighting device 11 can irradiate a limited irradiation area and change the emission intensity. By emitting light in the required area and emission intensity, it is possible to reduce power consumption and avoid saturation of the light-receiving part at short distances. Reducing the emission intensity also contributes to eye-safety.
  • the illumination device 11 illuminates a specific area (eg, central area) at high density and illuminates other areas (eg, peripheral area) at low density, instead of illuminating the illumination area uniformly.
  • the irradiation pattern can be switched to a specific pattern for irradiation.
  • the control unit 51 of the distance measuring device 12 is composed of, for example, an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), a microprocessor, and the like.
  • the control unit 51 acquires a distance measurement instruction from a higher-level host device via the input/output unit 54 , the control unit 51 determines the light emission conditions, and causes the lighting device 11 to emit the light emission control signal and the light emission trigger corresponding to the determined light emission conditions. It is supplied to the control section 31 .
  • the control unit 51 also supplies the generated light emission trigger to the signal processing unit 53, and determines which pixel of the light receiving unit 52 is to be the active pixel in accordance with the determined light emission condition. Active pixels are pixels that detect the incidence of photons. Pixels that do not detect incoming photons are referred to as inactive pixels.
  • the light receiving unit 52 has a pixel array in which pixels for detecting incident photons are two-dimensionally arranged in a matrix.
  • Each pixel of the light receiving section 52 has a SPAD (Single Photon Avalanche Diode) as a photoelectric conversion element.
  • SPAD Single Photon Avalanche Diode
  • a SPAD instantaneously detects a single photon by multiplying carriers generated by photoelectric conversion in a high electric field PN junction region (multiplication region).
  • Each active pixel of the light receiving section 52 outputs a detection signal indicating that the photon is detected to the signal processing section 53 when detecting the incident photon.
  • the signal processing unit 53 receives the reflected light after the irradiation light is emitted, based on the emission of the irradiation light and the reception of the reflected light, which are repeatedly executed a predetermined number of times (for example, several times to several hundred times). Generate a histogram of the time (count value) until the Then, the signal processing unit 53 detects the peak of the generated histogram to determine the time until the light emitted from the lighting device 11 is reflected by the object 13 and returns, and the determined time and the speed of light Based on this, the distance to the object 13 is obtained.
  • the signal processing unit 53 is composed of, for example, an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), a logic circuit, and the like.
  • the signal processing unit 53 performs high resolution processing to generate a high resolution depth image having the same resolution as the color image from the low resolution depth image generated based on the light receiving result of the light receiving unit 52 .
  • the generated high-resolution depth image is output to the subsequent device via the input/output unit 54 .
  • the input/output unit 54 supplies the control unit 51 with a distance measurement instruction supplied from a higher-level host device. Further, the input/output unit 54 outputs the high-resolution depth image supplied from the signal processing unit 53 to a higher host device.
  • the rangefinder 12 has two modes of operation, a rangefinding mode and a luminance observation mode.
  • a rangefinding mode some of the plurality of pixels of the light receiving unit 52 are set as active pixels and the remaining pixels are set as inactive pixels, and a low resolution depth image generated based on the active pixels is converted into a high resolution depth image.
  • This mode generates and outputs images.
  • the luminance observation mode is a mode in which all pixels of the light-receiving unit 52 are set as active pixels, and a luminance image is generated by counting the number of photons input in a certain period as a luminance value (pixel value).
  • FIG. 4 is a block diagram showing a more detailed configuration example of the distance measuring device 12 when the operation mode is the distance measuring mode. Note that the diffractive optical element 33 is not shown in FIG.
  • the distance measuring device 12 has a control section 51 , a light receiving section 52 , a signal processing section 53 , an input/output section 54 , a pixel driving section 55 and a multiplexer 56 .
  • the control unit 51 has a position determining unit 61 and a sampling pattern table 62.
  • the signal processing unit 53 includes time measurement units 71 1 to 71 N , histogram generation units 72 1 to 72 N , peak detection units 73 1 to 73 N , distance calculation unit 74, edge information detection unit 75, and adaptive sampling unit. 76.
  • the signal processing unit 53 includes N (N>1) each of the time measuring unit 71, the histogram generating unit 72, and the peak detecting unit 73, and is configured to generate N histograms. There is If N is equal to the total number of pixels in the light receiving section 52, a histogram can be generated for each pixel.
  • the position determining unit 61 determines the light emitting position of the VCSEL array as the light emitting unit 32 of the illumination device 11 and the light receiving position of the pixel array of the light receiving unit 52 . That is, the position determination unit 61 determines light emission conditions such as surface irradiation, spot irradiation, light emission area, and irradiation pattern, and generates a light emission control signal indicating which VCSEL in the VCSEL array is to emit light based on the determined light emission conditions. It is supplied to the light emission control section 31 of the illumination device 11 . In addition, the position determination unit 61 determines which pixels in the pixel array should be active pixels in accordance with the determined light emission conditions, based on the sampling pattern table 62 stored in the internal memory. The sampling pattern table 62 stores position information indicating the pixel position of each pixel in the pixel array of the light receiving section 52 .
  • FIG. 5 shows an example of determining active pixels based on light emission conditions.
  • the position determining unit 61 determines pixel positions of active pixels and histogram generation units according to the size and position of the light source (VCSEL) emitted by the light emitting unit 32 . For example, under certain light emission conditions, it is assumed that spotlights emitted from the illumination device 11 are incident on the pixel array of the light receiving section 52 as in areas 111A and 111B. In this case, the position determining unit 61 sets each pixel of the 2 ⁇ 3 pixel regions 101A and 101B corresponding to the regions 111A and 111B as active pixels, and generates one histogram for each of the pixel regions 101A and 101B. Decide on units.
  • VCSEL light source
  • the position determination unit 61 sets each pixel of the 2 ⁇ 3 pixel area 102A and the pixel area 102B as active pixels, and Each of the region 102A and the pixel region 102B is determined as one histogram generation unit.
  • the position determining unit 61 sets each pixel of the 3 ⁇ 4 pixel area 103A and the pixel area 103B as active pixels, and Each of the region 103A and the pixel region 103B is determined as one histogram generation unit. Further, when it is assumed that the spot light is incident on the areas 114A and 114B, the position determination unit 61 sets each pixel of the 3 ⁇ 4 pixel area 104A and the pixel area 104B as active pixels, and 104A and the pixel area 104B are each determined as one histogram generation unit.
  • a plurality of active pixels that are used as one histogram generation unit are hereinafter referred to as macropixels.
  • the position determining unit 61 supplies the active pixel control information specifying the determined active pixels to the pixel driving unit 55 .
  • the position determining unit 61 also supplies the multiplexer 56 with histogram generation control information that specifies the unit of histogram generation.
  • the position determination unit 61 is supplied with sampling position information from the signal processing unit 53 .
  • the sampling position information supplied from the signal processing section 53 is information indicating the optimum sampling position determined by the signal processing section 53 based on the high-resolution depth image.
  • the position determination unit 61 determines whether it is necessary to change the active pixel based on the sampling position information supplied from the signal processing unit 53 and the sampling pattern table 62. If it is determined that the active pixel needs to be changed, the position determining unit 61 changes the active pixel to an inactive pixel and determines the other inactive pixels to be new active pixels. Active pixel control information based on the changed active pixels is supplied to the pixel driving section 55 , and histogram generation control information is supplied to the multiplexer 56 .
  • the pixel driving section 55 controls active pixels and non-active pixels based on the active pixel control information supplied from the position determining section 61 . In other words, the pixel driving section 55 controls ON/OFF of the light receiving operation of each pixel of the light receiving section 52 .
  • a detection signal indicating that the photon has been detected is output as a pixel signal to the signal processing section 53 via the multiplexer 56 . .
  • a trigger is also supplied.
  • the time measurement unit 71 i receives the reflected light after the light emission unit 32 emits the irradiation light. Generates a count value corresponding to the time until The generated count value is supplied to the corresponding histogram generator 72i .
  • the time measuring unit 71 i is also called a TDC (Time to Digital Converter).
  • the histogram generation unit 72i creates a histogram of count values based on the count values supplied from the time measurement unit 71i .
  • the generated histogram data is supplied to the corresponding peak detector 73i .
  • the peak detector 73i detects the peak of the histogram based on the histogram data supplied from the histogram generator 72i .
  • the peak detector 73 i supplies the count value corresponding to the detected histogram peak to the distance calculator 74 .
  • the distance calculator 74 calculates the time of flight of the irradiation light based on the count values corresponding to the peaks of the histogram supplied in units of macropixels from the peak detectors 73-1 to 73N .
  • the distance calculation unit 74 calculates the distance to the subject from the calculated flight time, and generates a depth image in which the calculated distance is stored as a pixel value. Since the resolution of the depth image generated here is lower than the resolution of the color image generated by the RGB camera, even if N is the total number of pixels of the light receiving unit 52, the color image It is a sparse depth image that is lower than the resolution of .
  • the distance calculation unit 74 further performs high-resolution processing to increase the resolution of the generated sparse depth image to the same resolution as the color image generated by the RGB camera. That is, the distance calculator 74 includes a high resolution processor that generates a high resolution depth image from a sparse depth image. The generated high-resolution depth image is output to the outside via the input/output unit 54 and supplied to the edge information detection unit 75 . High-resolution processing can be realized by applying a known technique using DNN (Deep Neural Network), for example.
  • DNN Deep Neural Network
  • the edge information detection unit 75 detects edge information indicating the boundary of the object based on the high resolution depth image supplied from the distance calculation unit 74 and supplies the detection result to the adaptive sampling unit 76 .
  • Technologies for detecting edge information from depth images include, for example, “Holistically-Nested Edge Detection” using DNN, Saining Xie, Zhuowen Tu (https://arxiv.org/pdf/1504.06375.pdf).
  • the adaptive sampling section 76 determines whether or not the position currently set as the macro pixel (hereinafter also referred to as the sampling position) is on the edge of the object. , for all sampling positions. Information about the positions set in the macro-pixels is grasped by acquiring the active pixel control information generated by the position determining section 61 .
  • the adaptive sampling unit 76 calculates the direction and amount of movement for moving the sampling position from the edge of the object.
  • the adaptive sampling unit 76 changes the position information of the sampling positions determined to be on the edge of the object to the position information of the new sampling positions moved by the calculated movement direction and movement amount, and then obtains all the sampling positions. is supplied to the position determination unit 61 of the control unit 51 .
  • the adaptive sampling section 76 may supply only the sampling position information of the new sampling position that needs to be changed to the position determining section 61 .
  • FIG. 6 The processing of the edge information detection unit 75 and the adaptive sampling unit 76 will be described with reference to FIGS. 6 and 7.
  • FIG. 6 The processing of the edge information detection unit 75 and the adaptive sampling unit 76 will be described with reference to FIGS. 6 and 7.
  • FIG. 6 The processing of the edge information detection unit 75 and the adaptive sampling unit 76 will be described with reference to FIGS. 6 and 7.
  • FIG. 6 The processing of the edge information detection unit 75 and the adaptive sampling unit 76 will be described with reference to FIGS. 6 and 7.
  • FIG. 6 shows an example of a color image generated by an RGB camera and a high-resolution depth image that has been increased to the same resolution as the color image.
  • a high-resolution depth image is an image in which distance information to an object is indicated by a predetermined number of bits (for example, 10 bits) of gray values. In the high-resolution depth image of FIG. It is shown.
  • the edge information detection unit 75 detects the boundary of the gray value corresponding to the distance as edge information.
  • Each point MP surrounded by white around a black circle superimposed on the high-resolution depth image and shown at regular intervals indicates the current sampling position in the light receiving unit 52, that is, the position of the macro pixel.
  • Region 121 includes a first sampling position 141 and a second sampling position 142 as current sampling positions.
  • FIG. 7 is an enlarged view of the region 121 of the high-resolution depth image in FIG.
  • adaptive sampling unit 76 determines that first sampling location 141 is on edge 151 and second sampling location 142 is not on any edge.
  • the adaptive sampling unit 76 calculates a new sampling position 141' moved away from the edge of the object, and calculates the new sampling position 141'.
  • the sampling position information including the position information of the position 141 ′ is supplied to the position determining section 61 of the control section 51 . Calculation of the new sampling position 141' will be described later.
  • step S1 the distance measuring device 12 determines the light emission conditions, and based on the determined light emission conditions, outputs the VCSEL to emit light, the light emission control signal for controlling the timing, and the light emission trigger to the lighting device 11. Further, the position determining unit 61 of the distance measuring device 12 supplies active pixel control information for specifying active pixels to the pixel driving unit 55 based on the determined light emission conditions, and histogram generation control information for specifying histogram generation units. to multiplexer 56 .
  • step S2 the illumination device 11 starts emitting irradiation light. More specifically, the light emission control section 31 controls the diffractive optical element 33 based on the light emission control signal from the distance measuring device 12, and turns on/off the predetermined VCSEL of the light emitting section 32 based on the light emission trigger.
  • step S3 the distance measuring device 12 starts light receiving operation. More specifically, the pixel driving section 55 drives predetermined pixels as active pixels based on the active pixel control information from the position determining section 61 . When a photon is detected in an active pixel, a detection signal indicating that is output to the signal processing section 53 via the multiplexer 56 as a pixel signal.
  • step S4 the distance measuring device 12 executes high resolution depth image generation processing for generating a high resolution depth image.
  • the distance measuring device 12 outputs the high-resolution depth image obtained as a result of the high-resolution depth image generation processing to the higher-level host device, and ends the distance measurement processing.
  • step S12 the distance calculation unit 74 performs high-resolution processing to generate a high-resolution depth image having the same resolution as the color image generated by the RGB camera from the sparse depth image.
  • the generated high-resolution depth image is output to the outside via the input/output unit 54 and supplied to the edge information detection unit 75 .
  • step S ⁇ b>13 the edge information detection unit 75 detects edge information indicating the boundary of the object based on the high-resolution depth image supplied from the distance calculation unit 74 and supplies the detection result to the adaptive sampling unit 76 .
  • step S14 the adaptive sampling unit 76 determines whether the sampling positions are on the edge based on the edge information of the object supplied from the edge information detection unit 75.
  • FIG. 10 is a diagram explaining the process of determining whether the sampling positions are on the edge for the first sampling position 141 and the second sampling position 142 of the area 121 shown in FIG.
  • the adaptive sampling unit 76 determines whether or not the edge of the object exists within a range of a predetermined threshold value r centered on the sampling position to be determined, thereby determining whether the sampling position to be determined is on the edge. determine whether or not The predetermined threshold r is predetermined.
  • FIG. 10A shows an example of setting the predetermined threshold value r as a fixed value. At both the first sampling position 141 and the second sampling position 142, the threshold value r is set to the same value ra.
  • the fixed threshold r a can be set, for example, to a value larger than the spot diameter when the lighting device 11 irradiates the subject with irradiation light by spot irradiation.
  • a fixed threshold r a can be determined, for example, as a predetermined percentage (eg, 50%) of the spacing between neighboring sampling locations. It may be determined by a predetermined ratio to the average value of the intervals of all sampling positions within the irradiation area, instead of the predetermined ratio to the intervals to neighboring sampling positions.
  • the fixed threshold r a can be set to a value greater than the alignment error between the RGB camera and the rangefinder 12 .
  • FIG. 10B shows a distance-variable example in which the predetermined threshold value r can change according to the distance (depth value).
  • the threshold r is set based on the determination function of the depth value and the threshold r shown in B of FIG.
  • the threshold r is set so that the threshold r is inversely proportional to the depth value, that is, the threshold r increases as the distance to the object decreases.
  • the depth value of the first sampling position 141 is smaller (the distance is closer) than the depth value of the second sampling position 142.
  • the threshold r b at the first sampling position 141 of B of 10 is set larger than the threshold r c at the second sampling position 142 (r b >r c ).
  • the first sampling position 141 has an edge within the range of the predetermined threshold value r. is determined to be in A second sampling location 142 is determined not to be on an edge.
  • step S15 the adaptive sampling unit 76 calculates the movement direction and movement amount of the sampling position determined to be on the edge.
  • FIG. 11 to 13 A method of determining the movement direction and movement amount of the sampling position determined to be on the edge will be described with reference to FIGS. 11 to 13.
  • FIG. 11 to 13 for the sake of simplicity, it is assumed that the sampling position is set in units of one pixel.
  • points 202a to 202h surrounded by white circles represent active pixels, and each point 203 surrounded by gray circles represents an inactive pixel.
  • the adaptive sampling unit 76 determines the center-of-gravity position using the depth values of a plurality of sampling points 202 in the vicinity of the sampling point 201 to be moved. For example, using the positions (x, y) and the depth value d of eight sampling points 202a to 202h adjacent to the sampling point 201 as a neighborhood area of the sampling point 201 to be moved, the position of the center of gravity is determined. . Depth values d for the eight sampling locations 202a-202h are obtained from the high resolution depth image.
  • a weight that is inversely proportional to the depth value is used so that the closer the distance, the greater the weight.
  • FIG. 12 when the irradiation light hits the boundary of the object, there is no occlusion of the light source in the subject on the front side, which is suitable for measurement, but occlusion of the light source occurs in the subject on the back side. , Accurate measurement is not possible. This is also because it is generally considered that the depth information of the near side is more important than the depth information of the far side as the depth information of the subject.
  • the weights of the sampling points 202a, 202d, 202f, and 202g on the front side are set to be greater than the weights of the sampling points 202b, 202c, 202e, and 202h on the back side.
  • the adaptive sampling unit 76 calculates the center-of-gravity position using the positions (x, y) of the plurality of sampling points 202 in the neighboring area of the sampling point 201 to be moved and the depth value d.
  • the adaptive sampling unit 76 determines the direction from the current position of the sampling point 201 to the calculated position of the center of gravity as the moving direction of the sampling position.
  • the adaptive sampling unit 76 determines the amount of movement of the sampling point 201 .
  • the adaptive sampling unit 76 determines the amount of movement according to the spot diameter when the lighting device 11 irradiates irradiation light by spot irradiation. More specifically, a predetermined value larger than the spot diameter can be determined as the amount of movement. As a result, a position where the spot diameter does not overlap the edge can be set as a new sampling position.
  • the amount of movement may be determined based on the alignment error between the RGB camera and the distance measuring device 12 .
  • a predetermined value larger than the alignment error can be determined as the movement amount.
  • the irradiation method is surface irradiation
  • a predetermined value larger than the alignment error is determined as the amount of movement
  • the irradiation method is spot irradiation
  • a predetermined value that is greater than the spot diameter and the alignment error is moved. It may be determined as a quantity.
  • a movement vector 211 in FIG. 11 indicates the movement direction and movement amount calculated for the sampling point 201 to be moved.
  • FIG. 13A shows an example of the movement vector 211 of the sampling point 201 when the sampling point 201 to be moved is on the edge of two objects.
  • FIG. 13B shows an example of the movement vector 211 of the sampling point 201 when the sampling point 201 to be moved is on the edge of three objects.
  • FIG. 13C shows an example in which the movement vector 211 of the sampling point 201 cannot be determined because the sampling point 201 to be moved is on an elongated object and the position of the center of gravity overlaps with the current sampling point 201. In this way, it may happen that the movement vector 211 of the sampling point 201 cannot be determined.
  • the motion vector 211 of the sampling point 201 cannot be determined as shown in C of FIG. It is possible to lower the weight when using the depth value when generating. Alternatively, sampling points for which the motion vector 211 cannot be determined may only be changed from active pixels to inactive pixels.
  • step S15 of FIG. 9 the movement direction and movement amount of the sampling position determined to be on the edge are calculated as described above.
  • the adaptive sampling unit 76 changes the position information of the sampling position determined to be on the edge of the object to the position information of the new sampling position moved by the calculated movement direction and movement amount. Then, the adaptive sampling section 76 supplies sampling position information of all sampling positions to the position determination section 61 of the control section 51 .
  • step S ⁇ b>16 the position determination unit 61 acquires sampling position information of all sampling positions from the adaptive sampling unit 76 . Then, the position determining unit 61 determines new active pixels corresponding to the sampling positions whose positions have been changed (new sampling positions), and deactivates active pixels that do not require light receiving operation due to the change of the sampling positions. Decide on a pixel.
  • the position determination unit 61 refers to the sampling pattern table in the internal memory and determines the pixel of the light receiving unit 52 closest to the new sampling position as a new active pixel. For example, if the new sampling position is outside the pixel array and there is no pixel of the light receiving unit 52 that is closest to the new sampling position, there is a possibility that no new active pixel will be set.
  • step S17 the control unit 51 determines whether or not to end the distance measurement. For example, the control unit 51 determines to end the distance measurement when the high-resolution depth image is generated a predetermined number of times and output. Further, for example, the control unit 51 may control the sampling position information of all the sampling positions supplied from the adaptive sampling unit 76 when the position information of the new sampling position is not included, that is, when all the active pixels are on the boundary of the object. If a high-resolution depth image is generated in the absence of the distance measurement, it may be determined that the distance measurement is finished.
  • step S17 If it is determined in step S17 that the distance measurement is not finished yet, the process returns to step S11, and steps S11 to S17 described above are repeated.
  • step S17 if it is determined in step S17 to end the distance measurement, the high-resolution depth generation process of FIG. 9 is ended, and the distance measurement process of FIG. 8 is also ended.
  • the sampling position when generating the sparse depth image is on the edge of the object, and the sampling position determined to be on the edge is the location that does not overlap the edge.
  • controlled to move to A sparse depth image can be generated with higher accuracy by sampling while avoiding the boundary of the object. For example, when an object exists between sampling positions and the boundary of the object overlaps with the sampling position, the object may be buried when the resolution is increased. Sampling avoiding the boundary of an object can reduce the possibility that the object is buried when the resolution is increased.
  • the moving direction of the sampling position determined to be on the edge is moved toward the area of the nearer object of the two objects with different depth directions.
  • the influence of occlusion of the light source can be suppressed, and a sparse depth image can be generated with higher accuracy.
  • a sparse depth image By generating a sparse depth image with higher accuracy, a high-resolution depth image can also be generated with higher accuracy.
  • the amount of movement of the sampling position determined to be on the edge can be set to a predetermined value larger than the spot diameter when the irradiation light is irradiated by spot irradiation.
  • a position where the spot diameter does not overlap the edge can be set as a new sampling position, and a sparse depth image can be generated with higher accuracy.
  • a high-resolution depth image can also be generated with higher accuracy.
  • the amount of movement of the sampling position can be determined as a predetermined value larger than the alignment error between the RGB camera that generates the color image and the distance measuring device 12 .
  • a high-resolution depth image is generated to correspond to the color image that the user actually sees. If there is an alignment error between the RGB camera that generates the color image and the distance measuring device 12, the depth will be associated with an incorrect position due to the alignment error.
  • the registration error by setting a position that does not overlap with the edge as a new sampling position, it is possible to measure the depth at a position where the correspondence with the object is correct even if there is a registration error. , a high-resolution depth image can be generated with higher accuracy.
  • the distance measurement device 12 detects edge information of an object using a high-resolution depth image generated in the distance measurement mode, and controls the sampling position with high precision to obtain a high-resolution depth image. achieved high accuracy.
  • the ranging device 12 may detect edge information of an object using not only the high-resolution depth image generated in the ranging mode, but also the luminance image obtained in the luminance observation mode.
  • FIG. 14 is a block diagram showing a detailed configuration example of the ranging device 12 when the ranging mode is the luminance observation mode.
  • the signal processing section 53 is provided with photon counting sections 301 1 to 301 M and a luminance image generating section 302 .
  • the time measurement units 71 1 to 71 N the histogram generation units 72 1 to 72 N , the peak detection units 73 1 to 73 N , and the distance calculation unit 74 are omitted.
  • Other configurations of the distance measuring device 12 are the same as those in FIG.
  • the operation mode is the observation luminance mode
  • all pixels of the light receiving section 52 are set as active pixels, and M photon counting sections 3011 to 301M corresponding to the number of pixels of the light receiving section 52 operate. That is, the photon counting section 301 is provided for each pixel of the light receiving section 52 .
  • the multiplexer 56 connects the pixels of the light receiving section 52 and the photon counting section 301 one-to-one, and supplies the pixel signal of each pixel of the light receiving section 52 to the corresponding photon counting section 301 .
  • the luminance image generation unit 302 generates a luminance image having a pixel value (luminance value) obtained by counting the photons measured at each pixel, and supplies the luminance image to the edge information detection unit 75 .
  • the generated luminance image may also be output to a higher host device via the input/output unit 54 .
  • photon count results may be obtained in units of a plurality of pixels instead of in units of pixels. Configured.
  • the edge information detection unit 75 detects edge information indicating the boundaries of objects based on the luminance image supplied from the luminance image generation unit 302 .
  • a known technique can be used as a technique for detecting edge information from a luminance image. For example, in “Hardware implementation of a novel edge-map generation technique for pupil detection in NIR images”, Vineet Kumar, Abhijit Asati, Anu Gupta, (https://www.sciencedirect.com/science/article/pii/S2215098616305456) technology, etc.
  • the edge information detection unit 75 also detects edge information indicating the boundary of the object based on the high-resolution depth image generated in the ranging mode. Then, the edge information detection unit 75 detects the final edge information of the object by integrating the edge information detected from the luminance image and the edge information detected from the high-resolution depth image, and adapts the detection result. It is supplied to the sampling section 76 .
  • High-resolution depth image processing for generating a high-resolution depth image using not only the high-resolution depth image generated in the ranging mode but also the luminance image obtained in the luminance observation mode will be described with reference to the flowchart of FIG. .
  • the high-resolution depth image processing in FIG. 15 can be executed as step S4 in FIG. 8 instead of the high-resolution depth image processing in FIG. 9 described above.
  • the illumination device 11 may stop emitting the irradiation light and generate a luminance image using only ambient light, or uniform light such as surface irradiation may be emitted as the irradiation light. .
  • step S42 the distance measuring device 12 sets the operation mode to the distance measuring mode and generates a sparse depth image. This process is the same as the process of step S11 in FIG.
  • step S43 the distance calculation unit 74 performs high-resolution processing to generate a high-resolution depth image from the sparse depth image.
  • the generated high-resolution depth image is output to the outside via the input/output unit 54 and supplied to the edge information detection unit 75 .
  • step S44 the edge information detection unit 75 detects edge information indicating the boundary of an object based on the luminance image obtained in the luminance observation mode and the high-resolution depth image obtained in the distance measurement mode, and detects the edge information.
  • the results are supplied to adaptive sampling section 76 .
  • steps S45 to S48 is the same as the processing of steps S14 to S17 in FIG. 9, respectively, so description thereof will be omitted.
  • the edges of the object are detected based on both the edge information based on the high-resolution depth image and the edge information based on the luminance image, and the sampling position is on the edge of the object. It can be determined whether or not there is
  • edge information based on a luminance image in a domain different from the depth image it becomes possible to detect the edges of objects that cannot be picked up by depth information alone, and it is possible to generate even more accurate high-resolution depth images.
  • the edge information detected from the luminance image is additionally used to determine whether the sampling position is on the edge of the object.
  • a captured color image may also be used. That is, the edge information of the object is detected using the color image, the edge information of both the high-resolution depth image and the color image is used to determine whether the sampling position is on the edge of the object, and the sampling position is determined. You can move it.
  • an external camera other than the RGB camera described above.
  • other external cameras include an IR camera that captures infrared rays (far-infrared rays, near-infrared rays), distance measurement sensors (distance measurement devices) based on the indirect ToF method, EVS (event-based vision sensor), and the like.
  • a ranging sensor based on the indirect ToF method measures the distance to an object by detecting the flight time from the timing at which the irradiated light is emitted to the timing at which the reflected light is received as a phase difference.
  • the EVS is a sensor that has pixels that photoelectrically convert optical signals to output pixel signals, and that outputs temporal luminance changes of the optical signals as event signals (event data) based on the pixel signals.
  • the EVS captures images in sync with a vertical sync signal and outputs frame data for one frame (screen) at the cycle of the vertical sync signal like a general image sensor. It is an asynchronous (or address-controlled) camera because it outputs event data only at .
  • edge information of the luminance image in the luminance mode can be detected and used based on the image of an external camera such as an RGB camera or an IR camera, and the detection accuracy of edge information can be improved.
  • the distance measuring device 12 does not need to be driven in the luminance mode (generate a luminance image)
  • the frame rate for generating high-resolution depth images can be doubled. etc. can be reduced. Thereby, a high-resolution depth image can be generated with high accuracy.
  • edge information based on the high-resolution depth image is used to detect the edge of the object, and the sampling position is the object. may be determined whether it is on the edge of . Also in this case, a high-resolution depth image can be generated with high accuracy.
  • the above-described ranging system 1 can be installed in electronic devices such as smartphones, tablet terminals, mobile phones, personal computers, game machines, television receivers, wearable terminals, digital still cameras, and digital video cameras.
  • the technology of the present disclosure can be adopted for shooting space recognition of VR (virtual reality) and AR (augmented reality) content, and can also be installed in automobiles to measure the distance between vehicles, etc. It can also be applied to a surveillance camera for monitoring roads, an in-vehicle sensor for photographing the inside of a vehicle, and the like.
  • a system means a set of multiple components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a single device housing a plurality of modules in one housing, are both systems. .
  • the sampling positions are set by macro-pixels consisting of a plurality of pixels, but the sampling positions may of course be set in units of one pixel.
  • this technique can take the following configurations.
  • a light-receiving unit having a plurality of pixels for receiving light reflected by an object; a high-resolution processing unit that generates a high-resolution depth image from the sparse depth image acquired by the light-receiving unit;
  • a distance measuring device comprising: a position determining unit that determines active pixels that perform light receiving operation in the light receiving unit based on edge information of the high resolution depth image.
  • the distance measuring device according to (1) further comprising a sampling unit that determines whether or not the sampling position set in the active pixel is on the edge of the object based on the edge information of the high-resolution depth image.
  • the sampling unit determines whether the sampling position is on the edge of the object by determining whether the edge of the object exists within a predetermined range centered on the sampling position. 2) The distance measuring device according to the above. (4) The distance measuring device according to (3), wherein the predetermined range is a value larger than an alignment error between an external camera and the distance measuring device. (5) The distance measuring device according to (3), wherein the predetermined range is a value larger than the spot diameter of the irradiation light. (6) The distance measuring device according to (3), wherein the predetermined range is a value determined by a predetermined ratio with respect to an interval from a nearby sampling position.
  • the predetermined range is a value determined by a predetermined ratio with respect to intervals of all sampling positions within the irradiation area.
  • the predetermined range is a value that can change according to the depth value of the sampling position.
  • the predetermined range is a value that can change in inverse proportion to the depth value of the sampling position.
  • the sampling unit determines a movement direction and a movement amount for moving the sampling position when it is determined that the sampling position is on an edge of an object. rangefinder.
  • the distance measuring device (11) The distance measuring device according to (10), wherein the sampling unit determines a center-of-gravity position using another sampling position near the sampling position, and determines a direction toward the center-of-gravity position as the moving direction. (12) The sampling unit determines the center-of-gravity position by setting the weight of the other sampling position on the front side to be greater than the weight of the other sampling position on the back side, thereby determining the center-of-gravity position. distance device. (13) The rangefinder according to any one of (10) to (12), wherein the sampling unit sets the movement amount based on a positioning error between an external camera and the rangefinder.
  • the distance measuring device according to any one of (10) to (12), wherein the sampling unit determines the amount of movement according to a spot diameter of the irradiation light.
  • the distance measuring device according to any one of (1) to (14), further comprising an edge information detection unit that detects the edge information indicating a boundary of an object based on the high-resolution depth image.
  • the edge information detection unit detects the edge information based on the high-resolution depth image and an image from an external camera.
  • the position determination unit determines the active pixels based on the size and position of the irradiation light.
  • a distance measuring device comprising a light-receiving unit having a plurality of pixels for receiving light reflected by an object, generating a high-resolution depth image from the sparse depth image acquired by the light receiving unit;
  • a method of controlling a distance measuring device comprising: determining active pixels that perform a light receiving operation in the light receiving unit based on edge information of the high resolution depth image.
  • the rangefinder is a light receiving unit having a plurality of pixels that receive the reflected light; a high-resolution processing unit that generates a high-resolution depth image from the sparse depth image acquired by the light-receiving unit;
  • a distance measuring system comprising: a position determining unit that determines active pixels that perform light receiving operation in the light receiving unit based on edge information of the high resolution depth image.
  • the distance measuring device determines the emission conditions of the irradiation light including the irradiation method, the irradiation area, and the irradiation pattern, The distance measuring system according to (19), wherein the illumination device emits the irradiation light based on the emission condition.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

本技術は、疎なデプス情報から高解像度デプス画像を高精度に生成できるようにする測距装置およびその制御方法、並びに、測距システムに関する。 測距装置は、照射光が物体で反射された反射光を受光する複数の画素を有する受光部と、受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、高解像度デプス画像のエッジ情報に基づいて、受光部において受光動作を行うアクティブ画素を決定する位置決定部とを備える。本技術は、例えば、被写体までの奥行き方向の距離を検出する測距システム等に適用できる。

Description

測距装置およびその制御方法、並びに、測距システム
 本技術は、測距装置およびその制御方法、並びに、測距システムに関し、特に、疎なデプス情報から高解像度デプス画像を高精度に生成することができるようにした測距装置およびその制御方法、並びに、測距システムに関する。
 近年、ToF(Time-of-Flight)法により距離計測を行う測距装置(以下、デプスカメラとも称する。)が注目されている。デプスカメラには、受光用の画素に、SPAD(Single Photon Avalanche Diode)を用いたものがある。SPADを用いたデプスカメラでは、ブレイクダウン電圧よりも大きい電圧を印加した状態で、高電界のPN接合領域へ1個の光子が入ると、アバランシェ増幅が発生する。アバランシェ増幅により瞬間的に電流が流れたタイミングを検出することで、光が到達したタイミングを高精度に検出し、距離を計測することができる(例えば、特許文献1参照)。
 SPADを用いたデプスカメラでは、現状、受光用画素が2次元配置された画素アレイの解像度が低く、取得できるデプス情報が疎な情報である場合が多い。そのような場合、例えば、RGBカメラで捉えたカラー画像を用いて、低解像度のデプス画像を高解像度化する技術が提案されている(例えば、非特許文献1参照)。
特開2020-134171号公報
Fangchang Ma, Guilherme Venturelli Cavalheiro, Sertac Karaman、"Self-Supervised Sparse-to-Dense: Self-Supervised Depth Completion from LiDAR and Monocular Camera"、 Massachusetts Institute of Technology、3 Jul 2018、[令和3年1月7日検索]、インターネット<URL: https://arxiv.org/pdf/1807.00275v2.pdf>
 しかしながら、疎なデプス情報を高解像度化する場合に、疎なデプス情報の画素位置によっては、精度が悪化する場合があった。
 本技術は、このような状況に鑑みてなされたものであり、疎なデプス情報から高解像度デプス画像を高精度に生成することができるようにするものである。
 本技術の第1の側面の測距装置は、照射光が物体で反射された反射光を受光する複数の画素を有する受光部と、前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部とを備える。
 本技術の第2の側面の測距装置の制御方法は、照射光が物体で反射された反射光を受光する複数の画素を有する受光部を備える測距装置が、前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成し、前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する。
 本技術の第3の側面の測距システムは、照射光を照射する照明装置と、前記照射光が物体で反射された反射光を受光する測距装置とを備え、前記測距装置は、前記反射光を受光する複数の画素を有する受光部と、前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部とを備える。
 本技術の第1ないし第3の側面においては、照射光が物体で反射された反射光を受光する複数の画素を有する受光部で取得された疎なデプス画像から、高解像度デプス画像が生成され、前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素が決定される。
 測距装置及び測距システムは、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本開示の測距システムの一実施の形態の構成例を示すブロック図である。 照明装置の構成を説明する図である。 照明装置が照射する照射パターンの例を示す図である。 図1の測距装置のさらに詳細な構成例を示すブロック図である。 アクティブ画素の配置例を説明する図である。 カラー画像と高解像度デプス画像の例を示す図である。 エッジ情報検出部と適応的サンプリング部の処理を説明する図である。 図1の測距システムによる測距処理を説明するフローチャートである。 図8のステップS4として実行される高解像度デプス画像生成処理の詳細フローチャートである。 サンプリング位置がエッジ上にあるかを判定する処理を説明する図である。 サンプリング位置の移動方向および移動量の決定方法を説明する図である。 サンプリング位置の移動方向および移動量の決定方法を説明する図である。 サンプリング位置の移動方向および移動量の決定方法を説明する図である。 測距モードが輝度観測モードの場合の測距装置の詳細な構成例を示すブロック図である。 高解像度デプス画像と輝度画像を用いて高解像度デプス画像を生成する高解像度デプス画像処理を説明するフローチャートである。
 以下、添付図面を参照しながら、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。説明は以下の順序で行う。
1.測距システムの構成例
2.測距装置の詳細構成例
3.測距処理のフローチャート
4.高解像度デプス生成処理の他の例
5.変形例
<1.測距システムの構成例>
 図1は、本開示の測距システムの一実施の形態の構成例を示すブロック図である。
 図1の測距システム1は、例えば、ToF(Time-of-Flight)法を用いて物体までの距離測定して出力するシステムである。ここで、測距システム1は、ToF法のうち、direct ToF方式による測距を行う。direct ToF方式は、照射光が発光されたタイミングから、反射光が受光されるタイミングまでの飛行時間を直接計測して、物体までの距離を算出する方式である。
 測距システム1は、照明装置11と、測距装置12とを備え、被写体としての所定の物体13までの距離を計測する。より詳細には、測距システム1は、上位のホスト装置から、測距指示が供給されると、照射光の発光と、その反射光の受光とを、所定の回数(例えば、数回ないし数百回)繰り返す。測距システム1は、所定の回数繰り返し実行される照射光の発光と、その反射光の受光とに基づいて、照射光の飛行時間のヒストグラムを生成し、ヒストグラムのピークに対応する飛行時間から、物体13までの距離を算出する。
 照明装置11は、測距装置12から供給される発光制御信号と発光トリガとに基づいて、所定の物体13へ照射光を照射する。照射光には、例えば、波長が約850nmから940nmの範囲の赤外光(IR光)が用いられる。照明装置11は、発光制御部31、発光部32、および、回折光学素子(DOE)33を備える。
 測距装置12は、測距指示が供給されると、発光条件を決定し、決定した発光条件に基づいて発光制御信号と発光トリガを照明装置11に出力して、照射光を照射させる。ここで決定される発光条件には、例えば、照射方式、照射エリア、照射パターンなどの各種の情報が含まれる。測距装置12は、照射光が物体13で反射された反射光を受光することにより、物体13までの距離を計算し、その結果をデプス画像として、上位のホスト装置へ出力する。測距装置12は、制御部51、受光部52、信号処理部53、および、入出力部54を備える。
 この測距システム1は、物体13等を含む被写体を撮影するRGBカメラ(不図示)とともに使用される。言い換えれば、測距システム1は、外部カメラであるRGBカメラの撮像範囲と同じ範囲を距離測定範囲に設定し、RGBカメラで捉えられる被写体の距離情報を生成する。ただし、測距装置12の受光部52の解像度は、RGBカメラが生成するカラー画像の解像度よりも低いため、測距装置12は、信号処理部53において、カラー画像の解像度と同一解像度に高解像度化したデプス画像である高解像度デプス画像を生成して出力する。
 照明装置11の発光制御部31は、例えば、マイクロプロセッサ、LSI、レーザ駆動ドライバ等を含み、測距装置12の制御部51から供給される発光制御信号に基づいて、発光部32および回折光学素子33を制御する。また、発光制御部31は、測距装置12の制御部51から供給される発光トリガに従い、照射光を発光させる。発光トリガは、例えば、“High(1)”と“Low(0)”の2値からなるパルス波形であり、“High”が照射光を発光するタイミングを表す。
 発光部32は、例えば、光源としてのVCSEL(Vertical Cavity Surface Emitting Laser:垂直共振器面発光レーザ)を平面状に複数配列したVCSELアレイで構成され、各VCSELが、発光トリガにしたがい、発光のオンオフを行う。VCSELの発光単位(光源の大きさ)や、発光させるVCSELの位置(発光位置)は、発光制御部31の制御によって可変することができる。
 回折光学素子33は、図2に示されるように、発光部32から出射され、投射レンズ(不図示)を通過した所定領域の発光パターンを、光軸方向と垂直な方向に複製することにより照射エリアを拡大する。回折光学素子33の代わりに、または、回折光学素子33とともに、焦点可変レンズや液晶素子等を用いて、スポット照射と面照射を切り替えたり、発光パターン(照射領域)を特定のパターンに切り替えることができる。あるいはまた、例えば、フォトニック結晶発光レーザ(Photonic Crystal Surface Emitting Lase)を用いることにより、物体13へ照射する発光パターンを特定パターンに変化させてもよい。フォトニック結晶発光レーザを用いた発光パターンの制御技術については、例えば、「“特集 次世代レーザ光源!ここまで来たフォトニック結晶レーザ 大面積コヒーレントフォトニック結晶レーザの進展”、De Zoysa Menaka,吉田昌宏、田中良典、野田進、OPTRONICS(2017)No.5」などに開示されている。
 図3は、制御部51から供給される発光条件に基づいて照明装置11が物体13に照射する照射パターンの例を示している。
 照明装置11は、照射方式として、所定の輝度範囲内の均一な発光強度で所定の照射エリアを照射する面照射と、所定の間隔で配置された複数のスポット(円)を照射エリアとするスポット照射とを選択して照射することができる。面照射は、高解像度に測定(受光)することができるが、照射光が拡散するため発光強度が低く、計測レンジが短くなる。一方、スポット照射は、発光強度が高いため、ノイズにロバスト(高信頼度)なデプス値を得ることができるが、低解像度となる。
 また、照明装置11は、照射エリアを一部分に限定して照射したり、発光強度を変更することができる。必要な領域および発光強度で発光させることで、電力を削減したり、近距離における受光部の飽和を回避することができる。発光強度の低減は、アイセーフへの対応にも貢献する。
 さらに、照明装置11は、照射エリア内を均一に照射するのではなく、特定のエリア(例えば、中心エリア)を高密度に照射し、他のエリア(例えば、外周エリア)を低密度に照射するなど、照射パターンを特定パターンに切り替えて照射することもできる。
 図1の説明に戻る。
 測距装置12の制御部51は、例えば、FPGA(FieldProgrammableGateArray)、DSP(DigitalSignalProcessor)、マイクロプロセッサ等により構成される。制御部51は、入出力部54を介して上位のホスト装置から測距指示を取得すると、発光条件を決定して、決定した発光条件に対応する発光制御信号と発光トリガを照明装置11の発光制御部31に供給する。また、制御部51は、生成した発光トリガを、信号処理部53にも供給するとともに、決定した発光条件に対応して受光部52のどの画素をアクティブ画素とするかを決定する。アクティブ画素とは、光子の入射を検出する画素である。光子の入射を検出しない画素は、非アクティブ画素と称する。
 受光部52は、光子の入射を検出する画素が行列状に2次元配置された画素アレイを有する。受光部52の各画素は、光電変換素子としてSPAD(Single Photon Avalanche Diode)を備える。SPADは、光電変換により発生したキャリアを高電界のPN接合領域(増倍領域)で増倍させることで、1個のフォトンを瞬間的に検出する。受光部52の各アクティブ画素は、光子の入射を検出すると、光子が検出されたことを示す検出信号を信号処理部53へ出力する。
 信号処理部53は、所定の回数(例えば、数回ないし数百回)繰り返し実行される照射光の発光と、その反射光の受光とに基づいて、照射光が発光されてから反射光が受光されるまでの時間(カウント値)のヒストグラムを生成する。そして、信号処理部53は、生成したヒストグラムのピークを検出することで、照明装置11から照射された光が物体13で反射して戻ってくるまでの時間を判定し、判定した時間と光速に基づいて、物体13までの距離を求める。信号処理部53は、例えば、FPGA(FieldProgrammableGateArray)、DSP(DigitalSignalProcessor)、ロジック回路などで構成される。
 上述したように、受光部52が有する画素アレイの解像度は、RGBカメラが生成するカラー画像の解像度よりも低い。そこで、信号処理部53は、受光部52の受光結果に基づいて生成された低解像度のデプス画像から、カラー画像の解像度と同一解像度の高解像度デプス画像を生成する高解像度処理を実行する。生成された高解像度デプス画像が入出力部54を介して後段の装置へ出力される。
 入出力部54は、上位のホスト装置から供給される測距指示を制御部51へ供給する。また、入出力部54は、信号処理部53から供給される高解像度デプス画像を上位のホスト装置へ出力する。
 測距装置12は、動作モードとして、測距モードと輝度観測モードの2つのモードを有している。測距モードは、受光部52が有する複数の画素の一部の画素をアクティブ画素、残りの画素を非アクティブ画素に設定し、アクティブ画素に基づいて生成された低解像度のデプス画像から高解像度デプス画像を生成して出力するモードである。輝度観測モードは、受光部52の全ての画素をアクティブ画素とし、一定期間に光子が入力される数を輝度値(画素値)としてカウントした輝度画像を生成するモードである。
<2.測距装置の詳細構成例>
 図4は、動作モードが測距モードの場合の、測距装置12のさらに詳細な構成例を示すブロック図である。なお、図4においては照明装置11に関して回折光学素子33の図示が省略されている。
 測距装置12は、制御部51、受光部52、信号処理部53、入出力部54、画素駆動部55、および、マルチプレクサ56を有する。
 制御部51は、位置決定部61と、サンプリングパターン表62とを有している。
 信号処理部53は、時間計測部71ないし71N、ヒストグラム生成部72ないし72N、ピーク検出部73ないし73N、距離演算部74、エッジ情報検出部75、および、適応的サンプリング部76を有している。信号処理部53には、時間計測部71、ヒストグラム生成部72、および、ピーク検出部73のそれぞれがN個(N>1)ずつ設けられており、N個のヒストグラムを生成できる構成とされている。Nが受光部52の全画素数と等しい場合には、画素単位にヒストグラムを生成することができる。
 位置決定部61は、照明装置11の発光部32としてのVCSELアレイの発光位置と、受光部52の画素アレイの受光位置とを決定する。すなわち、位置決定部61は、面照射、スポット照射、発光エリア、照射パターン等の発光条件を決定し、決定した発光条件に基づいて、VCSELアレイのどのVCSELを発光させるかを示す発光制御信号を照明装置11の発光制御部31に供給する。また、位置決定部61は、決定した発光条件に対応して、画素アレイのどの画素をアクティブ画素とすればよいかを、内部メモリに記憶されているサンプリングパターン表62に基づいて決定する。サンプリングパターン表62には、受光部52の画素アレイの各画素の画素位置を示す位置情報が格納されている。
 図5は、発光条件に基づいてアクティブ画素を決定する例を示している。
 位置決定部61は、発光部32において発光させる光源(VCSEL)の大きさと位置に応じてアクティブ画素の画素位置およびヒストグラムの生成単位を決定する。例えば、ある発光条件において、照明装置11から照射されたスポット光が、領域111Aと領域111Bのように受光部52の画素アレイに入射されることが想定される。この場合、位置決定部61は、領域111Aおよび領域111Bに対応する2x3の画素領域101Aおよび画素領域101Bの各画素をアクティブ画素とするとともに、画素領域101Aおよび画素領域101Bそれぞれを1つのヒストグラムの生成単位に決定する。また例えば、スポット光が領域112Aと領域112Bのように入射されることが想定される場合、位置決定部61は、2x3の画素領域102Aおよび画素領域102Bの各画素をアクティブ画素とするとともに、画素領域102Aおよび画素領域102Bそれぞれを1つのヒストグラムの生成単位に決定する。
 同様に、スポット光が領域113Aと領域113Bのように入射されることが想定される場合、位置決定部61は、3x4の画素領域103Aおよび画素領域103Bの各画素をアクティブ画素とするとともに、画素領域103Aおよび画素領域103Bそれぞれを1つのヒストグラムの生成単位に決定する。また、スポット光が領域114Aと領域114Bのように入射されることが想定される場合、位置決定部61は、3x4の画素領域104Aおよび画素領域104Bの各画素をアクティブ画素とするとともに、画素領域104Aおよび画素領域104Bそれぞれを1つのヒストグラムの生成単位に決定する。1つのヒストグラム生成単位とされた複数のアクティブ画素を、以下ではマクロピクセルと称する。
 図4に戻り、位置決定部61は、決定したアクティブ画素を特定するアクティブ画素制御情報を画素駆動部55に供給する。また、位置決定部61は、ヒストグラムの生成単位を特定するヒストグラム生成制御情報をマルチプレクサ56に供給する。
 さらに、位置決定部61には、信号処理部53において高解像度デプス画像が生成された場合、信号処理部53からサンプリング位置情報が供給される。信号処理部53から供給されるサンプリング位置情報は、信号処理部53が高解像度デプス画像に基づいて決定した、最適なサンプリング位置を示す情報である。
 位置決定部61は、信号処理部53から供給されるサンプリング位置情報と、サンプリングパターン表62とに基づいて、アクティブ画素を変更する必要があるかどうかを判定する。位置決定部61は、アクティブ画素を変更する必要があると判定された場合には、そのアクティブ画素を非アクティブ画素に変更し、他の非アクティブ画素を、新たなアクティブ画素に決定する。そして、変更後のアクティブ画素に基づくアクティブ画素制御情報が画素駆動部55に供給され、ヒストグラム生成制御情報がマルチプレクサ56に供給される。
 画素駆動部55は、位置決定部61から供給されるアクティブ画素制御情報に基づいて、アクティブ画素と非アクティブ画素の制御を行う。換言すれば、画素駆動部55は、受光部52の各画素の受光動作のオンオフを制御する。受光部52においてアクティブ画素に設定された各画素において、光子の入射が検出されると、光子が検出されたことを示す検出信号が画素信号としてマルチプレクサ56を介して信号処理部53へ出力される。
 マルチプレクサ56は、受光部52のアクティブ画素から供給される画素信号を、位置決定部61から供給されるヒストグラム生成制御情報に基づいて、時間計測部71ないし71Nのいずれかに振り分ける。換言すれば、マルチプレクサ56は、受光部52のアクティブ画素の各画素信号が、マクロピクセル単位で、同じ一つの時間計測部71(i=1ないしNのいずれか)に供給されるように制御する。
 図4では図示が省略されているが、信号処理部53の時間計測部71(i=1ないしNのいずれか)には、制御部51が照明装置11の発光制御部31に供給する発光トリガも供給される。時間計測部71は、発光トリガが示す発光タイミングと、マクロピクセルの各アクティブ画素から供給される画素信号とに基づいて、発光部32が照射光を発光してからアクティブ画素が反射光を受光するまでの時間に対応するカウント値を生成する。生成されたカウント値は、対応するヒストグラム生成部72に供給される。時間計測部71は、TDC(Time to Digital Converter)とも呼ばれる。
 ヒストグラム生成部72は、時間計測部71から供給されるカウント値を基に、カウント値のヒストグラムを作成する。生成されたヒストグラムのデータは、対応するピーク検出部73に供給される。
 ピーク検出部73は、ヒストグラム生成部72から供給されるヒストグラムのデータに基づいて、ヒストグラムのピークを検出する。ピーク検出部73は、検出されたヒストグラムのピークに対応するカウント値を、距離演算部74に供給する。
 距離演算部74は、ピーク検出部73ないし73Nのそれぞれから、マクロピクセル単位で供給される、ヒストグラムのピークに対応するカウント値に基づいて、照射光の飛行時間を算出する。距離演算部74は、算出した飛行時間から、被写体までの距離を演算し、演算結果である距離を画素値として格納したデプス画像を生成する。ここで生成されるデプス画像の解像度は、受光部52の解像度が、RGBカメラが生成するカラー画像の解像度よりも低いため、仮に、Nを受光部52の全画素数とした場合でも、カラー画像の解像度よりも低い、疎なデプス画像となっている。
 そこで、距離演算部74は、生成した疎なデプス画像を、RGBカメラが生成するカラー画像と同一解像度に高解像度化する高解像度処理をさらに実行する。すなわち、距離演算部74は、疎なデプス画像から高解像度デプス画像を生成する高解像度処理部を含む。生成された高解像度デプス画像は、入出力部54を介して外部へ出力されるとともに、エッジ情報検出部75に供給される。高解像度処理は、例えば、DNN(Deep Neural Network)を用いた既知の技術を適用して実現できる。
 エッジ情報検出部75は、距離演算部74から供給される高解像度デプス画像に基づいて、物体の境界を示すエッジ情報を検出し、検出結果を適応的サンプリング部76に供給する。デプス画像からエッジ情報を検出する技術には、例えば、DNNを用いた“Holistically-Nested Edge Detection”, Saining Xie, Zhuowen Tu (https://arxiv.org/pdf/1504.06375.pdf)などがある。
 適応的サンプリング部76は、エッジ情報検出部75から供給されるエッジ情報に基づいて、いまマクロピクセルとして設定されている位置(以下、サンプリング位置とも称する)が物体のエッジ上にあるか否かを、全てのサンプリング位置について判定する。マクロピクセルに設定されている位置についての情報は、位置決定部61が生成するアクティブ画素制御情報を取得することにより把握される。
 適応的サンプリング部76は、所定のサンプリング位置が物体のエッジ上にあると判定された場合、そのサンプリング位置を、物体のエッジ上から移動させるための移動方向および移動量を計算する。適応的サンプリング部76は、物体のエッジ上にあると判定されたサンプリング位置については、計算された移動方向および移動量だけ移動させた新サンプリング位置の位置情報に変更したうえで、全てのサンプリング位置のサンプリング位置情報を、制御部51の位置決定部61に供給する。なお、適応的サンプリング部76は、変更が必要な新サンプリング位置のサンプリング位置情報のみを位置決定部61に供給してもよい。
 図6および図7を参照して、エッジ情報検出部75と適応的サンプリング部76の処理について説明する。
 図6は、RGBカメラによって生成されたカラー画像と、カラー画像と同一解像度に高解像度化された高解像度デプス画像の例を示している。
 高解像度デプス画像は、物体までの距離情報を所定数ビット(例えば、10ビット)のグレー値で示した画像であり、図6の高解像度デプス画像では、物体までの距離が近いほど暗い値で示されている。エッジ情報検出部75は、距離に対応するグレー値の境界をエッジ情報として検出する。
 高解像度デプス画像に重畳されて等間隔に示されている、黒丸の周囲を白色で囲む各点MPは、受光部52における現在のサンプリング位置、すなわちマクロピクセルの位置を示している。
 図6の高解像度デプス画像のうち、物体の境界が比較的明確に示された領域121に注目する。領域121には、現在のサンプリング位置として、第1のサンプリング位置141と、第2のサンプリング位置142とが含まれている。
 図7は、図6の高解像度デプス画像の領域121を拡大した図である。
 図7の左の領域121に示されるように、高解像度デプス画像の領域121において、エッジ151が、エッジ情報検出部75のエッジ情報検出処理により検出されたとする。この場合、適応的サンプリング部76は、第1のサンプリング位置141についてはエッジ151の上にあると判定し、第2のサンプリング位置142については、どのエッジ上にもないと判定する。
 そして、適応的サンプリング部76は、物体のエッジ上にあると判定された第1のサンプリング位置141については、物体のエッジ上から外れるように移動させた新サンプリング位置141’を計算し、新サンプリング位置141’の位置情報を含むサンプリング位置情報を、制御部51の位置決定部61に供給する。新サンプリング位置141’の算出については後述する。
<3.測距処理のフローチャート>
 次に、図8のフローチャートを参照して、測距システム1による測距処理について説明する。この処理は、例えば、上位のホスト装置から測距指示が供給された場合に開始される。
 初めに、ステップS1において、測距装置12は、発光条件を決定し、決定した発光条件に基づいて、発光させるVCSELやタイミングを制御する発光制御信号および発光トリガを照明装置11に出力する。また、測距装置12の位置決定部61は、決定した発光条件に基づいて、アクティブ画素を特定するアクティブ画素制御情報を画素駆動部55に供給し、ヒストグラムの生成単位を特定するヒストグラム生成制御情報をマルチプレクサ56に供給する。
 ステップS2において、照明装置11は、照射光の発光を開始する。より具体的には、発光制御部31が、測距装置12からの発光制御信号に基づいて回折光学素子33を制御し、発光トリガに基づいて発光部32の所定のVCSELをオンオフさせる。
 ステップS3において、測距装置12は受光動作を開始する。より具体的には、画素駆動部55が、位置決定部61からのアクティブ画素制御情報に基づいて所定の画素をアクティブ画素として駆動させる。アクティブ画素において光子が検出されると、そのことを示す検出信号が、画素信号として、マルチプレクサ56を介して信号処理部53へ出力される。
 ステップS4において、測距装置12は、高解像度デプス画像を生成する高解像度デプス画像生成処理を実行する。測距装置12は、高解像度デプス画像生成処理の結果得られた高解像度デプス画像を、上位のホスト装置へ出力して、測距処理を終了する。
 図9のフローチャートを参照して、図8のステップS4として実行される高解像度デプス画像生成処理の詳細について説明する。
 初めに、ステップS11において、測距装置12の信号処理部53は、疎なデプス画像を生成する。具体的には、時間計測部71、ヒストグラム生成部72、および、ピーク検出部73(i=1ないしNのいずれか)の一連の処理により、ヒストグラムのピークがマクロピクセル単位で検出され、ピークに対応するカウント値が距離演算部74に供給される。距離演算部74は、マクロピクセル単位で供給される、ヒストグラムピークのカウント値に基づいて、被写体までの距離を演算する。そして、演算された被写体までの距離が画素値として格納された疎なデプス画像が生成される。
 ステップS12において、距離演算部74は、高解像度処理を実行し、疎なデプス画像から、RGBカメラが生成するカラー画像と同一解像度の高解像度デプス画像を生成する。生成された高解像度デプス画像は、入出力部54を介して外部へ出力されるとともに、エッジ情報検出部75に供給される。
 ステップS13において、エッジ情報検出部75は、距離演算部74から供給された高解像度デプス画像に基づいて、物体の境界を示すエッジ情報を検出し、検出結果を適応的サンプリング部76に供給する。
 ステップS14において、適応的サンプリング部76は、エッジ情報検出部75から供給された物体のエッジ情報に基づいて、全てのサンプリング位置に対して、サンプリング位置がエッジ上にあるかを判定する。
 図10は、図7に示した領域121の第1のサンプリング位置141と第2のサンプリング位置142について、サンプリング位置がエッジ上にあるかを判定する処理を説明する図である。
 適応的サンプリング部76は、判定対象のサンプリング位置を中心とする所定の閾値rの範囲内に物体のエッジが存在するか否かを判定することにより、判定対象のサンプリング位置がエッジ上にあるか否かを判定する。所定の閾値rは、予め決定される。
 図10のAは、所定の閾値rを固定値として設定する場合の例を示している。第1のサンプリング位置141と第2のサンプリング位置142のいずれにおいても、閾値rが同一の値raとされている。
 固定の閾値raは、例えば、照明装置11がスポット照射で被写体に照射光を照射する場合のスポット径より大きい値に設定することができる。
 あるいはまた、固定の閾値raは、例えば、近傍のサンプリング位置との間隔に対する所定の比率(例えば、50%)で決定することができる。近傍のサンプリング位置との間隔に対する所定の比率ではなく、照射エリア内の全てのサンプリング位置の間隔の平均値に対する所定の比率で決定してもよい。
 あるいはまた、固定の閾値raは、RGBカメラと測距装置12との位置合わせ誤差よりも大きい値に設定することができる。
 一方、図10のBは、所定の閾値rが距離(デプス値)に応じて変化し得る距離変動型の例を示している。例えば図10のBに示されるデプス値と閾値rの決定関数に基づいて、閾値rが設定される。図10の決定関数によれば、閾値rがデプス値に反比例するように、すなわち、物体までの距離が近いほど閾値rが大きくなるように、閾値rが設定される。領域121の第1のサンプリング位置141と第2のサンプリング位置142とでは、第1のサンプリング位置141のデプス値が、第2のサンプリング位置142のデプス値よりも小さい(距離が近い)ため、図10のBの第1のサンプリング位置141の閾値rは、第2のサンプリング位置142の閾値rよりも大きく設定されている(r>r)。
 図10の例では、所定の閾値rを固定型または距離変動型のいずれで設定した場合も、第1のサンプリング位置141については、所定の閾値rの範囲内にエッジが存在するので、エッジ上にあると判定される。第2のサンプリング位置142は、エッジ上にはないと判定される。
 図9に戻り、ステップS15において、適応的サンプリング部76は、エッジ上にあると判定されたサンプリング位置の移動方向および移動量を計算する。
 図11ないし図13を参照して、エッジ上にあると判定されたサンプリング位置の移動方向および移動量の決定方法を説明する。図11ないし図13では、簡単のため、一画素単位でサンプリング位置が設定されているとして説明する。
 図11に示される領域200において、黒丸の周囲を白色で囲む点202aないし202hは、アクティブ画素を表し、黒丸の周囲を灰色で囲む各点203は、非アクティブ画素を表している。
 いま、領域200においてアクティブ画素とされ、中央に位置するサンプリング点201が、エッジ上にあると判定された場合の、サンプリング点201の移動方向および移動量の決定方法について説明する。
 まず、適応的サンプリング部76は、移動対象のサンプリング点201の近傍領域の複数のサンプリング点202のデプス値を用いて重心位置を決定する。例えば、移動対象のサンプリング点201の近傍領域として、サンプリング点201の周囲に隣接する8個のサンプリング点202aないし202hの位置(x,y)とデプス値dとを用いて、重心位置を決定する。8個のサンプリング位置202aないし202hのデプス値dは、高解像度デプス画像から取得される。
 ここで、近傍領域のデプス値を用いて重心位置を決定する場合の重みとして、距離が近い方が大きい重みとなるように、デプス値に反比例した重みが採用される。図12に示されるように、物体の境界上に照射光が当たっている場合、手前側の被写体では光源のオクルージョンが無く、計測に適しているが、奥側の被写体では光源のオクルージョンが生じるため、正確な計測ができない。また、一般に、被写体のデプス情報としては、奥側よりも手前側のデプス情報が重要となると考えられるためである。
 図11の例では、手前側のサンプリング点202a、202d、202f、および、202gの重みが、奥側のサンプリング点202b、202c、202e、および202hの重みよりも大きな重みに設定される。適応的サンプリング部76は、移動対象のサンプリング点201の近傍領域の複数のサンプリング点202の位置(x,y)とデプス値dとを用いて、重心位置を計算する。適応的サンプリング部76は、現在のサンプリング点201の位置から、計算により得られた重心位置へ向かう方向を、サンプリング位置の移動方向に決定する。
 次に、適応的サンプリング部76は、サンプリング点201の移動量を決定する。例えば、適応的サンプリング部76は、移動量を、照明装置11がスポット照射で照射光を照射する場合のスポット径に応じて決定する。より具体的には、スポット径より大きい所定の値を移動量として決定することができる。これにより、スポット径がエッジと重ならない位置を新しいサンプリング位置とすることができる。
 あるいはまた、RGBカメラと測距装置12との位置合わせ誤差に基づいて、移動量を決定してもよい。具体的には、位置合わせ誤差よりも大きい所定の値を移動量として決定することができる。これにより、RGBカメラと測距装置12との位置合わせ誤差があっても、エッジと重ならない位置を新しいサンプリング位置とすることができる。照射方式が面照射の場合は、位置合わせ誤差よりも大きい所定の値を移動量として決定し、照射方式がスポット照射の場合は、スポット径と位置合わせ誤差のそれぞれよりも大きい所定の値を移動量として決定してもよい。
 図11の移動ベクトル211は、移動対象のサンプリング点201に対して算出された移動方向および移動量を示している。
 図13のAは、移動対象のサンプリング点201が2つの物体のエッジ上にある場合の、サンプリング点201の移動ベクトル211の例を示している。
 図13のBは、移動対象のサンプリング点201が3つの物体のエッジ上にある場合の、サンプリング点201の移動ベクトル211の例を示している。
 図13のCは、移動対象のサンプリング点201が細長い物体上にあり、重心位置がいまのサンプリング点201と重なるため、サンプリング点201の移動ベクトル211が決定できない例を示している。このように、サンプリング点201の移動ベクトル211が決定できない場合も起こり得る。図13のCのように、サンプリング点201の移動ベクトル211が決定できない場合は、そのサンプリング点に対して信頼度の低いサンプリング点であることを示すフラグ等を付けておき、高解像度デプス画像を生成する際のデプス値利用時の重みを低くすることができる。あるいはまた、移動ベクトル211が決定できないサンプリング点については、アクティブ画素から非アクティブ画素に変更するのみとしてもよい。
 図9のステップS15では、以上のように、エッジ上にあると判定されたサンプリング位置の移動方向および移動量が計算される。適応的サンプリング部76は、物体のエッジ上にあると判定されたサンプリング位置については、計算された移動方向および移動量だけ移動させた新サンプリング位置の位置情報に変更する。そして、適応的サンプリング部76は、全てのサンプリング位置のサンプリング位置情報を、制御部51の位置決定部61に供給する。
 ステップS16において、位置決定部61は、全てのサンプリング位置のサンプリング位置情報を、適応的サンプリング部76から取得する。そして、位置決定部61は、位置が変更されたサンプリング位置(新サンプリング位置)に対応する新たなアクティブ画素を決定するとともに、サンプリング位置の変更に伴い、受光動作が不要となるアクティブ画素を非アクティブ画素に決定する。位置決定部61は、内部メモリのサンプリングパターン表を参照し、新サンプリング位置に最も近い受光部52の画素を、新たなアクティブ画素を決定する。例えば、新サンプリング位置が画素アレイの外側であるなど、新サンプリング位置に最も近い受光部52の画素が存在しない場合には、新たなアクティブ画素が設定されない場合もあり得る。
 ステップS17において、制御部51は、距離の測定を終了するか否かを判定する。例えば、制御部51は、高解像度デプス画像を予め決定された所定回数だけ生成し、出力した場合、距離の測定を終了すると判定する。また例えば、制御部51は、適応的サンプリング部76から供給される全てのサンプリング位置のサンプリング位置情報に新サンプリング位置の位置情報が含まれない場合、すなわち、全てのアクティブ画素が物体の境界上にない状態で高解像度デプス画像が生成された場合、距離の測定を終了すると判定してもよい。
 ステップS17で、まだ距離の測定を終了しないと判定された場合、処理はステップS11へ戻り、上述したステップS11ないしS17が繰り返される。
 一方、ステップS17で、距離の測定を終了すると判定された場合、図9の高解像度デプス生成処理が終了され、図8の測距処理も終了する。
 以上の測距処理によれば、疎なデプス画像を生成する際のサンプリング位置が物体のエッジ上にあるか否かが判定され、エッジ上にあると判定されたサンプリング位置が、エッジにかからない場所に移動するように制御される。物体の境界を避けてサンプリングすることにより、疎なデプス画像をより高精度に生成することができる。例えば、サンプリング位置の間に物体が存在し、その物体の境界がサンプリング位置と重なっているような場合、その物体が高解像度化の際に埋もれてしまうことがある。物体の境界を避けてサンプリングすることにより、その物体が高解像度化の際に埋もれてしまうことを低減することができる。
 エッジ上にあると判定されたサンプリング位置の移動方向は、奥行き方向が異なる2つの物体のうち、手前側の物体の領域側へ移動される。これにより、光源のオクルージョンの影響を抑制し、疎なデプス画像をより高精度に生成することができる。疎なデプス画像をより高精度に生成できることにより、高解像度デプス画像も、より高精度化に生成することができる。
 また、エッジ上にあると判定されたサンプリング位置の移動量は、スポット照射で照射光を照射する場合のスポット径より大きい所定の値に設定することができる。これにより、スポット径がエッジと重ならない位置を新しいサンプリング位置とすることができ、疎なデプス画像をより高精度に生成することができる。疎なデプス画像をより高精度に生成できることにより、高解像度デプス画像も、より高精度化に生成することができる。
 また、サンプリング位置の移動量は、カラー画像を生成するRGBカメラと測距装置12との位置合わせ誤差よりも大きい所定の値を移動量として決定することができる。高解像度デプス画像は、ユーザが実際に視認するカラー画像に対応するように生成される。カラー画像を生成するRGBカメラと測距装置12との間に位置合わせ誤差がある場合、その位置合わせ誤差に起因して誤った位置にデプスが対応付けられてしまう。位置合わせ誤差を考慮して、エッジと重ならない位置を新しいサンプリング位置とすることで、位置合わせ誤差が存在する場合でも物体との対応が正しい位置でデプスを測定することができるので、最終的に、高解像度デプス画像を、より高精度化に生成することができる。
<4.高解像度デプス生成処理の他の例>
 上述した測距処理では、測距装置12は、測距モードで生成される高解像度デプス画像を用いて物体のエッジ情報を検出し、サンプリング位置を高精度に制御することで、高解像度デプス画像の高精度化を実現した。
 測距装置12は、測距モードで生成される高解像度デプス画像だけでなく、輝度観測モードで得られる輝度画像も用いて物体のエッジ情報を検出してもよい。
 以下では、測距モードで生成される高解像度デプス画像と、輝度観測モードで得られる輝度画像の両方を用いて物体のエッジ情報を検出し、サンプリング位置を高精度に制御することで、高解像度デプス画像を高精度化に生成する処理について説明する。
 図14は、測距モードが輝度観測モードの場合の測距装置12の詳細な構成例を示すブロック図である。
 図14において、図4に示した動作モードが測距モードの場合の測距装置12の構成と共通する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 動作モードが観測輝度モードの測距装置12では、信号処理部53に、フォトンカウント部301ないし301M、および、輝度画像生成部302が設けられている。その代わりに、時間計測部71ないし71N、ヒストグラム生成部72ないし72N、ピーク検出部73ないし73N、および、距離演算部74が省略されている。測距装置12のその他の構成は、図4と同様である。
 動作モードが観測輝度モードの場合、受光部52の全画素がアクティブ画素に設定され、受光部52の画素数に対応するM個のフォトンカウント部301ないし301Mが動作する。すなわち、フォトンカウント部301は、受光部52の画素毎に設けられる。マルチプレクサ56は、受光部52の画素とフォトンカウント部301とを1対1に接続し、受光部52の各画素の画素信号を、対応するフォトンカウント部301へ供給する。
 フォトンカウント部301(j=1ないしMのいずれか)は、受光部52の対応する画素のSPADが所定期間内に反応した回数、すなわち、フォトンが入射した回数をカウントする。そして、フォトンカウント部301は、カウント結果を、輝度画像生成部302に供給する。輝度画像生成部302は、各画素で計測されたフォトンのカウント結果を画素値(輝度値)とする輝度画像を生成し、エッジ情報検出部75に供給する。生成した輝度画像は、入出力部54を介して上位のホスト装置にも出力してよい。
 なお、フォトンのカウント結果を、画素単位ではなく、複数画素単位で行ってもよく、その場合、フォトンカウント部301ないし301Mの個数Mは、受光部52の全画素の画素数よりも少なく構成される。
 エッジ情報検出部75は、輝度画像生成部302から供給される輝度画像に基づいて、物体の境界を示すエッジ情報を検出する。輝度画像からエッジ情報を検出する技術には、公知の技術を用いることができる。例えば、“Hardware implementation of a novel edge-map generation technique for pupil detection in NIR images”, Vineet Kumar , Abhijit Asati, Anu Gupta, (https://www.sciencedirect.com/science/article/pii/S2215098616305456)の技術などがある。
 また、エッジ情報検出部75は、測距モードで生成される高解像度デプス画像にも基づいて、物体の境界を示すエッジ情報を検出する。そして、エッジ情報検出部75は、輝度画像から検出されたエッジ情報と、高解像度デプス画像から検出されたエッジ情報とを統合した、最終的な物体のエッジ情報を検出し、検出結果を適応的サンプリング部76に供給する。
 図15のフローチャートを参照して、測距モードで生成される高解像度デプス画像だけでなく、輝度観測モードで得られる輝度画像も用いて高解像度デプス画像を生成する高解像度デプス画像処理について説明する。
 図15の高解像度デプス画像処理は、図8のステップS4として、上述した図9の高解像度デプス画像処理に代えて実行することができる。
 なお、輝度観測モードの場合、照明装置11による照射光の発光は停止して、環境光のみによる輝度画像を生成してもよいし、照射光として面照射等の均一光を照射してもよい。図8のステップS1ないしS3の各処理は、測距モードと輝度観測モードのそれぞれ個別の発光条件で照射光を発光させることも可能であるが、本実施の形態では、2つのモードとも面照射の同一条件で発光させることとして、図8のステップS1ないしS3の説明は省略する。
 図15の高解像度デプス画像処理では、初めに、ステップS41において、測距装置12は、動作モードを輝度観測モードに設定し、輝度画像を生成する。より具体的には、受光部52の各画素において所定期間内にフォトンが入射された回数がフォトンカウント部301(j=1ないしM)でカウントされ、カウント結果が、フォトンカウント部301から輝度画像生成部302に供給される。輝度画像生成部302は、各画素で計測されたフォトンのカウント結果を画素値とする輝度画像を生成し、エッジ情報検出部75に供給する。
 ステップS42において、測距装置12は、動作モードを測距モードに設定し、疎なデプス画像を生成する。この処理は、図9のステップS11の処理と同様である。
 ステップS43において、距離演算部74は、高解像度処理を実行し、疎なデプス画像から、高解像度デプス画像を生成する。生成された高解像度デプス画像は、入出力部54を介して外部へ出力されるとともに、エッジ情報検出部75に供給される。
 ステップS44において、エッジ情報検出部75は、輝度観測モードで得られた輝度画像と、測距モードで得られた高解像度デプス画像とに基づいて、物体の境界を示すエッジ情報を検出し、検出結果を適応的サンプリング部76に供給する。
 ステップS45ないしS48の処理は、図9のステップS14ないしS17の処理と、それぞれ同様であるので、その説明は省略する。
 図15の高解像度デプス画像処理を採用した場合、高解像度デプス画像に基づくエッジ情報と、輝度画像に基づくエッジ情報との両方に基づいて、物体のエッジを検出し、サンプリング位置が物体のエッジ上にあるか否かを判定することができる。デプス画像とは異なるドメインの輝度画像に基づくエッジ情報も利用することにより、デプス情報だけでは拾えない物体のエッジを検出することが可能となり、さらに高精度な高解像度デプス画像を生成することができる。
<5.変形例>
 上述した実施の形態では、輝度画像から検出されたエッジ情報を追加的に用いてサンプリング位置が物体のエッジ上にあるか否かを判定したが、測距システム1とともに使用されているRGBカメラで撮影されたカラー画像を用いてもよい。すなわち、カラー画像を用いて物体のエッジ情報を検出し、高解像度デプス画像とカラー画像の両方のエッジ情報を用いて、サンプリング位置が物体のエッジ上にあるか否かを判定し、サンプリング位置を移動させてもよい。カラー画像を用いた物体のエッジ検出には、例えば、“PointRend: Image Segmentation as Rendering ”Alexander Kirillov Yuxin Wu Kaiming He Ross Girshick,(https://arxiv.org/pdf/1807.00275v2.pdf)等に開示されている、カラー画像を用いて物体の境界(領域)を分類する技術などを用いることができる。高解像度デプス画像は、疎なデプス画像から推定された画像であるため、全画素のデプス値が正しい保証はない。RGBカメラで得られたカラー画像は実際に被写体を撮影した画像であるので、エッジ情報の信頼性は高く、物体のエッジの検出精度をさらに高めることができる。これにより、高解像度デプス画像をさらに高精度に生成することができる。
 上述したRGBカメラ以外の他の外部カメラの画像を用いて、物体のエッジの検出精度をさらに高める構成を採用することもできる。例えば、他の外部カメラとして、赤外線(遠赤外線、近赤外線)を撮像するIRカメラ、indirect ToF方式による測距センサ(測距装置)、EVS(event-based vision sensor)などが挙げられる。indirect ToF方式による測距センサは、照射光が発光されたタイミングから、反射光が受光されるタイミングまでの飛行時間を位相差として検出し、物体までの距離を測定する測距センサである。また、EVSは、光信号を光電変換して画素信号を出力する画素を有し、画素信号に基づき、光信号の時間的輝度変化をイベント信号(イベントデータ)として出力するセンサである。EVSは、一般的なイメージセンサのように、垂直同期信号に同期して撮影を行い、その垂直同期信号の周期で1フレーム(画面)のフレームデータを出力するのではなく、イベントが発生したタイミングにおいてのみイベントデータを出力するため、非同期型(又はアドレス制御型)のカメラである。
 輝度モードによる輝度画像のエッジ情報を用いる代わりに、RGBカメラ、IRカメラ等の外部カメラの画像に基づいてエッジ情報を検出し、利用することで、エッジ情報の検出精度を高めることができる。また、測距装置12において輝度モードによる駆動(輝度画像の生成)が不要となるため、高解像度デプス画像の生成フレームレートを2倍に上げることができるので、時間差による動物体の位置ずれの影響等を軽減できる。これにより、高解像度デプス画像を高精度に生成することができる。
 なお勿論、高解像度デプス画像に基づくエッジ情報と、輝度モードによる輝度画像に基づくエッジ情報と、外部センサのセンサデータに基づいてエッジ情報とを用いて、物体のエッジを検出し、サンプリング位置が物体のエッジ上にあるか否かを判定してもよい。この場合も、高解像度デプス画像を高精度に生成することができる。
<応用例>
 上述した測距システム1は、例えば、スマートフォン、タブレット型端末、携帯電話機、パーソナルコンピュータ、ゲーム機、テレビ受像機、ウェアラブル端末、デジタルスチルカメラ、デジタルビデオカメラなどの電子機器に搭載することができる。
 本開示の技術は、VR(仮想現実)やAR(拡張現実)のコンテンツの撮影空間認識に採用することができるほか、自動車に搭載し、車両間等の測距を行う測距センサ、走行車両や道路を監視する監視カメラ、車内等を撮影する車載用センサ等にも適用することができる。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 上述した実施の形態では、サンプリング位置を、複数画素からなるマクロピクセルにより設定しが、サンプリング位置は一画素単位でも勿論よい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本技術は、以下の構成を取ることができる。
(1)
 照射光が物体で反射された反射光を受光する複数の画素を有する受光部と、
 前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、
 前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部と
 を備える測距装置。
(2)
 前記高解像度デプス画像のエッジ情報に基づいて、アクティブ画素に設定されているサンプリング位置が物体のエッジ上にあるか否かを判定するサンプリング部をさらに備える
 前記(1)に記載の測距装置。
(3)
 前記サンプリング部は、前記サンプリング位置を中心とする所定の範囲内に物体のエッジが存在するか否かを判定することにより、前記サンプリング位置が物体のエッジ上にあるか否かを判定する
 前記(2)に記載の測距装置。
(4)
 前記所定の範囲は、外部カメラと前記測距装置との位置合わせ誤差よりも大きい値である
 前記(3)に記載の測距装置。
(5)
 前記所定の範囲は、前記照射光のスポット径より大きい値である
 前記(3)に記載の測距装置。
(6)
 前記所定の範囲は、近傍のサンプリング位置との間隔に対する所定の比率で決定される値である
 前記(3)に記載の測距装置。
(7)
 前記所定の範囲は、照射エリア内の全てのサンプリング位置の間隔に対する所定の比率で決定される値である
 前記(3)に記載の測距装置。
(8)
 前記所定の範囲は、前記サンプリング位置のデプス値に応じて変化し得る値である
 前記(3)に記載の測距装置。
(9)
 前記所定の範囲は、前記サンプリング位置のデプス値に反比例するように変化し得る値である
 前記(3)に記載の測距装置。
(10)
 前記サンプリング部は、前記サンプリング位置が物体のエッジ上にあると判定された場合、そのサンプリング位置を移動させるための移動方向および移動量を決定する
 前記(2)ないし(9)のいずれかに記載の測距装置。
(11)
 前記サンプリング部は、前記サンプリング位置の近傍の他のサンプリング位置を用いて重心位置を決定し、前記重心位置へ向かう方向を、前記移動方向に決定する
 前記(10)に記載の測距装置。
(12)
 前記サンプリング部は、手前側の前記他のサンプリング位置の重みを、奥側の前記他のサンプリング位置の重みよりも大きな重みに設定して、前記重心位置を決定する
 前記(11)に記載の測距装置。
(13)
 前記サンプリング部は、外部カメラと前記測距装置との位置合わせ誤差に基づいて、前記移動量を設定する
 前記(10)ないし(12)のいずれかに記載の測距装置。
(14)
 前記サンプリング部は、前記照射光のスポット径に応じて、前記移動量を決定する
 前記(10)ないし(12)のいずれかに記載の測距装置。
(15)
 前記高解像度デプス画像に基づいて、物体の境界を示す前記エッジ情報を検出するエッジ情報検出部をさらに備える
 前記(1)ないし(14)のいずれかに記載の測距装置。
(16)
 前記エッジ情報検出部は、前記高解像度デプス画像と外部カメラの画像とに基づいて前記エッジ情報を検出する
 前記(15)に記載の測距装置。
(17)
 前記位置決定部は、前記照射光の大きさと位置にも基づいて、前記アクティブ画素を決定する
 前記(1)ないし(16)のいずれかに記載の測距装置。
(18)
 照射光が物体で反射された反射光を受光する複数の画素を有する受光部を備える測距装置が、
 前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成し、
 前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する
 測距装置の制御方法。
(19)
 照射光を照射する照明装置と、
 前記照射光が物体で反射された反射光を受光する測距装置と
 を備え、
 前記測距装置は、
  前記反射光を受光する複数の画素を有する受光部と、
  前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、
  前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部と
 を備える
 測距システム。
(20)
 前記測距装置は、照射方式、照射エリア、および、照射パターンを含む前記照射光の発光条件を決定し、
 前記照明装置は、前記発光条件に基づく前記照射光を発光させる
 前記(19)に記載の測距システム。
 1 測距システム, 11 照明装置, 12 測距装置, 31 発光制御部, 32 発光部, 33 回折光学素子(DOE), 51 制御部, 52 受光部, 53 信号処理部, 61 位置決定部, 71ないし71N 時間計測部, 72ないし72N ヒストグラム生成部, 73ないし73N ピーク検出部, 74 距離演算部, 75 エッジ情報検出部, 76 適応的サンプリング部, 301ないし301M フォトンカウント部, 302 輝度画像生成部

Claims (20)

  1.  照射光が物体で反射された反射光を受光する複数の画素を有する受光部と、
     前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、
     前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部と
     を備える測距装置。
  2.  前記高解像度デプス画像のエッジ情報に基づいて、アクティブ画素に設定されているサンプリング位置が物体のエッジ上にあるか否かを判定するサンプリング部をさらに備える
     請求項1に記載の測距装置。
  3.  前記サンプリング部は、前記サンプリング位置を中心とする所定の範囲内に物体のエッジが存在するか否かを判定することにより、前記サンプリング位置が物体のエッジ上にあるか否かを判定する
     請求項2に記載の測距装置。
  4.  前記所定の範囲は、外部カメラと前記測距装置との位置合わせ誤差よりも大きい値である
     請求項3に記載の測距装置。
  5.  前記所定の範囲は、前記照射光のスポット径より大きい値である
     請求項3に記載の測距装置。
  6.  前記所定の範囲は、近傍のサンプリング位置との間隔に対する所定の比率で決定される値である
     請求項3に記載の測距装置。
  7.  前記所定の範囲は、照射エリア内の全てのサンプリング位置の間隔に対する所定の比率で決定される値である
     請求項3に記載の測距装置。
  8.  前記所定の範囲は、前記サンプリング位置のデプス値に応じて変化し得る値である
     請求項3に記載の測距装置。
  9.  前記所定の範囲は、前記サンプリング位置のデプス値に反比例するように変化し得る値である
     請求項3に記載の測距装置。
  10.  前記サンプリング部は、前記サンプリング位置が物体のエッジ上にあると判定された場合、そのサンプリング位置を移動させるための移動方向および移動量を決定する
     請求項2に記載の測距装置。
  11.  前記サンプリング部は、前記サンプリング位置の近傍の他のサンプリング位置を用いて重心位置を決定し、前記重心位置へ向かう方向を、前記移動方向に決定する
     請求項10に記載の測距装置。
  12.  前記サンプリング部は、手前側の前記他のサンプリング位置の重みを、奥側の前記他のサンプリング位置の重みよりも大きな重みに設定して、前記重心位置を決定する
     請求項11に記載の測距装置。
  13.  前記サンプリング部は、外部カメラと前記測距装置との位置合わせ誤差に基づいて、前記移動量を設定する
     請求項10に記載の測距装置。
  14.  前記サンプリング部は、前記照射光のスポット径に応じて、前記移動量を決定する
     請求項10に記載の測距装置。
  15.  前記高解像度デプス画像に基づいて、物体の境界を示す前記エッジ情報を検出するエッジ情報検出部をさらに備える
     請求項1に記載の測距装置。
  16.  前記エッジ情報検出部は、前記高解像度デプス画像と外部カメラの画像とに基づいて前記エッジ情報を検出する
     請求項15に記載の測距装置。
  17.  前記位置決定部は、前記照射光の大きさと位置にも基づいて、前記アクティブ画素を決定する
     請求項1に記載の測距装置。
  18.  照射光が物体で反射された反射光を受光する複数の画素を有する受光部を備える測距装置が、
     前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成し、
     前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する
     測距装置の制御方法。
  19.  照射光を照射する照明装置と、
     前記照射光が物体で反射された反射光を受光する測距装置と
     を備え、
     前記測距装置は、
      前記反射光を受光する複数の画素を有する受光部と、
      前記受光部で取得された疎なデプス画像から、高解像度デプス画像を生成する高解像度処理部と、
      前記高解像度デプス画像のエッジ情報に基づいて、前記受光部において受光動作を行うアクティブ画素を決定する位置決定部と
     を備える
     測距システム。
  20.  前記測距装置は、照射方式、照射エリア、および、照射パターンを含む前記照射光の発光条件を決定し、
     前記照明装置は、前記発光条件に基づく前記照射光を発光させる
     請求項19に記載の測距システム。
PCT/JP2021/048507 2021-02-02 2021-12-27 測距装置およびその制御方法、並びに、測距システム WO2022168500A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022579386A JPWO2022168500A1 (ja) 2021-02-02 2021-12-27
CN202180092053.9A CN116745644A (zh) 2021-02-02 2021-12-27 距离测量装置、该装置的控制方法和距离测量系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-014814 2021-02-02
JP2021014814 2021-02-02

Publications (1)

Publication Number Publication Date
WO2022168500A1 true WO2022168500A1 (ja) 2022-08-11

Family

ID=82740704

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048507 WO2022168500A1 (ja) 2021-02-02 2021-12-27 測距装置およびその制御方法、並びに、測距システム

Country Status (3)

Country Link
JP (1) JPWO2022168500A1 (ja)
CN (1) CN116745644A (ja)
WO (1) WO2022168500A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116631A1 (ja) * 2022-11-29 2024-06-06 ソニーセミコンダクタソリューションズ株式会社 検出装置及び検出方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098288A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 画像処理装置、および画像処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098288A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 画像処理装置、および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MA FANGCHANG; CAVALHEIRO GUILHERME VENTURELLI; KARAMAN SERTAC: "Self-Supervised Sparse-to-Dense: Self-Supervised Depth Completion from LiDAR and Monocular Camera", 2019 INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE, 20 May 2019 (2019-05-20), pages 3288 - 3295, XP033593596, DOI: 10.1109/ICRA.2019.8793637 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116631A1 (ja) * 2022-11-29 2024-06-06 ソニーセミコンダクタソリューションズ株式会社 検出装置及び検出方法

Also Published As

Publication number Publication date
CN116745644A (zh) 2023-09-12
JPWO2022168500A1 (ja) 2022-08-11

Similar Documents

Publication Publication Date Title
US10921454B2 (en) System and method for determining a distance to an object
US12025745B2 (en) Photonics device
US11662443B2 (en) Method and apparatus for determining malfunction, and sensor system
US10408922B2 (en) Optoelectronic module with low- and high-power illumination modes
WO2015198300A1 (en) Gated sensor based imaging system with minimized delay time between sensor exposures
WO2010149593A1 (en) Pulsed light optical rangefinder
US9097582B2 (en) Ambient light sensing system and method
US11061139B2 (en) Ranging sensor
WO2022168500A1 (ja) 測距装置およびその制御方法、並びに、測距システム
US11659155B2 (en) Camera
US10953813B2 (en) Image acquisition device to be used by vehicle and vehicle provided with same
JP2018204976A (ja) 距離測定装置、距離測定方法及び撮像装置
WO2022181097A1 (ja) 測距装置およびその制御方法、並びに、測距システム
US11314334B2 (en) Gesture recognition apparatus, control method thereof, and display apparatus
WO2022083301A1 (zh) 3d图像传感器测距系统及使用该系统进行测距的方法
US11659296B2 (en) Systems and methods for structured light depth computation using single photon avalanche diodes
US9804000B2 (en) Optical sensor array apparatus
WO2022209219A1 (ja) 測距装置およびその信号処理方法、並びに、測距システム
US11438486B2 (en) 3D active depth sensing with laser pulse train bursts and a gated sensor
US20240192375A1 (en) Guided flash lidar
US20230204727A1 (en) Distance measurement device and distance measurement method
WO2022034844A1 (ja) 面発光レーザ装置及び電子機器
KR20220141006A (ko) 촬영 장치
CN112887628A (zh) 光探测和测距设备及增加其动态范围的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21924885

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022579386

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180092053.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21924885

Country of ref document: EP

Kind code of ref document: A1