WO2020116035A1 - 距離情報取得装置、距離情報取得方法、およびプログラム - Google Patents

距離情報取得装置、距離情報取得方法、およびプログラム Download PDF

Info

Publication number
WO2020116035A1
WO2020116035A1 PCT/JP2019/040822 JP2019040822W WO2020116035A1 WO 2020116035 A1 WO2020116035 A1 WO 2020116035A1 JP 2019040822 W JP2019040822 W JP 2019040822W WO 2020116035 A1 WO2020116035 A1 WO 2020116035A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
distance
light receiving
reflected
scene
Prior art date
Application number
PCT/JP2019/040822
Other languages
English (en)
French (fr)
Inventor
加藤 弓子
佐藤 智
安寿 稲田
好秀 澤田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201980048155.3A priority Critical patent/CN112470035A/zh
Priority to JP2020559769A priority patent/JPWO2020116035A1/ja
Publication of WO2020116035A1 publication Critical patent/WO2020116035A1/ja
Priority to US17/171,934 priority patent/US20210165096A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4917Receivers superposing optical signals in a photodetector, e.g. optical heterodyne detection

Definitions

  • the present disclosure relates to a distance information acquisition device, a distance information acquisition method, and a program.
  • Patent Document 1 discloses an optical phased array having a plurality of nanophotonic antenna elements arranged two-dimensionally. Each antenna element is optically coupled to the phase shifter. In this optical phased array, a coherent light beam is guided to each antenna element by a waveguide, and the phase of the light beam is shifted by a phase shifter. It is disclosed that this allows changing the amplitude distribution of the far-field radiation pattern.
  • Patent Document 2 discloses an optical waveguide layer in which light is guided inside, and a waveguide including a first distributed Bragg reflector formed on the upper surface and the lower surface of the optical waveguide layer, and for making light incident into the waveguide.
  • a light deflection element including a light entrance port and a light exit port formed on a surface of a waveguide for emitting light that enters from the light entrance port and is guided in the waveguide.
  • Patent Documents 3 to 5 disclose devices that generate a distance image by emitting spatially randomly modulated light and performing analytical signal processing on a signal obtained by receiving reflected light. ing.
  • Patent Document 6 discloses a scanning method in which a scene is divided into a plurality of regions, and the beam density is different for each region, that is, the light beams emitted in a two-dimensional space have different frequencies.
  • Patent Document 7 discloses a light emitting device capable of emitting light in an arbitrary direction by utilizing an optical waveguide called a slow light waveguide.
  • the present disclosure provides a novel technique for generating distance information of a target scene with relatively low energy.
  • a distance information acquisition device includes a light source, a light receiving device including a plurality of light receiving elements, a control circuit that controls the light source and the light receiving device, and a signal processing circuit.
  • the control circuit causes the light source to emit a first light having a first spatial distribution toward the scene, and then a second light having a second spatial distribution toward the scene.
  • the control circuit further causes the first reflected light from the scene generated by the first light and the second light generated by the second light on at least a part of the plurality of light receiving elements of the light receiving device.
  • the second reflected light from the scene is detected within the same exposure period.
  • the signal processing circuit generates and outputs distance data derived from the first reflected light and the second reflected light based on the received light data output from the plurality of light receiving elements of the light receiving device.
  • the comprehensive or specific aspects of the present disclosure may be realized by a recording medium such as a system, a device, a method, an integrated circuit, a computer program, or a computer-readable recording disk, and the system, the device, the method, the integrated circuit, It may be realized by any combination of a computer program and a recording medium.
  • the computer-readable recording medium may include a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory).
  • the device may be composed of one or more devices. When the device is composed of two or more devices, the two or more devices may be arranged in one device or may be separately arranged in two or more separate devices.
  • "device" can mean not only one device but also a system composed of a plurality of devices.
  • FIG. 1 is a block diagram showing a schematic configuration of the distance information acquisition device according to the first embodiment.
  • FIG. 2 is a diagram schematically illustrating an example of a usage scene of the distance information acquisition device.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the distance information acquisition device according to the first embodiment.
  • FIG. 4A is a diagram showing an example of long-distance beam information.
  • FIG. 4B is a diagram showing an example of short-distance beam information.
  • FIG. 5 is a diagram schematically showing how a plurality of long-distance beams and a plurality of short-distance beams are projected.
  • FIG. 6A is a diagram showing an example of timing of light projection and exposure in the indirect ToF method.
  • FIG. 6A is a diagram showing an example of timing of light projection and exposure in the indirect ToF method.
  • FIG. 11 is a diagram showing an example of the optical waveguide array and the phase shifter array.
  • FIG. 12 is a diagram showing an example of the light source.
  • FIG. 13 is a diagram showing another example of the light source.
  • FIG. 14 is a diagram showing still another example of the light source.
  • FIG. 15 is a flowchart showing an outline of the operation of the distance information acquisition device according to the first embodiment.
  • FIG. 16 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the first embodiment.
  • FIG. 17 is a schematic diagram showing another example of the timing of projecting and exposing each light beam in the first embodiment.
  • FIG. 18 is a flowchart showing an example of the charge measurement operation.
  • FIG. 16 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the first embodiment.
  • FIG. 17 is a schematic diagram showing another example of the timing of projecting and exposing each light beam in the first embodiment.
  • FIG. 18 is a flowchar
  • FIG. 19 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the modification of the first embodiment.
  • FIG. 20A is a diagram showing an example of first light beam information in the modification of the first embodiment.
  • FIG. 20B is a diagram showing an example of second light beam information in the modification of the first embodiment.
  • FIG. 21 is a diagram for explaining the operation in the modified example of the first embodiment.
  • FIG. 22 is a diagram illustrating the configuration of the distance information acquisition device according to the second embodiment.
  • FIG. 23 is a flowchart showing an example of the operation of the distance information acquisition device according to the second embodiment.
  • FIG. 24 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the second embodiment.
  • FIG. 25 is a flowchart showing the time measurement operation in the second embodiment.
  • all or part of a circuit, unit, device, member or part, or all or part of a functional block in a block diagram may be, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (large scale integration). ) May be implemented by one or more electronic circuits.
  • the LSI or IC may be integrated on one chip, or may be configured by combining a plurality of chips.
  • the functional blocks other than the memory element may be integrated on one chip.
  • an LSI or an IC it may be called a system LSI, a VLSI (very large scale integration), or a ULSI (ultra large scale integration) depending on the degree of integration.
  • a Field Programmable Gate Array (FPGA) that is programmed after the manufacture of the LSI, or a reconfigurable logic device that can reconfigure the bonding relationship inside the LSI or set up the circuit section inside the LSI can also be used for the same purpose.
  • FPGA Field Programmable Gate Array
  • the functions or operations of all or some of the circuits, units, devices, members or parts can be executed by software processing.
  • the software is recorded on a non-transitory recording medium such as one or more ROMs, optical discs, hard disk drives, etc., and when the software is executed by the processor, the functions specified by the software are recorded. It is performed by the processor and peripherals.
  • the system or apparatus may comprise one or more non-transitory storage media having software recorded on it, a processor, and any required hardware devices, such as interfaces.
  • FIG. 1 is a block diagram showing a schematic configuration of the distance information acquisition device according to the first embodiment.
  • the distance information acquisition device includes a light source 100, a light receiving device 150, a control circuit 300, and a signal processing circuit 400.
  • the light source 100 may have a configuration capable of emitting a plurality of light beams simultaneously in different directions, for example.
  • the light receiving device 150 has a plurality of light receiving elements.
  • the plurality of light receiving elements correspond to the plurality of pixels, respectively.
  • the light receiving element may be referred to as a pixel.
  • the light receiving device 150 outputs light reception data according to the amount of light received by each light receiving element in the instructed exposure period.
  • the light receiving device 150 may be, for example, an image sensor having a plurality of light receiving elements arranged one-dimensionally or two-dimensionally.
  • the control circuit 300 controls the light source 100 and the light receiving device 150.
  • the signal processing circuit 400 generates and outputs distance data based on the received light data output from the light receiving device 150.
  • the control circuit 300 in the present embodiment roughly executes the following operations.
  • the light source 100 emits the first light having the first spatial distribution toward the scene.
  • the first light may include a plurality of first light beams, and may be a single light beam having a series of patterns.
  • the light source 100 emits the second light having the second spatial distribution toward the scene.
  • the second light may include a plurality of second light beams, and may be a single light beam having a series of patterns.
  • the reach of the first light and the reach of the second light may be different.
  • the second light may have lower energy per unit area on the irradiation surface at a predetermined distance from the light source than the first light.
  • the wavelength of the first light and the wavelength of the second light may be different.
  • a wavelength having a higher absorptance in the atmosphere than the wavelength of the first light may be selected.
  • the reaching distance of the first light and the reaching distance of the second light may be the same.
  • the second spatial distribution is different from the first spatial distribution.
  • the “spatial distribution” of a light beam means a three-dimensional (that is, distance, direction, and angular range) spatial range that the light beam can reach. Even when the first light and the second light are emitted in the same direction and the same angular range, if the reachable distance between the two is different, the first spatial distribution and the second light It can be said that the spatial distribution is different.
  • “Two-dimensional spatial distribution” means the direction and angle range of light, excluding the dimension of the distance that the light beam can reach from the three-dimensional “spatial distribution”. As will be described later, the first spatial distribution and the second spatial distribution may be the same.
  • radiation intensity refers to radiant energy radiated from a point-shaped radiant source in “a certain direction” per unit time
  • a radiant flux of radiated light is a solid angle viewed from the radiant source. That is, it is obtained by differentiating by the size of the angular range in which the light spreads.
  • the "light reach distance” means that, assuming that there is no obstacle, from the position of the light source, the farthest position where light having a predetermined photon flux density (photpsynthetic photon flux density) or more can reach To the distance to.
  • the first reflected light from the scene generated by the first light and the second reflected light from the scene generated by the second light are applied to at least a part of the plurality of light receiving elements of light receiving device 150. , Light is received in the same exposure period.
  • the signal processing circuit 400 generates and outputs distance data derived from the first reflected light and the second reflected light based on the received light data output from the plurality of light receiving elements of the light receiving device 150.
  • distance data means various data representing an absolute distance of a measurement point from a reference point or a relative distance between the measurement points, for example, each of two-dimensional image data. It may be distance image data in which the distance information of the corresponding measurement point is added to the pixel. Further, it may be three-dimensional point cloud data representing the three-dimensional coordinates of each measurement point. Further, the distance data is not limited to data that directly represents the distance, but may be the sensor data itself acquired for distance measurement, that is, Raw data.
  • the Raw data is, for example, brightness data detected by each light receiving element of the light receiving device 150.
  • Raw data can be handled as distance data together with additional data necessary for calculating the distance.
  • the additional data is, for example, data indicating an exposure timing and an exposure time width of each light receiving element, which is necessary for distance calculation by an indirect TOF described later.
  • the first light and the second light do not need to cover the entire scene. Therefore, the energy of the emitted light can be reduced. Furthermore, distance measurement in a relatively short distance range and distance measurement in a relatively long distance range can be performed at the same time. The distance measurement time can be shortened as compared with the case where the short distance measurement and the long distance measurement are separately performed.
  • the exposure period does not include a time point at which a part of the first reflected light generated at a position apart from the light receiving device by the first distance in the scene reaches the light receiving device, and is longer than the first distance from the light receiving device.
  • Second reflected light generated at a position separated by a first distance from the light receiving device including a time point when another part of the first reflected light generated at a position separated by the second distance reaches the light receiving device Can be set to include a time point at which a part of the data reaches the light receiving device.
  • the first reflected light from the object at the first distance relatively close to the device is not detected, and the second reflected light from the object at the first distance is detected,
  • the first reflected light from the object at a second distance relatively far away from can be detected. Accordingly, it is possible to simultaneously perform distance measurement for an object at a short distance and distance measurement for an object at a long distance.
  • FIG. 2 is a diagram schematically showing an example of the usage scene of this embodiment.
  • the light receiving device 150 is realized by the image sensor 200 that acquires a two-dimensional image.
  • the light source 100 sequentially emits first light including the plurality of first light beams 210 and second light including the plurality of second light beams 220.
  • Each of the first light beams 210 has a relatively high energy per unit area on the irradiation surface at a predetermined distance from the light source, and reaches far away.
  • each second light beam 220 has a relatively low energy per unit area on the irradiation surface, and does not reach so far.
  • the first light beam 210 may be referred to as a “distance beam” and the second light beam 220 may be referred to as a “short distance beam”.
  • the divergence angle of each second light beam 220 is larger than the divergence angle of each first light beam 210.
  • first light beams 210 and two second light beams 220 are illustrated, but in reality, more light beams 210 and 220 can be emitted.
  • the image sensor 200 receives the first reflected light 230 from the scene generated by the first light and the second reflected light 240 from the scene generated by the second light in the same exposure period.
  • the signal processing circuit 400 generates distance data derived from the first reflected light and the second reflected light based on the received light data output from the image sensor 200.
  • the number of the plurality of first light beams 210 is smaller than the number of light beams that cover the entire scene to be photographed.
  • the number of the plurality of second light beams 220 is smaller than the number of the light beams that cover the entire scene to be captured.
  • both the first light beam 210 and the second light beam are “sparse light beams”.
  • the plurality of light receiving elements in the image sensor 200 include a plurality of first light receiving elements that receive the first reflected light and do not receive the second reflected light, and a plurality of first light receiving elements that receive the second reflected light and receive the first reflected light. It may include a plurality of second light receiving elements that do not receive, and a plurality of third light receiving elements that do not receive either the first reflected light or the second reflected light.
  • the positions of the plurality of pixels corresponding to the plurality of third light receiving elements of all the pixels correspond to part of the entire scene (see FIG. 5 ).
  • the signal processing circuit can estimate the distance information of a part of this entire scene.
  • the signal processing circuit generates distance data by estimating the distance information at the positions of the plurality of pixels corresponding to the plurality of third light receiving elements based on the received light data.
  • the signal processing circuit 400 can generate distance data from the received light data by using preset weight information.
  • the weight information is determined based on the first spatial distribution and the second spatial distribution. Details of the signal processing using the weight information will be described later.
  • the distance information acquisition device of this embodiment generates distance data using a sparse light beam. As a result, distance information can be acquired with lower power consumption as compared with the case of using a light beam that covers the entire scene to be captured.
  • the light source 100 may be, for example, a light emitting device that emits laser light.
  • the light source 100 emits a plurality of long-distance beams that reach farther and a plurality of short-distance beams that reach a shorter distance than the long-distance beams.
  • the light source 100 emits a plurality of long distance beams and a plurality of short distance beams, for example, in random directions.
  • the reach distance of the long-distance beam may be, for example, 100 m to 200 m.
  • the short-distance beam may reach, for example, from 0 m to 100 m.
  • the reaching distance of these light beams is not limited to this example, and can be set arbitrarily.
  • the signal processing circuit 400 acquires the light reception data output from the image sensor 200 for each exposure period, and the weight information 313 stored in the storage medium 310.
  • the signal processing circuit 400 generates distance data by calculating or estimating the distance to the object for each pixel based on the received light data and the weight information 313.
  • the generated distance data is recorded in the storage device 500.
  • the distance data may be displayed on the display 600.
  • the distance data may be data indicating a distance image, for example.
  • the distance information acquisition device measures the distance by the indirect ToF (Time-of-Flight) method.
  • the distance information acquisition device uses a technique of compressed sensing when performing distance measurement.
  • the technique of compressed sensing By using the technique of compressed sensing, the distance to the object at each pixel can be estimated even if the plurality of short-distance beams and the plurality of short-distance beams are both spatially sparse. ..
  • each of the plurality of short-distance beams and the plurality of long-distance beams may be smaller than the number of beams that cover the entire scene to be measured.
  • FIG. 4A is a diagram showing an example of long-distance beam information 311.
  • FIG. 4B is a diagram showing an example of the short-range beam information 312.
  • the long-distance beam information 311 and the short-distance beam information 312 each include information on a beam shape, a beam divergence angle, and a distance range as information common to each light beam.
  • the distance range refers to a range of distances measured using the beam.
  • Each of the long-distance beam information 311 and the short-distance beam information 312 further includes a beam number and emission direction information for each light beam. In the example of FIGS.
  • the x-axis and the y-axis that are orthogonal to each other are set parallel to the light-receiving surface of the image sensor 200, and the z-axis is set in the direction perpendicular to the light-receiving surface and directed to the scene.
  • the emission direction of each light beam is specified by the angle from the z axis when projected onto the xz plane and the angle from the z axis when projected onto the yz plane.
  • the directions of the plurality of short distance beams and the plurality of long distance beams are randomly determined. Furthermore, both the number of short-distance beams and the number of long-distance beams are smaller than the number of light beams that cover the entire scene to be measured.
  • the long-distance beam information 311 and the short-distance beam information 312 shown in FIGS. 4A and 4B are merely examples, and may include information different from the above. Further, in the example of FIGS. 4A and 4B, the projection direction is described by the angle when projected on the xz plane and the yz plane, but the projection direction may be described by a method other than this.
  • FIG. 5 is a diagram schematically showing how a plurality of long-distance beams 210 and a plurality of short-distance beams 220 according to the present embodiment are projected.
  • the bicycle is located closest to the light source 100, and then the person, the passenger car, and the truck are located farther in this order.
  • the small circle indicates the projection area of the long-distance beam 210
  • the large circle indicates the projection area of the short-distance beam 220.
  • the squares in FIG. 5 indicate pixels of the image sensor 200. Note that the pixels of the image sensor 200 are actually fine, but in FIG. 5, they are shown coarser than they are for the sake of easy viewing.
  • the radiation intensity of the short-distance beam 220 is lower than the radiation intensity of the long-distance beam 210.
  • the long-distance beam 210 and the short-distance beam 220 are projected in random directions.
  • the projected area does not cover all the pixels of the image sensor 200.
  • neither the long-distance beam 210 nor the short-distance beam 220 is emitted, the long-distance beam 210 is emitted, the short-distance beam 220 is emitted, and the long-distance light is emitted.
  • the directions in which both the beam 210 and the short-range beam 220 are emitted are included.
  • Also on the light receiving surface of the image sensor 200 that receives the reflected light there are four types of pixel regions respectively corresponding to the above four types of directions.
  • the distance between the light source 100 and the image sensor 200 may be, for example, about several mm.
  • the distance range for distance measurement is, for example, in the range of about 0 m to 200 m, and is often several m or more. Considering this, it can be considered that the light source 100 and the image sensor 200 are located at the same point in the spatial coordinates. Therefore, the light beam emitted from the light source 100 is reflected by an object in the direction of the light beam, and is received by the image sensor 200 located at substantially the same position as the light source 100.
  • the short-distance object reflects the light beam, and the long-distance object does not reach the light beam.
  • a long distance object 210 is reflected by an object in a relatively long first distance range and reaches the image sensor 200, and an object in a relatively short second distance range.
  • the period in which the short-distance beam 220 is reflected by and reaches the image sensor 200 at least partially overlaps.
  • the emission timing and the exposure timing of each light beam are adjusted so that such a condition is satisfied.
  • the first distance range may be set in the range of 100 m to 200 m, for example, and the second distance range may be set in the range of 0 m to 100 m, for example.
  • the long-distance beam 210 reflected by an object at a distance other than the first distance range and the short-distance beam 220 reflected by an object at a distance other than the second distance range are not detected by the image sensor 200. .. That is, even if an object exists in the direction in which both the long-distance beam 210 and the short-distance beam 220 are irradiated, only one of those beams is detected by the image sensor 200.
  • both the long-distance beam 210 and the short-distance beam 220 are present on the light receiving surface of the image sensor 200. There is no pixel that receives the light. In this case, only three types of pixels may be generated: a pixel that receives neither the long-distance beam 210 nor the short-distance beam 220, a pixel that receives only the long-distance beam 210, and a pixel that receives only the short-distance beam 220.
  • such pixel may receive both the far-range beam 210 and the near-range beam 220.
  • a pixel that receives neither the first light beam nor the second light beam a pixel that receives only the first light beam
  • a pixel that receives only the first light beam a first light beam and a second light beam.
  • the light projection/exposure timing determination unit 322 shown in FIG. 3 includes a timing at which the light source 100 emits a plurality of long-distance beams 210, a timing at which the light source 100 emits a plurality of short-distance beams 220, and an image sensor 200. The timing of exposure is determined.
  • the clock unit 324 measures time.
  • the light emission control signal output unit 326 outputs a light emission control signal for controlling the light source 100.
  • the light projection control signals include a first control signal for projecting a plurality of long distance beams and a second control signal for projecting a plurality of long distance beams.
  • the first control signal is generated based on the long-distance beam information 311 that defines the direction, beam shape, and intensity of each long-distance beam.
  • the second control signal is generated based on the short-range beam information 312 that defines the direction, beam shape, and intensity of each short-range beam.
  • the exposure control signal output unit 328 outputs an exposure control signal that controls the exposure of the image sensor 200.
  • the image sensor 200 executes exposure according to the output exposure control signal.
  • the respective functions of the light projection/exposure timing determination unit 322, the timer unit 324, the light projection control signal output unit 326, and the exposure control signal output unit 328 can be realized by the processor 320 executing the program 314, for example.
  • the processor 320 functions as the light projection/exposure timing determination unit 322, the timer unit 324, the light projection control signal output unit 326, and the exposure control signal output unit 328.
  • Each of these functional units may be realized by dedicated hardware.
  • the ToF method is a method for measuring the distance from the device to the object by measuring the flight time until the light emitted from the light source is reflected by the object and returns to the photodetector near the light source.
  • the method of directly measuring the flight time is called direct ToF.
  • a method of providing a plurality of exposure periods and calculating the flight time from the energy distribution of the reflected light for each exposure period is called indirect ToF.
  • FIG. 6A is a diagram showing an example of light projection timing, reflected light arrival timing, and two exposure timings in the indirect ToF method.
  • the horizontal axis indicates time.
  • the rectangular portion represents each period of light projection, arrival of reflected light, and two exposures.
  • FIG. 6A(a) shows the timing at which light is emitted from the light source.
  • T0 is the pulse width of the light beam for distance measurement.
  • FIG. 6A(b) shows a period in which the light beam emitted from the light source and reflected by the object reaches the image sensor.
  • Td is the flight time of the light beam.
  • the reflected light reaches the image sensor in a time Td shorter than the time width T0 of the light pulse.
  • FIG. 6A shows the timing at which light is emitted from the light source.
  • T0 is the pulse width of the light beam for distance measurement.
  • FIG. 6A(b) shows a period in which the light beam emitted from the light source and reflected by the object
  • 6A(c) shows the first exposure period of the image sensor.
  • the exposure is started at the same time when the light projection is started, and the exposure is finished at the same time when the light projection is finished.
  • the first exposure period of the reflected light, the light that returns early is photoelectrically converted, and the generated charges are accumulated.
  • Q1 represents the energy of light photoelectrically converted during the first exposure period. This energy Q1 is proportional to the amount of charge stored during the first exposure period.
  • (D) of FIG. 6A shows the second exposure period of the image sensor.
  • the second exposure period starts at the same time as the end of the light projection, and ends when the same time as the pulse width T0 of the light beam, that is, the same time as the first exposure period has elapsed.
  • Q2 represents the energy of light photoelectrically converted during the second exposure period. This energy Q2 is proportional to the amount of charge stored during the second exposure period.
  • the second exposure period of the reflected light, the light that arrives after the first exposure period has ended is received. Since the length of the first exposure period is equal to the pulse width T0 of the light beam, the time width of the reflected light received in the second exposure period is equal to the flight time Td.
  • the integration capacitance of the charge accumulated in the pixel during the first exposure period is Cfd1
  • the integration capacitance of the charge accumulated in the pixel during the second exposure period is Cfd2
  • the photocurrent is Iph
  • the charge transfer is N be the number of clocks.
  • the output voltage of the pixel in the first exposure period is represented by Vout1 below.
  • Vout2 The output voltage of the pixel in the second exposure period is represented by Vout2 below.
  • Td Td ⁇ Vout2/(Vout1+Vout2) ⁇ T0
  • FIG. 6B is a diagram schematically showing the timing of light projection and exposure, and charge output when two consecutive exposure periods cannot be provided.
  • the image sensor 200 starts exposure at the same time when the light source 100 starts projecting light, and the image sensor 200 ends exposure at the same time when the light source 100 finishes projecting light.
  • This exposure period P1 corresponds to the exposure period 1 in FIG. 6A.
  • the image sensor 200 outputs the electric charge accumulated in the exposure period P1 immediately after the exposure.
  • the light source 100 starts projecting again and terminates projecting when the same time T0 as the first time elapses.
  • the image sensor 200 starts exposure at the same time when the light source 100 finishes projecting light, and terminates exposure when the same length of time as the first exposure period P1 elapses.
  • the exposure period P2 corresponds to the exposure period 2 in FIG. 6A.
  • the image sensor 200 outputs the electric charge accumulated in the exposure period P2 immediately after the exposure.
  • the light source 100 performs light projection twice, and the image sensor 200 exposes each light projection at different timings. .. By doing so, the voltage can be obtained for each exposure period even when the two exposure periods cannot be consecutively provided in terms of time.
  • the image sensor 200 that outputs the electric charge for each exposure period in order to obtain the information of the electric charge accumulated in each of the plurality of preset exposure periods, the light of the same condition is applied to the set exposure light. The light will be emitted as many times as the number of periods.
  • the image sensor 200 can receive not only the light emitted from the light source 100 and reflected by the object, but also background light, that is, light from the outside such as sunlight or surrounding lighting. .. Therefore, in general, an exposure period is provided for measuring the accumulated charge due to the background light that enters the image sensor 200 in a state where the light beam is not emitted. By subtracting the charge amount measured during the background exposure period from the charge amount measured when the reflected light of the light beam is received, the charge amount when only the reflected light of the light beam is received is obtained. be able to. In the present embodiment, the description of the operation for the background light is omitted for simplicity.
  • the distance information acquisition device of the present embodiment acquires distance information at each pixel by combining the above-described distance measurement by the indirect ToF method and compressed sensing.
  • Weight information 313 shown in FIG. 3 is used for the compressed sensing. The details of the weight information 313 will be described below.
  • the weight information 313 in the present embodiment represents a weight matrix based on the projection patterns of the short distance beam and the long distance beam.
  • the number of rows of the weight matrix is twice the number L of pixels of the image sensor 200, and the number of columns is a value obtained by multiplying the number of pixels L by the number of distance analysis N.
  • the distance analysis number N is the number of divisions of the distance measurement range and represents the distance measurement resolution.
  • x i is a vector with the number of elements N and represents the range of the distance of the object located at the pixel i.
  • the short-range beam is used to detect objects in the range of 0 to 100 meters
  • the long-range beam is used to detect objects in the range of 100 to 200 meters.
  • a long-distance beam is first projected, and then a short-distance beam is projected. After the projection of the short-distance beam is completed, the first exposure period starts. When the first exposure period ends, the second exposure period starts.
  • the voltage corresponding to the charge amount accumulated in the first exposure period is y 1i
  • the voltage corresponding to the charge amount accumulated in the second exposure period is y 2i .
  • normalization is performed so that the following Expression 1 is satisfied.
  • y 1i and y 2i are expressed by, for example, Expression 2 below.
  • A1 to a6 and b1 to b6 are real numbers of 0 or more and 1 or less, and are numbers that satisfy the expression 1.
  • the reflected light of the near field beam from an object located at a distance of more than 100 meters from the device is not detected due to the intensity attenuation. Therefore, the values in the seventh column to the twelfth column of the matrix in Expression 2 are set to 0.
  • y 1i and y 2i are expressed by, for example, Expression 3 below.
  • A7 to a12 and b7 to b12 are real numbers of 0 or more and 1 or less and satisfy the formula 1.
  • each exposure period is set so that the reflected light of the long-distance beam from the object located at a distance of less than 100 meters from the apparatus is not detected. Therefore, each value in the first to sixth columns of the matrix in Expression 3 is set to 0.
  • y 1i and y 2i are represented by the following Expression 4, for example.
  • Equation 5 For pixels that are not irradiated with any of the beams, y 1i and y 2i are zero, and thus are expressed as in Equation 5 below.
  • each element of the matrix in Formula 2 to Formula 5 depends on the form of x i , y 1i, and y 2i .
  • the numerical value of each element of the above matrix depends on the implementation.
  • Equations 2 to 5 can be expressed as Equation 6 below.
  • Y WX (6)
  • Y is represented by the following equation 7
  • X is represented by the following equation 8.
  • Y is a vector in which normalized electric charge amounts or voltage values detected in the first exposure period and the second exposure period are arranged for each pixel.
  • X is a vector in which L x i of the number N of elements described above are arranged, and the number of elements is L ⁇ N.
  • X represents the distance of each pixel. More specifically, X indicates in which distance range the object at the position corresponding to each pixel is in the range when the range is divided by the analysis number N. The distance is represented by having a value of 0 or 1 in the element indicating each of the plurality of divided distance ranges for each pixel. For pixels where the object is less than 200 meters from the device, x i is a vector with only one of the N elements being 1 and the other elements being 0. For pixels where the object is not located less than 200 meters from the device, x i is a vector of all zeros of N elements.
  • W is a matrix having 2L rows and L ⁇ N columns. From the above definitions of [y 1i , y 2i ] and x i , the matrix W is represented by the following Expression 9.
  • each element w of the matrix W in Expression (9) represents one of Expressions (2) to (5). It can be determined, for example, by performing calibration in advance which of the matrices of equations (2) to (5) each w corresponds to.
  • the weight matrix W shown in Expression 9 is used as the weight information 313.
  • the light source 100 may be a light source that emits light of an arbitrary spatial pattern using a light source and a coding mask, as disclosed in Patent Document 4, for example.
  • the light source 100 may have a configuration of an optical phased array capable of emitting light having an arbitrary spatial pattern, as disclosed in Patent Document 1, for example.
  • the light emitting device disclosed in Patent Document 7 may be used.
  • an example of the configuration of the light source 100 will be described.
  • FIG. 7 is a perspective view schematically showing an example of a light emitting device that can be used in the light source 100.
  • the light source 100 may be configured by a combination of a plurality of light emitting devices, each of which emits light in different directions.
  • FIG. 7 shows a simplified structure of one of the light emitting devices.
  • the light emitting device includes an optical waveguide array including a plurality of optical waveguide elements 10.
  • Each of the plurality of optical waveguide elements 10 has a shape extending in the first direction (X direction in FIG. 7).
  • the plurality of optical waveguide elements 10 are regularly arranged in a second direction (Y direction in FIG. 7) intersecting the first direction.
  • the plurality of optical waveguide elements 10 emit light in a third direction D3 that intersects a virtual plane parallel to the first and second directions while propagating the light in the first direction.
  • Each of the plurality of optical waveguide elements 10 has a first mirror 30 and a second mirror 40 facing each other, and an optical waveguide layer 20 located between the mirror 30 and the mirror 40.
  • Each of the mirror 30 and the mirror 40 has a reflective surface that intersects with the third direction D3 at the interface with the optical waveguide layer 20.
  • the mirror 30, the mirror 40, and the optical waveguide layer 20 have a shape extending in the first direction.
  • the reflective surface of the first mirror 30 and the reflective surface of the second mirror 40 face each other substantially in parallel.
  • the first mirror 30 has a property of transmitting a part of light propagating through the optical waveguide layer 20.
  • the first mirror 30 has a higher light transmittance for the light than the second mirror 40. Therefore, part of the light propagating through the optical waveguide layer 20 is emitted to the outside from the first mirror 30.
  • Such mirrors 30 and 40 may be, for example, multilayer mirrors formed by a multilayer film (sometimes referred to as a “multilayer reflective film”) made of a dielectric material.
  • the phase of light input to each optical waveguide element 10 is adjusted, and further, the refractive index or thickness of the optical waveguide layer 20 in these optical waveguide elements 10 or the wavelength of light input to the optical waveguide layer 20 is adjusted. By doing so, light can be emitted in any direction.
  • FIG. 8 is a diagram schematically showing a cross-sectional structure of one optical waveguide device 10 and an example of propagating light.
  • the direction perpendicular to the X and Y directions shown in FIG. 7 is taken as the Z direction, and a cross section parallel to the XZ plane of the optical waveguide device 10 is schematically shown.
  • a pair of mirrors 30 and 40 are arranged so as to sandwich the optical waveguide layer 20.
  • the light 22 introduced from one end of the optical waveguide layer 20 in the X direction is guided by the first mirror 30 provided on the upper surface of the optical waveguide layer 20 and the second mirror 40 provided on the lower surface thereof while repeating reflection. Propagate in layer 20.
  • the light transmittance of the first mirror 30 is higher than that of the second mirror 40. Therefore, it is possible to mainly output a part of the light from the first mirror 30.
  • the light propagation angle means an incident angle to the interface between the mirror 30 or the mirror 40 and the optical waveguide layer 20.
  • Light that is incident on the mirror 30 or the mirror 40 at a more vertical angle can also propagate. That is, light incident on the interface at an angle smaller than the critical angle of total reflection can also propagate. Therefore, the group velocity of light in the light propagation direction is significantly lower than the velocity of light in free space.
  • the optical waveguide device 10 has the property that the propagation conditions of light change significantly with respect to changes in the wavelength of light, the thickness of the optical waveguide layer 20, and the refractive index of the optical waveguide layer 20.
  • Such an optical waveguide is referred to as a "reflection type optical waveguide” or a “slow light optical waveguide”.
  • the emission angle ⁇ of the light emitted from the optical waveguide device 10 into the air is expressed by the following equation (10).
  • the emission direction of light can be changed by changing any one of the wavelength ⁇ of light in air, the refractive index n w of the optical waveguide layer 20 and the thickness d of the optical waveguide layer 20.
  • the wavelength ⁇ of light is, for example, in the wavelength range of 400 nm to 1100 nm (visible light to near-infrared light) where high detection sensitivity can be obtained with an image sensor that detects light by absorbing light with general silicon (Si). May be included.
  • the wavelength ⁇ can be included in the wavelength range of near-infrared light from 1260 nm to 1625 nm, which has relatively small transmission loss in the optical fiber or the Si optical waveguide. Note that these wavelength ranges are examples.
  • the wavelength range of the light used is not limited to the wavelength range of visible light or infrared light, and may be the wavelength range of ultraviolet light, for example.
  • the light emitting device may include a first adjustment element that changes at least one of the refractive index, the thickness, and the wavelength of the optical waveguide layer 20 in each optical waveguide element 10. Thereby, the direction of emitted light can be adjusted.
  • the optical waveguide layer 20 may include a liquid crystal material or an electro-optical material in order to adjust the refractive index of at least a part of the optical waveguide layer 20.
  • the optical waveguide layer 20 may be sandwiched by a pair of electrodes. By applying a voltage to the pair of electrodes, the refractive index of the optical waveguide layer 20 can be changed.
  • At least one actuator may be connected to at least one of the first mirror 30 and the second mirror 40 to adjust the thickness of the optical waveguide layer 20, for example.
  • the thickness of the optical waveguide layer 20 can be changed by changing the distance between the first mirror 30 and the second mirror 40 with at least one actuator. If the optical waveguide layer 20 is formed of a liquid, the thickness of the optical waveguide layer 20 can be easily changed.
  • FIG. 9B is a diagram showing a cross section of the optical waveguide array that emits light in a direction different from the direction perpendicular to the emission surface of the optical waveguide array.
  • the phases of light propagating through the optical waveguide layers 20 in the plurality of optical waveguide elements 10 differ by a fixed amount ( ⁇ ) in the arrangement direction.
  • the light is emitted in a direction different from the Z direction.
  • the Y-direction component of the wave number vector of light
  • the spread angle ⁇ of the light emission angle is represented by the following formula (12).
  • the spread angle ⁇ can be reduced.
  • FIG. 10 is a perspective view schematically showing an optical waveguide array in a three-dimensional space.
  • the thick arrow shown in FIG. 10 represents the direction of light emitted from the light emitting device.
  • is an angle formed by the emission direction of light and the YZ plane.
  • satisfies the equation (10).
  • ⁇ 0 is an angle formed by the emission direction of light and the XZ plane.
  • ⁇ 0 satisfies the equation (11).
  • a phase shifter that changes the phase of the light may be provided before the light is introduced into the optical waveguide element 10.
  • the light emitting device may include a plurality of phase shifters connected to each of the plurality of optical waveguide elements 10, and a second adjustment element that adjusts the phase of light propagating through each phase shifter.
  • Each phase shifter includes an optical waveguide connected to the optical waveguide layer 20 in a corresponding one of the plurality of optical waveguide elements 10 directly or via another optical waveguide.
  • the second adjustment element changes the phase difference of the light propagating from the plurality of phase shifters to the plurality of optical waveguide elements 10, respectively, so that the direction of the light emitted from the plurality of optical waveguide elements 10 (that is, the third adjustment element).
  • Direction D3 is changed.
  • the plurality of arranged phase shifters similarly to the optical waveguide array, the plurality of arranged phase shifters may be referred to as a “phase shifter array”.
  • FIG. 11 is a schematic view of the optical waveguide array 10A and the phase shifter array 80A as viewed from the direction normal to the light emitting surface (Z direction).
  • all the phase shifters 80 have the same propagation characteristics, and all the optical waveguide elements 10 have the same propagation characteristics.
  • Each phase shifter 80 and each optical waveguide element 10 may have the same length or may have different lengths. When the lengths of the respective phase shifters 80 are equal, the respective phase shift amounts can be adjusted by the drive voltage, for example.
  • each phase shifter 80 changes in equal steps, it is possible to give equal phase shifts with the same drive voltage.
  • an optical splitter 90 that splits and supplies light to a plurality of phase shifters 80, a first drive circuit 110 that drives each optical waveguide element 10, and a second drive circuit that drives each phase shifter 80. And a drive circuit 120.
  • the straight arrows in FIG. 11 indicate the input of light.
  • the emission direction of light can be two-dimensionally changed.
  • the first drive circuit 110 functions as one element of the first adjustment element
  • the second drive circuit 120 functions as one element of the second adjustment element.
  • the first driving circuit 110 changes the angle of light emitted from the optical waveguide layer 20 by changing at least one of the refractive index and the thickness of the optical waveguide layer 20 in each optical waveguide element 10.
  • the second drive circuit 120 changes the phase of light propagating inside the optical waveguide 20a by changing the refractive index of the optical waveguide 20a in each phase shifter 80.
  • the optical branching device 90 may be configured by an optical waveguide in which light propagates by total reflection, or may be configured by a reflective optical waveguide similar to the optical waveguide device 10.
  • the respective lights may be introduced into the phase shifter 80 after controlling the phases of the respective lights branched by the optical branching device 90.
  • a passive phase control structure by adjusting the length of the optical waveguide up to the phase shifter 80 can be used.
  • a phase shifter that has the same function as the phase shifter 80 and can be controlled by an electric signal may be used.
  • the phases may be adjusted before being introduced into the phase shifters 80 so that light of the same phase is supplied to all the phase shifters 80.
  • the control of each phase shifter 80 by the second drive circuit 120 can be simplified.
  • Patent Document 7 Details of the operation principle and operation method of the above light emitting device are disclosed in Patent Document 7. The entire disclosure of Patent Document 7 is incorporated herein.
  • FIG. 12 is a diagram showing an example of the light source 100.
  • the light source 100 in this example includes an optical waveguide array 10A and a phase shifter array 80A connected to the optical waveguide array 10A.
  • the optical waveguide array 10A includes a plurality of optical waveguide groups 10g arranged in the Y direction. Each optical waveguide group 10g includes one or more optical waveguide elements 10.
  • the phase shifter array 80A includes a plurality of phase shifter groups 80g arranged in the Y direction. Each phase shifter group 80g includes one or more phase shifters 80.
  • the group of the phase shifter group 80g is different from the group of the optical waveguide group 10g. More specifically, two phase shifter groups 80g are connected to one optical waveguide group 10g.
  • the phase shift amount of each phase shifter 80 is individually controlled by the control circuit 300.
  • the phase shift amount of each phase shifter 80 is a first phase shift amount (an integer multiple of ⁇ ) according to the order of the arrangement, and a second phase shift amount (Va, Vb, Vc) that differs for each phase shifter group 80g. , Vd).
  • the control circuit 300 individually determines the value of the applied voltage for each optical waveguide group 10g.
  • the X component in the emission direction of the light beam is controlled.
  • the light emission direction is determined depending on the combination of the phase shifter group 80g and the optical waveguide group 10g. In the example of FIG. 12, light is emitted in the same direction from two adjacent optical waveguide groups 10s connected to one phase shifter group 80g. If the radiant flux of the light emitted from one optical waveguide group 10g is one light beam, two light beams can be emitted simultaneously in the example of FIG. The number of beams can be further increased by increasing the numbers of the optical waveguide element 10 and the phase shifter 80.
  • FIG. 13 is a diagram showing another configuration example of the light source 100.
  • the light source 100 in this example comprises a plurality of light emitting devices 700 each emitting a light beam in different directions.
  • a plurality of phase shifters 80 and a plurality of optical waveguide elements 10 are mounted on one chip.
  • the control circuit 300 controls the voltage applied to each phase shifter 80 and each optical waveguide element 10 in each light emitting device 700. Thereby, the control circuit 300 controls the direction of the light beam emitted from each light emitting device 700.
  • the light source 100 includes three light emitting devices 700, but a larger number of light emitting devices 700 may be included.
  • Each of the short-distance beam and the long-distance beam may be composed of a set of light beams emitted from a plurality of light emitting devices 700.
  • FIG. 14 is a diagram showing still another configuration example of the light source 100.
  • the light source 100 in this example includes a plurality of light emitting devices 700 each mounted on a different chip.
  • the plurality of light emitting devices 700 emit light beams in different directions.
  • Each light emitting device 700 includes a plurality of phase shifters 80 and a control circuit 300a that determines the voltage applied to the plurality of optical waveguide elements 10.
  • the control circuit 300a in each light emitting device 700 is controlled by an external control circuit 300.
  • the light source 100 includes three light emitting devices 700, but a larger number of light emitting devices 700 may be included.
  • Each of the short-distance beam and the long-distance beam may be composed of a set of light beams emitted from a plurality of light emitting devices 700.
  • the image sensor 200 includes a plurality of light receiving elements arranged two-dimensionally on the light receiving surface.
  • the image sensor 200 may be, for example, a CCD (Charge-Coupled Device) sensor, a CMOS (Complementary Metal Oxide Semiconductor) sensor, or an infrared array sensor.
  • the light receiving element includes a photoelectric conversion element such as a photodiode and one or more charge storage sections. The charges generated by photoelectric conversion are stored in the charge storage unit during the exposure period. The charges stored in the charge storage unit are output after the exposure period ends.
  • the image sensor 200 may be a monochrome type image sensor or a color type image sensor.
  • a color type image sensor having an R/G/B, R/G/B/IR, or R/G/B/W filter may be used.
  • the image sensor 200 may have detection sensitivity not only in the visible wavelength range but also in the wavelength range such as ultraviolet, near infrared, mid infrared, and far infrared.
  • the image sensor 200 may be a sensor using SPAD (Single Photon Avalanche Diode).
  • the image sensor 200 may include an electronic shutter, that is, a global shutter mechanism, capable of collectively exposing signals of all pixels.
  • a light receiving device different from the image sensor 200 may be used.
  • a light receiving device including a plurality of one-dimensionally arranged light receiving elements may be used.
  • the signal processing circuit 400 may include one or more processors such as a CPU and/or a GPU that processes a signal output from the image sensor 200.
  • the signal processing circuit 400 shown in FIG. 3 includes a distance estimation unit 410 and an image generation unit 430.
  • the distance estimation unit 410 calculates or estimates the distance at each pixel based on the signal output from the image sensor 200.
  • the image generation unit 430 generates a distance image based on the distance information of each pixel.
  • the functions of the distance estimation unit 410 and the image generation unit 430 can be realized by, for example, the processor of the signal processing circuit 400 executing a computer program. In that case, the processor functions as the distance estimation unit 410 and the image generation unit 430. Each of these functional units may be realized by dedicated hardware.
  • FIG. 15 is a flowchart showing an outline of the operation of the distance information acquisition device according to the first embodiment.
  • the distance information acquisition device executes the operations of steps S1100 to S1400 shown in FIG. The operation of each step will be described below.
  • control circuit 300 determines the timing of projection of each of the short distance beam and the long distance beam by the light source 100 and the exposure timing of the image sensor 200. Details of the timing of light projection and exposure will be described later.
  • the control circuit 300 transmits a control signal for instructing light emission to the light source 100 in accordance with the determined light emission timing. Furthermore, according to the determined exposure timing, a control signal for instructing the start and end of exposure is transmitted to the image sensor 200. As a result, a plurality of long-distance beams and a plurality of short-distance beams are emitted from the light source 100, and charges are accumulated in each light receiving element of the image sensor 200. In this embodiment, two exposure periods are set as described above. The image sensor 200 outputs light reception data according to the amount of charge accumulated in each light receiving element in each exposure period.
  • the signal processing circuit 400 acquires the received light data output in step S1200 and the weight information 313 stored in the storage medium 310 of the control circuit 300.
  • the signal processing circuit 400 estimates distance information for all pixels based on the received light reception data and the weight information 313.
  • the signal processing circuit 400 executes the restoration process based on the compressed sensing. This processing is executed by the distance estimation unit 410 shown in FIG.
  • Step S1400 The signal processing circuit 400 replaces the distance value at each pixel calculated in step S1300 with, for example, a color scale to generate a distance image. It should be noted that the distance image is not limited to the color scale, and the two-dimensional distance may be expressed by a gray scale or other expression method.
  • the distance image is generated by the image generation unit 430 shown in FIG.
  • the signal processing circuit 400 may generate and output data indicating the distance of one or more objects without generating a distance image.
  • FIG. 16 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the present embodiment.
  • FIG. 16A shows the timing of projecting a long-distance beam.
  • FIG. 16B shows the timing of projecting the short-distance beam.
  • FIG. 16C shows the first exposure period.
  • FIG. 16D shows the second exposure period.
  • the first exposure period starts at the same time as the projection of the short-distance beam ends, and ends when the same time as the pulse width of each beam elapses.
  • the second exposure period starts when the first exposure period ends and ends when the same time as the first exposure period elapses.
  • the solid line pulse in (e) of FIG. 16 indicates the timing at which the reflected light returns to the device when the long-distance beam is reflected by an object existing at a long distance (for example, in the range of 100 m to 200 m from the device).
  • the dotted pulse in (e) of FIG. 16 indicates the timing at which the reflected light returns to the device when the long-distance beam is reflected by an object existing at a short distance (for example, a range of less than 100 m from the device).
  • Part (f) of FIG. 16 shows the timing at which the short-distance beam is reflected by an object at a short distance (for example, a range of less than 100 m from the device) and returns to the device.
  • Each exposure period is set such that both the far-distance beam reflected at a distance and the near-distance beam reflected at a near distance are received in at least one of the exposure periods.
  • the pulse indicated by the dotted line in (e) of FIG. 16 indicates the reflected light of the long-distance beam that is reflected back by an object at a short distance. This reflected light returns to the apparatus at a timing outside the entire exposure period. Therefore, the image sensor 200 does not detect such light.
  • the image sensor 200 does not detect a long-distance light beam reflected by an object that is less than 100 m, for example.
  • the short-distance light beam has a smaller energy per unit area on the irradiation surface than the long-distance light beam, and thus has a shorter reach than the long-distance light beam.
  • the short-distance light beam when the short-distance light beam is reflected by an object that is 100 m or more away from the device, it cannot be detected due to the attenuation of the intensity. Therefore, the short-distance light beam is not detected in the exposure period for the next and subsequent light projections.
  • the short-distance light beam and the long-distance light beam may reach at the same distance. Even in such a case, it is possible to prevent the short-distance light beam reflected by the long-distance object from being detected in the exposure period after the next time by sufficiently leaving the time interval until the next light projection.
  • the second exposure period starts immediately after the first exposure period ends.
  • the image sensor 200 includes two charge storage units for each pixel, and the charge storage units that store charges can be switched for each exposure period.
  • a period for outputting the charges accumulated in each charge accumulating portion can be provided.
  • the image sensor 200 includes one charge storage unit in each pixel, a period for outputting the stored charges is provided after the end of each exposure period.
  • a period for outputting the stored charges is provided after the end of each exposure period.
  • FIG. 17 only one exposure is performed for one projection of the long-distance beam and the short-distance beam, and the next projection is performed at a timing different from the previous one. May be.
  • the image sensor 200 outputs the electric charge each time the exposure is completed. For this reason, the light source 100 continuously projects a plurality of times with a combination of a long distance beam and a short distance beam under the same conditions. The image sensor 200 exposes at different timing for each light projection. As a result, it is possible to acquire the voltage due to the charges accumulated in each exposure period.
  • the exposure period is not limited to two, and three or more consecutive exposure periods may be provided.
  • the timing of light projection and exposure may be different from the above timing.
  • the timing of light projection and light reception can be adjusted according to various conditions such as the setting of the distance range of each light beam.
  • the image sensor 200 includes two charge storage units in each pixel, and the exposure period You may switch the charge storage part accumulate
  • FIG. 18 is a flowchart showing the charge measurement operation in the example shown in FIG.
  • the distance information acquisition device executes the operations of steps S1201 to S1212 shown in FIG. The operation of each step will be described below.
  • Step S1201> The control circuit 300 determines whether or not the charge measurement has been completed in all the exposure periods determined in step S1100. If the charge measurement has been completed in all exposure periods, the process advances to step S1300. If the charge measurement for all exposure periods has not been completed, the process advances to step S1202.
  • Step S1202> The control circuit 300 starts timing of time in order to control light projection and exposure.
  • the control circuit 300 outputs a light emission control signal to the light source 100 at the light emission timing of the long-distance beam determined in step S1100.
  • the light projection control signal includes information on the beam shape, the divergence angle, and the direction of the light beam indicated by the long-distance beam information 311, and the information on the pulse time length of the light projection determined in step S1100.
  • Step S1204 The light source 100 generates and emits a long-distance beam according to the light emission control signal output in step S1203.
  • Step S1205 The control circuit 300 outputs a light projection control signal to the light source 100 at the light projection timing of the short-distance beam determined in step S1100.
  • This light projection control signal includes information on the beam shape, divergence angle, and light beam direction indicated by the short-distance beam information 312, and information on the pulse time length of the light projection determined in step S1100.
  • Step S1206 The light source 100 generates and emits a short-distance beam in accordance with the light emission control signal output in step S1203.
  • Step S1207> The control circuit 300 selects one of the plurality of exposure periods determined in step S1100, which has not been exposed yet.
  • the control circuit 300 outputs an exposure start signal to the image sensor 200 at the timing of starting the selected exposure period.
  • Step S1208 The image sensor 200 starts exposure according to the exposure start signal output in step S1207.
  • Step S1209> The control circuit 300 outputs an exposure end signal to the image sensor 200 at the end timing of the exposure period selected in step S1207.
  • Step S1210 The image sensor 200 ends the exposure according to the exposure end signal output in step S1209.
  • the image sensor 200 outputs light reception data according to the amount of charge accumulated in each pixel during the period from the start of exposure to the end of exposure.
  • Step S1212 The control circuit 300 ends the time counting. After step S1212, the process returns to step S1201.
  • the projecting by the light source 100 and the exposure by the image sensor 200 are performed by a series of operations from step S1201 to step S1212.
  • Light reception data corresponding to the amount of charges accumulated for each pixel of the image sensor 200 is output for each exposure period.
  • Equation 13 shows an operation for obtaining the vector X that minimizes the value in the parentheses. Equation 13 can be solved by using, for example, ADMM (Alternating Direction Method of Multipliers).
  • ADMM Alternating Direction Method of Multipliers
  • the distance information acquisition device includes the light source 100, the image sensor 200, the control circuit 300, and the signal processing circuit 400.
  • the light source 100 has a configuration capable of simultaneously emitting a plurality of light beams in different directions.
  • the image sensor 200 has a plurality of light receiving elements and outputs light reception data according to the amount of light received by each light receiving element during the instructed exposure period.
  • the control circuit 300 causes the light source 100 to emit the first light having a plurality of long-distance beams and having the first spatial distribution toward the scene. After that, the control circuit 300 causes the light source 100 to emit the second light including the plurality of short-distance beams and having the second spatial distribution toward the scene.
  • the second spatial distribution here is different from the first spatial distribution. Further, the energy per unit area of each short distance beam on the irradiation surface at a predetermined distance from the light source is lower than the energy per unit area of each long distance beam on the irradiation surface.
  • the control circuit 300 causes the plurality of light receiving elements of the image sensor 200 to receive the first reflected light from the scene generated by the first light and the second reflected light from the scene generated by the second light. It is detected in the same exposure period.
  • the signal processing circuit 400 generates and outputs distance data derived from the first reflected light and the second reflected light based on the received light data output from the image sensor 200.
  • the distance measurement time can be shortened even when measuring a wide distance range.
  • a smooth distance moving image can be generated at a higher frame rate. Also, by increasing the frame rate, it is possible to generate a highly accurate range image using information in the time direction.
  • Equation 6 is defined as a method of restoration processing using compressed sensing, and calculation using Equation 13 is performed.
  • the definitions of X, Y, and W in Expression 6 are not limited to the above definitions, and other definitions may be used.
  • the equation 13 is set as the method for obtaining X in the equation 6, the method is not limited to the method using the equation 13, and X may be obtained by using another method.
  • the first embodiment as a method of measuring the distance from the distance information acquisition device to the object, two types of light beams having different light reaching distances, that is, a short distance beam and a long distance beam are used.
  • two sets of light beams are used, which have the same light reaching distance and different distributions on a plane parallel to the light receiving surface of the image sensor 200.
  • Each set of light beams may include multiple light beams.
  • FIG. 19 is a block diagram showing an example of the configuration of a distance information acquisition device according to this modification. 19 is the same as FIG. 3 except that the long-distance beam information 311 shown in FIG. 3 is replaced with the first light beam information 315 and the short-distance beam information 312 is replaced with the second light beam information 316. Is.
  • the light source 100 in this modification emits a plurality of light beams having the same reach distance in two different spatial patterns. Both spatial patterns are realized by emitting a plurality of light beams in random directions.
  • the reach of each light beam can be, for example, 0 m to 200 m. That is, the reach distance of each of the first light beam and the second light beam in the present modification corresponds to the reach distance of the long-distance beam in the above-described first embodiment.
  • the reaching distance of each light beam is not limited to the above range and may be set to an appropriate value according to the application.
  • the control circuit 300 determines the timing of projecting the light beam by the light source 100 and the timing of exposure of the image sensor 200, and according to the determined timing, the projection control signal and the exposure control signal are output. Is output.
  • the light emission control signal is generated according to the first light beam information 315 and the second light beam information 316 stored in the storage medium 310 in advance.
  • the first light beam information 315 may include information on the emission direction and the beam shape of the first light beam.
  • the second light beam information 316 may include information regarding the emission direction and the beam shape of the second light beam.
  • FIG. 20A is a diagram showing an example of the first light beam information 315.
  • FIG. 20B is a diagram showing an example of the second light beam information 316.
  • the plurality of first light beams and the plurality of second light beams have the same beam shape, divergence angle, and distance range, but different combinations of light beam emission directions.
  • the plurality of first light beams and the plurality of second light beams may have different beam shapes and/or divergence angles.
  • the directions of the plurality of first light beams and the plurality of second light beams are randomly determined.
  • the spatial distribution of the plurality of first light beams and the spatial distribution of the plurality of second light beams are different. Both the number of the first light beams and the number of the second light beams are smaller than the number of the light beams that cover the entire scene to be measured.
  • the period in which the second light beam is reflected by the object in the distance range and reaches the image sensor 200 at least partially overlaps.
  • the emission timing and the exposure timing of each light beam are adjusted so that such a condition is satisfied.
  • the first distance range may be set in the range of 100 m to 200 m, for example, and the second distance range may be set in the range of 0 m to 100 m, for example.
  • both the first light beam and the second light beam are present on the light receiving surface of the image sensor 200. There is no pixel that receives the light. In this case, only three types of pixels, that is, a pixel that receives neither the first light beam nor the second light beam, a pixel that receives only the first light beam, and a pixel that receives only the second light beam can occur. However, if there is a pixel that is divided inside and outside the object by the contour of the object, such pixel may receive both the first light beam and the second light beam.
  • a pixel that receives neither the first light beam nor the second light beam a pixel that receives only the first light beam
  • a pixel that receives only the first light beam a pixel that receives only the first light beam
  • a first light beam and a second light beam There can be four types of pixels that receive both of the light beams.
  • the states of these pixels correspond to Equations 2 to 5, respectively.
  • FIG. 21 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in this modification.
  • FIG. 21A shows the timing of projecting the first light beam.
  • the pulse on the left side indicates the kth projection, and the pulse on the right side indicates the k+1th projection.
  • FIG. 21B shows the timing of projecting the second light beam.
  • FIG. 21C shows the first exposure period.
  • FIG. 21D shows the second exposure period.
  • the first exposure period starts at the same time as the projection of the second light beam ends, and ends when the same time as the pulse width of each beam elapses.
  • the second exposure period starts when the first exposure period ends and ends when the same time as the first exposure period elapses.
  • the solid line pulse in (e) of FIG. 21 indicates the timing at which the reflected light returns to the device when the first light beam is reflected by an object existing at a distance (for example, in the range of 100 m to 200 m from the device). ing.
  • the dotted pulse in (e) of FIG. 21 indicates the timing at which the reflected light returns to the device when the first light beam is reflected by an object existing at a short distance (for example, a range of less than 100 m from the device).
  • the solid line pulse in (f) of FIG. 21 indicates the timing at which the second light beam is reflected by an object at a short distance (for example, a range of less than 100 m from the device) and returns to the device.
  • the dotted line pulse in (f) of FIG. 21 indicates the timing at which the reflected light returns to the device when the second light beam is reflected by an object existing at a distance.
  • Each exposure period is set such that both the distantly reflected first light beam and the near-reflected second light beam are received in at least one exposure period.
  • the reflected light of the second light beam from the long distance indicated by the dotted line in (f) of FIG. 21 also returns to the apparatus outside the entire exposure period. Therefore, the image sensor 200 does not detect such light.
  • the image sensor 200 does not detect, for example, the second light beam reflected by an object at a distance of 100 m or more from the device.
  • the timing of the (k+1)th pulse shown on the right side of FIG. 21A is set with a sufficient time interval from the timing of the kth pulse shown on the left side. This time interval can be set to a time longer than the time from the projection of the k-th second light beam to the time when the second light beam is reflected by an object at a distance and returns.
  • the next light projection is performed.
  • the time until the next light projection can be set so that the first exposure period for A.
  • two distance ranges are assigned to the first light beam and the second light beam, but three or more distance ranges may be assigned to three or more types of light beams.
  • the light projection conditions of each light beam may be set such that the arrangement of the three or more kinds of light beams on the plane parallel to the light receiving surface is different.
  • the light beams having different spatial distributions are sequentially irradiated, but the light beams having the same two-dimensional spatial distribution or the same three-dimensional spatial distribution may be sequentially irradiated.
  • the weight information 313 shown in FIG. 3 and FIG. 19 indicates that the state of each pixel is such that neither the pixel illuminated by the first light beam nor the second light beam is illuminated by either light. It contains only two types of pixel information.
  • the distance estimation unit 410 performs calculation for estimating the distances of all pixels based on the weight information 313 that defines which of the two types of states each pixel is in.
  • the distance may be estimated by adding a constraint condition such as “prioritize closer candidates”.
  • FIG. 19 is a diagram showing the configuration of the distance information acquisition device according to the second embodiment.
  • the exposure control signal output unit 328 shown in FIG. 3 is not provided, and the image sensor 200 is provided with the timer counter 203.
  • the other configuration is the same as that of the first embodiment.
  • the image sensor 200 has a configuration in which a plurality of light receiving elements 202 including a timer counter 203 are two-dimensionally arranged.
  • the light source 100 outputs a light projecting signal to the image sensor 200 at the same time when the short range beam is projected.
  • a timer counter 203 is provided for each light receiving element 202.
  • the timer counter 203 measures the time from when the light emitting signal is output from the light source 100 until the light receiving element 202 receives the reflected light.
  • the timer counter 203 measures the time until the first reception of the reflected light after the start of time measurement, that is, after the light projection signal is input. Therefore, when the reflected light of the long-distance beam and the reflected light of the short-distance beam successively reach the light receiving element 202, the time until the reflected light that arrives first is measured.
  • the number of rows is the number of pixels L of the image sensor 200
  • the number of columns is a value obtained by multiplying the number of pixels L and the number of distance analysis N.
  • x i is a vector with the number of elements N and represents the range of the distance of the object located at the pixel i.
  • w 1 is an N-dimensional vector in which only the element corresponding to the observed value is 1, and the other elements are 0.
  • w 2 is an N-dimensional vector in which only the elements corresponding to the observation values of the short-distance beam and the long-distance beam are 1 and the other elements are 0.
  • Y is represented by the following equation 19 and X is represented by the following equation 20.
  • Y is a vector indicating whether or not the ToF value is measured for each pixel, and is an L-dimensional vector in which the value of each element is 0 or 1 only.
  • X is a vector in which L x i having the number N of elements described above are arranged, and the number of elements is L ⁇ N.
  • X represents the distance for each pixel. More specifically, X indicates in which distance range the object at the position corresponding to each pixel is in the range when the range is divided by the number of analysis. The distance is represented by having a value of 0 or 1 in the element indicating each of the plurality of divided distance ranges for each pixel.
  • x i is a vector in which only one of the N elements is 1 and the other elements are 0.
  • W is a matrix having L rows and L ⁇ N columns. From the definition of y i and x i described above, the matrix W is represented by the following Expression 21.
  • FIG. 23 is a flowchart showing an example of the operation of the distance information acquisition device of this embodiment. 23 is the same as FIG. 15 except that step S1200 shown in FIG. 15 is replaced with step S2200 and step S1300 is replaced with step S2300. The operation of each step will be described below.
  • Step S2200> the control circuit 300 transmits, to the light source 100, a light projection control signal for instructing the projection of the long-distance beam and the short-distance beam in accordance with the determined light projection timing.
  • the light source 100 outputs a light projection signal to the image sensor 200 at the same time when the short distance beam is projected.
  • the image sensor 200 measures the time until the reflected light is received by the timer counter 203 according to the light projection signal. Details of the operation of step S2200 will be described later together with details of the timing of light projection and exposure.
  • Step S2300 The signal processing circuit 400 acquires the time measured in step S2200 and the weight information 313 stored in the storage medium 310 of the control circuit 300. Based on the acquired time information and weight information, the distance to the object in all pixels is estimated. The time information is generated by a restoration process using compressed sensing.
  • Step S1400 The image generation unit 430 of the signal processing circuit 400 replaces the distance value at each pixel calculated in step S2300 with, for example, a color scale to generate a distance image.
  • the distance image is not limited to the color scale, and the two-dimensional distance may be expressed by a gray scale or other expression method.
  • the signal processing circuit 400 may generate and output data indicating the distance of one or more objects without generating a distance image.
  • FIG. 24 is a schematic diagram showing an example of the timing of projecting and exposing each light beam in the distance information acquisition device of this embodiment.
  • FIG. 24A shows the projection timing of the long-distance beam.
  • FIG. 24B shows the projection timing of the short-distance beam.
  • FIG. 24C shows an example of the timing when the reflected light of the long-distance beam reaches the image sensor 200.
  • 24D and 24F show an example of the operation timing of the timer counter.
  • FIG. 24E shows an example of the timing when the reflected light of the short distance beam reaches the image sensor 200.
  • the projection of the long-distance beam precedes the projection of the short-distance beam.
  • the exposure timing that is, the operation timing of the timer counter 203, so that whichever of the far-distance beam reflected at a distance and the near-distance beam reflected at a nearer whichever arrives first at the image sensor 200 is received. Is set.
  • the pulse shown by the dotted line in (c) of FIG. 24 shows the reflected light of the light beam for long distance reflected by an object at a short distance (for example, less than 100 m). Since such reflected light reaches the image sensor 200 before the timer counter 203 starts operating, the flight time is not measured.
  • the short-distance beam reflected by the short-distance object shown in (e) of FIG. 24 usually has its flight time measured by the operation of the timer counter 203 shown in (f) of FIG. However, when the long-distance beam reaches the same pixel as the pixel to which the reflected light of the short-distance beam reaches, as shown in FIG. The timer counter 203 has already stopped due to the reflected light of the working beam.
  • the flight time of the reflected light of the short range beam is not measured. Similar to the first embodiment, the distance between the light source 100 and the image sensor 200 is negligibly small with respect to the measured distance. Therefore, the light beam emitted from the light source 100 reaches the image sensor 200 after being reflected by an object at a closer distance. However, at the pixel at the position corresponding to the position of the contour line of the object, both the long-distance beam and the short-distance beam can reach. In that case, the light reception timing of the light beam that arrives earlier is measured.
  • Step S1204 The light source 100 generates and emits a long-distance beam according to the light emission control signal output in step S1203.
  • Step S2206> The light source 100 generates and emits a short-distance beam in accordance with the light emission control signal output in step S1203. At the same time, the light source 100 outputs a light projection signal to the image sensor 200.
  • Step S2207> The image sensor 200 starts the operation of the timer counter 203 of each pixel in response to the input of the light projection signal output from the light source 100.
  • Step S2208 The image sensor 200 refers to the timing unit 324 of the control circuit 300 and determines whether or not the maximum value of the exposure time determined in step S1100 has passed. If the maximum exposure time has elapsed in step S2208, the process advances to step S2212. If the maximum exposure time has not elapsed, the process proceeds to step S2209.
  • Step S2209 Each light receiving element 202 of the image sensor 200 determines whether or not light is received after the timer counter operation is started. If received, the process proceeds to step S2210. If no light is received, the process returns to step S2208.
  • Each light receiving element 202 of the image sensor 200 stops the timer counter.
  • Step S2212 When the image sensor 200 refers to the timing section 324 in the control circuit 300 and confirms that the exposure end timing has come, the image sensor 200 ends the exposure. Pixels for which the timer counter is not stopped have a value of 0, and pixels for which the timer counter has been stopped set the value to the time measured by the timer counter.
  • step S2207 By performing the series of operations from step S2207 to step S2212 on each light receiving element of the image sensor 200, time is measured for each pixel.
  • step S2300 the signal processing circuit 400 binarizes the time measured for each pixel of the image sensor 200 in step S2200, depending on the presence or absence of a value. That is, the value is set to 1 when the time until light reception is measured, and is set to 0 when the time is not measured.
  • the signal processing circuit 400 uses the weight information 313 to estimate the distance of each pixel.
  • Equation 17 The value of the distance for each pixel can be generated by solving Expression 17 described above for the vector X under the condition that the vector Y and the matrix W are known. However, this equation cannot uniquely find a solution. Therefore, the constraint condition is introduced and Equation 17 is modified as follows.
  • the matrix M is an L ⁇ (L ⁇ N) matrix represented by the following Expression 22. That is, the vector MX is a vector having the number of elements L indicating the distance for each pixel.
  • the first term is obtained by relaxing the equation 17 into a square error.
  • the distances of all pixels can be obtained by solving the vector X.
  • a known method such as ADMM can be used.
  • the observation value y i is calculated as a binary value indicating whether the reflected light is received or not, but this is only an example.
  • the time actually observed may be separately stored and used. At that time, if the value of x i is within the range of short distance, the distance is calculated from the observed time information, and if within the range of long distance, the distance calculated from the observed time information, By adding the distances for the unmeasured time, it is possible to obtain a more detailed distance than the estimated value of x i .
  • N 2
  • N may be set to a plurality of values of 3 or more.
  • the distance is calculated from the observed time information within the short range, and the distance calculated from the observed time information within the long range. A detailed distance can be obtained by adding the distances that have not been measured.
  • Equation 21 is used to solve for X using an algorithm such as ADMM, but the method is not limited to such a method.
  • Equation 17 may be solved for X using the graph cut method. That is, the problem of Expression 17 may be regarded as a binary segmentation problem of a long-distance beam or a short-distance beam, and may be solved. For example, even if an energy function (for example, Potts Interaction Energy Model) is defined with a pixel determined by either a long-distance beam or a short-distance beam as seed, and X is obtained by a min-cut or max-flow algorithm. good.
  • an energy function for example, Potts Interaction Energy Model
  • pixels that are not reliably irradiated with any light beam may be treated as if the value of
  • a threshold value for example, greater than or equal to 0.5.
  • pixels in the image sensor 200 do not have valid observation values. For example, pixels where the reflected light of the light beam does not enter, pixels that project only a short-distance beam and have no object in a predetermined short-distance range, and objects that only project a long-distance beam and a predetermined long-distance range There are also pixels that are not (ie pixels that are too close or too far from the object). For these pixels, distance data is created using the information of the pixels determined by the graph cut method as to whether the object is within a short range or a long range by the following procedure. be able to.
  • Z be a vector indicating the depth value for each pixel.
  • the matrix A is an L ⁇ L diagonal matrix corresponding to the pixel whose depth value has been determined by the above-described graph cut method, in which the diagonal component is 1 and the other components are 0.
  • the vector B is a vector with the number of elements L, in which the component corresponding to the pixel whose depth value is determined by the above-described graph cut method is the determined depth value, and the other components are 0.
  • L is the number of pixels.
  • TV(MX) is TotalVariation which is the sum of absolute values of the luminance change with the neighborhood on the image X.
  • the range of the reach distance of the light beam is two types, that is, the short range and the long range, but the range of the reach range of the light beam may be three or more types.
  • the range of the reach range of the light beam may be three or more types.
  • three or more types of light beams having different energy per unit area on the irradiation surface may be emitted.
  • light beams having different spatial distributions are sequentially irradiated, but light beams having the same spatial distribution may be sequentially irradiated.
  • light beams having the same two-dimensional spatial distribution may be sequentially emitted.
  • light beams having the same three-dimensional spatial distribution may be sequentially irradiated.
  • the arrangement of a plurality of beams in each reach range is predetermined, but light beams with different spatial patterns may be used for each ranging operation.
  • the pattern may be selected for each ranging operation.
  • the patterns of the light beams in the respective reach ranges need not be fixed in combination and can be independently selected.
  • the patterns of the plurality of beams may be determined each time measurement is performed, or may be instructed from the outside through the communication circuit each time measurement is performed.
  • predetermined weight information is stored.
  • the weight information may be stored for each pattern combination.
  • the weight information may be generated each time the pattern is determined. Alternatively, the weight information may be acquired from the outside through the communication circuit each time measurement is performed.
  • the light source, the image sensor, the control circuit, and the signal processing circuit are all arranged in the same device, but they are not necessarily arranged in the same device.
  • the light source and the image sensor may be arranged at positions that can be regarded as the same point with respect to the distance to be measured.
  • the light source, the image sensor, the control circuit, and the signal processing circuit may be connected to each other by communication to form a system.
  • x i is a vector indicating the distance range when the predetermined measurement distance range is divided by the analysis number N, but it is not necessarily such a vector.
  • the measurement distance range may or may not be equally divided.
  • the distance may be finely divided as the distance is shorter, and may be coarsely divided as the distance is longer. As a result, distance measurement with high distance resolution at short distances and low distance resolution at long distances is realized.
  • a beam for measuring a long distance is projected first, and a beam for measuring a short distance is projected later.
  • the projection timing and exposure timing of the long-distance beam and the short-distance beam are determined as follows. That is, assuming that the minimum value in the range of the distance from the light source for distance measurement with the long-distance beam is RL min , the maximum value is RL max , and the speed of light is c, the exposure timing for the long-distance beam is the long-distance beam projection. After the start, the period from 2 ⁇ RL min /c to 2 ⁇ RL max /c is divided into a plurality of exposure sections.
  • the exposure timing for the short-distance beam is the short-distance beam projection.
  • the period from the time of 2 ⁇ RS min /c to the time of 2 ⁇ RS max /c after the start is divided into a plurality of exposure sections.
  • the projection of the long-distance beam, the projection of the short-distance beam, and the exposure timing are adjusted so that the exposure timing of the long-distance beam and the exposure timing of the short-distance beam become the same. That is, the long-distance beam is projected before the short-distance beam by the following time. 2 ⁇ RL min /c-2 ⁇ RS min /c or more and 2 ⁇ RL max /c-2 ⁇ RS max /c or less.
  • the exposure is started after 2 ⁇ RS min /c time from the start of projecting the short-range beam.
  • the range of distance measured by the long-distance beam and the range of distance measured by the short-distance beam are different, the following is performed.
  • the range of the distance from the light source for distance measurement with the long-distance beam is 100 m to 300 m
  • the range of the distance from the light source for distance measurement with the short-distance beam is 0 m to 100 m.
  • the technology of the present disclosure can be widely used for devices that perform distance measurement.
  • the technology of the present disclosure can be applied to a sensing system using LiDAR (Light Detecting and Ranging).
  • LiDAR Light Detecting and Ranging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

距離情報取得装置は、光源と、受光装置と、制御回路と、信号処理回路とを備える。前記制御回路は、前記光源に、第1の空間分布を有する第1の光をシーンに向けて出射させ、その後、第2の空間分布を有する第2の光を前記シーンに向けて出射させ、前記受光装置の複数の受光素子の少なくとも一部に、前記第1の光によって生じた前記シーンからの第1の反射光、および前記第2の光によって生じた前記シーンからの第2の反射光を、同一の露光期間内に検出させる。前記信号処理回路は、前記受光装置の前記複数の受光素子から出力された受光データに基づいて距離データを生成する。

Description

距離情報取得装置、距離情報取得方法、およびプログラム
 本開示は、距離情報取得装置、距離情報取得方法、およびプログラムに関する。
 従来、光で空間をスキャンできる種々のデバイスが提案されている。
 特許文献1は、2次元的に配列された複数のナノフォトニックアンテナ素子を有する光フェーズドアレイを開示している。それぞれのアンテナ素子は位相シフタに光学的に結合される。この光フェーズドアレイでは、コヒーレント光ビームが導波路によってそれぞれのアンテナ素子に誘導され、位相シフタによって光ビームの位相がシフトされる。これにより、遠視野放射パターンの振幅分布を変化させることができることが開示されている。
 特許文献2は、内部を光が導波する光導波層、および光導波層の上面および下面に形成された第1分布ブラッグ反射鏡を備える導波路と、導波路内に光を入射させるための光入射口と、光入射口から入射して導波路内を導波する光を出射させるために導波路の表面に形成された光出射口とを備える光偏向素子を開示している。
 特許文献3から5は、空間的にランダムに変調された光を出射し、反射光を受光することで得られた信号に解析的な信号処理を施すことによって距離画像を生成する装置を開示している。
 特許文献6は、シーンを複数の領域に分割し、領域ごとに異なるビームの密度、すなわち、2次元空間中に放射されるビームの頻度が異なる光を出射するスキャン方法を開示している。
 特許文献7は、スローライト導波路と呼ばれる光導波路を利用して、任意の方向に光を出射することのできる発光デバイスを開示している。
特表2016-508235号公報 特開2013-16591号公報 特開2016-099346号公報 米国特許出願公開2013/0088726号 米国特許出願公開2015/0378011号 特開2013-156138号公報 米国特許出願公開2018/224709号
 本開示は、比較的低いエネルギーで、対象シーンの距離情報を生成するための新規な技術を提供する。
 本開示の一態様に係る距離情報取得装置は、光源と、複数の受光素子を備える受光装置と、前記光源および前記受光装置を制御する制御回路と、信号処理回路とを備える。前記制御回路は、前記光源に、第1の空間分布を有する第1の光をシーンに向けて出射させ、その後、第2の空間分布を有する第2の光を前記シーンに向けて出射させる。前記制御回路は、さらに、前記受光装置の前記複数の受光素子の少なくとも一部に、前記第1の光によって生じた前記シーンからの第1の反射光、および前記第2の光によって生じた前記シーンからの第2の反射光を、同一の露光期間内に検出させる。前記信号処理回路は、前記受光装置の前記複数の受光素子から出力された受光データに基づいて、前記第1の反射光および前記第2の反射光に由来する距離データを生成して出力する。
 本開示の包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD-ROM(Compact Disc‐Read Only Memory)等の不揮発性の記録媒体を含み得る。装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書及び特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 本開示の一態様によれば、比較的低いエネルギーで、対象シーンの距離情報を取得することができる。
 本開示の一態様の付加的な恩恵及び有利な点は本明細書及び図面から明らかとなる。この恩恵及び/又は有利な点は、本明細書及び図面に開示した様々な態様及び特徴により個別に提供され得るものであり、この恩恵及び/又は有利な点の1つ以上を得るために態様および特徴の全てが必要ではない。
図1は、実施形態1に係る距離情報取得装置の概略構成を示すブロック図である。 図2は、距離情報取得装置の利用シーンの一例を模式的に示す図である。 図3は、実施形態1に係る距離情報取得装置の構成の一例を示すブロック図である。 図4Aは、遠距離ビーム情報の一例を示す図である。 図4Bは、近距離ビーム情報の一例を示す図である。 図5は、複数の遠距離用ビームと複数の近距離用ビームとが投光される様子を模式的に示す図である。 図6Aは、間接ToF方式における投光および露光のタイミングの例を示す図である。 図6Bは、間接ToF方式における投光および露光のタイミングの他の例を示す図である。 図7は、発光デバイスの一例を模式的に示す斜視図である。 図8は、光導波路素子の断面の構造および伝搬する光の例を模式的に示す図である。 図9Aは、光導波路アレイの出射面に垂直な方向に光が出射されている様子を示す模式図である。 図9Bは、光導波路アレイの出射面に垂直な方向とは異なる方向に光が出射されている様子を示す模式図である。 図10は、3次元空間における光導波路アレイを模式的に示す斜視図である。 図11は、光導波路アレイおよび位相シフタアレイの一例を示す図である。 図12は、光源の一例を示す図である。 図13は、光源の他の例を示す図である。 図14は、光源のさらに他の例を示す図である。 図15は、実施形態1に係る距離情報取得装置の動作の概要を示すフローチャートである。 図16は、実施形態1における各光ビームの投光および露光のタイミングの例を示す模式図である。 図17は、実施形態1における各光ビームの投光および露光のタイミングの他の例を示す模式図である。 図18は、電荷計測動作の例を示すフローチャートである。 図19は、実施形態1の変形例における各光ビームの投光および露光のタイミングの例を示す模式図である。 図20Aは、実施形態1の変形例における第1の光ビーム情報の一例を示す図である。 図20Bは、実施形態1の変形例における第2の光ビーム情報の一例を示す図である。 図21は、実施形態1の変形例における動作を説明するための図である。 図22は、実施形態2における距離情報取得装置の構成を示す図である。 図23は、実施形態2における距離情報取得装置の動作の一例を示すフローチャートである。 図24は、実施形態2における各光ビームの投光および露光のタイミングの例を示す模式図である。 図25は、実施形態2における時間計測の動作を示すフローチャートである。
 以下、本開示の実施形態を、図面を参照しながら具体的に説明する。なお、以下で説明する実施形態は、いずれも包括的又は具体的な例を示すものである。以下の実施形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する趣旨ではない。また、以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一の構成要素に対しては同一または類似の符号を付しており、重複する説明は省略又は簡略化されることがある。
 本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
 さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置(processor)および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置(processor)、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。
 (実施形態1)
 図1は、実施形態1に係る距離情報取得装置の概略構成を示すブロック図である。距離情報取得装置は、光源100と、受光装置150と、制御回路300と、信号処理回路400とを備える。
 光源100は、例えば同時に複数の光ビームを異なる方向に出射することが可能な構成を備え得る。受光装置150は、複数の受光素子を有する。複数の受光素子は複数の画素にそれぞれ対応する。本明細書において、受光素子を画素と呼ぶ場合もある。受光装置150は、指示された露光期間において各受光素子が受けた光の量に応じた受光データを出力する。受光装置150は、例えば、1次元的または2次元的に配列された複数の受光素子を有するイメージセンサであり得る。制御回路300は、光源100および受光装置150を制御する。信号処理回路400は、受光装置150から出力された受光データに基づいて、距離データを生成して出力する。
 本実施形態における制御回路300は、概略的には、以下の動作を実行する。
(1)光源100に、第1の空間分布を有する第1の光をシーンに向けて出射させる。第1の光は、複数の第1の光ビームを含んでいてもよく、ひとつながりのパターンをもつ単一の光ビームであってもよい。
(2)光源100に、第2の空間分布を有する第2の光をシーンに向けて出射させる。第2の光は、複数の第2の光ビームを含んでいてもよく、ひとつながりのパターンをもつ単一の光ビームであってもよい。
 第1の光の到達距離と第2の光の到達距離とが異なっていてもよい。例えば、第2の光は、第1の光に比して、光源から所定の距離の照射面における単位面積当たりのエネルギーが低いものとしてもよい。第1の光と第2の光との到達距離を異ならせる他の例として、第1の光の波長と第2の光の波長とが異なっていてもよい。例えば、第2の光の波長として、第1の光の波長よりも大気中での吸収率が高い波長を選択してもよい。後述するように、第1の光の到達距離と第2の光の到達距離とが同一であってもよい。
 本実施形態において、第2の空間分布は、第1の空間分布とは異なる。本開示において、光ビームの「空間分布」は、その光ビームが到達し得る3次元(即ち、距離、方向および角度範囲)的な空間の範囲を意味する。第1の光と第2の光とが同一の方向および同一の角度範囲に出射される場合であっても、両者の到達可能な距離が異なる場合には、第1の空間分布と第2の空間分布とが異なるといえる。「2次元の空間分布」は、「空間分布」の3次元から光ビームが到達可能な距離の次元を除いた、光の方向および角度範囲を意味する。後述するように、第1の空間分布と第2の空間分布とが同一であってもよい。また、本開示において、「放射強度」とは、点状の放射源から「ある方向」へ時間あたりに放射される放射エネルギーを指し、放射される光の放射束を、放射源からみた立体角すなわち、光の広がる角度範囲の大きさで微分することで求められる。また、本開示において、「光の到達距離」とは、障害物が無いと仮定した場合に、光源の位置から、所定の光量子束密度(photpsynthetic photon flux density)以上の光が届き得る最も遠い位置までの距離をいう。
(3)受光装置150の複数の受光素子の少なくとも一部に、第1の光によって生じたシーンからの第1の反射光、および第2の光によって生じたシーンからの第2の反射光を、同一の露光期間において受光させる。
 信号処理回路400は、受光装置150の複数の受光素子から出力された受光データに基づいて、第1の反射光および第2の反射光に由来する距離データを生成して出力する。本開示において、「距離データ」とは、計測点の基準点からの絶対的な距離、あるいは計測点間の相対的な距離を表した様々なデータを意味し、例えば、2次元画像データの各画素に対し、対応する計測点の距離情報を付した距離画像データであってもよい。また、各計測点の3次元座標を表す3次元点群データであってもよい。また、距離データは、直接的に距離を表すデータに限られず、測距のために取得されたセンサデータそのもの、すなわちRawデータであってもよい。Rawデータは、例えば受光装置150の各受光素子が検出した輝度データである。Rawデータは、距離を計算するために必要な付加データと併せて、距離データとして取り扱うことができる。付加データは、例えば、後述する間接TOFによる距離計算に必要な、各受光素子の露光タイミングおよび露光時間幅を示すデータである。
 以上の構成によれば、第1の光および第2の光は、シーンの全体をカバーする必要がない。このため、出射光のエネルギーを低減することができる。さらに、相対的に近い距離範囲での測距と、相対的に遠い距離範囲での測距とを同時に行うことができる。近距離の測距と遠距離の測距とを別々に行う場合に比べて測距の時間を短縮することができる。
 露光期間は、シーンにおける、受光装置から第1の距離だけ離れた位置で生じた第1の反射光の一部が受光装置に到達する時点を含まず、受光装置から第1の距離よりも長い第2の距離だけ離れた位置で生じた第1の反射光の他の一部が受光装置に到達する時点を含み、受光装置から第1の距離だけ離れた位置で生じた第2の反射光の一部が受光装置に到達する時点を含むように設定され得る。このような構成により、装置から相対的に近い第1の距離にある物体からの第1の反射光は検出されず、第1の距離にある物体からの第2の反射光は検出され、装置から相対的に遠い第2の距離にある物体からの第1の反射光は検出されるようにすることができる。これにより、近距離にある物体の測距と遠距離にある物体の測距とを同時に行うことができる。
 図2は、本実施形態の利用シーンの一例を模式的に示す図である。この例では、受光装置150は、2次元画像を取得するイメージセンサ200によって実現されている。光源100は、複数の第1の光ビーム210を含む第1の光と、複数の第2の光ビーム220を含む第2の光とを、順に出射する。各第1の光ビーム210は、光源から所定の距離の照射面において、相対的に高い単位面積あたりのエネルギーを有し、遠方まで届く。これに対し、各第2の光ビーム220は、当該照射面において、相対的に低い単位面積あたりのエネルギーを有し、それほど遠方までは届かない。以下の説明において、第1の光ビーム210を「遠距離用ビーム」と称し、第2の光ビーム220を「近距離用ビーム」と称することがある。図2に示す例では、いずれの光ビームも、全体として同程度のエネルギーを有する。このため、各第2の光ビーム220の広がり角は、各第1の光ビーム210の広がり角よりも大きい。
 図2では、4本の第1の光ビーム210と2本の第2の光ビーム220とが例示されているが、実際にはさらに多くの光ビーム210および220が出射され得る。
 イメージセンサ200は、第1の光によって生じたシーンからの第1の反射光230と、第2の光によって生じたシーンからの第2の反射光240とを、同一の露光期間において受光する。信号処理回路400は、イメージセンサ200から出力された受光データに基づいて、第1の反射光および第2の反射光に由来する距離データを生成する。
 複数の第1の光ビーム210の本数は、撮影対象のシーン全体をカバーする光ビームの本数よりも少ない。同様に、複数の第2の光ビーム220の本数は、撮影対象のシーン全体をカバーする光ビームの本数よりも少ない。言い換えれば、第1の光ビーム210および第2の光ビームのいずれも、「疎な光ビーム」である。
 イメージセンサ200における複数の受光素子は、第1の反射光を受光し第2の反射光を受光しない複数の第1の受光素子と、第2の反射光を受光し第1の反射光を受光しない複数の第2の受光素子と、第1の反射光および第2の反射光のいずれも受光しない複数の第3の受光素子とを含み得る。全ての画素のうち複数の第3の受光素子に対応する複数の画素の位置は、シーン全体の一部に対応する(図5参照)。信号処理回路は、このシーン全体の一部の距離情報を推定することができる。すなわち、信号処理回路は、受光データに基づいて、複数の第3の受光素子に対応する複数の画素の位置における距離情報を推定することにより、距離データを生成する。信号処理回路400は、予め設定された重み情報を用いて、受光データから、距離データを生成することができる。重み情報は、第1の空間分布および第2の空間分布に基づいて定められる。重み情報を用いた信号処理の詳細については後述する。
 本実施形態の距離情報取得装置は、疎な光ビームを用いて距離データを生成する。これにより、撮影対象のシーン全体をカバーする光ビームを用いる場合と比較して、低い消費電力で距離情報を取得することができる。
 以下、本実施形態の構成および動作をより具体的に説明する。
 [1-1 距離情報取得装置の構成]
 図3は、実施形態1に係る距離情報取得装置の構成の一例を示すブロック図である。図3に示される距離情報取得装置は、光源100と、イメージセンサ200と、制御回路300と、信号処理回路400と、記憶装置500と、ディスプレイ600とを備える。制御回路300は、記憶媒体310と、プロセッサ320とを備える。
 光源100は、例えばレーザ光を出射する発光デバイスであり得る。光源100は、より遠くまで届く複数の遠距離用ビームと、遠距離用ビームよりも到達距離の短い複数の近距離用ビームとを出射する。光源100は、複数の遠距離用ビーム、および複数の近距離用ビームを、例えばランダムな方向に出射する。遠距離用ビームの到達距離は、例えば100mから200mであり得る。近距離用ビームの到達距離は、例えば0mから100mであり得る。これらの光ビームの到達距離は、この例に限らず、任意に設定できる。
 イメージセンサ200は、2次元的に配列された複数の受光素子を有する。各受光素子は、例えばフォトダイオードなどの光電変換素子を含み得る。各受光素子は、光を受けると光電変換を行い、受光量に応じた電気信号を出力する。
 制御回路300は、光源100、イメージセンサ200、および信号処理回路400の動作を制御する。制御回路300は、例えばマイクロコントローラユニット(MCU)などの電子回路によって実現され得る。図3に示す制御回路300は、プロセッサ320と、記憶媒体310とを備える。プロセッサ320は、例えばCPU(Central Processing Unit)によって実現され得る。記憶媒体310は、例えばROM(Read Only Memory)などの不揮発性メモリ、およびRAM(Random Access Memory)などの揮発性メモリを含み得る。記憶媒体310は、プロセッサ320によって実行されるコンピュータプログラム314を格納する。プロセッサ320は、当該プログラム314を実行することにより、後述する動作を実行することができる。
 制御回路300は、光源100による光ビームの投光のタイミングと、イメージセンサ200の露光のタイミングとを決定し、決定したタイミングに従って、投光制御信号と、露光制御信号とを出力する。投光制御信号は、予め記憶媒体310に格納された遠距離ビーム情報311および近距離ビーム情報312に従って生成される。遠距離ビーム情報311は、複数の遠距離用ビームの出射方向およびビーム形状に関する情報を含み得る。近距離ビーム情報312は、複数の近距離用ビームの出射方向およびビーム形状に関する情報を含み得る。記憶媒体310は、さらに、イメージセンサ200の受光面上での第1の反射光および第2の反射光の分布によって決定される重み情報313を予め格納している。
 信号処理回路400は、イメージセンサ200から露光期間ごとに出力される受光データと、記憶媒体310に格納された重み情報313とを取得する。信号処理回路400は、受光データと重み情報313とに基づいて、物体までの距離を画素ごとに計算または推定することにより、距離データを生成する。生成された距離データは、記憶装置500に記録される。距離データは、ディスプレイ600に表示されてもよい。距離データは、例えば距離画像を示すデータであり得る。
 [1-1-1 制御回路300の構成]
 以下、制御回路300の構成のより具体的な例を説明する。制御回路300は、プロセッサ320と、記憶媒体310とを備える。プロセッサ320は、投光/露光タイミング決定部322と、計時部324と、投光制御信号出力部326と、露光制御信号出力部328とを備える。記憶媒体310は、遠距離ビーム情報311と、近距離ビーム情報312と、重み情報313と、プロセッサ320が実行するコンピュータプログラム314とを格納する。
 距離情報取得装置は、間接ToF(Time-of-Fright)方式による測距を行う。距離情報取得装置は、測距を行う際に圧縮センシングの技術を利用する。圧縮センシングの技術を用いることで、複数の近距離用ビームと複数の近距離用ビームとが、いずれも空間的に疎であったとしても、各画素における物体までの距離を推定することができる。言い換えれば、複数の近距離用ビームの数、および複数の遠距離用ビームの数の各々は、測距対象のシーンの全体を網羅するビーム数よりも少なくてもよい。
 図4Aは、遠距離ビーム情報311の一例を示す図である。図4Bは、近距離ビーム情報312の一例を示す図である。この例では、遠距離ビーム情報311および近距離ビーム情報312の各々は、各光ビームに共通する情報として、ビームの形状、ビームの広がり角、および距離レンジの情報を含む。ここで距離レンジは、そのビームを用いて測定される距離の範囲を指す。遠距離ビーム情報311および近距離ビーム情報312の各々は、さらに、各光ビームについて、ビーム番号と、出射方向の情報とを含む。図4Aおよび図4Bの例では、イメージセンサ200の受光面に平行に、互いに直交するx軸およびy軸が設定され、受光面に垂直でシーンに向けた方向にz軸が設定されている。各光ビームの出射方向は、xz平面に投影した場合のz軸からの角度と、yz平面に投影した場合のz軸からの角度とによって指定される。
 図4Aおよび図4Bに示す例において、複数の近距離用ビームおよび複数の遠距離用ビームの方向はランダムに決定されている。さらに、近距離用ビームの数および遠距離用ビーム数のいずれについても、測距対象のシーン全体を網羅する光ビームの数よりも少ない。
 なお、図4Aおよび図4Bに示す遠距離ビーム情報311および近距離ビーム情報312は、一例に過ぎず、上記とは異なる情報を含んでいてもよい。また、図4Aおよび図4Bの例では、xz平面およびyz平面にそれぞれ投影した場合の角度によって投光方向が記述されるが、これ以外の方法で投光の方向を記述してもよい。
 図5は、本実施形態における複数の遠距離用ビーム210と複数の近距離用ビーム220とが投光される様子を模式的に示す図である。図5の例では、光源100に最も近い位置に自転車があり、続いて人、乗用車、トラックの順に、より遠方にある様子が示されている。小さい円は遠距離用ビーム210の投光領域を示し、大きい円は近距離用ビーム220の投光領域を示す。図5におけるマス目は、イメージセンサ200の画素を示す。なお、イメージセンサ200の画素は、実際には微細であるが、図5では、見易さのため、実際よりも粗く示されている。この例では、近距離用ビーム220の放射強度は、遠距離用ビーム210の放射強度よりも低い。
 図5の例において、遠距離用ビーム210および近距離用ビーム220は、それぞれランダムな方向に投光されている。投光される領域は、イメージセンサ200の全画素を網羅しない。投光の方向には、遠距離用ビーム210も近距離用ビーム220も照射されない方向と、遠距離用ビーム210のみ照射される方向と、近距離用ビーム220のみ照射される方向と、遠距離用ビーム210および近距離用ビーム220の両方が照射される方向とが含まれる。反射光を受光するイメージセンサ200の受光面においても上記の4種類の方向にそれぞれ対応する4種類の画素領域が存在する。
 ここで、光源100とイメージセンサ200との間の距離は、例えば数mm程度であり得る。一方、測距の距離レンジは、例えば0mから200m程度の範囲であり、多くの場合数m以上である。このことを考慮すると、光源100およびイメージセンサ200は、空間座標において同一の点に位置するとみなすことができる。従って、光源100から出射した光ビームは、光ビームの方向にある物体によって反射され、光源100とほぼ同じ位置にあるイメージセンサ200によって受光される。遠距離にある物体と近距離にある物体とが光ビームの方向に存在する場合、近距離にある物体によって光ビームが反射され、遠距離にある物体には光ビームが届かない。
 一方、本実施形態では、相対的に遠い第1の距離レンジにある物体によって遠距離用ビーム210が反射されてイメージセンサ200に到達する期間と、相対的に近い第2の距離レンジにある物体によって近距離用ビーム220が反射されてイメージセンサ200に到達する期間とが、少なくとも部分的に重なる。そのような条件が満たされるように、各光ビームの出射のタイミングおよび露光のタイミングが調整される。第1の距離レンジは、例えば100mから200mの範囲に設定され、第2の距離レンジは、例えば0mから100mの範囲に設定され得る。第1の距離レンジ以外の距離にある物体によって反射された遠距離用ビーム210、および第2の距離レンジ以外の距離にある物体によって反射された近距離用ビーム220は、イメージセンサ200によって検出されない。すなわち、遠距離用ビーム210および近距離用ビーム220の両方が照射される方向に物体が存在していたとしても、イメージセンサ200によって検出されるのは、それらのビームの一方のみである。
 画素ピッチが十分に小さく、物体の輪郭線によって当該物体の内側と外側とに分割される画素がない場合、イメージセンサ200の受光面には、遠距離用ビーム210と近距離用ビーム220の両方を受光する画素はない。この場合、遠距離用ビーム210も近距離用ビーム220も受光しない画素、遠距離用ビーム210のみ受光する画素、近距離用ビーム220のみ受光する画素の3種類のみが生じ得る。ただし、物体の輪郭線によって当該物体の内側と外側とに分割される画素がある場合、そのような画素は、遠距離用ビーム210および近距離用ビーム220の両方を受光し得る。その場合には、第1の光ビームも第2の光ビームも受光しない画素、第1の光ビームのみ受光する画素、第1の光ビームのみ受光する画素、第1の光ビームおよび第2の光ビームの両方を受光する画素の4種類が生じ得る。
 図3に示す投光/露光タイミング決定部322は、光源100が複数の遠距離用ビーム210を出射するタイミングと、光源100が複数の近距離用ビーム220を出射するタイミングと、イメージセンサ200が露光を行うタイミングとを決定する。
 計時部324は、時間を計測する。
 投光制御信号出力部326は、光源100を制御する投光制御信号を出力する。投光制御信号には、複数の遠距離用ビームを投光するための第1の制御信号と、複数の遠距離用ビームを投光するための第2の制御信号とがある。第1の制御信号は、各遠距離用ビームの方向、ビーム形状、および強度を規定する遠距離ビーム情報311に基づいて生成される。第2の制御信号は、各近距離用ビームの方向、ビーム形状、および強度を規定する近距離ビーム情報312に基づいて生成される。
 露光制御信号出力部328は、イメージセンサ200の露光を制御する露光制御信号を出力する。イメージセンサ200は、出力された露光制御信号に従って露光を実行する。
 投光/露光タイミング決定部322、計時部324、投光制御信号出力部326、露光制御信号出力部328のそれぞれの機能は、例えばプロセッサ320がプログラム314を実行することによって実現され得る。その場合、プロセッサ320が、投光/露光タイミング決定部322、計時部324、投光制御信号出力部326、および露光制御信号出力部328として機能する。これらの各機能部は、専用のハードウェアによって実現されていてもよい。
 ここで、一般的な間接ToF方式による測距方法の一例を説明する。ToF方式は、光源から出射した光が物体によって反射されて光源の近傍の光検出器まで戻ってくるまでの飛行時間を測定することで、装置から物体までの距離を測定する方式である。飛行時間を直接計測する方式を直接ToFと呼ぶ。複数の露光期間を設け、露光期間ごとの反射光のエネルギー分布から、飛行時間を計算する方式を間接ToFと呼ぶ。
 図6Aは、間接ToF方式における投光タイミング、反射光の到達タイミング、および2回の露光タイミングの例を示す図である。横軸は時間を示している。矩形部分は、投光、反射光の到達、および2回の露光のそれぞれの期間を表している。図6Aの(a)は、光源から光が出射するタイミングを示している。T0は測距用の光ビームのパルス幅である。図6Aの(b)は、光源から出射して物体で反射された光ビームがイメージセンサに到達する期間を示している。Tdは光ビームの飛行時間である。図6Aの例では、光パルスの時間幅T0よりも短い時間Tdで反射光がイメージセンサに到達している。図6Aの(c)は、イメージセンサの第1の露光期間を示している。この例では、投光の開始と同時に露光が開始され、投光の終了と同時に露光が終了している。第1の露光期間では、反射光のうち、早期に戻ってきた光が光電変換され、生じた電荷が蓄積される。Q1は、第1の露光期間の間に光電変換された光のエネルギーを表す。このエネルギーQ1は、第1の露光期間の間に蓄積された電荷の量に比例する。
 図6Aの(d)は、イメージセンサの第2の露光期間を示している。この例では、第2の露光期間は、投光の終了と同時に開始し、光ビームのパルス幅T0と同一の時間、すなわち第1の露光期間と同一の時間が経過した時点で終了する。Q2は、第2の露光期間の間に光電変換された光のエネルギーを表す。このエネルギーQ2は、第2の露光期間の間に蓄積された電荷の量に比例する。第2の露光期間では、反射光のうち、第1の露光期間が終了した後に到達した光が受光される。第1の露光期間の長さが光ビームのパルス幅T0に等しいことから、第2の露光期間で受光される反射光の時間幅は、飛行時間Tdに等しい。
 ここで、第1の露光期間の間に画素に蓄積される電荷の積分容量をCfd1、第2の露光期間の間に画素に蓄積される電荷の積分容量をCfd2、光電流をIph、電荷転送クロック数をNとする。第1の露光期間における画素の出力電圧は、以下のVout1で表される。
 Vout1=Q1/Cfd1=N×Iph×(T0-Td)/Cfd1
 第2の露光期間における画素の出力電圧は、以下のVout2で表される。
 Vout2=Q2/Cfd2=N×Iph×Td/Cfd2
 図6Aの例では、第1の露光期間の時間長と第2の露光期間の時間長とが等しいため、Cfd1=Cfd2である。従って、Tdは以下の式で表すことができる。
 Td={Vout2/(Vout1+Vout2)}×T0
 光速をC(≒3×10m/s)とすると、装置と物体との距離Lは、以下の式で表される。
 L=1/2×C×Td=1/2×C×{Vout2/(Vout1+Vout2)}×T0
 イメージセンサ200は、実際には露光期間に蓄積した電荷を出力するため、時間的に連続して2回の露光を行うことができない場合がある。図6Bは、連続で2つの露光期間を設けることができない場合の投光と露光、および電荷出力のタイミングを模式的に示す図である。図6Bの例では、まず、光源100が投光を開始すると同時にイメージセンサ200は露光を開始し、光源100が投光を終了すると同時にイメージセンサ200は露光を終了する。この露光期間P1は、図6Aにおける露光期間1に相当する。イメージセンサ200は、露光直後にこの露光期間P1で蓄積された電荷を出力する。次に、光源100は再度投光を開始し、1回目と同一の時間T0が経過すると投光を終了する。イメージセンサ200は、光源100が投光を終了すると同時に露光を開始し、第1の露光期間P1と同一の時間長が経過すると露光を終了する。この露光期間P2は、図6Aにおける露光期間2に相当する。イメージセンサ200は、露光直後にこの露光期間P2で蓄積された電荷を出力する。
 このように、図6Bの例では、上記の距離計算のための電圧を取得するために、光源100は投光を2回行い、イメージセンサ200はそれぞれの投光に対して異なるタイミングで露光する。このようにすることで、2つの露光期間を時間的に連続して設けることができない場合でも、露光期間ごとに電圧を取得できる。このように、露光期間ごとに電荷の出力を行うイメージセンサ200では、予め設定された複数の露光期間の各々で蓄積される電荷の情報を得るために、同一条件の光を、設定された露光期間の数と等しい回数だけ投光することになる。
 なお、実際の測距では、イメージセンサ200は、光源100から出射されて物体で反射された光のみではなく、バックグラウンド光、すなわち太陽光または周辺の照明等の外部からの光を受光し得る。そこで、一般には、光ビームが出射されていない状態でイメージセンサ200に入射するバックグラウンド光による蓄積電荷を計測するための露光期間が設けられる。バックグランド用の露光期間で計測された電荷量を、光ビームの反射光を受光したときに計測される電荷量から減算することで、光ビームの反射光のみを受光した場合の電荷量を求めることができる。本実施形態では、簡便のため、バックグランド光についての動作の説明を省略する。
 本実施形態の距離情報取得装置は、上記の間接ToF方式による測距と、圧縮センシングとを組み合わせることにより、各画素における距離情報を取得する。圧縮センシングには、図3に示す重み情報313が用いられる。以下、重み情報313の詳細を説明する。
 本実施形態における重み情報313は、近距離用ビームおよび遠距離用ビームのそれぞれの投光パターンに基づく重み行列を表す。重み行列の行数はイメージセンサ200の画素数Lの2倍であり、列数は画素数Lと距離の解析数Nとを掛けた値である。距離の解析数Nは、測距範囲の分割数であり、測距の分解能を表す。
 イメージセンサ200の画素i(i=1,2,・・・,L)の距離ベクトルをxとする。xは、要素数Nのベクトルであり、画素iに位置する物体の距離の範囲を表す。例えば、x=[1,0,0,0,…,0]は16.7メートル未満、x=[0,1,0,0,…,0]は16.7メートル以上33.3メートル未満、x=[0,0,0,0,…,1]は(N-1)×16.7メートル以上N×16.7メートル未満を示す。以下、説明を簡略化するため、N=12の場合の例を説明する。ここでは、近距離用ビームは、0メートルから100メートルの範囲にある物体を検出するために使用され、遠距離用ビームは、100メートルから200メートルの範囲にある物体を検出するために使用されるものと仮定する。
 この例では、後に図16を参照して説明するように、まず遠距離用ビームが投光され、その後、近距離用ビームが投光される。近距離用ビームの投光終了後、第1の露光期間が開始する。第1の露光期間が終了すると、第2の露光期間が開始する。
 画素iについて、第1の露光期間で蓄積された電荷量に対応する電圧をy1i、第2の露光期間で蓄積された電荷量に対応する電圧をy2iとする。ただし、以下の式1が満たされるように正規化する。
Figure JPOXMLDOC01-appb-M000001
 近距離用ビームのみが照射される画素については、y1iおよびy2iは、例えば以下の式2のように表される。
Figure JPOXMLDOC01-appb-M000002
 a1からa6、およびb1からb6は、0以上1以下の実数であり、式1を満たす数である。この例では、装置から100メートルを超える距離に位置する物体からの近距離用ビームの反射光は、強度の減衰によって検出されない。このため、式2における行列の第7列から第12列の各値は0に設定される。
 遠距離用ビームのみが照射される画素については、y1iおよびy2iは、例えば以下の式3のように表される。
Figure JPOXMLDOC01-appb-M000003
 a7からa12、およびb7からb12は、0以上1以下の実数であり、式1を満たす数である。この例では、装置から100メートル未満の距離に位置する物体からの遠距離用ビームの反射光が検出されないように各露光期間が設定される。このため、式3における行列の第1列から第6列の各値は0に設定される。
 近距離用ビームと遠距離用ビームとが同時に照射される画素については、y1iおよびy2iは、例えば以下の式4のように表される。
Figure JPOXMLDOC01-appb-M000004
 いずれのビームも照射されない画素については、y1iおよびy2iは、ゼロになるため、以下の式5のように表される。
Figure JPOXMLDOC01-appb-M000005
 ここで、式2から式5における行列の各要素の数値は、x、y1iおよびy2iの形式に依存する。上記の行列の各要素の数値は実装によって異なる。
 式2から式5は、まとめると以下の式6のように表現できる。
 Y=WX (6)
ここで、画素数をLとして、Yは以下の式7で表され、Xは以下の式8で表される。
Figure JPOXMLDOC01-appb-M000006
 Yは、画素ごとに、第1の露光期間および第2の露光期間でそれぞれ検出された、正規化された電荷量または電圧値を並べたベクトルである。Xは、前述の要素数NのxがL個並べられたベクトルであり、要素数はL×Nである。Xは、各画素の距離を表す。より具体的には、Xは、各画素に対応する位置にある物体が、測距範囲を解析数Nで分割した場合の何番目の距離レンジにあるかを示す。画素ごとに、分割された複数の距離レンジの各々を示す要素に、0または1の値を持つことにより、距離が表現される。物体が装置から200メートル未満の位置に存在する画素については、xは、N個の要素中1つだけが1であり、他の要素が0のベクトルである。物体が装置から200メートル未満の位置に存在しない画素については、xは、N個の要素の全てが0のベクトルである。
 Wは、行数が2Lで列数がL×Nの行列である。上述の[y1i,y2i]およびxの定義より、行列Wは、以下の式9で表される。
Figure JPOXMLDOC01-appb-M000007
 ここで、式(9)における行列Wの各要素wは、式(2)から(5)のいずれかの行列を表す。各wが、式(2)から(5)のいずれの行列に該当するかは、例えば予めキャリブレーションを行うことによって決定され得る。本実施形態では、式9に示す重み行列Wが、重み情報313として用いられる。
 [1-1-2 光源100の構成]
 光源100の構成例を説明する。光源100は、例えば特許文献4に開示されているような、光源および符号化マスクを利用して、任意の空間パターンの光を出射する光源であり得る。あるいは、光源100は、例えば特許文献1に開示されているような、任意の空間パターンの光を出射できる光フェーズドアレイの構成を備えていてもよい。さらには、特許文献7に開示されている発光デバイスを利用してもよい。以下、光源100の構成の一例を説明する。
 図7は、光源100において使用され得る発光デバイスの一例を模式的に示す斜視図である。光源100は、各々が異なる方向に光を出射する複数の発光デバイスの組み合わせによって構成され得る。図7は、そのうちの1つの発光デバイスの構成を簡略化して示している。
 発光デバイスは、複数の光導波路素子10を含む光導波路アレイを備える。複数の光導波路素子10の各々は、第1の方向(図7におけるX方向)に延びた形状を有する。複数の光導波路素子10は、第1の方向に交差する第2の方向(図7におけるY方向)に規則的に配列されている。複数の光導波路素子10は、第1の方向に光を伝搬させながら、第1および第2の方向に平行な仮想的な平面に交差する第3の方向D3に光を出射させる。
 複数の光導波路素子10のそれぞれは、互いに対向する第1のミラー30および第2のミラー40と、ミラー30とミラー40の間に位置する光導波層20とを有する。ミラー30およびミラー40の各々は、第3の方向D3に交差する反射面を、光導波層20との界面に有する。ミラー30およびミラー40、ならびに光導波層20は、第1の方向に延びた形状を有している。
 第1のミラー30の反射面と第2のミラー40の反射面とは略平行に対向している。2つのミラー30およびミラー40のうち、少なくとも第1のミラー30は、光導波層20を伝搬する光の一部を透過させる特性を有する。言い換えれば、第1のミラー30は、当該光について、第2のミラー40よりも高い光透過率を有する。このため、光導波層20を伝搬する光の一部は、第1のミラー30から外部に出射される。このようなミラー30および40は、例えば誘電体による多層膜(「多層反射膜」と称することもある。)によって形成される多層膜ミラーであり得る。
 それぞれの光導波路素子10に入力する光の位相を調整し、さらに、これらの光導波路素子10における光導波層20の屈折率もしくは厚さ、または光導波層20に入力される光の波長を調整することで、任意の方向に光を出射させることができる。
 図8は、1つの光導波路素子10の断面の構造および伝搬する光の例を模式的に示す図である。図8では、図7に示すX方向およびY方向に垂直な方向をZ方向とし、光導波路素子10のXZ面に平行な断面が模式的に示されている。光導波路素子10において、一対のミラー30とミラー40が光導波層20を挟むように配置されている。光導波層20のX方向における一端から導入された光22は、光導波層20の上面に設けられた第1のミラー30および下面に設けられた第2のミラー40によって反射を繰り返しながら光導波層20内を伝搬する。第1のミラー30の光透過率は第2のミラー40の光透過率よりも高い。このため、主に第1のミラー30から光の一部を出力することができる。
 通常の光ファイバーなどの光導波路では、全反射を繰り返しながら光が光導波路に沿って伝搬する。これに対して、本実施形態における光導波路素子10では、光は光導波層20の上下に配置されたミラー30および40によって反射を繰り返しながら伝搬する。このため、光の伝搬角度に制約がない。ここで光の伝搬角度とは、ミラー30またはミラー40と光導波層20との界面への入射角度を意味する。ミラー30またはミラー40に対して、より垂直に近い角度で入射する光も伝搬できる。すなわち、全反射の臨界角よりも小さい角度で界面に入射する光も伝搬できる。このため、光の伝搬方向における光の群速度は自由空間における光速に比べて大きく低下する。これにより、光導波路素子10は、光の波長、光導波層20の厚さ、および光導波層20の屈折率の変化に対して光の伝搬条件が大きく変化するという性質を持つ。このような光導波路を、「反射型光導波路」または「スローライト光導波路」と称する。
 光導波路素子10から空気中に出射される光の出射角度θは、以下の式(10)によって表される。
Figure JPOXMLDOC01-appb-M000008
 式(10)からわかるように、空気中での光の波長λ、光導波層20の屈折率nおよび光導波層20の厚さdのいずれかを変えることで光の出射方向を変えることができる。
 例えば、n=2、d=387nm、λ=1550nm、m=1の場合、出射角度は0°である。この状態から、屈折率をn=2.2に変化させると、出射角度は約66°に変化する。一方、屈折率を変えずに厚さをd=420nmに変化させると、出射角度は約51°に変化する。屈折率も厚さも変化させずに波長をλ=1500nmに変化させると、出射角度は約30°に変化する。このように、光の波長λ、光導波層20の屈折率n、および光導波層20の厚さdのいずれかを変化させることにより、光の出射方向を変化させることができる。
 光の波長λは、例えば一般的なシリコン(Si)により光を吸収することで光を検出するイメージセンサで高い検出感度が得られる400nmから1100nm(可視光から近赤外光)の波長域に含まれ得る。他の例では、波長λは、光ファイバーまたはSi光導波路において伝送損失の比較的小さい1260nmから1625nmの近赤外光の波長域に含まれ得る。なお、これらの波長範囲は一例である。使用される光の波長域は、可視光または赤外光の波長域に限定されず、例えば紫外光の波長域であってもよい。
 発光デバイスは、各光導波路素子10における光導波層20の屈折率、厚さ、および波長の少なくとも1つを変化させる第1調整素子を備え得る。これにより、出射光の方向を調製することができる。
 光導波層20の少なくとも一部の屈折率を調整するために、光導波層20は、液晶材料または電気光学材料を含んでいてもよい。光導波層20は、一対の電極によって挟まれ得る。一対の電極に電圧を印加することにより、光導波層20の屈折率を変化させることができる。
 光導波層20の厚さを調整するために、例えば、第1のミラー30および第2のミラー40の少なくとも一方に少なくとも1つのアクチュエータが接続されてもよい。少なくとも1つのアクチュエータによって第1のミラー30と第2のミラー40との距離を変化させることにより、光導波層20の厚さを変化させることができる。光導波層20が液体から形成されていれば、光導波層20の厚さは容易に変化し得る。
 複数の光導波路素子10が一方向に配列された光導波路アレイにおいて、それぞれの光導波路素子10から出射される光の干渉により、光の出射方向は変化する。各光導波路素子10に供給する光の位相を調整することにより、光の出射方向を変化させることができる。以下、その原理を説明する。
 図9Aは、光導波路アレイの出射面に垂直な方向に光を出射する光導波路アレイの断面を示す図である。図9Aには、各光導波路素子10を伝搬する光の位相シフト量も記載されている。ここで、位相シフト量は、左端の光導波路素子10を伝搬する光の位相を基準にした値である。本実施形態における光導波路アレイは、等間隔に配列された複数の光導波路素子10を含んでいる。図9Aにおいて、破線の円弧は、各光導波路素子10から出射される光の波面を示している。直線は、光の干渉によって形成される波面を示している。矢印は、光導波路アレイから出射される光の方向(すなわち、波数ベクトルの方向)を示している。図9Aの例では、各光導波路素子10における光導波層20を伝搬する光の位相はいずれも同じである。この場合、光は光導波路素子10の配列方向(Y方向)および光導波層20が延びる方向(X方向)の両方に垂直な方向(Z方向)に出射される。
 図9Bは、光導波路アレイの出射面に垂直な方向とは異なる方向に光を出射する光導波路アレイの断面を示す図である。図9Bに示す例では、複数の光導波路素子10における光導波層20を伝搬する光の位相が、配列方向に一定量(Δφ)ずつ異なっている。この場合、光は、Z方向とは異なる方向に出射される。このΔφを変化させることにより、光の波数ベクトルのY方向の成分を変化させることができる。隣接する2つの光導波路素子10の間の中心間距離をpとすると、光の出射角度αは、以下の式(11)によって表される。
Figure JPOXMLDOC01-appb-M000009
 光導波路素子10の本数がNのとき、光の出射角度の広がり角Δαは、以下の式(12)によって表される。
Figure JPOXMLDOC01-appb-M000010
 したがって、光導波路素子10の本数が多いほど、広がり角Δαを小さくすることができる。
 図10は、3次元空間における光導波路アレイを模式的に示す斜視図である。図10に示す太い矢印は、発光デバイスから出射される光の方向を表す。θは、光の出射方向とYZ平面とがなす角度である。θは式(10)を満たす。αは、光の出射方向とXZ平面とがなす角度である。αは式(11)を満たす。
 それぞれの光導波路素子10から出射される光の位相を制御するために、例えば、光導波路素子10に光を導入する前段に、光の位相を変化させる位相シフタが設けられ得る。発光デバイスは、複数の光導波路素子10のそれぞれに接続された複数の位相シフタと、各位相シフタを伝搬する光の位相を調整する第2調整素子とを備え得る。各位相シフタは、複数の光導波路素子10の対応する1つにおける光導波層20に直接的にまたは他の光導波路を介して繋がる光導波路を含む。第2調整素子は、複数の位相シフタから複数の光導波路素子10へ伝搬する光の位相の差をそれぞれ変化させることにより、複数の光導波路素子10から出射される光の方向(すなわち、第3の方向D3)を変化させる。以下の説明では、光導波路アレイと同様に、配列された複数の位相シフタを「位相シフタアレイ」と称することがある。
 図11は、光導波路アレイ10Aおよび位相シフタアレイ80Aを、光出射面の法線方向(Z方向)から見た模式図である。図11に示す例では、全ての位相シフタ80が同じ伝搬特性を有し、全ての光導波路素子10が同じ伝搬特性を有する。それぞれの位相シフタ80およびそれぞれの光導波路素子10は同じ長さであってもよいし、長さが異なっていてもよい。それぞれの位相シフタ80の長さが等しい場合は、例えば、駆動電圧によってそれぞれの位相シフト量を調整することができる。
 また、それぞれの位相シフタ80の長さを等ステップで変化させた構造にすることで、同じ駆動電圧で等ステップの位相シフトを与えることもできる。さらに、この発光デバイスは、複数の位相シフタ80に光を分岐して供給する光分岐器90と、各光導波路素子10を駆動する第1駆動回路110と、各位相シフタ80を駆動する第2駆動回路120とをさらに備える。図11における直線の矢印は光の入力を示している。別々に設けられた第1駆動回路110と第2駆動回路120とをそれぞれ独立に制御することにより、2次元的に光の出射方向を変化させることができる。この例では、第1駆動回路110は、第1調整素子の1つの要素として機能し、第2駆動回路120は、第2調整素子の1つの要素として機能する。
 第1駆動回路110は、各光導波路素子10における光導波層20の屈折率および厚さの少なくとも一方を変化させることにより、光導波層20から出射する光の角度を変化させる。第2駆動回路120は、各位相シフタ80における光導波路20aの屈折率を変化させることにより、光導波路20aの内部を伝搬する光の位相を変化させる。光分岐器90は、全反射によって光が伝搬する光導波路で構成してもよいし、光導波路素子10と同様の反射型光導波路で構成してもよい。
 なお、光分岐器90で分岐したそれぞれの光の位相を制御した後に、それぞれの光を位相シフタ80に導入してもよい。この位相制御には、例えば、位相シフタ80に至るまでの光導波路の長さを調整することによるパッシブな位相制御構造を用いることができる。あるいは、位相シフタ80と同様の機能を有する電気信号で制御可能な位相シフタを用いても良い。このような方法により、例えば、全ての位相シフタ80に等位相の光が供給されるように、位相シフタ80に導入される前に位相を調整してもよい。そのような調整により、第2駆動回路120による各位相シフタ80の制御をシンプルにすることができる。
 上記の発光デバイスの動作原理、および動作方法などの詳細は、特許文献7に開示されている。特許文献7の開示内容全体を本明細書に援用する。
 本実施形態における光源100は、各々が異なる方向に光を出射する複数の導波路アレイを組み合わせることによって実現され得る。以下、そのような光源100の構成例を説明する。
 図12は、光源100の一例を示す図である。この例における光源100は、光導波路アレイ10Aと、光導波路アレイ10Aに接続された位相シフタアレイ80Aとを備える。光導波路アレイ10Aは、Y方向に並ぶ複数の光導波路群10gを含む。各光導波路群10gは、1つ以上の光導波路素子10を含む。位相シフタアレイ80Aは、Y方向に並ぶ複数の位相シフタ群80gを含む。各位相シフタ群80gは、1つ以上の位相シフタ80を含む。この例において、位相シフタ群80gのまとまりは、光導波路群10gのまとまりとは異なっている。より具体的には、1つの光導波路群10gに、2つの位相シフタ群80gが接続されている。
 各位相シフタ80の位相シフト量は、制御回路300によって個別に制御される。各位相シフタ80の位相シフト量は、その配列の順序に応じた第1の位相シフト量(Δφの整数倍)と、位相シフタ群80gごとに異なる第2の位相シフト量(Va、Vb、Vc、Vdのいずれか)との和になるように制御される。第2の位相シフト量を位相シフタ群80gごとに変化させることにより、光ビームの出射方向のY成分、およびスポットサイズのY方向の広がり角が制御される。
 一方、制御回路300は、光導波路群10gごとに、印加される電圧の値を個別に決定する。各光導波路群10gへの印加電圧の制御により、光ビームの出射方向のX成分が制御される。位相シフタ群80gと光導波路群10gとの組み合わせに依存して、光の出射方向が決定される。図12の例では、1つの位相シフタ群80gに接続された隣り合う2つの光導波路群10sから同一の方向に光が出射する。1つの光導波路群10gから出射される光の放射束を1つの光ビームとすると、図12の例では、2本の光ビームを同時に出射することができる。光導波路素子10および位相シフタ80の数を増やせば、さらにビーム本数を増やすことができる。
 図13は、光源100の他の構成例を示す図である。この例における光源100は、各々が異なる方向に光ビームを出射する複数の発光デバイス700を備える。この例では、1つのチップ上に複数の位相シフタ80および複数の光導波路素子10が実装される。制御回路300は、各発光デバイス700における各位相シフタ80および各光導波路素子10への印加電圧を制御する。これにより、制御回路300は、各発光デバイス700から出射する光ビームの方向を制御する。この例では、光源100は3つの発光デバイス700を備えるが、さらに多数の発光デバイス700を備えていてもよい。近距離用ビームおよび遠距離用ビームの各々は、複数の発光デバイス700から出射する光ビームの集合によって構成され得る。
 図14は、光源100のさらに他の構成例を示す図である。この例における光源100は、各々が異なるチップに実装された複数の発光デバイス700を備える。複数の発光デバイス700は、異なる方向に光ビームを出射する。各発光デバイス700は、複数の位相シフタ80および複数の光導波路素子10に印加する電圧を決定する制御回路300aを備える。各発光デバイス700における制御回路300aは、外部の制御回路300によって制御される。この例でも、光源100は3つの発光デバイス700を備えるが、さらに多数の発光デバイス700を備えていてもよい。近距離用ビームおよび遠距離用ビームの各々は、複数の発光デバイス700から出射する光ビームの集合によって構成され得る。
 [1-1-3 イメージセンサ200の構成]
 次に、図3に示すイメージセンサ200の構成を説明する。
 イメージセンサ200は、受光面に2次元的に配列された複数の受光素子を備える。イメージセンサ200は、例えばCCD(Charge-Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ、または赤外線アレイセンサであり得る。受光素子は、例えばフォトダイオードなどの光電変換素子と、1つ以上の電荷蓄積部とを含む。光電変換によって生じた電荷が、露光期間の間、電荷蓄積部に蓄積される。電荷蓄積部に蓄積された電荷は、露光期間終了後、出力される。
 このようにして、各受光素子は、露光期間の間に受けた光の量に応じた電気信号を出力する。この電気信号を「受光データ」と称する。イメージセンサ200は、モノクロタイプの撮像素子であってもよいし、カラータイプの撮像素子であってもよい。例えば、R/G/B、R/G/B/IR、またはR/G/B/Wのフィルタを有するカラータイプの撮像素子を用いてもよい。イメージセンサ200は、可視の波長範囲に限らず、例えば紫外、近赤外、中赤外、遠赤外などの波長範囲に検出感度を有していてもよい。イメージセンサ200は、SPAD(Single Photon Avalanche Diode)を利用したセンサであってもよい。イメージセンサ200は、全画素の信号を一括で露光することが可能な電子シャッタ、すなわちグローバルシャッタの機構を備え得る。
 なお、本実施形態ではイメージセンサ200が用いられるが、イメージセンサ200とは異なる受光装置を用いてもよい。例えば、一次元的に配列された複数の受光素子を備えた受光装置を用いてもよい。
 [1-1-4 信号処理回路400の構成]
 信号処理回路400は、イメージセンサ200から出力された信号を処理するCPUおよび/またはGPUなどの1つ以上のプロセッサを含み得る。図3に示す信号処理回路400は、距離推定部410と、画像生成部430とを備える。距離推定部410は、イメージセンサ200から出力された信号に基づいて、各画素における距離を計算または推定する。画像生成部430は、各画素の距離情報に基づいて、距離画像を生成する。距離推定部410および画像生成部430の機能は、例えば信号処理回路400のプロセッサがコンピュータプログラムを実行することによって実現され得る。その場合、当該プロセッサが、距離推定部410および画像生成部430として機能する。これらの各機能部は、専用のハードウェアによって実現されていてもよい。
 [1-2 距離情報取得装置の動作]
 実施形態1に係る距離情報取得装置の動作を説明する。図15は、実施形態1に係る距離情報取得装置の動作の概要を示すフローチャートである。距離情報取得装置は、図15に示すステップS1100からS1400の動作を実行する。以下、各ステップの動作を説明する。
 <ステップS1100>
 まず、制御回路300は、光源100による近距離用ビームおよび遠距離用ビームのそれぞれの投光のタイミングと、イメージセンサ200の露光のタイミングとを決定する。投光と露光のタイミングの詳細については後述する。
 <ステップS1200>
 次に、制御回路300は、決定した投光タイミングに従って、光源100に、投光を指示する制御信号を送信する。さらに、決定した露光タイミングに従って、イメージセンサ200に、露光の開始および終了を指示する制御信号を送信する。これにより、光源100から複数の遠距離用ビームおよび複数の近距離用ビームが出射され、イメージセンサ200の各受光素子に電荷が蓄積される。本実施形態では、前述のように、2回の露光期間が設定される。イメージセンサ200は、それぞれの露光期間で各受光素子に蓄積された電荷量に応じた受光データを出力する。
 <ステップS1300>
 次に、信号処理回路400は、ステップS1200で出力された受光データと、制御回路300の記憶媒体310に格納された重み情報313とを取得する。信号処理回路400は、取得した受光データおよび重み情報313に基づいて、全画素における距離情報を推定する。第1の露光期間と第2の露光期間のそれぞれの受光データから全画素の距離情報を求めるために、信号処理回路400は、圧縮センシングに基づく復元処理を実行する。この処理は、図3に示す距離推定部410によって実行される。
 <ステップS1400>
 信号処理回路400は、ステップS1300で計算した各画素における距離の値を、例えば色彩のスケールに置き換えて、距離画像を生成する。なお、距離画像は、色彩のスケールに限らず、グレースケールその他の表現方法で2次元的な距離を表現してもよい。距離画像の生成は、図3に示す画像生成部430によって実行される。信号処理回路400は、距離画像を生成することなく、1つ以上の物体の距離を示すデータを生成して出力してもよい。
 [1-2-1 投光/受光タイミング]
 次に、本実施形態における各光ビームの投光および露光のタイミングの例を説明する。
 図16は、本実施形態における各光ビームの投光および露光のタイミングの例を示す模式図である。図16の(a)は、遠距離ビームの投光のタイミングを示している。図16の(b)は、近距離用ビームの投光のタイミングを示している。図16の(c)は、第1の露光期間を示している。図16の(d)は、第2の露光期間を示している。
 第1の露光期間は、近距離用ビームの投光が終了すると同時に開始し、各ビームのパルス幅と同一の時間が経過すると終了する。第2の露光期間は、第1の露光期間が終了すると開始し、第1の露光期間と同一の時間が経過すると終了する。
 図16の(e)における実線のパルスは、遠距離用ビームが遠方(例えば装置から100mから200mの範囲)に存在する物体で反射された場合の反射光が装置に戻ってくるタイミングを示している。図16の(e)における点線のパルスは、遠距離用ビームが近距離(例えば装置から100m未満の範囲)に存在する物体で反射された場合の反射光が装置に戻ってくるタイミングを示している。図16の(f)は、近距離用ビームが近距離(例えば装置から100m未満の範囲)にある物体で反射されて装置に戻ってくるタイミングを示している。
 遠距離用ビームの投光は近距離用ビームの投光に先行する。遠方で反射された遠距離用ビームと近くで反射された近距離用ビームの両方が、少なくとも一方の露光期間で受光されるように各露光期間が設定される。
 図16の(e)において点線で示されたパルスは、近距離にある物体で反射して戻ってきた遠距離用ビームの反射光を示している。この反射光は、すべての露光期間の外側のタイミングで装置に戻ってくる。このため、イメージセンサ200は、このような光を検出しない。イメージセンサ200は、例えば100m未満にある物体によって反射された遠距離用の光ビームを検出しない。一方、近距離用の光ビームについては、遠距離用の光ビームよりも照射面における単位面積あたりのエネルギーが小さいため、遠距離用の光ビームよりも到達距離が短い。よって、装置から例えば100m以上離れた物体で近距離用の光ビームが反射された場合には、強度の減衰により、検出することができなくなる。このため、近距離用の光ビームが、次回以降の投光に対する露光期間で検出されることはない。なお、近距離用の光ビームと遠距離用の光ビームの到達距離が同一であってもよい。その場合でも、次回の投光までの時間間隔を十分に空けることにより、遠距離物体で反射された近距離用の光ビームが次回以降の露光期間に検出されることを回避できる。
 図16に示す例では、第1の露光期間が終了すると直ちに第2の露光期間が開始する。イメージセンサ200は各画素につき2つの電荷蓄積部を備えており、電荷を蓄積する電荷蓄積部を露光期間毎に切替えることができる。この例では、第1の露光期間および第2の露光期間が終了したのち、各電荷蓄積部に蓄積された電荷を出力する期間が設けられ得る。
 これに対し、イメージセンサ200が各画素に1つの電荷蓄積部を備える場合は、各露光期間の終了後に、蓄積された電荷を出力する期間が設けられる。そのような場合には、図17に示すように遠距離用ビームおよび近距離用ビームの1回の投光については露光を1回のみ行い、次回の投光時に、前回と異なるタイミングで露光してもよい。
 図17は、露光期間の後に電荷出力のための期間が設けられる場合の投光および露光のタイミングの例を示す図である。この例では、遠距離用ビームおよび近距離用ビームの投光が行われた後、第1の露光期間において、イメージセンサ200は、各ビームの反射光による電荷を蓄積し、出力する。続いて、所定の時間が経過した後、前回と同一の条件で遠距離用ビームおよび近距離用ビームの投光が行われる。この2回目の近距離用ビームの投光が終了してから、第1の露光期間に相当する時間が経過すると、第2の露光期間が開始される。第2の露光期間において、イメージセンサ200は、各ビームの反射光による電荷を蓄積し、出力する。このように、図17の例では、イメージセンサ200は、露光が終了する度に電荷出力を行う。このため、光源100は、同一の条件の遠距離用ビームと近距離用ビームの組み合わせで投光を連続して複数回行う。イメージセンサ200は、投光ごとに、異なるタイミングで露光する。これにより、各露光期間で蓄積された電荷による電圧を取得することができる。
 なお、露光期間は2つに限らず、連続する3つ以上の露光期間を設けてもよい。また、投光および露光のタイミングは、上記のタイミングとは異なっていてもよい。投光と受光のタイミングは、各光ビームの距離範囲の設定などの種々の条件に応じて調整され得る。
 図17の例のように、遠距離用ビームおよび近距離用ビームの投光のたびに露光を1回だけ行う場合においても、イメージセンサ200が各画素に2つの電荷蓄積部を備え、露光期間ごとに蓄積される電荷蓄積部を切替えてもよい。この場合、イメージセンサ200は、複数回投光と露光を繰り返したのちに、各電荷蓄積部に蓄積された電荷を出力してもよい。
 [1-2-2 投光/露光による電荷計測の動作]
 次に、ステップS1200における電荷計測の動作の詳細を説明する。
 図18は、図17に示す例における電荷計測の動作を示すフローチャートである。距離情報取得装置は、図18に示すステップS1201からS1212の動作を実行する。以下、各ステップの動作を説明する。
 <ステップS1201>
 制御回路300は、ステップS1100で決定された全ての露光期間での電荷計測が終了したか否かを判断する。全ての露光期間での電荷計測が終了している場合、ステップS1300に進む。全ての露光期間の電荷計測が終了していない場合、ステップS1202に進む。
 <ステップS1202>
 制御回路300は、投光と露光とを制御するために時間の計時を開始する。
 <ステップS1203>
 制御回路300は、ステップS1100で決定された遠距離用ビームの投光タイミングで、投光制御信号を光源100に出力する。投光制御信号は、遠距離ビーム情報311が示すビーム形状、広がり角、および光ビームの方向の情報と、ステップS1100で決定された投光のパルス時間長の情報とを含む。
 <ステップS1204>
 光源100は、ステップS1203で出力された投光制御信号に従って、遠距離用ビームを生成して投光する。
 <ステップS1205>
 制御回路300は、ステップS1100で決定された近距離用ビームの投光タイミングになると、投光制御信号を光源100に出力する。この投光制御信号は、近距離ビーム情報312が示すビーム形状、広がり角、および光ビームの方向の情報と、ステップS1100で決定された投光のパルス時間長の情報とを含む。
 <ステップS1206>
 光源100は、ステップS1203で出力された投光制御信号に従って、近距離用ビームを生成して投光する。
 <ステップS1207>
 制御回路300は、ステップS1100で決定された複数の露光期間のうち、まだ露光を行っていない1つの露光期間を選択する。制御回路300は、選択した露光期間の開始のタイミングでイメージセンサ200に露光開始信号を出力する。
 <ステップS1208>
 イメージセンサ200は、ステップS1207で出力された露光開始信号に従って露光を開始する。
 <ステップS1209>
 制御回路300は、ステップS1207で選択した露光期間の終了のタイミングでイメージセンサ200に露光終了信号を出力する。
 <ステップS1210>
 イメージセンサ200は、ステップS1209で出力された露光終了信号に従って露光を終了する。
 <ステップS1211>
 イメージセンサ200は、露光開始から露光終了までの期間に各画素に蓄積した電荷の量に応じた受光データを出力する。
 <ステップS1212>
 制御回路300は、計時を終了する。ステップS1212の後、ステップS1201に戻る。
 ステップS1201からステップS1212の一連の動作により、光源100による投光とイメージセンサ200による露光が行われる。露光期間ごとにイメージセンサ200の画素ごとに蓄積された電荷の量に応じた受光データが出力される。
 [1-2-3 全画素の距離情報復元処理]
 次に、図15におけるステップS1300の動作の詳細を説明する。ステップS1300では、信号処理回路400が、重み情報を用いて、ステップS1200で露光期間ごとに取得した受光データから、各画素の距離を推定する。
 前述の式6を、ベクトルYと行列Wが既知という条件で、ベクトルXについて解くことにより、画素ごとの距離の値を得ることができる。しかしながら、この式では、ベクトルYの要素数よりもベクトルXの要素数の方が多いため、一意に解を求めることができない。そこで、拘束条件を導入し、式6を以下のように変形する。
Figure JPOXMLDOC01-appb-M000011
ここで、行列Mは、以下の式14で表されるL×(L×N)行列である。
Figure JPOXMLDOC01-appb-M000012
すなわち、ベクトルMXは、画素ごとの距離を示す要素数Lのベクトルである。
 式13において、第1項は、式6を2乗誤差に緩和したものである。第2項は、ベクトルXのL1ノルムを示しており、ベクトルXの要素の多くが0になるための拘束項である。第3項におけるTV(MX)は、距離画像を表すMXにおける近傍の画素との輝度変化の絶対値和であるtotal variationである。αおよびβは、重み係数を示している。total variationの詳細は、例えば、Rudin L. I., Osher S. J., and Fatemi E., "Nonlinear total variation based noise removal algorithms", Physica D, vol. 60, pp. 259-268, 1992.に開示されている。この文献の開示内容の全体を本明細書に援用する。
 式13は、括弧内の値が最小になるベクトルXを求める演算を示している。式13は、例えば、ADMM(Alternating Direction Method of Multipliers)を利用することで解くことができる。ADMMの詳細は、例えばD. Gabay and B. Mercier, “A dual algorithm for the solution of nonlinear variational problems via finite-element approximations”, Computers & Mathematics with Applications, vol. 2, pp. 17-40, 1976.に開示されている。この文献の開示内容の全体を本明細書に援用する。
 [1-3.効果]
 上述したように、本実施形態における距離情報取得装置は、光源100と、イメージセンサ200と、制御回路300と、信号処理回路400とを備える。光源100は、同時に複数の光ビームを異なる方向に出射することが可能な構成を備える。イメージセンサ200は、複数の受光素子を有し、指示された露光期間において各受光素子が受けた光の量に応じた受光データを出力する。制御回路300は、光源100に、複数の遠距離用ビームを含み、第1の空間分布を有する第1の光をシーンに向けて出射させる。その後、制御回路300は、光源100に、複数の近距離用ビームを含み、第2の空間分布を有する第2の光をシーンに向けて出射させる。
 ここで第2の空間分布は、第1の空間分布とは異なる。また、光源から所定の距離の照射面における各近距離用ビームの単位面積あたりのエネルギーは、当該照射面における各遠距離用ビームの単位面積あたりのエネルギーよりも低い。制御回路300は、イメージセンサ200の複数の受光素子に、第1の光によって生じたシーンからの第1の反射光と、第2の光によって生じたシーンからの第2の反射光とを、同一の露光期間において検出させる。信号処理回路400は、イメージセンサ200から出力された受光データに基づいて、第1の反射光および第2の反射光に由来する距離データを生成して出力する。
 特に、本実施形態における信号処理回路400は、光ビームの投光パターンに伴う受光パターンの重み情報を用いた圧縮センシングの手法を用いて、距離データを生成する。距離データは、第1の反射光も第2の反射光も受光しない受光素子に対応する1つ以上の画素についての推定された距離情報を含む。
 以上の構成により、疎な光ビームから全画素での距離情報を得ることができる。複数の光ビームは、シーンの全体をカバーする必要がない。このため、出射光のエネルギーを低減することができる。さらに、圧縮センシングを用いることで、線形補完を行う際に見られる引き延ばしまたはボケのような画質劣化が低減し、より自然な距離情報が得られる。さらに、遠距離用の光ビームの投光のタイミングと近距離用の光ビームの投光のタイミングとを調整し、それらの反射光を同時に受光することで、遠距離の範囲での測距と近距離の範囲での測距とを同時に行うことができる。遠距離の測距と近距離の測距とを別々に行う場合に比べて測距の時間を短縮することができる。これにより、広い距離範囲を測距する場合でも、測距時間を短縮することができる。距離画像を動画として生成する際には、より高いフレームレートで滑らかな距離動画を生成することができる。また、フレームレートを高くすることにより、時間方向の情報を用いて高精度の距離画像を生成することも可能になる。
 実施形態1では、圧縮センシングを用いた復元処理の方法として、式6を定義し、式13を用いた計算が行われる。しかし、式6におけるX、Y、Wの定義は前述の定義に限らず、他の定義を用いてもよい。また、式6のXを求める方法として、式13を設定したが、式13を用いた方法に限らず、他の方法を用いてXを求めてもよい。
 (実施形態1の変形例)
 次に、本開示の例示的な実施形態1の変形例を説明する。
 実施形態1では、距離情報取得装置から物体までの距離を測定する方法として、光の到達距離が異なる2種類の光ビーム、すなわち、近距離用ビームと遠距離用ビームとが用いられる。これに対し、本変形例では、光の到達距離が等しく、イメージセンサ200の受光面に平行な平面上での分布が異なる2組の光ビームが用いられる。各組の光ビームは、複数の光ビームを含み得る。
 以下、実施形態1と異なる点を中心に説明する。
 図19は、本変形例に係る距離情報取得装置の構成の一例を示すブロック図である。図19は、図3に示す遠距離用ビーム情報311が第1の光ビーム情報315に置き換わり、近距離用ビーム情報312が第2の光ビーム情報316に置き換わった点以外は、図3と同じである。
 本変形例における光源100は、到達距離の等しい複数の光ビームを2つの異なる空間パターンで出射する。いずれの空間パターンも、複数の光ビームのランダムな方向への出射によって実現される。各光ビームの到達距離は、例えば0mから200mであり得る。すなわち、本変形例における第1の光ビームおよび第2の光ビームの各々の到達距離は、前述の実施形態1における遠距離用ビームの到達距離に相当する。各光ビームの到達距離は、上記の範囲に限定されず、用途に応じて適切な値に設定され得る。
 本変形例においても、制御回路300は、光源100による光ビームの投光のタイミングと、イメージセンサ200の露光のタイミングとを決定し、決定したタイミングに従って、投光制御信号と、露光制御信号とを出力する。投光制御信号は、予め記憶媒体310に格納された第1の光ビーム情報315および第2の光ビーム情報316に従って生成される。第1の光ビーム情報315は、第1の光ビームの出射方向およびビーム形状に関する情報を含み得る。第2の光ビーム情報316は、第2の光ビームの出射方向およびビーム形状に関する情報を含み得る。
 図20Aは、第1の光ビーム情報315の一例を示す図である。図20Bは、第2の光ビーム情報316の一例を示す図である。この例では、複数の第1の光ビームと、複数の第2の光ビームとの間で、ビーム形状、広がり角、および距離レンジは同一であるが、光ビームの出射方向の組み合わせが異なる。このような例に限定されず、例えば、複数の第1の光ビームと、複数の第2の光ビームとの間で、ビーム形状および/または広がり角が異なるようにしてもよい。
 複数の第1の光ビームおよび複数の第2の光ビームの方向はランダムに決定されている。複数の第1の光ビームの空間分布と複数の第2の光ビームの空間分布は異なる。第1の光ビームの数および第2の光ビームの数のいずれについても、測距対象のシーン全体を網羅する光ビームの数よりも少ない。
 本変形例においても、実施形態1と同様、相対的に遠い第1の距離レンジにある物体によって第1の光ビームが反射されてイメージセンサ200に到達する期間と、相対的に近い第2の距離レンジにある物体によって第2の光ビームが反射されてイメージセンサ200に到達する期間とが、少なくとも部分的に重なる。そのような条件が満たされるように、各光ビームの出射のタイミングおよび露光のタイミングが調整される。第1の距離レンジは、例えば100mから200mの範囲に設定され、第2の距離レンジは、例えば0mから100mの範囲に設定され得る。第1の距離レンジ以外の距離にある物体によって反射された第1の光ビーム、および第2の距離レンジ以外の距離にある物体によって反射された第2の光ビームは、イメージセンサ200によって検出されないようにイメージセンサ200の露光時間が調整される。すなわち、第1の光ビームの反射光および第2の光ビームの反射光の両方が照射される方向に物体が存在していたとしても、イメージセンサ200によって検出されるのは、それらのビームの一方のみである。
 画素ピッチが十分に小さく、物体の輪郭線によって当該物体の内側と外側とに分割される画素がない場合、イメージセンサ200の受光面には、第1の光ビームと第2の光ビームの両方を受光する画素はない。この場合、第1の光ビームも第2の光ビームも受光しない画素、第1の光ビームのみ受光する画素、第2の光ビームのみ受光する画素の3種類のみが生じ得る。ただし、物体の輪郭線によって当該物体の内側と外側とに分割される画素がある場合、そのような画素は、第1の光ビームおよび第2の光ビームの両方を受光し得る。その場合には、第1の光ビームも第2の光ビームも受光しない画素、第1の光ビームのみ受光する画素、第1の光ビームのみ受光する画素、第1の光ビームおよび第2の光ビームの両方を受光する画素の4種類が生じ得る。これらの画素の状態は、上記の式2から式5にそれぞれ対応する。
 図21は、本変形例における各光ビームの投光および露光のタイミングの例を示す模式図である。図21の(a)は、第1の光ビームの投光のタイミングを示している。左側のパルスはk回目の投光を示し、右側のパルスはk+1回目の投光を示す。図21の(b)は、第2の光ビームの投光のタイミングを示している。図21の(c)は、第1の露光期間を示している。図21の(d)は、第2の露光期間を示している。
 第1の露光期間は、第2の光ビームの投光が終了すると同時に開始し、各ビームのパルス幅と同一の時間が経過すると終了する。第2の露光期間は、第1の露光期間が終了すると開始し、第1の露光期間と同一の時間が経過すると終了する。
 図21の(e)における実線のパルスは、第1の光ビームが遠方(例えば装置から100mから200mの範囲)に存在する物体で反射された場合の反射光が装置に戻ってくるタイミングを示している。図21の(e)における点線のパルスは、第1の光ビームが近距離(例えば装置から100m未満の範囲)に存在する物体で反射された場合の反射光が装置に戻ってくるタイミングを示している。図21の(f)における実線のパルスは、第2の光ビームが近距離(例えば装置から100m未満の範囲)にある物体で反射されて装置に戻ってくるタイミングを示している。図21の(f)における点線のパルスは、第2の光ビームが遠方に存在する物体で反射された場合の反射光が装置に戻ってくるタイミングを示している。
 第1の光ビームの投光は第2の光ビームの投光に先行する。遠方で反射された第1の光ビームと近くで反射された第2の光ビームの両方が、少なくとも一方の露光期間で受光されるように各露光期間が設定される。
 図21の(e)において点線で示された近距離からの第1の光ビームの反射光は、すべての露光期間の外側で装置に戻ってくる。このため、イメージセンサ200は、このような光を検出しない。イメージセンサ200は、例えば100m未満にある物体によって反射された第1の光ビームを検出しない。すなわち、イメージセンサ200は、例えば100m未満にある物体によって反射された第1の光ビームが装置に到達する時間区間では露光を行わない。
 図21の(f)において点線で示された遠距離からの第2の光ビームの反射光も、すべての露光期間の外側で装置に戻ってくる。このため、イメージセンサ200は、このような光を検出しない。イメージセンサ200は、例えば装置から100m以上の距離にある物体によって反射された第2の光ビームを検出しない。さらに、図21の(a)の右側に示すk+1回目のパルスのタイミングは、左側に示すk回目のパルスのタイミングから十分に時間間隔を空けて設定される。この時間間隔は、k回目の第2の光ビームを投光してから、当該第2の光ビームが遠方にある物体で反射されて戻ってくるまでの時間よりも長い時間に設定され得る。このようにすることにより、遠距離の物体で反射された第2の光ビームが次回以降の露光期間に検出されることを回避できる。より具体的には、第2の光ビームを投光してから、当該第2の光ビームの反射光が装置に到達するまでの時間のうち、最長の時間が経過した後に、次の投光に対する最初の露光期間が開始するように、次回の投光までの時間が設定され得る。
 本変形例では、到達距離が同一である2種類の光ビームを用いて、複数の距離レンジの測距を、投光と露光のタイミングの制御により実現する。このようにすることで、実施形態1における到達距離の異なる2種類の光ビームを用いた場合と同様の効果を得ることができる。本変形例における制御回路300の動作、および信号処理回路400による各画素での距離の推定方法については実施形態1と同様である。ただし、式9に示す重み行列Wの各要素wの値は、第1の光ビーム情報315および第2の光ビーム情報316の内容に応じて調整される。
 なお、本変形例では2つの距離レンジを第1の光ビームと第2の光ビームに割り当てたが、3つ以上の距離レンジを3種類以上の光ビームに割り当ててもよい。その場合、当該3種類以上の光ビームの、受光面に平行な平面での配置がいずれも異なるように、各光ビームの投光条件が設定され得る。
 実施形態1とその変形例では、空間分布の異なる光ビームを順次照射したが、2次元の空間分布が全く同一あるいは3次元の空間分布が全く同一の光ビームを順次照射してもよい。空間分布が同一の場合、図3および図19に示す重み情報313は、各画素の状態として、第1の光ビームと第2の光ビームの両方が照射される画素とどちらの光も照射されない画素の2種類の情報のみを含む。距離推定部410は、各画素について2種類の状態のいずれであるかを規定する重み情報313に基づいて、全画素の距離を推定する計算を行う。シーンの状況および画素の位置によっては、遠近の2つの距離レンジのいずれを選択すべきかについての情報が不足する場合がある。そこで、たとえば「より近距離の候補を優先する」というような拘束条件を加えることにより、距離の推定を行ってもよい。
 (実施形態2)
 次に、本開示の例示的な実施形態2を説明する。
 実施形態1では、距離情報取得装置から物体までの距離を測定する方法として、間接ToF法が用いられる。これに対し、実施形態2では、直接ToF法が用いられる。以下、実施形態1と異なる点を中心に説明する。
 図19は、実施形態2における距離情報取得装置の構成を示す図である。本実施形態では、図3に示す露光制御信号出力部328が設けられておらず、イメージセンサ200がタイマーカウンタ203を備えている。それ以外の構成は、実施形態1の構成と同様である。
 本実施形態におけるイメージセンサ200は、タイマーカウンタ203を伴う複数の受光素子202が2次元的に配置された構成を備える。光源100は、近距離用ビームの投光の開始と同時に投光信号をイメージセンサ200に出力する。
 直接ToFによる測距では、投光の開始から反射光の受光までの時間が直接計測される。受光素子202ごとにタイマーカウンタ203が設けられる。タイマーカウンタ203は、光源100から投光信号が出力されてから受光素子202が反射光を受光するまでの時間を計測する。タイマーカウンタ203は、計時開始後、すなわち投光信号入力後、最初の反射光の受光までの時間を計測する。このため、遠距離用ビームの反射光と近距離用ビームの反射光とが相次いで受光素子202に到達した場合には、先に到着した反射光までの時間が計測される。
 本実施形態における重み情報を説明する。実施形態1と同様、重み情報313は、近距離用ビームと遠距離用ビームの投光パターンに基づく重み行列である。
 本実施形態における重み行列Wは、行数がイメージセンサ200の画素数Lであり、列数が画素数Lと距離の解析数Nとを掛けた値である。
 イメージセンサ200の画素i(i=1,2,・・・,L)の距離ベクトルをxとする。xは、要素数Nのベクトルであり、画素iに位置する物体の距離の範囲を表す。例えば、x=[1,0,0,0,…,0]は16.7メートル未満、x=[0,1,0,0,…,0]は16.7メートル以上33.3メートル未満、x=[0,0,0,0,…,1]は(N-1)×16.7メートル以上N×16.7メートル未満を示す。
 近距離用ビームのみ、または、遠距離用ビームのみが照射される画素については、以下の式15が成立する。
Figure JPOXMLDOC01-appb-M000013
ただし、wは、観測値に対応する要素のみ1、それ以外の要素は0のN次元ベクトルである。
 近距離用ビームと遠距離用ビームとが同時に照射される画素については、以下の式16が成立する。
Figure JPOXMLDOC01-appb-M000014
ただし、wは、近距離用ビームと遠距離用ビームそれぞれの観測値に対応する要素のみ1、それ以外の要素は0のN次元ベクトルである。
 いずれのビームも照射されていない画素については、以下の式17が成立する。
Figure JPOXMLDOC01-appb-M000015
ただし、wは、すべての要素が0のN次元ベクトルである。
 式15から式17をまとめると、以下の式18のように表現できる。
 Y=WX (18)
 ここで、画素数をLとして、Yは以下の式19で表され、Xは以下の式20で表される。
Figure JPOXMLDOC01-appb-M000016
ただし、Yは、画素ごとにToFの値が計測されたか否かを示すベクトルであり、各要素の値が0または1のみのL次元ベクトルである。Xは、前述の要素数N個のxがL個並べられたベクトルであり、要素数はL×Nである。Xは、画素ごとの距離を表す。より具体的には、Xは、各画素に対応する位置にある物体が、測距範囲を解析数で分割した場合の何番目の距離レンジにあるかを示す。画素ごとに、分割された複数の距離レンジの各々を示す要素に、0または1の値を持つことにより、距離が表現される。xは、N個の要素中1つだけが1であり、他の要素が0のベクトルである。
 Wは、行数がLで列数がL×Nの行列である。上述のy,xの定義より、行列Wは、以下の式21で表される。
Figure JPOXMLDOC01-appb-M000017
 ここで、式(21)における行列Wの各要素wは、式15から式17における行列w、w、wのいずれかを表す。各wがw、w、wのいずれに該当するかは、例えば予めキャリブレーションを行うことによって決定され得る。
 次に、実施形態2の距離情報取得装置の動作を説明する。図23は、本実施形態の距離情報取得装置の動作の一例を示すフローチャートである。図23は、図15に示すステップS1200がステップS2200に置き換わり、ステップS1300がステップS2300に置き換わった点を除けば、図15と同様である。以下、各ステップの動作を説明する。
 <ステップS1100>
 まず、制御回路300は、光源100による近距離用ビームと遠距離用ビームのそれぞれの投光のタイミングと、イメージセンサ200の露光のタイミングとを決定する。
 <ステップS2200>
 次に、制御回路300は、決定した投光タイミングに従って、光源100に、遠距離用ビームおよび近距離用ビームの投光を指示する投光制御信号を送信する。光源100は、近距離用ビームの投光と同時にイメージセンサ200に投光信号を出力する。イメージセンサ200は、投光信号に従って、タイマーカウンタ203により反射光の受光までの時間を計測する。ステップS2200の動作の詳細は、投光と露光のタイミングの詳細とあわせて後述する。
 <ステップS2300>
 信号処理回路400は、ステップS2200で計測された時間と、制御回路300の記憶媒体310に格納された重み情報313とを取得する。取得した時間情報と重み情報とに基づいて、全画素における物体までの距離を推定する。時間情報は、圧縮センシングを用いた復元処理によって生成される。
 <ステップS1400>
 信号処理回路400の画像生成部430は、ステップS2300で計算された各画素での距離の値を、例えば色彩のスケールに置き換えて、距離画像を生成する。なお、距離画像は、色彩のスケールに限らず、グレースケールその他の表現方法で2次元的な距離を表現してもよい。本実施形態においても、信号処理回路400は、距離画像を生成することなく、1つ以上の物体の距離を示すデータを生成して出力してもよい。
 [2-2-1 投光/受光タイミング]
 次に、本実施形態における各光ビームの投光および露光のタイミングを説明する。
 図24は、本実施形態の距離情報取得装置における各光ビームの投光および露光のタイミングの例を示す模式図である。図24の(a)は、遠距離用ビームの投光タイミングを示している。図24の(b)は、近距離用ビームの投光タイミングを示している。図24の(c)は、遠距離用ビームの反射光がイメージセンサ200に到達するタイミングの例を示している。図24の(d)および(f)は、タイマーカウンタの動作タイミングの例を示している。図24の(e)は、近距離用ビームの反射光がイメージセンサ200に到達するタイミングの例を示している。
 遠距離用ビームの投光は近距離用ビームの投光に先行する。遠方で反射された遠距離用ビームと近くで反射された近距離用ビームのうち、いずれか先行してイメージセンサ200に到達した方が受光されるように、露光タイミングすなわちタイマーカウンタ203の動作タイミングが設定される。
 図24の(c)において点線で示されたパルスは、近距離(例えば100m未満)にある物体で反射された遠距離用の光ビームの反射光を示している。このような反射光は、タイマーカウンタ203の動作開始以前にイメージセンサ200に到達するため、飛行時間が計測されない。図24の(e)に示す近距離にある物体で反射された近距離用ビームは、通常、図24の(f)に示すタイマーカウンタ203の動作によって飛行時間が計測される。しかし、近距離用ビームの反射光が到達する画素と同一の画素に、先行して遠距離用ビームが到達している場合には、図24の(d)に示すように、先行する遠距離用ビームの反射光によってタイマーカウンタ203が既に停止している。
 この場合、近距離用ビームの反射光の飛行時間は計測されない。実施形態1と同様に、光源100とイメージセンサ200との距離は、測定される距離に対して無視できる程度に小さい。このため、光源100から出射した光ビームは、より近い距離にある物体で反射されてイメージセンサ200に到達する。しかしながら、物体の輪郭線の位置に対応する位置にある画素においては、遠距離用ビームと近距離用ビームとの両方が到達し得る。その場合には、より先行して到達した光ビームの受光タイミングが計測される。
 図24の(c)および(e)に示すように、近距離用ビームの投光と同時にタイマーカウンタの動作を開始することで、近距離用ビームの反射光がイメージセンサ200に先行して到着する場合には、計測された時間は飛行時間そのものを指す。これに対し、遠距離用ビームが先行してイメージセンサ200に到達した場合には、計測された時間は、飛行時間よりも短い時間となる。
 [2-2-2 投光/露光による時間計測の動作]
 次に、図23に示すステップS2200における時間計測の動作の詳細を説明する。図25は、図24に示すタイミングでの光源100の投光とイメージセンサ200の露光による時間計測の動作を示すフローチャートである。図25は、図18に示す動作と同様の動作を含む。同様の動作については同一の番号を付して説明する。
 <ステップS1202>
 制御回路300は、投光と露光とを制御するために時間の計時を開始する。計時は、計時部324によって行われる。
 <ステップS1203>
 制御回路300は、ステップS1100で決定された遠距離用ビームの投光タイミングで、投光制御信号を光源100に出力する。投光制御信号は、遠距離ビーム情報311が示すビーム形状、広がり角、および光ビームの方向の情報と、ステップS1100で決定された投光のパルス時間長の情報とを含む。
 <ステップS1204>
 光源100は、ステップS1203で出力された投光制御信号に従って、遠距離用ビームを生成して投光する。
 <ステップS1205>
 制御回路300は、ステップS1100で決定された近距離用ビームの投光タイミングになると、投光制御信号を光源100に出力する。この投光制御信号は、近距離ビーム情報312が示すビーム形状、広がり角、および光ビームの方向の情報と、ステップS1100で決定された投光のパルス時間長の情報とを含む。
 <ステップS2206>
 光源100は、ステップS1203で出力された投光制御信号に従って、近距離用ビームを生成して投光する。同時に、光源100は、投光信号をイメージセンサ200に出力する。
 <ステップS2207>
 イメージセンサ200は、光源100から出力された投光信号の入力に伴い、各画素のタイマーカウンタ203の動作を開始する。
 <ステップS2208>
 イメージセンサ200は、制御回路300の計時部324を参照し、ステップS1100で決定された露光時間の最大値が経過したか否かを判定する。ステップS2208において、最大露光時間が経過している場合は、ステップS2212に進む。最大露光時間が経過していない場合は、ステップS2209に進む。
 <ステップS2209>
 イメージセンサ200の各受光素子202は、タイマーカウンタ動作開始後に受光したか否かを判定する。受光した場合、ステップS2210に進む。受光していない場合、ステップS2208に戻る。
 <ステップS2210>
 イメージセンサ200の各受光素子202は、タイマーカウンタを停止する。
 <ステップS2212>
 イメージセンサ200は、制御回路300における計時部324を参照し、露光終了タイミングになったことを確認すると、露光を終了する。タイマーカウンタを停止していない画素は値を0とし、タイマーカウンタを停止した画素は値をタイマーカウンタによって計測された時間に設定する。
 ステップS2207からステップS2212の一連の動作をイメージセンサ200の各受光素子で行うことにより、画素ごとに時間が計測される。
 [2-2-3 各画素の時間情報に基づく全画素の距離情報復元処理]
 図23に示すステップS2300の動作の詳細を説明する。ステップS2300では、信号処理回路400は、ステップS2200においてイメージセンサ200の画素ごとに計測された時間を、値の有無によって2値化する。すなわち、受光までの時間が計測された場合は1、時間が計測されなかった場合は0の2値にする。信号処理回路400は、重み情報313を用いて、各画素の距離を推定する。
 前述の式17を、ベクトルYと行列Wが既知という条件で、ベクトルXについて解くことにより、画素ごとの距離の値を生成することができる。しかしながら、この式では一意に解を求めることができない。そこで、拘束条件を導入し、式17を以下のように変形する。
Figure JPOXMLDOC01-appb-M000018
ここで、行列Mは、以下の式22で表されるL×(L×N)行列である。
Figure JPOXMLDOC01-appb-M000019
すなわち、ベクトルMXは、画素ごとの距離を示す要素数Lのベクトルである。
 式21において、第1項は、式17を2乗誤差に緩和したものである。実施形態1と同様に、ベクトルXについて解くことで、全画素の距離を得ることができる。計算方法として、例えばADMM等の公知の方法を利用することができる。
 実施形態2において、観測値yは反射光が受光されたか否かの2値にして計算するものとしたが、これは一例に過ぎない。観測値iとして、実際に観測された時間を別途保存して使用してもよい。その際には、xの値が近距離の範囲内であれば、観測された時間情報より距離を計算し、遠距離の範囲内であれば観測された時間情報から計算された距離に、計測されていない時間分の距離を加算することで、xの推定値より詳細な距離を取得することができる。さらに、上記の計算方法を採用する場合、N=12として説明したが、これは一例に過ぎない。上記の計算方法は、適宜変更してもよい。例えば、遠距離用ビームおよび近距離用ビームのうちの1つ以上の反射光の受光の可能性がある画素についてはN=2、すなわち、測定距離範囲を近距離の範囲と遠距離の範囲の2つに分類してもよい。
 さらに、いずれの反射光も受光しない画素についてはNを3以上の複数の値に設定してもよい。計算されたxの値に応じて、近距離の範囲内であれば、観測された時間情報から距離を計算し、遠距離の範囲内であれば観測された時間情報から計算された距離に、計測されていない時間分の距離を加算することで、詳細な距離を取得することができる。また、近距離用ビームの反射光のみ受光する画素、および遠距離用ビームの反射光のみ受光する画素についてはN=1とし、近距離用ビームおよび遠距離用ビームのいずれの反射光も受光する可能性がある画素についてのみ、N=2としてもよい。
 なお、実施形態2において、式21を用いてXについてADMM等のアルゴリズムを利用して解くものとしたが、このような方法に限定されない。例えば、グラフカット法を用いて、式17をXについて解いてもよい。すなわち、式17の問題を、遠距離用ビームまたは近距離用ビームの二値セグメンテーション問題であると捉えて解いてもよい。例えば、遠距離用ビームまたは近距離用ビームのいずれかで確定している画素をseedとして、エネルギー関数(例えばPotts Interaction Energy Model)を定義し、min-cutもしくはmax flowアルゴリズムによってXを求めても良い。
 なお、確実にいずれの光ビームも照射されていない画素に関しては、|y-wx|の値が閾値以上(例えば0.5以上)であるものとして取り扱ってもよい。近距離用ビームのみが照射されている画素において値がない場合は、当該画素の位置には、近距離用ビームに対応する距離範囲には物体が存在しないと考えてよい。遠距離用ビームのみが照射されている画素において値がない場合は、遠距離用ビームに対応する距離範囲には物体が存在しないと考えてよい。イメージセンサ200において有効な観測値がある画素については、グラフカット法により、物体が近距離の範囲内にあるか遠距離の範囲内にあるかを決定することができる。
 しかしながら、イメージセンサ200において有効な観測値がない画素も存在する。例えば、光ビームの反射光が入射しない画素、近距離用ビームのみ投光され所定の近距離範囲には物体がない画素、および遠距離用ビームのみ投光され所定の遠距離範囲には物体がない画素(すなわち、物体が近すぎるか遠すぎる画素)も存在する。これらの画素については、以下のような手順で、物体が近距離の範囲内にあるか遠距離の範囲内にあるかがグラフカット法によって決定された画素の情報を用いて距離データを作成することができる。
 画素ごとの奥行値を示すベクトルをZとする。Zは、Z=MXで表される。
Figure JPOXMLDOC01-appb-M000020
 ここで、行列Aは、前述のグラフカット法によって奥行値が確定した画素に対応する、対角成分が1、それ以外の成分は0のL×L対角行列である。ベクトルBは、前述のグラフカット法によって奥行値が確定した画素に対応する成分は確定した奥行値、それ以外の成分は0である要素数Lのベクトルである。ここでLは、画素数である。TV(MX)は、画像X上における近傍との輝度変化の絶対値和であるTotal Variationである。
 fDF(z)は、範囲を限定する拘束条件(例えば、J. N. Laska et al., “Democracy in Action: Quantization, Saturation, and Compressive Sensing”, Applied and Computational Harmonic Analysis, vol. 31, no. 3, pp. 429-443, 2001.)である。fDF(z)は、以下を満たす。
Figure JPOXMLDOC01-appb-M000021
ただし、近距離ビームの測距範囲は0よりも遠方かつR以下、遠距離ビームの測距範囲はRよりも遠方とする。γは、重み係数を示している。式23は、例えば、前述のADMMを利用することで解くことができる。
 (他の変形例)
 前述の各実施形態および変形例においては、光ビームの到達距離の範囲を近距離と遠距離の2種類としたが、光ビームの到達距離の範囲を3種類以上にしてもよい。例えば、照射面における単位面積あたりのエネルギーの異なる3種類以上の光ビームを出射してもよい。
 前述の各実施形態および変形例において、空間分布の異なる光ビームを順次照射したが、空間分布が同一の光ビームを順次照射してもよい。例えば、2次元の空間分布が同一である光ビームを順次照射してもよい。あるいは、3次元の空間分布が同一の光ビームを順次照射してもよい。
 前述の各実施形態および変形例において、各到達距離範囲の複数のビームの配置はあらかじめ定められているが、測距動作ごとに異なる空間パターンの光ビームを使用してもよい。例えば、あらかじめ複数のパターンの情報が記憶されている場合は、測距動作ごとにパターンが選択されてもよい。各到達距離範囲の光ビームのパターンは組み合わせが決まっている必要はなく、独立に選択され得る。また、複数のビームのパターンは、計測の都度決定されてもよいし、計測の都度通信回路を通じて外部から指示されてもよい。
 前述の各実施形態および変形例において、あらかじめ定められた重み情報が記憶されている。各到達距離範囲の光ビームのパターンの組み合わせが決まっている場合は、パターンの組み合わせごとに重み情報が記憶され得る。測距動作ごとに各到達距離範囲の光ビームのパターンが変わる場合には、パターンが決定されるたびに、重み情報を生成してもよい。あるいは、計測の都度通信回路を通じて外部から重み情報を取得してもよい。
 前述の各実施形態および変形例において、光源、イメージセンサ、制御回路、および信号処理回路は、すべて同一の装置内に配置されているが、必ずしも同一の装置内に配置されていなくてもよい。ただし、光源とイメージセンサは、計測する距離に対して同一点とみなせる位置に配置され得る。光源、イメージセンサ、制御回路、および信号処理回路が、通信によって互いに接続されたシステムを構成してもよい。
 前述の各実施形態および変形例において、xは、所定の測定距離範囲を解析数Nで分割した場合の距離レンジを示すベクトルであるが、必ずしもそのようなベクトルでなくてもよい。測定距離範囲の分割は、等分割でもよいし、等分割でなくてもよい。測定範囲のうち距離が近いほど距離を細かく分割し、距離が遠いほど粗く分割してもよい。これにより、近距離では距離の分解能が高く、遠距離では距離の分解能が低い測距が実現される。
 実施形態1、実施形態1の変形例、実施形態2において、遠距離を計測するためのビームを先行して投光し、近距離を計測するためのビームを後から投光した。遠距離用ビームと近距離用ビームの投光のタイミングと露光のタイミングは次のように決定される。すなわち、遠距離用ビームで測距する光源からの距離の範囲の最小値をRLmin、最大値をRLmax、光速をcとすると、遠距離用ビームに対する露光タイミングは、遠距離用ビーム投光開始後2×RLmin/cの時点から2×RLmax/cの時点までの期間を複数の露光区間に分割したものになる。また、近距離用ビームで測距する光源からの距離の範囲の最小値をRSmin、最大値をRSmax、光速をcとすると、近距離用ビームに対する露光タイミングは、近距離用ビーム投光開始後2×RSmin/cの時点から2×RSmax/cの時点までの期間を複数の露光区間に分割したものになる。
 上記の遠距離用ビームに対する露光タイミングと近距離用ビームに対する露光タイミングが同一になるように、遠距離用ビームの投光と近距離用ビームの投光と、露光タイミングと、を調節する。すなわち、遠距離用ビームは近距離用ビームよりも以下の時間だけ先行して投光される。
 2×RLmin/c―2×RSmin/c 以上 2×RLmax/c―2×RSmax/c 以下。
露光は、近距離ビームの投光開始から2×RSmin/c時間後に開始される。
 例えば、遠距離用ビームで測距する光源からの距離の範囲を100mから200mまでとする。また、近距離用ビームで測距する光源からの距離の範囲を0mから100mまでとする。この場合、RLminが100m、RLmaxが200m、RSminが0m、RSmaxが100mとなる。この場合、以下が成り立つ。
 2×RLmin/c=2×RSmax/c=2×100/(3×10)≒667ns
 2×RSmin/c=2×0/(3×10)=0
 2×RLmin/c―2×RSmin/c=2×RLmax/c―2×RSmax/c≒667ns―0=667ns
 2×RLmax/c=2×200/(3×10)≒1334ns
すなわち、遠距離用ビームの投光から、光が100mを往復する期間である667ns後に短距離用ビームが投光され、同時に露光が開始される。
 なお、遠距離用ビームで測距する距離の範囲と近距離用ビームで測距する距離の範囲が異なる場合は以下のようになる。例えば、遠距離用ビームで測距する光源からの距離の範囲を100mから300mまでであり、近距離用ビームで測距する光源からの距離の範囲を0mから100mまでとする。
 2×RLmin/c=2×RSmax/c=2×100/(3×10)≒667ns
 2×RSmin/c=2×0/(3×10)=0
 2×RLmin/c―2×RSmin/c≒667ns―0=667ns
 2×RLmax/c―2×RSmax/c≒2000ns―667ns=1333ns
 2×RLmax/c=2×300/(3×10)≒2000ns
遠距離用ビームの投光から、光が100mを往復する期間である667ns以降で1333ns以前に短距離用ビームが投光され、同時に露光が開始される。一方遠距離用ビームによる測距の時間区間は667nsから2000nsである。近距離用ビームの反射光は遠距離用ビームの反射光を受光する露光区間のいずれかで受光される。
 本開示の技術は、測距を行う装置に広く利用可能である。例えば、本開示の技術は、LiDAR(Light Detecting and Ranging)を利用したセンシングシステムに利用可能である。
100 光源
150 受光装置
200 イメージセンサ
202 受光素子
203 タイマーカウンタ
210 遠距離用ビーム
220 近距離用ビーム
230 遠距離用ビームの反射光
240 近距離用ビームの反射光
300 制御回路
310 記憶媒体
311 遠距離ビーム情報
312 近距離ビーム情報
313 重み情報
320 プロセッサ
322 投光/露光タイミング決定部
324 計時部
326 投光制御信号出力部
328 露光制御信号出力部
400 信号処理回路
410 距離推定部
430 画像生成部
500 記憶装置
600 ディスプレイ
700 発光デバイス

Claims (14)

  1.  光源と、
     複数の受光素子を備える受光装置と、
     前記光源および前記受光装置を制御する制御回路であって、
      前記光源に、第1の空間分布を有する第1の光をシーンに向けて出射させ、その後、第2の空間分布を有する第2の光を前記シーンに向けて出射させ、
      前記受光装置の前記複数の受光素子の少なくとも一部に、前記第1の光によって生じた前記シーンからの第1の反射光、および前記第2の光によって生じた前記シーンからの第2の反射光を、同一の露光期間内に検出させる、制御回路と、
     前記受光装置の前記複数の受光素子から出力された受光データに基づいて、前記第1の反射光および前記第2の反射光に由来する距離データを生成して出力する信号処理回路と、を備える距離情報取得装置。
  2.  前記第2の空間分布は、前記第1の空間分布とは異なる、請求項1に記載の距離情報取得装置。
  3.  前記受光装置における前記複数の受光素子の前記少なくとも一部は、前記第1の反射光を受光し前記第2の反射光を受光しない複数の第1の受光素子と、前記第2の反射光を受光し前記第1の反射光を受光しない複数の第2の受光素子と、を含み、
     前記複数の受光素子は、前記第1の反射光および第2の反射光のいずれも受光しない複数の第3の受光素子をさらに含み、
     前記信号処理回路は、前記受光データに基づいて、前記複数の第3の受光素子に対応する複数の画素の位置における距離情報を推定することにより、前記距離データを生成する、請求項1または2に記載の距離情報取得装置。
  4.  前記信号処理回路は、予め設定された重み情報を用いて、前記受光データから、前記距離データを生成する、請求項1から3のいずれかに記載の距離情報取得装置。
  5.  前記重み情報は、前記第1の空間分布および前記第2の空間分布に基づいて定められる、請求項4に記載の距離情報取得装置。
  6.  前記第2の光の放射強度は、前記第1の光の放射強度よりも低い、請求項1から5のいずれかに記載の距離情報取得装置。
  7.  前記第1の光は、互いに出射方向の異なる複数の第1の光ビームを含み、
     前記第2の光は、互いに出射方向の異なる複数の第2の光ビームを含む、請求項1から6のいずれかに記載の距離情報取得装置。
  8.  前記第2の光の到達距離は、前記第1の光の到達距離よりも短い、請求項1から7のいずれかに記載の距離情報取得装置。
  9.  前記光源から離れた照射面における前記第2の光の単位面積あたりのエネルギーは、前記照射面における前記第1の光の単位面積あたりのエネルギーよりも低い、請求項1から7のいずれかに記載の距離情報取得装置。
  10.  前記第1の光は第1の波長を有し、
     前記第2の光は第2の波長を有し、
     前記第2の波長の大気中の吸収率は、前記第1の波長の大気中の吸収率よりも高い、請求項7に記載の距離情報取得装置。
  11.  前記制御回路は、
     前記光源に、第3の空間分布を有する第3の光を、前記第2の光の出射後に前記シーンに向けて出射させ、
     前記受光装置に、前記第3の光によって生じた前記シーンからの第3の反射光を、前記同一の露光期間内に検出させ、
     前記第3の光の到達距離は、前記第2の光の到達距離よりも短い、
     請求項8に記載の距離情報取得装置。
  12.  前記露光期間は、
     前記シーンにおける、前記受光装置から第1の距離だけ離れた位置で生じた前記第1の反射光の一部が前記受光装置に到達する時点を含まず、
     前記受光装置から前記第1の距離よりも長い第2の距離だけ離れた位置で生じた前記第1の反射光の他の一部が前記受光装置に到達する時点を含み、
     前記受光装置から前記第1の距離だけ離れた位置で生じた前記第2の反射光の一部が前記受光装置に到達する時点を含む、請求項1から11のいずれかに記載の距離情報取得装置。
  13.  距離情報取得方法であって、
     光源に、第1の空間分布を有する第1の光をシーンに向けて出射させ、その後、第2の空間分布を有する第2の光を前記シーンに向けて出射させることと、
     受光装置の複数の受光素子の少なくとも一部に、前記第1の光によって生じた前記シーンからの第1の反射光、および前記第2の光によって生じた前記シーンからの第2の反射光を、同一の露光期間内に検出させることと、
     前記受光装置の前記複数の受光素子から出力された受光データに基づいて、前記第1の反射光および前記第2の反射光に由来する距離データを生成して出力することと、を含む距離情報取得方法。
  14.  コンピュータに、
     光源に、第1の空間分布を有する第1の光をシーンに向けて出射させ、その後、第2の空間分布を有する第2の光を前記シーンに向けて出射させることと、
     受光装置の複数の受光素子の少なくとも一部に、前記第1の光によって生じた前記シーンからの第1の反射光、および前記第2の光によって生じた前記シーンからの第2の反射光を、同一の露光期間内に検出させることと、
     受光装置の前記複数の受光素子から出力された受光データに基づいて、前記第1の反射光および前記第2の反射光に由来する距離データを生成して出力することと、を実行させる、プログラム。
PCT/JP2019/040822 2018-12-06 2019-10-17 距離情報取得装置、距離情報取得方法、およびプログラム WO2020116035A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980048155.3A CN112470035A (zh) 2018-12-06 2019-10-17 距离信息取得装置、距离信息取得方法及程序
JP2020559769A JPWO2020116035A1 (ja) 2018-12-06 2019-10-17 距離情報取得装置、距離情報取得方法、およびプログラム
US17/171,934 US20210165096A1 (en) 2018-12-06 2021-02-09 Range-information acquiring apparatus, range-information acquiring method, and non-transitory computer-readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018229250 2018-12-06
JP2018-229250 2018-12-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/171,934 Continuation US20210165096A1 (en) 2018-12-06 2021-02-09 Range-information acquiring apparatus, range-information acquiring method, and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
WO2020116035A1 true WO2020116035A1 (ja) 2020-06-11

Family

ID=70975300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/040822 WO2020116035A1 (ja) 2018-12-06 2019-10-17 距離情報取得装置、距離情報取得方法、およびプログラム

Country Status (4)

Country Link
US (1) US20210165096A1 (ja)
JP (1) JPWO2020116035A1 (ja)
CN (1) CN112470035A (ja)
WO (1) WO2020116035A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113848375B (zh) * 2021-10-20 2023-11-28 国网湖南省电力有限公司 一种油绝缘变压器内部器件带电检测装置及其应用方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028602A (ja) * 2002-06-21 2004-01-29 Mitsubishi Heavy Ind Ltd 監視用レーザレーダシステム及び撮像方法
JP2005140685A (ja) * 2003-11-07 2005-06-02 Casio Comput Co Ltd 測距装置及び測距方法
JP2008046047A (ja) * 2006-08-18 2008-02-28 Fujifilm Corp 距離画像作成方法及び距離画像センサ、及び撮影装置
JP2010032425A (ja) * 2008-07-30 2010-02-12 National Univ Corp Shizuoka Univ 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
JP2010256291A (ja) * 2009-04-28 2010-11-11 Toyota Motor Corp 距離画像撮影装置
JP2017190035A (ja) 2016-04-13 2017-10-19 トヨタ紡織株式会社 乗物用シート

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61149876A (ja) * 1984-12-24 1986-07-08 Meisei Electric Co Ltd 測距用信号の送信装置
FR2591329B1 (fr) * 1985-12-10 1992-05-22 Canon Kk Appareil et procede de traitement d'informations tridimensionnelles
US5274429A (en) * 1989-04-14 1993-12-28 Asahi Kogaku Kogyo Kabushiki Kaisha Distance measuring device
JP3330624B2 (ja) * 1992-01-29 2002-09-30 マツダ株式会社 車両の障害物検出装置
JPH0989553A (ja) * 1995-09-26 1997-04-04 Olympus Optical Co Ltd 測距装置
JPH1027299A (ja) * 1996-07-08 1998-01-27 Matsushita Electric Ind Co Ltd 車載用レーダ装置
JP2000162533A (ja) * 1998-11-30 2000-06-16 Aisin Seiki Co Ltd 光走査装置
JP2000227477A (ja) * 1999-02-05 2000-08-15 Toshiba Corp レーザ測距装置
JP2003207563A (ja) * 2002-01-17 2003-07-25 Matsushita Electric Works Ltd レーダ装置
JP2006242844A (ja) * 2005-03-04 2006-09-14 Mitsubishi Electric Corp レーダー装置及び送信ビーム制御方法
JP4846811B2 (ja) * 2009-02-03 2011-12-28 シャープ株式会社 光スポット位置検出装置およびそれを含む光デバイス、並びに、その光デバイスを含む電子機器
JP5079826B2 (ja) * 2010-02-09 2012-11-21 シャープ株式会社 光学式測距センサおよび電子機器
KR101052041B1 (ko) * 2011-02-10 2011-07-26 삼성탈레스 주식회사 시분할 송신에 의한 장거리 및 단거리 탐지용 차량 레이더 장치 및 그 탐지 방법
KR20140079090A (ko) * 2012-12-18 2014-06-26 한국전자통신연구원 레이저 방출기 모듈 및 그것이 적용된 레이저 감지 시스템
US10324171B2 (en) * 2015-12-20 2019-06-18 Apple Inc. Light detection and ranging sensor
KR102656765B1 (ko) * 2016-03-09 2024-04-11 주식회사 히타치엘지 데이터 스토리지 코리아 거리 측정 장치
KR101883180B1 (ko) * 2016-08-01 2018-07-30 엘지전자 주식회사 차량용 라이다 장치
US10534074B2 (en) * 2016-08-31 2020-01-14 Qualcomm Incorporated Hybrid scanning lidar systems
WO2018056199A1 (ja) * 2016-09-21 2018-03-29 日本電気株式会社 距離測定システム、距離測定方法およびプログラム記録媒体
CN107845860A (zh) * 2016-09-21 2018-03-27 北京行易道科技有限公司 天线系统及雷达
US10775506B2 (en) * 2017-01-31 2020-09-15 Panasonic Intellectual Property Management Co., Ltd. Imaging system
KR20180096332A (ko) * 2017-02-21 2018-08-29 주식회사 히타치엘지 데이터 스토리지 코리아 거리 측정 방법
CN108663689A (zh) * 2017-03-27 2018-10-16 张舒怡 一种用于交通工具检测障碍的传感器
KR101834124B1 (ko) * 2017-08-08 2018-04-13 (주)에어로스타에스지 다중 라이다 시스템 및 그 구동방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004028602A (ja) * 2002-06-21 2004-01-29 Mitsubishi Heavy Ind Ltd 監視用レーザレーダシステム及び撮像方法
JP2005140685A (ja) * 2003-11-07 2005-06-02 Casio Comput Co Ltd 測距装置及び測距方法
JP2008046047A (ja) * 2006-08-18 2008-02-28 Fujifilm Corp 距離画像作成方法及び距離画像センサ、及び撮影装置
JP2010032425A (ja) * 2008-07-30 2010-02-12 National Univ Corp Shizuoka Univ 距離画像センサ、及び撮像信号を飛行時間法により生成する方法
JP2010256291A (ja) * 2009-04-28 2010-11-11 Toyota Motor Corp 距離画像撮影装置
JP2017190035A (ja) 2016-04-13 2017-10-19 トヨタ紡織株式会社 乗物用シート

Also Published As

Publication number Publication date
CN112470035A (zh) 2021-03-09
JPWO2020116035A1 (ja) 2021-10-28
US20210165096A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
EP3721475B1 (en) Method to operate a multi-photodiode pixel cell
EP2885650B1 (en) Illumination light projection for a depth camera
US20200396399A1 (en) Non-linear quantization at pixel sensor
US20200075652A1 (en) Pixel cell with multiple photodiodes
US20190379844A1 (en) Pixel cell with multiple photodiodes
TW200604619A (en) Optical path length adjuster
US11762151B2 (en) Optical radar device
US20180080822A1 (en) Spectral imaging sensors and methods with time of flight sensing
JP7457950B2 (ja) 測距装置、情報処理方法、および情報処理装置
WO2020116035A1 (ja) 距離情報取得装置、距離情報取得方法、およびプログラム
JP6975913B2 (ja) 撮像装置
WO2022026342A1 (en) Devices and methods for determining confidence in stereo matching using a classifier-based filter
WO2020116036A1 (ja) 物体認識装置、物体認識方法、およびプログラム
CN113534484A (zh) 一种光发射装置及电子设备
US10698086B1 (en) Photonic integrated circuit illuminator
US11601607B2 (en) Infrared and non-infrared channel blender for depth mapping using structured light
US11756978B2 (en) Multi-spectral image sensor
US20210356587A1 (en) Distance measurement apparatus, distance measurement method, and storage medium
JPWO2020116035A5 (ja)
JP2023072106A (ja) 測距装置、およびプログラム
WO2021065138A1 (ja) 測距装置および制御方法
JP2021152450A (ja) 撮像装置、および撮像システム
US11525914B2 (en) Time of flight system and method including successive reflections of modulated light by an object and by an additional reflective surface for determining distance information of the object using a time of flight system
US20230003895A1 (en) Method and apparatus for controlling distance measurement apparatus
WO2022113427A1 (ja) 光デバイスおよび光検出システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19892205

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559769

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19892205

Country of ref document: EP

Kind code of ref document: A1