WO2017037834A1 - 情報処理装置、制御方法、プログラム及び記憶媒体 - Google Patents

情報処理装置、制御方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2017037834A1
WO2017037834A1 PCT/JP2015/074685 JP2015074685W WO2017037834A1 WO 2017037834 A1 WO2017037834 A1 WO 2017037834A1 JP 2015074685 W JP2015074685 W JP 2015074685W WO 2017037834 A1 WO2017037834 A1 WO 2017037834A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
information
light
information processing
processing apparatus
Prior art date
Application number
PCT/JP2015/074685
Other languages
English (en)
French (fr)
Inventor
阿部 義徳
和俊 北野
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to US15/756,482 priority Critical patent/US20180246192A1/en
Priority to PCT/JP2015/074685 priority patent/WO2017037834A1/ja
Priority to CN201580082730.3A priority patent/CN107923968A/zh
Priority to EP15902956.0A priority patent/EP3346285A4/en
Priority to JP2017537098A priority patent/JPWO2017037834A1/ja
Publication of WO2017037834A1 publication Critical patent/WO2017037834A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements

Definitions

  • the present invention relates to ranging technology.
  • Patent Literature 1 discloses a lidar that detects a point group on an object surface by scanning a horizontal direction while intermittently emitting laser light and receiving the reflected light.
  • lidar In conventional lidar, it is common to detect the peak position of the received pulse for each irradiation direction in the horizontal direction, and perform distance measurement based on the delay time to the peak position. If the distance is low or similar, the peak position cannot be detected properly, and there is a problem that the corresponding point group cannot be detected for a distant object or the like.
  • the present invention has been made to solve the above-described problems, and mainly provides an information processing apparatus capable of suitably outputting a distance measurement result for an object existing within a measurement range. Objective.
  • the invention described in claim is an information processing apparatus, wherein an irradiation unit that irradiates laser light while changing an irradiation direction, a light receiving unit that receives the laser light reflected by an object, and the light receiving unit And an output unit that generates and outputs first information indicating the received light intensity of the laser beam in the irradiation direction and the response delay time of the reflected light based on the received light signal to be output.
  • the invention according to claim is an information processing apparatus, wherein an irradiation unit that irradiates laser light while changing an irradiation direction, a light receiving unit that receives the laser light reflected by an object, and the light reception A generating unit configured to generate a polar coordinate space two-dimensional signal based on the received light signal output from the unit; and a converting unit configured to convert the polar coordinate space two-dimensional signal into an orthogonal coordinate space two-dimensional signal.
  • the invention according to claim is an information processing apparatus, wherein an irradiation unit that irradiates laser light while changing an irradiation direction, a light receiving unit that receives the laser light reflected by an object, and the light reception An output unit that generates and outputs first information indicating the received light intensity of the laser beam in the irradiation direction and the distance in the irradiation direction from the reference position related to the irradiation position based on the light reception signal output by the unit; It is characterized by providing.
  • the invention described in the claims is a computer that controls an information processing apparatus that includes an irradiation unit that irradiates a laser beam while changing an irradiation direction, and a light receiving unit that receives the laser beam reflected by an object. Is generated, and generates and outputs first information indicating the light reception intensity of the laser beam in the irradiation direction and the response delay time of the reflected light based on the light reception signal output from the light receiving unit.
  • the computer is caused to function as an output unit.
  • the information processing apparatus includes an irradiation unit, a light receiving unit, and an output unit.
  • the irradiation unit irradiates the laser beam while changing the irradiation direction.
  • the light receiving unit receives the laser beam reflected by the object.
  • the “object” refers to an object that exists in a range where laser light reaches.
  • the output unit generates and outputs first information based on the light reception signal output from the light receiving unit.
  • the first information indicates the received light intensity of the laser light in the irradiation direction and the response delay time of the reflected light.
  • the first information indicates the light reception intensity of the laser light in the irradiation direction and the distance in the irradiation direction from the reference position regarding the irradiation position.
  • the output unit may output and display the first information on the display, or may output the first information to another processing unit. With this aspect, the information processing apparatus can suitably output the first information indicating the presence of the target object.
  • a conversion unit that converts the first information into second information indicating received light intensity in an orthogonal coordinate system (coordinates represented by two orthogonal axes) corresponding to an irradiation plane;
  • the information processing apparatus can, for example, coordinate-convert and output the first information so that the user can easily grasp the target object intuitively.
  • the information processing apparatus moves together with a moving body, and the conversion unit receives the first information filtered on the time axis when the moving body is stopped.
  • the first information that is not filtered by the first information processing unit is converted into the second information.
  • the information processing apparatus suitably generates second information representing the exact position of the target object by filtering the first information on the time axis only when the moving object is stopped. can do.
  • the information processing apparatus moves together with the moving body, and the first information processing unit changes the filtering bandwidth according to the moving speed of the moving body.
  • the relative position between the moving body and the object is considered to be large, and processing such as reducing the bandwidth of filtering is performed.
  • the influence by the relative position change of an object can be reduced.
  • the conversion unit converts the first information to which matched filtering is applied into the second information. According to this aspect, the conversion unit can generate the second information in which noise is suitably reduced.
  • the second information indicates a light reception intensity in a two-dimensional space parallel to a horizontal plane
  • the information processing apparatus displays an image based on the second information on a display unit.
  • the unit is further provided.
  • the information processing apparatus includes: an irradiation unit that irradiates laser light while changing an irradiation direction; a light receiving unit that receives the laser light reflected by an object; A generating unit that generates a polar coordinate space two-dimensional signal based on a light reception signal for each irradiation direction output from the light receiving unit; and a conversion unit that converts the polar coordinate space two-dimensional signal into an orthogonal coordinate space two-dimensional signal.
  • the polar coordinate space two-dimensional signal is a two-dimensional signal obtained by integrating the received light signals for each irradiation direction generated by the light receiving unit.
  • an angle indicating the irradiation direction and a delay from when the laser light is emitted until the reflected light is received.
  • This is an image signal having time (that is, a distance from the information processing apparatus) as a coordinate axis and light reception intensity as a pixel value.
  • the orthogonal coordinate space refers to a two-dimensional space corresponding to a scanning surface (irradiation plane) of laser light, for example.
  • the information processing apparatus generates a polar coordinate space two-dimensional signal based on the light reception signal for each irradiation direction output from the light receiving unit, and converts the signal into a rectangular coordinate space two-dimensional signal. The presence of the object can be suitably visualized without losing information.
  • an information processing apparatus having an irradiation unit that emits laser light while changing an irradiation direction, and a light receiving unit that receives the laser light reflected by an object.
  • a control method to be executed which generates and outputs first information indicating a light reception intensity of the laser beam in an irradiation direction and a response delay time of reflected light based on a light reception signal output from the light receiving unit. It has an output process.
  • an information processing apparatus comprising: an irradiation unit that irradiates a laser beam while changing an irradiation direction; and a light receiving unit that receives the laser beam reflected by an object.
  • a program executed by a controlling computer which generates first information indicating a light reception intensity of the laser light in an irradiation direction and a response delay time of reflected light based on a light reception signal output from the light receiving unit.
  • the computer is caused to function as an output unit that outputs data.
  • the program is stored in a storage medium.
  • FIG. 1 is a block configuration diagram of a rider unit 100 according to the present embodiment.
  • a lidar unit 100 shown in FIG. 1 is a TOF (Time Of Flight) type lidar (Lider: Light Detection and Ranging) or performs distance measurement of objects in all horizontal directions. The distance measurement result is displayed as an image.
  • the rider unit 100 is used for the purpose of assisting recognition of the surrounding environment of the vehicle, for example, as part of an advanced driving support system.
  • the rider unit 100 mainly includes a core unit 1, a signal processing unit 2, a display control unit 3, and a display 4.
  • the signal processing unit 2 integrates the segment signals Sseg for each segment received from the core unit 1, so that the polar coordinate space representing the relationship between each segment in all 360 ° directions in the horizontal direction and the distance from the rider unit 100 can be obtained.
  • a two-dimensional image also referred to as “polar coordinate space frame Fp” is generated.
  • the signal processing unit 2 generates a two-dimensional image (also referred to as “orthogonal coordinate space frame Fo”) of the orthogonal coordinate space based on the scanning surface (irradiation plane) of the pulse laser based on the polar coordinate space frame Fp.
  • the display control unit 3 causes the display 4 to display an image based on the orthogonal coordinate space frame Fo received from the signal processing unit 2.
  • the crystal oscillator 10 outputs a pulsed clock signal “S1” to the synchronization control unit 11 and the A / D converter 18.
  • the clock frequency is assumed to be 1.8 GHz.
  • the clock indicated by the clock signal S1 is also referred to as a “sample clock”.
  • the synchronization control unit 11 outputs a pulse signal (also referred to as “trigger signal S2”) to the LD driver 12.
  • a period from when the trigger signal S2 is asserted to when it is asserted next is also referred to as a “segment period”.
  • the synchronization control unit 11 outputs a signal (also referred to as “segment extraction signal S ⁇ b> 3”) that determines the timing at which the segmenter 19 described later extracts the output of the A / D converter 18 to the segmenter 19.
  • the trigger signal S2 and the segment extraction signal S3 are logic signals and are synchronized as shown in FIG.
  • the synchronization control unit 11 asserts the segment extraction signal S3 by a time width corresponding to 2048 sample clocks (also referred to as “gate width Wg”).
  • the LD driver 12 causes a pulse current to flow to the laser diode 13 in synchronization with the trigger signal S2 input from the synchronization control unit 11.
  • the laser diode 13 is, for example, an infrared (905 nm) pulse laser, and emits an optical pulse based on a pulse current supplied from the LD driver 12. In this embodiment, the laser diode 13 emits a light pulse of about 5 nsec.
  • the scanner 14 includes a configuration of a transmission and reception optical system, scans a light pulse emitted from the laser diode 13 by 360 ° on a horizontal plane, and is irradiated with the emitted light pulse (also referred to as a “target object”).
  • the return light reflected by is guided to the light receiving element 16.
  • the LD driver 12 and the scanner 14 are examples of the “irradiation unit” in the present invention.
  • the light receiving element 16 is, for example, an avalanche photodiode, and generates a weak current corresponding to the amount of reflected light from the object guided by the scanner 14.
  • the light receiving element 16 supplies the generated weak current to the current-voltage conversion circuit 17.
  • the current-voltage conversion circuit 17 amplifies the weak current supplied from the light receiving element 16 and converts it into a voltage signal, and inputs the converted voltage signal to the A / D converter 18.
  • the A / D converter 18 converts the voltage signal supplied from the current-voltage conversion circuit 17 into a digital signal based on the clock signal S1 supplied from the crystal oscillator 10, and supplies the converted digital signal to the segmenter 19.
  • the digital signal generated by the A / D converter 18 every clock is also referred to as “sample”.
  • One sample corresponds to data for one pixel of a polar coordinate space frame Fp described later.
  • the light receiving element 16, the current-voltage conversion circuit 17, and the A / D converter 18 are examples of the “light receiving unit” in the present invention.
  • the segmenter 19 generates, as a segment signal Sseg, a digital signal that is an output of the A / D converter 18 for 2048 sample clocks in a period corresponding to the gate width Wg in which the segment extraction signal S3 is asserted.
  • the segmentator 19 supplies the generated segment signal Sseg to the signal processing unit 2.
  • FIG. 3 shows waveforms in time series of the trigger signal S2 and the segment extraction signal S3.
  • the segment period which is a period of one cycle in which the trigger signal S2 is asserted, is set to a length of 131072 sample clocks (denoted as “smpclk” in the drawing).
  • the pulse width of the trigger signal S2 is set to a length corresponding to 64 sample clocks, and the gate width Wg is set to a length corresponding to 2048 sample clocks.
  • the segmentator 19 since the segment extraction signal S3 is asserted only for the period of the gate width Wg after the trigger signal S2 is asserted, the segmentator 19 includes 2048 A / D converters 18 for which the trigger signal S2 is being asserted. Will extract the sample output. The longer the gate width Wg, the longer the maximum distance measurement distance (range measurement limit distance) from the lidar unit 100.
  • the frequency of the segment period is about 13.73 kHz ( ⁇ 1.8 GHz / 131072), and the frame frequency of the polar space frame Fp generated by the signal processing unit 2 based on the segment signal Sseg (that is, the rotation of the scanner 14).
  • the speed is about 15.36 Hz ( ⁇ 13.73 kHz / 900) because one frame is composed of 900 segments.
  • the maximum distance measurement distance when simply calculated, is 170.55 m ( ⁇ ⁇ 2048 / 1.8 GHz ⁇ ⁇ c / 2, “c” corresponding to the distance that light travels back and forth in a time width corresponding to the gate width Wg. Is the speed of light). As will be described later, the maximum distance measurement distance is slightly shorter than 170.55 m due to the relationship of the starting point offset described later.
  • FIG. 4 is a block diagram showing a logical configuration of the signal processing unit 2.
  • the signal processing unit 2 includes a frame generation unit 21, a buffer unit 22, a frame filter 23, and an orthogonal space conversion unit 24.
  • the frame generation unit 21 generates one polar coordinate space frame Fp from the segment signal Sseg for 900 segments and stores it in the buffer unit 22. In the present embodiment, since there are 2048 samples per segment and there are 900 total segments, the frame generation unit 21 generates a 900 ⁇ 2048 image as the polar coordinate space claim Fp.
  • the polar coordinate space frame Fp is an example of “first information” and “polar coordinate space two-dimensional signal” in the present invention.
  • the frame generation unit 21 and the segmenter 19 described above are examples of the “output unit” and “generation unit” in the present invention.
  • the buffer unit 22 stores the polar coordinate space frame Fp generated by the frame generation unit 21 for at least a predetermined period.
  • the predetermined period is set to a length equal to or longer than the period in which the number of polar coordinate space frames Fp used in the frame filter 23 is accumulated in the buffer unit 22.
  • the frame filter 23 extracts a predetermined number (for example, 16 frames) of the polar coordinate space frames Fp stored in the buffer unit 22 in time series, and performs frame filtering to average them on the time axis.
  • a polar coordinate space frame Fp (also referred to as “averaged frame Fa”) is generated.
  • the frame filter 23 generates an averaged frame Fa in which noise existing in each polar space frame Fp is suppressed.
  • the frame filtering may be a process for reducing noise using a polar coordinate space frame Fp that is continuous in time series.
  • the frame filter 23 may generate an averaged frame Fa by calculating a moving average from a predetermined number of polar coordinate space frames Fp extracted from the buffer unit 22, or may be averaged by applying a primary IIR filter.
  • the frame Fa may be generated.
  • the frame filter 23 is an example of the “first information processing unit” in the present invention.
  • the orthogonal space conversion unit 24 generates an orthogonal coordinate space frame Fo obtained by converting the coordinate system of the averaged frame Fa output from the frame filter 23 from a polar coordinate system to an orthogonal coordinate system. At this time, the orthogonal space conversion unit 24 generates the orthogonal coordinate space frame Fo by specifying the pixel of the averaged frame Fa to which each pixel of the orthogonal coordinate space frame Fo corresponds. Specific examples of the method for generating the orthogonal coordinate space frame Fo and the orthogonal coordinate space frame Fo will be described later. Then, the orthogonal space conversion unit 24 supplies the generated orthogonal coordinate space frame Fo to the display control unit 3.
  • the orthogonal space transform unit 24 is an example of the “transformer” in the present invention.
  • the orthogonal coordinate space frame Fo is an example of the “second information” and the “orthogonal coordinate space two-dimensional signal” in the present invention.
  • FIG. 5A is a bird's-eye view schematically showing the periphery of the lidar unit 100
  • FIG. 5B shows the lidar unit 100 at the position shown in FIG.
  • the polar coordinate space frame Fp generated in the case of performing is shown.
  • FIG. 5A around the lidar unit 100, there are mainly buildings, automobiles, fences 1 and 2 of wire mesh, concrete walls, grasslands, people, and the like as objects.
  • FIG. 5B the higher the value of the digital signal output from the A / D converter 18 (that is, the received light intensity), the closer to white.
  • the index “k” (k 0 to 2047) of 2048 samples generated by the A / D converter 18 in the period in which is asserted.
  • the size of the index k of the sample on the horizontal axis in FIG. 5B corresponds to the distance to the object (also referred to as “target distance Ltag”).
  • the relationship between the sample index “k” and the delay time “Td” from when the trigger signal S2 is asserted until the sample corresponding to the light pulse emitted based on the trigger signal S2 is output is
  • Td k / fsmp ⁇ k ⁇ 0.55555 nsec It becomes.
  • the expression (1) can be rewritten as the following expression (2).
  • Ltag ⁇ (k ⁇ k0) / fsmp ⁇ ⁇ (c / 2) (2)
  • the coordinate space of the polar coordinate space frame Fp is a polar coordinate space having a vertical axis corresponding to the scanning angle (ie, angle) and a horizontal axis corresponding to the target distance Ltag (ie, radius).
  • One polar coordinate space frame Fp is generated and stored in the buffer unit 22.
  • FIG. 6 shows an averaged frame Fa generated by the frame filter 23 based on 16 polar coordinate space frames Fp that are continuous in time series.
  • the frame filter 23 generates an averaged frame Fa to which an averaging effect of about 16 frames is added by applying a first-order IIR filter with a coefficient of 1/16 as an example.
  • the averaged frame Fa shown in FIG. 6 and the polar coordinate space frame Fp shown in FIG. 5B are compared, the averaged frame Fa shown in FIG. 6 appears in the polar coordinate space frame Fp shown in FIG.
  • the high output portion corresponding to the noise is smoothed.
  • FIG. 7 is a display example of the orthogonal coordinate space frame Fo obtained when the polar coordinate space frame Fp shown in FIG. 5B is input to the orthogonal space conversion unit 24.
  • the orthogonal coordinate space frame Fo shown in FIG. 7 is a bitmap of 512 pixels in each of the vertical and horizontal directions, and the center pixel position is the position of the lidar unit 100.
  • the distance corresponding to one side of the orthogonal coordinate space frame Fo is the maximum distance measurement distance (ie 170.55 m) corresponding to the gate width Wg.
  • FIG. 8 shows an orthogonal coordinate space frame Fo generated by the orthogonal space conversion unit 24 from the averaged frame Fa shown in FIG.
  • the lidar unit 100 displays the orthogonal coordinate space frame Fo shown in FIG. 8 generated from the averaged frame Fa on the display 4 to determine the presence and position of the object at 360 degrees in the horizontal direction of the lidar unit 100. The user can be clearly recognized in a state where noise is reduced.
  • index k of the sample is expressed as follows by regarding “Ltag” in Expression (2) as “R” and organizing the index k.
  • k k0 + R ⁇ fsmp ⁇ (2 / c) (6)
  • the orthogonal space conversion unit 24 calculates the index k of the sample most corresponding to the orthogonal coordinates (X, Y) of the orthogonal coordinate space frame Fo by referring to the expressions (3) and (6), and the expression By referring to (4) and (5), the index s of the segment most corresponding to the orthogonal coordinate (X, Y) of the orthogonal coordinate space frame Fo is calculated. Since the values of s and k obtained by referring to equations (3) to (6) are real values, the orthogonal space transform unit 24 rounds off the values of s and k to integers. . Thereby, the pixel of the averaging frame Fa or the polar coordinate space frame Fp corresponding to each pixel of the orthogonal coordinate space frame Fo is specified.
  • the display control unit 3 that has received the orthogonal coordinate space frame Fo from the orthogonal space conversion unit 24 converts the value of each pixel of the orthogonal coordinate space frame Fo into luminance with a gray scale map of an appropriate scale and displays it. At this time, the display control unit 3 may display the orthogonal coordinate space frame Fo on the display 4 by color-coding based on the pixel value.
  • a line along the movement trajectory is formed for the object moving relative to the lidar unit 100.
  • the bicycle see FIG. 5A
  • the bicycle is moving while the rider unit 100 is stationary.
  • the bicycle is displayed with its tail pulled. Even in this case, there is an advantage that the moving object is conspicuous and the moving direction of the moving object can be grasped appropriately.
  • FIG. 9C is an enlarged view of the peak portion of the waveform shown in FIG.
  • the target is detected and measured by calculating the target distance Ltag corresponding to the peak position of the output waveform for each segment.
  • the target distance Ltag corresponding to the peak position of the output waveform for each segment.
  • the SN is maximized by applying a matched filter or the like before the peak position is detected, or the sample index corresponding to the peak position is specified as a real value by interpolation processing.
  • the location corresponding to the mark 71 is the peak position.
  • the wire mesh fence 1 exists at this position.
  • the location corresponding to the mark 72 forms a local peak in the waveform shown in FIG. However, it is smaller than the peak due to the noise indicated by the frame 74.
  • the wire mesh fence 2 exists at this position.
  • the portion corresponding to the mark 73 does not form a peak in the waveform shown in FIG.
  • a concrete wall exists at this position.
  • FIG. 11 is a diagram in which a point cloud of an object detected by a typical lidar is plotted in an orthogonal coordinate system.
  • the position corresponding to the most prominent peak is plotted with respect to the output waveform of each segment.
  • a lidar product is generally provided with a mechanism for selectively detecting only peaks having a predetermined threshold value or more.
  • a threshold value it becomes more difficult to detect a point cloud of an object having a low reflectivity with respect to emitted light.
  • the lidar unit 100 generates the polar coordinate space frame Fp from the received waveform of each segment before being converted into the point cloud information, and then displays the orthogonal coordinate space frame Fo generated by the coordinate conversion. 4 is displayed. Thereby, it is possible to appropriately visualize an object that could not be detected when converted into point cloud information as in the prior art. Further, the lidar unit 100 can display noise in the orthogonal coordinate space frame Fo that is obtained by averaging the polar coordinate space frame Fp in the time direction, thereby reducing noise and improving visibility.
  • FIG. 12 shows a schematic configuration of the signal processing unit 2 according to this modification.
  • the orthogonal space conversion unit 24 when the vehicle is traveling, the orthogonal space conversion unit 24 generates an orthogonal coordinate space frame Fo based on the polar coordinate space frame Fp generated by the frame generation unit 21.
  • the orthogonal space conversion unit 24 immediately extracts the polar coordinate space frame Fp temporarily stored in the buffer unit 22 by the frame generation unit 21 from the buffer unit 22 and generates the orthogonal coordinate space frame Fo. May be.
  • the orthogonal space conversion unit 24 when the vehicle is stopped, the orthogonal space conversion unit 24 generates the orthogonal coordinate space frame Fo based on the averaged frame Fa output from the frame filter 23 as in the embodiment.
  • the signal processing unit 2 may determine whether or not the vehicle is stopped based on outputs from an acceleration sensor or a distance sensor (not shown), and receives vehicle speed information from the vehicle based on a protocol such as CAN (Controller Area Network). You may determine by doing.
  • CAN Controller Area Network
  • the rider unit 100 does not use the averaging frame Fa when the vehicle is traveling.
  • the lidar unit 100 can suppress suitably displaying on the orthogonal coordinate space frame Fo in the state in which the target object pulled the tail.
  • the lidar unit 100 determines the number of polar coordinate space frames Fp used for generating the orthogonal coordinate space frame Fo (that is, the depth of the filter) according to the moving speed of the vehicle, in other words, the polar coordinate space frame Fp.
  • a time width for performing averaging may be determined.
  • the rider unit 100 may acquire the vehicle speed information from a sensor (not shown) or from the vehicle.
  • the line of the moving locus appearing in the orthogonal coordinate space frame Fo tends to be longer.
  • the relative speed between the lidar unit 100 and the object increases, the movement width of the object between the polar coordinate space frames Fp that are continuous on the time axis becomes longer. Therefore, the line of the movement locus that appears in the orthogonal coordinate space frame Fo Tend to be longer.
  • the frame filter 23 refers to a predetermined map or the like, and decreases the number of polar coordinate space frames Fp used for generating the orthogonal coordinate space frame Fo as the vehicle speed increases.
  • the above-described map is a map of the vehicle speed and parameters for determining the number of polar coordinate space frames Fp used for generating the orthogonal coordinate space frame Fo, and is generated in advance based on, for example, experiments. Thereby, the fall of the visibility resulting from the line of the movement locus
  • the frame generation unit 21 may suppress noise by performing matched filtering on the received waveform indicated by the segment signal Sseg received from the core unit 1.
  • the orthogonal space conversion unit 24 converts the polar coordinate space frame Fp noise-suppressed by the matched filtering or the average frame Fa obtained by averaging the polar coordinate space frame Fp on the time axis into the orthogonal coordinate system, thereby converting the orthogonal coordinate system.
  • a spatial frame Fo is generated.
  • the lidar unit 100 can display an image from which noise has been suitably deleted on the display 4.
  • the configuration of the rider unit 100 is not limited to the configuration shown in FIG.
  • the rider unit 100 may not include the display control unit 3 and the display 4.
  • the lidar unit 100 detects a specific object by performing a known image recognition process on the orthogonal coordinate space frame Fo generated by the signal processing unit 2, and illustrates the presence of the object. You may alert
  • the lidar unit 100 stores the orthogonal coordinate space frame Fo generated by the signal processing unit 2 in a storage unit (not shown) together with current position information of the lidar unit 100 output by a GPS receiver (not shown) or the like. May be.
  • the lidar unit 100 may generate the orthogonal coordinate space frame Fo for each layer by repeating the scanning in the horizontal direction by the scanner 14 for a plurality of columns (layers) in the vertical direction.
  • Modification 4 The configuration of the core unit 1 shown in FIG. 2 is an example, and the configuration to which the present invention can be applied is not limited to the configuration shown in FIG.
  • the laser diode 13 and the motor control unit 15 may be configured to rotate together with the scanner 14.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

ライダユニット100は、点群情報に変換する前の各セグメントのセグメント信号Ssegから極座標空間フレームFpを生成する。そして、ライダユニット100は、時間方向に極座標空間フレームFpを平均化した平均化フレームFaを生成し、当該平均化フレームFaを直座標空間に座標変換した直交座標空間フレームFoを、ディスプレイ4に表示させる。

Description

情報処理装置、制御方法、プログラム及び記憶媒体
 本発明は、測距技術に関する。
 従来から、周辺に存在する物体との距離を測定する技術が知られている。例えば、特許文献1には、レーザ光を間欠的に発光させつつ水平方向を走査し、その反射光を受信することで、物体表面の点群を検出するライダが開示されている。
特開2014-106854号公報
 従来のライダでは、水平方向での照射方向ごとに受信パルスのピーク位置を検出し、ピーク位置までの遅延時間に基づき測距を行うのが一般的であるが、受信パルスのピークが雑音に比べて低い又は同程度の場合には、ピーク位置を適切に検出することができないため、遠方の物体等については、対応する点群を検出できないという問題がある。
 本発明は、上記のような課題を解決するためになされたものであり、測定範囲内に存在する物体に対する測距結果を好適に出力することが可能な情報処理装置を提供することを主な目的とする。
 請求項に記載の発明は、情報処理装置であって、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部と、を備えることを特徴とする。
 また、請求項に記載の発明は、情報処理装置であって、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する受光信号に基づいて、極座標空間2次元信号を生成する生成部と、前記極座標空間2次元信号を直交座標空間2次元信号に変換する変換部と、を備えることを特徴とする。
 また、請求項に記載の発明は、情報処理装置であって、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する受光信号に基づいて、照射方向と、照射位置に関する基準位置から当該照射方向における距離と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部と、を備えることを特徴とする。
 また、請求項に記載の発明は、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置が実行する制御方法であって、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力工程を有することを特徴とする。
 また、請求項に記載の発明は、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置を制御するコンピュータが実行するプログラムであって、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部として前記コンピュータを機能させることを特徴とする。
ライダユニットの概略構成である。 コア部のブロック構成を示す。 トリガ信号及びセグメント抽出信号の波形を示す。 信号処理部のブロック構成を示す。 (A)ライダユニットの周辺を模式的に描いた俯瞰図である。(B)(A)に対応する極座標空間フレームである。 16個の極座標空間フレームを平均化した平均化フレームである。 極座標空間フレームから生成した直交座標空間フレームである。 平均化フレームから生成した直交座標空間フレームである。 インデックス「s=250」のセグメントでの受光強度を示す。 インデックス「s=0」のセグメントでの受光強度を示す。 典型的なライダにより検出した対象物の点群を直交座標系にプロットした図である。 変形例に係る信号処理部のブロック構成を示す。
 本発明の好適な実施形態によれば、情報処理装置は、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部と、を備える。
 上記情報処理装置は、照射部と、受光部と、出力部とを有する。照射部は、照射方向を変えながらレーザ光を照射する。受光部は、対象物にて反射されたレーザ光を受光する。「対象物」は、レーザ光が到達する範囲に存在する物体を指す。出力部は、受光部が出力する受光信号に基づいて、第1情報を生成して出力する。ここで、第1情報は、照射方向と、反射光の応答遅延時間と、におけるレーザ光の受光強度を示す。また、換言すれば、第1情報は、照射方向と、照射位置に関する基準位置からの当該照射方向における距離と、におけるレーザ光の受光強度を示す。ここで、出力部は、第1情報をディスプレイに出力して表示させてもよく、他の処理部へ第1情報を出力してもよい。この態様により、情報処理装置は、対象物の存在を表す第1情報を好適に出力することができる。
 上記情報処理装置の一態様では、前記第1情報を、照射平面に対応する直交座標系(直交する2つの軸で表わされた座標)における受光強度を示す第2情報に変換する変換部を更に備える。これにより、情報処理装置は、例えば、直感的にユーザが対象物を把握しやすいように第1情報を座標変換して出力することができる。
 上記情報処理装置の他の一態様では、情報処理装置は、前記出力部が所定時間幅にわたり生成した複数の第1情報に基づき、時間軸上でフィルタリング(例えば、平均化)された第1情報を出力する第1情報処理部をさらに備え、前記変換部は、前記時間軸上でフィルタリングされた第1情報を、前記第2情報に変換する。この態様により、情報処理装置は、雑音による影響が好適に低減された第2情報を生成することができる。
 上記情報処理装置の他の一態様では、前記情報処理装置は移動体と共に移動し、前記変換部は、前記移動体が停止している場合、前記時間軸上でフィルタリングされた第1情報を前記第2情報に変換し、前記移動体が移動中の場合、前記第1情報処理部によるフィルタリングが行われていない第1情報を前記第2情報に変換する。時間軸上でフィルタリングを行う場合、情報処理装置に対する対象物の相対位置が変化すると、当該位置変化の影響が第2情報に現れることになる。以上を勘案し、上記の情報処理装置は、移動体が停止中の場合にのみ時間軸での第1情報のフィルタリングを行うことで、対象物の的確な位置を表す第2情報を好適に生成することができる。
 上記情報処理装置の他の一態様では、前記情報処理装置は移動体と共に移動し、前記第1情報処理部は、前記フィルタリングの帯域幅を、前記移動体の移動速度に応じて変化させる。この態様により、例えば、移動体が高速移動している場合には、移動体と対象物との相対位置の変化が大きいとみなし、フィルタリングの帯域幅を短くする等の処理を行うことで、対象物の相対位置変化による影響を低減することができる。
 上記情報処理装置の他の一態様では、前記変換部は、マッチドフィルタリングが適用された第1情報を、前記第2情報に変換する。この態様により、変換部は、雑音を好適に低減した第2情報を生成することができる。
 上記情報処理装置の他の一態様では、前記第2情報は、水平面と平行な2次元空間の受光強度を示し、情報処理装置は、前記第2情報に基づく画像を表示部に表示させる表示制御部をさらに備える。この態様により、情報処理装置は、周辺に存在する対象物の存在を好適にユーザに視認させることができる。
 本発明の他の好適な実施形態によれば、情報処理装置は、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、前記受光部が出力する前記照射方向ごとの受光信号に基づいて、極座標空間2次元信号を生成する生成部と、前記極座標空間2次元信号を直交座標空間2次元信号に変換する変換部と、を備える。極座標空間2次元信号は、受光部が生成した照射方向ごとの受光信号を統合した2次元信号であり、例えば照射方向を表す角度と、レーザ光を出射してから反射光を受光するまでの遅延時間(即ち情報処理装置からの距離)とを座標軸とし、受光強度をピクセル値とする画像信号である。また、直交座標空間は、例えば、レーザ光の走査面(照射平面)に対応する2次元空間を指す。このように、情報処理装置は、受光部が出力する照射方向ごとの受光信号に基づいて極座標空間2次元信号を生成し、直交座標空間2次元信号に変換することで、受光信号が有する有用な情報を失うことなく対象物の存在を好適に可視化することができる。
 本発明の他の好適な実施形態によれば、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置が実行する制御方法であって、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力工程を有する。
 本発明の他の好適な実施形態によれば、照射方向を変えながらレーザ光を照射する照射部と、対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置を制御するコンピュータが実行するプログラムであって、前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部として前記コンピュータを機能させる。好適には、上記プログラムは、記憶媒体に記憶される。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [全体構成]
 図1は、本実施例に係るライダユニット100のブロック構成図である。図1に示すライダユニット100は、TOF(Time Of Flight)方式のライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)であって、水平方向の全方位における物体の測距を行い、測距結果を画像として表示する。ライダユニット100は、例えば、先進運転支援システムの一部として、車両の周辺環境認識補助の目的で用いられる。ライダユニット100は、主に、コア部1と、信号処理部2と、表示制御部3と、ディスプレイ4とを有する。
 コア部1は、出射方向を徐変させながら水平方向の360°の全方位を対象にパルスレーザを出射する。このとき、コア部1は、水平方向の360°の全方位を等角度により区切ったセグメント(本実施例では900セグメント)ごとにパルスレーザを出射する。そして、コア部1は、パルスレーザ出射後の所定期間内に当該パルスレーザの反射光を受光することで生成したセグメントごとの受光強度に関する信号(「セグメント信号Sseg」とも呼ぶ。)を、信号処理部2へ出力する。
 信号処理部2は、コア部1から受信したセグメントごとのセグメント信号Ssegを統合することで、水平方向の360°の全方位における各セグメントとライダユニット100からの距離との関係を表す極座標空間の2次元画像(「極座標空間フレームFp」とも呼ぶ。)を生成する。そして、信号処理部2は、極座標空間フレームFpに基づき、パルスレーザの走査面(照射平面)を基準とした直交座標空間の2次元画像(「直交座標空間フレームFo」とも呼ぶ。)を生成し、表示制御部3へ出力する。表示制御部3は、信号処理部2から受信した直交座標空間フレームFoに基づく画像をディスプレイ4に表示させる。
 [コア部の構成]
 図2は、コア部1の概略的な構成例を示す。図2に示すように、コア部1は、主に、水晶発振器10と、同期制御部11と、LDドライバ12と、レーザダイオード13と、スキャナ14と、モータ制御部15と、受光素子16と、電流電圧変換回路(トランスインピーダンスアンプ)17と、A/Dコンバータ18と、セグメンテータ19とを有する。
 水晶発振器10は、同期制御部11及びA/Dコンバータ18にパルス状のクロック信号「S1」を出力する。本実施例では、一例として、クロック周波数は、1.8GHzであるものとする。また、以後では、クロック信号S1が示すクロックを「サンプルクロック」とも呼ぶ。
 同期制御部11は、パルス状の信号(「トリガ信号S2」とも呼ぶ。)をLDドライバ12に出力する。本実施例では、トリガ信号S2は、131072(=217)サンプルクロック分の周期で周期的にアサートされる。以後では、トリガ信号S2がアサートされてから次にアサートされるまでの期間を「セグメント期間」とも呼ぶ。また、同期制御部11は、後述するセグメンテータ19がA/Dコンバータ18の出力を抽出するタイミングを定める信号(「セグメント抽出信号S3」とも呼ぶ。)をセグメンテータ19に出力する。トリガ信号S2及びセグメント抽出信号S3は、論理信号であり、後述する図3に示すように同期している。本実施例では、同期制御部11は、セグメント抽出信号S3を、2048サンプルクロック分の時間幅(「ゲート幅Wg」とも呼ぶ。)だけアサートする。
 LDドライバ12は、同期制御部11から入力されるトリガ信号S2に同期してパルス電流をレーザダイオード13へ流す。レーザダイオード13は、例えば赤外(905nm)パルスレーザであって、LDドライバ12から供給されるパルス電流に基づき光パルスを出射する。本実施例では、レーザダイオード13は、5nsec程度の光パルスを出射する。
 スキャナ14は、送出及び受信光学系の構成を含み、レーザダイオード13が出射する光パルスを水平面で360°走査すると共に、出射された光パルスが照射された物体(「対象物」とも呼ぶ。)で反射された戻り光を受光素子16に導く。本実施例では、スキャナ14は、回転するためのモータを含み、モータは、900セグメントで一回転するように、モータ制御部15により制御される。この場合の角度分解能は、1セグメントあたり0.4°(=360°/900)となる。LDドライバ12及びスキャナ14は、本発明における「照射部」の一例である。
 好適には、スキャナ14のスキャン面は、傘状ではなく平面であることが望ましく、かつ、ライダユニット100が移動体に搭載される場合には、移動体が走行する地表に対して平行(即ち水平)であることが望ましい。これにより、後述する時系列で連続して生成される極座標空間フレームFp間の相関が高くなり、より高精度な周辺環境の表示を行うことができる。
 受光素子16は、例えば、アバランシェフォトダイオードであり、スキャナ14により導かれた対象物からの反射光の光量に応じた微弱電流を生成する。受光素子16は、生成した微弱電流を、電流電圧変換回路17へ供給する。電流電圧変換回路17は、受光素子16から供給された微弱電流を増幅して電圧信号に変換し、変換した電圧信号をA/Dコンバータ18へ入力する。
 A/Dコンバータ18は、水晶発振器10から供給されるクロック信号S1に基づき、電流電圧変換回路17から供給される電圧信号をデジタル信号に変換し、変換したデジタル信号をセグメンテータ19に供給する。以後では、A/Dコンバータ18が1クロックごとに生成するデジタル信号を「サンプル」とも呼ぶ。1サンプルは、後述する極座標空間フレームFpの1ピクセル分のデータに相当する。受光素子16、電流電圧変換回路17及びA/Dコンバータ18は、本発明における「受光部」の一例である。
 セグメンテータ19は、セグメント抽出信号S3がアサートされているゲート幅Wg分の期間における2048サンプルクロック分のA/Dコンバータ18の出力であるデジタル信号を、セグメント信号Ssegとして生成する。セグメンテータ19は、生成したセグメント信号Ssegを信号処理部2へ供給する。
 図3は、トリガ信号S2及びセグメント抽出信号S3の時系列での波形を示す。図3に示すように、本実施例では、トリガ信号S2がアサートされる1周期分の期間であるセグメント期間は、131072サンプルクロック(図面では「smpclk」と表記)分の長さに設定され、トリガ信号S2のパルス幅は64サンプルクロック分の長さ、ゲート幅Wgは2048サンプルクロック分の長さに設定されている。
 この場合、トリガ信号S2がアサートされた後のゲート幅Wgの期間だけセグメント抽出信号S3がアサートされているため、セグメンテータ19は、トリガ信号S2がアサート中の2048個分のA/Dコンバータ18が出力するサンプルを抽出することになる。そして、ゲート幅Wgが長いほど、ライダユニット100からの最大測距距離(測距限界距離)が長くなる。
 本実施例では、セグメント期間の周波数は、約13.73kHz(≒1.8GHz/131072)となり、信号処理部2がセグメント信号Ssegに基づき生成する極座標空間フレームFpのフレーム周波数(即ちスキャナ14の回転速度)は、1フレームが900セグメントで構成されることから、約15.36Hz(≒13.73kHz/900)となる。また、最大測距距離は、単純計算した場合、ゲート幅Wgに相当する時間幅で光が往復する距離に相当する170.55m(≒{2048/1.8GHz}・c/2、「c」は光速)となる。後述するように、最大測距距離は、後述する始点オフセットの関係により170.55mよりも若干短くなる。
 [信号処理部の構成]
 図4は、信号処理部2の論理的な構成を示すブロック図である。図4に示すように、信号処理部2は、フレーム生成部21と、バッファ部22と、フレームフィルタ23と、直交空間変換部24と、を有する。
 フレーム生成部21は、900セグメント分のセグメント信号Ssegから1つの極座標空間フレームFpを生成し、バッファ部22に記憶させる。本実施例では、1セグメントにつき2048個分のサンプルが存在し、全セグメントは900個存在することから、フレーム生成部21は、極座標空間クレームFpとして、900×2048の画像を生成する。極座標空間フレームFpは、本発明における「第1情報」及び「極座標空間2次元信号」の一例である。また、フレーム生成部21及び前述のセグメンテータ19は、本発明における「出力部」及び「生成部」の一例である。
 バッファ部22は、フレーム生成部21が生成した極座標空間フレームFpを少なくとも所定期間記憶する。上述の所定期間は、フレームフィルタ23で用いられる個数分の極座標空間フレームFpがバッファ部22に蓄積される期間以上の長さに設定される。
 フレームフィルタ23は、バッファ部22に蓄積された時系列で連続する所定個数分(例えば16フレーム分)の極座標空間フレームFpを抽出し、フレームフィルタリングを行うことで、時間軸上で平均化された極座標空間フレームFp(「平均化フレームFa」とも呼ぶ。)を生成する。これにより、フレームフィルタ23は、各極座標空間フレームFpに存在する雑音が抑圧された平均化フレームFaを生成する。ここで、フレームフィルタリングは、時系列で連続する極座標空間フレームFpを用いて雑音を低減する処理であればよい。例えば、フレームフィルタ23は、バッファ部22から抽出した所定個数分の極座標空間フレームFpから移動平均を算出することにより平均化フレームFaを生成してもよく、一次IIRフィルタを適用することにより平均化フレームFaを生成してもよい。フレームフィルタ23は、本発明における「第1情報処理部」の一例である。
 直交空間変換部24は、フレームフィルタ23が出力する平均化フレームFaの座標系を極座標系から直交座標系に変換した直交座標空間フレームFoを生成する。このとき、直交空間変換部24は、直交座標空間フレームFoの各ピクセルが対応する平均化フレームFaのピクセルを特定することで、直交座標空間フレームFoを生成する。直交座標空間フレームFo及び直交座標空間フレームFoの生成方法の具体例については、後述する。そして、直交空間変換部24は、生成した直交座標空間フレームFoを表示制御部3へ供給する。直交空間変換部24は、本発明における「変換部」の一例である。直交座標空間フレームFoは、本発明における「第2情報」及び「直交座標空間2次元信号」の一例である。
 [具体例]
 次に、図5~図8を参照して信号処理部2が実行する処理の具体例について説明する。
 (1)極座標空間フレーム
 図5(A)は、ライダユニット100の周辺を模式的に描いた俯瞰図であり、図5(B)は、図5(A)に示す位置にライダユニット100が存在する場合に生成された極座標空間フレームFpを示す。図5(A)に示すように、ライダユニット100の周辺には、対象物として、主に、ビル、自動車、金網のフェンス1及び2、コンクリート壁、草むら、人などが存在する。また、図5(B)では、A/Dコンバータ18が出力するデジタル信号の値(即ち受光強度)が高いほど白に近くなる。
 ここで、図5(B)に示す極座標空間フレームFpの縦軸は、スキャナ14の走査角度に相当するセグメントのインデックス「s」(s=0~899)を示し、横軸はセグメント抽出信号S3がアサートされる期間においてA/Dコンバータ18が生成する2048個分のサンプルのインデックス「k」(k=0~2047)を示す。なお、セグメントのインデックス「s=0」は、スキャナ14の走査角度0°(図5(A)の矢印80が示す方向)に相当し、セグメントのインデックス「s=450」は、スキャナ14の走査角度180°に相当する。
 ここで、図5(B)の横軸のサンプルのインデックスkの大きさは、対象物までの距離(「ターゲット距離Ltag」とも呼ぶ。)に対応する。具体的には、サンプルのインデックス「k」と、トリガ信号S2がアサートされてから当該トリガ信号S2に基づき出射された光パルスに相当するサンプルが出力されるまでの遅延時間「Td」の関係は、クロック周波数を「fsmp」(=1.8GHz)とすると、後述する電気的及び光学的遅れ等を考慮しない場合、
       Td=k/fsmp≒k×0.55555nsec
となる。この場合、ターゲット距離Ltagと遅延時間Tdとの関係は、後述する遅れ等を考慮しない場合、
       Ltag=Td・(c/2)=(k/fsmp)・(c/2)  (1)
となる。
 なお、実際には、同期制御部11からLDドライバ12へトリガ信号S2を送出してからスキャナ14が光を出射するまでの送出ルート、及び、スキャナ14に戻り光が入射してからA/Dコンバータ18によりデジタル信号に変換されるまでの受信ルートのそれぞれに電気的及び光学的な遅れが存在する。そして、図5(B)の例では、サンプルのインデックス「k=270」が、ターゲット距離Ltagが0の地点(即ち、距離始点)に相当している。従って、サンプルのインデックスkからターゲット距離Ltagを算出するには、インデックスkに対してオフセット(「始点オフセットk0」とも呼ぶ。)を設け、始点オフセットk0の分(即ち270)だけインデックスkを減算する必要がある。始点オフセットk0を考慮した場合、式(1)は、以下の式(2)に書き換えられる。
       Ltag={(k-k0)/fsmp}・(c/2)  (2)
 ここで、図5(B)に示すサンプルのインデックス「k=270」直前の高い出力を示す縦縞70は、迷光が受光素子16に照射されることにより発生した高出力部分である。なお、レーザダイオード13から出射された光パルスの一部は、直接又はコア部1内の内部反射によって、迷光として受光素子16に入射する。
 このように、極座標空間フレームFpの座標空間は、走査角度(即ち角度)に相当する縦軸と、ターゲット距離Ltag(即ち半径)に相当する横軸とを有する極座標空間となっている。フレーム生成部21は、インデックス「k=0」から「k=899」までの900個分のセグメントに対応するセグメント信号Ssegをコア部1のセグメンテータ19から受信した場合に、これらを統合して1つの極座標空間フレームFpを生成し、バッファ部22に蓄積する。
 図6は、時系列で連続する16個の極座標空間フレームFpに基づきフレームフィルタ23が生成した平均化フレームFaを示す。この例では、フレームフィルタ23は、一例として、係数1/16の一次IIRフィルタを適用することで、ほぼ16フレーム程度の平均化効果が付加された平均化フレームFaを生成している。図6に示す平均化フレームFaと図5(B)に示す極座標空間フレームFpとを比較した場合、図6に示す平均化フレームFaでは、図5(B)の極座標空間フレームFpで現れていた雑音に相当する高出力部分が平滑化されている。
 図7は、仮に図5(B)に示す極座標空間フレームFpを直交空間変換部24に入力した場合に得られる直交座標空間フレームFoの表示例である。図7に示す直交座標空間フレームFoは、縦横各512ピクセルのビットマップであり、中心のピクセル位置をライダユニット100の位置としている。また、図7の例では、直交座標空間フレームFoの一辺に相当する距離が、ゲート幅Wgに相当する最大測距距離(即ち170.55m)となっている。
 図7の例では、時系列での平均化が行われていない極座標空間フレームFpを直交座標空間フレームFoに変換している。この場合であっても、フェンス1及びフェンス2の奥に存在するコンクリート壁を視認することが可能である。[作用効果の補足説明]のセクションで説明するように、従来の対象物の点群を検出するライダでは、コンクリート壁を検出することができない。よって、図7の例のように、極座標空間フレームFpをそのまま直交座標空間フレームFoに変換して表示した場合であっても、従来のライダと比較した場合の有利な効果が存在する。
 図8は、図6に示す平均化フレームFaから直交空間変換部24が生成した直交座標空間フレームFoを示す。
 図8の例では、極座標空間フレームFpの平均化により雑音が低減されているため、図5(A)に示すコンクリート壁、フェンス1及び2、ビル、自転車などの存在がより明確に示されている。よって、ライダユニット100は、平均化フレームFaから生成した図8に示す直交座標空間フレームFoをディスプレイ4に表示することで、ライダユニット100の水平方向の360度における対象物の存在及び位置を、雑音を低減した状態で明確にユーザに認識させることができる。
 ここで、平均化フレームFa又は極座標空間フレームFpから直交座標空間フレームFoへの変換方法の具体例について説明する。
 この場合、まず、直交空間変換部24は、直交座標空間フレームFoに対応する各ピクセルについて、当該ピクセルが対応する極座標を算出する。具体的には、極座標を「(R、θ)」、直交座標空間フレームFoの各ピクセルに対応する座標を「(X、Y)」とすると、「R」及び「θ」は、一般的な座標変換の公式に基づき、以下のように表される。
       R=√(X・X+Y・Y)    (3)
       θ=atan(X,Y)  (4)
 また、セグメントのインデックスsは、以下のように表される。
       s=(θ/2π)・900 (5)
 さらに、サンプルのインデックスkは、式(2)の「Ltag」を「R」とみなし、インデックスkについて整理することで、以下のように表される。
       k=k0+R・fsmp・(2/c) (6)
 従って、直交空間変換部24は、式(3)、(6)を参照することで、直交座標空間フレームFoの直交座標(X、Y)に最も対応するサンプルのインデックスkを算出すると共に、式(4)、(5)を参照することで、直交座標空間フレームFoの直交座標(X、Y)に最も対応するセグメントのインデックスsを算出する。なお、式(3)~(6)を参照して得られるs及びkの値は実数値となるため、直交空間変換部24は、四捨五入等を行うことによりs及びkの値を整数にする。これにより、直交座標空間フレームFoの各ピクセルに対応する平均化フレームFa又は極座標空間フレームFpのピクセルが特定される。その後、直交空間変換部24から直交座標空間フレームFoを受信した表示制御部3は、直交座標空間フレームFoの各ピクセルの値を、適切なスケールのグレースケールマップで輝度に変換し表示する。このとき、表示制御部3は、ピクセルの値に基づき色分けして直交座標空間フレームFoをディスプレイ4に表示させてもよい。
 なお、平均化フレームFaから生成した直交座標空間フレームFoを用いた場合、ライダユニット100に対して相対的に移動している対象物については、その移動軌跡に沿った線が形成される。例えば、図8の例では、ライダユニット100が静止しているのに対して自転車(図5(A)参照)が移動している。その結果、図8では、自転車が尾を引いた状態で表示されている。この場合であっても、移動物体を目立たせると共に、移動物体の移動方向を好適に把握させることができるといった利点がある。
 [作用効果の補足説明]
 次に、本実施例のライダユニット100を従来のライダと比較した場合の有利な作用効果について図9~図11を参照して補足説明する。
 図9(A)は、図5(B)に示す極座標空間フレームFpに対して、インデックス「s=250」のセグメントでの高出力部分を逆三角形のマークにより指し示した図である。図9(B)は、インデックス「s=250」のセグメントに対応するセグメント信号Ssegの波形を示す。図9(C)は、図9(B)に示す波形のピーク部分を拡大した図である。
 図9(B)、(C)に示すように、図9(A)の逆三角形のマークにより指し示されたサンプルインデックス「k=501」部分に、波形のピークが存在することがわかる。ここで、ピークとなるサンプルインデックス「k=501」と始点オフセット「k0=270」との差分(即ち231)を上述の式(2)に代入することで、ピーク位置に対応するターゲット距離Ltag(約19.237m)が算出される。
 このように、一般的なライダでは、セグメントごとの出力波形のピーク位置に対応するターゲット距離Ltagを算出することで、対象物の検出及び測距を行う。この場合、インデックス「s=250」のセグメントでは、対象物からの戻り光に対応する出力パルスが明確に存在するため、対象物の検出及び測距を的確に実行することが可能である。なお、ライダの種別によっては、ピーク位置を検出する前にマッチドフィルタ等を適用してSNの最大化を行ったり、ピーク位置に対応するサンプルインデックスを補間処理により実数値として特定したりする。
 図10(A)は、図5(B)に示す極座標空間フレームFpに対して、インデックス「s=0」のセグメント付近における高出力の3つの放物線の位置をマーク71~73により指し示した図である。図10(B)は、インデックス「s=0」のセグメントに対応するセグメント信号Ssegの波形を示す。
 図10(B)に示す波形では、マーク71に対応する箇所がピーク位置となっている。図5(A)に示す実空間では、この位置に金網のフェンス1が存在する。一方、マーク72に対応する箇所は、図10(B)に示す波形において局所的なピークを形成している。しかし、枠74が示す雑音に起因したピークよりも小さくなっている。図5(A)に示す実空間では、この位置に金網のフェンス2が存在する。さらに、マーク73に対応する箇所は、図10(B)に示す波形においてピークを形成していない。図5(A)に示す実空間では、この位置にコンクリート壁が存在する。
 このように、インデックス「s=0」のセグメントの波形では、マーク72に対応するフェンス2やマーク73に対応するコンクリート壁の存在を検知することができない。一方、図5(B)に示す極座標空間フレームFpでは、隣接するセグメントの出力と並べられて表示されるため、インデックス「s=0」のセグメントの波形では顕著になっていないフェンス2やコンクリート壁に対応する高出力の放物線が顕現している。
 図11は、典型的なライダにより検出した対象物の点群を直交座標系にプロットした図である。図11の例では、各セグメントの出力波形に対して最も顕著なピークに対応する位置がプロットされている。
 図11の例では、フェンス1及び2の奥に存在するコンクリート壁が全く検出されていない。さらに、図11では、実際に物体がないポイントにもプロットが打たれている。これは、セグメントごとに必ず1つのピークを検出し、当該ピークに対応する位置にプロットを行っていることに起因する。なお、このような偽点の表示を抑制するため、所定の閾値以上のピークのみを選択的に検出する仕組みが備わっているライダ製品が一般的である。しかし、このような閾値を設けた場合、出射光に対する反射率が低い性質を持つ物体の点群検出がさらに困難になる。このように、各セグメントの受信波形からピーク位置に対応する点群の情報を出力する従来のライダの仕様では、比較的遠方にある物体に関する情報が削ぎ落されてしまうという問題がある。
 以上を勘案し、本実施例に係るライダユニット100は、点群情報に変換する前の各セグメントの受信波形から極座標空間フレームFpを生成した後、座標変換により生成した直交座標空間フレームFoをディスプレイ4に表示させる。これにより、従来のように点群情報に変換した場合では検出不可能であった物体についても好適に可視化することができる。また、ライダユニット100は、時間方向に極座標空間フレームFpを平均化した直交座標空間フレームFoを表示対象とすることで、雑音を好適に低減して視認性を向上させることができる。
 [変形例]
 次に、実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
 (変形例1)
 ライダユニット100が車両に搭載される場合、車両の走行時では、ライダユニット100の周辺の物体がライダユニット100に対して相対的に移動する。この場合、極座標空間フレームFpを時間軸で平均化した平均化フレームFaに基づき直交座標空間フレームFoが生成されていることから、移動軌跡に沿った線が直交座標空間フレームFo上に表示されることになる。これを防ぐため、ライダユニット100は、ライダユニット100が載せられた車両が停止中か否か判定し、車両が停止中であると判断した場合にのみ、フレームフィルタ23による処理を実行してもよい。
 図12は、本変形例に係る信号処理部2の概略構成を示す。図12に示すように、車両の走行時では、直交空間変換部24は、フレーム生成部21が生成した極座標空間フレームFpに基づき直交座標空間フレームFoを生成する。なお、図12の例に代えて、直交空間変換部24は、フレーム生成部21がバッファ部22に一旦記憶した極座標空間フレームFpをバッファ部22から即時に抽出して直交座標空間フレームFoを生成してもよい。一方、車両の停車時では、直交空間変換部24は、実施例と同様、フレームフィルタ23が出力する平均化フレームFaに基づき直交座標空間フレームFoを生成する。なお、信号処理部2は、車両の停車の有無を、図示しない加速度センサや距離センサなどの出力に基づき判定してもよく、車両からCAN(Controller Area Network)などのプロトコルに基づき車速情報を受信することで判定してもよい。
 このように、ライダユニット100は、車両の走行時には、平均化フレームFaを使用しない。これにより、ライダユニット100は、対象物が尾を引いた状態で直交座標空間フレームFo上に表示されるのを好適に抑制することができる。
 また、他の例では、ライダユニット100は、車両の移動速度に応じ、直交座標空間フレームFoの生成に用いる極座標空間フレームFpの枚数(即ちフィルタの深さ)、言い換えると、極座標空間フレームFpの平均化を行う時間幅を決定してもよい。この場合、ライダユニット100は、車速情報を、図示しないセンサから取得してもよく、車両から取得してもよい。
 一般に、直交座標空間フレームFoの生成に用いる極座標空間フレームFpの枚数が多く、極座標空間フレームFpの平均化を行う時間幅が長いほど、直交座標空間フレームFoに現れる移動軌跡の線が長くなる傾向がある。同様に、ライダユニット100と対象物との相対速度が速いほど、時間軸で連続する極座標空間フレームFp間での対象物の移動幅が長くなるため、直交座標空間フレームFoに現れる移動軌跡の線が長くなる傾向がある。
 以上を勘案し、フレームフィルタ23は、所定のマップ等を参照し、車両の速度が高いほど、直交座標空間フレームFoの生成に用いる極座標空間フレームFpの枚数を少なくする。上述のマップは、車両の速度と、直交座標空間フレームFoの生成に用いる極座標空間フレームFpの枚数を決定するパラメータとのマップであり、例えば実験等に基づき予め生成される。これにより、直交座標空間フレームFoに現れる移動軌跡の線が過度に長くなることに起因した視認性の低下を好適に抑制することができる。
 (変形例2)
 フレーム生成部21は、コア部1から受信したセグメント信号Ssegが示す受信波形に対してマッチドフィルタリングを行うことで、雑音を抑圧してもよい。そして、この場合、直交空間変換部24は、マッチドフィルタリングにより雑音抑圧された極座標空間フレームFp又は極座標空間フレームFpを時間軸で平均化した平均化フレームFaを直交座標系に変換することで直交座標空間フレームFoを生成する。この態様により、ライダユニット100は、好適に雑音が消去された画像を、ディスプレイ4に表示することができる。
 (変形例3)
 ライダユニット100の構成は、図1に示す構成に限定されない。例えば、ライダユニット100は、表示制御部3及びディスプレイ4を有しなくともよい。この場合、例えば、ライダユニット100は、信号処理部2が生成した直交座標空間フレームFoに対して公知の画像認識処理を行うことで、特定の対象物を検出し、当該対象物の存在を図示しない音声出力装置により報知してもよい。他の例では、ライダユニット100は、信号処理部2が生成した直交座標空間フレームFoを、図示しないGPS受信機等が出力するライダユニット100の現在位置情報等と共に、図示しない記憶部に蓄積してもよい。
 また、ライダユニット100は、スキャナ14による水平方向の走査を鉛直方向の複数列(レイヤ)について繰り返すことで、レイヤごとに直交座標空間フレームFoを生成してもよい。
 (変形例4)
 図2に示すコア部1の構成は一例であり、本発明が適用可能な構成は、図2に示す構成に限定されない。例えば、レーザダイオード13及びモータ制御部15は、スキャナ14と共に回転する構成であってもよい。
 1 コア部
 2 信号処理部
 3 表示制御部
 4 ディスプレイ
 100 ライダユニット

Claims (12)

  1.  照射方向を変えながらレーザ光を照射する照射部と、
     対象物にて反射された前記レーザ光を受光する受光部と、
     前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部と、 
    を備える情報処理装置。
  2.  前記第1情報を、照射平面に対応する直交座標系における受光強度を示す第2情報に変換する変換部を更に備える請求項1に記載の情報処理装置。
  3.  前記出力部が所定時間幅にわたり生成した複数の第1情報に基づき、時間軸上でフィルタリングされた第1情報を出力する第1情報処理部をさらに備え、
     前記変換部は、前記時間軸上でフィルタリングされた第1情報を、前記第2情報に変換する請求項2に記載の情報処理装置。
  4.  前記情報処理装置は移動体と共に移動し、
     前記変換部は、前記移動体が停止している場合、前記時間軸上でフィルタリングされた第1情報を前記第2情報に変換し、前記移動体が移動中の場合、前記第1情報処理部によるフィルタリングが行われていない第1情報を前記第2情報に変換する請求項3に記載の情報処理装置。
  5.  前記情報処理装置は移動体と共に移動し、
     前記第1情報処理部は、前記所定時間幅を、前記移動体の移動速度に応じて、前記フィルタリングの帯域幅を変化させる、請求項3に記載の情報処理装置。
  6.  前記変換部は、マッチドフィルタリングが適用された第1情報を、前記第2情報に変換する請求項2~5のいずれか一項に記載の情報処理装置。
  7.  前記第2情報は、水平面と平行な2次元空間の受光強度を示し、
     前記第2情報に基づく画像を表示部に表示させる表示制御部をさらに備える請求項2~6のいずれか一項に記載の情報処理装置。
  8.  照射方向を変えながらレーザ光を照射する照射部と、
     対象物にて反射された前記レーザ光を受光する受光部と、
     前記受光部が出力する前記照射方向ごとの受光信号に基づいて、極座標空間2次元信号を生成する生成部と、
     前記極座標空間2次元信号を直交座標空間2次元信号に変換する変換部と、
    を備える情報処理装置。
  9.  照射方向を変えながらレーザ光を照射する照射部と、
     対象物にて反射された前記レーザ光を受光する受光部と、
     前記受光部が出力する受光信号に基づいて、照射方向と、照射位置に関する基準位置から当該照射方向における距離と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部と、 
    を備える情報処理装置。
  10.  照射方向を変えながらレーザ光を照射する照射部と、
     対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置が実行する制御方法であって、
     前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力工程
    を有する制御方法。
  11.  照射方向を変えながらレーザ光を照射する照射部と、
     対象物にて反射された前記レーザ光を受光する受光部と、を有する情報処理装置を制御するコンピュータが実行するプログラムであって、
     前記受光部が出力する受光信号に基づいて、照射方向と、反射光の応答遅延時間と、における前記レーザ光の受光強度を示す第1情報を生成して出力する出力部
    として前記コンピュータを機能させるプログラム。
  12.  請求項11に記載のプログラムを記憶した記憶媒体。
PCT/JP2015/074685 2015-08-31 2015-08-31 情報処理装置、制御方法、プログラム及び記憶媒体 WO2017037834A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/756,482 US20180246192A1 (en) 2015-08-31 2015-08-31 Information processing device, control method, program, and storage medium
PCT/JP2015/074685 WO2017037834A1 (ja) 2015-08-31 2015-08-31 情報処理装置、制御方法、プログラム及び記憶媒体
CN201580082730.3A CN107923968A (zh) 2015-08-31 2015-08-31 信息处理装置、控制方法、程序以及存储介质
EP15902956.0A EP3346285A4 (en) 2015-08-31 2015-08-31 INFORMATION PROCESSING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2017537098A JPWO2017037834A1 (ja) 2015-08-31 2015-08-31 情報処理装置、制御方法、プログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/074685 WO2017037834A1 (ja) 2015-08-31 2015-08-31 情報処理装置、制御方法、プログラム及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2017037834A1 true WO2017037834A1 (ja) 2017-03-09

Family

ID=58186747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074685 WO2017037834A1 (ja) 2015-08-31 2015-08-31 情報処理装置、制御方法、プログラム及び記憶媒体

Country Status (5)

Country Link
US (1) US20180246192A1 (ja)
EP (1) EP3346285A4 (ja)
JP (1) JPWO2017037834A1 (ja)
CN (1) CN107923968A (ja)
WO (1) WO2017037834A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117053A (ja) * 2017-12-26 2019-07-18 パイオニア株式会社 表示制御装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112735163B (zh) * 2020-12-25 2022-08-02 阿波罗智联(北京)科技有限公司 确定目标物体静止状态的方法、路侧设备、云控平台

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0674981U (ja) * 1993-03-29 1994-10-21 日本電気ホームエレクトロニクス株式会社 対物距離計測装置
JP2000137076A (ja) * 1998-11-02 2000-05-16 Denso Corp 距離測定装置
JP2001183462A (ja) * 1999-12-27 2001-07-06 Honda Motor Co Ltd 物体検知装置
JP2005233716A (ja) * 2004-02-18 2005-09-02 Omron Corp レーダ装置
JP2009288055A (ja) * 2008-05-29 2009-12-10 Ishikawajima Transport Machinery Co Ltd 物体の位置情報算出方法
JP2012185039A (ja) * 2011-03-04 2012-09-27 Fujitsu Ten Ltd レーダ装置及び該レーダ装置の到来角算出方法
JP2012198730A (ja) * 2011-03-21 2012-10-18 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
JP2014106854A (ja) * 2012-11-29 2014-06-09 Toyota Infotechnology Center Co Ltd 自動運転車両制御装置および方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232381A (ja) * 2006-02-27 2007-09-13 Omron Corp レーダ装置
JP2007248146A (ja) * 2006-03-14 2007-09-27 Omron Corp レーダ装置
DE602006014263D1 (de) * 2006-07-03 2010-06-24 Trimble Ab Vermessungsinstrument und Verfahren zur Steuerung eines Vermessungsinstruments
JP5092076B2 (ja) * 2007-10-26 2012-12-05 オプテックス株式会社 レーザエリアセンサ
US9250315B2 (en) * 2009-03-04 2016-02-02 Toyota Motor Engineering & Manufacturing North America, Inc. Collision avoidance system and method
JP5267588B2 (ja) * 2010-03-26 2013-08-21 株式会社デンソー 区画線検出装置および区画線検出方法
JP5804467B2 (ja) * 2010-03-31 2015-11-04 北陽電機株式会社 信号処理装置、及び走査式測距装置
JP5620200B2 (ja) * 2010-09-06 2014-11-05 株式会社トプコン 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
AT511310B1 (de) * 2011-04-07 2013-05-15 Riegl Laser Measurement Sys Verfahren zur entfernungsmessung
JP5679907B2 (ja) * 2011-06-02 2015-03-04 三菱電機株式会社 レーザレーダ装置
US8994925B2 (en) * 2012-03-27 2015-03-31 Pulsedlight, Inc. Optical distance measurement device
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
KR102136401B1 (ko) * 2013-10-21 2020-07-21 한국전자통신연구원 다-파장 이미지 라이다 센서장치 및 이의 신호처리 방법
CN103760569B (zh) * 2013-12-31 2016-03-30 西安交通大学 一种基于激光雷达的可行驶区域检测方法
CN104569998B (zh) * 2015-01-27 2017-06-20 长春理工大学 基于激光雷达的车辆安全行驶区域的检测方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0674981U (ja) * 1993-03-29 1994-10-21 日本電気ホームエレクトロニクス株式会社 対物距離計測装置
JP2000137076A (ja) * 1998-11-02 2000-05-16 Denso Corp 距離測定装置
JP2001183462A (ja) * 1999-12-27 2001-07-06 Honda Motor Co Ltd 物体検知装置
JP2005233716A (ja) * 2004-02-18 2005-09-02 Omron Corp レーダ装置
JP2009288055A (ja) * 2008-05-29 2009-12-10 Ishikawajima Transport Machinery Co Ltd 物体の位置情報算出方法
JP2012185039A (ja) * 2011-03-04 2012-09-27 Fujitsu Ten Ltd レーダ装置及び該レーダ装置の到来角算出方法
JP2012198730A (ja) * 2011-03-21 2012-10-18 Denso Corp 車両用道路形状認識方法及び装置、記録媒体
JP2014106854A (ja) * 2012-11-29 2014-06-09 Toyota Infotechnology Center Co Ltd 自動運転車両制御装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3346285A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117053A (ja) * 2017-12-26 2019-07-18 パイオニア株式会社 表示制御装置

Also Published As

Publication number Publication date
EP3346285A4 (en) 2019-05-01
JPWO2017037834A1 (ja) 2018-07-26
CN107923968A (zh) 2018-04-17
EP3346285A1 (en) 2018-07-11
US20180246192A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US10965099B2 (en) Light control device, control method, program and storage medium
WO2017138155A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US20180281757A1 (en) Stereo Camera Device
EP4296721A2 (en) Generating 3-dimensional maps of a scene using passive and active measurements
KR101401399B1 (ko) 주차 지원 장치 및 방법과 이를 이용한 주차 지원 시스템
US10684121B2 (en) Distance-measuring apparatus which uses different calculations depending on whether the object is dynamically changing
EP3296719A1 (en) Gas concentration measurement device
JP5712900B2 (ja) 周辺物体検出装置
JP6726673B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2017141414A1 (ja) 地物データ構造、制御装置、記憶装置、制御方法、プログラム及び記憶媒体
JP2007240208A (ja) 環境認識装置
US20240159879A1 (en) Detection control method and apparatus
JP2021182009A (ja) 光制御装置、制御方法、プログラム及び記憶媒体
JP2007248146A (ja) レーダ装置
JP2005216160A (ja) 画像生成装置、侵入者監視装置及び画像生成方法
WO2017037834A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2024072823A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
KR20190078944A (ko) 철도차량용 증강현실 헤드업 디스플레이 시스템
US20210116676A1 (en) System and method
JP2023093724A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP3351696B2 (ja) 車両用距離測定装置
JP7324925B2 (ja) 光制御装置、制御方法、プログラム及び記憶媒体
JP7140229B1 (ja) 推定装置、推定方法およびプログラム
JP2013198351A (ja) 電気自動車
WO2024090040A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15902956

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017537098

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15756482

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE