WO2020145097A1 - LiDARセンサユニットおよび車両用防犯システム - Google Patents

LiDARセンサユニットおよび車両用防犯システム Download PDF

Info

Publication number
WO2020145097A1
WO2020145097A1 PCT/JP2019/050166 JP2019050166W WO2020145097A1 WO 2020145097 A1 WO2020145097 A1 WO 2020145097A1 JP 2019050166 W JP2019050166 W JP 2019050166W WO 2020145097 A1 WO2020145097 A1 WO 2020145097A1
Authority
WO
WIPO (PCT)
Prior art keywords
lidar sensor
unit
distance
measurement data
vehicle
Prior art date
Application number
PCT/JP2019/050166
Other languages
English (en)
French (fr)
Inventor
裕一 綿野
俊亮 岡村
美昭 伏見
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to EP19909042.4A priority Critical patent/EP3910372A4/en
Priority to US17/422,068 priority patent/US20220113427A1/en
Priority to CN201980088617.4A priority patent/CN113287030A/zh
Priority to JP2020565678A priority patent/JP7382349B2/ja
Publication of WO2020145097A1 publication Critical patent/WO2020145097A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0029Spatial arrangement
    • B60Q1/0041Spatial arrangement of several lamps in relation to each other
    • B60Q1/0047Signalling unit mounted on a headlamp unit
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93277Sensor installation details in the lights

Definitions

  • the present invention relates to a LiDAR sensor unit and a vehicle security system.
  • a LiDAR sensor for vehicles that measures the distance to an object is known.
  • a transparent cover is provided to protect the LiDAR sensor.
  • a lens element is provided in front of the light emitting portion or the light receiving portion that emits light to increase the light collection rate.
  • the lens element such as the cover or the inner lens is provided, the light emitted from the light emitting portion is bent, and the measurement data is changed as compared with the case where the lens element is not provided.
  • the present invention provides a LiDAR sensor unit in which measurement data is less affected by the lens element even if the lens element is provided.
  • a LiDAR sensor unit is LiDAR sensor, A lens element provided on the optical path of light emitted from the LiDAR sensor;
  • the LiDAR sensor has a processing unit that outputs measurement data including the azimuth and distance of the measurement target,
  • the processing unit is configured not to output the measurement data with respect to a specific azimuth having the same azimuth before and after attachment of the lens element but different distances in the same environment.
  • a LiDAR sensor unit is A LiDAR sensor mounted on a vehicle and capable of outputting at least distance data of a measurement target, A processing unit that outputs data including distance data acquired by the LiDAR sensor as measurement data; The processing unit outputs the measurement data with a distance within a predetermined fluctuation threshold determined based on a maximum value and a minimum value of the distance data accumulated in a predetermined period as a constant distance.
  • a LiDAR sensor unit is A LiDAR sensor mounted on a vehicle, which outputs measurement data including an orientation and a distance of an object, A processing unit that processes the measurement data output from the LiDAR sensor;
  • the first measurement data acquired from the LiDAR sensor at the first time is compared with the second measurement data acquired from the LiDAR sensor at the second time when a predetermined time has elapsed from the first time.
  • the image forming unit includes an image forming unit configured to generate an image in which the second measurement data that are the same but have a different distance by a threshold value or more are represented in a different manner from the second measurement data that have the same azimuth and a difference in distance that is less than a threshold value.
  • a vehicle security system is A LiDAR sensor mounted on the vehicle for acquiring information around the vehicle; A controller for controlling the LiDAR sensor, The controller acquires the first measurement data in a first cycle while the vehicle is parked, and when a variation larger than a predetermined value occurs in the first measurement data, a second cycle is shorter than the first cycle. Two configured to acquire measurement data.
  • a LiDAR sensor unit in which the influence of the lens element on measurement data is less likely to be provided is provided.
  • a LiDAR sensor unit suitable for a vehicle capable of autonomous driving is provided.
  • a LiDAR sensor unit suitable for vehicle control is provided. ADVANTAGE OF THE INVENTION According to this invention, the crime prevention system for vehicles which is power-saving is provided, using a LiDAR sensor.
  • FIG. 3 is a block diagram of a LiDAR sensor system.
  • 6 is a flowchart of processing executed by the image forming unit. The situation in front of the vehicle at time t-1 is shown. The situation in front of the vehicle at time t is shown. An image output by the image forming unit at time t is shown.
  • 1 is a top view of a vehicle equipped with a vehicle security system. It is a block diagram of the crime prevention system for vehicles. It is a flow chart of processing which a crime prevention system for vehicles performs.
  • the surroundings of a parked vehicle at time t-1 are shown. It is an image formed by the image forming unit in the state of FIG.
  • the appearance around the parked vehicle at time t is shown. It is an image formed by the image forming unit in the state of FIG. 23.
  • FIG. 1 is a top view of a vehicle 1 to which a LiDAR sensor unit 10 according to the first embodiment of the present invention is attached. As shown in FIG. 1, the LiDAR sensor unit 10 is attached to the right front portion, the left front portion, the right rear portion, and the left rear portion of the vehicle 1.
  • FIG. 2 is a schematic diagram showing the LiDAR sensor unit 10 attached to the left front part of the vehicle 1.
  • the LiDAR sensor unit 10 is provided together with the lamp unit 30 that illuminates the surroundings of the vehicle 1.
  • the lamp unit 30 can be a headlight, a rear combination lamp, a daytime running lamp, a fog lamp, a side light, and a stop lamp.
  • the LiDAR sensor unit 10 includes a housing 11 and an outer cover 12.
  • a lamp unit 30 and a LiDAR sensor 20 are provided inside a space formed by the housing 11 and the outer cover 12.
  • FIG. 3 is a schematic diagram of the LiDAR sensor 20.
  • the LiDAR sensor 20 includes a light emitting unit 41, a light receiving unit 42, a MEMS mirror 43, and a condenser lens 44.
  • the light emitted from the light emitting unit 41 is reflected by the MEMS mirror 43 and emitted to the outside of the vehicle 1 via the condenser lens 44.
  • the light emitted from the light emitting unit 41 and reflected by the object (hereinafter referred to as return light) is reflected by the MEMS mirror 43 via the condenser lens 44 and enters the light receiving unit 42.
  • the light emitting section 41 may emit visible light or may emit invisible light such as infrared rays and ultraviolet rays.
  • the LiDAR sensor 20 emits light to the object and acquires the distance to the object from the time until the return light is detected.
  • the MEMS mirror 43 is configured so that the direction in which the light reflected by the MEMS mirror 43 is emitted can be changed arbitrarily. By changing the emitting direction of the reflected light by the MEMS mirror 43, the LiDAR sensor 20 acquires a wide range of information.
  • FIG. 4 is a block diagram of the LiDAR sensor 20.
  • the LiDAR sensor 20 includes a light emitting unit 41, a light source control unit 45, a MEMS mirror 43, a mirror control unit 46, a light receiving unit 42, a signal processing unit 47, and a memory 48.
  • the light source control unit 45 controls the operation of the light emitting unit 41.
  • the mirror control unit 46 controls the operation of the MEMS mirror 43.
  • the memory 48 is a rewritable recording means.
  • the signal processing unit 47 processes the signal output from the light receiving unit 42 and outputs the signal to the vehicle control unit 3.
  • the vehicle control unit 3 controls the behavior of the vehicle 1.
  • the vehicle control unit 3 receives information from the LiDAR sensor 20 and other sensors, or signals output in response to driver's steering wheel operation, accelerator pedal operation, and brake pedal operation, in accordance with the engine, the brake device, and the steering wheel. Control the behavior of the device.
  • the vehicle control unit 3 executes automatic driving of the vehicle 1. Alternatively, the vehicle control unit 3 assists the driver in driving.
  • the signal processing unit 47 includes a processor and a memory. Examples of the processor include CPU, MPU, and GPU. The processor may include multiple processor cores. Examples of the memory include ROM and RAM. A program that executes the above processing may be stored in the ROM. The program may include an artificial intelligence program. An example of the artificial intelligence program is a learned neural network by deep learning. The processor is configured to specify at least a part of the program stored in the ROM, expand the program on the RAM, and execute the process in cooperation with the RAM.
  • the signal processing unit 47 may be realized by a dedicated integrated circuit such as a microcontroller, FPGA, and ASIC.
  • the detection principle of the LiDAR sensor 20 will be briefly described with reference to FIG.
  • the signal processing unit 47 acquires information about what direction it took for the light emitted in which direction to hit the object and be reflected. Based on this, the signal processing unit 47 outputs the azimuth information and the distance to the object in the azimuth. Generally, the LiDAR sensor 20 outputs data of the azimuth angle ⁇ [°], the elevation angle ⁇ [°], and the distance d [m].
  • the light source control unit 45 controls the light emitting unit 41 to emit light at predetermined time intervals.
  • the mirror control unit 46 sets 100 detection points in the vertical direction and 360 detection points in the horizontal direction in a certain detection range.
  • the mirror control unit 46 controls the MEMS mirror 43 so that the light entering the MEMS mirror 43 from the light emitting unit 41 is sequentially reflected toward the respective detection points.
  • the light receiving unit 42 detects the return light reflected by the object at each measurement point, and outputs the detection of the return light to the signal processing unit 47. Since the MEMS mirror 43 sequentially reflects the light emitted from the light emitting unit 41 toward each measurement point, the return light sequentially detected by the light receiving unit 42 is treated as the light reflected from each measurement point. You can For example, when 36000 detection points are set, the return light detected at the first time and the return light detected at the 36001th time can be treated as light returning from the same direction. Alternatively, when it takes 0.01 seconds to emit light to all the detection points of 360,000 detection points, the light emitted 0.01 seconds after a certain time and the light emitted 0.02 seconds after a certain time. Light can be treated as light emitted in the same direction.
  • the signal processing unit 47 measures, for each measurement point, the time from the time when the light emitting unit 41 emits until the return light is detected.
  • the signal processing unit 47 calculates the distance to the object based on each measured time. In this way, the signal processing unit 47 outputs the distance in association with the azimuth of each detection point.
  • the signal processing unit 47 outputs data such as ( ⁇ , ⁇ , d) to indicate that the distance in a certain azimuth ( ⁇ , ⁇ ) is d.
  • the outer cover 12 is provided in the direction in which the light of the light emitting portion 41 of the LiDAR sensor 20 is emitted and in the direction in which the light of the light receiving portion 42 is incident.
  • the outer cover 12 is often formed of a curved surface due to the design restrictions of the vehicle 1.
  • the LiDAR sensor 20 is provided at a corner portion of the vehicle 1, such as the right front portion, the left front portion, the right rear portion, and the left rear portion of the vehicle 1, as shown in FIG.
  • the LiDAR sensor 20 When the light of the LiDAR sensor 20 passes through the region 12a where the curvature is locally increased in this way, the light is refracted. Therefore, the LiDAR sensor 20 ends up measuring a distance in an azimuth deviating from the originally assumed azimuth. Therefore, in the LiDAR sensor 20 of the present embodiment, the direction in which the product is greatly refracted is specified and recorded in the memory 48 before the product is shipped, and the data of the direction is not output from the LiDAR sensor 20 in the product after shipping. Is configured. This processing will be described in detail.
  • FIG. 6 shows how the LiDAR sensor 20 is operated toward the standard screen S with the outer cover 12 not attached to the LiDAR sensor unit 10.
  • FIG. 7 visualizes the output of the LiDAR sensor 20 output in the state shown in FIG. 7 and 9 are schematic diagrams of the output of the LiDAR sensor 20. Although a large number of output points actually exist, FIGS. 7 and 9 are shown with the number of points smaller than the actual output points for the convenience of drawing.
  • the standard screen S is a flat screen having a predetermined size.
  • the standard screen S and the LiDAR sensor 20 are separated by a predetermined distance and the LiDAR sensor 20 is operated. Since the standard screen S has a planar shape, the output of the LiDAR sensor 20 also has a point group of measurement points forming a planar surface.
  • the signal processing unit 47 records the output when the standard screen S is sensed in a state where the outer cover 12 is not attached to the LiDAR sensor unit 10, in the rewritable memory 48.
  • FIG. 8 shows how the LiDAR sensor 20 is operated toward the standard screen S with the outer cover 12 attached to the LiDAR sensor unit 10.
  • FIG. 9 visualizes the output of the LiDAR sensor 20 output in the state shown in FIG.
  • the LiDAR sensor 20 causes the standard screen S in the azimuth ( ⁇ 1, ⁇ 1) to be installed.
  • the distance to is mistakenly recognized as d2. Therefore, if the data output from the LiDAR sensor 20 as it is is visualized, it becomes different from that shown in FIG. 7, as shown in FIG.
  • the LiDAR sensor 20 outputs the standard screen S when the outer cover 12 is attached to the LiDAR sensor unit 10 and the standard screen S when the outer cover 12 is not attached to the LiDAR sensor unit 10. Is compared with the output at the time of sensing, and when the difference in the distance in the same azimuth is equal to or more than a threshold value, the distance in the azimuth is not output.
  • the azimuth ( ⁇ 1, ⁇ 1), the distance d1 when the outer cover 12 is not attached to the LiDAR sensor unit 10 and the distance d1 when the outer cover 12 is attached to the LiDAR sensor unit 10.
  • the absolute value ⁇ d
  • of the difference from the distance d2 is larger than the threshold da ( ⁇ d>da)
  • the azimuth is recorded in the memory 48 as a non-output azimuth.
  • the signal processing unit 47 is configured to read the non-output azimuth from the memory 48 and not output the data for the azimuth corresponding to the non-output azimuth, as shown in FIG. There is.
  • FIG. 10 visualizes the output data output from the signal processing unit 47 to the vehicle control unit 3 when the inspection screen S is detected. As shown in FIG. 10, even if a part of the data output from the LiDAR sensor 20 is missing, it is possible to grasp the entire image.
  • the LiDAR sensor 20 there are a large number of measurement points (measurement directions) of the LiDAR sensor 20. Therefore, it is easy to maintain good resolution even if the measurement point affected by the refraction of the outer cover 12 is ignored. Rather, according to the present embodiment, the data due to the refraction of the outer cover 12 does not have to be corrected or exceptional processing is performed, so that the processing load of the signal processing unit 47 is reduced.
  • the signal processing unit 47 determines whether the ratio n/m of the number of non-detected orientations (n) to the number of all measurement points (m) is 0.1 or more, and the ratio is 0.
  • the error signal may be output to the vehicle control unit 3 when the value becomes 1 or more, and the data may be output for the azimuth corresponding to the non-output azimuth.
  • the LiDAR sensor unit 10 may be provided with an inner lens inside the space formed by the housing 11 and the outer cover 12. Even before and after this inner lens is attached, the azimuth to be measured may change due to the refraction of the inner lens.
  • the present invention can be applied to such a case.
  • the LiDAR sensor 20 outputs when the standard screen S is sensed with the inner lens attached to the LiDAR sensor unit 10 and when the standard screen S is sensed with the inner lens not attached to the LiDAR sensor unit 10.
  • the difference in the distance in the same azimuth is equal to or more than a threshold value, the distance in the azimuth may not be output.
  • the time output is recorded in the rewritable memory 48.
  • the outer cover 12 may be scratched or damaged by flying stones. Refraction may occur even at such a scratched portion, or light may be scattered so that the distance cannot be measured well. Even if the flaw is a small inconspicuous flaw, if the flaw is located on the extension line of the measurement direction, the LiDAR sensor 20 is affected by the flaw. However, it is not realistic to replace the outer cover 12 because it causes a small scratch.
  • the information recorded in the memory 48 can be periodically updated.
  • the inspection using the standard screen S described above is performed.
  • the output when the standard screen S is sensed when the outer cover 12 is not attached to the LiDAR sensor unit 10 and the output when the standard screen S is sensed when the outer cover 12 is attached to the LiDAR sensor unit 10 Can be obtained and rewritten on a regular basis. Accordingly, it is possible to prevent the data from being output for the azimuth in which the distance cannot be measured successfully due to the scratch, and the defect due to the scratch can be avoided.
  • the information recorded in the memory 48 is updated so that the data is not output for the orientation in which the degree of refraction is large, depending on the shape of the outer cover 12 after the replacement. it can.
  • the electronic circuit for realizing the function of not specifying the non-output azimuth and not outputting the distance of the non-output azimuth described with reference to FIGS. 6 to 10 to the vehicle control unit 3 detects the incidence of light to the light receiving unit. It may be provided separately from the electronic circuit that realizes the function of calculating the distance to the object. That is, the electronic circuit built in the LiDAR sensor 20 realizes the function of detecting the incidence of light on the light receiving section and calculating the distance of the object, and the electronic circuit is provided in the middle of the communication path between the LiDAR sensor 20 and the vehicle control section 3. An electronic circuit may be provided that realizes a function of specifying the non-output azimuth and not outputting the distance of the non-output azimuth to the vehicle control unit 3.
  • the LiDAR sensor can measure a precise distance.
  • the LiDAR sensor can acquire a large amount of measurement data at extremely short time intervals.
  • the effects of fluctuations caused by vehicle vibration, noise, heat, wind, or simple noise, etc. Will be greatly affected.
  • the output of the LiDAR sensor including fine distance information of 0.1 mm or less is not necessary for use in automatic driving of the vehicle. Therefore, a second embodiment of the present invention described below provides a LiDAR sensor unit 10 suitable for a vehicle capable of autonomous driving.
  • the LiDAR sensor unit 10 according to the second embodiment has the same structure and detection principle as the LiDAR sensor unit 10 described in the first embodiment with reference to FIGS. 1 to 5. Therefore, the description of the structure and the detection principle of the LiDAR sensor unit 10 according to the second embodiment will be omitted.
  • FIG. 11 is a flowchart of processing executed by the signal processing unit 47.
  • the signal processing unit 47 calculates that the distance to the object in the azimuth ( ⁇ , ⁇ ) at time t is D (step S01). That is, the raw data at time t is ( ⁇ , ⁇ , D).
  • the signal processing unit 47 records the raw data ( ⁇ , ⁇ , D) at the time t in the memory 48.
  • the signal processing unit 47 reads the latest 10 past distances with respect to a certain azimuth ( ⁇ , ⁇ ) (step S02). The signal processing unit 47 extracts the minimum value dmin and the maximum value dmax from these. In addition, the signal processing unit 47 calculates the average value dmean of the 10 most recent distances with respect to a certain azimuth ( ⁇ , ⁇ ) (step S03). The signal processing unit 47 records these dmin, dmax, and dmean in the memory 48.
  • the signal processing unit 47 calculates the difference ⁇ d between the immediately preceding distance D[t ⁇ 1] for a certain azimuth ( ⁇ , ⁇ ) and the distance D[t] measured this time (step S04).
  • the signal processing unit 47 records the difference ⁇ d in the memory 48.
  • the signal processing unit 47 reads the minimum value dmin and the maximum value dmax from the memory 48, and multiplies the difference between the minimum value dmin and the maximum value dmax by a coefficient 0.5 to calculate the variation threshold dth (step S05).
  • the signal processing unit 47 records the variation threshold value dth in the memory 48.
  • the signal processing unit 47 reads the difference ⁇ d and the variation threshold dth from the memory 48, and compares the absolute value of the difference ⁇ d and the variation threshold dth (step S06). If the absolute value of the difference ⁇ d is larger than the absolute value of the variation threshold dth (step S06: No), the signal processing unit 47 outputs the raw data D[t] as the distance of a certain azimuth ( ⁇ , ⁇ ). That is, the signal processing unit 47 outputs ( ⁇ , ⁇ , D[t]) as measurement data at time t to the vehicle control unit 3 (step S07).
  • the signal processing unit 47 If the absolute value of the difference ⁇ d is smaller than the absolute value of the fluctuation threshold dth (step S06: Yes), the signal processing unit 47 outputs the average value dmean as the distance of a certain azimuth ( ⁇ , ⁇ ). That is, the signal processing unit 47 outputs ( ⁇ , ⁇ , dmean) as measurement data at time t to the vehicle control unit 3 (step S08).
  • FIG. 12 is a graph plotting the measurement data and the raw data thus obtained.
  • the distance D of the raw data output from the LiDAR sensor 20 is indicated by X, and this raw data is processed by the signal processing unit 47 and output to the vehicle control unit 3.
  • the distance d of data (referred to as output data) is indicated by a square.
  • a portion where the raw data distance and the output data distance overlap each other is represented by the output data distance (square).
  • variations in the output data represented by squares are suppressed as compared with the raw data represented by x.
  • the present inventor has noticed that the output of the LiDAR sensor is likely to be finely varied. However, even if the measurement data that slightly changes is output to the vehicle control unit 3 as it is, the vehicle control unit 3 does not control the vehicle 1 by using such a value that finely changes.
  • the output of the LiDAR sensor has a suitable threshold value that changes due to a plurality of factors such as temperature, humidity, and running state. That is, even if a certain threshold value is an appropriate threshold value under some circumstances, there are too many fluctuations that exceed the threshold value under other circumstances and the threshold value becomes meaningless, or fluctuations that fall below the threshold value under other circumstances. There is a situation where too much data is output and only certain distance data is output.
  • the present inventor always accumulates the distance data for a predetermined period, determines a threshold value from the maximum value and the minimum value during the predetermined period, and sets the measured data as a constant distance within a threshold value that fluctuates depending on this time.
  • the present invention for outputting to the control unit 3 has been completed.
  • the fluctuation threshold dth suitable for the situation is appropriately set, so that fluctuations in the distance data that fluctuate due to various factors can be smoothed by the moderate fluctuation threshold dth.
  • the number of read distances is not limited to 10. Any number of data may be read. The larger the number to be read out is set, the less the variation in the data output to the vehicle control unit 3 occurs. This coefficient may be changed according to a driving situation or the like according to a signal output from the vehicle control unit 3. For example, when it is assumed that the change in the appearance of the vehicle is scarce, such as when traveling on a highway, a large number may be read.
  • (dmax-dmin) is multiplied by the coefficient 0.5 in order to calculate the variation threshold, but the coefficient by which (dmax-dmin) is multiplied may be set arbitrarily. it can.
  • the coefficient can be set to a value of 0 to 1. By increasing the coefficient, it is possible to suppress variation in the distance output from the LiDAR sensor unit to the vehicle control unit 3.
  • this coefficient may be changed according to the driving situation, etc., according to the signal output from the vehicle control unit 3. For example, a large coefficient may be set when it is assumed that changes in the appearance of the vehicle are scarce, such as when traveling on a highway.
  • step S06 when the variation threshold is within the variation threshold (step S06: Yes), the example in which the average value dmean at the last ten past points is set as the distance of the output data has been described. It is not limited to this. Instead of the average value dmean, the distance of any of the last 10 points may be output, or the minimum value dmin or the maximum value dmax may be output.
  • the LiDAR sensor can measure the distance at a large number of measurement points, and can accurately grasp the surrounding situation. However, since the LiDAR sensor outputs many measurement points in a short time, a heavy load is imposed on the processing device that processes the measurement points. By the way, in controlling a vehicle in automatic driving or manual driving, some action is required when the situation changes. Therefore, the third embodiment of the present invention provides a LiDAR sensor unit having an output suitable for vehicle control.
  • the LiDAR sensor unit 110 according to the third embodiment of the present invention also has the same structure as the LiDAR sensor unit 10 described with reference to FIGS. 1 to 3 in the above-described first embodiment.
  • the detection principle of the LiDAR sensor unit 110 according to the third embodiment is the same as the detection principle described with reference to FIG. Therefore, the description of the structure and the detection principle of the LiDAR sensor unit 10 according to the second embodiment will be omitted.
  • FIG. 13 is a block diagram of the LiDAR sensor 120 according to the third embodiment of the present invention.
  • the LiDAR sensor 120 includes a light emitting unit 141, a light source control unit 145, a MEMS mirror 143, a mirror control unit 146, a light receiving unit 142, a signal processing unit 147, a memory 148, and an image.
  • the forming part 149 is provided.
  • the light source control unit 145 controls the operation of the light emitting unit 141.
  • the mirror control unit 146 controls the operation of the MEMS mirror 143.
  • the memory 148 is a rewritable recording means.
  • the signal processing unit 147 processes the signal output from the light receiving unit 142 and outputs the signal to the image forming unit 149.
  • the vehicle control unit 103 controls the behavior of the vehicle 101.
  • the image forming unit 149 forms an image based on the signal output from the signal processing unit 147 and outputs the image to the vehicle control unit 103.
  • FIG. 14 is a flowchart of processing executed by the image forming unit 149.
  • FIG. 15 shows a state in front of the vehicle at time t ⁇ 1, which is a predetermined time before a certain time t.
  • the point cloud in FIG. 15 shows a visualization of the measurement data of the LiDAR sensor 120 as it is.
  • a tree T exists on the left side in front of the vehicle 101.
  • the LiDAR sensor 120 measures the distance d at all measurement points.
  • FIG. 16 shows a state in front of the vehicle at a certain time t.
  • the point cloud in FIG. 16 shows a visualization of the measurement data of the LiDAR sensor 120 as it is.
  • a tree T exists on the left side in front of the vehicle 101, and a pedestrian exists on the right side in front of the vehicle 101. That is, a pedestrian entered the front of the vehicle when going from time t-1 to time t.
  • the LiDAR sensor 120 measures distances at all measurement points.
  • the image forming unit 149 forms an image that visualizes the output of the LiDAR sensor 120 at time t. At this time, as shown in FIG. 17, the image forming unit 149 emphasizes the portion changed from time t ⁇ 1 to time t to form an image.
  • the image forming unit 149 determines whether or not ⁇ d is larger than a predetermined threshold value dth for all orientations (step S104). For the azimuth in which ⁇ d is smaller than the predetermined threshold value dth (step S104: Yes), the image forming unit 149 visualizes the distance d[t] at time t by a normal method (step S105).
  • the distance d[t] is drawn with a black dot on a white background.
  • the image forming unit 149 visualizes the distance d[t] at time t by a method different from the normal method (step S106). For example, with respect to the directions ⁇ and ⁇ , the distance d[t] is drawn with a red circle on a white background.
  • the image forming unit 149 thus forms the image shown in FIG. 17 and outputs it to the vehicle control unit 103.
  • the image forming unit 149 forms an image in an arbitrary format such as BMP, PNG, GIF, JPEG, and TIFF.
  • the image forming unit 149 receives the first measurement data P[t-1] acquired from the LiDAR sensor 120 at the first time t-1, and the second measurement data P[t-1] after the predetermined time has elapsed from the first time t-1.
  • the second measurement data P[t] acquired from the LiDAR sensor 120 at time t is compared, and the second measurement data P[t] having the same azimuth but different distances by a threshold value or more are compared, and the second measurement data P[t] having the same azimuth and different distances.
  • the vehicle control unit 103 may acquire an image from the image forming unit 149 and display the image on a display installed in the vehicle compartment.
  • a measurement point that is different from the immediately previous situation is displayed separately from a point that has not changed from the immediately previous situation. Since it becomes possible to instantly grasp a measurement point different from the immediately previous situation, the vehicle control unit 103 can instantly grasp a point different from the immediately previous situation and quickly execute a necessary operation. For example, in the present embodiment, the vehicle control unit 103 can instantly recognize the appearance of a pedestrian different from the situation immediately before, and can cause the vehicle 101 to stop.
  • the image forming unit 149 may be configured integrally with the signal processing unit 147 or may be separately configured.
  • the image forming unit 149 may be provided in the middle of the communication path between the signal processing unit 147 and the vehicle control unit 103.
  • a fourth embodiment of the present invention provides a power-saving vehicle security system that uses a LiDAR sensor.
  • FIG. 18 is a top view of the vehicle 1 to which the vehicle security system 202 according to the present embodiment is attached.
  • the vehicle security system 202 includes a plurality of LiDAR sensor units 210. As shown in FIG. 18, the LiDAR sensor unit 210 is attached to the right front portion, the left front portion, the right rear portion, and the left rear portion of the vehicle 1.
  • the LiDAR sensor unit 210 used in this embodiment is the same as the LiDAR sensor unit 10 described in the first embodiment with reference to FIGS.
  • FIG. 19 is a block diagram of the vehicle security system 202.
  • the vehicle security system 202 includes a LiDAR sensor unit 210, a lamp unit 230, an image forming unit 251, an image comparing unit 252, and a lamp control unit 253 (control unit).
  • the LiDAR sensor unit 210 includes a light emitting unit 241, a light source control unit 245, a MEMS mirror 243, a mirror control unit 246, a light receiving unit 242, and a signal processing unit 247.
  • the light source controller 245 controls the operation of the light emitting unit 241.
  • the mirror control unit 246 controls the operation of the MEMS mirror 243.
  • the lamp control unit 253 controls turning on/off of the lamp unit 230.
  • the signal processing unit 247 processes the signal output from the light receiving unit 242 and outputs the signal to the vehicle control unit 203.
  • the vehicle control unit 203 controls the behavior of the vehicle 201.
  • FIG. 20 is a flowchart of processing executed by the vehicle security system 202.
  • FIG. 21 shows the surroundings of the parked vehicle 201 at time t ⁇ 1, which is a predetermined time before a certain time t.
  • the vehicle 201 is parked in the parking lot.
  • 22 shows an image I[t-1] formed by the image forming unit 251 based on the measurement data acquired by the LiDAR sensor 220 in the state of FIG.
  • the LiDAR sensor 220 measures distances at all measurement points.
  • the image I[t-1] is formed (step S201).
  • FIG. 23 shows a state around the parked vehicle 201 at time t.
  • the pedestrian A approaches the parked vehicle 201 from the upper right in FIG.
  • FIG. 24 is an image I[t] formed by the image forming unit 251 based on the measurement data acquired by the LiDAR sensor 220 in the state of FIG.
  • the LiDAR sensor 220 measures distances at all measurement points.
  • the image comparison unit 252 compares the image I[t-1] acquired at time t-1 with the image I[t] acquired at time t.
  • the image comparison unit 252 determines whether or not the images I[t-1] and I[t] of the two have a difference of a predetermined value or more (step S203). For example, the image comparison unit 252 determines that a difference of a predetermined value or more occurs when the number of pixels having a difference between the images I[t ⁇ 1] and I[t] of the two is a predetermined value or more.
  • the image comparison unit 252 sets the images I[t-1] and I[t] of both images to be equal to or more than a predetermined value. It is determined that there is a difference.
  • the ratio of the number of pixels having a difference with respect to all the pixels set as the threshold value may be configured so that the user can change it stepwise, such as 5% or 10%.
  • step S203 When there is no difference between the images I[t-1] and I[t] of the two or more by the predetermined value (step S203: No), the vehicle security system 202 returns to step S201 after the first period. Is executed (step S204).
  • the image comparison unit 252 When the difference between the images I[t-1] and I[t] of the two is equal to or more than the predetermined value (step S203: Yes), the image comparison unit 252 performs an alarm process (step S205). In the present embodiment, the image comparison unit 252 performs the following alarm processing. First, the image comparison unit 252 identifies in which direction the difference is occurring when viewed from the host vehicle 201. Further, the image comparison unit 252 outputs the specified azimuth to the light source control unit 245 and the mirror control unit 246 of the LiDAR sensor 220. In the illustrated example, the specified azimuth is only the upper right position direction of the host vehicle 201.
  • the lamp control unit turns on the lamp unit 230 so as to illuminate the specified direction.
  • the image comparison unit 252 may be configured to output a signal notifying an abnormality to the mobile phone owned by the user.
  • the image comparison unit 252 determines whether or not an alarm cancellation signal has been acquired (step S206).
  • the image comparison unit 252 is configured to be able to acquire a predetermined alarm cancellation signal from the vehicle control unit 203 or the user's mobile phone.
  • the image comparison unit 252 acquires the alarm release signal within the predetermined period (step S206: Yes)
  • the image comparison unit 252 releases the alarm (step S207) and ends the process.
  • the vehicle security system 202 executes step S201 after the second predetermined period has elapsed (step S208).
  • the second predetermined period is set shorter than the first predetermined period.
  • the first predetermined period is 30 seconds and the second predetermined period is 0.5 seconds.
  • the first predetermined period is 60 seconds and the second predetermined period is 1 second. That is, the vehicle security system 202 repeats steps S201 to S203 at a cycle of about 30 seconds.
  • the measurement data acquired at the first predetermined time interval is referred to as first measurement data.
  • the measurement data acquired at the second predetermined time interval is referred to as second measurement data. That is, the above-described embodiment is configured to acquire the second measurement data in the second cycle shorter than the first cycle when the fluctuation larger than the predetermined value occurs during the measurement of the first measurement data.
  • the LiDAR sensor 220 is suitable for a crime prevention system because it can acquire the shape of an object with high accuracy. Further, the LiDAR sensor 220 is often mounted on the vehicle 201 capable of autonomous driving. The LiDAR sensor 220 mounted on the vehicle 201 capable of autonomous driving is in operation while traveling, but is not used during parking. The vehicle security system 202 that uses the LiDAR sensor 220 can use the LiDAR sensor 220 that is not used during parking, and it is not necessary to use a separate sensor only for the vehicle security system, which is rational.
  • the vehicle security sensor 2 is configured to acquire the second measurement data in the second cycle shorter than the first cycle when a variation larger than a predetermined value occurs during the measurement of the first measurement data. Has been done. That is, the LiDAR sensor 220 is operated in the first cycle so that the power consumption is reduced during normal times, and if any state changes and an abnormality is suspected, the LiDAR sensor 220 is operated in the second cycle for detailed examination. be able to. Thereby, it is possible to acquire highly accurate information when necessary while suppressing power consumption.
  • the light source control unit 245 of the vehicle security system 202 operates the LiDAR sensor 220 at a resolution lower than the resolution of sensing performed during traveling, or more than the period of sensing performed during traveling. It may be configured to operate in a long cycle.
  • a resolution lower than the resolution (the number of measurement points) required during traveling is sufficient.
  • the cycle is longer than the cycle (scan cycle) required during traveling.
  • the image comparison unit 252 when the image comparison unit 252 identifies the azimuth in which the difference is generated, the image comparison unit 252 uses the image I[t] acquired at the time t in the circumferential direction about the host vehicle 201 as a center. The area is divided into individual areas, and the divided area is specified. Instead of specifying the azimuth, the image comparison unit 252 may be configured to specify to which region the pixel in which the difference occurs belongs and output the belonging region to the lamp control unit 253. In this case, the lamp control unit 253 may be configured to turn on the lamp unit 230 that can emit light toward the input area.
  • the alarm process when the difference between the image I[t-1] and the image I[t] exceeds the predetermined value, the alarm process is immediately performed. When it occurs, it may be configured to determine whether or not the difference matches a pattern registered as an action pattern of a suspicious person, and perform an alarm process when the difference matches the pattern. Good. Further, the alarm processing can take known means such as emitting a light, emitting a sound, and notifying the owner of the vehicle 201.
  • the vehicle security system 202 may be configured so that the owner of the vehicle 201 and a registered person (called a user) can be distinguished from an unregistered person.
  • the vehicle security system 202 may include a user information recording unit 254.
  • the user information recording unit 254 records a specific shape associated with the user.
  • the image comparison unit 252 determines that there is a difference between the image I[t-1] at time t-1 and the image I[t] at time t, and then determines that there is a difference in the image I[t] at time t. It is determined whether or not the highlighted portion matches the shape recorded in the user information recording unit 254. If they match, the lamp control unit 253 turns on the lamp unit 230 by a method different from the case where the two do not match.
  • the lamp unit 230 is always turned on in the corresponding direction, and the different portion is the user information recording unit 254. If the shape does not match the shape recorded in the above, the lamp unit 230 may be configured to blink toward the corresponding area.
  • the user information recording unit 254 can record the shape of the user's face, the shape of the key chain owned by the user, and the like.
  • the lamp control unit 253 makes the lighting mode of the lamp unit 230 different between the case where the shapes match and the case where the shapes do not match, differentiating lighting, blinking, and blinking of the lamp unit 230, different lighting colors, and brightness. Including differentiating. Further, when the lamp unit 230 has a plurality of light sources, differentiating the lighting mode of the lamp unit 230 includes differentiating the number and shape of the light sources to be lighted.
  • the image forming unit 251, the image comparison unit 252, and the lamp control unit 253 may be configured integrally with the signal processing unit 247 or may be configured separately.
  • the image forming unit 251, the image comparison unit 252, and the lamp control unit 253 may be provided in the middle of the communication path between the signal processing unit 247 and the vehicle control unit 203.
  • the lamp control unit 253 when the image comparison unit 252 has a difference between the image at time t ⁇ 1 and the image at time t, the lamp control unit 253 outputs the different directions, and the lamp control unit 253.
  • the present invention is not limited to this.
  • the sound source control unit determines the different orientation.
  • a configuration may be adopted in which the sound source control unit outputs the sound and outputs the sound toward the direction corresponding to the directional speaker.
  • the LiDAR sensor 220 provided on the right front portion, the left front portion, the right rear portion, and the left rear portion of the vehicle 201 has been described, but the present invention is applicable to all LiDAR sensors regardless of the mounting location of the vehicle 201. Applicable to 220.
  • the LiDAR sensor 220 is provided inside the outer cover 12 and the housing 11 that are common with the lamp unit 230 , but the present invention is not limited to this.
  • the LiDAR sensor 220 may be provided independently of the lamp unit 230. Further, the LiDAR sensor 220 may be provided inside the outer cover 12 and the housing 11 which are common to other sensors such as a camera and a millimeter wave radar.
  • the LiDAR sensor units provided in the right front portion, the left front portion, the right rear portion, and the left rear portion of the vehicle 1 have been described, but the present invention is applied to all LiDAR sensor units regardless of the vehicle mounting location. it can.
  • the LiDAR sensor is provided inside the outer cover and the housing that are common with the lamp unit, but the present invention is not limited to this.
  • the LiDAR sensor may be provided independently of the lamp unit.
  • the LiDAR sensor may be provided inside the outer cover and the housing common to other sensors such as a camera and a millimeter wave radar.
  • a LiDAR sensor unit that is less likely to be affected by the lens element on measurement data is provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットを提供する。LiDARセンサユニット(10)は、LiDARセンサ(20)と、LiDARセンサ(20)から出射される光の光路上に設けられたレンズ要素(12)と、LiDARセンサ(20)が測定した、測定対象の方位と距離を含む測定データを出力する処理部(47)を有する。処理部(47)は、同じ環境においてレンズ要素(12)の取付の前後で同じ方位でありながら異なる距離となった特定の方位については、測定データを出力しないように構成されている。

Description

LiDARセンサユニットおよび車両用防犯システム
 本発明は、LiDARセンサユニットおよび車両用防犯システムに関する。
 対象物との距離を測定する車両用のLiDARセンサが知られている。
日本国特開2018-128432号公報
 このようなLiDARを車両に搭載する際には、LiDARセンサを保護するために透明なカバーが設けられる。あるいは、光を発する発光部や受光部の前に、レンズ要素を設けて集光率が高められたりしている。このようなカバーやインナレンズなどのレンズ要素を設けると、発光部から発せられる光が屈曲し、レンズ要素を設けない状態と比べて、測定データに変化が生じてしまう。
 本発明は、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットを提供する。
 本発明の一側面に係るLiDARセンサユニットは、
 LiDARセンサと、
 前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
 前記LiDARセンサが測定した、測定対象の方位と距離を含む測定データを出力する処理部を有し、
 前記処理部は、同じ環境において前記レンズ要素の取付の前後で同じ方位でありながら異なる距離となった特定の方位については、前記測定データを出力しないように構成されている。
 本発明の一側面に係るLiDARセンサユニットは、
 車両に搭載され、少なくとも測定対象の距離データを出力可能なLiDARセンサと、
 前記LiDARセンサが取得した距離データを含むデータを測定データとして出力する処理部を有し、
 前記処理部は、所定期間において蓄積された前記距離データのうちの最大値と最小値に基づいて決定された所定の変動閾値以内の距離を一定の距離として前記測定データを出力する。
 本発明の一側面に係るLiDARセンサユニットは、
 車両に搭載され、対象物の方位と距離を含む測定データを出力するLiDARセンサと、
 前記LiDARセンサから出力される前記測定データを処理する処理部と、
 第一の時刻で前記LiDARセンサから取得した第一測定データと、前記第一の時刻から所定時間が経過した第二の時刻で前記LiDARセンサから取得した第二測定データとを比較し、方位が同じでありながら距離が閾値以上異なる前記第二測定データを、方位が同じで距離の相違が閾値未満であった前記第二測定データとは異なる態様で表す画像を生成する画像形成部を有する。
 本発明の一側面に係る車両用防犯システムは、
 車両に搭載され、車両の周囲の情報を取得するLiDARセンサと、
 前記LiDARセンサを制御する制御部を有し、
 前記制御部は、車両の駐車中に、第一周期で第一測定データを取得し、前記第一測定データに所定値より大きな変動が生じた時に、前記第一周期より短い第二周期で第二測定データを取得するように構成されている。
 本発明によれば、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットが提供される。
 本発明によれば、自動運転可能な車両に適したLiDARセンサユニットが提供される。
 本発明によれば、車両の制御に適したLiDARセンサユニットが提供される。
 本発明によれば、LiDARセンサを用いながら省電力の車両用防犯システムが提供される。
LiDARセンサユニットが取り付けられた車両の上面図である。 LiDARセンサユニットが取り付けられたランプユニットの模式図である。 LiDARセンサの模式図である。 LiDARセンサのブロック図である。 LiDARセンサの検出原理を説明する図である。 アウタカバーをLiDARセンサに取り付けていない状態でセンシングする時の模式図である。 図6に示した状態でセンシングされたセンシング結果の模式図である。 アウタカバーがLiDARセンサに取り付けられた状態でセンシングする時の模式図である。 図8の状態でセンシングされたセンシング結果の模式図である。 補正されたセンシング結果の模式図である。 信号処理部が実行する処理のフローチャートである。 出力データと生データとをプロットしたグラフである。 LiDARセンサシステムのブロック図である。 画像形成部が実行する処理のフローチャートである。 時刻t-1における車両前方の様子を示す。 時刻tにおける車両前方の様子を示す。 時刻tにおいて画像形成部が出力する画像を示す。 車両用防犯システムが取り付けられた車両の上面図である。 車両用防犯システムのブロック図である。 車両用防犯システムが実行する処理のフローチャートである。 時刻t-1における駐車している車両の周囲の様子を示す。 図21の状態において画像形成部が形成した画像である。 時刻tにおける駐車している車両の周囲の様子を示す。 図23の状態において画像形成部が形成した画像である。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
<第一実施形態>
 図1は、本発明の第一実施形態に係るLiDARセンサユニット10が取り付けられた車両1の上面図である。図1に示したように、車両1の右前部、左前部、右後部、左後部にLiDARセンサユニット10が取り付けられている。
 図2は、車両1の左前部に取り付けられたLiDARセンサユニット10を示す模式図である。本実施形態において、LiDARセンサユニット10は、車両1の周囲を照らすランプユニット30とともに設けられている。ランプユニット30は、前照灯、リアコンビネーションランプ、デイタイムランニングランプ、フォグランプ、車幅灯、ストップランプとすることができる。LiDARセンサユニット10は、ハウジング11と、アウタカバー12とを備えている。ハウジング11とアウタカバー12で形成される空間の内部に、ランプユニット30とLiDARセンサ20が設けられている。
 図3は、LiDARセンサ20の模式図である。図3に示すように、LiDARセンサ20は、発光部41と、受光部42と、MEMSミラー43と、集光レンズ44とを備えている。
 発光部41から出射した光は、MEMSミラー43で反射され、集光レンズ44を介して車両1の外部に出射される。発光部41から出射して対象物に反射された光(以降、戻り光と呼ぶ)は、集光レンズ44を介してMEMSミラー43で反射され、受光部42に入射する。発光部41は、可視光を出射してもよいし、赤外線や紫外線などの非可視光を出射してもよい。LiDARセンサ20は、対象物へ光を発し、戻り光を検出するまでの時間から対象物との距離を取得する。MEMSミラー43は、MEMSミラー43で反射される光が出射する方位を任意に変更可能に構成されている。MEMSミラー43により反射光の出射方向を変更することにより、LiDARセンサ20は広い範囲の情報を取得する。
 図4は、LiDARセンサ20のブロック図である。図4に示すように、LiDARセンサ20は、発光部41と、光源制御部45と、MEMSミラー43と、ミラー制御部46と、受光部42と、信号処理部47と、メモリ48を備えている。光源制御部45は、発光部41の動作を制御する。ミラー制御部46は、MEMSミラー43の動作を制御する。メモリ48は、書き換え可能な記録手段である。信号処理部47は、受光部42から出力される信号を処理し、車両制御部3へ出力する。車両制御部3は、車両1の挙動を制御する。
 車両制御部3はLiDARセンサ20や他のセンサからの出力、あるいはドライバーのステアリングホイールの操作、アクセルペダルの操作、ブレーキペダルの操作に応じて出力される信号に応じて、エンジン、ブレーキ装置、ステアリング装置の挙動を制御する。車両制御部3は、車両1の自動運転を実行する。あるいは、車両制御部3は、ドライバーの運転を支援する。
 信号処理部47は、プロセッサとメモリを備えている。プロセッサの例としては、CPU、MPU、GPUが挙げられる。プロセッサは、複数のプロセッサコアを含みうる。メモリの例としては、ROMやRAMが挙げられる。ROMには、上記の処理を実行するプログラムが記憶されうる。当該プログラムは、人工知能プログラムを含みうる。人工知能プログラムの例としては、ディープラーニングによる学習済みニューラルネットワークが挙げられる。プロセッサは、ROMに記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して処理を実行するように構成されている。信号処理部47は、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
 図5を用いて、LiDARセンサ20の検出原理を簡単に説明する。
 信号処理部47は、どこの方位に発した光が対象物に当たって反射してくるまでに、どの程度の時間がかかったか、という情報を取得する。これを基に信号処理部47は、方位情報と、該方位における物体までの距離を出力する。一般的に、LiDARセンサ20は、方位角θ[°]と、仰角φ[°]と、距離d[m]のデータを出力する。
 例えば、光源制御部45は、所定時間間隔で光を発するように発光部41を制御する。ミラー制御部46は、ある検出範囲に、縦方向に100点、横方向に360点の検出点を設定する。ミラー制御部46は、発光部41からMEMSミラー43に入射する光を順に、各々の検出点に向けて反射させるようにMEMSミラー43を制御する。
 受光部42は、各々の測定点について、対象物に当たって反射してきた戻り光を検出し、戻り光を検出したことを信号処理部47に出力する。MEMSミラー43は、発光部41から発した光を順に各々の測定点に向けて反射させているので、受光部42が順に検出した戻り光は、各々の測定点から反射された光として扱うことができる。例えば、36000点の検出点が設定されている場合、1回目に検出した戻り光と、36001回目に検出した戻り光は、同じ方位から戻ってきた光だと扱うことができる。あるいは、360000点の検出点の全ての検出点に向けて光を発するまでに0.01秒かかる場合、ある時刻から0.01秒後に発した光と、ある時刻から0.02秒後に発した光は、同じ方位に発した光として扱うことができる。
 信号処理部47は、各々の測定点について、発光部41が発した時間から戻り光を検出するまでの時間を測定する。信号処理部47は、各々の測定した時間に基づいて、対象物との距離を算出する。このようにして信号処理部47は、各々の検出点の方位と関連付けて、距離を出力する。信号処理部47は、ある方位(θ,φ)の距離がdであることを示すために、(θ,φ,d)といったデータを出力する。
 ところで、図2に示したように、LiDARセンサ20の発光部41の光を出射する方向、受光部42の光が入射する方向には、アウタカバー12が設けられている。アウタカバー12は、車両1のデザインの制約上、曲面で構成されることが多い。特に、図1に示したように、車両1の右前部、左前部、右後部、左後部といった、車両1のコーナー部分にLiDARセンサ20が設けられる場合には、図2に示したようにアウタカバー12の曲面の曲率が局所的に大きくなる部位12aがある。
 このように曲率が局所的に大きくなっている部位12aを、LiDARセンサ20の光が通過すると、光が屈折してしまう。このため、LiDARセンサ20は、本来想定していた方位から外れた方位の距離を測定してしまうことになってしまう。このため、本実施形態のLiDARセンサ20においては、製品の出荷前に大きく屈折する方位を特定してメモリ48に記録しておき、出荷後の製品においてLiDARセンサ20から該方位のデータを出力しないように構成されている。この処理について詳述する。
 図6は、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSに向けてLiDARセンサ20を作動させる様子を示している。図7は、図6に示した状態で出力されるLiDARセンサ20の出力を可視化したものである。なお、図7,9は、LiDARセンサ20の出力の模式図である。実際には出力点は大量に存在しているが、作図の都合上、実際の出力点より少ない点の数で図7,9を示している。
 標準スクリーンSは、所定の大きさの平面状のスクリーンである。図6では、この標準スクリーンSとLiDARセンサ20とを所定距離離間させて、LiDARセンサ20を作動させた。標準スクリーンSは平面状であるので、LiDARセンサ20の出力も、測定点の点群が平面を形成している。信号処理部47は、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力を、書き換え可能なメモリ48に記録する。
 図8は、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSに向けてLiDARセンサ20を作動させる様子を示している。図9は、図8に示した状態で出力されるLiDARセンサ20の出力を可視化したものである。
 アウタカバー12を取り付けた状態でLiDARセンサ20を作動させると、図8に示したように、アウタカバー12の局所的に曲率が大きい個所12aで光が屈折してしまう。図8においては、アウタカバー12がない場合に通る光の軌跡を破線で示している。また、図8においては光の屈折する様子をデフォルメして描いている。
 図6に示したように、曲率の大きい部位12aに向かう方位(θ1,φ1)に向けて出射された光が標準スクリーンSに到達した座標を、P1=(θ1,φ1,d1)と表す。すなわちこの方位(θ1,φ1)において、標準スクリーンSまでの距離はd1である。
 図8に示したように、曲率の大きい部位12aに向かう方位(θ1,φ1)に向けて出射され、部位12aによって屈折した光が標準スクリーンSに到達した座標を、P2=(θ1,φ1,d2)と表す。
 つまり、実際には、方位(θ1,φ1)における標準スクリーンSまでの距離はd1であるにも関わらず、アウタカバー12を取りつけてしまうと、LiDARセンサ20は方位(θ1,φ1)における標準スクリーンSまでの距離をd2と誤って認識してしまう。このため、LiDARセンサ20からこのまま出力されるデータを可視化すると、図9に示したように、図7とは異なってしまう。
 そこで本実施形態において、LiDARセンサ20は、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力と、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力とを比較し、同じ方位における距離の相違が閾値以上であった場合に、該方位の距離を出力しないように構成されている。
 すなわち、図6~9に示した例においては、方位(θ1,φ1)について、アウタカバー12をLiDARセンサユニット10に取り付けていない時の距離d1と、アウタカバー12をLiDARセンサユニット10に取り付けた時の距離d2との相違の絶対値Δd=|d2-d1|が閾値daよりも大きかった場合(Δd>da)に、該方位をメモリ48に非出力方位として記録している。
 図示の例では、LiDARセンサ20は屈折した光が辿った光路の長さを距離d2として算出している。すなわち、距離d2は、LiDARセンサ20から部位12aまでの距離d0と、部位12aから点P2までの距離d2’の合計である。部位12aから点P1までの距離をd1’とすると、Δd=d2-d1=(d0+d2’)-(d0+d1’)=d2’-d1’である。d2’-d1’が所定値daよりも大きい場合に、信号処理部47は、方位(θ1,φ1)を非出力方位としてメモリ48に記録する。
 そしてLiDARセンサ20の通常の使用時には、信号処理部47はメモリ48から非出力方位を読み出して、図10に示すように、非出力方位に該当する方位についてはデータを出力しないように構成されている。図10は、検査スクリーンSを検出したときに信号処理部47から車両制御部3に出力される出力データを可視化して示している。図10に示したように、LiDARセンサ20から出力されるデータの一部が欠けていても、全体像を把握することが可能である。
 一般的にLiDARセンサ20の測定点(測定方位)は大量に存在する。このため、アウタカバー12の屈折によって影響を受けた測定点を無視しても、良好な解像度を維持しやすい。むしろ、本実施形態によれば、アウタカバー12の屈折によるデータを補正したり、例外処理をしたりしなくてもよいので、信号処理部47の処理負担が軽減されている。
 なお、信号処理部47は、全測定点の個数(m個)に対する非検出方位の個数(n個)の比率n/mが0.1以上となるか否かを判定し、該比率が0.1以上となったときにエラー信号を車両制御部3に出力し、非出力方位に該当する方位についてもデータを出力するように構成してもよい。
 なお、上述した実施形態においては、アウタカバー12を取り付ける前と取り付けた後の測定点を取り扱う例を説明したが、本発明はこれに限られない。LiDARセンサユニット10には、ハウジング11とアウタカバー12で形成される空間の内部にインナレンズが設けられる場合がある。このインナレンズを取り付ける前と取り付ける後においても、インナレンズの屈折により測定しようとする方位が変化してしまう場合がある。このような場合にも本発明を適用することができる。
 すなわち、LiDARセンサ20は、インナレンズをLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力と、インナレンズをLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力とを比較し、同じ方位における距離の相違が閾値以上であった場合に、該方位の距離を出力しないように構成されていてもよい。
 また、本実施形態においては、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力と、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力とが、書き換え可能なメモリ48に記録されている。
 アウタカバー12は、飛び石などによって傷が付いたり破損したりすることがある。このように傷がついた個所でも屈折が生じたり、光が散乱してしまって上手く距離を測定できなくなってしまうことがある。小さな目立たない傷であっても、該傷が測定方位の延長線上に位置してしまう場合には、LiDARセンサ20は該傷の影響を受けてしまう。しかしながら、小さな傷が付いてしまうためにアウタカバー12を交換することは現実的ではない。
 そこで本実施形態においては、定期的にメモリ48に記録される情報を更新することができる。例えば、車両の定期点検などにおいて、上述した標準スクリーンSを使った検査を行う。該検査において、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力と、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力とを取得し、定期的に書き換えることができる。これにより、傷に起因して上手く距離を測定できない方位については、データを出力しないように構成することができ、傷に起因する不具合を回避することができる。
 また、アウタカバー12の交換時にも、メモリ48に記録される情報を更新することにより、交換後のアウタカバー12の形状に応じて、屈折の度合いが大きい方位についてデータを出力しないように構成することができる。
 なお、図6から図10を用いて説明した非出力方位の特定および非出力方位の距離を車両制御部3へ出力させない機能を実現する電子回路は、受光部への光の入射を検出して対象物の距離を算出する機能を実現する電子回路とは別に設けられていてもよい。すなわち、LiDARセンサ20に内蔵される電子回路が受光部への光の入射を検出して対象物の距離を算出する機能を実現し、LiDARセンサ20と車両制御部3との通信経路の途中に、非出力方位の特定および非出力方位の距離を車両制御部3へ出力させない機能を実現する電子回路が設けられていてもよい。
<第二実施形態>
 ところでLiDARセンサは精密な距離を測定可能である。また、LiDARセンサは極めて短い時間間隔で大量の測定データを取得可能である。しかしながら、このように極めて高い分解能で距離を測定でき、かつ、極めて短い時間間隔で測定データを取得可能であるため、車両の振動や音、熱、風、あるいは単なるノイズなどに起因するゆらぎの影響を大きく受けてしまう。
 また、車両の自動運転に用いるためには、0.1mm以下といった細かい距離情報を含むLiDARセンサの出力は不要である。
 そこで次に説明する本発明の第二実施形態では、自動運転可能な車両に適したLiDARセンサユニット10を提供する。
 第二実施形態に係るLiDARセンサユニット10も、上述した第一実施形態で図1から図5を用いて説明したLiDARセンサユニット10と構造および検出原理が同様である。このため、第二実施形態に係るLiDARセンサユニット10の構造および検出原理の説明は省略する。
 図11は、信号処理部47が実行する処理のフローチャートである。
 図11に示すように、信号処理部47は、時刻tにある方位(θ,φ)の対象物との距離がDであると算出する(ステップS01)。すなわち時刻tにおける生データは(θ,φ,D)である。信号処理部47は、メモリ48に時刻tにおける生データ(θ,φ,D)を記録する。
 次に信号処理部47は、ある方位(θ,φ)についての直近の過去の10個の距離を読み出す(ステップS02)。信号処理部47は、これらの中から最小値dminと最大値dmaxとを抽出する。また、信号処理部47はある方位(θ,φ)についての直近の過去の10個の距離の平均値dmeanを算出する(ステップS03)。信号処理部47は、メモリ48にこれらdmin,dmax,dmeanを記録する。
 次に信号処理部47は、ある方位(θ,φ)についての直前の距離D[t-1]と今回計測した距離D[t]との差分Δdを算出する(ステップS04)。信号処理部47は、Δd=D[t]-D[t-1]を算出する。信号処理部47は、メモリ48に差分Δdを記録する。
 信号処理部47は、メモリ48から最小値dminと最大値dmaxを読み出して、最小値dminと最大値dmaxとの差分に係数0.5を乗じて変動閾値dthを算出する(ステップS05)。信号処理部47は、メモリ48に変動閾値dthを記録する。
 信号処理部47は、メモリ48から差分Δdと変動閾値dthを読み出して、差分Δdと変動閾値dthの絶対値を比較する(ステップS06)。
 差分Δdの絶対値が変動閾値dthの絶対値より大きければ(ステップS06:No)、信号処理部47は、生データD[t]をある方位(θ,φ)の距離として出力する。すなわち、信号処理部47は、車両制御部3へ時刻tの測定データとして(θ,φ,D[t])を出力する(ステップS07)。
 差分Δdの絶対値が変動閾値dthの絶対値より小さければ(ステップS06:Yes)、信号処理部47は、平均値dmeanをある方位(θ,φ)の距離として出力する。すなわち、信号処理部47は、車両制御部3へ時刻tの測定データとして(θ,φ,dmean)を出力する(ステップS08)。
 図12は、このようにして得られる測定データと生データとをプロットしたグラフである。図12において、ある方位(θ,φ)について、LiDARセンサ20から出力される生データの距離DをXで示し、この生データが信号処理部47で加工されて車両制御部3に出力されるデータ(出力データと呼ぶ)の距離dを四角で示している。また、生データの距離と出力データの距離とが重複した個所については、出力データの距離(四角)で表している。
 図12に示したように、×で表される生データに比べて、四角で表される出力データは、変動が抑制されている。
 ところで、本発明者は、LiDARセンサの出力は細かく変動しやすいことに気が付いた。しかしながら、細かく変動する測定データをそのまま車両制御部3に出力しても、車両制御部3はこのように細かく変動する値を使って車両1を制御するわけではない。
 また、このような細かい変動を抑制するには、一定の閾値を定めてこれ以内の変動分は車両制御部3に出力しないことも考えられる。しかしながら、LiDARセンサの出力は、温度や湿度、あるいは走行状態などといった複数の要因で適した閾値が変化してしまうことに、本発明者は気が付いた。つまり、ある閾値はある状況下で適切な閾値であっても、他の状況下では閾値を超える変動が多くなり過ぎて閾値が無意味になったり、あるいは、他の状況下では閾値を下回る変動が多くなり過ぎて一定の距離データしか出力されない事態となったりする。
 そこで本発明者は、常に所定期間の距離データを蓄積し、この所定期間の間の最大値と最小値から閾値を定め、この時間によって変動する閾値以内の距離を一定の距離として測定データを車両制御部3に出力する本発明を完成させた。このような態様によれば、状況に適した変動閾値dthが適宜設定されるので、様々な要因で変動する距離データの変動を適度な変動閾値dthで平滑化することができる。
 なお上述した実施形態においては、ある方位の直近の10個の距離を読み出すことを説明したが、読み出す距離の個数は10個に限られない。任意の数のデータを読み出してもよい。読み出す個数を大きく設定するほど、車両制御部3に出力されるデータに変動が生じにくくなる。車両制御部3から出力される信号などに応じて、運転状況などに応じてこの係数を変動させてもよい。例えば高速道路を走行中など、車両の外部の様子の変化が乏しいことが想定される場合には、多くの個数を読み出すように構成してもよい。
 なお、上述した実施形態においては、変動閾値を算出するために、(dmax-dmin)に係数0.5を乗じることを説明したが、(dmax-dmin)に乗じる係数は任意に設定することができる。係数は0~1の値に設定することができる。係数を大きくすると、LiDARセンサユニットから車両制御部3に出力される距離の変動を抑制することができる。係数を小さくすると、LiDARセンサユニットから車両制御部3に出力される距離をLiDARセンサから出力される生データに忠実に再現しやすい。
 なお、車両制御部3から出力される信号などに応じて、運転状況などに応じてこの係数を変動させてもよい。例えば高速道路を走行中など、車両の外部の様子の変化が乏しいことが想定される場合には、大きな係数を設定してもよい。
 また、上述した実施形態においては、変動閾値が変動閾値以内の場合に(ステップS06:Yes)、直近の過去10点における平均値dmeanを出力データの距離とする例を説明したが、本発明はこれに限られない。平均値dmeanの代わりに、直近の過去10点のいずれかの距離を出力してもよいし、最小値dminや最大値dmaxを出力してもよい。
<第三実施形態>
 LiDARセンサは、多数の測定点で距離を測定することができ、周囲の状況を精緻に把握することができる。しかしながら、LiDARセンサは短時間に多くの測定点を出力するので、これを処理する処理装置に大きな負担が生じる。ところで、自動運転または手動運転における車両の制御においては、状況が変わった時に何らかのアクションが必要とされる。
 そこで本発明の第三実施形態では、車両の制御に適した出力を有するLiDARセンサユニットを提供する。
 次に本発明の第三実施形態に係るLiDARセンサユニット110を説明する。
 第三実施形態に係るLiDARセンサユニット110も、上述した第一実施形態で図1から図3を用いて説明したLiDARセンサユニット10と同じ構造を有する。また、第三実施形態に係るLiDARセンサユニット110の検出原理も、図5を用いて説明した検出原理と同じである。このため、第二実施形態に係るLiDARセンサユニット10の構造および検出原理の説明は省略する。
 第三実施形態に係るLiDARセンサユニット110の機能ブロックは、第一実施形態のLiDARセンサユニット10の機能ブロックとは異なる。図13は、本発明の第三実施形態のLiDARセンサ120のブロック図である。図13に示すように、LiDARセンサ120は、発光部141と、光源制御部145と、MEMSミラー143と、ミラー制御部146と、受光部142と、信号処理部147と、メモリ148と、画像形成部149を備えている。光源制御部145は、発光部141の動作を制御する。ミラー制御部146は、MEMSミラー143の動作を制御する。メモリ148は書き換え可能な記録手段である。信号処理部147は、受光部142から出力される信号を処理し、画像形成部149へ出力する。車両制御部103は、車両101の挙動を制御する。画像形成部149は、信号処理部147から出力される信号に基づき、画像を形成し、車両制御部103へ出力する。
 図14は、画像形成部149が実行する処理のフローチャートである。図15は、ある時刻tから所定時間前の時刻t-1における車両の前方の様子を示す。図15中の点群はLiDARセンサ120の測定データをそのまま可視化したものを示している。図15に示すように、時刻t-1においては、車両101前方の左方に樹木Tが存在している。時刻t-1において、LiDARセンサ120は全ての測定点について距離dを測定している。画像形成部149は、時刻t-1における測定データP[t-1]=(θ[t-1],φ[t-1],d[t-1])を取得する(ステップS101)。
 図16は、ある時刻tにおける、車両の前方の様子を示す。図16中の点群はLiDARセンサ120の測定データをそのまま可視化したものを示している。時刻tにおいては、車両101前方の左方に樹木Tが存在し、さらに車両101前方の右方には歩行者が存在している。つまり、時刻t-1から時刻tに進むときに、歩行者が車両の前方に入り込んできた。
 この時刻tにおいても、LiDARセンサ120は全ての測定点について距離を測定する。画像形成部149は、時刻tにおける測定データP[t]=(θ[t],φ[t],d[t])を取得する(ステップS102)。
 画像形成部149は、時刻t-1と時刻tにおいて同じ方位(θ,φ)における距離の変動Δd=d[t]-d[t-1]を計算する(ステップS103)。
 画像形成部149は、時刻tにおけるLiDARセンサ120の出力を可視化した画像を形成する。このとき、画像形成部149は、図17に示すように、時刻t-1から時刻tに至るまでに変化した部位を強調して画像を形成する。
 まず画像形成部149は、全ての方位について、Δdが所定の閾値dthより大きいか否かを判定する(ステップS104)。
 Δdが所定の閾値dthより小さい方位については(ステップS104:Yes)、画像形成部149は時刻tにおける距離d[t]を通常の方法で可視化する(ステップS105)。例えば方位θ,φについて白い背景に黒い点で距離d[t]を描く。
 Δdが所定の閾値dth以上である場合(ステップS104:No)、画像形成部149は時刻tにおける距離d[t]を通常の方法とは異なる方法で可視化する(ステップS106)。例えば方位θ,φについて白い背景に赤い丸で距離d[t]を描く。
 画像形成部149は、このようにして図17に示す画像を形成し、車両制御部103に出力する。画像形成部149は、BMP,PNG,GIF,JPEG,TIFFなどの任意のフォーマットで画像を形成する。
 すなわち、画像形成部149は、第一の時刻t-1でLiDARセンサ120から取得した第一測定データP[t-1]と、第一の時刻t-1から所定時間が経過した第二の時刻tでLiDARセンサ120から取得した第二測定データP[t]とを比較し、方位が同じでありながら距離が閾値以上異なる第二測定データP[t]を、方位が同じで距離の相違が閾値未満であった第二測定データP[t]とは異なる態様で表す画像を生成する。
 車両制御部103は、画像形成部149から画像を取得し、車室内に設置されたディスプレイに表示させてもよい。
 このように、本実施形態に係るLiDARセンサユニット10によれば、直前の状況と異なる測定点が、直前の状況から変わらなかった点と区別して表示される。直前の状況と異なる測定点が瞬時に把握可能になるため、車両制御部103は、直前の状況と異なった点を瞬時に把握して必要な動作を素早く実行することができる。例えば本実施形態においては、車両制御部103は直前の状況とは異なる歩行者の出現を瞬時に把握することができ、車両101に停止させる動作をさせることができる。
 なお、画像形成部149は、信号処理部147と一体に構成してもよいし、別々に構成してもよい。画像形成部149は、信号処理部147と車両制御部103との通信経路の途中に設けられていてもよい。
<第四実施形態>
 ところで、LiDARセンサは、車両の周囲の情報を取得することができるので、車両の駐車中に不審者がドアを開けようとすることを監視するなどの防犯センサとして利用することが考えられる。しかしながら、LiDARは多くの電力を消費してしまい、防犯センサとして使いにくい観点がある。
 そこで本発明の第四実施形態は、LiDARセンサを用いながら省電力の車両用防犯システムを提供する。
 図18は、本実施形態に係る車両用防犯システム202が取り付けられた車両1の上面図である。車両用防犯システム202は、複数のLiDARセンサユニット210を有している。図18に示したように、車両1の右前部、左前部、右後部、左後部にLiDARセンサユニット210が取り付けられている。
 本実施形態に用いられるLiDARセンサユニット210は、上述した第一実施形態で図2,3を用いて説明したLiDARセンサユニット10と同じであるため、その説明を省略する。
 図19は、車両用防犯システム202のブロック図である。図19に示すように車両用防犯システム202は、LiDARセンサユニット210と、ランプユニット230と、画像形成部251と、画像比較部252と、ランプ制御部253(制御部)を備えている。図19に示すように、LiDARセンサユニット210は、発光部241と、光源制御部245と、MEMSミラー243と、ミラー制御部246と、受光部242と、信号処理部247を備えている。光源制御部245は、発光部241の動作を制御する。ミラー制御部246は、MEMSミラー243の動作を制御する。ランプ制御部253は、ランプユニット230の点消灯を制御する。信号処理部247は、受光部242から出力される信号を処理し、車両制御部203へ出力する。車両制御部203は、車両201の挙動を制御する。
 図20は、車両用防犯システム202が実行する処理のフローチャートである。図21は、ある時刻tから所定時間前の時刻t-1における駐車している車両201の周囲の様子を示す。時刻t-1においては、車両201は駐車場に駐車している。図22は、図21の状態においてLiDARセンサ220が取得した測定データに基づいて画像形成部251が形成した画像I[t-1]である。
 時刻t-1において、LiDARセンサ220は全ての測定点について距離を測定している。画像形成部251は、時刻t-1における測定データP[t-1]=(θ[t-1],φ[t-1],d[t-1])を取得し、図22に示した画像I[t-1]を形成する(ステップS201)。
 図23は、時刻tにおける駐車している車両201の周囲の様子を示す。時刻tにおいては、歩行者Aが、駐車している車両201に図23における右上から接近している。図24は、図23の状態においてLiDARセンサ220が取得した測定データに基づいて画像形成部251が形成した画像I[t]である。
 時刻tにおいて、LiDARセンサ220は全ての測定点について距離を測定している。画像形成部251は、時刻tにおける測定データP[t]=(θ[t],φ[t],d[t])を取得し、図24に示した画像I[t]を形成する(ステップS202)。
 画像比較部252は、時刻t-1で取得した画像I[t-1]と、時刻tで取得した画像I[t]とを比較する。画像比較部252は、両者の画像I[t-1],I[t]に所定値以上の差異が生じているか否かを判定する(ステップS203)。例えば画像比較部252は、両者の画像I[t-1],I[t]に差異がある画素数が所定値以上であるときに、所定値以上の差異が生じていると判定する。例えば画像比較部252が、画像を構成する全画素数に対して、差異がある画素数が3%以上であるときに、両者の画像I[t-1],I[t]に所定値以上の差異が生じていると判定する。閾値に設定する全画素に対する差異がある画素数の割合は、5%、10%など、ユーザが段階的に変更可能に構成されていてもよい。
 両者の画像I[t-1],I[t]に所定値以上の差異が生じていない場合には(ステップS203:No)、車両用防犯システム202は第一の期間が経過後に再びステップS201を実行する(ステップS204)。
 両者の画像I[t-1],I[t]に所定値以上の差異が生じている場合には(ステップS203:Yes)、画像比較部252は、警報処理を行う(ステップS205)。
 本実施形態において、画像比較部252は以下の警報処理を行う。まず、画像比較部252は、差異が自車両201から見てどの方位に生じているかを特定する。さらに、画像比較部252は、特定した方位をLiDARセンサ220の光源制御部245およびミラー制御部246へ出力する。なお図示の例では、特定する方位は自車両201の右上の位置方向のみであるが、差異が複数の方位で生じている場合には、複数の方位を特定しLiDARセンサ220へ出力してもよい。さらにランプ制御部は、特定した方位を照らすようにランプユニット230を点灯させる。画像比較部252は、ユーザの所有する携帯電話に異常を知らせる信号を出力するように構成してもよい。
 さらに画像比較部252は、警報解除信号を取得したか否かを判定する(ステップS206)。例えば、画像比較部252は、車両制御部203、または、ユーザの携帯電話から所定の警報解除信号を取得可能に構成されている。
 画像比較部252が所定期間内に警報解除信号を取得したら(ステップS206:Yes)、画像比較部252は警報を解除して(ステップS207)、処理を終了する。
 画像比較部252が所定期間内に警報解除信号を取得しない場合(ステップS206:No)、車両用防犯システム202は、第二の所定期間経過後にステップS201を実行する(ステップS208)。ここで、第二の所定期間は、第一の所定期間よりも短く設定されている。例えば第一の所定期間は30秒であり、第二の所定期間は0.5秒である。あるいは第一の所定期間は60秒であり、第二の所定期間は1秒である。つまり車両用防犯システム202は、約30秒の周期でステップS201~S203を繰り返す。
 第一の所定期間間隔で取得した測定データを第一測定データと呼ぶ。第二の所定期間間隔で取得した測定データを第二測定データと呼ぶ。つまり、上述した実施形態は、第一測定データを測定中に所定値より大きな変動が生じた時に、第一周期より短い第二周期で第二測定データを取得するように構成されている。
 LiDARセンサ220は、高精度に対象物の形状を取得することができるため、防犯システムに適している。また、LiDARセンサ220は自動運転可能な車両201に搭載されることが多い。自動運転可能な車両201に搭載されたLiDARセンサ220は走行中は稼働しているものの、駐車中は使われていない。LiDARセンサ220を使った車両用防犯システム202は、駐車中に使用されていないLiDARセンサ220を用いることができ、車両用防犯システムのためだけに別途センサを用いる必要が無く、合理的である。
 さらに本実施形態に係る車両用防犯センサ2は、第一測定データを測定中に所定値より大きな変動が生じた時に、第一周期より短い第二周期で第二測定データを取得するように構成されている。つまり平常時には電力の消費が少なくなるように、第一周期でLiDARセンサ220を動作させ、何らかの状態が変化して異常が疑われる場合には、第二周期でLiDARセンサ220を動作させて詳しく調べることができる。これにより、消費電力を抑えつつ、必要な時に高い精度の情報を取得することができる。
 また本実施形態において、車両用防犯システム202の光源制御部245は、駐車中にLiDARセンサ220を、走行時に行うセンシングの分解能よりも低い分解能で動作させる、または、走行時に行うセンシングの周期よりも長い周期で動作させるように構成してもよい。
 駐車中に防犯用途でLiDARセンサ220を用いる場合には、走行時に求められる分解能(測定点の数)よりも低い分解能で足りる。また、駐車中に防犯用とでLiDARセンサ220を用いる場合には、走行時に求められる周期(スキャン周期)よりも長い周期で足りる。低い分解能や長い周期でLiDARセンサ220を動作させることにより、LiDARセンサ220で消費される電力を抑制することができる。
 なお本実施形態において画像比較部252が差異の生じている方位を特定する際には、画像比較部252は、時刻tで取得した画像I[t]を自車両201を中心に周方向に12個の領域に区分けし、この区分けした領域を特定している。画像比較部252は、方位を特定する代わりに、差異の生じている画素がどの領域に属しているかを特定し、属している領域をランプ制御部253に出力するように構成してもよい。この場合、ランプ制御部253は、入力されてきた領域に向けて光を出射可能なランプユニット230を点灯させるように構成してもよい。
 また、上述の実施形態では、画像I[t-1]と画像I[t]に所定値以上の差異が生じた場合にすぐに警報処理を行うように構成したが、所定値以上の差異が生じた時に、該差異が、例えば不審人物の行動パターンとして登録されたパターンと一致しているか否かを判定し、該差異が該パターンと一致するときに警報処理を行うように構成してもよい。
 また、警報処理は、光を発する、音を発する、車両201の所有者に知らせる、などの公知の手段を取ることができる。
 なお、本実施形態において、車両用防犯システム202は、車両201のオーナーや登録された人物(ユーザと呼ぶ)を、登録していない人物と識別可能に構成されていてもよい。車両用防犯システム202はユーザ情報記録部254を有していてもよい。ユーザ情報記録部254は、ユーザと関連づけられた特定の形状を記録している。画像比較部252は、時刻t-1の画像I[t-1]と時刻tの画像I[t]とに相違があると判定した後に、時刻tの画像I[t]中の差異のあった部分が、ユーザ情報記録部254に記録されている形状と一致するか否かを判定する。両者が一致していれば、ランプ制御部253は、両者が一致していない場合とは異なる方法でランプユニット230を点灯させる。
 例えば、差異のあった部分がユーザ情報記録部254に記録されている形状と一致していれば該当する方位に向けてランプユニット230を常時点灯させ、差異のあった部分がユーザ情報記録部254に記録されている形状と一致していなければ該当する領域に向けてランプユニット230を点滅させるように構成してもよい。例えばユーザ情報記録部254は、ユーザの顔の形状や、ユーザが所有するキーホルダーの形状などを記録することができる。
 ランプ制御部253は、形状が一致する場合と一致しない場合とでランプユニット230の点灯態様を異ならせるとは、ランプユニット230の点灯と点滅、点滅を相違させる、点灯色を相違させる、明るさを相違させることを含む。また、ランプユニット230が複数の光源を有している場合には、ランプユニット230の点灯態様を異ならせることは、点灯させる光源の数や形状を相違させることを含む。
 なお、画像形成部251と画像比較部252とランプ制御部253は、信号処理部247と一体に構成してもよいし、別々に構成してもよい。画像形成部251と画像比較部252とランプ制御部253は、信号処理部247と車両制御部203との通信経路の途中に設けられていてもよい。
 また、上述した実施形態においては、画像比較部252が時刻t-1の画像と時刻tの画像とに相違がある場合に、ランプ制御部253に相違のある方位を出力し、ランプ制御部253が対応する方位に向けて光を出射させる構成を説明したが、本発明はこれに限られない。LiDARセンサユニット210に指向性スピーカが設けられている場合には、画像比較部252が時刻t-1の画像と時刻tの画像とに相違がある場合に、音源制御部に相違のある方位を出力し、音源制御部が指向性スピーカに対応する方位に向けて音を出射させる構成としてもよい。
 また、上述した実施形態においては、車両201の右前部、左前部、右後部、左後部に設けられるLiDARセンサ220について説明したが、本発明は、車両201の搭載場所を問わず全てのLiDARセンサ220について適用できる。
 さらに、上述した実施形態においては、LiDARセンサ220がランプユニット230とともに共通のアウタカバー12とハウジング11の内部に設けられる例を説明したが、本発明はこれに限られない。LiDARセンサ220がランプユニット230とは独立して設けられていてもよい。また、LiDARセンサ220がカメラやミリ波レーダなどの他のセンサと共通のアウタカバー12とハウジング11の内部に設けられていてもよい。
 上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
 上述した実施形態においては、車両1の右前部、左前部、右後部、左後部に設けられるLiDARセンサユニットについて説明したが、本発明は、車両の搭載場所を問わず全てのLiDARセンサユニットについて適用できる。
 さらに、上述した実施形態においては、LiDARセンサがランプユニットとともに共通のアウタカバーとハウジングの内部に設けられる例を説明したが、本発明はこれに限られない。LiDARセンサがランプユニットとは独立して設けられていてもよい。あるいは、LiDARセンサがカメラやミリ波レーダなどの他のセンサと共通のアウタカバーとハウジングの内部に設けられていてもよい。
 本出願は、2019年1月10日出願の日本特許出願(特願2019-002788)、2019年1月10日出願の日本特許出願(特願2019-002789)、2019年1月10日出願の日本特許出願(特願2019-002790)、2019年1月10日出願の日本特許出願(特願2019-002791)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明によれば、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットが提供される。
1 車両
3 車両制御部
10 LiDARセンサユニット
11 ハウジング
12 アウタカバー(レンズ要素)
20 LiDARセンサ
30 ランプユニット
41 発光部
42 受光部
43 MEMSミラー
44 集光レンズ
45 光源制御部
46 ミラー制御部
47 信号処理部(処理部)
48 メモリ(記録部)
101 車両
103 車両制御部
110 LiDARセンサユニット
111 ハウジング
112 アウタカバー
120 LiDARセンサ
141 発光部
142 受光部
143 MEMSミラー
144 集光レンズ
145 光源制御部
146 ミラー制御部
147 信号処理部(処理部)
148 メモリ
149 画像形成部
201 車両
202 車両用防犯システム
203 車両制御部
210 LiDARセンサユニット
220 LiDARセンサ
230 ランプユニット(光源)
241 発光部
242 受光部
243 MEMSミラー
244 集光レンズ
245 光源制御部
246 ミラー制御部
247 信号処理部
251 画像形成部
252 画像比較部
253 ランプ制御部(制御部)
254 ユーザ情報記録部
S 標準スクリーン
θ 方位角
φ 仰角
d 距離
dmax 最大値
dmin 最小値
dmean 平均値
dth 変動閾値
Δd 差分
dth 閾値
Δd 変動
A 歩行者

Claims (9)

  1.  LiDARセンサと、
     前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
     前記LiDARセンサが測定した、測定対象の方位と距離を含む測定データを出力する処理部を有し、
     前記処理部は、同じ環境において前記レンズ要素の取付の前後で同じ方位でありながら異なる距離となった特定の方位については、前記測定データを出力しないように構成されている、LiDARセンサユニット。
  2.  同じ環境において前記レンズ要素の取付の前後で同じ方位でありながら異なる距離となった特定の方位が、書き換え可能な記録部に記録されている、請求項1に記載のLiDARセンサユニット。
  3.  LiDARセンサと、
     前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
     前記LiDARセンサが測定した、測定対象の方位と距離を含む測定データを出力する処理部を有し、
     前記処理部は、前記LiDARセンサに、同じ環境において前記レンズ要素の取付の前後で同じ方位でありながら異なる距離となった特定の方位には検出光を出射させない、LiDARセンサユニット。
  4.  LiDARセンサと、
     前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
     前記LiDARセンサが測定した、測定対象の方位と距離を含む測定データを出力する処理部と、
     同じ環境において前記レンズ要素の取付の前後で同じ方位でありながら異なる距離となった特定の方位が記録された記録部とを有する、LiDARセンサユニット。
  5.  車両に搭載され、少なくとも測定対象の距離データを出力可能なLiDARセンサと、
     前記LiDARセンサが取得した距離データを含むデータを測定データとして出力する処理部を有し、
     前記処理部は、所定期間において蓄積された前記距離データのうちの最大値と最小値に基づいて決定された所定の変動閾値以内の距離を一定の距離として前記測定データを出力する、LiDARセンサユニット。
  6.  前記処理部は、n-1回目の所定期間において、n回目の所定期間において蓄積された前記距離データのうちの最大値と最小値に基づいて決定された前記変動閾値以内の距離を一定の距離として前記測定データを出力する、請求項5に記載のLiDARセンサユニット。
  7.  車両に搭載され、対象物の方位と距離を含む測定データを出力するLiDARセンサと、
     前記LiDARセンサから出力される前記測定データを処理する処理部と、
     第一の時刻で前記LiDARセンサから取得した第一測定データと、前記第一の時刻から所定時間が経過した第二の時刻で前記LiDARセンサから取得した第二測定データとを比較し、方位が同じでありながら距離が閾値以上異なる前記第二測定データを、方位が同じで距離の相違が閾値未満であった前記第二測定データとは異なる態様で表す画像を生成する画像形成部を有する、LiDARセンサユニット。
  8.  車両に搭載され、車両の周囲の情報を取得するLiDARセンサと、
     前記LiDARセンサを制御する制御部を有し、
     前記制御部は、車両の駐車中に、第一周期で第一測定データを取得し、前記第一測定データに所定値より大きな変動が生じた時に、前記第一周期より短い第二周期で第二測定データを取得するように構成されている、車両用防犯システム。
  9.  前記制御部は、前記第一測定データで所定値より大きな変動が生じた方位を含む前記第一周期で測定していた方位範囲より狭い方位範囲を、前記第二周期で前記第二測定データを取得するように構成されている、請求項8に記載の車両用防犯システム。
PCT/JP2019/050166 2019-01-10 2019-12-20 LiDARセンサユニットおよび車両用防犯システム WO2020145097A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19909042.4A EP3910372A4 (en) 2019-01-10 2019-12-20 LIDAR SENSOR UNIT AND VEHICLE SECURITY SYSTEM
US17/422,068 US20220113427A1 (en) 2019-01-10 2019-12-20 LiDAR SENSOR UNIT AND VEHICLE SECURITY SYSTEM
CN201980088617.4A CN113287030A (zh) 2019-01-10 2019-12-20 LiDAR传感器单元及车辆用防盗系统
JP2020565678A JP7382349B2 (ja) 2019-01-10 2019-12-20 LiDARセンサユニットおよび車両用防犯システム

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2019-002788 2019-01-10
JP2019002788 2019-01-10
JP2019002791 2019-01-10
JP2019-002791 2019-01-10
JP2019-002789 2019-01-10
JP2019002790 2019-01-10
JP2019002789 2019-01-10
JP2019-002790 2019-02-12

Publications (1)

Publication Number Publication Date
WO2020145097A1 true WO2020145097A1 (ja) 2020-07-16

Family

ID=71521751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050166 WO2020145097A1 (ja) 2019-01-10 2019-12-20 LiDARセンサユニットおよび車両用防犯システム

Country Status (5)

Country Link
US (1) US20220113427A1 (ja)
EP (1) EP3910372A4 (ja)
JP (1) JP7382349B2 (ja)
CN (1) CN113287030A (ja)
WO (1) WO2020145097A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490017B2 (ja) 2022-05-19 2024-05-24 三菱電機株式会社 自動運転装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11852753B1 (en) * 2019-10-04 2023-12-26 Waymo Llc Laminate structures for maintaining clear apertures

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527037A (ja) * 1991-06-25 1993-02-05 Kansei Corp 車間距離測定レーダ
JPH05264731A (ja) * 1992-03-23 1993-10-12 Koito Mfg Co Ltd 反射体検出装置
JPH0784046A (ja) * 1993-07-22 1995-03-31 Mitsubishi Electric Corp 距離測定装置
JPH08101267A (ja) * 1994-09-30 1996-04-16 Mazda Motor Corp 走行状態制御装置
JP2011207444A (ja) * 2010-03-30 2011-10-20 Denso Corp 車両用制御装置及び車両用保安システム
JP2012237580A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両のレーザーレーダーユニット
US20130100114A1 (en) * 2011-10-21 2013-04-25 James D. Lynch Depth Cursor and Depth Measurement in Images
JP2014109537A (ja) * 2012-12-04 2014-06-12 Mitsubishi Electric Corp レーザーレーダー装置
JP2014142242A (ja) * 2013-01-23 2014-08-07 Denso Corp 物体認識装置
WO2017056776A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法
JP2017102840A (ja) * 2015-12-04 2017-06-08 株式会社デンソー 車両監視装置
JP2017202708A (ja) * 2016-05-09 2017-11-16 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018026305A (ja) * 2016-08-12 2018-02-15 株式会社小糸製作所 照明装置
JP2018128432A (ja) 2017-02-10 2018-08-16 ミネベアミツミ株式会社 レーザー距離計測装置
US20180284285A1 (en) * 2017-03-29 2018-10-04 Luminar Technologies, Inc. Synchronized multiple sensor head system for a vehicle
US20180334137A1 (en) * 2017-05-18 2018-11-22 Ford Global Technologies, Llc Vehicle theft avoidance systems and associated methods
JP2019002791A (ja) 2017-06-15 2019-01-10 株式会社堀場製作所 光検出器の出力補正用演算式の算出方法、及び光検出器の出力補正方法
JP2019002788A (ja) 2017-06-15 2019-01-10 リョーエイ株式会社 金属加工面の検査方法、金属加工面の検査装置
JP2019002789A (ja) 2017-06-15 2019-01-10 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019002790A (ja) 2017-06-15 2019-01-10 日本電信電話株式会社 形状推定装置、形状推定方法及びプログラム

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527037A (ja) * 1991-06-25 1993-02-05 Kansei Corp 車間距離測定レーダ
JPH05264731A (ja) * 1992-03-23 1993-10-12 Koito Mfg Co Ltd 反射体検出装置
JPH0784046A (ja) * 1993-07-22 1995-03-31 Mitsubishi Electric Corp 距離測定装置
JPH08101267A (ja) * 1994-09-30 1996-04-16 Mazda Motor Corp 走行状態制御装置
JP2011207444A (ja) * 2010-03-30 2011-10-20 Denso Corp 車両用制御装置及び車両用保安システム
JP2012237580A (ja) * 2011-05-10 2012-12-06 Honda Motor Co Ltd 車両のレーザーレーダーユニット
US20130100114A1 (en) * 2011-10-21 2013-04-25 James D. Lynch Depth Cursor and Depth Measurement in Images
JP2014109537A (ja) * 2012-12-04 2014-06-12 Mitsubishi Electric Corp レーザーレーダー装置
JP2014142242A (ja) * 2013-01-23 2014-08-07 Denso Corp 物体認識装置
WO2017056776A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法
JP2017102840A (ja) * 2015-12-04 2017-06-08 株式会社デンソー 車両監視装置
JP2017202708A (ja) * 2016-05-09 2017-11-16 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018026305A (ja) * 2016-08-12 2018-02-15 株式会社小糸製作所 照明装置
JP2018128432A (ja) 2017-02-10 2018-08-16 ミネベアミツミ株式会社 レーザー距離計測装置
US20180284285A1 (en) * 2017-03-29 2018-10-04 Luminar Technologies, Inc. Synchronized multiple sensor head system for a vehicle
US20180334137A1 (en) * 2017-05-18 2018-11-22 Ford Global Technologies, Llc Vehicle theft avoidance systems and associated methods
JP2019002791A (ja) 2017-06-15 2019-01-10 株式会社堀場製作所 光検出器の出力補正用演算式の算出方法、及び光検出器の出力補正方法
JP2019002788A (ja) 2017-06-15 2019-01-10 リョーエイ株式会社 金属加工面の検査方法、金属加工面の検査装置
JP2019002789A (ja) 2017-06-15 2019-01-10 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019002790A (ja) 2017-06-15 2019-01-10 日本電信電話株式会社 形状推定装置、形状推定方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490017B2 (ja) 2022-05-19 2024-05-24 三菱電機株式会社 自動運転装置

Also Published As

Publication number Publication date
EP3910372A1 (en) 2021-11-17
US20220113427A1 (en) 2022-04-14
JPWO2020145097A1 (ja) 2021-11-25
EP3910372A4 (en) 2023-01-04
CN113287030A (zh) 2021-08-20
JP7382349B2 (ja) 2023-11-16

Similar Documents

Publication Publication Date Title
US10558897B2 (en) Context-based digital signal processing
US9555812B2 (en) Method for detecting a roadway and corresponding detection systems
KR102061445B1 (ko) 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치
US10200676B2 (en) Image detection system of vehicle
NL2018281B1 (en) Method and system for alerting a truck driver
US10300852B2 (en) Water depth estimation apparatus and method
WO2020145097A1 (ja) LiDARセンサユニットおよび車両用防犯システム
JP2020035443A (ja) センシング装置
JP2007241740A (ja) 車両周辺監視装置
US20200114805A1 (en) Method for reducing headlight glare, headlight system and system controller for controlling a headlight system
JP2013521481A (ja) 分光分析により霧を検出する方法および装置
CN109703555B (zh) 用于探测道路交通中被遮蔽的对象的方法和设备
US11961306B2 (en) Object detection device
CN116071712A (zh) 车辆传感器遮挡检测
US20200200871A1 (en) Locating and/or classifying objects based on radar data, with improved reliability at different distances
CN116324478A (zh) 用于确定传感器退化状态的方法
JP7390312B2 (ja) LiDARセンサユニット
JP2020093600A (ja) 反射光検出装置、反射光検出方法およびプログラム
KR20210114530A (ko) 차량 주위에서의 타깃에 대한 신뢰점수를 결정하는 방법
US20170158130A1 (en) System to detect vehicle lamp performance
Hautière et al. Daytime visibility range monitoring through use of a roadside camera
WO2021059967A1 (ja) 物体認識装置及び物体認識プログラム
JP4716294B2 (ja) 車両周辺監視装置、車両、車両周辺監視プログラム
WO2023085403A1 (ja) センシングシステム
KR102658708B1 (ko) 항온동물 탐지 및 접근 예지 학습을 통한 충돌 위험 알림 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19909042

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020565678

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019909042

Country of ref document: EP

Effective date: 20210810