WO2016199442A1 - レーザレーダ装置および検知方法 - Google Patents

レーザレーダ装置および検知方法 Download PDF

Info

Publication number
WO2016199442A1
WO2016199442A1 PCT/JP2016/052443 JP2016052443W WO2016199442A1 WO 2016199442 A1 WO2016199442 A1 WO 2016199442A1 JP 2016052443 W JP2016052443 W JP 2016052443W WO 2016199442 A1 WO2016199442 A1 WO 2016199442A1
Authority
WO
WIPO (PCT)
Prior art keywords
laser light
light
light source
unit
laser
Prior art date
Application number
PCT/JP2016/052443
Other languages
English (en)
French (fr)
Inventor
菅原 孝
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP16807149.6A priority Critical patent/EP3147684A4/en
Priority to US15/331,952 priority patent/US20170038458A1/en
Publication of WO2016199442A1 publication Critical patent/WO2016199442A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/52Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating emergencies
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body

Definitions

  • the present invention relates to a laser radar device and a detection method for recognizing an object by two-dimensionally scanning infrared laser light and receiving reflected light.
  • a TOF (Time of Flight) method As a method for measuring the distance of an object using a laser, a TOF (Time of Flight) method is known in which an infrared laser is pulsed and the distance of the object is measured from a time delay amount of reflected light from the object. Yes.
  • a wide range of sensing can be performed by two-dimensionally scanning an infrared laser with a polygon mirror or MEMS (micro-electro-mechanical system) mirror, so it is practical as a distance detection and obstacle detection sensor for in-vehicle applications. It has become.
  • Laser radar devices generally display an image of an object on a monitor when an object such as an obstacle is detected. In this case, the user estimates the actual position and size of the object from the image displayed on the monitor.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a technique for allowing a user to more intuitively recognize an object detected by a laser radar.
  • a laser radar device (1) includes a first light source part (Dir) that emits infrared laser light and a second light source part (Db) that emits visible laser light.
  • Dir first light source part
  • Db second light source part
  • Dg, Dr infrared laser beam emitted from the first light source unit
  • Db, Dg, Dr visible laser beam emitted from the second light source unit
  • the second light source unit (Db, Dg, Dr) transmits a different visible laser beam according to information on the target object to the target object or the target object. Irradiate near the object or toward the object and its vicinity.
  • Another aspect of the present invention is a detection method.
  • This method includes a step of two-dimensionally scanning an infrared laser beam emitted from an infrared light source unit (Dir) through a scanning mirror unit (13), and a red beam irradiated through the scanning mirror unit (13).
  • a step of detecting reflected light of the outside laser light a step of recognizing an object located within the irradiation range of the infrared laser light based on the detected reflected light, and a visible light when the object is recognized Irradiating a different visible laser beam from the light source unit (Db, Dg, Dr) according to information on the object toward the object or the vicinity of the object or the object and the vicinity thereof.
  • the object detected by the laser radar can be more intuitively recognized by the user.
  • FIG. 4A and 4B are diagrams illustrating an example of the detection result of the object according to the first embodiment and irradiation data.
  • 3 is a flowchart for explaining the operation of the laser radar device according to the first embodiment.
  • FIG. 4A and 4B are diagrams illustrating an example of the detection result of the object according to the first embodiment and irradiation data. 3 is a flowchart for explaining the operation of the laser radar device according to the first embodiment. It is a figure which shows an example of the reference table constructed
  • FIGS. 7A and 7B are diagrams illustrating an example of the detection result of the object according to the second embodiment and irradiation data.
  • 6 is a flowchart for explaining an operation of a laser radar apparatus according to a second embodiment.
  • FIGS. 9A and 9B are diagrams illustrating an example of the detection result of the object according to the third embodiment and irradiation data.
  • 9 is a flowchart for explaining an operation of a laser radar device according to a third embodiment.
  • FIGS. 11A and 11B are diagrams illustrating examples of the detection result of the object according to the fourth embodiment and irradiation data.
  • 12A and 12B are diagrams illustrating another example of the detection result of the object according to the fourth embodiment and irradiation data.
  • 9 is a flowchart for explaining an operation of a laser radar device according to a fourth embodiment.
  • FIG. 1 is a diagram showing a configuration of a laser radar device 1 according to an embodiment of the present invention.
  • the laser radar device 1 includes a laser light source unit 10, and the laser light source unit 10 includes a visible laser light source unit that emits visible laser light and an infrared laser light source unit that emits infrared laser light.
  • FIG. 1 illustrates an example in which three primary color laser light sources (blue laser diode Db, green laser diode Dg, and red laser diode Dr) are used as visible laser light sources.
  • three primary color laser light sources blue laser diode Db, green laser diode Dg, and red laser diode Dr
  • the collimator lens 11 is disposed at the emission part of the blue laser diode Db, and substantially collimated blue collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission part of the green laser diode Dg, and substantially collimated green collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission portion of the red laser diode Dr, and substantially collimated green collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission part of the infrared laser diode Dir, and substantially collimated infrared collimated light is formed.
  • the optical axes of the laser beams emitted from the three primary color laser light sources and the infrared laser light source are adjusted to be substantially coaxial via the four dichroic mirrors 12 and synthesized.
  • the laser beam light synthesized substantially coaxially is incident on the deflection mirror 13.
  • the blue laser diode Db, the green laser diode Dg, and the red laser diode Dr are driven by the visible light source driver 33 and controlled to emit / extinguish light independently.
  • the infrared laser diode Dir is driven by an infrared light source driver 32 and is controlled to emit / extinguish. Therefore, the laser light source unit 10 can emit infrared laser light, visible laser light, or laser light in which both are superimposed.
  • the deflecting mirror 13 is a biaxial deflecting mirror that can rotate biaxially, and a MEMS mirror or a polygon mirror can be used.
  • a MEMS mirror capable of high-speed and fine scanning is used.
  • the deflection mirror 13 reflects the laser light incident from the laser light source unit 10 and performs two-dimensional scanning.
  • raster scanning as two-dimensional scanning is assumed.
  • a Lissajous scan can be used instead of the raster scan.
  • the laser beam raster-scanned by the deflection mirror 13 is projected to the outside from a projection port (not shown).
  • a projection port (not shown).
  • the laser light projected from the projection port is reflected on the object surface.
  • the projection direction varies depending on the use application of the laser radar device 1. If the laser radar device 1 is used to detect an object in front of the vehicle, a wide range in front of the vehicle is two-dimensionally scanned with the vehicle front as the projection direction. . An object detected in this case is a person, another vehicle, a building, or the like. When only infrared laser light is projected, a human cannot see.
  • FIG. 1 the raster scan locus of the laser beam in the laser beam irradiation range 2 is schematically drawn.
  • the infrared laser light emitted from the infrared laser diode Dir is branched by the first stage dichroic mirror 12 and enters the reference light detector PD1.
  • the reference light detector PD1 converts the incident infrared laser light into an electric signal (hereinafter referred to as a reference signal) and outputs it.
  • the amplifier AP1 amplifies the reference signal output from the reference light detector PD1.
  • the infrared laser light emitted from the infrared laser diode Dir is also irradiated to the outside through the deflection mirror 13.
  • the irradiated infrared laser light is reflected by the surface of various substances existing outside.
  • the condensing lens 14 condenses the reflected infrared laser light.
  • the reflected light detector PD2 converts infrared laser reflected light incident through the condenser lens 14 into an electrical signal (hereinafter referred to as a detection signal) and outputs the electrical signal.
  • the amplifier AP2 amplifies the detection signal output from the reflected light detector PD2.
  • detection malfunction can be reduced by disposing an optical filter that transmits infrared rays and blocks visible light in front of the reflected light detector PD2.
  • the synchronous clock supply unit 31 includes an oscillator such as a crystal resonator, and generates a synchronous signal from the output signal of the oscillator.
  • the synchronization clock supply unit 31 supplies the generated synchronization signal to the infrared light source driver 32, the visible light source driver 33, the scanning mirror driver 34, and the distance measurement unit 21.
  • the scanning mirror driver 34 performs raster scan control of the deflection mirror 13 based on the synchronization signal supplied from the synchronization clock supply unit 31. That is, the scanning mirror driver 34 sequentially moves the scanning position from the upper left end of the scanning area toward the lower right end. Specifically, the X-axis direction (main scanning direction) is updated sequentially from left to right, and when the scan position reaches the right end, the Y-axis direction (sub-scanning direction) is updated one downward. By repeating this process, the scan position reaches the lower right end of the scan area. When the right lower end is reached, the raster scan for one frame is completed, and the raster scan of the next frame starts from the upper left end. The raster scan is performed for 60 frames per second, for example. The frame rate is not limited to 60 Hz, but may be 15 Hz, 30 Hz, 120 Hz, or the like.
  • the infrared light source driver 32 causes the infrared laser diode Dir to emit pulses based on the synchronization signal supplied from the synchronization clock supply unit 31.
  • the infrared laser light emitted from the infrared laser diode Dir is detected as reference light by the reference light detector PD1.
  • the infrared laser light is raster-scanned by the deflecting mirror 13, then reflected by the surface of the substance existing in the irradiation range 2, and detected as reflected light by the reflected light detector PD2.
  • the reference signal detected as reference light by the reference light detector PD1 is amplified by the amplifier AP1 and output to the distance measuring unit 21.
  • the detection signal detected as reflected light by the reflected light detector PD2 is amplified by the amplifier AP2 and output to the distance measuring unit 21.
  • the distance measuring unit 21 measures the distance from the laser radar device 1 to the reflection point based on the amount of time delay with respect to the reference signal of the detection signal (TOF (Time of Flight) method). Since the same synchronization signal is input to the infrared light source driver 32, the scanning mirror driver 34, and the distance measurement unit 21, the distance measurement unit 21 can detect how many clocks are delayed for each scan position, and according to the number of delay clocks. Thus, the distance to the reflection point at each scan position can be estimated. The distance measurement unit 21 outputs distance information of each scan position to the object recognition unit 22.
  • TOF Time of Flight
  • the object recognition unit 22 compares the distance input from the distance measurement unit 21 with the set distance, and recognizes the presence of the object when the input distance is equal to or less than the set distance.
  • the set distance is set to a distance shorter than the distance to a reflection point (for example, the ground or a wall) in a state where no obstacle exists.
  • the distance to the reflection point varies depending on the installation position and use location of the laser radar device 1.
  • the object recognition unit 22 generates distance map data in which distance information of each scan position is mapped for each frame.
  • the object recognition unit 22 identifies the position and shape of the object based on the distance map data. When the detection distance is close at adjacent scan positions, it is determined that they are the same object.
  • the pattern holding unit 23 holds identification pattern data of various objects. For example, pedestrian identification pattern data, automobile identification pattern data, and the like are stored.
  • the object recognition unit 22 collates the shape of the object detected from the distance map data with the pattern data held in the pattern holding unit 23, and determines the type of the object. For this verification, a general pattern matching algorithm may be used, and the algorithm is not particularly limited.
  • the object recognition unit 22 When the object recognition unit 22 recognizes the object in the frame, the object recognition unit 22 supplies the generated distance map data of the frame to the projection data determination unit 24. When the type of the object is determined, the type of the object is also supplied to the projection data determination unit 24.
  • the projection data determination unit 24 determines the projection data of the next frame based on the distance map data supplied from the object recognition unit 22. For example, color data is assigned to each scan position according to distance information of each scan position. In principle, infrared data is assigned to a scan position where an object does not exist, and color data is assigned to a scan position where the object exists. At that time, color data is determined according to the distance to the object. For example, a shorter color may be assigned as the distance is shorter. Further, the infrared laser light may be continuously output even at the scan position where the object is present.
  • the object is irradiated with visible laser light.
  • the irradiation position of the visible laser light and the position of the object do not need to be completely coincident, and the visible laser light may be irradiated over a wider range than the object.
  • color data corresponding to the distance of the target object is also assigned to the vicinity of the scan position where the target object exists in the frame.
  • color data may be determined according to the shape of the object.
  • the shape of the object is a concept including “the size of the object”. Therefore, even if two similar objects are different in size, they are different objects. For example, a more conspicuous color may be assigned as the object is larger. Further, the color data may be determined according to the type of the object.
  • solid color data is allocated to the scan position where the object is present in the frame, but image data including a specific pattern, mark, character, etc. is allocated to the scan position where the object is present. May be.
  • the image data may include a message for the user of the laser radar device 1.
  • the object When the object is a person, it may include a message for the person.
  • These image data are held in the projection data holding unit 25.
  • the position to which the image data is allocated does not have to be completely coincident with the position of the object, and may be a position shifted from the object (for example, a position in the vicinity of the object). Further, it may be a wide range of positions including the object. For example, when the object is a person, the image data may be assigned to a position excluding the range of the head from the viewpoint of the person's eye safety.
  • the content of the image data may be determined according to the distance to the object, or the content of the image data may be determined according to the shape of the object. Further, the content of the image data may be determined according to the type of the object. For example, content reflecting the type of object may be determined as image data. For example, the image type of the mark may be determined as a metaphor for the type of the object, or may be determined as image data including a message corresponding to the type of the object.
  • the projection data determination unit 24 supplies the projection data determined for each frame to the projection data setting unit 26.
  • the projection data setting unit 26 sets the supplied projection data in the visible light source driver 33.
  • the visible light source driver 33 drives the blue laser diode Db, the green laser diode Dg, and the red laser diode Dr according to the set projection data. For example, at the scan position where red data is set as projection data, the red laser diode Dr is turned on, and the blue laser diode Db and the green laser diode Dg are turned off.
  • Each laser diode can control the color gradation by controlling the applied voltage. With such a configuration capable of gradation control, more various colors can be reproduced.
  • FIG. 2 is a diagram schematically illustrating an example in which the laser radar device 1 according to the present embodiment is used for in-vehicle use.
  • the laser radar device 1 is installed inside the windshield of the vehicle.
  • the installation position of the laser radar device 1 is not particularly limited as long as it is a position where the front of the vehicle can be within the irradiation range 2, and may be in the front bumper or the front grill.
  • an infrared laser beam when an infrared laser beam is always projected onto the irradiation range 2 and an object is detected within the irradiation range 2, the object or the vicinity of the object or the object and the vicinity thereof are visible.
  • Laser light is irradiated. Since only the infrared laser beam is projected while the object is not detected, the driver can perform the driving operation without being aware of the projection of the laser beam from the laser radar device 1.
  • the object such as a pedestrian, a bicycle, a preceding vehicle, an oncoming vehicle, or an obstacle is detected in front of the vehicle, in principle, the object is illuminated with visible light.
  • Such control is particularly effective during night driving, and the driver can instantly and accurately grasp the position of the object by illuminating the object with visible light.
  • the first embodiment is an example in which a visible laser beam having a preset color is irradiated on the target according to the distance of the target recognized by the target recognition unit 22.
  • the pattern holding unit 23 can be omitted.
  • the projection data holding unit 25 can be omitted.
  • FIG. 3 is a diagram illustrating an example of the reference table 221 constructed in the object recognition unit 22 according to the first embodiment.
  • the reference table 221 is a table in which the distance from the laser radar device 1 measured by the distance measuring unit 21 to the object is associated with the color of the laser light emitted from the visible laser light source.
  • the visible light source driver 33 emits the red laser diode Dr and extinguishes the blue laser diode Db and the green laser diode Dg when the red laser light is selected.
  • yellow laser light is selected, the green laser diode Dg and the red laser diode Dr are caused to emit light, and the blue laser diode Db is extinguished.
  • white laser light is selected, all of the red laser diode Dr, the green laser diode Dg, and the blue laser diode Db are caused to emit light.
  • FIG. 4A and 4B are diagrams illustrating an example of the detection result of the object according to the first embodiment and irradiation data.
  • FIG. 4A shows distance map data in the irradiation range 2. This distance map data is generated based on the reflected light of the infrared laser beam.
  • three objects, a first object (falling object: cardboard) O1, a second object (person) O2, and a third object (oncoming vehicle) 03 are detected.
  • the object recognition unit 22 since the object type determination is not basically performed, the object recognition unit 22 does not specify the object type.
  • the distance between the first object O1 and the laser radar device 1 is less than 5 m, and the projection data determination unit 24 assigns red data to the scan position of the first object O1.
  • the distance between the second object O2 and the laser radar device 1 is not less than 5 m and less than 10 m, and the projection data determination unit 24 assigns yellow data to the scan position of the second object O2.
  • the distance between the third object O3 and the laser radar device 1 is 10 m or more, and the projection data determination unit 24 assigns white data to the scan position of the third object O3.
  • the projection data determination unit 24 passes color data allocation information to the projection data setting unit 26 as projection data, and the projection data setting unit 26 sets the projection data in the visible light source driver 33.
  • FIG. 4B shows an irradiation pattern of laser light emitted from the laser light source unit 10.
  • the position where the first object O1 exists is irradiated with red laser light
  • the position where the second object O2 exists is irradiated with yellow laser light
  • the position where the third object O3 exists is irradiated with white laser light.
  • the At other positions only infrared laser light is projected. Note that the infrared laser light is also projected to positions where the first object O1, the second object O2, and the third object O3 are present.
  • FIG. 4B illustrates an example in which visible laser light is applied to a minimum rectangular area including each object
  • visible laser light may be applied to the same area as the shape of each object.
  • each object is in a state of being hit with a spotlight of a color corresponding to the distance, and the driver can intuitively grasp the position and distance feeling of the object.
  • FIG. 5 is a flowchart for explaining the operation of the laser radar device 1 according to the first embodiment.
  • the infrared laser light source projects infrared laser light to a predetermined irradiation range in front of the vehicle (S10).
  • the reflected light detector PD2 detects the reflected light of the infrared laser light (S11).
  • the distance measurement unit 21 detects the delay amount of the reflected light of the infrared laser light with respect to the reference light, and the object recognition unit 22 measures the distance from the delay amount to the reflection point (S12).
  • the object recognition unit 22 detects the object based on the distance to the reflection point (S13). When a scan position where the distance to the reflection point is shorter than the set distance is detected, it is determined that the object has been detected. In order to remove noise, it may be determined that an object has been detected when a scan position where the distance to the reflection point is shorter than the set distance appears in a lump having a certain size or more.
  • the object recognition unit 22 specifies the scan position of the object (S14).
  • the projection data determination unit 24 determines the color of the irradiation light according to the detected distance to the object (S15).
  • the projection data setting unit 26 sets the determined color data as projection data at the scan position of the object.
  • the visible light source driver 33 drives the visible laser light source based on the projection data (S16).
  • step S14 to step S16 If no object is detected in step S13 (N in S13), the processing from step S14 to step S16 is skipped.
  • the processes from step S10 to step S16 described above are repeatedly executed while the power of the laser radar device 1 is on (N in S17), and when the power of the laser radar device 1 is turned off (Y in S17), finish.
  • the processing from step S10 to step S16 is executed for each frame of the raster scan, if the relative distance changes due to the vehicle traveling or the movement of the detected object, the change corresponds to the change, The color of the irradiation light also changes.
  • the infrared laser light is projected to a predetermined range in front of the vehicle, and the object is recognized from the reflected light of the infrared laser light.
  • the object or the object and the vicinity thereof are irradiated with visible laser light having a color corresponding to the distance to the object.
  • the object detected by the laser radar can be more intuitively recognized by the user.
  • the driver can directly recognize the position and size of the object without depending on the display.
  • the urgency level can be conveyed to the driver by color by irradiating the object with visible light of a conspicuous color as the distance from the object is shorter.
  • the visible laser light source and the infrared laser light source share the optical system including the deflection mirror 13, the cost can be reduced as compared with the case where both are configured by separate optical systems. It also contributes to the miniaturization of the laser radar device 1. Further, the positional deviation between the detection position of the object and the irradiation position of the visible laser beam can be reduced.
  • the second embodiment is an example in which a visible laser beam having a preset color is irradiated on the target according to the type of the target recognized by the target recognition unit 22. Even in the second embodiment, since the object is irradiated with the solid visible laser beam, it is not necessary to hold the image data for projection, and the projection data holding unit 25 can be omitted.
  • FIG. 6 is a diagram illustrating an example of a reference table 222 constructed in the object recognition unit 22 according to the second embodiment.
  • the reference table 222 is a table in which the type of the object recognized by the object recognition unit 22 is associated with the color of the laser light emitted from the visible laser light source.
  • red laser light is emitted when the object is a person
  • yellow laser light is emitted when the object is a car, bicycle, or the like
  • white laser light is emitted when the object is a building, a fallen object, a sign, or the like.
  • FIG. 7A and 7B are diagrams illustrating an example of the detection result of the object according to the second embodiment and irradiation data.
  • FIG. 7A is the same as the distance map data shown in FIG.
  • the object recognition unit 22 specifies the type of the object using the pattern data held in the pattern holding unit 23.
  • the first object O1 is a falling object (cardboard), and the projection data determination unit 24 assigns white data to the scan position of the first object O1.
  • the second object O2 is a person, and the projection data determination unit 24 assigns red data to the scan position of the second object O2.
  • the third object O3 is an automobile, and the projection data determination unit 24 assigns yellow data to the scan position of the third object O3.
  • the projection data determination unit 24 passes color data allocation information to the projection data setting unit 26 as projection data, and the projection data setting unit 26 sets the projection data in the visible light source driver 33.
  • FIG. 7B shows an irradiation pattern of laser light emitted from the laser light source unit 10.
  • the position where the first object O1 exists is irradiated with white laser light
  • the position where the second object O2 exists is irradiated with red laser light
  • the position where the third object O3 exists is irradiated with yellow laser light.
  • FIG. 8 is a flowchart for explaining the operation of the laser radar device 1 according to the second embodiment.
  • the infrared laser light source projects infrared laser light to a predetermined irradiation range in front of the vehicle (S20).
  • the reflected light detector PD2 detects the reflected light of the infrared laser light (S21).
  • the distance measurement unit 21 detects the delay amount of the reflected light of the infrared laser light with respect to the reference light, and the object recognition unit 22 measures the distance from the delay amount to the reflection point (S22).
  • the object recognition unit 22 determines that an object has been detected when a scan position whose distance to the reflection point is shorter than the set distance appears (S23). When the object is detected (Y in S23), the object recognition unit 22 specifies the scan position of the object and the shape of the object (S24). As the shape of the object, for example, the outline of the object is extracted from the distance map data. The object recognition unit 22 identifies the type of the object from the shape of the object with reference to the pattern holding unit 23 (S25). The projection data determination unit 24 determines the color of the irradiation light according to the type of the specified object (S26). The projection data setting unit 26 sets the determined color data as projection data at the scan position of the object. The visible light source driver 33 drives the visible laser light source based on the projection data (S27).
  • step S20 to step S27 are executed for each frame of the raster scan, but the object is detected in step S23, and the object shape specifying process and the object type specifying process in steps S24 and S25 are performed. Once the type of the object is specified, it may be executed at intervals such as every 5 to 10 frames.
  • the distance to the object is measured in the same manner as in the first embodiment, and when the relative distance is less than a predetermined value, for example, less than 5 m, for example, by traveling the vehicle or moving the detected object, For example, a process of repeating projection and projection stop every 5 to 10 frames may be executed so that the irradiation light of the color corresponding to the object appears to blink.
  • a predetermined value for example, less than 5 m
  • a process of repeating projection and projection stop every 5 to 10 frames may be executed so that the irradiation light of the color corresponding to the object appears to blink.
  • step S23 If no object is detected in step S23 (N in S23), the processing from step S24 to step S27 is skipped.
  • the processes from step S20 to step S27 described above are repeatedly executed while the power of the laser radar apparatus 1 is on (N in S28), and when the power of the laser radar apparatus 1 is turned off (Y in S28), finish.
  • the same effects as the first embodiment are obtained. Moreover, the urgency of collision avoidance can be conveyed to the driver by irradiating visible light of a conspicuous color to an object that is strongly requested to avoid collision.
  • Example 3 is an example in which visible laser light is irradiated so as to form a display reflecting the type of object recognized by the object recognition unit 22.
  • the projection data holding unit 25 is essential.
  • FIGS. 9A and 9B are diagrams illustrating an example of the detection result of the object according to the third embodiment and irradiation data.
  • FIG. 9A is the same as the distance map data shown in FIGS. 4A and 7A.
  • the object recognition unit 22 specifies the type of the object using the pattern data held in the pattern holding unit 23.
  • the first object O1 is a falling object (cardboard), and the projection data determination unit 24 assigns image data including “falling” characters or “falling” text data to the scan position of the first object O1.
  • the second object O2 is a person, and the projection data determination unit 24 assigns image data of a person mark to the scan position of the second object O2.
  • the third object O3 is an automobile, and the projection data determination unit 24 assigns the image data of the automobile mark to the scan position of the third object O3.
  • the projection data determination unit 24 passes image data or text data to the projection data setting unit 26 as projection data, and the projection data setting unit 26 sets projection data to the visible light source driver 33 based on the image data or text data. To do.
  • FIG. 9B shows an irradiation pattern of laser light emitted from the laser light source unit 10.
  • a character “drop” is projected at a position where the first object O1 exists, a person mark is projected at a position where the second object O2 exists, and a car mark is projected at a position where the third object O3 exists.
  • FIG. 10 is a flowchart for explaining the operation of the laser radar device 1 according to the third embodiment.
  • the processing from step S30 to step S38 in the flowchart of FIG. 10 is the same as the processing from step S20 to step S28 in the flowchart of FIG. 8 except for the processing of step S36 and step S37.
  • step S36 the projection data determination unit 24 determines irradiation data according to the type of the object specified by the object recognition unit 22 (S36).
  • the projection data setting unit 26 sets the determined projection data at the scan position of the object.
  • the visible light source driver 33 drives the visible laser light source based on the projection data (S37). Also in the present embodiment, when the relative distance to the object is less than a predetermined value as in the second embodiment, a process that makes the irradiation pattern appear to blink may be executed.
  • the same effects as the first embodiment are obtained. Further, by projecting marks and characters reflecting the type of the object onto the object, the driver can intuitively grasp the position and type of the object.
  • the fourth embodiment is an example in which visible laser light is irradiated so as to form a display reflecting the moving direction of the object recognized by the object recognition unit 22.
  • the display may reflect the type of the object.
  • the object recognition unit 22 calculates the difference between the position of the object detected in the current frame (current distance map data) and the position of the object detected in the past frame (past distance map data). Then, the motion vector of the object is detected.
  • the object recognition unit 22 can sequentially detect a motion vector between two consecutive frames, and can estimate the moving speed of the object by calculating an average value of the detected motion vectors.
  • FIGS. 11A and 11B are diagrams illustrating an example of the detection result of the object according to the fourth embodiment and irradiation data.
  • the fourth object (person) O4 is detected in the distance map data in the irradiation range 2.
  • the object recognition unit 22 detects that the moving direction of the fourth object O4 is from right to left by detecting the position of the fourth object O4 between successive distance map data. Further, the moving speed of the fourth object O4 is detected from the motion vector of the fourth object O4 that is continuously detected.
  • the projection data determination unit 24 assigns predetermined color data (for example, red data) to the scan position of the fourth object O4, and indicates the traveling direction of the fourth object O4 on the left side of the scan position of the fourth object O4. Allocate image data for arrows. Note that image data of a person mark may be assigned to the scan position of the fourth object O4. The position to which the image data of the arrow is assigned is adjusted according to the moving speed of the fourth object O4.
  • the projection data determination unit 24 passes color data and image data allocation information to the projection data setting unit 26 as projection data, and the projection data setting unit 26 sets the projection data in the visible light source driver 33.
  • FIG. 11B shows an irradiation pattern of laser light emitted from the laser light source unit 10.
  • the position where the fourth object O4 exists is irradiated with red laser light, and an arrow mark O4a is projected on the road surface on the left side of the fourth object O4. At other positions, only infrared laser light is projected.
  • FIGS. 12A and 12B are diagrams illustrating another example of the detection result of the object according to the fourth embodiment and irradiation data.
  • the fifth object (person) O5 is detected in the distance map data in the irradiation range 2.
  • the object recognition unit 22 detects that the moving direction of the fifth object O5 is from right to left by detecting the position of the fifth object O5 between the continuous distance map data. Further, the moving speed of the fifth object O5 is detected from the motion vector of the fifth object O5 that is continuously detected.
  • the projection data determination unit 24 assigns the image data of the person mark to the scan position of the fifth object O5, and the image data including the characters “stop” or “stop” on the left side of the scan position of the fifth object O5. Assign text data. At that time, the direction of the character is rotated according to the traveling direction of the fifth object O5. Since the message by this character is a message for the person who is the fifth object O5, the character is rotated in a direction corresponding to the line-of-sight direction of the person.
  • the position to which the image data including the characters “Stop” or the text data “Stop” is assigned is adjusted according to the moving speed of the fifth object O5.
  • the projection data determination unit 24 passes image data or text data allocation information as projection data to the projection data setting unit 26, and the projection data setting unit 26 sets the projection data in the visible light source driver 33.
  • FIG. 12B shows an irradiation pattern of laser light emitted from the laser light source unit 10.
  • a person mark is projected at a position where the fifth object O5 is present, and a “stop” character O5a is projected onto the road surface on the left side of the fourth object O4. At other positions, only infrared laser light is projected.
  • FIG. 13 is a flowchart for explaining the operation of the laser radar device 1 according to the fourth embodiment.
  • the infrared laser light source projects infrared laser light to a predetermined irradiation range in front of the vehicle (S40).
  • the reflected light detector PD2 detects the reflected light of the infrared laser light (S41).
  • the distance measurement unit 21 detects the delay amount of the reflected light of the infrared laser light with respect to the reference light, and the object recognition unit 22 measures the distance from the delay amount to the reflection point (S42).
  • the object recognition unit 22 determines that an object has been detected when a scan position whose distance to the reflection point is shorter than the set distance appears (S43). When the object is detected (Y in S43), the object recognition unit 22 specifies the scan position of the object and the shape of the object. Furthermore, the motion vector of the target object is specified based on the difference between the target object of the current frame and the target object of the previous frame (S44). The object recognition unit 22 identifies the type of the object from the shape of the object with reference to the pattern holding unit 23 (S45). The projection data determination unit 24 determines the projection data and the projection position of the projection data according to the specified type and motion vector of the target object (S46). The projection data setting unit 26 sets the determined image data as projection data at the determined projection position.
  • the visible light source driver 33 drives the visible laser light source based on the projection data (S47).
  • step S43 If no object is detected in step S43 (N in S43), the processing from step S44 to step S47 is skipped.
  • the processes from step S40 to step S47 described above are repeatedly executed while the power of the laser radar apparatus 1 is on (N in S48), and when the power of the laser radar apparatus 1 is turned off (Y in S48), finish.
  • the same effect as the first embodiment is obtained. Further, by projecting the additional information indicating the moving direction of the object, the driver can intuitively recognize the moving direction of the object. In addition, by projecting a message indicating the approach of the vehicle or the like on the road surface in the traveling direction of the person detected as the object, the pedestrian can be alerted against the pedestrian jumping out.
  • the first and second embodiments may be used in combination. That is, the color of the irradiation light may be determined according to the combination of the distance to the object and the type of the object. Moreover, you may determine the color of irradiated light with respect to the combination of the distance to a target object, and the magnitude
  • a monochromatic laser diode may be used as the visible laser light source instead of the three primary color laser diodes.
  • the measured distance to the object is less than a predetermined distance (for example, 10 m)
  • a predetermined distance for example, 10 m
  • the visible laser beam is irradiated toward the object even if the distance to the object is less than a predetermined distance (for example, 10 m).
  • the irradiation position may be shifted so as not to hit the person's eyes as described above.
  • the color of the irradiation light may be changed according to the temperature of the object. For example, when it is determined that the object is a human or an animal from the temperature of the object, red laser light may be emitted.
  • the present invention is not limited to the application example.
  • it can be applied to a surveillance camera.
  • an object such as a person enters the irradiation range of the laser radar device 1, the object is irradiated with visible laser light.
  • DESCRIPTION OF SYMBOLS 1 Laser radar apparatus 2 Irradiation range, 10 Laser light source part, Db blue laser diode, Dg green laser diode, Dr red laser diode, Dir infrared laser diode, 11 collimator lens, 12 dichroic mirror, 13 deflection mirror, 14 condensing Lens, PD1 reference light detector, PD2 reflected light detector, AP1, AP2 amplifier, 21 distance measuring unit, 22 object recognition unit, 23 pattern holding unit, 24 projection data determining unit, 25 projection data holding unit, 26 projection data Setting unit, 31 synchronous clock supply unit, 32 infrared light source driver, 33 visible light source driver, 34 scanning mirror driver.
  • the present invention can be used for in-vehicle use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

走査ミラー部(13)は、第1光源部(Dir)から出射された赤外レーザ光、第2光源部(Db、Dg、Dr)から出射された可視レーザ光、または両者が重畳されたレーザ光を2次元走査する。反射光検出部(PD2)は、走査ミラー部(13)を介して照射された赤外レーザ光の反射光を検出する。対象物認識部(22)は、反射光検出部(PD2)により検出された反射光に基づき、赤外レーザ光の照射範囲(2)内に位置する対象物を認識する。対象物認識部22により対象物が認識されると、第2光源部(Db、Dg、Dr)は、対象物に関する情報に応じて異なる可視レーザ光を対象物または前記対象物の近傍または前記対象物およびその近傍に向けて照射する。

Description

レーザレーダ装置および検知方法
 本発明は、赤外レーザ光を2次元的に走査し、反射光を受光して対象物を認識するレーザレーダ装置および検知方法に関する。
 レーザを用いる対象物の距離測定方法として、赤外レーザをパルス発光させて、対象物からの反射光の時間的遅延量から対象物の距離を測定するTOF(Time of Flight)法が知られている。さらに、赤外レーザをポリゴンミラーやMEMS(micro electro mechanical system)ミラーなどで2次元的に走査することにより広範囲のセンシングを行うことが出来るため、車載用途などの距離検出、障害物検出センサとして実用化されている。
特開2011-154324号公報
 レーザレーダ装置は、障害物などの対象物を検出すると、対象物をモニタに画像表示するものが一般的である。この場合、ユーザはモニタに表示された画像から、実際の対象物の位置や大きさを推測することになる。
 しかしながらモニタの画像では、対象物との距離感や対象物の大きさを実感できない場合がある。また対象物とユーザが急速に接近している場合、対象物の接近をユーザがより直感的に認識できることが望ましい。
 本発明はこうした状況に鑑みてなされたものであり、その目的は、レーザレーダで検知した対象物を、より直感的にユーザに認知させる技術を提供することにある。
 上記課題を解決するために、本発明のある態様のレーザレーダ装置(1)は、赤外レーザ光を出射する第1光源部(Dir)と、可視レーザ光を出射する第2光源部(Db、Dg、Dr)と、前記第1光源部(Dir)から出射された赤外レーザ光、前記第2光源部(Db、Dg、Dr)から出射された可視レーザ光、または両者が重畳されたレーザ光を2次元走査する走査ミラー部(13)と、前記走査ミラー部(13)を介して照射された赤外レーザ光の反射光を検出する反射光検出部(PD2)と、前記反射光検出部(PD2)により検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する対象物を認識する対象物認識部(22)と、を備える。前記対象物認識部(22)により対象物が認識されると、前記第2光源部(Db、Dg、Dr)は、当該対象物に関する情報に応じて異なる可視レーザ光を前記対象物または前記対象物の近傍または前記対象物およびその近傍に向けて照射する。
 本発明の別の態様は、検知方法である。この方法は、赤外光源部(Dir)から出射された赤外レーザ光を走査ミラー部(13)を介して2次元走査するステップと、前記走査ミラー部(13)を介して照射された赤外レーザ光の反射光を検出するステップと、検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する対象物を認識するステップと、前記対象物が認識されると、可視光源部(Db、Dg、Dr)から当該対象物に関する情報に応じて異なる可視レーザ光を前記対象物または前記対象物の近傍または前記対象物およびその近傍に向けて照射するステップと、を備える。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、レーザレーダで検知した対象物を、より直感的にユーザに認知させることができる。
本発明の実施の形態に係るレーザレーダ装置の構成を示す図である。 本実施の形態に係るレーザレーダ装置を車載用途で使用する場合の例を模式的に描いた図である。 実施例1に係る対象物認識部内に構築される参照テーブルの一例を示す図である。 図4(a)、(b)は、実施例1に係る対象物の検出結果と、照射データの一例を示す図である。 実施例1に係るレーザレーダ装置の動作を説明するためのフローチャートである。 実施例2に係る対象物認識部内に構築される参照テーブルの一例を示す図である。 図7(a)、(b)は、実施例2に係る対象物の検出結果と、照射データの一例を示す図である。 実施例2に係るレーザレーダ装置の動作を説明するためのフローチャートである。 図9(a)、(b)は、実施例3に係る対象物の検出結果と、照射データの一例を示す図である。 実施例3に係るレーザレーダ装置の動作を説明するためのフローチャートである。 図11(a)、(b)は、実施例4に係る対象物の検出結果と、照射データの一例を示す図である。 図12(a)、(b)は、実施例4に係る対象物の検出結果と、照射データの別の例を示す図である。 実施例4に係るレーザレーダ装置の動作を説明するためのフローチャートである。
 図1は、本発明の実施の形態に係るレーザレーダ装置1の構成を示す図である。レーザレーダ装置1はレーザ光源部10を備え、レーザ光源部10は、可視レーザ光を出射する可視レーザ光源部と、赤外レーザ光を出射する赤外レーザ光源部を含む。図1では可視レーザ光源として3原色のレーザ光源(青色レーザダイオードDb、緑色レーザダイオードDg、赤色レーザダイオードDr)を使用する例を描いている。
 青色レーザダイオードDbの出射部にコリメータレンズ11が配置され、略平行光の青色コリメート光が形成される。同様に緑色レーザダイオードDgの出射部にはコリメータレンズ11が配置され、略平行光の緑色コリメート光が形成される。同様に赤色レーザダイオードDrの出射部にはコリメータレンズ11が配置され、略平行光の緑色コリメート光が形成される。同様に赤外レーザダイオードDirの出射部にはコリメータレンズ11が配置され、略平行光の赤外コリメート光が形成される。
 3原色のレーザ光源および赤外レーザ光源から出射された各レーザ光の光軸は、4つのダイクロイックミラー12を経て略同軸に調整されて合成される。略同軸上に合成されたレーザビーム光は偏向ミラー13に入射される。
 青色レーザダイオードDb、緑色レーザダイオードDg及び赤色レーザダイオードDrは可視光源ドライバ33により駆動され、それぞれ独立に発光/消光制御される。赤外レーザダイオードDirは赤外光源ドライバ32により駆動され、発光/消光制御される。従ってレーザ光源部10は、赤外レーザ光、可視レーザ光、又は両者が重畳されたレーザ光を出射可能である。
 偏向ミラー13は2軸回動可能な2軸偏向ミラーであり、MEMSミラーやポリゴンミラーを使用できる。以下の説明では、より高速で細かな走査が可能なMEMSミラーを使用する例を想定する。偏向ミラー13は、レーザ光源部10から入射されるレーザ光を反射して2次元走査する。以下の説明では、2次元走査としてラスタスキャンする例を想定する。なおラスタスキャンの代わりにリサージュスキャンを使用することも可能である。
 偏向ミラー13によりラスタスキャンされたレーザ光は、図示しない投射口から外部に投射される。投射口から投射されたレーザ光は投射方向の空間に物体が存在する場合、その物体表面で反射する。投射方向は、レーザレーダ装置1の使用用途により様々であり、レーザレーダ装置1が車両前方の物体を検出する用途であれば、車両前方を投射方向として車両前方の広い範囲が2次元走査される。この場合に検出される物体は、人や他の車両、建造物などである。赤外レーザ光のみが投射される場合は人間は目視できない。図1ではレーザ光の照射範囲2におけるレーザ光のラスタスキャン軌跡を模式的に描いている。
 赤外レーザダイオードDirから出射された赤外レーザ光は、1段目のダイクロイックミラー12で分岐され、参照光検出器PD1に入射する。参照光検出器PD1は入射された赤外レーザ光を電気信号(以下、参照信号という)に変換して出力する。アンプAP1は、参照光検出器PD1から出力される参照信号を増幅する。
 赤外レーザダイオードDirから出射された赤外レーザ光は偏向ミラー13を介して外部にも照射される。照射された赤外レーザ光は、外部に存在する種々の物質表面にあたり反射する。集光レンズ14は、反射された赤外レーザ光を集光する。反射光検出器PD2は、集光レンズ14を介して入射される赤外レーザ反射光を電気信号(以下、検出信号という)に変換して出力する。アンプAP2は、反射光検出器PD2から出力される検出信号を増幅する。なお、図示はしていないが反射光検出器PD2の前段に赤外線を透過し可視光を遮断するような光学フィルターを配置することにより検出誤動作を軽減することが出来る。
 同期クロック供給部31は、水晶振動子などの発振器を含み、当該発振器の出力信号から同期信号を生成する。同期クロック供給部31は生成した同期信号を、赤外光源ドライバ32、可視光源ドライバ33、走査ミラードライバ34及び距離測定部21に供給する。
 走査ミラードライバ34は、同期クロック供給部31から供給される同期信号をもとに、偏向ミラー13をラスタスキャン制御する。即ち走査ミラードライバ34は、スキャン位置を走査領域の左上端から右下端に向けて順次移動させる。具体的にはX軸方向(主走査方向)を左から右に順次更新し、スキャン位置が右端に到達するとY軸方向(副走査方向)を下に1つ更新する。この処理を繰り返すことにより、スキャン位置が走査領域の右下端に到達する。右下端に到達すると1フレーム分のラスタスキャンが終了し、次のフレームのラスタスキャンが左上端から開始する。ラスタスキャンは例えば1秒間に60フレーム分、行われる。なおフレームレートは60Hzに限らず、15Hz、30Hz、120Hz等であってもよい。
 赤外光源ドライバ32は、同期クロック供給部31から供給される同期信号をもとに、赤外レーザダイオードDirをパルス発光させる。赤外レーザダイオードDirから出射された赤外レーザ光は、参照光検出器PD1により参照光として検出される。また当該赤外レーザ光は偏向ミラー13によりラスタスキャンされた後、照射範囲2内に存在する物質表面で反射され、反射光検出器PD2により反射光として検出される。
 参照光検出器PD1により参照光として検出された参照信号はアンプAP1で増幅され、距離測定部21に出力される。反射光検出器PD2により反射光として検出された検出信号はアンプAP2で増幅され、距離測定部21に出力される。
 距離測定部21は、検出信号の参照信号に対する時間的な遅延量をもとにレーザレーダ装置1から反射点までの距離を測定する(TOF(Time of Flight)法)。赤外光源ドライバ32、走査ミラードライバ34及び距離測定部21には同じ同期信号が入力されるため距離測定部21は、スキャン位置ごとに何クロック遅延しているかを検出でき、遅延クロック数に応じて各スキャン位置における反射点までの距離を推定できる。距離測定部21は、各スキャン位置の距離情報を対象物認識部22に出力する。
 対象物認識部22は、距離測定部21から入力された距離と設定距離を比較し、入力された距離が設定距離以下の場合、対象物の存在を認識する。当該設定距離は、障害物が存在しない状態の反射点(例えば、地面や壁)までの距離より短い距離に設定される。当該反射点までの距離はレーザレーダ装置1の設置位置や使用場所により異なる。
 対象物認識部22は、フレームごとに各スキャン位置の距離情報をマッピングした距離マップデータを生成する。対象物認識部22は当該距離マップデータをもとに対象物の位置および形状を特定する。隣接するスキャン位置において検出距離が近い場合、同一対象物と判定する。
 パターン保持部23は、各種対象物の識別パターンデータを保持する。例えば歩行者の識別パターンデータ、自動車の識別パターンデータ等を保持する。対象物認識部22は、距離マップデータから検出した対象物の形状と、パターン保持部23に保持されたパターンデータとを照合し、対象物の種別を判定する。この照合には、一般的なパターンマッチングアルゴリズムを使用すればよく、特にアルゴリズムは限定されない。
 対象物認識部22は、フレーム内において対象物を認識した場合、生成した当該フレームの距離マップデータを投射データ決定部24に供給する。対象物の種別を判定した場合は対象物の種別も投射データ決定部24に供給する。
 投射データ決定部24は、対象物認識部22から供給された距離マップデータをもとに次のフレームの投射データを決定する。例えば各スキャン位置の距離情報に応じて、各スキャン位置に色データを割り当てる。原則的に対象物が存在しないスキャン位置に赤外データを割り当て、対象物が存在するスキャン位置に色データを割り当てる。その際、対象物までの距離に応じて色データを決定する。例えば距離が短いほど、より目立つ色を割り当ててもよい。また、赤外レーザ光は対象物が存在するスキャン位置であっても連続的に出力されていてもよい。
 上記の割り当て方法では、対象物に可視レーザ光が照射されることになる。なお可視レーザ光の照射位置と対象物の位置は完全に一致している必要はなく、対象物より広い範囲に可視レーザ光を照射してもよい。その場合、フレーム内において対象物が存在するスキャン位置の近傍にも、当該対象物の距離に応じた色データを割り当てる。
 上述のように対象物までの距離に応じて色データを決定するのではなく、対象物の形状に応じて色データを決定してもよい。なお本明細書では「対象物の形状」は「対象物の大きさ」を含む概念とする。従って相似している2つの対象物でも、大きさが異なれば別の対象物とする。例えば対象物が大きいほど、より目立つ色を割り当ててもよい。また対象物の種別に応じて色データを決定してもよい。
 上記の割り当て方法では、フレーム内において対象物が存在するスキャン位置に、無地の色データを割り当てたが、対象物が存在するスキャン位置に、特定の模様、マーク、文字などを含む画像データを割り当ててもよい。当該画像データは、レーザレーダ装置1のユーザに対するメッセージを含むものであってもよい。また対象物が人物の場合、当該人物に対するメッセージを含むものであってもよい。これらの画像データは投射データ保持部25に保持される。
 画像データを割り当てる位置は、対象物の位置と完全に一致している必要はなく、対象物とずれた位置(例えば、対象物の近傍の位置)であってもよい。また対象物を包含する広範囲の位置であってもよい。例えば対象物が人物の場合、人物のアイセーフの観点から、頭部の範囲を除いた位置に画像データを割り当ててもよい。
 また上記と同様に、対象物までの距離に応じて画像データの内容を決定してもよいし、対象物の形状に応じて画像データの内容を決定してもよい。また対象物の種別に応じて画像データの内容を決定してもよい。例えば対象物の種別を反映した内容を画像データに決定してもよい。例えば対象物の種別を暗喩したマークの画像データに決定してもよいし、対象物の種別に応じたメッセージを含む画像データに決定してもよい。
 投射データ決定部24は、フレームごとに決定した投射データを投射データ設定部26に供給する。投射データ設定部26は、供給された投射データを可視光源ドライバ33に設定する。可視光源ドライバ33は、設定された投射データに従い青色レーザダイオードDb、緑色レーザダイオードDg及び赤色レーザダイオードDrを駆動する。例えば投射データとして赤データが設定されたスキャン位置では、赤色レーザダイオードDrを点灯させ、青色レーザダイオードDb及び緑色レーザダイオードDgを消灯させる。
 なお各レーザダイオードは、印加電圧を制御することにより色の階調を制御できる。このような階調制御が可能な構成では、より多様な色を再現できる。
 以下、本実施の形態に係るレーザレーダ装置1の適用例を説明する。
 図2は、本実施の形態に係るレーザレーダ装置1を車載用途で使用する場合の例を模式的に描いた図である。図2では、レーザレーダ装置1は車両のフロントガラスの内側に設置されている。なおレーザレーダ装置1の設置位置は、車両の前方を照射範囲2にできる位置であればよく特に限定せず、フロントバンパ内やフロントグリル内などであってもよい。
 この用途では常時、照射範囲2に赤外レーザ光を投射し、照射範囲2内において対象物が検知された場合、当該対象物または当該対象物の近傍または当該対象物およびその近傍に向けて可視レーザ光が照射されることになる。対象物が検知されない間は赤外レーザ光しか投射されないため、運転者はレーザレーダ装置1からのレーザ光の投射を意識することなく運転操作をできる。車両の前方に歩行者、自転車、先行車、対向車、障害物などの対象物が検知された場合、原則として当該対象物が可視光で照らされる。このような制御は特に夜間走行時に有効であり、可視光で対象物を照らすことにより運転者は対象物の位置を瞬時に正確に把握できる。
(実施例1)
 以下、レーザレーダ装置1を車載用途に使用する場合の実施例1を説明する。実施例1は、対象物認識部22により認識された対象物の距離に応じて、当該対象物に予め設定された色の可視レーザ光を照射する例である。実施例1では対象物の種別を判定する必要はなくパターン保持部23は省略可能である。また対象物には無地の可視レーザ光を照射するため、投射用の画像データを保持する必要もなく投射データ保持部25も省略可能である。
 図3は、実施例1に係る対象物認識部22内に構築される参照テーブル221の一例を示す図である。当該参照テーブル221は、距離測定部21により測定されたレーザレーダ装置1から対象物までの距離と、可視レーザ光源から照射するレーザ光の色とを関連付けたテーブルである。
 図3に示す例では、対象物までの距離が5m未満の場合は赤色レーザ光を、5m以上10m未満の場合は黄色レーザ光を、10m以上の場合は白色レーザ光を照射するよう設定されている。これは車両と対象物までの距離が近いほど、より運転者の注意を強く喚起する色で対象物を照らすように設定したものである。
 可視光源ドライバ33は、赤色レーザ光が選択された場合は赤色レーザダイオードDrを発光させ、青色レーザダイオードDb及び緑色レーザダイオードDgを消光させる。黄色レーザ光が選択された場合は緑色レーザダイオードDg及び赤色レーザダイオードDrを発光させ、青色レーザダイオードDbを消光させる。白色レーザ光が選択された場合は赤色レーザダイオードDr、緑色レーザダイオードDg及び青色レーザダイオードDbの全てを発光させる。
 図4(a)、(b)は、実施例1に係る対象物の検出結果と、照射データの一例を示す図である。図4(a)は照射範囲2における距離マップデータを示している。この距離マップデータは、赤外レーザ光の反射光に基づき生成される。図4(a)に示す例では第1対象物(落下物:ダンボール)O1、第2対象物(人物)O2、第3対象物(対向車)03の3つの対象物が検出されている。なお実施例1では基本的に対象物の種別判定を行わないため対象物認識部22は、対象物の種別は特定していない。
 第1対象物O1とレーザレーダ装置1の距離は5m未満であり、投射データ決定部24は第1対象物O1のスキャン位置に赤色データを割り当てる。第2対象物O2とレーザレーダ装置1の距離は5m以上10m未満であり、投射データ決定部24は第2対象物O2のスキャン位置に黄色データを割り当てる。第3対象物O3とレーザレーダ装置1の距離は10m以上であり、投射データ決定部24は第3対象物O3のスキャン位置に白色データを割り当てる。投射データ決定部24は投射データとして、色データの割当情報を投射データ設定部26に渡し、投射データ設定部26は当該投射データを可視光源ドライバ33に設定する。
 図4(b)は、レーザ光源部10から照射されるレーザ光の照射パターンを示している。第1対象物O1が存在する位置に赤色レーザ光が照射され、第2対象物O2が存在する位置に黄色レーザ光が照射され、第3対象物O3が存在する位置に白色レーザ光が照射される。その他の位置は赤外レーザ光のみが投射される。なお第1対象物O1、第2対象物O2及び第3対象物O3が存在する位置にも赤外レーザ光は投射される。
 図4(b)では各対象物を包含する最小の矩形領域に可視レーザ光を照射する例を描いているが、各対象物の形状と同じ領域に可視レーザ光を照射してもよい。夜間走行中では各対象物に、距離に応じた色のスポットライトが当たった状態になり、運転者は対象物の位置と距離感を直感的に把握できる。
 図5は、実施例1に係るレーザレーダ装置1の動作を説明するためのフローチャートである。赤外レーザ光源は、車両前方の所定の照射範囲に赤外レーザ光を投射する(S10)。反射光検出器PD2は当該赤外レーザ光の反射光を検出する(S11)。距離測定部21は当該赤外レーザ光の反射光の、参照光に対する遅延量を検出し、対象物認識部22は当該遅延量から反射点までの距離を測定する(S12)。
 対象物認識部22は、反射点までの距離をもとに対象物を検出する(S13)。反射点までの距離が設定距離より短いスキャン位置が検出された場合、対象物が検出されたと判定する。なおノイズを除去するため、反射点までの距離が設定距離より短いスキャン位置が、一定サイズ以上の塊で出現したときに対象物が検出されたと判定してもよい。
 対象物が検出された場合(S13のY)、対象物認識部22は対象物のスキャン位置を特定する(S14)。投射データ決定部24は、検出された対象物までの距離に応じて照射光の色を決定する(S15)。投射データ設定部26は対象物のスキャン位置に、決定された色データを投射データとして設定する。可視光源ドライバ33は当該投射データをもとに可視レーザ光源を駆動する(S16)。
 ステップS13において対象物が検出されない場合(S13のN)、ステップS14からステップS16までの処理はスキップされる。以上に説明したステップS10からステップS16までの処理が、レーザレーダ装置1の電源がオンの間(S17のN)、繰り返し実行され、レーザレーダ装置1の電源がオフになると(S17のY)、終了する。また、ステップS10からステップS16の処理は、ラスタスキャンの1フレーム毎に実行されるため、車両の走行や検出した対象物の移動などで相対的な距離が変化すると、その変化に対応して、照射光の色も変化する。
 以上説明したように実施例1によれば、車両前方の所定の範囲に赤外レーザ光を投射し、当該赤外レーザ光の反射光から対象物を認識する。対象物を認識した場合、当該対象物または当該対象物およびその近傍に、当該対象物までの距離に応じた色の可視レーザ光を照射する。これにより、レーザレーダで検知した対象物を、より直感的にユーザに認知させることができる。運転者は、ディスプレイに依らずに対象物の位置、大きさを直接認識できる。
 また対象物との距離が近いほど目立つ色の可視光を当該対象物に照射することにより、運転者に色で緊急度を伝えることができる。また可視レーザ光源と赤外レーザ光源とで、偏向ミラー13を含む光学系を共有した構成であるため、両者を別々の光学系で構成する場合よりコストを削減できる。またレーザレーダ装置1の小型化にも寄与する。また対象物の検出位置と可視レーザ光の照射位置との位置ずれを少なくできる。
(実施例2)
 次に、レーザレーダ装置1を車載用途に使用する場合の実施例2を説明する。実施例2は、対象物認識部22により認識された対象物の種別に応じて、当該対象物に予め設定された色の可視レーザ光を照射する例である。実施例2でも対象物には無地の可視レーザ光を照射するため、投射用の画像データを保持する必要はなく投射データ保持部25は省略可能である。
 図6は、実施例2に係る対象物認識部22内に構築される参照テーブル222の一例を示す図である。当該参照テーブル222は、対象物認識部22により認識された対象物の種別と、可視レーザ光源から照射するレーザ光の色とを関連付けたテーブルである。
 図6に示す例では、対象物が人物の場合は赤色レーザ光を、対象物が自動車、自転車等の場合は黄色レーザ光を、建物、落下物、標識等の場合は白色レーザ光を照射するよう設定されている。これは、車両との衝突を回避する必要性が高いほど、より運転者の注意を強く喚起する色で対象物を照らすように設定したものである。
 図7(a)、(b)は、実施例2に係る対象物の検出結果と、照射データの一例を示す図である。図7(a)は、図4(a)に示した距離マップデータと同じである。なお実施例2では対象物認識部22は、パターン保持部23に保持されるパターンデータを用いて対象物の種別を特定する。
 第1対象物O1は落下物(ダンボール)であり、投射データ決定部24は第1対象物O1のスキャン位置に白色データを割り当てる。第2対象物O2は人物であり、投射データ決定部24は第2対象物O2のスキャン位置に赤色データを割り当てる。第3対象物O3は自動車であり、投射データ決定部24は第3対象物O3のスキャン位置に黄色データを割り当てる。投射データ決定部24は投射データとして、色データの割当情報を投射データ設定部26に渡し、投射データ設定部26は当該投射データを可視光源ドライバ33に設定する。
 図7(b)は、レーザ光源部10から照射されるレーザ光の照射パターンを示している。第1対象物O1が存在する位置に白色レーザ光が照射され、第2対象物O2が存在する位置に赤色レーザ光が照射され、第3対象物O3が存在する位置に黄色レーザ光が照射される。その他の位置は赤外レーザ光のみが投射される。
 図8は、実施例2に係るレーザレーダ装置1の動作を説明するためのフローチャートである。赤外レーザ光源は、車両前方の所定の照射範囲に赤外レーザ光を投射する(S20)。反射光検出器PD2は当該赤外レーザ光の反射光を検出する(S21)。距離測定部21は当該赤外レーザ光の反射光の、参照光に対する遅延量を検出し、対象物認識部22は当該遅延量から反射点までの距離を測定する(S22)。
 対象物認識部22は、反射点までの距離が設定距離より短いスキャン位置が出現すると対象物が検出されたと判定する(S23)。対象物が検出された場合(S23のY)、対象物認識部22は対象物のスキャン位置と、対象物の形状を特定する(S24)。対象物の形状として、例えば距離マップデータから対象物の輪郭を抽出する。対象物認識部22は対象物の形状から、パターン保持部23を参照して対象物の種別を特定する(S25)。投射データ決定部24は、特定された対象物の種別に応じて照射光の色を決定する(S26)。投射データ設定部26は対象物のスキャン位置に、決定された色データを投射データとして設定する。可視光源ドライバ33は当該投射データをもとに可視レーザ光源を駆動する(S27)。
 ステップS20からステップS27までの処理は、ラスタスキャンの1フレーム毎に実行されるが、ステップS23において対象物が検出されステップS24およびステップS25による対象物の形状特定処理および対象物の種別特定処理は、一旦対象物の種別が特定された後は、例えば5~10フレーム毎など間隔を置いて実行されてもよい。
 また、本実施例においても実施例1同様に対象物までの距離を測定し、車両の走行や検出した対象物の移動などで相対的な距離が例えば5m未満など所定未満となった場合は、対象物に対応した色の照射光が点滅して見えるように、例えば5~10フレーム毎に投射と投射停止を繰り返すなどの処理を実行してもよい。
 ステップS23において対象物が検出されない場合(S23のN)、ステップS24からステップS27までの処理はスキップされる。以上に説明したステップS20からステップS27までの処理が、レーザレーダ装置1の電源がオンの間(S28のN)、繰り返し実行され、レーザレーダ装置1の電源がオフになると(S28のY)、終了する。
 以上説明したように実施例2によれば、実施例1と同様の効果を奏する。また衝突を回避する要請が強い対象物ほど目立つ色の可視光を照射することにより、運転者に色で衝突回避の緊急性を伝えることができる。
(実施例3)
 次に、レーザレーダ装置1を車載用途に使用する場合の実施例3を説明する。実施例3は、対象物認識部22により認識された対象物の種別を反映した表示を形成するよう可視レーザ光を照射する例である。実施例3では投射用の画像データを保持する必要があり、投射データ保持部25が必須となる。
 図9(a)、(b)は、実施例3に係る対象物の検出結果と、照射データの一例を示す図である。図9(a)は、図4(a)、図7(a)に示した距離マップデータと同じである。実施例3でも対象物認識部22は、パターン保持部23に保持されるパターンデータを用いて対象物の種別を特定する。
 第1対象物O1は落下物(ダンボール)であり、投射データ決定部24は第1対象物O1のスキャン位置に「落」の文字を含む画像データ又は「落」のテキストデータを割り当てる。第2対象物O2は人物であり、投射データ決定部24は第2対象物O2のスキャン位置に人物マークの画像データを割り当てる。第3対象物O3は自動車であり、投射データ決定部24は第3対象物O3のスキャン位置に自動車マークの画像データを割り当てる。投射データ決定部24は投射データとして、画像データ又はテキストデータを投射データ設定部26に渡し、投射データ設定部26は当該画像データ又はテキストデータをもとに、可視光源ドライバ33に投射データを設定する。
 図9(b)は、レーザ光源部10から照射されるレーザ光の照射パターンを示している。第1対象物O1が存在する位置に「落」の文字が投影され、第2対象物O2が存在する位置に人物マークが投影され、第3対象物O3が存在する位置に自動車マークが投影される。その他の位置は赤外レーザ光のみが投射される。
 図10は、実施例3に係るレーザレーダ装置1の動作を説明するためのフローチャートである。図10のフローチャートのステップS30からステップS38までの処理は、図8のフローチャートのステップS20からステップS28までの処理と、ステップS36及びステップS37の処理を除き共通である。ステップS36では投射データ決定部24は、対象物認識部22により特定された対象物の種別に応じて照射データを決定する(S36)。投射データ設定部26は対象物のスキャン位置に、決定された投射データを設定する。可視光源ドライバ33は当該投射データをもとに可視レーザ光源を駆動する(S37)。本実施例においても実施例2のように対象物までの相対距離が所定未満となった場合は、照射パターンが点滅して見えるような処理を実行してもよい。
 以上説明したように実施例3によれば、実施例1と同様の効果を奏する。また対象物の種別を反映したマークや文字を当該対象物に投影させることにより、運転者に対象物の位置と種別を直感的に把握させることができる。
(実施例4)
 次に、レーザレーダ装置1を車載用途に使用する場合の実施例4を説明する。実施例4は、対象物認識部22により認識された対象物の移動方向を反映した表示を形成するよう可視レーザ光を照射する例である。なお当該表示は対象物の種別を反映していてもよい。
 実施例4では対象物認識部22は、現フレーム(現距離マップデータ)で検出された対象物の位置と、過去フレーム(過去距離マップデータ)で検出された当該対象物の位置との差分を検出して、当該対象物の動きベクトルを検出する。対象物認識部22は、連続する2枚のフレーム間の動きベクトルを順次検出していき、検出した動きベクトルの平均値を算出することにより当該対象物の移動速度を推定できる。
 図11(a)、(b)は、実施例4に係る対象物の検出結果と、照射データの一例を示す図である。図11(a)では、照射範囲2における距離マップデータ内において、第4対象物(人物)O4が検出されている。対象物認識部22は、連続する距離マップデータ間の第4対象物O4の位置を検出することにより、第4対象物O4の移動方向が右から左であることを検出する。また連続的に検出される第4対象物O4の動きベクトルから第4対象物O4の移動速度を検出する。
 投射データ決定部24は第4対象物O4のスキャン位置に所定の色データ(例えば赤色データ)を割り当てるとともに、第4対象物O4のスキャン位置の左側に、第4対象物O4の進行方向を示す矢印の画像データを割り当てる。なお第4対象物O4のスキャン位置に人物マークの画像データを割り当ててもよい。なお矢印の画像データを割り当てる位置は第4対象物O4の移動速度に応じて調整される。投射データ決定部24は投射データとして、色データ及び画像データの割当情報を投射データ設定部26に渡し、投射データ設定部26は当該投射データを可視光源ドライバ33に設定する。
 図11(b)は、レーザ光源部10から照射されるレーザ光の照射パターンを示している。第4対象物O4が存在する位置に赤色レーザ光が照射され、第4対象物O4の左側の路面に矢印マークO4aが投影される。その他の位置は赤外レーザ光のみが投射される。
 図12(a)、(b)は、実施例4に係る対象物の検出結果と、照射データの別の例を示す図である。図12(a)では、照射範囲2における距離マップデータ内において、第5対象物(人物)O5が検出されている。対象物認識部22は、連続する距離マップデータ間の第5対象物O5の位置を検出することにより、第5対象物O5の移動方向が右から左であることを検出する。また連続的に検出される第5対象物O5の動きベクトルから第5対象物O5の移動速度を検出する。
 投射データ決定部24は第5対象物O5のスキャン位置に人物マークの画像データを割り当てるとともに、第5対象物O5のスキャン位置の左側に、「止まれ」の文字を含む画像データ又は「止まれ」のテキストデータを割り当てる。その際、第5対象物O5の進行方向に応じて文字の向きを回転する。この文字によるメッセージは、第5対象物O5である人物向けのメッセージであるため、当該人物の視線方向に応じた向きに当該文字が回転される。
 「止まれ」の文字を含む画像データ又は「止まれ」のテキストデータを割り当てる位置は第5対象物O5の移動速度に応じて調整される。投射データ決定部24は投射データとして、画像データ又はテキストデータの割当情報を投射データ設定部26に渡し、投射データ設定部26は当該投射データを可視光源ドライバ33に設定する。
 図12(b)は、レーザ光源部10から照射されるレーザ光の照射パターンを示している。第5対象物O5が存在する位置に人物マークが投影され、第4対象物O4の左側の路面に「止まれ」の文字O5aが投影される。その他の位置は赤外レーザ光のみが投射される。
 図13は、実施例4に係るレーザレーダ装置1の動作を説明するためのフローチャートである。赤外レーザ光源は、車両前方の所定の照射範囲に赤外レーザ光を投射する(S40)。反射光検出器PD2は当該赤外レーザ光の反射光を検出する(S41)。距離測定部21は当該赤外レーザ光の反射光の、参照光に対する遅延量を検出し、対象物認識部22は当該遅延量から反射点までの距離を測定する(S42)。
 対象物認識部22は、反射点までの距離が設定距離より短いスキャン位置が出現すると対象物が検出されたと判定する(S43)。対象物が検出された場合(S43のY)、対象物認識部22は対象物のスキャン位置、当該対象物の形状を特定する。さらに現フレームの当該対象物と、1つ前のフレームの当該対象物との差分をもとに当該対象物の動きベクトルを特定する(S44)。対象物認識部22は当該対象物の形状から、パターン保持部23を参照して対象物の種別を特定する(S45)。投射データ決定部24は、特定された対象物の種別および動きベクトルに応じて投射データ及び当該投射データの投射位置を決定する(S46)。投射データ設定部26は決定された投射位置に、決定された画像データを投射データとして設定する。可視光源ドライバ33は当該投射データをもとに可視レーザ光源を駆動する(S47)。
 ステップS43において対象物が検出されない場合(S43のN)、ステップS44からステップS47までの処理はスキップされる。以上に説明したステップS40からステップS47までの処理が、レーザレーダ装置1の電源がオンの間(S48のN)、繰り返し実行され、レーザレーダ装置1の電源がオフになると(S48のY)、終了する。
 以上説明したように実施例4によれば、実施例1と同様の効果を奏する。また対象物の移動方向を示す付加情報を投影することにより、運転者に対象物の移動方向を直感的に認識させることができる。また対象物として検出された人物の進行方向の路面に、車両接近等を示すメッセージを投影することにより、歩行者の飛び出し等に対して当該歩行者に注意喚起ができる。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施例1、2を組み合わせて使用してもよい。即ち、対象物までの距離と対象物の種別の組み合わせに応じて照射光の色を決定してもよい。また対象物までの距離と対象物の大きさの組み合わせに対して照射光の色を決定してもよい。
 実施例3、4では、可視レーザ光源として3原色のレーザダイオードではなく、単色のレーザダイオードを使用してもよい。
 また測定された対象物までの距離が所定の距離(例えば10m)未満の場合、人物のアイセーフの観点から、可視レーザ光の照射を実行しない設定であってもよい。なお対象物の種別が人物以外の場合は、対象物までの距離が所定の距離(例えば10m)未満であっても、当該対象物に向けて可視レーザ光を照射する。また対象物が人物の場合、上述のように照射位置を人物の眼に当たらないように、ずらして照射してもよい。
 また対象物の温度を検出できる場合、対象物の温度に応じて照射光の色を変えてもよい。例えば対象物の温度から人間や動物と判定できた場合、赤色のレーザ光を照射してもよい。
 以上の説明ではレーザレーダ装置1を車両に搭載する適用例を示したが、当該適用例に限定されるものではない。例えば監視カメラにも適用可能である。この適用例では、レーザレーダ装置1の照射範囲に人物等の対象物が侵入すると、当該対象物に可視レーザ光が照射されることになる。
 1 レーザレーダ装置、 2 照射範囲、 10 レーザ光源部、 Db 青色レーザダイオード、 Dg 緑色レーザダイオード、 Dr 赤色レーザダイオード、 Dir 赤外レーザダイオード、 11 コリメータレンズ、 12 ダイクロイックミラー、 13 偏向ミラー、 14 集光レンズ、 PD1 参照光検出器、 PD2 反射光検出器、 AP1,AP2 アンプ、 21 距離測定部、 22 対象物認識部、 23 パターン保持部、 24 投射データ決定部、 25 投射データ保持部、 26 投射データ設定部、 31 同期クロック供給部、 32 赤外光源ドライバ、 33 可視光源ドライバ、 34 走査ミラードライバ。
 本発明は、車載用途に利用することができる。

Claims (6)

  1.  赤外レーザ光を出射する第1光源部と、
     可視レーザ光を出射する第2光源部と、
     前記第1光源部から出射された赤外レーザ光、前記第2光源部から出射された可視レーザ光、または両者が重畳されたレーザ光を2次元走査する走査ミラー部と、
     前記走査ミラー部を介して照射された赤外レーザ光の反射光を検出する反射光検出部と、
     前記反射光検出部により検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する対象物を認識する対象物認識部と、を備え、
     前記対象物認識部により対象物が認識されると、前記第2光源部は、当該対象物に関する情報に応じて異なる可視レーザ光を前記対象物または前記対象物の近傍または前記対象物およびその近傍に向けて照射することを特徴とするレーザレーダ装置。
  2.  前記第2光源部は、複数色の可視レーザ光を出射可能であり、前記対象物までの距離に応じて異なる色の可視レーザ光を照射することを特徴とする請求項1に記載のレーザレーダ装置。
  3.  前記対象物認識部は、前記対象物の形状に基づき前記対象物の種別を特定し、
     前記第2光源部は、複数色の可視レーザ光を出射可能であり、前記対象物の種別に応じて異なる色の可視レーザ光を照射することを特徴とする請求項1に記載のレーザレーダ装置。
  4.  前記対象物認識部は、前記対象物の形状に基づき前記対象物の種別を特定し、
     前記第2光源部は、前記対象物の種別を反映した表示を形成するよう可視レーザ光を照射することを特徴とする請求項1に記載のレーザレーダ装置。
  5.  前記対象物認識部は、前記対象物の移動方向を検出し、
     前記第2光源部は、前記対象物の移動方向を反映した表示を形成するよう可視レーザ光を照射することを特徴とする請求項1に記載のレーザレーダ装置。
  6.  赤外光源部から出射された赤外レーザ光を走査ミラー部を介して2次元走査するステップと、
     前記走査ミラー部を介して照射された赤外レーザ光の反射光を検出するステップと、
     検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する対象物を認識するステップと、
     前記対象物が認識されると、可視光源部から当該対象物に関する情報に応じて異なる可視レーザ光を前記対象物または前記対象物の近傍または前記対象物およびその近傍に向けて照射するステップと、
     を備えることを特徴とする検知方法。
PCT/JP2016/052443 2015-06-10 2016-01-28 レーザレーダ装置および検知方法 WO2016199442A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16807149.6A EP3147684A4 (en) 2015-06-10 2016-01-28 Laser radar device and detection method
US15/331,952 US20170038458A1 (en) 2015-06-10 2016-10-24 Laser radar device and detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015117364A JP2017003414A (ja) 2015-06-10 2015-06-10 レーザレーダ装置および検知方法
JP2015-117364 2015-06-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/331,952 Continuation US20170038458A1 (en) 2015-06-10 2016-10-24 Laser radar device and detection method

Publications (1)

Publication Number Publication Date
WO2016199442A1 true WO2016199442A1 (ja) 2016-12-15

Family

ID=57503590

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052443 WO2016199442A1 (ja) 2015-06-10 2016-01-28 レーザレーダ装置および検知方法

Country Status (4)

Country Link
US (1) US20170038458A1 (ja)
EP (1) EP3147684A4 (ja)
JP (1) JP2017003414A (ja)
WO (1) WO2016199442A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198156A1 (ja) * 2017-04-24 2018-11-01 三菱電機株式会社 報知制御装置および報知制御方法
WO2018198157A1 (ja) * 2017-04-24 2018-11-01 三菱電機株式会社 報知制御装置および報知制御方法
WO2019026437A1 (ja) * 2017-08-03 2019-02-07 株式会社小糸製作所 車両用照明システム及び車両

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018113711A1 (de) * 2018-06-08 2019-12-12 Osram Opto Semiconductors Gmbh Apparat und scheinwerfer
JP7028110B2 (ja) * 2018-09-04 2022-03-02 株式会社Jvcケンウッド 車両用光出力装置、光出力方法、及びプログラム
CN110673154A (zh) * 2019-08-27 2020-01-10 北京天格高通科技有限公司 一种激光雷达检测点可视化系统及其方法
KR102240887B1 (ko) * 2019-11-13 2021-04-15 엘브이아이테크놀러지(주) 라이다 시스템
WO2021166814A1 (ja) * 2020-02-17 2021-08-26 株式会社小糸製作所 灯具システム
CN116997840A (zh) * 2021-03-17 2023-11-03 株式会社小糸制作所 光反射装置、传感器装置以及照明装置
CN113654537A (zh) * 2021-09-03 2021-11-16 中煤科工集团上海研究院有限公司常熟分院 雷达波束照射区域指示装置与指示方法
KR20240033940A (ko) * 2022-09-06 2024-03-13 현대자동차주식회사 모빌리티용 적외선 램프 장치 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185105A (ja) * 2002-11-29 2004-07-02 Nissan Motor Co Ltd 障害物報知装置
JP2006252264A (ja) * 2005-03-11 2006-09-21 Omron Corp 障害物報知装置
JP2009184450A (ja) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc 光照射装置
WO2011070783A1 (ja) * 2009-12-10 2011-06-16 パナソニック株式会社 情報表示装置及び情報表示方法
WO2013065348A1 (ja) * 2011-10-31 2013-05-10 本田技研工業株式会社 車両周辺監視装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8842262B2 (en) * 2011-05-24 2014-09-23 Denso Corporation Radar apparatus and light scan apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185105A (ja) * 2002-11-29 2004-07-02 Nissan Motor Co Ltd 障害物報知装置
JP2006252264A (ja) * 2005-03-11 2006-09-21 Omron Corp 障害物報知装置
JP2009184450A (ja) * 2008-02-05 2009-08-20 Toyota Central R&D Labs Inc 光照射装置
WO2011070783A1 (ja) * 2009-12-10 2011-06-16 パナソニック株式会社 情報表示装置及び情報表示方法
WO2013065348A1 (ja) * 2011-10-31 2013-05-10 本田技研工業株式会社 車両周辺監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3147684A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198156A1 (ja) * 2017-04-24 2018-11-01 三菱電機株式会社 報知制御装置および報知制御方法
WO2018198157A1 (ja) * 2017-04-24 2018-11-01 三菱電機株式会社 報知制御装置および報知制御方法
JPWO2018198156A1 (ja) * 2017-04-24 2019-11-07 三菱電機株式会社 報知制御装置および報知制御方法
JPWO2018198157A1 (ja) * 2017-04-24 2019-11-07 三菱電機株式会社 報知制御装置および報知制御方法
CN110537213A (zh) * 2017-04-24 2019-12-03 三菱电机株式会社 通知控制装置及通知控制方法
CN110537213B (zh) * 2017-04-24 2021-08-03 三菱电机株式会社 通知控制装置及通知控制方法
WO2019026437A1 (ja) * 2017-08-03 2019-02-07 株式会社小糸製作所 車両用照明システム及び車両
JPWO2019026437A1 (ja) * 2017-08-03 2020-06-11 株式会社小糸製作所 車両用照明システム及び車両
JP7235659B2 (ja) 2017-08-03 2023-03-08 株式会社小糸製作所 車両用照明システム及び車両

Also Published As

Publication number Publication date
EP3147684A1 (en) 2017-03-29
JP2017003414A (ja) 2017-01-05
EP3147684A4 (en) 2017-06-21
US20170038458A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
WO2016199442A1 (ja) レーザレーダ装置および検知方法
KR102089036B1 (ko) 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체
WO2017073111A1 (ja) 光照射装置および光照射方法
US10551619B2 (en) Information processing system and information display apparatus
JP6699675B2 (ja) 情報提供装置
US10699486B2 (en) Display system, information presentation system, control method of display system, storage medium, and mobile body
JP6538635B2 (ja) 車両用照明装置
JP6524541B2 (ja) 表示装置
US10621776B2 (en) Information display apparatus that changes a virtual image differently from a degree of the change depth
US10222459B2 (en) Method for controlling a micro-mirror scanner, and micro-mirror scanner
JP2018124461A (ja) 表示装置、移動体装置及び表示方法。
US11238737B2 (en) Motor vehicle comprising a lighting module for generating a set of symbols
US10946787B2 (en) Motor vehicle comprising a lighting module for generating a set of symbols
JP6972549B2 (ja) Hud装置、車両装置及び表示方法
US10179535B2 (en) Lighting control device of vehicle headlamp and vehicle headlamp system
US11273755B2 (en) Light output apparatus for vehicle, light output method, and non-transitory computer readable medium
WO2019026437A1 (ja) 車両用照明システム及び車両
WO2014167394A1 (en) Information display device and information display method
US11175501B2 (en) Display device, method for controlling display device, and moving body including display device
CN103197415A (zh) 眼部保护装置及方法
KR20190078944A (ko) 철도차량용 증강현실 헤드업 디스플레이 시스템
JP7131210B2 (ja) ディスプレイ装置、ディスプレイ方法およびプログラム
JP7422148B2 (ja) 灯具システム
JP7131209B2 (ja) ディスプレイ装置、ディスプレイ方法およびプログラム
JP6730174B2 (ja) 車両用照明装置

Legal Events

Date Code Title Description
REEP Request for entry into the european phase

Ref document number: 2016807149

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2016807149

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807149

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE