WO2017073111A1 - 光照射装置および光照射方法 - Google Patents

光照射装置および光照射方法 Download PDF

Info

Publication number
WO2017073111A1
WO2017073111A1 PCT/JP2016/068514 JP2016068514W WO2017073111A1 WO 2017073111 A1 WO2017073111 A1 WO 2017073111A1 JP 2016068514 W JP2016068514 W JP 2016068514W WO 2017073111 A1 WO2017073111 A1 WO 2017073111A1
Authority
WO
WIPO (PCT)
Prior art keywords
irradiation
light
range
irradiation range
unit
Prior art date
Application number
PCT/JP2016/068514
Other languages
English (en)
French (fr)
Inventor
菅原 孝
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2017073111A1 publication Critical patent/WO2017073111A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Definitions

  • the present invention relates to a light irradiation apparatus and a light irradiation method for two-dimensionally scanning laser light.
  • MEMS micro-electro-mechanical system
  • Such a technique is applied to a vehicle headlight using laser light, an image drawing apparatus for drawing an image with laser light, or the like.
  • a technique for scanning an infrared laser beam by swinging a MEMS mirror to detect an object in a scanning range and a technique for simultaneously scanning a visible light laser for drawing an image and an infrared laser for object detection.
  • processing such as stopping irradiation of visible laser light on the detected object may be performed.
  • the present embodiment has been made in view of such a situation, and an object thereof is to provide a light irradiation technique for differentiating a detected object by irradiating visible light.
  • the light irradiation device (1) of an aspect of the present embodiment emits a first light source unit (Db, Dg, Dr) that emits visible laser light and an infrared laser beam. Two-dimensional scanning is performed on the second light source unit (Dir), the visible laser beam emitted from the first light source unit (Db, Dg, Dr) and the infrared laser beam emitted from the second light source unit (Dir).
  • a scanning mirror unit 13
  • a reflected light detection unit PD2 that detects reflected light of infrared laser light irradiated through the scanning mirror unit (13), and the reflected light detection unit (PD2)
  • An object recognition unit (22) for recognizing an object located within the irradiation range of the infrared laser beam based on the reflected light, and a first irradiation range in a scanning range scanned by the scanning mirror unit (13)
  • the first light source Db, Dg, Dr
  • the visible laser beam from the first light source unit (Db, Dg, Dr) is applied to the second irradiation range corresponding to the object recognized by the object recognition unit (22).
  • An irradiation control unit (24) for controlling the image to be drawn in the second irradiation range to be drawn.
  • the method includes two-dimensional scanning with visible laser light and infrared laser light, detecting reflected light of the irradiated infrared laser light, and based on the detected reflected light, the infrared laser light.
  • a step of recognizing an object located within the irradiation range, and a second control corresponding to the recognized object are controlled so that the visible laser beam is irradiated to the first irradiation range in the scanning range by two-dimensional scanning. Controlling to draw an image to be drawn in the second irradiation range by the visible laser beam in the irradiation range.
  • the detected object can be differentiated by being irradiated with visible light.
  • FIG. 6 is a flowchart illustrating a detailed procedure of second irradiation range setting processing corresponding to the object attribute of FIG. 3 according to the first embodiment.
  • FIGS. 6C are diagrams illustrating the first irradiation range and the second irradiation range when the recognized object is a falling object.
  • FIGS. 7A to 7C are diagrams illustrating the first irradiation range and the second irradiation range when the recognized object is a person.
  • FIG. 8A to FIG. 8C are diagrams illustrating the first irradiation range and the second irradiation range when the recognized object is a vehicle. It is a figure explaining the example which sets the 2nd irradiation range in the advancing direction of an object. It is a figure explaining the example which sets the 1st irradiation range so that the recognized object may be avoided.
  • FIG. 10 is a flowchart illustrating a detailed procedure of second irradiation range setting processing corresponding to the object attribute of FIG. 3 according to a second embodiment. It is a figure explaining the table which matched the attribute of the object, and the 2nd picture.
  • FIG. 13A shows an example of a first image projected on the first irradiation range
  • FIG. 13B shows an example of a second image projected on the second irradiation range. It is a figure which shows the screen projected by a projector apparatus.
  • FIGS. 15A to 15D are diagrams illustrating an example of the second irradiation range that is set when the specific-shaped object enters the scanning range.
  • FIG. 16A to 16D are diagrams for explaining another example of the second irradiation range set when the specific-shaped object enters the scanning range.
  • FIG. 17A shows an example of the first image projected on the first irradiation range
  • FIG. 17B shows an example of the second image projected on the second irradiation range.
  • FIG. 18A to FIG. 18D are diagrams for explaining an example of the second irradiation range set when the specific-shaped object enters the scanning range.
  • FIG. 1 is a diagram showing a configuration of a light irradiation apparatus 1 according to an embodiment of the present invention.
  • the light irradiation device 1 includes a laser light source unit 10, and the laser light source unit 10 includes a visible laser light source unit that emits visible laser light and an infrared laser light source unit that emits infrared laser light.
  • FIG. 1 illustrates an example in which three primary color laser light sources (blue laser diode Db, green laser diode Dg, and red laser diode Dr) are used as visible laser light sources.
  • three primary color laser light sources blue laser diode Db, green laser diode Dg, and red laser diode Dr
  • the collimator lens 11 is disposed at the emission part of the blue laser diode Db, and substantially collimated blue collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission part of the green laser diode Dg, and substantially collimated green collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission portion of the red laser diode Dr, and substantially collimated green collimated light is formed. Similarly, a collimator lens 11 is disposed at the emission part of the infrared laser diode Dir, and substantially collimated infrared collimated light is formed.
  • the optical axes of the laser beams emitted from the three primary color laser light sources and the infrared laser light source are adjusted to be substantially coaxial via the four dichroic mirrors 12 and synthesized.
  • the laser beam light synthesized substantially coaxially is incident on the deflection mirror 13.
  • the blue laser diode Db, the green laser diode Dg, and the red laser diode Dr are driven by the visible light source driver 33 and controlled to emit / extinguish light independently.
  • the infrared laser diode Dir is driven by an infrared light source driver 32 and is controlled to emit / extinguish. Therefore, the laser light source unit 10 can emit infrared laser light, visible laser light, or laser light in which both are superimposed.
  • the deflecting mirror 13 is a biaxial deflecting mirror that can rotate biaxially, and a MEMS mirror or a polygon mirror can be used.
  • a MEMS mirror capable of high-speed and fine scanning is used.
  • the deflection mirror 13 reflects the laser light incident from the laser light source unit 10 and performs two-dimensional scanning.
  • raster scanning as two-dimensional scanning is assumed.
  • a Lissajous scan can be used instead of the raster scan.
  • the laser beam raster-scanned by the deflection mirror 13 is projected to the outside from a projection port (not shown).
  • a projection port (not shown).
  • the laser light projected from the projection port is reflected on the object surface.
  • the projection direction varies depending on the usage application of the light irradiation device 1. If the light irradiation device 1 is used for detecting an object in front of the vehicle, a wide range in front of the vehicle is two-dimensionally scanned with the vehicle front as the projection direction. . An object detected in this case is a person, another vehicle, a building, or the like. When only infrared laser light is projected, a human cannot see.
  • the raster scan locus of the laser beam in the laser beam irradiation range 2 is schematically drawn.
  • the infrared laser light emitted from the infrared laser diode Dir is branched by the first stage dichroic mirror 12 and enters the reference light detector PD1.
  • the reference light detector PD1 converts the incident infrared laser light into an electric signal (hereinafter referred to as a reference signal) and outputs it.
  • the amplifier AP1 amplifies the reference signal output from the reference light detector PD1.
  • the infrared laser light emitted from the infrared laser diode Dir is also irradiated to the outside through the deflection mirror 13.
  • the irradiated infrared laser light is reflected by the surface of various substances existing outside.
  • the condensing lens 14 condenses the reflected infrared laser light.
  • the reflected light detector PD2 converts infrared laser reflected light incident through the condenser lens 14 into an electrical signal (hereinafter referred to as a detection signal) and outputs the electrical signal.
  • the amplifier AP2 amplifies the detection signal output from the reflected light detector PD2.
  • detection malfunction can be reduced by disposing an optical filter that transmits infrared rays and blocks visible light in front of the reflected light detector PD2.
  • the synchronous clock supply unit 31 includes an oscillator such as a crystal resonator, and generates a synchronous signal from the output signal of the oscillator.
  • the synchronization clock supply unit 31 supplies the generated synchronization signal to the infrared light source driver 32, the visible light source driver 33, the scanning mirror driver 34, and the distance measurement unit 21.
  • the scanning mirror driver 34 performs raster scan control of the deflection mirror 13 based on the synchronization signal supplied from the synchronization clock supply unit 31. That is, the scanning mirror driver 34 sequentially moves the scanning position from the upper left end of the scanning area toward the lower right end. Specifically, the X-axis direction (main scanning direction) is updated sequentially from left to right, and when the scan position reaches the right end, the Y-axis direction (sub-scanning direction) is updated one downward. By repeating this process, the scan position reaches the lower right end of the scan area. When the right lower end is reached, the raster scan for one frame is completed, and the raster scan of the next frame starts from the upper left end. The raster scan is performed for 60 frames per second, for example. The frame rate is not limited to 60 Hz, but may be 15 Hz, 30 Hz, 120 Hz, or the like.
  • the infrared light source driver 32 causes the infrared laser diode Dir to emit pulses based on the synchronization signal supplied from the synchronization clock supply unit 31.
  • the infrared laser light emitted from the infrared laser diode Dir is detected as reference light by the reference light detector PD1.
  • the infrared laser light is raster-scanned by the deflecting mirror 13, then reflected by the surface of the substance existing in the irradiation range 2, and detected as reflected light by the reflected light detector PD2.
  • the reference signal detected as reference light by the reference light detector PD1 is amplified by the amplifier AP1 and output to the distance measuring unit 21.
  • the detection signal detected as reflected light by the reflected light detector PD2 is amplified by the amplifier AP2 and output to the distance measuring unit 21.
  • the distance measuring unit 21 measures the distance from the light irradiation device 1 to the reflection point based on the amount of time delay with respect to the reference signal of the detection signal (TOF (Time of Flight) method). Since the same synchronization signal is input to the infrared light source driver 32, the scanning mirror driver 34, and the distance measurement unit 21, the distance measurement unit 21 can detect how many clocks are delayed for each scan position, and according to the number of delay clocks. Thus, the distance to the reflection point at each scan position can be estimated. The distance measurement unit 21 outputs distance information of each scan position to the object recognition unit 22.
  • TOF Time of Flight
  • the object recognition unit 22 compares the distance input from the distance measurement unit 21 with the set distance, and recognizes the presence of the object when the input distance is equal to or less than the set distance.
  • the set distance is set to a distance shorter than the distance to a reflection point (for example, the ground or a wall) in a state where no obstacle exists.
  • the distance to the reflection point varies depending on the installation position and usage location of the light irradiation device 1.
  • the object recognition unit 22 generates distance map data in which distance information of each scan position is mapped for each frame.
  • the object recognition unit 22 identifies the position and shape of the object based on the distance map data. When the detection distance is close at adjacent scan positions, it is determined that they are the same object.
  • the pattern holding unit 23 holds identification pattern data of various objects. For example, pedestrian identification pattern data, automobile identification pattern data, and the like are stored.
  • the object recognition unit 22 collates the shape of the object detected from the distance map data with the pattern data held in the pattern holding unit 23, and determines the type of the object. For this verification, a general pattern matching algorithm may be used, and the algorithm is not particularly limited.
  • the object recognition unit 22 When the object recognition unit 22 recognizes an object in the frame, the object recognition unit 22 supplies the generated distance map data of the frame to the irradiation control unit 24. When the object type is determined, the object type is also supplied to the irradiation controller 24.
  • the irradiation control unit 24 controls the first irradiation range to be irradiated with visible laser light. Further, the irradiation control unit 24 determines a second irradiation range corresponding to the object recognized by the object recognition unit 22 based on the distance map data supplied from the object recognition unit 22, and makes the second irradiation range by visible laser light. Control the video to be drawn. The video data is selected according to the recognized object type.
  • the irradiation control unit 24 controls the first irradiation range to be irradiated with white laser light, and controls the second irradiation range to be irradiated with an image having a color tone different from that of the white laser light. Also good.
  • the irradiation control unit 24 controls the first irradiation range so that the first image based on the first image data is drawn by visible laser light, and the second irradiation range is different from the first image data. You may control so that the 2nd image
  • the shape of the object recognized by the object recognition unit 22 may be set as the second irradiation range, but the second irradiation range does not have to be completely coincident with the position of the object recognized by the object recognition unit 22.
  • a wide range including the object may be set as the second irradiation range.
  • the second irradiation range may be set below the object or around the object (for example, a position near the object). For example, when the object is a person, from the viewpoint of the person's eye-safety, the body region excluding the head range may be set as the second irradiation range.
  • the video data drawn in the second irradiation range may be plain color data, may be image data including a specific pattern, mark, character, or the like, and includes a message for the user of the light irradiation device 1. May be. These video data are held in the projection data holding unit 25.
  • the content of the video data may be determined according to the distance to the recognized object, or the content of the video data may be determined according to the shape of the object.
  • the content of the video data may be determined according to the type of object. For example, the content of the video data may be determined according to whether the person is a person, a fallen object, or a vehicle.
  • the irradiation control unit 24 supplies the projection data determined for each frame to the projection data setting unit 26 together with information on the first irradiation range and the second irradiation range.
  • the projection data setting unit 26 sets the supplied projection data and the first and second irradiation ranges in the visible light source driver 33.
  • the visible light source driver 33 drives the blue laser diode Db, the green laser diode Dg, and the red laser diode Dr according to the set projection data, and irradiates the first irradiation range and the second irradiation range with the projection data.
  • visible light is irradiated to the first irradiation range, and an image is drawn with visible light to the second irradiation range.
  • a first image by visible light may be drawn in the first irradiation range, and a second image different from the first image by visible light may be drawn in the second irradiation range.
  • Each laser diode can control the color gradation by controlling the applied voltage. With such a configuration capable of gradation control, more various colors can be reproduced.
  • FIG. 2 is a flowchart for explaining a light irradiation procedure by the light irradiation apparatus 1. Here, the scanning procedure of the nth frame will be described.
  • the infrared light source driver 32 irradiates the scanning range with infrared laser light (S10).
  • the distance measuring unit 21 measures the distance from the light irradiation device 1 to the object using the reflected light from the object irradiated with the infrared laser beam, and the object recognizing unit 22 is based on the measured distance. Recognize the presence of an object.
  • the irradiation control unit 24 controls the projection data setting unit 26 and the visible light source driver 33 so as to irradiate visible laser light to the first irradiation range (S12).
  • the visible light laser beam may be white light for brightening the first irradiation range, or may be visible light having a color tone for drawing the first video.
  • the irradiation control unit 24 sets a second irradiation range corresponding to the object recognized by the object recognition unit 22, and performs projection.
  • Data and information on the second irradiation range are supplied to the projection data setting unit 26 (S16).
  • the projection data setting unit 26 sets the projection data and the second irradiation range in the visible light source driver 33, and the visible light source driver 33 draws the second video based on the projection data in the second irradiation range (S18).
  • Step S16 If the object recognition unit 22 has not recognized the object in the (n-1) th frame (No in S14), the process skips Steps S16 and S18 and proceeds to Step S20.
  • the object recognition unit 22 checks whether or not an object exists (S20). When the object recognition unit 22 recognizes an object in the nth frame (Yes in S20), the range in which the object is recognized in the scanning range is stored (S22). When the object recognition unit 22 does not recognize an object in the nth frame (No in S20), step S22 is skipped.
  • nth frame scan is completed, and the processing from step S10 to step S22 is repeated for the (n + 1) th frame.
  • FIG. 3 is a flowchart for explaining the light irradiation procedure by the light irradiation apparatus 1 when the second irradiation range is set according to the attribute of the object. Steps common to the flowchart of FIG. 2 are denoted by the same reference numerals, description thereof is omitted, and steps different from the flowchart of FIG. 2 will be described.
  • the irradiation control unit 24 sets a second irradiation range corresponding to the attribute of the object recognized by the object recognition unit 22. Then, the projection data and information on the second irradiation range are supplied to the projection data setting unit 26 (S17).
  • the detailed procedure of step S17 will be described later because it differs depending on the embodiment.
  • the object recognition unit 22 determines the attribute of the recognized object (S21), and the range in which the object is recognized within the scanning range and the object The attribute is stored (S23).
  • FIG. 4 is a diagram schematically illustrating an example in which the light irradiation device 1 according to the present embodiment is applied to a vehicle headlight.
  • the light irradiation device 1 is mounted on the left and right headlights of the vehicle.
  • the headlight is mounted on either the left or right headlight.
  • the first irradiation range corresponds to a range in which white light is irradiated as a headlight when viewed from the vehicle.
  • the scanning range is in front of the vehicle.
  • the scanning mirror driver 34 scans the scanning range 180 times per second.
  • Infrared laser light is output for the entire scanning range.
  • Visible laser light here, white laser light as a headlight, is output only during scanning of the first irradiation range in the scanning range.
  • the object recognition unit 22 recognizes an object in the scanning range based on the reflected light of the infrared laser light.
  • the recognized object is, for example, another vehicle (a parked vehicle, a preceding vehicle, an oncoming vehicle, etc.) or a pedestrian in front of the vehicle.
  • the recognition of the object may be performed by shape matching using only the reflected light of the infrared laser beam, or the image recognition result based on the image of the visible light camera may be used or used together.
  • white laser light is irradiated as a headlight to the first irradiation range, while infrared laser light is projected to the scanning range, and an object is detected within the scanning range.
  • the object or the periphery of the object is set as the second irradiation range, and the visible laser beam having a tone different from that of the white laser beam is irradiated toward the second irradiation range, and a predetermined image is drawn.
  • an object such as a pedestrian, a two-wheeled vehicle, a parked vehicle, a preceding vehicle, an oncoming vehicle, or an obstacle is detected in front of the vehicle, an image is drawn on the object or its surroundings to alert the driver.
  • the laser light irradiated as a headlight is not limited to a strict white color, but may be any color tone used as a headlight. For example, it may be yellowish white light, bluish white light, or the like. If the image projected on the detected object or its surroundings is to convey the presence of an obstacle to the driver of the vehicle, a solid image with a prominent color tone such as red or yellow, or a dynamic image with a prominent color tone that attracts the line of sight It may be a video.
  • FIG. 5 is a flowchart for explaining the detailed procedure of the second irradiation range setting process corresponding to the object attribute in step S17 of FIG. 3 according to the first embodiment.
  • the attribute of the object recognized by the object recognition unit 22 in the (n-1) th frame and the range where the object is recognized are acquired (S30).
  • the object recognition unit 22 sets the object recognition range to the second irradiation range (S34), and proceeds to step S44.
  • the recognition range of the object is less than 50 cm ⁇ 50 cm, the recognized object is considered to be a fallen object or a small animal, so the entire recognition range of the object is set as the second irradiation range.
  • the object recognition unit 22 When the recognition range of the object is equal to or larger than the predetermined size (Yes in S32), the object recognition unit 22 then refers to the identification pattern data of various objects held in the pattern holding unit 23, and recognizes the recognized object. It is determined whether the attribute is a person or a light vehicle (S36).
  • the object recognition unit 22 sets the periphery of the object recognition range as the second irradiation range (S38). A part of the object recognition range may be included around the object recognition range.
  • the object recognizing unit 22 selects the second video corresponding to the attribute of the object irradiated to the second irradiation range from the projection data holding unit 25, and the projection data setting unit 26 sets information regarding the second video data and the second irradiation range. (S40).
  • the attribute of the object is a light vehicle such as a person or a two-wheeled vehicle, for example, a warning image including a message to alert the driver is selected as the second video.
  • the second image is irradiated by setting the periphery of the object recognition range as the second irradiation range.
  • the recognized object is a light vehicle such as a pedestrian or two-wheeled vehicle, it may pop out on the road, so the second image is emitted around the pedestrian or light vehicle and in the direction of travel to alert the driver. It is necessary.
  • the periphery of the object may be a wide range including the lower part of the recognized object or a range closer to the host vehicle than the recognized object.
  • the object may be a parked vehicle, a preceding vehicle, an oncoming vehicle, and the like.
  • the lower part is set as the second irradiation range (S42).
  • the lower 10% to 30% of the object recognition range is set as the second irradiation range.
  • the object recognizing unit 22 selects the second video corresponding to the attribute of the object irradiated to the second irradiation range from the projection data holding unit 25, and the projection data setting unit 26 sets information regarding the second video data and the second irradiation range. (S44).
  • a red solid image that prompts the driver to keep ahead is selected as the second video.
  • the reason why the second image is irradiated with the lower part of the object recognition range set as the second irradiation range will be described. This is because the purpose of the irradiation of the second video is to make the driver recognize the presence of an obstacle, and therefore it is preferable to draw the second video in a range close to the height of the driver's line of sight. In addition, when the recognized object is a preceding person or an oncoming vehicle, it is necessary to set the irradiation position so as not to make the other party uncomfortable, and in particular, it is necessary to irradiate the second image while avoiding the driver or the occupant of the other vehicle. is there.
  • 6A to 6C are diagrams illustrating the first irradiation range 110 and the second irradiation range 120 when the recognized object is a fallen object.
  • FIG. 6A shows a scanning range 100 using infrared laser light and a first irradiation range 110 irradiated with a headlight.
  • FIG. 6B shows a fallen object (here, cardboard) 200 on the road recognized as an object by the object recognition unit 22. Since the recognition range of the object is less than the predetermined size, the entire recognition range of the falling object 200 is set as the second irradiation range 120 as shown in FIG. Here, in the second irradiation range 120, a solid red image that draws a warning to the driver is drawn as the second image.
  • 7 (a) to 7 (c) are diagrams illustrating the first irradiation range 110 and the second irradiation range 120 when the recognized object is a person.
  • FIG. 7A shows a scanning range 100 using infrared laser light and a first irradiation range 110 irradiated with a headlight.
  • FIG. 7B shows the person 210 recognized as an object by the object recognition unit 22. Since the recognition range of the object is equal to or larger than the predetermined size and the attribute of the object is a person, the periphery of the recognition range of the person 210 is set as the second irradiation range 120 as shown in FIG. Here, in the second irradiation range 120, a warning image including the characters “caution” is drawn as the second video.
  • FIGS. 8A to 8C are diagrams illustrating the first irradiation range 110 and the second irradiation range 120 when the recognized object is a vehicle.
  • FIG. 8A shows a scanning range 100 using infrared laser light and a first irradiation range 110 irradiated with a headlight.
  • FIG. 8B shows the vehicle 220 recognized as an object by the object recognition unit 22. Since the recognition range of the object is equal to or larger than the predetermined size and the attribute of the object is a vehicle, the lower part of the recognition range of the vehicle 220 is set to the second irradiation range 120 as shown in FIG. Here, in the second irradiation range 120, a solid red image that draws a warning to the driver is drawn as the second image.
  • FIG. 9 is a diagram illustrating an example in which the second irradiation range is set in the traveling direction of the object.
  • the recognized object is a person or a light vehicle
  • the second irradiation range 120 is set in the traveling direction of the object, and an image that draws attention to the driver is drawn.
  • the second irradiation range 120 is set on the left side of the person 212, and a warning image including the characters “caution” is drawn.
  • the traveling direction of the object is detected based on the transition of the position of the object for each frame.
  • FIG. 10 is a diagram illustrating an example in which the first irradiation range 110 is set so as to avoid a recognized object. If the recognized object is another vehicle or a pedestrian in front of the vehicle, the first irradiation range 110 is set to avoid the object in consideration of problems such as eye safety. In the case of FIG. 10, since the person 214 has been recognized, the first irradiation range 110 is set so as to avoid the face and upper body of the person 214 so that the headlight is not directly irradiated to the person 214.
  • infrared laser light is output for the entire scanning range, and visible laser light is output only during scanning of the first irradiation range.
  • the output of the infrared laser beam is not an output for the entire scanning range, but may be a range wider than the first irradiation range and requiring recognition of an object.
  • Example 2 In the second embodiment, the light irradiation device 1 is applied to a projector device.
  • the projector device When the light irradiation device 1 is used for the projector device, the projector device simultaneously scans the visible laser beam and the infrared laser beam, and draws an image with the visible laser beam.
  • the projector device projects a first image (still image or moving image) using an external projection surface as a first irradiation range.
  • the object recognition range is set to the second irradiation range, and the period during which the object is recognized is An image obtained by combining the image with the second image in the second irradiation range is generated and drawn with a visible laser.
  • the object recognition unit 22 recognizes the presenter and the board as objects.
  • the recognized object includes a specific shape (in this case, a rectangle)
  • the second image is drawn only on the rectangular board.
  • FIG. 11 is a flowchart illustrating a detailed procedure of the second irradiation range setting process corresponding to the object attribute in step S17 of FIG. 3 according to the second embodiment.
  • the attribute of the object recognized by the object recognition unit 22 in the (n-1) th frame and the range in which the object is recognized are acquired (S50).
  • the object recognition unit 22 checks whether the attribute of the recognized object is a predetermined shape (S52).
  • a predetermined shape As the shape of the object, an identification pattern such as a rectangle, a circle, a human shape, or a shape imitating an animal is registered in advance, and it is checked whether or not the recognized shape of the object matches the identification pattern.
  • the object recognition unit 22 sets the object recognition range to the second irradiation range (S54).
  • the object recognizing unit 22 determines the second image to be irradiated to the second irradiation range according to the attribute of the object (S56).
  • FIG. 12 is a diagram for explaining a table in which object attributes are associated with second images.
  • the attribute of the object is the shape of the object, which includes a human shape, a shape imitating an animal, a rectangle, and a circle, and each of the files 02-0001. mov, 02-0002. mov, 02-0003. mov, 02-0004. mov is associated.
  • the object recognition unit 22 refers to this table and selects the second video according to the shape of the object.
  • FIG. 13A shows an example of a first image projected on the first irradiation range
  • FIG. 13B shows an example of a second image projected on the second irradiation range.
  • FIG. 14 is a diagram showing a screen projected by the projector device.
  • a first irradiation range 110 is set in the scanning range 100, and the first image in FIG. 13A is drawn in the first irradiation range 110 by the projector.
  • the first irradiation range 110 is a drawing range of the projector.
  • the specific-shaped object 300 shown in FIG. 14 is a rectangular white board here.
  • the object recognition unit 22 since the specific shape object 300 is outside the scanning range 100 and is not irradiated with infrared laser light, the object recognition unit 22 does not recognize the specific shape object 300 as an object.
  • the object recognition unit 22 recognizes the specific shape object 300, and the specific shape object 300 is set to the second irradiation range. A second image is drawn by visible laser light.
  • FIGS. 15A to 15D are diagrams illustrating an example of the second irradiation range 120 that is set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 15A to 15D are diagrams illustrating an example of the second irradiation range 120 that is set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 15A shows a state in which the specific shape object 300 is inserted from the left end of the scanning range 100.
  • a part of the right side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the right side of the specific shape object 300 as a rectangular shape, but the recognition range of the object is less than a predetermined size. Therefore, the object recognition unit 22 does not recognize the specific shape object 300 as an object here. Therefore, the second image is not drawn on the specific shape object 300, and a part of the first image drawn in the first irradiation range 110 is projected onto the specific shape object 300 within the scanning range 100. Become.
  • the object recognition unit 22 recognizes the specific shape object 300 as a rectangular object of a predetermined size and specifies it.
  • the recognition range of the shape object 300 is set as the second irradiation range 120, and the second image in FIG. 13B is drawn in the second irradiation range 120.
  • an image in which the second image of the second irradiation range 120 is inserted into the first image of the first irradiation range 110 is drawn on the screen.
  • the user's figure is not a rectangular shape, so that it is not recognized as an object, and only the specific-shaped object 300 is recognized as an object.
  • FIG. 15D shows a state in which the specific shape object 300 is removed from the right end of the scanning range 100.
  • a part of the left side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the left side of the specific shape object 300 as a rectangular shape, but the object recognition range is less than a predetermined size. Therefore, the object recognition unit 22 does not recognize the specific shape object 300 as an object here. Therefore, the second image is not drawn on the specific shape object 300, and a part of the first image drawn in the first irradiation range 110 is projected onto the specific shape object 300 within the scanning range 100. Become.
  • FIGS. 16A to 16D are diagrams for explaining another example of the second irradiation range 120 set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 16A is diagrams for explaining another example of the second irradiation range 120 set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 16A shows a state in which the specific shape object 300 is inserted from the left end of the scanning range 100.
  • a part of the right side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the right side of the specific shape object 300 as a rectangular shape.
  • the object recognition unit 22 recognizes a rectangle as an object regardless of the size of the rectangle. Therefore, a part of the right side of the specific shaped object 300 is set to the second irradiation range 120, and a part of the second video is drawn.
  • the entire specific shape object 300 is within the scanning range 100, the object recognition unit 22 recognizes the specific shape object 300, and the entire specific shape object 300 is second irradiated.
  • the range 120 is set, and the second image in FIG. 13B is drawn in the second irradiation range 120. This is the same as FIG. 15 (b) and FIG. 15 (c).
  • FIG. 16D shows a state in which the specific shape object 300 is removed from the right end of the scanning range 100.
  • a part of the left side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the left side of the specific shape object 300 as a rectangular shape, and the detected rectangle regardless of the size of the rectangular shape. Recognize the shape as an object. Therefore, a part of the left side of the specific shaped object 300 is set to the second irradiation range 120, and a part of the second video is drawn.
  • the specific shape detected by the object recognition unit 22 is a rectangular shape
  • the specific shape may be any other shape, or may be the shape of a person or an animal.
  • FIG. 17A shows an example of the first image projected on the first irradiation range
  • FIG. 17B shows an example of the second image projected on the second irradiation range.
  • FIG. 17B has the same background as FIG. 17A, but a different video as shown in FIG. 13B may be used.
  • FIGS. 18A to 18D are diagrams illustrating an example of the second irradiation range 120 set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 18A is diagrams illustrating an example of the second irradiation range 120 set when the specific-shaped object 300 enters the scanning range 100.
  • FIG. 18A shows a state in which the specific shape object 300 is inserted from the left end of the scanning range 100.
  • a part of the right side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the right side of the specific shape object 300 as a rectangular shape.
  • the object recognition unit 22 recognizes a rectangle as an object regardless of the size of the rectangle. Therefore, a part of the right side of the specific shaped object 300 is set to the second irradiation range 120, and a portion corresponding to the second irradiation range 120 in the second image having the same size as the first image is drawn.
  • the entire specific shape object 300 is within the scanning range 100, the object recognition unit 22 recognizes the specific shape object 300, and the entire specific shape object 300 is second irradiated.
  • FIG. 18D shows a state in which the specific shape object 300 is removed from the right end of the scanning range 100.
  • a part of the left side of the specific shape object 300 is within the scanning range 100, and the object recognition unit 22 detects a part of the left side of the specific shape object 300 as a rectangular shape, and the detected rectangle regardless of the size of the rectangular shape. Recognize the shape as an object. Therefore, a part of the left side of the specific shaped object 300 is set as the second irradiation range 120, and a portion corresponding to the second irradiation range 120 in the second image having the same size as the first image is drawn.
  • the present invention is not limited to the application example.
  • it can be applied to a surveillance camera.
  • an object such as a person enters the irradiation range of the light irradiation device 1
  • an image of visible laser light is drawn on the object or its periphery.
  • the present invention can be used for a light irradiation technique for two-dimensionally scanning a laser beam.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

走査ミラー部(13)は可視レーザ光および赤外レーザ光を2次元走査する。反射光検出部(PD2)は、走査ミラー部(13)を介して照射された赤外レーザ光の反射光を検出する。物体認識部(22)は、反射光検出部(PD2)により検出された反射光に基づき、赤外レーザ光の照射範囲内に位置する物体を認識する。照射制御部(24)は、走査ミラー部(13)が走査する走査範囲における第1照射範囲に対して可視レーザ光が照射されるように制御し、物体認識部(22)が認識した物体に対応する第2照射範囲に可視レーザ光により第2照射範囲に描画する映像が描画されるように制御する。

Description

光照射装置および光照射方法
 本発明は、レーザ光を2次元的に走査する光照射装置および光照射方法に関する。
 MEMS(micro electro mechanical system)ミラーの搖動により可視光レーザ光を走査させ、映像を描画する技術がある。このような技術は、レーザ光を用いた車両のヘッドライトや、レーザ光で映像を描画する映像描画装置などに適用されている。また、MEMSミラーの搖動により赤外レーザ光を走査させ、走査範囲の物体を検出する技術や、映像の描画を行う可視光レーザと物体検出を行う赤外レーザとを同時に走査させる技術もある。さらに、赤外レーザ光の走査によって物体が検出されることによって、検出された物体への可視レーザ光の照射中止などの処理を行うこともある。
特開2014-202951号公報
 しかしながら、従来の技術では、赤外レーザ光の走査により認識した物体に対して、積極的に可視光を照射して、検出された物体を差別化したり付加価値を与えて観察者に見せることはなかった。また、認識した物体の動きに追従した光照射を行うものでもなかった。
 本実施の形態はこうした状況に鑑みてなされたものであり、その目的は、検出された物体に可視光を照射して差別化する光照射技術を提供することにある。
 上記課題を解決するために、本実施の形態のある態様の光照射装置(1)は、可視レーザ光を出射する第1光源部(Db、Dg、Dr)と、赤外レーザ光を出射する第2光源部(Dir)と、前記第1光源部(Db、Dg、Dr)から出射された可視レーザ光および前記第2光源部(Dir)から出射された赤外レーザ光を2次元走査する走査ミラー部(13)と、前記走査ミラー部(13)を介して照射された赤外レーザ光の反射光を検出する反射光検出部(PD2)と、前記反射光検出部(PD2)により検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する物体を認識する物体認識部(22)と、前記走査ミラー部(13)が走査する走査範囲における第1照射範囲に対して前記第1光源部(Db、Dg、Dr)からの可視レーザ光が照射されるように制御し、前記物体認識部(22)が認識した物体に対応する第2照射範囲に前記第1光源部(Db、Dg、Dr)からの可視レーザ光により前記第2照射範囲に描画する映像が描画されるように制御する照射制御部(24)とを備える。
 本実施の形態の別の態様は、光照射方法である。この方法は、可視レーザ光および赤外レーザ光を2次元走査するステップと、照射された赤外レーザ光の反射光を検出するステップと、検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する物体を認識するステップと、2次元走査による走査範囲における第1照射範囲に対して前記可視レーザ光が照射されるように制御し、認識された前記物体に対応する第2照射範囲に前記可視レーザ光により前記第2照射範囲に描画する映像が描画されるように制御するステップとを備える。
 なお、以上の構成要素の任意の組合せ、本実施の形態の表現を方法、装置、システムなどの間で変換したものもまた、本実施の形態の態様として有効である。
 本実施の形態によれば、検出された物体に可視光を照射して差別化することができる。
本発明の実施の形態に係る光照射装置の構成を示す図である。 図1の光照射装置による光照射手順を説明するフローチャートである。 図1の光照射装置による別の光照射手順を説明するフローチャートである。 本実施の形態に係る光照射装置を車両用ヘッドライトに適用する例を模式的に描いた図である。 図3の物体属性に対応する第2照射範囲設定処理の詳細な手順を実施例1にしたがって説明するフローチャートである。 図6(a)~図6(c)は、第1照射範囲と、認識された物体が落下物である場合の第2照射範囲とを説明する図である。 図7(a)~図7(c)は、第1照射範囲と、認識された物体が人物である場合の第2照射範囲とを説明する図である。 図8(a)~図8(c)は、第1照射範囲と、認識された物体が車両である場合の第2照射範囲とを説明する図である。 物体の進行方向に第2照射範囲を設定する例を説明する図である。 認識した物体を避けるように第1照射範囲を設定する例を説明する図である。 図3の物体属性に対応する第2照射範囲設定処理の詳細な手順を実施例2にしたがって説明するフローチャートである。 物体の属性と第2映像を対応付けたテーブルを説明する図である。 図13(a)は第1照射範囲に投影される第1映像の例を示し、図13(b)は第2照射範囲に投影される第2映像の例を示す図である。 プロジェクタ装置により映し出されるスクリーンを示す図である。 図15(a)~図15(d)は、特定形状物体が走査範囲内に入った場合に設定される第2照射範囲の例を説明する図である。 図16(a)~図16(d)は、特定形状物体が走査範囲内に入った場合に設定される第2照射範囲の別の例を説明する図である。 図17(a)は第1照射範囲に投影される第1映像の例を示し、図17(b)は第2照射範囲に投影される第2映像の例を示す図である。 図18(a)~図18(d)は、特定形状物体が走査範囲内に入った場合に設定される第2照射範囲の例を説明する図である。
 図1は、本発明の実施の形態に係る光照射装置1の構成を示す図である。光照射装置1はレーザ光源部10を備え、レーザ光源部10は、可視レーザ光を出射する可視レーザ光源部と、赤外レーザ光を出射する赤外レーザ光源部を含む。図1では可視レーザ光源として3原色のレーザ光源(青色レーザダイオードDb、緑色レーザダイオードDg、赤色レーザダイオードDr)を使用する例を描いている。
 青色レーザダイオードDbの出射部にコリメータレンズ11が配置され、略平行光の青色コリメート光が形成される。同様に緑色レーザダイオードDgの出射部にはコリメータレンズ11が配置され、略平行光の緑色コリメート光が形成される。同様に赤色レーザダイオードDrの出射部にはコリメータレンズ11が配置され、略平行光の緑色コリメート光が形成される。同様に赤外レーザダイオードDirの出射部にはコリメータレンズ11が配置され、略平行光の赤外コリメート光が形成される。
 3原色のレーザ光源および赤外レーザ光源から出射された各レーザ光の光軸は、4つのダイクロイックミラー12を経て略同軸に調整されて合成される。略同軸上に合成されたレーザビーム光は偏向ミラー13に入射される。
 青色レーザダイオードDb、緑色レーザダイオードDg及び赤色レーザダイオードDrは可視光源ドライバ33により駆動され、それぞれ独立に発光/消光制御される。赤外レーザダイオードDirは赤外光源ドライバ32により駆動され、発光/消光制御される。従ってレーザ光源部10は、赤外レーザ光、可視レーザ光、又は両者が重畳されたレーザ光を出射可能である。
 偏向ミラー13は2軸回動可能な2軸偏向ミラーであり、MEMSミラーやポリゴンミラーを使用できる。以下の説明では、より高速で細かな走査が可能なMEMSミラーを使用する例を想定する。偏向ミラー13は、レーザ光源部10から入射されるレーザ光を反射して2次元走査する。以下の説明では、2次元走査としてラスタスキャンする例を想定する。なおラスタスキャンの代わりにリサージュスキャンを使用することも可能である。
 偏向ミラー13によりラスタスキャンされたレーザ光は、図示しない投射口から外部に投射される。投射口から投射されたレーザ光は投射方向の空間に物体が存在する場合、その物体表面で反射する。投射方向は、光照射装置1の使用用途により様々であり、光照射装置1が車両前方の物体を検出する用途であれば、車両前方を投射方向として車両前方の広い範囲が2次元走査される。この場合に検出される物体は、人や他の車両、建造物などである。赤外レーザ光のみが投射される場合は人間は目視できない。図1ではレーザ光の照射範囲2におけるレーザ光のラスタスキャン軌跡を模式的に描いている。
 赤外レーザダイオードDirから出射された赤外レーザ光は、1段目のダイクロイックミラー12で分岐され、参照光検出器PD1に入射する。参照光検出器PD1は入射された赤外レーザ光を電気信号(以下、参照信号という)に変換して出力する。アンプAP1は、参照光検出器PD1から出力される参照信号を増幅する。
 赤外レーザダイオードDirから出射された赤外レーザ光は偏向ミラー13を介して外部にも照射される。照射された赤外レーザ光は、外部に存在する種々の物質表面にあたり反射する。集光レンズ14は、反射された赤外レーザ光を集光する。反射光検出器PD2は、集光レンズ14を介して入射される赤外レーザ反射光を電気信号(以下、検出信号という)に変換して出力する。アンプAP2は、反射光検出器PD2から出力される検出信号を増幅する。なお、図示はしていないが反射光検出器PD2の前段に赤外線を透過し可視光を遮断するような光学フィルターを配置することにより検出誤動作を軽減することが出来る。
 同期クロック供給部31は、水晶振動子などの発振器を含み、当該発振器の出力信号から同期信号を生成する。同期クロック供給部31は生成した同期信号を、赤外光源ドライバ32、可視光源ドライバ33、走査ミラードライバ34及び距離測定部21に供給する。
 走査ミラードライバ34は、同期クロック供給部31から供給される同期信号をもとに、偏向ミラー13をラスタスキャン制御する。即ち走査ミラードライバ34は、スキャン位置を走査領域の左上端から右下端に向けて順次移動させる。具体的にはX軸方向(主走査方向)を左から右に順次更新し、スキャン位置が右端に到達するとY軸方向(副走査方向)を下に1つ更新する。この処理を繰り返すことにより、スキャン位置が走査領域の右下端に到達する。右下端に到達すると1フレーム分のラスタスキャンが終了し、次のフレームのラスタスキャンが左上端から開始する。ラスタスキャンは例えば1秒間に60フレーム分、行われる。なおフレームレートは60Hzに限らず、15Hz、30Hz、120Hz等であってもよい。
 赤外光源ドライバ32は、同期クロック供給部31から供給される同期信号をもとに、赤外レーザダイオードDirをパルス発光させる。赤外レーザダイオードDirから出射された赤外レーザ光は、参照光検出器PD1により参照光として検出される。また当該赤外レーザ光は偏向ミラー13によりラスタスキャンされた後、照射範囲2内に存在する物質表面で反射され、反射光検出器PD2により反射光として検出される。
 参照光検出器PD1により参照光として検出された参照信号はアンプAP1で増幅され、距離測定部21に出力される。反射光検出器PD2により反射光として検出された検出信号はアンプAP2で増幅され、距離測定部21に出力される。
 距離測定部21は、検出信号の参照信号に対する時間的な遅延量をもとに光照射装置1から反射点までの距離を測定する(TOF(Time of Flight)法)。赤外光源ドライバ32、走査ミラードライバ34及び距離測定部21には同じ同期信号が入力されるため距離測定部21は、スキャン位置ごとに何クロック遅延しているかを検出でき、遅延クロック数に応じて各スキャン位置における反射点までの距離を推定できる。距離測定部21は、各スキャン位置の距離情報を物体認識部22に出力する。
 物体認識部22は、距離測定部21から入力された距離と設定距離を比較し、入力された距離が設定距離以下の場合、物体の存在を認識する。当該設定距離は、障害物が存在しない状態の反射点(例えば、地面や壁)までの距離より短い距離に設定される。当該反射点までの距離は光照射装置1の設置位置や使用場所により異なる。
 物体認識部22は、フレームごとに各スキャン位置の距離情報をマッピングした距離マップデータを生成する。物体認識部22は当該距離マップデータをもとに物体の位置および形状を特定する。隣接するスキャン位置において検出距離が近い場合、同一物体と判定する。
 パターン保持部23は、各種物体の識別パターンデータを保持する。例えば歩行者の識別パターンデータ、自動車の識別パターンデータ等を保持する。物体認識部22は、距離マップデータから検出した物体の形状と、パターン保持部23に保持されたパターンデータとを照合し、物体の種別を判定する。この照合には、一般的なパターンマッチングアルゴリズムを使用すればよく、特にアルゴリズムは限定されない。
 物体認識部22は、フレーム内において物体を認識した場合、生成した当該フレームの距離マップデータを照射制御部24に供給する。物体の種別を判定した場合は物体の種別も照射制御部24に供給する。
 照射制御部24は、第1照射範囲に対して可視レーザ光が照射されるように制御する。また、照射制御部24は、物体認識部22から供給された距離マップデータをもとに物体認識部22が認識した物体に対応する第2照射範囲を定め、可視レーザ光により第2照射範囲に映像が描画されるように制御する。映像データは認識された物体の種別に応じて選択される。
 照射制御部24は、第1照射範囲に対して白色レーザ光が照射されるように制御し、第2照射範囲に対して白色レーザ光とは異なる色調の映像が照射されるように制御してもよい。照射制御部24は、第1照射範囲に対して第1映像データに基づく第1映像が可視レーザ光により描画されるように制御し、第2照射範囲に対して第1映像データとは異なる第2映像データに基づく第2映像が可視レーザ光により描画されるように制御してもよい。
 物体認識部22が認識した物体の形状を第2照射範囲として設定してもよいが、第2照射範囲は、物体認識部22が認識した物体の位置と完全に一致している必要はない。物体を包含する広い範囲を第2照射範囲としてもよい。物体の下方または物体周辺(例えば、物体の近傍の位置)を第2照射範囲としてもよい。例えば物体が人物の場合、人物のアイセーフの観点から、頭部の範囲を除いた身体の領域を第2照射範囲としてもよい。
 第2照射範囲に描画される映像データは、無地の色データでもよく、特定の模様、マーク、文字などを含む画像データであってもよく、光照射装置1のユーザに対するメッセージを含むものであってもよい。これらの映像データは投射データ保持部25に保持される。
 認識された物体までの距離に応じて映像データの内容を決定してもよく、物体の形状に応じて映像データの内容を決定してもよい。また物体の種別に応じて映像データの内容を決定してもよい。例えば、人物であるか、落下物であるか、車両であるかに応じて映像データの内容を決定してもよい。
 照射制御部24は、フレームごとに決定した投射データを第1照射範囲および第2照射範囲に関する情報とともに投射データ設定部26に供給する。投射データ設定部26は、供給された投射データと第1、第2照射範囲を可視光源ドライバ33に設定する。可視光源ドライバ33は、設定された投射データに従い青色レーザダイオードDb、緑色レーザダイオードDg及び赤色レーザダイオードDrを駆動し、第1照射範囲と第2照射範囲に投射データを照射する。これにより、第1照射範囲には可視光が照射されるとともに、第2照射範囲には可視光により映像が描画される。第1照射範囲に可視光による第1映像が描画され、第2照射範囲に可視光による第1映像とは異なる第2映像を描画されてもよい。
 なお各レーザダイオードは、印加電圧を制御することにより色の階調を制御できる。このような階調制御が可能な構成では、より多様な色を再現できる。
 図2は、光照射装置1による光照射手順を説明するフローチャートである。ここでは、第nフレームの走査手順を説明する。
 赤外光源ドライバ32は、走査範囲に対して赤外レーザ光を照射する(S10)。距離測定部21は、赤外レーザ光が照射された物体からの反射光を利用して、光照射装置1から物体までの距離を測定し、物体認識部22は、測定された距離にもとづいて物体の存在を認識する。
 照射制御部24は、第1照射範囲に対して可視レーザ光を照射するように投射データ設定部26および可視光源ドライバ33を制御する(S12)。可視光レーザ光は、第1照射範囲を明るくするための白色光であってもよく、第1映像を描画するための色調をもつ可視光であってもよい。
 第n-1フレームにおいて物体認識部22が物体を認識していた場合(S14のYes)、照射制御部24は、物体認識部22が認識した物体に対応する第2照射範囲を設定し、投射データと第2照射範囲に関する情報を投射データ設定部26に供給する(S16)。投射データ設定部26は、投射データと第2照射範囲を可視光源ドライバ33に設定し、可視光源ドライバ33は、第2照射範囲に投射データにもとづく第2映像を描画する(S18)。
 第n-1フレームにおいて物体認識部22が物体を認識していなかった場合(S14のNo)、ステップS16およびステップS18をスキップしてステップS20に進む。
 第nフレームにおいて物体認識部22が物体の存在の有無を調べる(S20)。第nフレームにおいて物体認識部22が物体を認識した場合(S20のYes)、走査範囲内において物体が認識された範囲を記憶する(S22)。第nフレームにおいて物体認識部22が物体を認識しなかった場合(S20のNo)、ステップS22をスキップする。
 第nフレーム走査が終了し、第n+1フレームについてステップS10からステップS22までの処理を繰り返す。
 図3は、物体の属性に応じて第2照射範囲を設定する場合の光照射装置1による光照射手順を説明するフローチャートである。図2のフローチャートと共通するステップには同一の符号を付して説明を省略し、図2のフローチャートとは異なるステップについて説明する。
 第n-1フレームにおいて物体認識部22が物体を認識していた場合(S14のYes)、照射制御部24は、物体認識部22が認識した物体の属性に対応する第2照射範囲を設定し、投射データと第2照射範囲に関する情報を投射データ設定部26に供給する(S17)。ステップS17の詳細な手順は、実施例によって異なるため、後述する。
 第nフレームにおいて物体認識部22が物体を認識した場合(S20のYes)、物体認識部22は認識した物体の属性を判断し(S21)、走査範囲内において物体が認識された範囲と物体の属性を記憶する(S23)。
 以下、本実施の形態に係る光照射装置1の実施例を説明する。
(実施例1)
 図4は、本実施の形態に係る光照射装置1を車両用ヘッドライトに適用する例を模式的に描いた図である。光照射装置1は車両の左右のヘッドライトに実装される。以下では説明を簡単にするため、左右いずれか一方のヘッドライトに実装された例を説明する。
 車両のヘッドライトとして光照射装置1が利用された場合、第1照射範囲は、車両から見てヘッドライトとして白色光が照射される範囲に該当する。走査範囲は、車両の前方である。走査ミラードライバ34は、一例として走査範囲を毎秒180回走査する。赤外レーザ光は走査範囲全体に対して出力される。可視レーザ光、ここではヘッドライトとしての白色レーザ光は、走査範囲の内、第1照射範囲の走査時のみ出力される。
 物体認識部22は、赤外レーザ光の反射光にもとづいて走査範囲内における物体を認識する。認識する物体は、たとえば、車両前方の他の車両(駐車車両、先行車、対向車など)や歩行者である。物体の認識は、赤外レーザ光の反射光のみによる形状照合により行ってもよく、可視光カメラの映像による画像認識結果を利用または併用してもよい。
 実施例1の光照射装置1によれば、第1照射範囲には白色レーザ光がヘッドライトとして照射される一方、走査範囲には赤外レーザ光が投射され、走査範囲内において物体が検知された場合、当該物体または当該物体の周辺が第2照射範囲に設定され、第2照射範囲に向けて白色レーザ光とは異なる色調の可視レーザ光が照射され、所定の映像が描画される。車両の前方に歩行者、二輪車、駐車車両、先行車、対向車、障害物などの物体が検知された場合、当該物体またはその周辺に映像が描画され、運転者に注意喚起することができる。
 なお、ヘッドライトとして照射されるレーザ光は、厳密な白色に限らずヘッドライトとして用いられる色調であればよい。例えば、黄味かかった白色光、青味かかった白色光などであってもよい。検知された物体またはその周辺に投影される映像は、車両の運転者に障害物の存在を伝える目的である場合は、赤色や黄色など目立つ色調のベタ画像や、視線を引き付ける目立つ色調の動的映像などであってもよい。
 図5は、図3のステップS17の物体属性に対応する第2照射範囲設定処理の詳細な手順を実施例1にしたがって説明するフローチャートである。
 第n-1フレームで物体認識部22が認識した物体の属性と物体が認識された範囲を取得する(S30)。
 物体の認識範囲が所定サイズ未満である場合(S32のNo)、物体認識部22は、物体の認識範囲を第2照射範囲に設定し(S34)、ステップS44に進む。一例として、物体の認識範囲が50cm×50cm未満である場合、認識された物体は落下物や小動物と考えられるため、物体の認識範囲全体を第2照射範囲とする。
 物体の認識範囲が所定サイズ以上である場合(S32のYes)、次に、物体認識部22は、パターン保持部23に保持された各種物体の識別パターンデータを参照して、認識された物体の属性が人物または軽車両であるか否かを判定する(S36)。
 認識された物体の属性が人物または軽車両である場合(S36のYes)、物体認識部22は、物体の認識範囲の周辺を第2照射範囲に設定する(S38)。物体の認識範囲の周辺には、当該物体の一部が含まれてもよい。物体認識部22は、第2照射範囲に照射される物体の属性に応じた第2映像を投射データ保持部25から選択し、第2映像データと第2照射範囲に関する情報を投射データ設定部26に供給する(S40)。ここでは、物体の属性が人物または二輪車などの軽車両であるため、たとえば、運転手に注意を促すメッセージを含む警告画像を第2映像として選択する。
 物体の認識範囲の周辺を第2照射範囲に設定して第2映像を照射する理由を説明する。認識した物体が歩行者や二輪車などの軽車両である場合、道路に飛び出してくる場合があるため、歩行者や軽車両の周辺や進行方向に第2映像を照射して運転手に注意を促す必要があるからである。物体の周辺は、認識した物体の下部を含む広い範囲または認識した物体よりも自車両に近い範囲であってもよい。
 認識された物体の属性が人物でも軽車両でもない場合(S36のNo)、物体は駐車車両、先行車、対向車などである可能性があるため、物体認識部22は、物体の認識範囲の下部を第2照射範囲に設定する(S42)。一例として、物体の認識範囲の下部10%~30%を第2照射範囲として設定する。物体認識部22は、第2照射範囲に照射される物体の属性に応じた第2映像を投射データ保持部25から選択し、第2映像データと第2照射範囲に関する情報を投射データ設定部26に供給する(S44)。ここでは、物体の属性が車両であるため、たとえば、運転手に前方注意を促す赤ベタ塗り画像を第2映像として選択する。
 物体の認識範囲の下部を第2照射範囲に設定して第2映像を照射する理由を説明する。第2映像の照射は、運転者に障害物の存在を認識させることが目的であるため、運転者の視線の高さに近い範囲に第2映像を描画するのが好ましいからである。また、認識した物体が先行者、対向車である場合、相手を不快にさせない照射位置に設定する必要があり、特に相手車両の運転手や乗員を避けて第2映像を照射する必要があるからである。
 図6(a)~図6(c)は、第1照射範囲110と、認識された物体が落下物である場合の第2照射範囲120とを説明する図である。
 図6(a)は、赤外レーザ光による走査範囲100と、ヘッドライトが照射される第1照射範囲110を示す。図6(b)は、物体認識部22により物体として認識された路上の落下物(ここでは段ボール)200を示す。物体の認識範囲が所定サイズ未満であるため、図6(c)のように、落下物200の認識範囲全体が第2照射範囲120に設定される。ここでは第2照射範囲120には第2映像として運転手に警告を促す赤ベタ塗り画像が描画される。
 図7(a)~図7(c)は、第1照射範囲110と、認識された物体が人物である場合の第2照射範囲120とを説明する図である。
 図7(a)は、赤外レーザ光による走査範囲100と、ヘッドライトが照射される第1照射範囲110を示す。図7(b)は、物体認識部22により物体として認識された人物210を示す。物体の認識範囲が所定サイズ以上であり、物体の属性が人物であるため、図7(c)のように、人物210の認識範囲の周辺が第2照射範囲120に設定される。ここでは第2照射範囲120には第2映像として「注意」という文字を含む警告画像が描画される。
 図8(a)~図8(c)は、第1照射範囲110と、認識された物体が車両である場合の第2照射範囲120とを説明する図である。
 図8(a)は、赤外レーザ光による走査範囲100と、ヘッドライトが照射される第1照射範囲110を示す。図8(b)は、物体認識部22により物体として認識された車両220を示す。物体の認識範囲が所定サイズ以上であり、物体の属性が車両であるため、図8(c)のように、車両220の認識範囲の下部が第2照射範囲120に設定される。ここでは第2照射範囲120には第2映像として運転手に警告を促す赤ベタ塗り画像が描画される。
 図9は、物体の進行方向に第2照射範囲を設定する例を説明する図である。認識した物体が人物や軽車両である場合、当該物体の進行方向に第2照射範囲120を設定し、運転手に注意を促す映像を描画する。図9の場合、人物212が認識され、左方向に歩いていることから、人物212の左側に第2照射範囲120を設定して、「注意」という文字を含む警告画像を描画する。物体の進行方向は、フレーム毎の物体の位置の推移にもとづいて検出される。
 図10は、認識した物体を避けるように第1照射範囲110を設定する例を説明する図である。認識した物体が車両前方の他の車両や歩行者である場合、アイセーフ等の問題を考慮して、第1照射範囲110を認識した物体を避けるように設定する。図10の場合、人物214が認識されたため、人物214の顔や上半身を避けるように第1照射範囲110を設定し、人物214にヘッドライトが直接照射されないようにする。
 上記実施例1においては、赤外レーザ光が走査範囲全体に対して出力され、可視レーザ光が第1照射範囲の走査時のみ出力されることとして説明した。赤外レーザ光の出力は、走査範囲全体に対する出力ではなく、第1照射範囲より広い範囲であり物体の認識を要する範囲であればよい。
 (実施例2)
 実施例2では、光照射装置1をプロジェクタ装置に適用する。
 プロジェクタ装置に光照射装置1が利用された場合、プロジェクタ装置は、可視レーザ光と赤外レーザ光を同時に走査して、可視レーザ光により画像描画を行う。プロジェクタ装置は、外部の投映面を第1照射範囲として第1映像(静止画または動画)を投映する。赤外レーザ光の反射光にもとづいてプロジェクタ装置と投映面との間に物体が検出された場合、物体の認識範囲が第2照射範囲に設定され、物体が認識されている期間は、第1映像に対して第2照射範囲に第2映像を合成した映像を生成し、可視レーザで描画する。
 例えば、プロジェクタ装置による映像をプレゼンテーションに用いる場合、プレゼンテーション画面を第1映像とし、プレゼンテーション画面の前にプレゼンタが例えば無地の矩形ボードを提示したとき、物体認識部22は、プレゼンタとボードを物体として認識するが、認識した物体に特定形状(ここでは矩形)が含まれるため、矩形のボードのみに第2映像を描画する。これにより、プレゼンテーション画面とは別のサブ画面を用いた効果的なプレゼンテーションを行うことができる。
 図11は、図3のステップS17の物体属性に対応する第2照射範囲設定処理の詳細な手順を実施例2にしたがって説明するフローチャートである。
 第n-1フレームで物体認識部22が認識した物体の属性と物体が認識された範囲を取得する(S50)。
 物体認識部22は、認識した物体の属性が所定形状であるかどうかを調べる(S52)。物体の形状として、矩形や円形、人物形状、動物を模した形状などの識別パターンをあらかじめ登録しておき、認識した物体の形状が識別パターンに合うかどうかを調べる。
 認識した物体の属性が所定形状である場合(S52のYes)、物体認識部22は、物体の認識範囲を第2照射範囲に設定する(S54)。物体認識部22は、物体の属性に応じて第2照射範囲に照射される第2映像を決定する(S56)。
 図12は、物体の属性と第2映像を対応付けたテーブルを説明する図である。ここでは物体の属性は物体の形状であり、人物形状、動物を模した形状、矩形、円形があり、それぞれに第2映像のファイル02-0001.mov、02-0002.mov、02-0003.mov、02-0004.movが対応づけられている。物体認識部22は、このテーブルを参照して、物体の形状に応じて第2映像を選択する。
 図13(a)は第1照射範囲に投影される第1映像の例を示し、図13(b)は第2照射範囲に投影される第2映像の例を示す図である。
 図14は、プロジェクタ装置により映し出されるスクリーンを示す図である。走査範囲100内に第1照射範囲110が設定され、プロジェクタにより第1照射範囲110に図13(a)の第1映像が描画される。第1照射範囲110はプロジェクタの描画範囲である。
 図14に示される特定形状物体300はここでは矩形の白色のボードである。図14では、特定形状物体300が走査範囲100の外側にあり、赤外レーザ光が照射されないため、物体認識部22は、特定形状物体300を物体として認識しない。ユーザが特定形状物体300を走査範囲100内に移動させると、物体認識部22が特定形状物体300を認識し、特定形状物体300が第2照射範囲に設定され、特定形状物体300にはプロジェクタの可視レーザ光により第2映像が描画される。
 図15(a)~図15(d)は、特定形状物体300が走査範囲100内に入った場合に設定される第2照射範囲120の例を説明する図である。
 図15(a)は、特定形状物体300が走査範囲100の左端から挿入された状態を示す。特定形状物体300の右側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の右側の一部を矩形形状として検出するが、物体の認識範囲が所定のサイズに満たないため、ここでは物体認識部22は特定形状物体300を物体として認識しない。そのため、特定形状物体300には第2映像が描画されず、第1照射範囲110に描画される第1映像の一部が、走査範囲100内にある特定形状物体300上に投影されることになる。
 図15(b)および図15(c)では、特定形状物体300の全体が走査範囲100内にあるため、物体認識部22は所定サイズの矩形形状の物体として特定形状物体300を認識し、特定形状物体300の認識範囲が第2照射範囲120として設定され、第2照射範囲120に図13(b)の第2映像が描画される。その結果、第1照射範囲110の第1映像の中に第2照射範囲120の第2映像がはめ込まれたような画像がスクリーンに描画されることになる。ここで、ユーザが特定形状物体300を手にもってスクリーンの前を移動しても、ユーザの姿は矩形形状ではないため、物体として認識されず、特定形状物体300だけが物体として認識される。
 図15(d)は、特定形状物体300が走査範囲100の右端から外された状態を示す。特定形状物体300の左側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の左側の一部を矩形形状として検出するが、物体の認識範囲が所定のサイズに満たないため、ここでは物体認識部22は特定形状物体300を物体として認識しない。そのため、特定形状物体300には第2映像が描画されず、第1照射範囲110に描画される第1映像の一部が、走査範囲100内にある特定形状物体300上に投影されることになる。
 図16(a)~図16(d)は、特定形状物体300が走査範囲100内に入った場合に設定される第2照射範囲120の別の例を説明する図である。
 図16(a)は、特定形状物体300が走査範囲100の左端から挿入された状態を示す。特定形状物体300の右側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の右側の一部を矩形形状として検出する。この例では、物体認識部22は矩形形状のサイズに関係なく、矩形であれば物体として認識する。そのため、特定形状物体300の右側の一部が第2照射範囲120に設定され、第2映像の一部が描画される。
 図16(b)および図16(c)では、特定形状物体300の全体が走査範囲100内にあり、物体認識部22は特定形状物体300を認識し、特定形状物体300の全体が第2照射範囲120として設定され、第2照射範囲120に図13(b)の第2映像が描画される。これは図15(b)および図15(c)と同じである。
 図16(d)は、特定形状物体300が走査範囲100の右端から外された状態を示す。特定形状物体300の左側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の左側の一部を矩形形状として検出し、矩形形状のサイズに関係なく、検出された矩形形状を物体として認識する。そのため、特定形状物体300の左側の一部が第2照射範囲120に設定され、第2映像の一部が描画される。
 物体認識部22が検知する特定形状として矩形形状の場合を説明したが、特定形状は他の任意の形状でもよく、人物や動物の形状であってもよい。
 図17(a)は第1照射範囲に投影される第1映像の例を示し、図17(b)は第2照射範囲に投影される第2映像の例を示す図である。図17(b)は図17(a)と背景が同一であるが、図13(b)に示すような異なる映像を用いてもよい。
 図18(a)~図18(d)は、特定形状物体300が走査範囲100内に入った場合に設定される第2照射範囲120の例を説明する図である。
 図18(a)は、特定形状物体300が走査範囲100の左端から挿入された状態を示す。特定形状物体300の右側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の右側の一部を矩形形状として検出する。この例では、物体認識部22は矩形形状のサイズに関係なく、矩形であれば物体として認識する。そのため、特定形状物体300の右側の一部が第2照射範囲120に設定され、第1映像と同一のサイズである第2映像における第2照射範囲120に該当する部分が描画される。
 図18(b)および図18(c)では、特定形状物体300の全体が走査範囲100内にあり、物体認識部22は特定形状物体300を認識し、特定形状物体300の全体が第2照射範囲120として設定され、第1映像と同一のサイズである第2映像における第2照射範囲120に該当する部分が描画される。
 図18(d)は、特定形状物体300が走査範囲100の右端から外された状態を示す。特定形状物体300の左側の一部が走査範囲100内にあり、物体認識部22は特定形状物体300の左側の一部を矩形形状として検出し、矩形形状のサイズに関係なく、検出された矩形形状を物体として認識する。そのため、特定形状物体300の左側の一部が第2照射範囲120に設定され、第1映像と同一のサイズである第2映像における第2照射範囲120に該当する部分が描画される。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 以上の説明では光照射装置1を車両やプロジェクタに搭載する適用例を示したが、当該適用例に限定されるものではない。例えば監視カメラにも適用可能である。この適用例では、光照射装置1の照射範囲に人物等の物体が侵入すると、当該物体またはその周辺に可視レーザ光による映像が描画されることになる。
 1 光照射装置、 2 照射範囲、 10 レーザ光源部、 Db 青色レーザダイオード、 Dg 緑色レーザダイオード、 Dr 赤色レーザダイオード、 Dir 赤外レーザダイオード、 11 コリメータレンズ、 12 ダイクロイックミラー、 13 偏向ミラー、 14 集光レンズ、 PD1 参照光検出器、 PD2 反射光検出器、 AP1,AP2 アンプ、 21 距離測定部、 22 物体認識部、 23 パターン保持部、 24 照射制御部、 25 投射データ保持部、 26 投射データ設定部、 31 同期クロック供給部、 32 赤外光源ドライバ、 33 可視光源ドライバ、 34 走査ミラードライバ、 100 走査範囲、 110 第1照射範囲、 120 第2照射範囲、 300 特定形状物体。
 本発明は、レーザ光を2次元的に走査する光照射技術に利用できる。

Claims (9)

  1.  可視レーザ光を出射する第1光源部と、
     赤外レーザ光を出射する第2光源部と、
     前記第1光源部から出射された可視レーザ光および前記第2光源部から出射された赤外レーザ光を2次元走査する走査ミラー部と、
     前記走査ミラー部を介して照射された赤外レーザ光の反射光を検出する反射光検出部と、
     前記反射光検出部により検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する物体を認識する物体認識部と、
     前記走査ミラー部が走査する走査範囲における第1照射範囲に対して前記第1光源部からの可視レーザ光が照射されるように制御し、前記物体認識部が認識した物体に対応する第2照射範囲に前記第1光源部からの可視レーザ光により前記第2照射範囲に描画する映像が描画されるように制御する照射制御部とを備えることを特徴とする光照射装置。
  2.  前記照射制御部は、前記第1照射範囲に対して前記第1光源部からの白色レーザ光が照射されるように制御し、前記第2照射範囲に対して白色レーザ光とは異なる色調の映像が照射されるように制御することを特徴とする請求項1に記載の光照射装置。
  3.  前記照射制御部は、前記物体認識部が認識した前記物体の下方を前記第2照射範囲として設定することを特徴とする請求項1または請求項2に記載の光照射装置。
  4.  前記照射制御部は、前記物体認識部が認識した前記物体の周辺を前記第2照射範囲として設定することを特徴とする請求項1または請求項2に記載の光照射装置。
  5.  前記光照射装置は、車両用のヘッドライトであることを特徴とする請求項1から4のいずれかに記載の光照射装置。
  6.  前記照射制御部は、前記第1照射範囲に対して第1映像データに基づく第1映像が前記第1光源部からの可視レーザ光により描画されるように制御し、前記第2照射範囲に対して前記第1映像データとは異なる第2映像データに基づく第2映像が前記第1光源部からの可視レーザ光により描画されるように制御することを特徴とする請求項1に記載の光照射装置。
  7.  前記照射制御部は、前記物体認識部が認識した物体の形状を前記第2照射範囲として設定することを特徴とする請求項1または請求項6に記載の光照射装置。
  8.  前記物体認識部は、前記赤外レーザ光の照射範囲内における特定形状の物体を認識し、 前記照射制御部は、前記物体認識部が認識した前記特定形状を前記第2照射範囲として設定することを特徴とする請求項1または請求項6に記載の光照射装置。
  9.  可視レーザ光および赤外レーザ光を2次元走査するステップと、
     照射された赤外レーザ光の反射光を検出するステップと、
     検出された反射光に基づき、前記赤外レーザ光の照射範囲内に位置する物体を認識するステップと、
     2次元走査による走査範囲における第1照射範囲に対して前記可視レーザ光が照射されるように制御し、認識された前記物体に対応する第2照射範囲に前記可視レーザ光により前記第2照射範囲に描画する映像が描画されるように制御するステップとを備えることを特徴とする光照射方法。
PCT/JP2016/068514 2015-10-30 2016-06-22 光照射装置および光照射方法 WO2017073111A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015213901A JP2017083371A (ja) 2015-10-30 2015-10-30 光照射装置および光照射方法
JP2015-213901 2015-10-30

Publications (1)

Publication Number Publication Date
WO2017073111A1 true WO2017073111A1 (ja) 2017-05-04

Family

ID=58630039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068514 WO2017073111A1 (ja) 2015-10-30 2016-06-22 光照射装置および光照射方法

Country Status (2)

Country Link
JP (1) JP2017083371A (ja)
WO (1) WO2017073111A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1025827B1 (fr) * 2017-06-28 2019-07-25 B.E.A. Electronics (Beijing) Co.,Ltd. Dispositif de protection de sécurité pour une utilisation dans une porte palière de pleine hauteur
US11500066B2 (en) * 2019-04-23 2022-11-15 Hyundai Motor Company LiDAR-integrated lamp device for vehicle

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10222474B1 (en) * 2017-12-13 2019-03-05 Soraa Laser Diode, Inc. Lidar systems including a gallium and nitrogen containing laser light source
JP6958383B2 (ja) * 2018-01-24 2021-11-02 株式会社デンソー ライダー装置
US11371835B2 (en) 2018-03-16 2022-06-28 Nec Corporation Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program
JP7122604B2 (ja) * 2018-06-26 2022-08-22 パナソニックIpマネジメント株式会社 投光装置
JP2020153840A (ja) * 2019-03-20 2020-09-24 スタンレー電気株式会社 照明装置
JP2020165930A (ja) * 2019-03-29 2020-10-08 Idec株式会社 表示機能付き検出装置および表示・検出システム
JP7335721B2 (ja) * 2019-04-18 2023-08-30 株式会社小糸製作所 車両用灯具
JPWO2021049462A1 (ja) * 2019-09-11 2021-03-18
JP2023135244A (ja) * 2022-03-15 2023-09-28 スタンレー電気株式会社 車両用灯具

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185105A (ja) * 2002-11-29 2004-07-02 Nissan Motor Co Ltd 障害物報知装置
JP2006252264A (ja) * 2005-03-11 2006-09-21 Omron Corp 障害物報知装置
WO2007034875A1 (ja) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. 画像投射装置
JP2009149152A (ja) * 2007-12-19 2009-07-09 Toyota Central R&D Labs Inc 情報表示装置
JP2013501247A (ja) * 2009-07-31 2013-01-10 レモプティックス ソシエテ アノニム 光学マイクロプロジェクションシステムおよび投影方法
WO2014024385A1 (ja) * 2012-08-08 2014-02-13 株式会社小糸製作所 車両用灯具
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置
WO2015145599A1 (ja) * 2014-03-26 2015-10-01 日立マクセル株式会社 映像投影装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185105A (ja) * 2002-11-29 2004-07-02 Nissan Motor Co Ltd 障害物報知装置
JP2006252264A (ja) * 2005-03-11 2006-09-21 Omron Corp 障害物報知装置
WO2007034875A1 (ja) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. 画像投射装置
JP2009149152A (ja) * 2007-12-19 2009-07-09 Toyota Central R&D Labs Inc 情報表示装置
JP2013501247A (ja) * 2009-07-31 2013-01-10 レモプティックス ソシエテ アノニム 光学マイクロプロジェクションシステムおよび投影方法
WO2014024385A1 (ja) * 2012-08-08 2014-02-13 株式会社小糸製作所 車両用灯具
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置
WO2015145599A1 (ja) * 2014-03-26 2015-10-01 日立マクセル株式会社 映像投影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1025827B1 (fr) * 2017-06-28 2019-07-25 B.E.A. Electronics (Beijing) Co.,Ltd. Dispositif de protection de sécurité pour une utilisation dans une porte palière de pleine hauteur
US11500066B2 (en) * 2019-04-23 2022-11-15 Hyundai Motor Company LiDAR-integrated lamp device for vehicle

Also Published As

Publication number Publication date
JP2017083371A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
WO2017073111A1 (ja) 光照射装置および光照射方法
WO2016199442A1 (ja) レーザレーダ装置および検知方法
KR102089036B1 (ko) 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체
JP6538635B2 (ja) 車両用照明装置
US10348975B2 (en) Light system for a motor vehicle
KR20120097727A (ko) 레이저 프로젝터 및 그의 신호 처리방법
US20180361912A1 (en) Scanning headlight, control method and program thereof
US11175501B2 (en) Display device, method for controlling display device, and moving body including display device
US10179535B2 (en) Lighting control device of vehicle headlamp and vehicle headlamp system
US11312301B2 (en) Display apparatus, display method, and program
WO2020049771A1 (ja) 車両用光出力装置、光出力方法、及びプログラム
US10501005B2 (en) Vehicle lighting system
US20120327373A1 (en) Scan-type image display device
JP7422148B2 (ja) 灯具システム
US20210168339A1 (en) Display apparatus, display method, and program
JP2014115488A (ja) 画像表示装置
JP6865552B2 (ja) 映像投射システム
JP2017159853A (ja) 車両用光照射システム及び制御装置
KR20120099845A (ko) 레이저 프로젝터 및 그의 신호 처리방법
JP7035989B2 (ja) ディスプレイ装置、判別方法および照射方法
JP7010200B2 (ja) ディスプレイ装置、判別方法および照射方法
JP7239882B2 (ja) 撮影ボックス
JP6730174B2 (ja) 車両用照明装置
JP2014197057A (ja) プロジェクタおよびヘッドアップディスプレイ装置
JP2020092343A (ja) ディスプレイ装置、判別方法および照射方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16859348

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16859348

Country of ref document: EP

Kind code of ref document: A1