WO2016021961A1 - 차량용 헤드램프 구동장치 및 이를 구비한 차량 - Google Patents

차량용 헤드램프 구동장치 및 이를 구비한 차량 Download PDF

Info

Publication number
WO2016021961A1
WO2016021961A1 PCT/KR2015/008255 KR2015008255W WO2016021961A1 WO 2016021961 A1 WO2016021961 A1 WO 2016021961A1 KR 2015008255 W KR2015008255 W KR 2015008255W WO 2016021961 A1 WO2016021961 A1 WO 2016021961A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
visible light
vehicle
output
structured visible
Prior art date
Application number
PCT/KR2015/008255
Other languages
English (en)
French (fr)
Inventor
김성민
김연선
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/502,272 priority Critical patent/US10029607B2/en
Publication of WO2016021961A1 publication Critical patent/WO2016021961A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/12Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of emitted light
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/16Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights illuminating the way asymmetrically
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/12Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of emitted light
    • F21S41/13Ultraviolet light; Infrared light
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/14Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of light source
    • F21S41/16Laser light sources
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/10Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source
    • F21S41/14Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by the light source characterised by the type of light source
    • F21S41/176Light sources where the light is generated by photoluminescent material spaced from a primary light generating element
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/60Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S41/00Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps
    • F21S41/60Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution
    • F21S41/67Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution by acting on reflectors
    • F21S41/675Illuminating devices specially adapted for vehicle exteriors, e.g. headlamps characterised by a variable light distribution by acting on reflectors by moving reflectors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V9/00Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters
    • F21V9/04Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters for filtering out infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/05Special features for controlling or switching of the light beam
    • B60Q2300/056Special anti-blinding beams, e.g. a standard beam is chopped or moved in order not to blind
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/314Ambient light
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/42Indexing codes relating to other road users or special conditions oncoming vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/22Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2102/00Exterior vehicle lighting devices for illuminating purposes
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2115/00Light-generating elements of semiconductor light sources
    • F21Y2115/10Light-emitting diodes [LED]
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2115/00Light-generating elements of semiconductor light sources
    • F21Y2115/30Semiconductor lasers

Definitions

  • the present invention relates to a vehicle headlamp driving apparatus and a vehicle having the same, and more particularly, to a vehicle headlamp driving apparatus capable of detecting a distance to an object in front of the vehicle based on visible light and a vehicle having the same. .
  • the vehicle is a device for moving in the direction desired by the user on board.
  • An example is a car.
  • An object of the present invention is to provide a vehicle headlamp driving apparatus capable of detecting a distance to an object in front of a vehicle based on visible light and a vehicle having the same.
  • a vehicle headlamp driving apparatus including: a light output unit configured to output structured visible light to a front of a vehicle; a light receiver configured to receive received light corresponding to the structured visible light; And a processor for detecting a distance and a position with respect to an object located in front of the vehicle, based on the structured visible light, wherein the light output unit comprises: a laser diode outputting structured visible light of a first color; And a light converting unit converting at least a portion of the visible light into structured visible light of the second and third colors, and a light diffusing unit diffusing and outputting the structured visible light of the first to third colors in front of the vehicle.
  • a vehicle headlamp driving apparatus for achieving the above object, the first light output unit for outputting the structured visible light in front of the vehicle, the second light output unit for outputting infrared light, An object positioned in front of the vehicle based on a light receiving unit configured to receive a first received light corresponding to the structured visible light or a second received light corresponding to the infrared light, a received first received light, and the structured visible light And a processor configured to detect a distance and a position of the at least one position, or detect a distance and a position of an object located in front of the vehicle based on the received second received light and the infrared light.
  • a vehicle for achieving the above object, the steering drive unit for driving a steering device, the brake drive unit for driving a brake device, the power source drive unit for driving a power source, structured visible light in front of the vehicle Detecting a distance and a position of an object located in front of the vehicle based on the light output unit for outputting the light, the light receiving unit for receiving the received light corresponding to the structured visible light, the received light and the structured visible light.
  • a light output comprising: a laser diode for outputting structured visible light of a first color and a light conversion for converting at least a portion of the structured visible light of a first color into structured visible light of a second and third color; And a light diffusion unit for diffusing and outputting the structured visible light having the first to third colors in front of the vehicle.
  • the headlamp driving apparatus for a vehicle and the vehicle having the same are structured visible light is output through the headlamp, and the structured visible light is reflected or scattered to an external structure or object, The received light corresponding to the visible light is received through the head lamp.
  • the distance between the external structure or the object is calculated based on the difference between the structured visible light output and the received light received, phase difference, level difference, and the like. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • At least one of an output direction, an output distance, and an output intensity of the structured visible light may be varied. Accordingly, glare and the like of the oncoming vehicle driver can be prevented, or the driver can visually check the object located at a far distance.
  • At least one of the output direction, the output distance, and the output intensity of the structured visible light may be varied, and thus, the driver's ease of use may be increased.
  • the intensity of the structured visible light or to set at least one of the output direction, the output distance, and the output intensity of the structured visible light based on the data received through the communication unit according to the illuminance around the vehicle. . Accordingly, the driver's ease of use can be increased.
  • a vehicle headlamp driving apparatus and a vehicle having the same having the same according to another embodiment of the present invention
  • the first light output unit for outputting the structured visible light in front of the vehicle
  • the second light output unit for outputting infrared light
  • a light receiving unit that receives the first received light corresponding to the structured visible light or the second received light corresponding to the infrared light calculates the distance of the external structure or object at night as well as during the day. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • FIG. 1 is a view showing the appearance of a vehicle having a headlamp for a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating that visible light is output from a head lamp when driving a vehicle at night.
  • 3 is a diagram illustrating that the infrared light is output from the headlamp when driving the vehicle during the day.
  • Figure 4 illustrates an internal block diagram of a headlamp drive device for a vehicle according to an embodiment of the present invention.
  • FIG. 5A illustrates an example of an internal block diagram of the first light output unit of FIG. 4, and FIG. 5B illustrates an example of an internal block diagram of the light receiver of FIG. 4.
  • FIG. 6 is a diagram illustrating light output of the first and second light output units and light reception of the light receiver.
  • FIG. 7A is a diagram illustrating a scanning method during light projection of the first light output unit of FIG. 6.
  • FIG. 7B is a view referred to for describing a distance detection method of the vehicle headlamp driving device of FIG. 6.
  • FIG. 8A illustrates one example of an internal block diagram of the processor of FIG. 4.
  • FIG. 8B is a diagram illustrating object detection in the processor of FIG. 8A.
  • FIG. 9 is an example of a block diagram of a vehicle interior according to an embodiment of the present invention.
  • 10 to 12 are views referred to for explaining the operation method of the headlamp driving device for a vehicle.
  • module and “unit” for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the “module” and “unit” may be used interchangeably.
  • the vehicle described herein may be a concept including an automobile and a motorcycle.
  • a vehicle is mainly described for a vehicle.
  • the vehicle described herein may be a concept including both a vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as the power source, and an electric vehicle having an electric motor as the power source.
  • FIG. 1 is a view showing the appearance of a vehicle having a headlamp for a vehicle according to an embodiment of the present invention.
  • the vehicle 200 includes wheels 103FR, 103FL, 103RL,... Rotated by a power source, a steering wheel 150 for adjusting the traveling direction of the vehicle 200, and a vehicle 200.
  • a plurality of head lamps 10L and 10R to be mounted may be provided.
  • the plurality of headlamps 10L and 10R respectively include a light output unit (50 in FIG. 4) that outputs structured visible light to the front of the vehicle, and a light receiving unit that receives received light corresponding to the structured visible light (FIG. 4, 70) can be provided.
  • a light output unit 50 in FIG. 4
  • a light receiving unit that receives received light corresponding to the structured visible light
  • the structured visible light is output through the head lamps 10L and 10R, and the structured visible light is reflected or scattered to an external structure or object, so that the received light corresponding to the structured visible light is , Through the head lamps 10L and 10R.
  • the distance between the external structure or the object is calculated based on the difference between the structured visible light output and the received light received, phase difference, level difference, and the like. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • At least one of the output direction, the output distance, and the output intensity of the structured visible light may be varied.
  • the output direction of visible light, the output distance, or the output intensity may be reduced based on the calculated distance.
  • the output distance of visible light may be increased or the output intensity may be increased based on the calculated distance so that the driver may visually check an object located at a far distance.
  • At least one of the output direction, the output distance, and the output intensity of the structured visible light may be varied.
  • the intensity of the structured visible light can be varied according to the illuminance around the vehicle. For example, it is also possible to increase the intensity of the structured visible light as the illuminance decreases, i.e., the darker the surroundings of the vehicle.
  • At least one of the output direction, the output distance, and the output intensity of the structured visible light may be set based on the data received through the communication unit.
  • the plurality of head lamps 10L and 10R may further include a second light output unit 60 for outputting infrared light.
  • the distance of the external structure or object is calculated at night as well as daytime. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • FIG. 2 is a diagram illustrating that visible light is output from a head lamp when driving a vehicle at night.
  • the plurality of headlamps 10L and 10R in the vehicle 200 may output the structured visible light VL with respect to the front 521.
  • the structured visible light is a modulated signal added to the visible light, and can be output through the light output unit 50 of FIG. 4.
  • the added signal may correspond to the drive signal.
  • the light receiving unit 50 of FIG. 4 can distinguish external natural light from received light corresponding to structured visible light.
  • the vehicle headlamp driving apparatus 100 of FIG. 4 calculates the distance of the external structure or the object based on the difference between the structured visible light output and the received light received, a phase difference, a level difference, and the like. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • 3 is a diagram illustrating that the infrared light is output from the headlamp when driving the vehicle during the day.
  • the head lamps 10L and 10R in the vehicle 200 may output infrared light IR with respect to the front 522.
  • the infrared light IR may be output through the second light output unit 60 and may be an infrared light structured as visible light, or may not be the case.
  • the light receiving unit 50 of FIG. 4 may receive the second received light corresponding to the infrared light.
  • the light receiver 50 in FIG. 4 can distinguish the external infrared light from the second received light.
  • the vehicle headlamp driving apparatus 100 calculates a distance of an external structure or an object based on a difference, a phase difference, a level difference, or the like between the output infrared light and the second received light. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • the infrared light is output through the headlamps 10L and 10R without output of visible light, so that it is possible to simply and without glare to other vehicle drivers or pedestrians located in front of the vehicle.
  • the distance to the object can be detected.
  • Figure 4 illustrates an internal block diagram of a headlamp drive device for a vehicle according to an embodiment of the present invention.
  • the vehicle headlamp driving apparatus 100 of FIG. 4 includes a light output unit 50 for outputting structured visible light to the front of the vehicle, and a light receiving unit 70 for receiving received light corresponding to the structured visible light. And a processor 170 that detects a distance and a position with respect to an object located in front of the vehicle, based on the received light received and the structured visible light. In addition, it may further include a second light output unit 60 for outputting infrared light.
  • the vehicle headlamp driving apparatus 100 includes a communication unit 120, an interface unit 130, a memory 140, an illuminance sensor 160, a processor 170, a display 180, and an audio output unit 185.
  • the power supply unit 190 may be provided.
  • an audio input unit (not shown) may be provided.
  • the first light output unit 50 outputs the structured visible light in front of the vehicle.
  • the first light output unit 50 comprises a laser diode 52 that outputs structured visible light of a first color, and at least a portion of the structured visible light of a first color, to structure the second and third colors.
  • a light diffuser 54 for converting the visible light into the visible light
  • a light diffuser 56 for diffusing and outputting the structured visible light of the first to third colors in front of the vehicle.
  • the light diffuser 56 may include a scanner (57 of FIG. 6) that performs first direction scanning and second direction scanning in the outward direction.
  • the first light output unit 50 may further include a laser driver (51 of FIG. 6) for driving the laser diode 52.
  • the second light output unit 60 may output infrared light.
  • the second light output unit 60 may include a laser diode 62 that outputs infrared light.
  • the infrared light may be output to the outside through the first direction scanning and the second direction scanning through the scanner (57 of FIG. 6) provided in the first light output unit 50.
  • the light receiver 70 may receive the first received light corresponding to the structured visible light or the second received light corresponding to the infrared light.
  • the first reception light corresponding to the structured visible light may be received at night, or the second reception light corresponding to the infrared light during the day may be received.
  • the light receiver 70 may include an infrared cut filter (72 of FIG. 5B) and a light detector (74 of FIG. 5B) that converts the received light passing through the infrared cut filter into an electrical signal.
  • the electrical signal converted by the light detector 74 of FIG. 5B may be input to the processor 170.
  • the communication unit 120 may exchange data with the mobile terminal 600 or the server 500 in a wireless manner.
  • the communication unit 120 may exchange data wirelessly with a mobile terminal of a vehicle driver.
  • a wireless data communication method various data communication methods such as Bluetooth, WiFi Direct, WiFi, and APiX are possible.
  • the communication unit 120 may receive weather information, road traffic information, for example, TPEG (Transport Protocol Expert Group) information from the mobile terminal 600 or the server 500. In the meantime, the vehicle headlamp driving apparatus 100 may transmit the real-time traffic information grasped based on the image to the mobile terminal 600 or the server 500.
  • TPEG Transport Protocol Expert Group
  • the user's mobile terminal 600 and the vehicle headlamp driving device 100 may be paired with each other automatically or by executing the user's application.
  • the communication unit 120 receives a light output unit operation signal for outputting the structured visible light from the user's mobile terminal 600 or the like, or at least among the output direction, output distance, and output intensity of the structured visible light.
  • a signal for setting one can be received.
  • Various signals received may be transmitted to the processor 170.
  • the interface unit 130 may receive vehicle-related data or transmit a signal processed or generated by the processor 170 to the outside. To this end, the interface unit 130 may perform data communication with the ECU 770, the AVN (Audio Video Navigation) device 400, the sensor unit 760, etc. in the vehicle by wired communication or wireless communication. have.
  • ECU 770 the ECU 770
  • AVN Audio Video Navigation
  • the interface unit 130 may receive map information related to vehicle driving through data communication with the AVN device 400.
  • the interface unit 130 may receive sensor information from the ECU 770 or the sensor unit 760.
  • the sensor information includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, battery information, fuel information, tire information, vehicle It may include at least one of lamp information, vehicle interior temperature information, vehicle interior humidity information.
  • vehicle driving information the vehicle driving information related to the vehicle driving.
  • the memory 140 may store various data for operations of the overall headlamp driving apparatus 100 for a vehicle, such as a program for processing or controlling the processor 170.
  • the illuminance sensor 160 may sense illuminance outside the vehicle. In particular, the illuminance of the outside of the front of the vehicle can be sensed. The sensed external illuminance is transmitted to the processor 170.
  • the audio input unit may receive a user voice.
  • a microphone may be provided.
  • the received voice may be converted into an electrical signal and transmitted to the processor 170.
  • the processor 170 controls the overall operation of each unit in the vehicle headlamp driving apparatus 100.
  • the processor 170 may detect a distance and a position of an object located in front of the vehicle, based on the structured visible light output from the light output unit 50 and the structured visible light received from the light receiver 70. Can be.
  • the processor 170 may calculate the distance of the external structure or the object based on the difference between the structured visible light output and the received light received, a phase difference, a level difference, and the like. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • the processor 170 generates a disparity map for the front of the vehicle based on the phase difference between the received light received and the structured visible light, and based on the disparity map, the processor 170 generates an object map in front of the object. Distance and position relative to each other can be detected.
  • the processor 170 may vary at least one of an output direction, an output distance, and an output intensity of the structured visible light.
  • the processor 170 may change the output direction of the visible light, change the output distance, or reduce the output intensity based on the calculated distance to prevent glare of an oncoming vehicle driver. have.
  • the processor 170 may increase the output distance of the visible light or increase the output intensity based on the calculated distance so that the driver can visually check the object located at a far distance.
  • the processor 170 is based on a distance and a position of an object located in front of the vehicle.
  • the scanning direction of the scanner 57 may be adjusted to change the output direction of the structured visible light or to change the intensity of the structured visible light output from the light output unit 50.
  • the processor 170 may vary the intensity of the structured visible light output from the output unit 50 according to the sensed illuminance from the illuminance sensor 160 detecting the illuminance around the vehicle. For example, as the sensed illuminance is lowered, the light output unit 50 may be controlled to increase the intensity of visible light.
  • the processor 170 may vary at least one of an output direction, an output distance, and an output intensity of the structured visible light based on the steering direction variable signal of the vehicle.
  • the processor 170 may vary the intensity of the structured visible light according to the illuminance around the vehicle. For example, it is also possible to increase the intensity of the structured visible light as the illuminance decreases, i.e., the darker the surroundings of the vehicle.
  • the processor 170 may set at least one of an output direction, an output distance, and an output intensity of the structured visible light based on the data received through the communication unit 120.
  • the plurality of head lamps 10L and 10R may further include a second light output unit 60 for outputting infrared light.
  • the distance of the external structure or object is calculated at night as well as daytime. Accordingly, the distance to the object in front of the vehicle can be detected simply.
  • the processor 170 detects a distance and a position with respect to an object located in front of the vehicle based on the received first received light and the structured visible light, or based on the received second received light and the infrared light. The distance and the position of the object located in front of the vehicle can be detected.
  • the processor 170 may include a distance to an object located in front of the vehicle and Based on the position, the scanning direction of the scanner 57 may be adjusted to change the output direction of at least one of the structured visible light and the infrared light, or the intensity of the structured visible light output from the light output unit 50. have.
  • the processor 170 may generate a disparity map for the front of the vehicle based on a phase difference between the received light received and the structured visible light or based on a phase difference between the second received light and the infrared light output. Generate and detect a distance and a position of an object located in front of the vehicle based on the disparity map, and continuously track the movement of the object after object detection.
  • the processor 170 may perform lane detection, vehicle detection, pedestrian detection, road surface detection, and the like.
  • the processor 170 may receive sensor information from the ECU 770 or the sensor unit 760 through the interface unit 130.
  • the sensor information includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, battery information, fuel information, tire information, vehicle It may include at least one of lamp information, vehicle interior temperature information, vehicle interior humidity information.
  • the display 180 may display distance information calculated by the processor 170.
  • the display 180 may include a cluster or a head up display (HUD) on the front surface of the vehicle.
  • the display 180 when it is a HUD, it may include a projection module for projecting an image on the windshield of the vehicle 200.
  • the audio output unit 185 outputs sound to the outside based on the audio signal processed by the processor 170.
  • the audio output unit 185 may include at least one speaker.
  • the power supply unit 190 may supply power required for the operation of each component under the control of the processor 170.
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • FIG. 5A illustrates an example of an internal block diagram of the first light output unit of FIG. 4, and FIG. 5B illustrates an example of an internal block diagram of the light receiver of FIG. 4.
  • the first light output unit 50 may include a laser diode 52 that outputs structured visible light having a first color, and at least a portion of the structured visible light VL1 having a first color.
  • the light converting unit 54 converts the second and third colors of the structured visible light VL2 and VL3 and the first and third colors of the structured visible light VL1, VL2, VL3; VL to the front of the vehicle. It may include a light diffuser 56 for outputting.
  • the light converting unit 54 includes a first phosphor that converts structured visible light of a first color into structured visible light of a second color, and an agent that converts structured visible light of a first color into structured visible light of a third color. 2 phosphor may be provided.
  • the light conversion unit 54 may include a red phosphor and a green phosphor for changing blue light into red light and green light. have.
  • the light conversion unit 54 further includes a mirror (55 in FIG. 6) for changing the optical path of the structured visible light of the first color, and the first phosphor and the second phosphor are mirrors (55 in FIG. 6). It can be applied on).
  • the light conversion unit 54 may further include a mirror (55 in FIG. 6) for changing a light path of the structured visible light of blue light, and on the mirror (55 in FIG. 6), a red phosphor and Green phosphor may be further applied.
  • a mirror 55 in FIG. 6 for changing a light path of the structured visible light of blue light
  • a red phosphor and Green phosphor may be further applied.
  • the light receiver 70 may include an infrared cut filter 72 and a light detector 74 that converts the received light passing through the infrared cut filter into an electrical signal.
  • the electrical signal converted by the light detector 74 may be input to the processor 170.
  • the infrared cut filter 72 is for blocking the infrared light, it may be provided selectively. For example, it is also possible that the infrared cut filter 72 does not operate during the day, operates only at night, blocks the infrared light at night, and does not block the day.
  • the reception light corresponding to the infrared light may be directly received by the light detection unit 74 without passing through the infrared cut filter 72.
  • FIG. 6 is a diagram illustrating light output of the first and second light output units and light reception of the light receiver.
  • the first light output unit 50 includes a radar diode driver 51, a laser diode 52, a collimator lens CL 53, a mirror 55, and a scanner 57. It may include.
  • the radar diode driver 51 may control to drive the laser diode 52 that outputs the structured blue light based on the first driving signal from the processor 170.
  • the intensity of the structured blue light or the like can be adjusted by the level, pulse width, or the like of the first drive signal.
  • the blue light output from the laser diode 52 enters the mirror 55 via the condenser lens 53, and green light and red light are output by the green phosphor and the red phosphor coated on the mirror 55.
  • the mirror 55 eventually changes the optical path of the structured blue light to deliver structured visible light VL comprising blue light, green light, and red light in the direction of the scanner 57.
  • the scanner 57 is an example of the light diffusing portion 56 described above.
  • the scanner 57 receives structured visible light from the mirror 55 and scans the first and second directions of the structure to display the structured visible light in an external region. Will print
  • the scanner 57 may output the structured visible light VL to the front 521 when the vehicle is driven at night.
  • the processor 170 may control the scanner 57.
  • the angle of the first direction scanning of the scanner or the angle of the second direction scanning may be adjusted.
  • the output direction of the structured visible light output can be varied.
  • the processor 170 may vary the scanning frequency of the scanner 57.
  • the scanning frequency is reduced from 60 Hz to 30 Hz, scanning with increased resolution can be performed for the same external region. Therefore, more detailed distance information can be obtained.
  • the second light output unit 60 may include a radar diode driver 61, a laser diode 62, a collimator lens CL 63, and a mirror 65.
  • the radar diode driver 61 may control the laser diode 62 to output infrared light or structured infrared light based on the second driving signal from the processor 170.
  • the intensity of the infrared light or the structured infrared light can be adjusted by the level of the second drive signal, the pulse width, and the like.
  • the infrared light output from the laser diode 62 is incident on the mirror 65 via the condenser lens 63, and the mirror 65 changes the optical path of the infrared light or the structured infrared light, thereby scanning the scanner 57. ) In the direction of
  • the scanner 57 receives infrared light or structured infrared light, performs first direction scanning and second direction scanning, and outputs infrared light or structured infrared light to an external region.
  • the scanner 57 may output infrared light or structured infrared light IR to the front 522 when the vehicle runs during the day.
  • the light receiver 70 may receive the first received light VL corresponding to the structured visible light or the second received light IR corresponding to the infrared light.
  • the light receiving unit 70 includes a collimator lens (CL) 71 for receiving and condensing received light, an infrared cut filter 72, and a light detector for converting received light passing through the infrared cut filter into an electrical signal.
  • CL collimator lens
  • TOF time of flight sensor
  • the electrical signal converted by the TOF sensor 75 may be input to the processor 170.
  • the infrared cut filter 72 is for blocking the infrared light, it may be provided selectively. For example, it is also possible that the infrared cut filter 72 does not operate during the day, operates only at night, blocks the infrared light at night, and does not block the day.
  • the reception light corresponding to the infrared light can be directly received by the TOF sensor 75 without passing through the infrared cut filter 72.
  • FIG. 7A is a diagram illustrating a scanning method during light projection of the first light output unit of FIG. 6.
  • the first light output unit 50 may include a laser diode 52, a mirror 55, and a scanner 57.
  • the light wavelength output from the first light output unit 50 may be one wavelength as a single light source.
  • blue light can be output.
  • the blue light output from the laser diode 52 may be reflected and scattered by the mirror 55 to be output as visible light including blue light, red light, and green light.
  • the visible light VL may be incident to the scanner 57.
  • the scanner 57 may receive the structured visible light VL from the mirror 55 and sequentially and repeatedly perform the first direction scanning and the second direction scanning to the outside.
  • the scanner 57 performs horizontal scanning from the left to the right, performs vertical scanning from the top to the bottom, and performs horizontal scanning from the right to the left again, with respect to the scannable area, with respect to the scanable area. And vertical scanning from top to bottom again.
  • Such a scanning operation may be repeatedly performed on the entire external area 40.
  • the scanner 57 may scan the outer area 40 from the left to the right in a diagonal direction, and scan the right to left around the scanable area. Such a scanning operation may be repeatedly performed on the entire external area 40.
  • the visible light VL output to the external region 40 may be scattered or reflected in the external region 40 and may be incident on the light receiving unit 70.
  • the scanner 57 may receive a reception light corresponding to the visible light VL output to the outside.
  • the processor 170 may compare the structured visible light VL and the received light corresponding to the structured visible light VL and detect a distance by using the difference.
  • the distance detection technique there are various methods, but in the embodiment of the present invention, a method using a phase difference is illustrated. This will be described later with reference to FIG. 7B.
  • the calculated distance information in the first light output unit 50 may be represented as the luminance image 520, as illustrated in FIG. 8B.
  • Various distance values of the external object can be displayed as corresponding luminance levels. If the distance is close, the luminance level may be large (brightness may be bright), and if the depth is far, the luminance level may be small (brightness may be dark).
  • the outer region 40 may be divided into a first region 42 and a second region 44.
  • the first area 42 may be an area including the external object 43, that is, an active area 42, and the second area 44 does not include the external object 43. Area, that is, blank area 44.
  • the entire scanning section also includes a first scanning section corresponding to an active area 42 which is an area in which an external object exists, and a blank area 44 that is an area in which no external object exists. It may be divided into a second scanning interval corresponding to.
  • FIG. 7B is a view referred to for describing a distance detection method of the vehicle headlamp driving device of FIG. 6.
  • Tx represents the phase signal of the visible light output and Rx represents the phase signal of the received light.
  • the processor 170 of the vehicle headlamp driving apparatus 100 may calculate the distance information level according to the phase difference ⁇ between the phase signal of visible light and the phase signal of the received light.
  • Such distance level setting may be performed for each region in the outer region 40 while horizontally and vertically scanning the outer region 40 as described above.
  • the distance information level can be detected for each region of the outer region 40.
  • FIG. 8A illustrates an example of an internal block diagram of the processor of FIG. 4, and FIG. 8B is a diagram illustrating object detection in the processor of FIG. 8A.
  • FIG. 8A is an example of an internal block diagram of the processor 170.
  • the processor 170 in the vehicle headlamp driving apparatus 100 may include an image preprocessor 410 and a disparity calculator (FIG. 420, an object detector 434, an object tracking unit 440, and an application unit 450 may be provided.
  • a disparity calculator FIG. 420, an object detector 434, an object tracking unit 440, and an application unit 450 may be provided.
  • the image preprocessor 410 may receive a driving signal corresponding to the output visible light and a driving signal corresponding to the received light to perform preprocessing.
  • the image preprocessor 410 may include noise reduction, rectification, calibration, and the like, for driving signals corresponding to the visible light output and driving signals corresponding to the received light. Interpolation, or the like.
  • the disparity calculator 420 receives a driving signal corresponding to the output visible light and a driving signal corresponding to the received light, which are processed by the image preprocessor 410, and receives a phase difference between the driving signals. Based on the distance information, and obtains a disparity map for the external area 40 based on the distance information. That is, disparity information about the surroundings of the vehicle can be obtained.
  • the segmentation unit 432 may perform segmentation and clustering in the disparity map based on the disparity information from the disparity calculator 420.
  • the segmentation unit 432 may separate the background and the foreground from the disparity map based on the disparity information.
  • an area in which the disparity information is less than or equal to a predetermined value in the disparity map may be calculated in the background, and the portion may be excluded. Thereby, the foreground can be relatively separated.
  • an area in which the disparity information is greater than or equal to a predetermined value in the disparity map may be calculated in the foreground and a corresponding portion may be extracted. Thereby, the foreground can be separated.
  • the object detector 434 may detect the object based on the segment from the segmentation unit 432.
  • the object detector 434 may detect the object with respect to the disparity map based on the disparity information.
  • the object detector 434 may detect an object from the foreground separated by the segment.
  • an object verification unit 436 classifies and verifies the separated object.
  • the object verification unit 436 may include an identification method using a neural network, a support vector machine (SVM) method, a method of identifying by AdaBoost using a haar-like feature, or a histograms of oriented gradients (HOG). Techniques can be used.
  • SVM support vector machine
  • AdaBoost a method of identifying by AdaBoost using a haar-like feature
  • HOG histograms of oriented gradients
  • the object checking unit 436 may check the objects by comparing the objects stored in the memory 140 with the detected objects.
  • the object checking unit 436 may check surrounding vehicles, lanes, road surfaces, signs, dangerous areas, tunnels, and the like, which are positioned around the vehicle.
  • the object tracking unit 440 performs tracking on the identified object. For example, in order to sequentially identify the object in the obtained disparity maps, calculate the motion or motion vector of the identified object, and track the movement of the object, etc. based on the calculated motion or motion vector. Can be. Accordingly, it is possible to track surrounding vehicles, lanes, road surfaces, signs, dangerous areas, and the like, which are located around the vehicle.
  • FIG. 8B is a diagram referred to for describing a method of operating the processor 170 of FIG. 8B, based on a disparity map.
  • the disparity calculating unit 420 in the processor 170 receives a driving signal corresponding to the output visible light and a driving signal corresponding to the received light, which are processed by the image preprocessor 410.
  • the distance information may be calculated based on the phase difference of each driving signal, and based on the distance information, a disparity map 520 of the external region 40 is obtained. That is, disparity information about the surroundings of the vehicle can be obtained.
  • the disparity map 520 is a level information of distance.
  • the disparity map 520 can be calculated as the distance between the vehicle is larger as the disparity level is larger and the distance to the vehicle is smaller as the disparity level is smaller. have.
  • the disparity map when displaying such a disparity map, the disparity map may be displayed such that the larger the disparity level, the higher the luminance, and the smaller the disparity level, the lower the luminance.
  • the first to fourth lanes 528a, 528b, 528c, 528d and the like have corresponding disparity levels, respectively, the construction area 522, the first front vehicle 524.
  • each of the second front vehicles 526 has a corresponding disparity level.
  • the segmentation unit 432, the object detection unit 434, and the object confirmation unit 436 perform segment, object detection, and object confirmation on the disparity map 520.
  • the object tracking unit 440 may perform tracking on the identified object.
  • FIG. 9 is an example of a block diagram of a vehicle interior according to an embodiment of the present invention.
  • the vehicle 200 may include an electronic control apparatus 700 for controlling the vehicle.
  • the electronic control apparatus 700 can exchange data with the AVN apparatus 400.
  • the electronic control apparatus 700 includes a first light output unit 50, a second light output unit 60, a light receiver 70, an illuminance sensor 160, an input unit 710, a communication unit 720, and a memory ( 740, lamp driver 751, steering driver 752, brake driver 753, power source driver 754, sunroof driver 755, suspension driver 756, air conditioning driver 757, window driver 758 ), An airbag driver 759, a sensor unit 760, an ECU 770, a display 780, an audio output unit 785, and a power supply unit 790.
  • the ECU 770 may be a concept including a processor.
  • the input unit 710 may include a plurality of buttons or a touch screen disposed in the vehicle 200. Through a plurality of buttons or touch screens, it is possible to perform various input operations.
  • the communication unit 720 may exchange data with the mobile terminal 600 or the server 500 in a wireless manner.
  • the communication unit 720 may exchange data wirelessly with the mobile terminal of the vehicle driver.
  • various data communication methods such as Bluetooth, WiFi Direct, WiFi, and APiX are possible.
  • the communication unit 720 may receive weather information, road traffic information, for example, TPEG (Transport Protocol Expert Group) information from the mobile terminal 600 or the server 500.
  • TPEG Transport Protocol Expert Group
  • the mobile terminal 600 and the electronic control apparatus 700 of the user can perform pairing with each other automatically or by executing the user's application.
  • the communication unit 720 receives a light output unit operation signal for outputting the structured visible light from the user's mobile terminal 600 or the like, or at least one of the output direction, output distance, and output intensity of the structured visible light.
  • a signal for setting one can be received.
  • Various signals received may be transmitted to the ECU 770.
  • the memory 740 may store various data for operating the entire electronic control apparatus 700, such as a program for processing or controlling the ECU 770.
  • the lamp driver 751 may control turn on / off of lamps disposed inside and outside the vehicle. In addition, it is possible to control the intensity, direction, etc. of the light of the lamp. For example, control of a direction indicator lamp, a brake lamp, and the like can be performed.
  • the steering driver 752 may perform electronic control of a steering apparatus (not shown) in the vehicle 200. As a result, the traveling direction of the vehicle can be changed.
  • the brake driver 753 may perform electronic control of a brake apparatus (not shown) in the vehicle 200.
  • the speed of the vehicle 200 may be reduced by controlling the operation of the brake disposed on the wheel.
  • the traveling direction of the vehicle 200 may be adjusted to the left or the right.
  • the power source driver 754 may perform electronic control of the power source in the vehicle 200.
  • the power source driver 754 may perform electronic control of the engine. Thereby, the output torque of an engine, etc. can be controlled.
  • the power source driver 754 may perform control on the motor. Thereby, the rotation speed, torque, etc. of a motor can be controlled.
  • the sunroof driver 755 may perform electronic control of a sunroof apparatus (not shown) in the vehicle 200. For example, the opening or closing of the sunroof can be controlled.
  • the suspension driver 756 may perform electronic control of a suspension apparatus (not shown) in the vehicle 200.
  • the suspension device may be controlled to control the vibration of the vehicle 200 to be reduced.
  • the air conditioning driver 757 may perform electronic control of an air conditioner (not shown) in the vehicle 200.
  • the air conditioner may operate to control the cool air to be supplied into the vehicle.
  • the window driver 758 may perform electronic control of a suspension apparatus (not shown) in the vehicle 200. For example, the opening or closing of the left and right windows of the side of the vehicle can be controlled.
  • the airbag driver 759 may perform electronic control of an airbag apparatus in the vehicle 200.
  • the airbag can be controlled to burst.
  • the sensor unit 760 senses a signal related to traveling of the vehicle 100.
  • the sensor unit 760 may include a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward / reverse sensor, and a wheel sensor.
  • the sensor unit 760 includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, battery information, fuel information,
  • a sensing signal may be acquired for tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, and the like.
  • the sensor unit 760 may include an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake temperature sensor (ATS), a water temperature sensor (WTS), and a throttle. Position sensor (TPS), TDC sensor, crank angle sensor (CAS), etc. may be further provided.
  • the ECU 770 may control the overall operation of each unit in the electronic control apparatus 700.
  • a specific operation may be performed or a signal sensed by the sensor unit 760 may be received and transmitted to the vehicle headlamp driving device 100, and map information may be received from the AVN device 400. It can receive and can control the operation of the various driving units (751,752, 753,754,756).
  • the ECU 770 may receive weather information, road traffic condition information, for example, TPEG (Transport Protocol Expert Group) information from the communication unit 720.
  • TPEG Transport Protocol Expert Group
  • the ECU 770 may perform all of the functions performed by the processor 170 in the vehicle headlamp driving apparatus 100 described with reference to FIGS. 1 to 8B. The description thereof will be omitted with reference to the above contents.
  • the display 780 may display distance information of the object with respect to the front of the vehicle to be calculated. In particular, it is also possible to provide various other user interfaces.
  • the display 780 may include a cluster or a head up display (HUD) on the front surface of the vehicle.
  • HUD head up display
  • the display 780 when it is a HUD, it may include a projection module for projecting an image on the windshield of the vehicle 200.
  • the display 780 may include a touch screen that can be input.
  • the audio output unit 785 converts the electrical signal from the ECU 770 into an audio signal and outputs the audio signal. To this end, a speaker or the like may be provided. The audio output unit 785 may output a sound corresponding to the operation of the input unit 710, that is, the button.
  • the power supply unit 790 may supply power required for the operation of each component under the control of the ECU 770.
  • the power supply unit 790 may receive power from a battery (not shown) in the vehicle.
  • 10 to 12 are views referred to for explaining the operation method of the headlamp driving device for a vehicle.
  • FIG. 10 illustrates that the first and second visible lights 1210 and 1214 are output from the headlamps 10L and 10R while driving the vehicle 200 at night, and the direction of the first visible light is changed.
  • the first light output unit 50 in the vehicle headlamp driving device 100 outputs visible light structured at night, and the light receiving unit 70 receives the received light corresponding to the visible light.
  • the processor 170 in the vehicle headlamp driving apparatus 100 outputs the output. It can be seen that there is an external structure in the direction of the opposite lane La1 based on the phase difference between the visible light to be received and the received light to be received. That is, the distance to the counterpart vehicle 1800 may be detected. As described above, since the counterpart vehicle 1800 sequentially approaches, tracking of the counterpart vehicle 1800 may be performed.
  • the processor 170 may control the output direction of the visible light to be changed so that the driver of the other vehicle 1800 in the opposite lane La1 does not feel glare from the visible light output from the vehicle 200.
  • the processor 170 adjusts at least one of the first direction scanning angle and the second direction scanning angle of the scanner 57 provided in the left head lamp 10L, so that the direction of the visible light output is the other vehicle. It can be controlled so as not to overlap with, i.e., in a right direction. Accordingly, it is possible to protect the driver of the counterpart vehicle 1800.
  • FIG. 11 shows that the first and second visible lights 1210 and 1214 are output from the headlamps 10L and 10R while the vehicle 200 is driving at night, and the intensity of the first visible light is changed. To illustrate.
  • the difference is in varying the intensity of visible light or the reach of visible light.
  • the processor 170 may control the driver of the other vehicle 1800 in the opposite lane La1 so that the output intensity or the output distance of the visible light is varied so that the driver does not feel glare from the visible light output from the vehicle 200. have.
  • the processor 170 adjusts at least one of a level and a pulse width of the driving signal applied to the laser diode driver 51 provided in the left head lamp 10L, so that the intensity of visible light or the reach of visible light is adjusted.
  • the direction of the visible light outputted can be controlled so that it does not overlap with the other vehicle. Accordingly, it is possible to protect the driver of the counterpart vehicle 1800.
  • the processor 170 may vary at least one of an output direction, an output distance, and an output intensity of the structured visible light output from the light output unit 50 based on the steering direction variable signal of the vehicle. It may be.
  • the processor 170 may output an output direction, an output distance, and an output intensity of the structured visible light output from the light output unit 50 according to the illuminance detected by the illuminance sensor 160 detecting the illuminance around the vehicle. At least one may be variable.
  • FIG. 12 illustrates outputting distance information calculated by the processor 170 in the vehicle headlamp driving apparatus 100 through the display 180.
  • FIG. 12A illustrates that distance information 1110 with a front vehicle is displayed on the display 180
  • FIG. 12B illustrates that distance information 1120 with a front pedestrian is displayed on the display 180. do.
  • the user can immediately grasp the distance information on the front object.
  • the headlamp driving apparatus for a vehicle and the method of operating the vehicle of the present invention can be implemented as code that can be read by the processor on a recording medium that can be read by the processor or the headlamp driving apparatus for a vehicle.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. .
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention is applicable to a vehicle headlamp driving apparatus and a vehicle having the same, and in particular, to a vehicle headlamp driving apparatus capable of detecting a distance to an object in front of the vehicle based on visible light and to a vehicle having the same. .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

본 발명은 차량용 헤드램프 구동장치 및 이를 구비한 차량에 관한 것이다. 본 발명의 차량용 헤드램프 구동장치는, 구조화된 가시광을 차량 전방에 출력하는 광 출력부와, 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부와, 수신되는 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서를 포함하며, 광 출력부는, 제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드와, 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부와, 제1 내지 제3 색상의 구조화된 가시광을 차량 전방에 확산시켜 출력하는 광 확산부를 포함한다. 이에 의해, 가시광에 기초하여 차량 전방의 오브젝트에 대한 거리를 검출할 수 있게 된다.

Description

차량용 헤드램프 구동장치 및 이를 구비한 차량
본 발명은 차량용 헤드램프 구동장치 및 이를 구비한 차량에 관한 것이며, 더욱 상세하게는 가시광에 기초하여 차량 전방의 오브젝트에 대한 거리를 검출할 수 있는 차량용 헤드램프 구동장치 및 이를 구비한 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있는데, 차량용 헤드 램프에 대해 다양한 기능이 제공되고 있다.
본 발명의 목적은, 가시광에 기초하여 차량 전방의 오브젝트에 대한 거리를 검출할 수 있는 차량용 헤드램프 구동장치 및 이를 구비한 차량을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 차량용 헤드램프 구동장치는, 구조화된 가시광을 차량 전방에 출력하는 광 출력부와, 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부와, 수신되는 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서를 포함하며, 광 출력부는, 제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드와, 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부와, 제1 내지 제3 색상의 구조화된 가시광을 차량 전방에 확산시켜 출력하는 광 확산부를 포함한다.
한편, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 차량용 헤드램프 구동장치는, 구조화된 가시광을 차량 전방에 출력하는 제1 광 출력부와, 적외선광을 출력하는 제2 광 출력부와, 구조화된 가시광에 대응하는 제1 수신광을 수신하거나, 적외선광에 대응는 제2 수신광을 수신하는 광 수신부와, 수신되는 제1 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하거나, 수신되는 제2 수신광과, 적외선광에 기초하여 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서를 포함한다.
한편, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 차량은, 조향 장치를 구동하는 조향 구동부와, 브레이크 장치를 구동하는 브레이크 구동부와, 동력원을 구동하는 동력원 구동부와, 구조화된 가시광을 차량 전방에 출력하는 광 출력부와, 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부와, 수신되는 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서를 포함하며, 광 출력부는, 제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드와, 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부와, 제1 내지 제3 색상의 구조화된 가시광을 차량 전방에 확산시켜 출력하는 광 확산부를 포함한다.
본 발명의 실시예에 따른 차량용 헤드램프 구동장치 및 이를 구비한 차량은, 구조화된 가시광이, 헤드 램프를 통해, 출력되고, 출력되는 구조화된 가시광이 외부 구조물 또는 오브젝트에 반사 또는 산란되어, 구조화된 가시광에 대응하는 수신광이, 헤드 램프를 통해, 수신되도록 한다. 그리고, 출력되는 구조화된 가시광과, 수신되는 수신광의 차이, 위상 차이, 레벨 차이 등에 기초하여, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
한편, 복수의 헤드 램프를 통해 가시광이 출력되는 경우, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다. 이에 따라, 마주 오는 차량 운전자의 눈부심 등을 방지하거나, 원 거리에 위치하는 오브젝트를 운전자가 육안으로 확인할 수 있게 된다.
한편, 차량의 조향 방향 가변 신호에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수 있으며, 이에 따라, 운전자의 이용 편의성이 증대될 수 있다.
한편, 차량 주변의 조도에 따라, 구조화된 가시광의 세기를 가변하거나, 통신부를 통해 수신되는 데이터에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하는 것도 가능하다. 이에 따라, 운전자의 이용 편의성이 증대될 수 있다.
한편, 본 발명의 다른 실시예에 따른 차량용 헤드램프 구동장치 및 이를 구비한 차량은, 구조화된 가시광을 차량 전방에 출력하는 제1 광 출력부와, 적외선광을 출력하는 제2 광 출력부와, 구조화된 가시광에 대응하는 제1 수신광을 수신하거나, 적외선광에 대응는 제2 수신광을 수신하는 광 수신부를 구비함으로써, 야간은 물론 주간에도, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 차량용 헤드램프를 구비하는 차량의 외관을 도시한 도면이다.
도 2는 야간에 차량 주행시 헤드램프에서 가시광이 출력되는 것을 예시하는 도면이다.
도 3은 주간에 차량 주행시 헤드램프에서 적외선광이 출력되는 것을 예시하는 도면이다.
도 4는 본 발명의 일실시예에 따른 차량용 헤드램프 구동장치의 내부 블록도를 예시한다.
도 5a는 도 4의 제1 광 출력부의 내부 블록도의 일예를 예시하며, 도 5b는 도 4의 광 수신부의 내부 블록도의 일예를 예시한다.
도 6은 제1 및 제2 광 출력부의광 출력과, 광 수신부의 광 수신을 예시하는 도면이다.
도 7a는 도 6의 제1 광 출력부의 광 투사시의 스캐닝 방법을 예시하는 도면이다.
도 7b는 도 6의 차량용 헤드램프 구동장치의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
도 8a는 도 4의 프로세서의 내부 블록도의 일예를 예시한다.
도 8b는 도 8a의 프로세서에서의 오브젝트 검출을 예시하는 도면이다.
도 9는 본 발명의 일실시예에 따른 차량 내부의 블록도의 일예이다.
도 10 내지 도 12는 차량용 헤드램프 구동장치의 동작방법의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
한편, 본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량용 헤드램프를 구비하는 차량의 외관을 도시한 도면이다.
도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(200)의 진행 방향을 조절하기 위한 핸들(150), 및 차량(200)에 장착되는 복수의 헤드 램프(10L,10R)를 구비할 수 있다.
특히, 복수의 헤드 램프(10L,10R)는, 각각, 구조화된 가시광을 차량 전방에 출력하는 광 출력부(도 4의 50)와, 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부(도 4의 70)를 구비할 수 있다.
본 발명의 실시예에서는, 구조화된 가시광이, 헤드 램프(10L,10R)를 통해, 출력되고, 출력되는 구조화된 가시광이 외부 구조물 또는 오브젝트에 반사 또는 산란되어, 구조화된 가시광에 대응하는 수신광이, 헤드 램프(10L,10R)를 통해, 수신되도록 한다. 그리고, 출력되는 구조화된 가시광과, 수신되는 수신광의 차이, 위상 차이, 레벨 차이 등에 기초하여, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
한편, 복수의 헤드 램프(10L,10R)를 통해 가시광이 출력되는 경우, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
예를 들어, 마주 오는 차량 운전자의 눈부심 등을 방지하기 위해, 연산된 거리에 기초하여, 가시광의 출력 방향을 가변하거나, 출력 거리를 가변하거나, 출력 세기가 작아지도록 할 수 있다.
다른 예로, 원 거리에 위치하는 오브젝트를 운전자가 육안으로 확인 가능하도록, 연산된 거리에 기초하여, 가시광의 출력 거리를 증가시키거나, 출력 세기가 커지도록 할 수 있다.
한편, 차량의 조향 방향 가변 신호에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
한편, 차량 주변의 조도에 따라, 구조화된 가시광의 세기를 가변하는 것도 가능하다. 예를 들어, 조도가 작아질수록, 즉 차량 주변이 어두워질수록, 구조화된 가시광의 세기가 커지도록 하는 것도 가능하다.
또는, 통신부를 통해 수신되는 데이터에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하는 것도 가능하다.
한편, 복수의 헤드 램프(10L,10R)는, 적외선광을 출력하는 제2 광 출력부(60)를 더 구비할 수 있다.
이에 따라, 야간에는, 구조화된 가시광을 출력하고, 주간에는 적외선광을 출력함으로써, 야간은 물론 주간에도, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
도 2는 야간에 차량 주행시 헤드램프에서 가시광이 출력되는 것을 예시하는 도면이다.
도면을 참조하면, 야간의 차량 주행시, 전방(521)에 대해, 차량(200) 내의 복수의 헤드 램프(10L,10R)는, 구조화된 가시광(VL)을 출력할 수 있다.
구조화된 가시광(VL)은, 가시광에, 별도의 신호가 변조되어 부가된 것으로서, 광 출력부(도 4의 50)를 통해 출력 가능하다. 한편, 부가된 신호는, 구동 신호에 대응할 수 있다.
이러한 신호 변조를 통해, 광 수신부(도 4의 50)는, 외부의 자연광과 구조화된 가시광에 대응하는 수신광을 구별할 수 있게 된다.
그리고, 차량용 헤드램프 구동장치(도 4의 100)는, 출력되는 구조화된 가시광과, 수신되는 수신광의 차이, 위상 차이, 레벨 차이 등에 기초하여, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
도 3은 주간에 차량 주행시 헤드램프에서 적외선광이 출력되는 것을 예시하는 도면이다.
도면을 참조하면, 주간의 차량 주행시, 전방(522)에 대해, 차량(200) 내의 복수의 헤드 램프(10L,10R)는, 적외선광(IR)을 출력할 수 있다.
적외선광(IR)은, 제2 광 출력부(60)를 통해 출력 가능하며, 가시광과 같이 구조화된 적외선광일 수도 있으나, 아닌 경우도 가능하다.
광 수신부(도 4의 50)는, 적외선광에 대응는 제2 수신광을 수신할 수 있다. 특히, 적외선광이 구조화된 적외선광인 경우, 광 수신부(도 4의 50)는, 외부의 적외선광과 제2 수신광을 구별할 수 있게 된다.
그리고, 차량용 헤드램프 구동장치(도 4의 100)는, 출력되는 적외선광과, 수신되는 제2 수신광의 차이, 위상 차이, 레벨 차이 등에 기초하여, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
특히, 주간에 차량 주행시, 헤드 램프(10L,10R)를 통해, 가시광을 출력하지 않고, 적외선 광을 출력함으로써, 차량 전방에 위치하는 다른 차량 운전자 또는 보행자 등에 대한 눈부심 없이, 간단하게, 차량 전방의 오브젝트에 대한 거리를 검출할 수 있게 된다.
도 4는 본 발명의 일실시예에 따른 차량용 헤드램프 구동장치의 내부 블록도를 예시한다.
도면을 참조하면, 도 4의 차량용 헤드램프 구동장치(100)는, 구조화된 가시광을 차량 전방에 출력하는 광 출력부(50)와, 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부(70)와, 수신되는 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서(170)를 포함할 수 있다. 그 외, 적외선광을 출력하는 제2 광 출력부(60)를 더 포함할 수 있다.
한편, 차량용 헤드램프 구동장치(100)는, 통신부(120), 인터페이스부(130), 메모리(140), 조도센서(160), 프로세서(170), 디스플레이(180), 오디오 출력부(185), 전원 공급부(190)를 구비할 수 있다. 그 외, 오디오 입력부(미도시)를 구비하는 것도 가능하다.
제1 광 출력부(50)는, 구조화된 가시광을 차량 전방에 출력한다. 이를 위해, 제1 광 출력부(50)는, 제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드(52)와, 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부(54)와, 제1 내지 제3 색상의 구조화된 가시광을 차량 전방에 확산시켜 출력하는 광 확산부(56)를 포함할 수 있다. 광 확산부(56)는, 외부 방향으로 제1 방향 스캐닝 및 제2 방향 스캐닝을 수행하는 스캐너(도 6의 57)를 포함할 수 있다.
또한, 제1 광 출력부(50)는, 레이저 다이오드(52)를 구동하기 위한 레이저 구동부(도 6의 51)를 더 포함할 수 있다.
제2 광 출력부(60)는, 적외선광을 출력할 수 있다. 이를 위해, 제2 광 출력부(60)는, 적외선광을 출력하는 레이저 다이오드(62)를 구비할 수 있다. 적외선광은, 제1 광 출력부(50) 내에 구비되는 스캐너(도 6의 57)를 통해, 제1 방향 스캐닝 및 제2 방향 스캐닝으로 외부로 출력될 수 있다.
광 수신부(70)는, 구조화된 가시광에 대응하는 제1 수신광을 수신하거나, 적외선광에 대응는 제2 수신광을 수신할 수 있다. 특히, 야간에 구조화된 가시광에 대응하는 제1 수신광을 수신하거나, 주간에 적외선광에 대응는 제2 수신광을 수신할 수 있다.
이를 위해, 광 수신부(70)는, 적외선 차단 필터(도 5b의 72)와, 적외선 차단 필터를 통과한 수신광을 전기 신호로 변환하는 광 검출부(도 5b의 74)를 구비할 수 있다. 광 검출부(도 5b의 74)에서 변환된 전기 신호는 프로세서(170)로 입력될 수 있다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(120)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. 한편, 차량용 헤드램프 구동장치(100)에서, 이미지를 기반으로 파악한, 실시간 교통 정보를, 이동 단말기(600) 또는 서버(500)로 전송할 수도 있다.
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 차량용 헤드램프 구동장치(100)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링(pairing)을 수행할 수 있다.
한편, 통신부(120)는, 사용자의 이동 단말기(600) 등으로부터, 구조화된 가시광의 출력을 위한, 광 출력부 동작 신호를 수신하거나, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하기 위한 신호를 수신할 수 있다. 수신되는 각 종 신호는, 프로세서(170)로 전달될 수 있다.
인터페이스부(130)는, 차량 관련 데이터를 수신하거나, 프로세서(170)에서 처리 또는 생성된 신호를 외부로 전송할 수 있다. 이를 위해, 인터페이스부(130)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 ECU(770), AVN(Audio Video Navigation) 장치(400), 센서부(760) 등과 데이터 통신을 수행할 수 있다.
인터페이스부(130)는, AVN 장치(400)와의 데이터 통신에 의해, 차량 주행과 관련한, 맵(map) 정보를 수신할 수 있다.
한편, 인터페이스부(130)는, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다.
여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.
메모리(140)는, 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 차량용 헤드램프 구동장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
조도센서(160)는, 차량 외부의 조도를 센싱할 수 있다. 특히, 차량 전방의 외부의 조도를 센싱할 수 있다. 센싱된 외부의 조도는, 프로세서(170)로 전달된다.
오디오 입력부(미도시)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, 프로세서(170)로 전달될 수 있다.
프로세서(170)는, 차량용 헤드램프 구동장치(100) 내의 각 유닛의 전반적인 동작을 제어한다.
프로세서(170)는, 광 출력부(50)에서 출력되는, 구조화된 가시광과, 광 수신부(70)에서 수신되는 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출할 수 있다.
특히, 프로세서(170)는, 출력되는 구조화된 가시광과, 수신되는 수신광의 차이, 위상 차이, 레벨 차이 등에 기초하여, 외부 구조물 또는 오브젝트의 거리를 연산할 수 있다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
구체적으로, 프로세서(170)는, 수신되는 수신광과, 구조화된 가시광의 위상 차이에 기초하여, 차량 전방에 대한 디스패러티 맵을 생성하며, 디스패러티 맵에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출할 수 있다.
한편, 프로세서(170)는, 광 출력부(50)를 통해 구조화된 가시광이 출력되는 경우, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
예를 들어, 프로세서(170)는, 마주 오는 차량 운전자의 눈부심 등을 방지하기 위해, 연산된 거리에 기초하여, 가시광의 출력 방향을 가변하거나, 출력 거리를 가변하거나, 출력 세기가 작아지도록 할 수 있다.
다른 예로, 프로세서(170)는, 원 거리에 위치하는 오브젝트를 운전자가 육안으로 확인 가능하도록, 연산된 거리에 기초하여, 가시광의 출력 거리를 증가시키거나, 출력 세기가 커지도록 할 수 있다.
한편, 프로세서(170)는, 광 출력부(50)가, 구조화된 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너(57)를 포함하는 경우, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 스캐너(57)의 스캐닝 방향을 조절하여, 구조화된 가시광의 출력 방향을 가변하거나, 광 출력부(50)에서 출력되는 구조화된 가시광의 세기를 가변할 수도 있다.
한편, 프로세서(170)는, 차량 주변의 조도를 감지하는 조도 센서(160)로부터의 감지된 조도에 따라, 출력부(50)에서 출력되는 구조화된 가시광의 세기를 가변할 수 있다. 예를 들어, 감지된 조도가 낮을수록, 가시광의 세기가 커지도록 광 출력부(50)를 제어할 수도 있다.
한편, 프로세서(170)는, 차량의 조향 방향 가변 신호에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
한편, 프로세서(170)는, 차량 주변의 조도에 따라, 구조화된 가시광의 세기를 가변하는 것도 가능하다. 예를 들어, 조도가 작아질수록, 즉 차량 주변이 어두워질수록, 구조화된 가시광의 세기가 커지도록 하는 것도 가능하다.
또는, 프로세서(170)는, 통신부(120)를 통해 수신되는 데이터에 기초하여, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하는 것도 가능하다.
한편, 복수의 헤드 램프(10L,10R)는, 적외선광을 출력하는 제2 광 출력부(60)를 더 구비할 수 있다.
이에 따라, 야간에는, 구조화된 가시광을 출력하고, 주간에는 적외선광을 출력함으로써, 야간은 물론 주간에도, 외부 구조물 또는 오브젝트의 거리를 연산한다. 이에 따라, 차량 전방의 오브젝트에 대한 거리를 간단하게 검출할 수 있게 된다.
특히, 프로세서(170)는, 수신되는 제1 수신광과, 구조화된 가시광에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하거나, 수신되는 제2 수신광과, 적외선광에 기초하여 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출할 수 있다.
프로세서(170)는, 제1 광 출력부(50)가, 구조화된 가시광 및 적외선광을 스캐닝 방식에 의해 외부로 출력하는 스캐너(57)를 포함하는 경우, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 스캐너(57)의 스캐닝 방향을 조절하여, 구조화된 가시광 및 적외선광 중 적어도 하나의 출력 방향을 가변하거나, 광 출력부(50)에서 출력되는 구조화된 가시광의 세기를 가변할 수 있다.
한편, 프로세서(170)는, 수신되는 수신광과, 구조화된 가시광의 위상 차이에 기초하여, 또는 수신되는 제2 수신광과 출력되는 적외선광의 위상 차이에 기초하여, 차량 전방에 대한 디스패러티 맵을 생성하며, 디스패러티 맵에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하고, 오브젝트 검출 이후, 계속적으로, 오브젝트의 움직임을 트래킹할 수 있다.
특히, 프로세서(170)는, 오브젝트 검출시, 차선 검출(Lane Detection), 주변 차량 검출(vehicle Detection), 보행자 검출(Pedestrian Detection), 도로면 검출 등을 수행할 수 있다.
한편, 프로세서(170)는, 인터페이스부(130)를 통해, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다. 여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
디스플레이(180)는, 프로세서(170)에서 연산된 거리 정보를 표시할 수 있다. 한편, 다양한 사용자 유저 인터페이스를 제공하는 것도 가능하며, 제공되는 유저 인터페이스에 대한 터치 입력이 가능한 터치 센서를 구비하는 것도 가능하다.
한편, 디스플레이(180)는, 차량 내부 전면의 클러스터(cluster) 또는 HUD(Head Up Display)를 포함할 수 있다. 한편, 디스플레이(180)가 HUD 인 경우, 차량(200)의 전면 유리에 이미지를 투사하는 투사 모듈을 포함할 수 있다.
오디오 출력부(185)는, 프로세서(170)에서 처리된 오디오 신호에 기초하여 사운드를 외부로 출력한다. 이를 위해, 오디오 출력부(185)는, 적어도 하나의 스피커를 구비할 수 있다.
전원 공급부(190)는, 프로세서(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 5a는 도 4의 제1 광 출력부의 내부 블록도의 일예를 예시하며, 도 5b는 도 4의 광 수신부의 내부 블록도의 일예를 예시한다.
먼저, 도 5a를 참조하면, 제1 광 출력부(50)는, 제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드(52)와, 제1 색상의 구조화된 가시광(VL1)의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광(VL2,VL3)으로 변환하는 광 변환부(54)와, 제1 내지 제3 색상의 구조화된 가시광(VL1,VL2,VL3; VL)을 차량 전방에 확산시켜 출력하는 광 확산부(56)를 포함할 수 있다.
광 변환부(54)는, 제1 색상의 구조화된 가시광을 제2 색상의 구조화된 가시광으로 변환하는 제1 형광체, 및 제1 색상의 구조화된 가시광을 제3 색상의 구조화된 가시광으로 변환하는 제2 형광체를 구비할 수 있다.
예를 들어, 레이저 다이오드(52)가 청색광(VL1)을 출력하는 블루 레이저 다이오드인 경우, 광 변환부(54)는, 청색광을 적색광 및 녹색광으로 변화하기 위한, 적색 형광체 및 녹색 형광체를 구비할 수 있다.
한편, 광 변환부(54)는, 제1 색상의 구조화된 가시광의 광 경로를 변경하는 미러(도 6의 55)를 더 포함하고, 제1 형광체 및 제2 형광체는, 미러(도 6의 55) 상에 도포될 수 있다.
예를 들어, 광변환부(54)는, 청색광의 구조화된 가시광의 광 경로를 변경하는 미러(도 6의 55)를 더 포함할 수 있으며, 미러(도 6의 55) 상에, 적색 형광체 및 녹색 형광체가 더 도포될 수 있다.
다음, 도 5b를 참조하면, 광 수신부(70)는, 적외선 차단 필터(72)와, 적외선 차단 필터를 통과한 수신광을 전기 신호로 변환하는 광 검출부(74)를 구비할 수 있다. 광 검출부(74)에서 변환된 전기 신호는 프로세서(170)로 입력될 수 있다.
한편, 적외선 차단 필터(72)는 적외선광을 차단하기 위한 것으로서, 선택적으로 구비되는 것도 가능하다. 예를 들어, 주간에는, 적외선 차단 필터(72)가 동작하지 않고, 야간에만 동작하여, 야간에는, 적외선광을 차단하고, 주간에는 차단하지 않는 것도 가능하다.
또는 도면과 달리, 주간과 야간에, 수신되는 광의 경로가 구분되는 것도 가능하다. 즉, 주간에는, 적외선광에 대응하는 수신광이, 적외선 차단 필터(72)를 통과하지 않고, 바로 광 검출부(74)로 수신되는 것도 가능하다.
도 6은 제1 및 제2 광 출력부의광 출력과, 광 수신부의 광 수신을 예시하는 도면이다.
도면을 참조하면, 제1 광 출력부(50)는, 레이더 다이오드 구동부(51), 레이저 다이오드(52), 집광 렌즈(collimator lens; CL)(53), 미러(55), 스캐너(57)를 포함할 수 있다.
레이더 다이오드 구동부(51)는, 프로세서(170)로부터의 제1 구동 신호에 기초하여, 구조화된 청색광을 출력하는 레이저 다이오드(52)를 구동하도록 제어할 수 있다. 특히, 제1 구동 신호의 레벨, 펄스폭 등에 의해, 구조화된 청색광의 세기 등을 조정할 수 있다.
레이저 다이오드(52)에서 출력되는 청색광은, 집광 렌즈(53)를 거쳐, 미러(55)로 입사되며, 미러(55)에 도포된 녹색 형광체 및 적색 형광체에 의해, 녹색광 및 적색광이 출력된다.
미러(55)는, 결국, 구조화된 청색광의 광 경로를 변경하여, 청색광, 녹색광, 및 적색광을 포함하는 구조화된 가시광(VL)을 스캐너(57) 방향으로 전달한다.
*스캐너(57)는, 상술한 광 확산부(56)의 일예로서, 미러(55)로부터의 구조화된 가시광을 입력받아, 제1 방향 스캐닝 및 제2 방향 스캐닝을 하여, 구조화된 가시광을 외부 영역으로 출력한다.
특히, 스캐너(57)는, 야간의 차량 주행시, 전방(521)에 대해, 구조화된 가시광(VL)을 출력할 수 있다.
한편, 프로세서(170)는, 스캐너(57)를 제어할 수 있다. 구체적으로, 스캐너의 제1 방향 스캐닝의 각도 또는 제2 방향 스캐닝의 각도를 조절할 수 있다. 스캐닝 각도 조절에 의해, 출력되는 구조화된 가시광의 출력 방향이 가변될 수 있다.
또한, 프로세서(170)는, 스캐너(57)의 스캐닝 주파수를 가변할 수도 있다. 스캐닝 주파수를 60Hz에서 30Hz로 감소시키는 경우, 동일 외부 영역에 대해, 해상도가 증가한 스캐닝이 수행될 수 있게 된다. 따라서, 보다 자세한 거리 정보를 획득할 수도 있게 된다.
제2 광 출력부(60)는, 레이더 다이오드 구동부(61), 레이저 다이오드(62), 집광 렌즈(collimator lens; CL)(63), 미러(65)를 포함할 수 있다.
레이더 다이오드 구동부(61)는, 프로세서(170)로부터의 제2 구동 신호에 기초하여, 적외선광 또는 구조화된 적외선광을 출력하는 레이저 다이오드(62)를 구동하도록 제어할 수 있다. 특히, 제2 구동 신호의 레벨, 펄스폭 등에 의해, 적외선광 또는 구조화된 적외선광의 세기 등을 조정할 수 있다.
레이저 다이오드(62)에서 출력되는 적외선광은, 집광 렌즈(63)를 거쳐, 미러(65)로 입사되며, 미러(65)는, 적외선광 또는 구조화된 적외선광의 광 경로를 변경하여, 스캐너(57) 방향으로 전달한다.
스캐너(57)는, 적외선광 또는 구조화된 적외선광을 입력받아, 제1 방향 스캐닝 및 제2 방향 스캐닝을 하여, 적외선광 또는 구조화된 적외선광을 외부 영역으로 출력한다.
특히, 스캐너(57)는, 주간의 차량 주행시, 전방(522)에 대해, 적외선광 또는 구조화된 적외선광(IR)을 출력할 수 있다.
광 수신부(70)는, 구조화된 가시광에 대응하는 제1 수신광(VL)을 수신하거나, 적외선광에 대응는 제2 수신광(IR)을 수신할 수 있다.
광 수신부(70)는, 수신광을 수신하여 집광하는 집광 렌즈(collimator lens; CL)(71), 적외선 차단 필터(72)와, 적외선 차단 필터를 통과한 수신광을 전기 신호로 변환하는 광 검출부(74)의 일예로서, TOF 센서(Time of Flight sensor)(75)를 구비할 수 있다. TOF 센서(75)에서 변환된 전기 신호는 프로세서(170)로 입력될 수 있다.
한편, 적외선 차단 필터(72)는 적외선광을 차단하기 위한 것으로서, 선택적으로 구비되는 것도 가능하다. 예를 들어, 주간에는, 적외선 차단 필터(72)가 동작하지 않고, 야간에만 동작하여, 야간에는, 적외선광을 차단하고, 주간에는 차단하지 않는 것도 가능하다.
또는, 도면과 달리, 주간과 야간에, 수신되는 광의 경로가 구분되는 것도 가능하다. 즉, 주간에는, 적외선광에 대응하는 수신광이, 적외선 차단 필터(72)를 통과하지 않고, 바로 TOF 센서(75)로 수신되는 것도 가능하다.
도 7a는 도 6의 제1 광 출력부의 광 투사시의 스캐닝 방법을 예시하는 도면이다.
도면을 참조하면, 제1 광 출력부(50)는, 레이저 다이오드(52), 미러(55), 스캐너(57)를 포함할 수 있다.
한편, 제1 광 출력부(50)에서 출력되는 광 파장은 단일 광원으로서 1개의 파장일 수 있다. 특히, 청색광을 출력할 수 있다.
레이저 다이오드(52)에서 출력되는 청색광은, 미러(55)에서 반사, 및 산란되어, 청색광, 적색광, 및 녹색광을 포함하는 가시광으로 출력될 수 있다. 그리고, 가시광(VL)은, 스캐너(57)로 입사될 수 있다.
한편, 스캐너(57)는, 미러(55)로부터의 구조화된 가시광(VL)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다.
도면과 같이, 스캐너(57)는, 스캐닝 가능한 영역을 중심으로, 외부 영역(40)에 대해, 좌에서 우로 수평 스캐닝을 수행하고, 상에서 하로 수직 스캐닝을 수행하며, 다시 우에서 좌로 수평 스캐닝을 수행하고, 다시 상에서 하로 수직 스캐닝을 수행할 수 있다. 그리고, 이와 같은 스캐닝 동작을, 외부 영역(40)의 전체에 대해, 반복하여 수행할 수 있다.
또는, 스캐너(57)는, 스캐닝 가능한 영역을 중심으로, 외부 영역(40)에 대해, 사선 방향으로, 좌에서 우로 스캐닝을 수행하고, 우에서 좌로 스캐닝을 수행할 수 있다. 그리고, 이와 같은 스캐닝 동작을, 외부 영역(40)의 전체에 대해, 반복하여 수행할 수 있다.
한편, 외부 영역(40)으로 출력되는 가시광(VL)은, 외부 영역(40)에서 산란 또는 반사되어, 광 수신부(70)에 입사될 수 있다. 예를 들어, 스캐너(57)는, 외부로 출력되는 가시광(VL)에 대응하는 수신광을 수신할 수 있다.
프로세서(170)는, 구조화된 가시광(VL)과, 구조화된 가시광(VL)에 대응하는 수신광을 비교하고, 그 차이를 이용하여, 거리를 검출할 수 있다. 거리 검출 기법에 대해서는, 다양한 방법이 있으나, 본 발명의 실시예에서는, 위상 차이를 이용한 방법을 예시한다. 이에 대해서는 도 7b를 참조하여 후술한다.
한편, 제1 광 출력부(50)에서, 산출되는 거리 정보는, 도 8b와 같은, 휘도 영상(520)으로서 표현될 수 있다. 외부 대상물의 다양한 거리 값(distance value)은, 대응하는 휘도 레벨로서 표시 가능하다. 거리가 가까운 경우, 휘도 레벨이 클 수(밝기가 밝을 수) 있으며, 깊이가 먼 경우 휘도 레벨이 작을 수(밝기가 어두울 수) 있다.
한편, 외부 영역(40)은, 도 7a와 같이, 제1 영역(42)과 제2 영역(44)으로 구분될 수 있다. 여기서, 제1 영역(42)은, 외부 대상물(43)을 포함하는 영역, 즉 유효 영역(active area)(42)일 수 있으며, 제2 영역(44)은, 외부 대상물(43)을 포함하지 않는 영역, 즉 블랭크 영역(blank area)(44)일 수 있다.
이에 따라, 전체 스캐닝 구간도, 외부 대상물이 존재하는 영역인 유효 영역(active area)(42)에 대응하는 제1 스캐닝 구간과, 외부 대상물이 존재하지 않는 영역인 블랭크 영역(blank area)(44)에 대응하는 제2 스캐닝 구간으로 구분될 수 있다.
도 7b는 도 6의 차량용 헤드램프 구동장치의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
여기서, Tx는 출력되는 가시광의 위상 신호, Rx는 수신광의 위상 신호를 나타낸다.
도면을 참조하면, 차량용 헤드램프 구동장치(100)의 프로세서(170)는, 출력되는 가시광의 위상 신호와 수신광의 위상 신호의 위상 차이(Φ)에 따라, 거리 정보 레벨을 산출할 수 있다.
예를 들어, 위상 차이가 클수록, 외부 대상물이 멀리 있는 것이므로, 거리 정보 레벨이 크도록 설정할 수 있으며, 위상 차이가 작을수록, 외부 대상물이 가깝게 있는 것이므로, 거리 정보 레벨이 작도록 설정할 수 있다.
이러한, 거리 레벨 설정은, 상술한 바와 같이, 외부 영역(40)을 수평 스캐닝 및 수직 스캐닝하면서, 외부 영역(40) 내의 각 영역 별로 수행될 수 있다. 한편, 외부 영역(40)의 각 영역 별로, 거리 정보 레벨의 검출이 가능하다.
도 8a는 도 4의 프로세서의 내부 블록도의 일 예를 예시하고, 도 8b는 도 8a의 프로세서에서의 오브젝트 검출을 예시하는 도면이다.
먼저, 도 8a를 참조하면, 도 8a는, 프로세서(170)의 내부 블록도의 일예로서, 차량용 헤드램프 구동장치(100) 내의 프로세서(170)는, 영상 전처리부(410), 디스패러티 연산부(420), 오브젝트 검출부(434), 오브젝트 트래킹부(440), 및 어플리케이션부(450)를 구비할 수 있다.
영상 전처리부(image preprocessor)(410)는, 출력되는 가시광에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하여, 전처리(preprocessing)를 수행할 수 있다.
구체적으로, 영상 전처리부(410)는, 출력되는 가시광에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호에 대한, 노이즈 리덕션(noise reduction), 렉티피케이션(rectification), 캘리브레이션(calibration), 인터폴레이션(interpolation), 등을 수행할 수 있다.
디스패러티 연산부(disparity calculator)(420)는, 영상 전처리부(410)에서 신호 처리된, 출력되는 가시광에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하고, 각 구동 신호의 위상 차이에 기초하여, 거리 정보를 산출할 수 있으며, 거리 정보에 기초하여, 외부 영역(40)에 대한, 디스패러티 맵(dispartiy map)을 획득한다. 즉, 차량 주변에 대한, 디스패러티 정보를 획득할 수 있다.
세그멘테이션부(segmentation unit)(432)는, 디스패러티 연산부(420)로부터의 디스페러티 정보에 기초하여, 디스패러티 맵 내의 세그먼트(segment) 및 클러스터링(clustering)을 수행할 수 있다.
구체적으로, 세그멘테이션부(432)는, 디스페러티 정보에 기초하여, 디스패러티 맵에 대해, 배경(background)과 전경(foreground)을 분리할 수 있다.
예를 들어, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이하인 영역을, 배경으로 연산하고, 해당 부분을 제외시킬 수 있다. 이에 의해, 상대적으로 전경이 분리될 수 있다.
다른 예로, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이상인 영역을, 전경으로 연산하고, 해당 부분을 추출할 수 있다. 이에 의해, 전경이 분리될 수 있다.
이와 같이, 추출된 디스페러티 정보 정보에 기초하여, 전경과 배경을 분리함으로써, 이후의, 오브젝트 검출시, 신호 처리 속도, 신호 처리 양 등을 단축할 수 있게 된다.
다음, 오브젝트 검출부(object detector)(434)는, 세그멘테이션부(432)로부터의 세그먼트에 기초하여, 오브젝트를 검출할 수 있다.
즉, 오브젝트 검출부(434)는, 디스페러티 정보에 기초하여, 디스패러티 맵에 대해, 오브젝트를 검출할 수 있다.
구체적으로, 오브젝트 검출부(434)는, 세그먼트에 의해 분리된 전경으로부터 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(436)는, 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(436)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
한편, 오브젝트 확인부(436)는, 메모리(140)에 저장된 오브젝트들과, 검출된 오브젝트를 비교하여, 오브젝트를 확인할 수 있다.
예를 들어, 오브젝트 확인부(436)는, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 확인할 수 있다.
오브젝트 트래킹부(object tracking unit)(440)는, 확인된 오브젝트에 대한 트래킹을 수행한다. 예를 들어, 순차적으로, 획득되는 디스패러티 맵들에 내의, 오브젝트를 확인하고, 확인된 오브젝트의 움직임 또는 움직임 벡터를 연산하며, 연산된 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 등을 트래킹할 수 있게 된다.
도 8b는, 디스패러티 맵을 기반으로 하여, 도 8b의 프로세서(170)의 동작 방법 설명을 위해 참조되는 도면이다.
도 8b를 참조하면, 프로세서(170) 내의 디스패러티 연산부(420)는, 영상 전처리부(410)에서 신호 처리된, 출력되는 가시광에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하고, 각 구동 신호의 위상 차이에 기초하여, 거리 정보를 산출할 수 있으며, 거리 정보에 기초하여, 외부 영역(40)에 대한, 디스패러티 맵(dispartiy map)(520)을 획득한다. 즉, 차량 주변에 대한, 디스패러티 정보를 획득할 수 있다.
디스패러티 맵(dispartiy map)(520)은, 거리 정보를 레벨화 한 것으로서, 디스패러티 레벨이 클수록, 차량과의 거리가 가깝고, 디스패러티 레벨이 작을수록, 차량과의 거리가 먼 것으로 연산할 수 있다.
한편, 이러한 디스패러티 맵을 디스플레이 하는 경우, 디스패러티 레벨이 클수록, 높은 휘도를 가지고, 디스패러티 레벨이 작을수록 낮은 휘도를 가지도록 표시할 수도 있다.
도면에서는, 디스패러티 맵(520) 내에, 제1 차선 내지 제4 차선(528a,528b,528c,528d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(522), 제1 전방 차량(524), 제2 전방 차량(526)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(432)와, 오브젝트 검출부(434), 오브젝트 확인부(436)는, 디스패러티 맵(520)에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(520)을 사용하여, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
한편, 계속적으로, 이미지를 획득함으로써, 한편, 오브젝트 트래킹부(440)는, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다.
도 9는 본 발명의 일실시예에 따른 차량 내부의 블록도의 일예이다.
도면을 참조하면, 차량(200)은 차량 제어를 위한 전자 제어 장치(700)를 구비할 수 있다. 전자 제어 장치(700)는, AVN 장치(400)와 데이터를 교환할 수 있다.
전자 제어 장치(700)는, 제1 광 출력부(50), 제2 광 출력부(60), 광 수신부(70), 조도 센서(160), 입력부(710), 통신부(720), 메모리(740), 램프 구동부(751), 조향 구동부(752), 브레이크 구동부(753), 동력원 구동부(754), 썬루프 구동부(755), 서스펜션 구동부(756), 공조 구동부(757), 윈도우 구동부(758), 에어백 구동부(759), 센서부(760), ECU(770), 디스플레이(780), 오디오 출력부(785), 전원 공급부(790)를 구비할 수 있다.
여기서, 제1 광 출력부(50), 제2 광 출력부(60), 광 수신부(70), 조도 센서(160)에 대한 설명은, 도 1 내지 도 8b에서 기술한 내용을 참조하여 생략한다.
한편, ECU(770)는 프로세서를 포함하는 개념일 수 있다.
입력부(710)는, 차량(200) 내부에 배치되는 복수의 버튼 또는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 다양한 입력 동작을 수행하는 것이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(720)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 전자 제어 장치(700)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
한편, 통신부(720)는, 사용자의 이동 단말기(600) 등으로부터, 구조화된 가시광의 출력을 위한, 광 출력부 동작 신호를 수신하거나, 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하기 위한 신호를 수신할 수 있다. 수신되는 각 종 신호는, ECU(770)로 전달될 수 있다.
메모리(740)는, ECU(770)의 처리 또는 제어를 위한 프로그램 등, 전자 제어 장치(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
램프 구동부(751)는, 차량 내,외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들어, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
조향 구동부(752)는, 차량(200) 내의 조향 장치(steering apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(753)는, 차량(200) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(200)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(200)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
동력원 구동부(754)는, 차량(200) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들어, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(754)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(754)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
썬루프 구동부(755)는, 차량(200) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(756)는, 차량(200) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(200)의 진동이 저감되도록 제어할 수 있다.
공조 구동부(757)는, 차량(200) 내의 공조 장치(air conditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(758)는, 차량(200) 내의 서스펜션 장치(window apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(759)는, 차량(200) 내의 서스펜션 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 위험시, 에어백이 터지도록 제어할 수 있다.
센서부(760)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센서부(760)는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등을 구비할 수 있다.
이에 의해, 센서부(760)는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센서부(760)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 구비할 수 있다.
ECU(770)는, 전자 제어 장치(700) 내의 각 유닛의 전반적인 동작을 제어할 수 있다.
입력부(710)에 의한 입력에 의해, 특정 동작을 수행하거나, 센서부(760)에서 센싱된 신호를 수신하여, 차량용 헤드램프 구동장치(100)로 전송할 수 있으며, AVN 장치(400)로부터 맵 정보를 수신할 수 있으며, 각 종 구동부(751,752, 753,754,756)의 동작을 제어할 수 있다.
또한, ECU(770)는, 통신부(720)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, ECU(770)는, 도 1 내지 도 8b에서 기술한, 차량용 헤드램프 구동장치(100) 내의 프로세서(170)가 수행하는 기능을 모두 수행할 수도 있다. 이에 대한 설명은, 상술한 내용을 참조하여 생략한다.
디스플레이(780)는, 연산되는 차량 전방에 대한 오브젝트의 거리 정보를 표시할 수 있다. 특히,그 외 다양한 유저 인터페이스를 제공하는 것도 가능하다.
이러한 거리 정보 등의 표시를 위해, 디스플레이(780)는, 차량 내부 전면의 클러스터(cluster) 또는 HUD(Head Up Display)를 포함할 수 있다. 한편, 디스플레이(780)가 HUD 인 경우, 차량(200)의 전면 유리에 이미지를 투사하는 투사 모듈을 포함할 수 있다. 한편, 디스플레이(780)는, 입력이 가능한, 터치 스크린을 포함할 수 있다.
오디오 출력부(785)는, ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(785)는, 입력부(710), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
전원 공급부(790)는, ECU(770)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(790)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
도 10 내지 도 12는 차량용 헤드램프 구동장치의 동작방법의 설명에 참조되는 도면이다.
먼저, 도 10은 야간에 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 가시광(1210,1214)이 출력되다가, 제1 가시광의 방향이 변경되는 것을 예시한다.
차량용 헤드램프 구동장치(100) 내의 제1 광 출력부(50)는, 야간에 구조화된 가시광을 출력하며, 광 수신부(70)는, 가시광에 대응하는 수신광을 수신한다.
도면과 같이, 차량(200)이 주행하는 차선(La2) 외에, 반대편 차선(La1)에서, 상대방 차량(1800)이 달려오는 경우, 차량용 헤드램프 구동장치(100) 내의 프로세서(170)는, 출력되는 가시광과, 수신되는 수신광의 위상 차이에 기초하여, 반대편 차선(La1) 방향에, 외부 구조물이 있는 것을 알 수 있다. 즉, 상대방 차량(1800)에 대한 거리를 검출할 수 있다. 상술한 바와 같이 상대방 차량(1800)이 순차적으로 다가오므로, 이에 대한 트래킹을 수행할 수도 있다.
한편, 프로세서(170)는, 반대편 차선(La1) 방향의 상대방 차량(1800) 운전자가, 차량(200)에서 출력되는 가시광에 의한 눈부심을 느끼지 않도록, 가시광의 출력 방향이 가변되도록 제어할 수 있다.
구체적으로, 프로세서(170)는, 좌측 헤드 램프(10L) 내에 구비되는 스캐너(57)의 제1 방향 스캐닝 각도와 제2 방향 스캐닝 각도 중 적어도 하나를 조절하여, 출력되는 가시광의 방향이, 상대방 차량과 겹치지 않도록, 즉 우측 방향이 되도록, 제어할 수 있다. 이에 따라, 상대방 차량(1800) 운전자를 보호할 수 있게 된다.
다음, 도 11은, 도 10은 야간에 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 가시광(1210,1214)이 출력되다가, 제1 가시광의 세기가 변경되는 것을 예시한다.
도 10과 유사하나, 가시광의 세기 또는 가시광의 도달 거리를 가변하는 것에 그 차이가 있다.
프로세서(170)는, 반대편 차선(La1) 방향의 상대방 차량(1800) 운전자가, 차량(200)에서 출력되는 가시광에 의한 눈부심을 느끼지 않도록, 가시광의 출력 세기 또는 출력 거리 등이 가변되도록 제어할 수 있다.
구체적으로, 프로세서(170)는, 좌측 헤드 램프(10L) 내에 구비되는 레이저 다이오드 구동부(51)에 인가되는 구동 신호의 레벨, 펄스폭 중 적어도 하나를 조절하여, 가시광의 세기 또는 가시광의 도달 거리가 출력되는 가시광의 방향이, 상대방 차량과 겹치지 않도록, 제어할 수 있다. 이에 따라, 상대방 차량(1800) 운전자를 보호할 수 있게 된다.
한편, 도면과 달리, 프로세서(170)는, 차량의 조향 방향 가변 신호에 기초하여, 광 출력부(50)에서 출력되는 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
또는, 프로세서(170)는, 차량 주변의 조도를 감지하는 조도 센서(160)로부터 감지되는 조도에 따라, 광 출력부(50)에서 출력되는 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변할 수도 있다.
한편, 도 12는 차량용 헤드램프 구동장치(100) 내의 프로세서(170)에서 연산된 거리 정보를 디스플레이(180)를 통해 출력하는 것을 예시한다.
먼저, 도 12a는 디스플레이(180)에, 전방 차량과의 거리 정보(1110)가 표시되는 것을 예시하며, 도 12b는 디스플레이(180)에, 전방 보행자와의 거리 정보(1120)가 표시되는 것을 예시한다.
이에 의해, 사용자는 전방 오브젝트에 대한 거리 정보를 바로 파악할 수 있게 된다.
한편, 본 발명의 차량용 헤드램프 구동장치 및 차량의 동작방법은 차량용 헤드램프 구동장치 또는 차량에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
본 발명은 차량용 헤드램프 구동장치 및 이를 구비한 차량에 적용 가능하며, 특히, 가시광에 기초하여 차량 전방의 오브젝트에 대한 거리를 검출할 수 있는 차량용 헤드램프 구동장치 및 이를 구비한 차량에 적용 가능하다.

Claims (20)

  1. 구조화된 가시광을 차량 전방에 출력하는 광 출력부;
    상기 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부; 및
    상기 수신되는 수신광과, 상기 구조화된 가시광에 기초하여, 상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서;를 포함하며,
    상기 광 출력부는,
    제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드;
    상기 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부; 및
    상기 제1 내지 제3 색상의 구조화된 가시광을 상기 차량 전방에 확산시켜 출력하는 광 확산부;를 포함하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  2. 제1항에 있어서,
    상기 광 변환부는,
    상기 제1 색상의 구조화된 가시광을 상기 제2 색상의 구조화된 가시광으로 변환하는 제1 형광체, 및
    상기 제1 색상의 구조화된 가시광을 상기 제3 색상의 구조화된 가시광으로 변환하는 제2 형광체를 구비하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  3. 제1항에 있어서,
    상기 광 변환부는,
    상기 제1 색상의 구조화된 가시광의 광 경로를 변경하는 미러를 더 포함하고,
    상기 제1 형광체 및 제2 형광체는, 상기 미러 상에 도포된 것을 특징으로 하는 차량용 헤드램프 구동장치.
  4. 제1항에 있어서,
    상기 광 수신부는,
    적외선 차단 필터; 및
    상기 적외선 차단 필터를 통과한 상기 수신광을 전기 신호로 변환하는 광 검출부를 구비하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 수신되는 수신광과, 상기 구조화된 가시광의 위상 차이에 기초하여, 상기 차량 전방에 대한 디스패러티 맵을 생성하며, 상기 디스패러티 맵에 기초하여, 상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 광 출력부의 상기 구조화된 가시광의 출력 방향, 출력 세기, 및 출력 거리 중 적어도 하나를 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  7. 제6항에 있어서,
    상기 광 출력부는,
    상기 구조화된 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너를 포함하고,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 스캐너의 스캐닝 방향을 조절하여, 상기 구조화된 가시광의 출력 방향을 가변하거나, 상기 광 출력부에서 출력되는 상기 구조화된 가시광의 세기를 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  8. 제1항에 있어서,
    상기 차량 주변의 조도를 감지하는 조도 센서;를 더 포함하고,
    상기 프로세서는,
    상기 감지된 조도에 따라, 상기 광 출력부에서 출력되는 상기 구조화된 가시광의 세기를 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  9. 제1항 또는 제6항에 있어서,
    상기 프로세서는,
    상기 차량의 조향 방향 가변 신호에 기초하여,
    상기 광 출력부에서 출력되는 상기 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  10. 제1항에 있어서,
    외부 장치와 데이터를 교환하는 통신부;를 더 포함하고,
    상기 프로세서는,
    상기 통신부를 통해, 상기 광 출력부 동작 신호가 입력되는 경우, 상기 광 출력부에서 상기 구조화된 가시광을 출력하거나,
    상기 통신부를 통해 수신되는 데이터에 기초하여, 상기 구조화된 가시광의 출력 방향, 출력 거리, 및 출력 세기 중 적어도 하나를 설정하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  11. 구조화된 가시광을 차량 전방에 출력하는 제1 광 출력부;
    적외선광을 출력하는 제2 광 출력부;
    상기 구조화된 가시광에 대응하는 제1 수신광을 수신하거나, 상기 적외선광에 대응는 제2 수신광을 수신하는 광 수신부; 및
    상기 수신되는 제1 수신광과, 상기 구조화된 가시광에 기초하여, 상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하거나, 상기 수신되는 제2 수신광과, 상기 적외선광에 기초하여 상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서;를 포함하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  12. 제11항에 있어서,
    상기 제1 광 출력부는,
    제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드;
    상기 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부; 및
    상기 제1 내지 제3 색상의 구조화된 가시광을 상기 차량 전방에 확산시켜 출력하는 광 확산부;를 포함하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 제1 광 출력부의 상기 구조화된 가시광 또는 상기 제2 광 출력부의 상기 적외선광 중 적어도 하나의 출력 방향, 출력 세기, 및 출력 거리 중 적어도 하나 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  14. 제13항에 있어서,
    상기 제1 광 출력부는,
    상기 구조화된 가시광 및 상기 적외선광을 스캐닝 방식에 의해 외부로 출력하는 스캐너를 포함하고,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 스캐너의 스캐닝 방향을 조절하여, 상기 구조화된 가시광 및 상기 적외선광 중 적어도 하나의 출력 방향을 가변하거나, 상기 광 출력부에서 출력되는 상기 구조화된 가시광의 세기를 가변하는 것을 특징으로 하는 차량용 헤드램프 구동장치.
  15. 조향 장치를 구동하는 조향 구동부;
    브레이크 장치를 구동하는 브레이크 구동부,
    동력원을 구동하는 동력원 구동부;
    구조화된 가시광을 차량 전방에 출력하는 광 출력부;
    상기 구조화된 가시광에 대응하는 수신광을 수신하는 광 수신부; 및
    상기 수신되는 수신광과, 상기 구조화된 가시광에 기초하여, 상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하는 프로세서;를 포함하며,
    상기 광 출력부는,
    제1 색상의 구조화된 가시광을 출력하는 레이저 다이오드;
    상기 제1 색상의 구조화된 가시광의 적어도 일부를, 제2 및 제3 색상의 구조화된 가시광으로 변환하는 광 변환부; 및
    상기 제1 내지 제3 색상의 구조화된 가시광을 상기 차량 전방에 확산시켜 출력하는 광 확산부;를 포함하는 것을 특징으로 하는 차량.
  16. 제15항에 있어서,
    상기 광 변환부는,
    상기 제1 색상의 구조화된 가시광을 상기 제2 색상의 구조화된 가시광으로 변환하는 제1 형광체, 및
    상기 제1 색상의 구조화된 가시광을 상기 제3 색상의 구조화된 가시광으로 변환하는 제2 형광체를 구비하는 것을 특징으로 하는 차량.
  17. 제15항에 있어서,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 광 출력부의 상기 구조화된 가시광의 출력 방향, 출력 세기, 및 출력 거리 중 적어도 하나 를 가변하는 것을 특징으로 하는 차량.
  18. 제17항에 있어서,
    상기 광 출력부는,
    상기 구조화된 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너를 포함하고,
    상기 프로세서는,
    상기 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치에 기초하여, 상기 스캐너의 스캐닝 방향을 조절하여, 상기 구조화된 가시광의 출력 방향을 가변하거나, 상기 광 출력부에서 출력되는 상기 구조화된 가시광의 세기를 가변하는 것을 특징으로 하는 차량.
  19. 제15항에 있어서,
    상기 차량 주변의 조도를 감지하는 조도 센서;를 더 포함하고,
    상기 프로세서는,
    상기 감지된 조도에 따라, 상기 광 출력부에서 출력되는 상기 구조화된 가시광의 세기를 가변하는 것을 특징으로 하는 차량.
  20. 제15항 또는 제17항에 있어서,
    상기 프로세서는,
    상기 조향 구동부로부터의 조향 방향 가변 신호에 기초하여,
    상기 광 출력부에서 출력되는 상기 구조화된 가시광의 출력 방향 및 세기 중 적어도 하나를 가변하는 것을 특징으로 하는 차량.
PCT/KR2015/008255 2014-08-07 2015-08-06 차량용 헤드램프 구동장치 및 이를 구비한 차량 WO2016021961A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/502,272 US10029607B2 (en) 2014-08-07 2015-08-06 Vehicle head lamp driving apparatus and vehicle provided with same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0101890 2014-08-07
KR1020140101890A KR101637882B1 (ko) 2014-08-07 2014-08-07 차량용 헤드램프 구동장치 및 이를 구비한 차량

Publications (1)

Publication Number Publication Date
WO2016021961A1 true WO2016021961A1 (ko) 2016-02-11

Family

ID=55264155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/008255 WO2016021961A1 (ko) 2014-08-07 2015-08-06 차량용 헤드램프 구동장치 및 이를 구비한 차량

Country Status (3)

Country Link
US (1) US10029607B2 (ko)
KR (1) KR101637882B1 (ko)
WO (1) WO2016021961A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108340829A (zh) * 2017-01-23 2018-07-31 株式会社小糸制作所 照明电路和车辆照明装置
CN110809528A (zh) * 2017-06-30 2020-02-18 株式会社电装 车辆用显示装置、拍摄系统以及照明装置
WO2020192681A1 (zh) * 2019-03-28 2020-10-01 深圳市中光工业技术研究院 一种具有探测功能的照明系统
CN112622745A (zh) * 2020-12-10 2021-04-09 大运汽车股份有限公司 一种车灯智能控制系统及控制方法
CN116476728A (zh) * 2023-04-27 2023-07-25 无锡车联天下信息技术有限公司 一种车辆的车灯调节方法、装置、电子设备及存储介质

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014225526A1 (de) * 2014-12-11 2016-06-16 Robert Bosch Gmbh Verfahren und Steuergerät zum Einstellen einer Charakteristik einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
KR101770642B1 (ko) * 2016-05-16 2017-09-05 엘지전자 주식회사 차량용 조명 장치 및 차량
KR20170138648A (ko) 2016-06-08 2017-12-18 엘지전자 주식회사 차량용 라이다 장치 및 차량
KR101836845B1 (ko) 2016-07-04 2018-03-09 엘지전자 주식회사 차량용 발광기구
DE102016223671A1 (de) * 2016-11-29 2018-05-30 Continental Automotive Gmbh Leuchtsystem zur Ermittlung geometrischer Eigenschaften sowie Fahrerassistenzsystem und Verfahren dazu
KR101882138B1 (ko) * 2017-03-22 2018-07-25 이영종 적외선 가시광선 변환 나노입자 첨가 기판을 이용한 차량용 나이트비젼 장치
KR102440513B1 (ko) 2017-11-23 2022-09-06 현대자동차주식회사 물질의 극성을 이용한 광원 장치 및 이를 구비한 차량용 램프
US20190333293A1 (en) * 2018-04-27 2019-10-31 Christian Theodore LOMASCOLO On-board diagnostics sensor controlled reactive system and methods of use thereof
JP7184539B2 (ja) * 2018-05-24 2022-12-06 スタンレー電気株式会社 点灯制御装置、車両用灯具、および点灯制御方法
CN109131045A (zh) * 2018-09-29 2019-01-04 奇瑞新能源汽车技术有限公司 一种汽车大灯控制系统和方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060227302A1 (en) * 2005-04-11 2006-10-12 Lumileds Lighting U.S., Llc Illuminators using reflective optics with recycling and color mixing
US20080298077A1 (en) * 2007-05-30 2008-12-04 Koito Manufacturing Co., Ltd. Vehicular headlamp
US20100214791A1 (en) * 2006-08-11 2010-08-26 Donnelly Corporation Automatic headlamp control system
US20110205521A1 (en) * 2005-12-19 2011-08-25 Yvan Mimeault Multi-channel led object detection system and method
EP1977929B1 (en) * 2007-04-05 2012-05-16 Jaguar Cars Limited Vehicle headlight beam controls

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001001832A (ja) * 1999-06-15 2001-01-09 Nissan Motor Co Ltd 車両用照明装置
JP2001277938A (ja) * 2000-03-31 2001-10-10 Denso Corp 車両用前照灯光軸方向自動調整装置
JP3964104B2 (ja) * 2000-07-05 2007-08-22 株式会社小糸製作所 車両用前照灯システム
JP4231332B2 (ja) * 2003-05-19 2009-02-25 安全自動車株式会社 ヘッドライトテスタの回転正対方法及び装置
US7012551B2 (en) * 2004-02-04 2006-03-14 Ford Global Technologies, Llc Method of anti-blinding for active night vision system
JP4462231B2 (ja) * 2006-05-09 2010-05-12 株式会社デンソー 車両用オートライト装置
US20080055896A1 (en) * 2006-08-30 2008-03-06 David Charles Feldmeier Systems, devices, components and methods for controllably configuring the color of light emitted by an automotive LED illumination system
US9091903B2 (en) * 2010-07-29 2015-07-28 Logitech Europe S.A. Optimized movable IR filter in cameras
JP5615862B2 (ja) * 2012-03-07 2014-10-29 クラリオン株式会社 車両周囲監視装置
JP5661072B2 (ja) * 2012-07-11 2015-01-28 オムロンオートモーティブエレクトロニクス株式会社 車両用ライト制御装置
JP6347050B2 (ja) * 2013-01-24 2018-06-27 パナソニックIpマネジメント株式会社 固体光源装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060227302A1 (en) * 2005-04-11 2006-10-12 Lumileds Lighting U.S., Llc Illuminators using reflective optics with recycling and color mixing
US20110205521A1 (en) * 2005-12-19 2011-08-25 Yvan Mimeault Multi-channel led object detection system and method
US20100214791A1 (en) * 2006-08-11 2010-08-26 Donnelly Corporation Automatic headlamp control system
EP1977929B1 (en) * 2007-04-05 2012-05-16 Jaguar Cars Limited Vehicle headlight beam controls
US20080298077A1 (en) * 2007-05-30 2008-12-04 Koito Manufacturing Co., Ltd. Vehicular headlamp

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108340829A (zh) * 2017-01-23 2018-07-31 株式会社小糸制作所 照明电路和车辆照明装置
CN108340829B (zh) * 2017-01-23 2021-04-02 株式会社小糸制作所 照明电路和车辆照明装置
CN110809528A (zh) * 2017-06-30 2020-02-18 株式会社电装 车辆用显示装置、拍摄系统以及照明装置
CN110809528B (zh) * 2017-06-30 2022-08-09 株式会社电装 车辆用显示装置、拍摄系统以及照明装置
WO2020192681A1 (zh) * 2019-03-28 2020-10-01 深圳市中光工业技术研究院 一种具有探测功能的照明系统
CN112622745A (zh) * 2020-12-10 2021-04-09 大运汽车股份有限公司 一种车灯智能控制系统及控制方法
CN116476728A (zh) * 2023-04-27 2023-07-25 无锡车联天下信息技术有限公司 一种车辆的车灯调节方法、装置、电子设备及存储介质
CN116476728B (zh) * 2023-04-27 2024-01-19 无锡车联天下信息技术有限公司 一种车辆的车灯调节方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
KR20160018024A (ko) 2016-02-17
KR101637882B1 (ko) 2016-07-08
US10029607B2 (en) 2018-07-24
US20170225611A1 (en) 2017-08-10

Similar Documents

Publication Publication Date Title
WO2016021961A1 (ko) 차량용 헤드램프 구동장치 및 이를 구비한 차량
WO2017039047A1 (ko) 차량 및 그 제어방법
WO2018092989A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2017209313A1 (ko) 차량용 디스플레이 장치 및 차량
WO2017078362A1 (en) Vehicle and method for controlling the vehicle
WO2017150768A1 (ko) 디스플레이 장치 및 이를 포함하는 차량
WO2017003052A1 (ko) 차량 운전 보조 방법 및 차량
WO2018066741A1 (ko) 자동주차 보조장치 및 이를 포함하는 차량
WO2015093828A1 (ko) 스테레오 카메라 및 이를 구비한 차량
WO2017034282A1 (en) Driver assistance apparatus and method for controlling the same
WO2018009038A1 (ko) 차량 운전 보조 장치 및 이를 포함하는 주차 관제 시스템
WO2018012674A1 (en) Driver assistance apparatus and vehicle having the same
WO2017119557A1 (ko) 운전 보조 장치 및 그 제어방법
WO2017022881A1 (ko) 차량 및 그 제어방법
WO2017061653A1 (ko) 음주운전 방지 방법 및 이를 제공하는 차량 보조 장치
WO2020105751A1 (ko) 탑승자 모니터링 방법 및 이를 위한 장치
WO2015099465A1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
WO2017119541A1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
WO2015093823A1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
WO2017104888A1 (ko) 차량 운전 보조장치 및 이의 차량 운전 보조방법
WO2015099463A1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
WO2019108003A1 (ko) 카메라 보정 방법 및 장치
WO2020145441A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020166749A1 (ko) 차량을 이용한 정보 표시 방법 및 시스템
WO2020235714A1 (ko) 자율 주행 차량과 이를 이용한 주행 제어 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15830238

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15502272

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 15830238

Country of ref document: EP

Kind code of ref document: A1