WO2017003052A1 - 차량 운전 보조 방법 및 차량 - Google Patents

차량 운전 보조 방법 및 차량 Download PDF

Info

Publication number
WO2017003052A1
WO2017003052A1 PCT/KR2015/013829 KR2015013829W WO2017003052A1 WO 2017003052 A1 WO2017003052 A1 WO 2017003052A1 KR 2015013829 W KR2015013829 W KR 2015013829W WO 2017003052 A1 WO2017003052 A1 WO 2017003052A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
driver
controller
driving assistance
vehicle driving
Prior art date
Application number
PCT/KR2015/013829
Other languages
English (en)
French (fr)
Inventor
배현주
김정수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/741,119 priority Critical patent/US10800428B2/en
Publication of WO2017003052A1 publication Critical patent/WO2017003052A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • B60W2050/0064Manual parameter input, manual setting means, manual initialising or calibrating means using a remote, e.g. cordless, transmitter or receiver unit, e.g. remote keypad or mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0082Automatic parameter input, automatic initialising or calibrating means for initialising the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems

Definitions

  • the present invention relates to a vehicle driving assistance method and a vehicle.
  • the vehicle is a device for moving in the direction desired by the user on board.
  • An example is a car.
  • ADAS Advanced Driver Assistance System
  • the ADAS according to the prior art is each used individually, and does not apply depending on the type of driver, the driver's state, or the driving environment. In this case, ADAS that is not required by the user is applied, or ADAS is not applied in a necessary situation.
  • an object of the present invention is to provide a vehicle driving assistance method for controlling ADAS step by step or selectively applying ADAS according to a driver's type, driver's state or driving environment.
  • the ADAS function appropriate to the internal situation of the vehicle is provided, thereby increasing convenience.
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • FIG. 2A to 2B are examples of internal block diagrams of the vehicle of FIG. 1.
  • 3 to 5 are flow charts referenced to explain the operation of the vehicle 100, according to an embodiment of the invention.
  • FIG. 6 is an exemplary diagram referred to for explaining an operation of selecting a driver type according to an embodiment of the present invention.
  • FIG. 7 to 9 are exemplary views referred to for describing an operation of detecting a driver state according to an embodiment of the present invention.
  • FIG. 10 is an exemplary diagram referred to for explaining an ADAS control operation according to a surrounding situation according to an embodiment of the present invention.
  • FIG. 11 is a diagram referred to for describing an ADAS function control operation according to a driver type according to an embodiment of the present invention.
  • FIG. 12 is a diagram referred to describe an operation when a driver type is a pregnant woman, according to an exemplary embodiment of the present invention.
  • 13A to 13C are diagrams for describing an operation of outputting an ADAS function operation state according to an embodiment of the present invention.
  • the vehicle described herein may be a concept including an automobile and a motorcycle.
  • a vehicle is mainly described for a vehicle.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, an electric vehicle having an electric motor as a power source, and the like.
  • the left side of the vehicle means the left side of the driving direction of the vehicle
  • the right side of the vehicle means the right side of the driving direction of the vehicle
  • LHD Left Hand Drive
  • RHD right hand drive
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • the vehicle 100 may include wheels 103FR, 103FL, 103RL,... Rotated by a power source, and steering input means 121a for adjusting a traveling direction of the vehicle 100. .
  • the vehicle 100 may include an ADAS 200.
  • Each ADAS 200 may include a plurality of modules that control respective driving assistance functions.
  • the plurality of modules may each include a processor for driving assistance function control.
  • the ADAS 200 may be electrically connected to the controller 170 to exchange data.
  • the ADAS 200 will be described in detail with reference to FIG. 2B.
  • the overall length is the length from the front to the rear of the vehicle 100
  • the width is the width of the vehicle 100
  • the height is the length from the bottom of the wheel to the roof.
  • the full length direction L is a direction in which the full length measurement of the vehicle 100 is a reference
  • the full width direction W is a direction in which the full width measurement of the vehicle 100 is a reference
  • the total height direction H is a vehicle. It may mean a direction that is a reference of the full width measurement of (100).
  • FIG. 2A to 2B are examples of internal block diagrams of the vehicle of FIG. 1.
  • the vehicle 100 includes a communication unit 110, an input unit 120, a sensing unit 125, a memory 130, an output unit 140, a vehicle driver 150, a controller 170,
  • the interface unit 180, the power supply unit 190, and the vehicle driving assistance system 200 may be included.
  • the communication unit 110 may include a short range communication module 113, a location information module 114, an optical communication module 115, and a V2X communication module 116.
  • the short range communication module 113 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • the short range communication module 113 may form short range wireless networks to perform short range communication between the vehicle 100 and at least one external device. For example, the short range communication module 113 may exchange data with the mobile terminal 310 wirelessly.
  • the short range communication module 113 may receive weather information and traffic condition information of a road (for example, a transport protocol expert group (TPEG)) from the mobile terminal 310.
  • TPEG transport protocol expert group
  • the mobile terminal 310 of the user and the vehicle 100 may perform pairing with each other automatically or by executing an application of the user.
  • the location information module 114 is a module for obtaining the location of the vehicle 100, and a representative example thereof is a GPS (Global Positioning System) module.
  • GPS Global Positioning System
  • the vehicle may acquire the position of the vehicle using a signal transmitted from a GPS satellite.
  • the location information module 114 may be a component included in the sensing unit 125, not a component included in the communication unit 110.
  • the optical communication module 115 may include an optical transmitter and an optical receiver.
  • the light receiver may convert the light signal into an electrical signal to receive information.
  • the light receiver may include a photo diode (PD) for receiving light.
  • Photodiodes can convert light into electrical signals.
  • the light receiver may receive information of the front vehicle through the light emitted from the light source included in the front vehicle.
  • the light emitter may include at least one light emitting device for converting an electrical signal into an optical signal.
  • the light emitting element is a light emitting diode (LED).
  • the light emitting unit converts the electric signal into an optical signal and transmits it to the outside.
  • the light transmitting unit may emit an optical signal to the outside through the blinking of the light emitting device corresponding to the predetermined frequency.
  • the light emitting unit may include a plurality of light emitting element arrays.
  • the light emitting unit may be integrated with a lamp provided in the vehicle 100.
  • the light emitting unit may be at least one of a headlight, a taillight, a brake light, a turn signal, and a vehicle width lamp.
  • the optical communication module 115 may exchange data with another vehicle 330 through optical communication.
  • the V2X communication module 116 is a module for performing wireless communication with the server 320 or another vehicle 330.
  • the V2X module 116 includes a module capable of implementing inter-vehicle communication (V2V) or inter-vehicle communication (V2I) protocol.
  • the vehicle 100 may perform wireless communication with the external server 320 and other vehicles 330 through the V2X communication module 116.
  • the input unit 120 may include a driving manipulation unit 121, a camera 122, a microphone 123, and a user input unit 124.
  • the driving operation means 121 receives a user input for driving the vehicle 100.
  • the driving manipulation unit 121 may include a steering input unit 121a, a shift input unit 121b, an acceleration input unit 121c, and a brake input unit 121d.
  • the steering input unit 121a receives an input of a traveling direction of the vehicle 100 from the user.
  • the steering input unit 121a is preferably formed in a wheel shape to enable steering input by rotation.
  • the steering input unit 121a may be formed as a touch screen, a touch pad, or a button.
  • the shift input unit 121b receives an input of parking P, forward D, neutral N, and reverse R of the vehicle 100 from the user.
  • the shift input means 121b is preferably formed in the form of a lever. According to an embodiment, the shift input unit 121b may be formed as a touch screen, a touch pad, or a button.
  • the acceleration input unit 121c receives an input for accelerating the vehicle 100 from the user.
  • the brake input means 121d receives an input for deceleration of the vehicle 100 from the user.
  • the acceleration input means 121c and the brake input means 121d are preferably formed in the form of a pedal.
  • the acceleration input unit 121c or the brake input unit 121d may be formed of a touch screen, a touch pad, or a button.
  • the camera 122 may include an image sensor and an image processing module.
  • the camera 122 may process a still image or a moving image obtained by an image sensor (for example, CMOS or CCD).
  • the image processing module may process the still image or the video obtained through the image sensor, extract necessary information, and transfer the extracted information to the controller 170.
  • the vehicle 100 may include a front camera 122a for capturing a vehicle front image, an around view camera 122b for capturing a vehicle surrounding image, and an internal camera 122c for capturing an interior image of the vehicle.
  • Each camera 122a, 122b, 122c may include a lens, an image sensor, and a processor.
  • the processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the controller 170.
  • the processor included in the camera 122 may be controlled by the controller 170.
  • the processor included in the camera 122 may be, in hardware, application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), Processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • the front camera 122a may include a stereo camera.
  • the processor of the camera 122a may detect the distance to the object, the relative speed to the object detected in the image, and the distance between the plurality of objects using the disparity difference detected in the stereo image. have.
  • the front camera 122a may include a time of flight (TOF) camera.
  • the camera 122 may include a light source (for example, an infrared ray or a laser) and a receiver.
  • the process of the camera 122a is based on the time (TOF) until the infrared or laser light transmitted from the light source is reflected by the object and received, the distance from the object, the relative speed from the object, and the distance between the plurality of objects. Can be detected.
  • TOF time of flight
  • the around view camera 122b may include a plurality of cameras.
  • the plurality of cameras may be arranged on the left side, rear side, right side and front side of the vehicle.
  • the left camera may be disposed in a case surrounding the left side mirror.
  • the left camera may be disposed outside the case surrounding the left side mirror.
  • the left camera may be disposed in one area outside the left front door, the left rear door, or the left fender.
  • the right camera may be disposed in a case surrounding the right side mirror. Alternatively, the right camera may be disposed outside the case surrounding the right side mirror. Alternatively, the right camera may be disposed in one area outside the right front door, the right rear door, or the right fender.
  • the rear camera may be disposed near the rear license plate or the trunk or tail gate switch.
  • the front camera may be arranged near the emblem or near the radiator grille.
  • Each image photographed by the plurality of cameras is transferred to the processor of the camera 122b, and the processor may synthesize the respective images to generate a vehicle surrounding image.
  • the vehicle surrounding image may be displayed through the display unit 141 as a top view image or a bird eye image.
  • the internal camera 122c may photograph the interior of the vehicle 100.
  • the internal camera 122c may acquire an image of the occupant.
  • the processor of the internal camera 122c may acquire an image of the occupant in the vehicle 100 and detect how many occupants are occupied and in which position the occupant is occupied. For example, the internal camera 122c may detect the boarding position and the boarding position of the passenger.
  • the internal camera 122c may acquire an image for biometrics of the occupant.
  • the processor of the internal camera 122c may check the ID of the passenger based on the face image of the passenger.
  • the processor of the internal camera 122c may detect the type of the occupant based on the image of the occupant. For example, the processor of the internal camera 122c may detect whether the type of driver is an elderly person, a disabled person, or a pregnant woman through a predetermined image processing algorithm.
  • the microphone 123 may process an external sound signal into electrical data.
  • the processed data may be utilized in various ways depending on the function being performed in the vehicle 100.
  • the microphone 123 may convert a user's voice command into electrical data.
  • the converted electrical data may be transferred to the controller 170.
  • the camera 122 or the microphone 123 may be a component included in the sensing unit 125, not a component included in the input unit 120.
  • the user input unit 124 is for receiving information from the user. When information is input through the user input unit 124, the controller 170 may control an operation of the vehicle 100 to correspond to the input information.
  • the user input unit 124 may include a touch input means or a mechanical input means. According to an embodiment, the user input unit 124 may be disposed in one region of the steering wheel. In this case, the driver may manipulate the user input unit 124 with a finger while holding the steering wheel.
  • the sensing unit 125 senses various situations of the vehicle 100.
  • the sensing unit 125 may include a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, a gyro sensor.
  • the sensing unit 125 includes vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, and battery information.
  • the sensing signal may be acquired about fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, and vehicle external illumination.
  • the sensing unit 125 may further include an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake temperature sensor (ATS), a water temperature sensor (WTS), and a throttle.
  • the sensor may further include a position sensor TPS, a TDC sensor, a crank angle sensor CAS, and the like.
  • the location information module 114 may be classified as a lower component of the sensing unit 125.
  • the camera 122 may be classified as a subcomponent of the sensing unit 125.
  • the memory 130 is electrically connected to the controller 170.
  • the memory 130 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 130 may be various storage devices such as a ROM, a RAM, an EPROM, a flash drive, a hard drive, and the like, in hardware.
  • the memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or controlling the controller 170.
  • the output unit 140 outputs the information processed by the controller 170 and may include a display unit 141, a sound output unit 142, and a haptic output unit 143.
  • the display unit 141 may display information processed by the controller 170.
  • the display unit 141 may display vehicle related information.
  • the vehicle related information may include vehicle control information for direct control of the vehicle, or vehicle driving assistance information for driving guide to the vehicle driver.
  • the vehicle related information may include vehicle state information indicating a current state of a vehicle or vehicle driving information related to driving of the vehicle.
  • the display unit 141 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display, a 3D display, or an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • display a 3D display, or an e-ink display.
  • the display unit 141 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen.
  • the touch screen may function as a user input unit 724 that provides an input interface between the vehicle 100 and the user, and may provide an output interface between the vehicle 100 and the user.
  • the display unit 141 may include a touch sensor that senses a touch on the display unit 141 so as to receive a control command by a touch method. Using this, when a touch is made to the display unit 141, the touch sensor may sense the touch, and the controller 170 may generate a control command corresponding to the touch based on the touch sensor.
  • the content input by the touch method may be letters or numbers or menu items that can be indicated or designated in various modes.
  • the display unit 141 may include a cluster so that the driver can check the vehicle status information or the vehicle driving information while driving.
  • the cluster can be located on the dashboard. In this case, the driver can check the information displayed on the cluster while keeping the gaze in front of the vehicle.
  • the display unit 141 may be implemented as a head up display (HUD).
  • HUD head up display
  • information may be output through a transparent display provided in the wind shield.
  • the display unit 141 may include a projection module to output information through an image projected on the wind shield.
  • the display unit 141 may include a transparent display.
  • the transparent display may be attached to the wind shield.
  • the transparent display may display a predetermined screen while having a predetermined transparency.
  • Transparent display in order to have transparency, transparent display is transparent thin film elecroluminescent (TFEL), transparent organic light-emitting diode (OLED), transparent liquid crystal display (LCD), transmissive transparent display, transparent light emitting diode (LED) display It may include at least one of. The transparency of the transparent display can be adjusted.
  • the sound output unit 142 converts the electric signal from the control unit 170 into an audio signal and outputs the audio signal. To this end, the sound output unit 142 may be provided with a speaker. The sound output unit 142 may output a sound corresponding to the operation of the user input unit 724.
  • the haptic output unit 143 generates a tactile output.
  • the haptic output unit 143 may operate by vibrating the steering wheel, the seat belt, and the seat so that the user can recognize the output.
  • the vehicle driver 150 may control operations of various vehicles.
  • the vehicle driver 150 includes a power source driver 151, a steering driver 152, a brake driver 153, a lamp driver 154, an air conditioning driver 155, a window driver 156, an airbag driver 157, and a sunroof.
  • the driver 158 and the suspension driver 159 may be included.
  • the power source driver 151 may perform electronic control of the power source in the vehicle 100.
  • the power source driver 151 may perform electronic control of the engine. Thereby, the output torque of an engine, etc. can be controlled.
  • the power source driver 151 is the engine, the speed of the vehicle may be limited by limiting the engine output torque under the control of the controller 170.
  • the power source driver 151 may control the motor. Thereby, the rotation speed, torque, etc. of a motor can be controlled.
  • the steering driver 152 may perform electronic control of a steering apparatus in the vehicle 100. As a result, the traveling direction of the vehicle can be changed.
  • the brake driver 153 may perform electronic control of a brake apparatus (not shown) in the vehicle 100.
  • the speed of the vehicle 100 may be reduced by controlling the operation of the brake disposed on the wheel.
  • the traveling direction of the vehicle 100 may be adjusted to the left or the right.
  • the lamp driver 154 may control turn on / turn off of a lamp disposed in or outside the vehicle. In addition, it is possible to control the intensity, direction, etc. of the light of the lamp. For example, control of a direction indicator lamp, a brake lamp, and the like can be performed.
  • the air conditioning driver 155 may perform electronic control of an air cinditioner (not shown) in the vehicle 100. For example, when the temperature inside the vehicle is high, the air conditioner may be operated to control cold air to be supplied into the vehicle.
  • the window driver 156 may perform electronic control on a window apparatus in the vehicle 100. For example, the opening or closing of the left and right windows of the side of the vehicle can be controlled.
  • the airbag driver 157 may perform electronic control of an airbag apparatus in the vehicle 100. For example, in case of danger, the airbag can be controlled to burst.
  • the sunroof driver 158 may perform electronic control of a sunroof apparatus (not shown) in the vehicle 100. For example, the opening or closing of the sunroof can be controlled.
  • the suspension driver 159 may perform electronic control of a suspension apparatus (not shown) in the vehicle 100. For example, when there is a curvature on the road surface, the suspension device may be controlled to control the vibration of the vehicle 100 to be reduced.
  • the controller 170 may control the overall operation of each unit in the vehicle 100.
  • the controller 170 may be referred to as an electronic control unit (ECU).
  • ECU electronice control unit
  • the controller 170 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors ( It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • the interface unit 180 may serve as a path to various types of external devices connected to the vehicle 100.
  • the interface unit 180 may include a port connectable with the mobile terminal 310, and may connect with the mobile terminal 310 through the port. In this case, the interface unit 180 may exchange data with the mobile terminal 310.
  • the interface unit 180 may serve as a path for supplying electrical energy to the connected mobile terminal 310.
  • the interface unit 180 provides the mobile terminal 310 with electrical energy supplied from the power supply unit 190. do.
  • the power supply unit 190 may supply power required for the operation of each component under the control of the controller 170.
  • the power supply unit 170 may receive power from a battery (not shown) in the vehicle.
  • ADAS Advanced Driver Assistance System 200 is a system that assists the driver to provide convenience and safety.
  • the ADAS 200 includes an automatic emergency braking module (hereinafter referred to as AEB: Autonomous Emergency Braking (210)), a forward collision avoidance module (hereinafter referred to as FCW: Foward Collision Warning) 211, a lane departure warning module (hereinafter referred to as LDW: Lane).
  • AEB Autonomous Emergency Braking (210)
  • FCW Forward collision avoidance module
  • LDW Lane departure warning module
  • HBA High Beam Assist
  • BSD blind spot detection
  • AES Autonomous Emergency Steering
  • CSWS Curve Speed Warning System
  • ACC Adaptive Forward Control Module
  • SPAS Smart Parking Assist System
  • TJA Traffic Jam Assist
  • DE view monitor module may include (hereinafter, AVM Around View Monitor) (223).
  • Each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may include a processor for controlling a vehicle driving assistance function.
  • the processor included in each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may be controlled by the controller 170. .
  • Each ADAS module (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) is a hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, microprocessors ( microprocessors) and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors controllers, micro-controllers, microprocessors ( microprocessors) and electrical units for performing other functions.
  • the AEB 210 is a module that controls automatic braking to prevent collision with the detected object.
  • the FCW 211 is a module that controls the warning to be output in order to prevent a collision with the vehicle front object.
  • the LDW 212 is a module that controls a warning to be output to prevent lane departure during driving.
  • the LKA 213 is a module that controls the vehicle to maintain a traveling lane while driving.
  • the SAS 214 is a module which controls to travel below a set speed.
  • the TSR 215 is a module that detects a traffic signal while driving and provides information based on the detected traffic signal.
  • the HBA 216 is a module that controls the irradiation range or the irradiation amount of the upward lamp according to the driving situation.
  • the BSD 217 is a module that detects an object outside the driver's field of view and provides detection information while driving.
  • AES 218 is a module that automatically performs emergency steering.
  • the CSWS 219 is a module that controls to output a route when driving at a speed higher than a predetermined speed during curve driving.
  • the ACC 220 is a module that controls the vehicle to follow the preceding vehicle.
  • SPAS 221 is a module which detects a parking space and controls it to park in a parking space.
  • the TJA 222 is a module for controlling the vehicle to automatically operate when the traffic is congested.
  • the AVM 223 is a module that provides a vehicle surrounding image and controls to monitor the vehicle surroundings.
  • the ADAS 200 provides a control signal to the output unit 140 or the vehicle driver 150 to perform each vehicle driving assistance function based on the data obtained by the input unit 120 or the sensing unit 125. can do.
  • the ADAS 200 may directly output the control signal to the output unit 140 or the vehicle driver 150 through in-vehicle network communication (eg, CAN). Alternatively, the ADAS 200 may output the control signal to the output unit 140 or the vehicle driver 150 via the control unit 170.
  • in-vehicle network communication eg, CAN
  • the ADAS 200 may output the control signal to the output unit 140 or the vehicle driver 150 via the control unit 170.
  • 3 to 5 are flow charts referenced to explain the operation of the vehicle 100, according to an embodiment of the invention.
  • the controller 170 may select a driver type (S310).
  • the type of driver may be classified according to the driving skill of the driver or according to the physical characteristics of the driver.
  • the type of driver may be divided into a beginner, an intermediate person, and an expert according to the driving skill.
  • the type of driver may be classified into an elderly person, a disabled person and a pregnant woman according to the physical characteristics of the driver.
  • the type of driver may be selected according to the user input.
  • the controller 170 may select a driver type according to an input signal received by the input unit 120.
  • the controller 170 may control the vehicle driving assistance function according to a default setting.
  • the default setting is a setting at the time of manufacturing the vehicle 100, and may be on, off, or step setting of each function of the ADAS 200.
  • the driver's type may be selected based on data previously stored in the memory 130.
  • the driver's driving proficiency may be selected through data previously stored in the memory 130 matching with the identified driver's ID.
  • the means for confirming the driver's ID may be a means for confirming the ID by reading the driver's unique biometric information.
  • the ID verification means may include iris recognition means, fingerprint recognition means, and voice recognition means.
  • the memory 130 may accumulate and store a driver's driving pattern.
  • the controller 170 may select the driver type according to the driving proficiency based on the driving pattern of the driver whose ID is confirmed among the stored driving patterns.
  • the type of driver may be selected based on the image of the driver obtained by the internal camera 122c.
  • the controller 170 may select a driver type according to a physical feature based on the feature points detected in the driver's image acquired by the internal camera 122c.
  • the controller 170 may detect a state of the driver (S320).
  • the driver's condition may be detected through analysis of a driver's image captured by the internal camera 122c.
  • the processor of the internal camera 122c may detect the driver in the captured vehicle interior image, and analyze the detected driver's motion or face image to check the driver's state.
  • the controller 170 may receive a vehicle interior image photographed by the internal camera 122c, detect a driver, analyze the detected driver's motion or face image, and confirm the driver's state.
  • the driver's condition may be detected through driving pattern analysis.
  • the controller 170 may analyze the driving pattern of the driver based on the sensing information received from the sensing unit 125. The controller 170 may check the driver state through the analyzed driving pattern.
  • the controller 170 may detect a passenger.
  • the passenger may be detected through analysis of a passenger image photographed through the internal camera 122c.
  • the processor of the internal camera 122c may detect whether the passenger is a passenger and a boarding position in the captured vehicle interior image.
  • the controller 170 may receive a vehicle interior image photographed by the internal camera 122c to detect whether the passenger is a passenger and a boarding position.
  • the controller 170 may detect a surrounding situation (S330).
  • the controller 170 may detect the surrounding situation through the sensing unit 125.
  • the surrounding situation may be detected through image analysis of an image captured by the front camera 122a or the around view camera 122b.
  • the surrounding situation may be sensed through image processing in the processor of the front camera 122a or the processor of the around view camera 122b.
  • the surrounding situation may be detected by processing an image received from the front camera 122a or the around view camera 122b by the controller 170.
  • the surrounding situation may be an object, a driving road, an illuminance, or a weather situation located near the vehicle 100.
  • the controller 170 may control the ADAS 200 based on at least one of the driver type, the driver condition and the surrounding condition (S340). .
  • the controller 170 may control the at least one ADAS 200 step by step according to any one of the selected driver type, the detected driver condition, the vehicle surroundings, and the detected passenger.
  • the controller 170 may control the AEB 210 function in three steps.
  • the controller 170 may control the AEB 210 in three steps based on the remaining distance from the detected object after the emergency braking.
  • the controller 170 may perform emergency braking so that the distance to the front object is maintained by the first distance.
  • the controller 170 may perform emergency braking so that the distance between the front object and the second object is maintained.
  • the controller 170 may perform emergency braking so that the distance between the front object and the third object is maintained.
  • the controller 170 may selectively control the functions of the plurality of ADAS 200 according to the selected driver type and the detected driver state.
  • the controller 170 may include the AEB 210, the FCW 211, the LDW 212, the LKA 213, the SAS 214, the HBA 216, and the BSD 217. ),
  • the function of the AES 218 is off and can be selectively controlled such that the function of the TSR 215 is on.
  • the controller 170 may control a function of the ADAS 200 according to whether the passenger is boarded and the boarding position. For example, when a passenger rides in the rear seat of the passenger seat, the controller 170 may selectively control the function of the ADAS 200 so that driving around the riding comfort can be performed. For example, in this case, the controller 170 sets a time to collision (TTC), which is an operating condition of the AEB 210 or the FCW 211, as the first time, and performs braking before the general situation when the object is detected. It can be controlled to give smooth braking.
  • TTC time to collision
  • the controller 170 may control all functions of the ADAS 200 to be turned on.
  • the controller 170 may control all the functions of the ADAS 200 to be turned on.
  • driving is inconvenient, and it may be insufficient to cope with a predetermined situation.
  • by controlling all the functions of the ADAS 200 (on) there is an effect of inducing a comfortable and safe operation.
  • the controller 170 may control the braking function to be turned off among the functions of the ADAS 200.
  • the controller 170 may control the functions of the AEB 210, the FCW 211, and the SAS 214 that are suddenly braked among the ADAS 200 to be turned off.
  • controller 170 may control the function of the ADAS 200 according to the detected illuminance or the weather.
  • the controller 170 may control some functions of the ADAS 200 to be always on regardless of the driver type, the driver's state, or the situation around the vehicle. For example, the controller 170 may control the TSR 215 to be on while running.
  • the controller 170 may control the detected driver state more preferentially than the selected driver type as a control condition.
  • the controller 170 may preferentially control the ADAS 200 according to the driver's drowsiness rather than the ADAS 200 control according to the expert.
  • the controller 170 may enter the autonomous driving mode based on at least one of a driver type, a driver state, and a surrounding situation.
  • the controller 170 may output the ADAS function operation state through the output unit 140 or the lamp driver 154 (S350).
  • the controller 170 may display a function of the ADAS 200 through the display 141. In this case, the controller 170 may display whether the function of the ADAS 200 is operated through the HUD or the transparent display.
  • the controller 170 may output a function operated among the ADAS 200 through the sound output unit 142. In this case, the controller 170 may output whether the function of the ADAS 200 is operated as a voice or a warning sound.
  • the controller 170 may output a function operated among the ADAS 200 through the haptic output unit 143. In this case, the controller 170 may output whether the function of the ADAS 200 is operated by the steering wheel, the seat or the seat belt vibration.
  • the controller 170 may transmit the driver state or the ADAS function operation state to another device (S360).
  • the driver state is a driver state detected in step S320.
  • the controller 170 may transmit the driver state or the ADAS function operation state to the mobile terminal 310, the server 320, and the other vehicle 320 through the communication unit 110.
  • the server 320 may be a server for controlling traffic.
  • the other vehicle 320 may be a vehicle that is driving around the vehicle 100.
  • the controller 170 may transmit the operation state of the AEB 210 to the following other vehicle 320 through the optical communication module 115 or the V2X communication module 116.
  • the controller 170 may transmit the operation state of the AEB 210 to the trailing vehicle, there is an effect that can secure the time that the trailing vehicle can prepare for an accident.
  • 4 to 5 are flowcharts for describing detailed operations of steps S350 and S360 of FIG. 3 according to an exemplary embodiment of the present invention.
  • the controller 170 may control the vehicle driving assistance function according to the situation around the vehicle.
  • the surrounding situation may be a moving line, a driving road, an illuminance, or the weather of an object around the vehicle 100.
  • the controller 170 may detect an object around a vehicle (S410).
  • the controller 170 may detect an object from an image acquired through the front camera 122a or the around view camera 122b.
  • the object may be an obstacle that may cause an accident such as a surrounding vehicle, a pedestrian, a motorcycle, a structure, and the like.
  • controller 170 may detect the distance or the relative speed with the object by using the above-described disparity difference or TOF.
  • the controller 170 may analyze the moving line of the object (S420). For example, the controller 170 may analyze whether the object approaches the vehicle 100 or how fast the object approaches.
  • the control unit 170 may determine whether the object is a risk factor based on the result of the moving line analysis of the object (S430).
  • the determination as to whether the risk factor may be determined based on at least one of the position of the object, the change of the movement of the object, the distance to the object and the relative speed.
  • the controller 170 may control the ADAS 200 by further considering the object in consideration of the type and driver state of the driver (S440).
  • the controller 170 may control the ADAS 200 without considering the object (S450).
  • steps S410 to S430 are described as being performed by the controller 170, but the present disclosure is not limited thereto, and the operation may be performed by the processor of the camera 122.
  • steps S410 to S430 may be included in step S330 of FIG. 3. Also, steps S440 to S450 may be included in step S340 of FIG. 3.
  • the controller 170 may detect a driving road (S510).
  • the controller 170 may detect the driving road from the image acquired through the front camera 122a or the around view camera 122b.
  • the controller 170 may determine whether the driving road is a high speed road or a general road (S530).
  • the controller 170 may determine whether the road on which the vehicle 100 is driving is a highway, based on at least one of a toll gate, a pedestrian, a two-wheeled vehicle, a roadside tree, a road sign, a speed display traffic sign, and road marking information. Can be determined.
  • the controller 170 may control the ADAS 200 to be suitable for the highway (S540).
  • the controller 170 may turn on the lane keeping, the speed keeping, and the related vehicle following ADAS 200 function.
  • the controller 170 may turn on the LDW 212, the LKA 213, the SAS 214, the CSWS 219, and the ACC 220.
  • the controller 170 may adjust the stage of the provision-related ADAS 200 function.
  • the controller 170 may adjust the distance between the AEB 210 and the object, which is a condition braked by the FCW 211, to be longer.
  • the controller 170 may control the ADAS 200 to be suitable for the general road (S550).
  • the controller 170 may turn off the lane keeping related ADAS 200 function. Specifically, the controller 170 may turn off the LDW 212 and the LKA 213. Accordingly, when driving on a general road, left turn and right turn are frequently performed, and lane change occurs, and an inconvenience that an alarm sounds or a lane keeping control is performed unnecessarily can be eliminated.
  • the controller 170 may turn on a driving related ADAS 200 function when the traffic is congested.
  • the controller 170 may turn on the TJA 222. Accordingly, there is an effect that can provide convenience to the driver even when the traffic jams due to traffic lights.
  • steps S510 to S530 are described as being performed by the controller 170, but the present disclosure is not limited thereto, and the operation may be performed by the processor of the camera 122.
  • steps S510 to S530 may be included in step S330 of FIG. 3.
  • steps S540 to S550 may be included in step S340 of FIG. 3.
  • FIG. 6 is an exemplary diagram referred to for explaining an operation of selecting a driver type according to an embodiment of the present invention.
  • the display unit 141 may display a driver type selection screen.
  • the driver type may be classified according to driving skill or physical characteristics.
  • the display unit 141 may display a screen for selecting any one of the beginner 611, the intermediate 612, and the expert 613. According to the user input, one of the beginner 611, the intermediate person 612, and the skilled person 613 may be selected.
  • the display unit 141 may display a screen for selecting any one of the elderly 621, the disabled 622, and the pregnant woman 623. According to the user input, one of the elderly 621, the disabled 622, and the pregnant woman 623 may be selected.
  • FIG. 7 to 9 are exemplary views referred to for describing an operation of detecting a driver state according to an embodiment of the present invention.
  • the internal camera 122c may take a vehicle interior image.
  • the processor of the internal camera 122c may detect the driver 710 in the vehicle interior image, and analyze the motion or face image of the detected driver 710 to check the driver 710 state. Thereafter, the controller 170 may receive driver state information from the internal camera 122c.
  • the controller 170 may receive a vehicle interior image from the internal camera 122c, detect the driver 710, analyze the motion or face image of the detected driver 710, and confirm the driver state. .
  • the processor 122c of the internal camera may detect whether the passenger 720 is boarded and a boarding position in the vehicle interior image.
  • the controller 170 may receive information on whether the passenger 720 is boarded and the boarding position.
  • the controller 170 may receive a vehicle interior image from the internal camera 122c and detect whether the passenger 720 is boarded and a boarding position.
  • the processor or the controller 170 of the internal camera 122c may detect the head 810 of the driver and track the detected head 810.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as drowsy.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as a negligence. have.
  • the processor or the controller 170 of the internal camera 122c may detect the driver's eye 820 and track the detected eye 820.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as drowsy.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as drowsy.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as a negligence.
  • the processor or the controller 170 of the internal camera 122c may detect the mouth 830 of the driver and track the detected mouth 830.
  • the processor or the controller 170 of the internal camera 122c may determine the driver's state as drowsy.
  • the controller 170 may determine the driver's state based on the driver's driving pattern or driving habit.
  • the controller 170 may perform driver authentication through the biometric information of the driver when the driver boards the vehicle.
  • the sensing unit 125 of the vehicle 100 may further include a biometric information detecting unit (not shown) for detecting biometric information.
  • the biometric information detecting unit detects and acquires biometric information of the driver.
  • Biometric information includes fingerprint information, iris-scan information, retina-scan information, hand geo-metry information, facial recognition information, voice recognition ( Voice recognition) information.
  • the biometric information detecting unit may include a sensor for sensing the biometric information of the occupant.
  • the camera 122 and the microphone 123 may operate as a sensor.
  • the biometric information detecting unit may acquire hand shape information and face recognition information through the internal camera 122c.
  • the biometric information detecting unit may obtain voice recognition information through the microphone 123.
  • the biometric information detecting unit may further include a fingerprint scanner, an iris scanner, or a retina scanner to obtain fingerprint information, iris recognition information, or retina recognition information of a passenger.
  • the controller 170 may store the driver's driving habits or driving patterns after driver authentication is performed.
  • the controller 170 may store a control habit or pattern of the driver's driving operation means 121.
  • the controller 170 may store in the memory 130 a degree of depressing the brake pedal at the time of deceleration, a habit of stepping on the brake at the time of depressing the brake, an RPM maintenance degree at the acceleration, or a degree of depressing the accelerator pedal.
  • the controller 170 authenticates the driver through a biometric information detection unit (not shown). Thereafter, the controller 170 may detect the driver's state by comparing the driver's driving habit or driving pattern with the driving habit or driving pattern stored in the memory 130.
  • the controller 170 may determine the driver's state as drowsy.
  • the controller 170 may determine the driver's state based on the driver's steering. When the driving lane is recognized through the front camera 122a or the around view camera 122b and the driving lane is out of the driving lane more than a predetermined number of times by the driver's steering operation, the controller 170 drowsies the driver's state. Or you can judge by neglect.
  • the controller 170 may determine the driver's state as drowsiness or negligence.
  • the detection of unstable steering may be detected through the steering sensor.
  • the controller 170 may determine the driver's state based on the driver's driving condition.
  • the controller 170 may determine the driver's state as drowsiness or negligence.
  • the controller 170 may determine the driver's state as drowsiness or negligence.
  • the controller 170 may determine the driver's state as drowsiness or negligence.
  • FIG. 10 is an exemplary diagram referred to for explaining an ADAS control operation according to a surrounding situation according to an embodiment of the present invention.
  • the controller 170 may control an ADAS function according to a vehicle surrounding situation.
  • the surrounding situation may be a moving line, a driving road, an illuminance, or the weather of an object around a vehicle.
  • the controller 170 may detect the objects 1010 and 1011 around the vehicle through the sensing unit 125.
  • a front sensor 122a, an around view camera 122b, a radar, a rider, an ultrasonic sensor, and the like may be used as the detection sensor.
  • the object may be an obstacle that may cause an accident such as a surrounding vehicle, a pedestrian, a motorcycle, a structure, and the like.
  • the controller 170 may analyze the moving lines of the objects 1010 and 1011. In detail, the controller 170 may analyze whether the objects 1010 and 1011 approach the vehicle 100 or how fast.
  • the controller 170 determines whether the objects 1010 and 1011 are risk factors based on at least one of a position of the object, a change in the movement of the objects 1010 and 1011, a distance from the objects 1010 and 1011, and a relative speed. You can judge.
  • the controller 170 may control the ADAS 200 by further considering the objects 1010 and 1011 in consideration of the type and driver state of the driver. .
  • the controller 170 may switch at least one function of the AEB 210, the FCW 211, the SAS 214, and the BSD 217 to an on state.
  • the controller 170 may detect the driving road 1020 through the sensing unit 125.
  • the detection sensor the front camera 122a and the around view camera 122b may be used.
  • the TSR 215 may be used among the functions of the ADAS 200 to detect the driving road 1020.
  • the controller 170 may determine whether the road on which the vehicle 100 is driving is a highway, based on at least one of a toll gate, a pedestrian, a two-wheeled vehicle, a roadside tree, a road sign, a speed display traffic sign, and road marking information. Can be determined.
  • the controller 170 may turn on the lane keeping, the speed keeping, and the preceding vehicle following ADAS 200 function.
  • the controller 170 may turn on the LDW 212, the LKA 213, the SAS 214, the CSWS 219, and the ACC 220.
  • the controller 170 may adjust the stage of the provision-related ADAS 200 function.
  • the controller 170 may adjust the distance between the AEB 210 and the object, which is a condition braked by the FCW 211, to be longer.
  • the controller 170 may turn off the lane keeping related ADAS 200 function. Specifically, the controller 170 may turn off the LDW 212 and the LKA 213. Accordingly, when driving on a general road, left turn and right turn are frequently performed, and lane change occurs, and an inconvenience that an alarm sounds or a lane keeping control is performed unnecessarily can be eliminated.
  • the controller 170 may turn on a driving related ADAS 200 function when the traffic is congested.
  • the controller 170 may turn on the TJA 222. Accordingly, there is an effect that can provide convenience to the driver even when the traffic jams due to traffic lights.
  • the controller 170 may detect the illuminance or the weather through the sensing unit 125.
  • the controller 170 may control the function of the ADAS 200 based on the detected illuminance or the weather.
  • control unit 170 includes the AEB 210, the FCW 211, the LDW 212, the LKA 213, and the SAS. 214, the HBA 216, the BSD 217, the AES 218, and the CSWS 219 may be controlled to be turned on.
  • the controller 170 may adjust the distance from the AEB 210 to an object that is a braking condition.
  • FIG. 11 is a diagram referred to for describing an ADAS function control operation according to a driver type according to an embodiment of the present invention.
  • the controller 170 may control the AEB 210, the FCW 211, the TSR 215, and the AES 218 functions to be turned on.
  • the controller 170 may control the LDW 212, the LKA 213, and the BSD 217 to be maintained in a state at the engine off after the previous driving is completed.
  • the controller 170 may control the functions of the SAS 214 and the HBA 216 to be turned off.
  • the controller 170 sets the AEB 210 and the FCW 211 to the first level, and the LDW 212, the LKA 213, the SAS 214, and the TSR.
  • the 215, HBA 216, BSD 217, and AES 218 functions may be controlled to be on.
  • stepwise control of the AEB 210 and the FCW 211 may be performed based on the remaining distance with the front object detected when the AEB 210 and the FCW 211 are completely stopped due to braking.
  • control unit 170 sets the AEB 210 and the FCW 211 to the second level, and functions the LDW 212, the LKA 213, the TSR 215, and the BSD 217. Can be controlled to be on. In addition, the controller 170 may control the SAS 214 and the HBA 216 to be off.
  • the controller 170 may control the AEB 210 and the FCW 211 to be set to a third level, and the TSR 215 function is turned on. In addition, the controller 170 may control the LDW 212, the LKA 213, the SAS 214, the HBA 216, the BSD 217, and the AES 218 functions to be turned off.
  • the controller 170 controls the LDW 212, LKA 213, TSR 215, HBA 216, BSD 217, and AES 218 to be turned on. can do.
  • the controller 170 may control the AEB 210, the FCW 211, and the SAS 214 functions that may cause emergency braking to be turned off.
  • the controller 170 may perform on-off setting and step setting of each ADAS 200 function according to the received user input.
  • control of the ADAS function described with reference to FIG. 11 is merely an embodiment, and the ADAS function may be variously controlled for each condition.
  • FIG. 12 is a diagram referred to describe an operation when a driver type is a pregnant woman, according to an exemplary embodiment of the present invention.
  • the controller 170 may select the driver type as the pregnant woman 1210 according to a user input.
  • the controller 170 is paired with the wearable device 1220 worn by the pregnant woman 1210 through the short range communication module 113. In this case, the controller 170 may receive the biometric information of the pregnant woman detected by the wearable device 1220.
  • controller 170 may control the ADAS 200 function suitable for the pregnant woman to be turned on.
  • the controller 170 may transmit the biometric information of the pregnant woman to the external server 320 through the V2X communication module 116.
  • the external server 320 may be a server located in the hospital.
  • the controller 170 may receive the visit recommendation information from the external server 320.
  • the external server 320 may automatically perform a visit to the pregnant woman 1210.
  • the controller 170 may receive a user input regarding whether to visit a hospital.
  • the controller 170 may set the hospital 1240 as a new destination and control the vehicle to travel.
  • the controller 170 may switch to the autonomous driving mode. At this time, the controller 170 may maintain the function of the ADAS 200 suitable for a pregnant woman.
  • the controller 170 may control to travel toward the preset destination.
  • the controller 170 may control to set a nearby parking lot and a rest area as a new destination and to drive. If a constantly abnormal biosignal is received from the wearable device 1220, the controller 170 may set the hospital 1240 as a new destination and control the vehicle to travel.
  • 13A to 13C are diagrams for describing an operation of outputting an ADAS function operation state according to an embodiment of the present invention.
  • the controller 170 may output the driver so as to recognize that the ADAS 200 is in an on state.
  • the controller 170 may display icons 1310, 1311, 1312, and 1313 corresponding to each ADAS function on the display 141 to display an ADAS function on state.
  • the controller 170 may display texts 1320, 1321, 1322, and 1323 on the display unit 141 to display an ADAS function on state.
  • the controller 170 may output an ADAS function that is controlled stepwise or selectively controlled according to the selection so that the driver can recognize the driver.
  • the controller 170 may display the driver type 1330.
  • the controller 170 may display information on the ADAS functions 1331, 1332, 1333, and 1334, which are sequentially controlled or selectively controlled according to the driver type selection.
  • the controller 170 may display the driver's state or the surrounding situation in addition to the driver type.
  • the controller 170 may display an ADAS on or off state according to the driver's state or surrounding conditions.
  • the controller 170 may output an output scheme differently according to an ADAS function.
  • the controller 170 may output the control status of each of the plurality of ADAS through the display unit 141, the sound output unit 142, the haptic output unit 143, or the lamp driver 154.
  • the controller 170 may output respective ADAS control situations by varying the vibration intensity, the vibration pattern, or the vibration holding time.
  • the controller 170 may continuously output the dangerous situation until the dangerous situation is released. On the other hand, through the output by the lamp driver 154, it is possible to visually transmit the situation information to the other vehicle.
  • the control unit 170 may output information by converting the information into voice through the sound output unit 142.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes the implementation in the form of a carrier wave (eg, transmission over the Internet).
  • the computer may include a controller 170. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

본 발명은 운전자 유형을 선택하는 단계; 상기 운전자 상태를 감지하는 단계; 및 상기 선택된 운전자 유형 및 상기 감지된 운전자 상태에 따라, 적어도 하나의 차량 운전 보조 기능을 단계적으로 제어하거나 복수의 차량 운전 보조 기능을 선별적으로 제어하는 단계;를 포함하는 차량 운전 보조 방법에 관한 것이다.

Description

차량 운전 보조 방법 및 차량
본 발명은 차량 운전 보조 방법 및 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.
최근, 다양한 차량 운전 보조 시스템(이하, ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어 지고 있다. ADAS 중 일부는 양산차에 적용되기도 한다.
한편, 종래 기술에 따른 ADAS는 각각이 개별적으로 이용되고 있을 뿐, 운전자의 유형, 운전자의 상태, 또는 주행 환경에 따라 적용되지 않는다. 이경우, 사용자가 요구하지 않은 ADAS가 적용되거나, 꼭 필요한 상황에서 ADAS가 적용되지 않는 문제점이 발생한다.
본 발명은 상기한 문제점을 해결하기 위하여, 운전자의 유형, 운전자의 상태 또는 주행 환경에 따라, ADAS를 단계적으로 제어하거나, ADAS를 선별적으로 적용하는 차량 운전 보조 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따라, 운전자 유형을 선택하는 단계; 상기 운전자 상태를 감지하는 단계; 및 상기 선택된 운전자 유형 및 상기 감지된 운전자 상태에 따라, 적어도 하나의 차량 운전 보조 기능을 단계적으로 제어하거나 복수의 차량 운전 보조 기능을 선별적으로 제어하는 단계;를 포함하는 차량 운전 보조 방법을 제공한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 운전자 유형 및 운전자 상태에 따라, 별도의 설정 없이도, 차량 운전 보조 기능을 적응적으로 제공함으로써, 사용자 편의성 및 주행 안전성이 확보되는 효과가 있다.
둘째, 주변 상황에 따라, 차량 운전 보조 기능을 적응적으로 제공함으로써, 안전 운행을 가능하게 하는 효과가 있다.
셋째, 동승자 감지에 따라, 차량 운전 보조 기능을 적응적으로 제공함으로써, 차량 내부 상황에 적절한 ADAS 기능을 제공하여, 편의성이 증대되는 효과가 있다.
넷째, 운전자가 노인, 장애인, 임신부인 경우, 각각의 운전자에게 특화된 ADAS 기능을 제공함으로써, 특수 상황에 적절한 편의를 제공할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2 a 내지 도 2b는 도 1의 차량의 내부 블록도의 일예이다.
도 3 내지 도 5는 본 발명의 실시예에 따른, 차량(100)의 동작을 설명하는데 참조되는 플로우 차트이다.
도 6은 본 발명의 실시예에 따라, 운전자 유형을 선택하는 동작을 설명하는데 참조되는 예시도이다.
도 7 내지 도 9는 본 발명의 실시예에 따라, 운전자 상태를 감지하는 동작을 설명하는데 참조되는 예시도이다.
도 10은 본 발명의 실시예에 따라, 주변 상황에 따른 ADAS 제어 동작을 설명하는데 참조되는 예시도이다.
도 11은 본 발명의 실시예에 따라, 운전자 유형에 따른 ADAS 기능 제어 동작을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 운전자 유형이 임신부인 경우의 동작을 설명하는데 참조되는 도면이다.
도 13a 내지 도 13c는 본 발명의 실시예에 따라, ADAS 기능 동작 상황을 출력하는 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
이하의 설명에서 별도로 언급되지 않는한 LHD(Left Hand Drive) 차량을 중심으로 설명하나, RHD(Right Hand Drive)차량에서도 통상의 기술자 수준에서 이해될 수 있을 정도로 본 발명이 적용될 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도면을 참조하면, 차량(100)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(100)의 진행 방향을 조절하기 위한 조향 입력 수단(121a)을 구비할 수 있다.
차량(100)은, ADAS(200)를 포함할 수 있다. 각각의 ADAS(200)는, 각각의 운전 보조 기능을 제어하는 복수의 모듈을 포함할 수 있다. 복수의 모듈은 각각 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다. 또한, ADAS(200)는, 제어부(170)와 전기적으로 연결되어 데이터를 교환할 수 있다. ADAS(200)에 대해서는 도 2b를 참조하여 상세하게 설명한다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전폭 측정의 기준이 되는 방향을 의미할 수 있다.
도 2 a 내지 도 2b는 도 1의 차량의 내부 블록도의 일예이다.
먼저 도 2a를 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 제어부(170), 인터페이스부(180), 전원 공급부(190) 및 차량 운전 보조 시스템(200)을 포함할 수 있다.
통신부(110)는, 근거리 통신 모듈(113), 위치 정보 모듈(114), 광통신 모듈(115) 및 V2X 통신 모듈(116)을 포함할 수 있다.
근거리 통신 모듈(113)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
이러한, 근거리 통신 모듈(113)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(113)은 이동 단말기(310)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(113)은 이동 단말기(310)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기(310)와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보 모듈(114)은, 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.
한편, 실시예에 따라, 위치 정보 모듈(114)은 통신부(110)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
광통신 모듈(115)은, 광발신부 및 광수신부를 포함할 수 있다.
광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(100)에 구비된 램프와 일체화될 수 있다. 예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. 예를 들면, 광통신 모듈(115)은 광 통신을 통해 타차량(330)과 데이터를 교환할 수 있다.
V2X 통신 모듈(116)은, 서버(320) 또는 타차량(330)과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(116)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(116)을 통해, 외부 서버(320) 및 타 차량(330)과 무선 통신을 수행할 수 있다.
입력부(120)는, 운전 조작 수단(121), 카메라(122), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.
운전 조작 수단(121)은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(121)은 조향 입력 수단(121a), 쉬프트 입력 수단(121b), 가속 입력 수단(121c), 브레이크 입력 수단(121d)을 포함할 수 있다.
조향 입력 수단(121a)은, 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 수단(121a)은 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 수단(121a)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
쉬프트 입력 수단(121b)은, 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 수단(121b)은 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 수단(121b)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
가속 입력 수단(121c)은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단(121d)은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 수단(121c) 및 브레이크 입력 수단(121d)은 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 수단(121c) 또는 브레이크 입력 수단(121d)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
카메라(122)는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라(122)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라(122a), 차량 주변 영상을 촬영하는 어라운드 뷰 카메라(122b) 및 차량 내부 영상을 촬영하는 내부 카메라(122c)를 포함할 수 있다. 각각의 카메라(122a, 122b, 122c)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다.
카메라(122)에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.
카메라(122)에 포함되는 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
전방 카메라(122a)는 스테레오 카메라를 포함할 수 있다. 이경우, 카메라(122a)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
전방 카메라(122a)는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이경우, 카메라(122)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이경우, 카메라(122a)의 프로세는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
어라운드 뷰 카메라(122b)는, 복수의 카메라를 포함할 수 있다. 예를 들면, 복수의 카메라는 차량의 좌측, 후방, 우측 및 전방에 배치될 수 있다.
좌측 카메라는, 좌측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는, 좌측 카메라는, 좌측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 좌측 카메라는 좌측 프런트 도어, 좌측 리어 도어 또는 좌측 휀더(fender) 외측 일 영역에 배치될 수 있다.
우측 카메라는, 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는 우측 카메라는, 우측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 우측 카메라는 우측 프런트 도어, 우측 리어 도어 또는 우측 펜터(fender) 외측 일 영역에 배치될 수 있다.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있다.
전방 카메라는, 앰블럼 부근 또는 라디에이터 그릴 부근에 배치될 수 있다.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라(122b)의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부(141)를 통해 표시될 수 있다.
내부 카메라(122c)는 차량(100)의 실내를 촬영할 수 있다. 내부 카메라(122c)는 탑승자에 대한 이미지를 획득할 수 있다.
내부 카메라(122c)의 프로세서는, 차량(100) 내에 탑승자에 대한 이미지를 획득하여, 탑승 인원이 몇 명인지, 탑승자가 어느 자리에 탑승하였는지 검출할 수 있다. 예를 들면, 내부 카메라(122c)는 동승자의 탑승 유무 및 탑승 위치를 검출할 수 있다.
내부 카메라(122c)는 탑승자의 생체 인식을 위한 이미지를 획득할 수 있다. 내부 카메라(122c)의 프로세서는 탑승자의 얼굴 이미지를 기초로, 탑승자의 ID를 확인할 수 있다.
한편, 실시예에 따라, 내부 카메라(122c)의 프로세서는, 탑승자의 이미지를 기초로, 탑승자의 유형을 검출할 수 있다. 예를 들면, 내부 카메라(122c)의 프로세서는, 소정 이미지 처리 알고리즘을 통해, 운전자의 유형이 노인, 장애인 또는 임신부인지 검출할 수 있다.
마이크로 폰(123)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(122) 또는 마이크로폰(123)는 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센싱부(125)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
한편, 위치 정보 모듈(114)은 센싱부(125)의 하위 구성 요소로 분류될 수도 있다. 카메라(122)는 센싱부(125)의 하위 구성 요소로 분류될 수도 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(141), 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다.
디스플레이부(141)는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(141)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(141)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(724)로써 기능함과 동시에, 차량(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(141)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(141)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(141)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(170)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(141)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.
한편, 실시예에 따라, 디스플레이부(141)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(141)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(141)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
한편, 실시예에 따라, 디스플레이부(141)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(724) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 서스펜션 구동부(159)를 포함할 수 있다.
동력원 구동부(151)는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
조향 구동부(152)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(153)는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(154)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(155)는, 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(156)는, 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(157)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(158)는, 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(159)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(310)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(310)와 연결할 수 있다. 이경우, 인터페이스부(180)는 이동 단말기(310)와 데이터를 교환할 수 있다.
한편, 인터페이스부(180)는 연결된 이동 단말기(310)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(310)가 인터페이스부(180)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(180)는 전원부(190)에서 공급되는 전기 에너지를 이동 단말기(310)에 제공한다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(170)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
다음, 도 2b를 참조하여, ADAS(200)에 대해 설명한다.
ADAS(Advanced Driver Assistance System)(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 시스템이다.
ADAS(200)는, 자동 비상 제동 모듈(이하, AEB : Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW : Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW : Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA : Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS : Speed Assist System)(214), 교통 신호 검출 모듈 (TSR : Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA : High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD : Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES : Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS : Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC : Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS : Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA : Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM : Around View Monitor)(223)을 포함할 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다.
FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다.
LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다.
LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다.
SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다.
TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다.
HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다.
BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다.
AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다.
CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다.
ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다.
SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다.
TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다.
AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다.
ADAS(200)는, 입력부(120) 또는 센싱부(125)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(140) 또는 차량 구동부(150)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(140) 또는 차량 구동부(150)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(170)를 거쳐, 출력부(140) 또는 차량 구동부(150)에 출력할 수 있다.
도 3 내지 도 5는 본 발명의 실시예에 따른, 차량(100)의 동작을 설명하는데 참조되는 플로우 차트이다.
도 3을 참조하면, 제어부(170)는 운전자 유형을 선택할 수 있다(S310).
운전자의 유형은, 운전자의 운전 숙련도에 따라 구분되거나 운전자의 신체적 특징에 따라 구분될 수 있다.
예를 들면, 운전자의 유형은, 운전 숙련도에 따라, 초보자, 중급자, 숙련자로 구분될 수 있다.
예를 들면, 운전자의 유형은, 운전자의 신체적 특징에 따라, 노인, 장애인, 임신부로 구분될 수 있다.
운전자의 유형은, 사용자 입력에 따라 선택될 수 있다. 구체적으로, 제어부(170)는, 입력부(120)에 의해 수신되는 입력 신호에 따라 운전자 유형을 선택할 수 있다.
한편, 운전자 유형을 선택하는 입력 신호가 수신되지 않는 경우, 제어부(170)는, 디폴트 설정에 따라 차량 운전 보조 기능을 제어할 수 있다. 여기서, 디폴트 설정은, 차량(100) 제조시의 설정으로, ADAS(200) 각 기능의 온(on),오프(off) 또는 단계 설정일 수 있다.
운전자의 유형은, 메모리(130)에 기 저장된 데이터를 기초로 선택될 수 있다.
가령, 차량(100)에 운전자의 ID를 확인할 수 있는 수단이 구비되는 경우, 확인되는 운전자의 ID와 매칭되는 메모리(130)에 기 저장된 데이터를 통해, 운전자의 운전 숙련도를 선택할 수 있다. 여기서, 운전자의 ID를 확인할 수 있는 수단은, 운전자 고유의 생체 정보를 읽어 ID를 확인할 수 있는 수단일 수 있다. 예를 들면, ID 확인 수단은, 홍채 인식 수단, 지문 인식 수단 및 목소리 인식 수단을 포함할 수 있다.
메모리(130)는, 운전자의 운전 패턴을 누적하여 저장할 수 있다. 제어부(170)는, 저장된 운전 패턴 중에서 ID가 확인된 운전자의 운전 패턴을 기초로, 운전 숙련도에 따른 운전자 유형을 선택할 수 있다.
운전자의 유형은, 내부 카메라(122c)에 의해 획득되는 운전자의 이미지를 기초로 선택될 수 있다. 제어부(170)는, 내부 카메라(122c)에서 획득된 운전자의 이미지에서 검출된 특징점을 기초로, 신체적 특징에 따른 운전자 유형을 선택할 수 있다.
운전자 유형이 선택된 상태에서, 제어부(170)는, 운전자의 상태를 감지할 수 있다(S320).
운전자 상태는, 내부 카메라(122c)를 통해 촬영된 운전자 이미지 분석을 통해 감지될 수 있다.
예를 들면, 내부 카메라(122c)의 프로세서는, 촬영된 차량 실내 영상에서 운전자를 검출하고, 검출된 운전자의 동작 또는 얼굴 이미지를 분석하여, 운전자 상태를 확인할 수 있다.
예를 들면, 제어부(170)는, 내부 카메라(122c)에서 촬영된 차량 실내 영상을 수신하여, 운전자를 검출하고, 검출된 운전자의 동작 또는 얼굴 이미지를 분석하여, 운전자 상태를 확인할 수 있다.
운전자 상태는, 운전 패턴 분석을 통해 감지될 수 있다.
제어부(170)는, 센싱부(125)에서 수신되는 센싱 정보를 기초로, 운전자의 운전 패턴을 분석할 수 있다. 제어부(170)는, 분석된 운전 패턴을 통해, 운전자 상태를 확인할 수 있다.
한편, 운전자 상태 감지 시, 제어부(170)는 동승자를 감지할 수 있다.
동승자는, 내부 카메라(122c)를 통해 촬영된 동승자 이미지 분석을 통해 감지될 수 있다.
예를 들면, 내부 카메라(122c)의 프로세서는, 촬영된 차량 실내 영상에서 동승자의 탑승 여부 및 탑승 위치를 검출할 수 있다.
예를 들면, 제어부(170)는, 내부 카메라(122c)에서 촬영된 차량 실내 영상을 수신하여, 동승자의 탑승 여부 및 탑승 위치를 검출할 수 있다.
운전자 상태가 감지된 상태에서, 제어부(170)는, 주변 상황을 감지할 수 있다(S330).
제어부(170)는, 주변 상황을 센싱부(125)를 통해 감지할 수 있다.
주변 상황은, 전방 카메라(122a) 또는 어라운드 뷰 카메라(122b)를 통해 촬영된 영상의 이미지 분석을 통해 감지될 수 있다.
주변 상황은, 전방 카메라(122a)의 프로세서 또는 어라운드 뷰 카메라(122b)의 프로세서에서의 영상 처리를 통해 감지될 수 있다.
또는, 주변 상황은, 제어부(170)에서 전방 카메라(122a) 또는 어라운드 뷰 카메라(122b)로부터 수신한 영상이 처리 되어 감지될 수 있다.
여기서, 주변 상황은, 차량(100) 주변에 위치하는 오브젝트, 주행 도로, 조도 또는 날씨 상황일 수 있다.
운전자 유형이 선택되고, 운전자 상태 및 주변 상황이 감지된 상태에서, 제어부(170)는, 운전자 유형, 운전자 상태 및 주변 상황 중 적어도 어느 하나에 기초하여 ADAS(200)를 제어할 수 있다(S340).
제어부(170)는, 선택된 운전자 유형, 감지된 운전자 상태, 차량 주변 상황 및 감지된 동승자 중 어느 하나에 따라, 적어도 하나의 ADAS(200)를 단계적으로 제어할 수 있다.
예를 들면, 제어부(170)는 AEB(210) 기능을 3개의 단계로 나누어 제어할 수 있다. 구체적으로, 제어부(170)는 긴급 제동 후, 검출된 오브젝트와의 잔여 거리를 기준으로 AEB(210)를 3단계로 나누어 제어할 수 있다. 제1 단계에 해당되는 경우, 제어부(170)는, 전방 오브젝트와 제1 거리만큼 거리가 유지되도록 긴급 제동을 수행할 수 있다. 제2 단계에 해당되는 경우, 제어부(170)는, 전방 오브젝트와 제2 거리만큼 거리가 유지되도록 긴급 제동을 수행할 수 있다. 제3 단계에 해당되는 경우, 제어부(170)는, 전방 오브젝트와 제3 거리만큼 거리가 유지되도록 긴급 제동을 수행할 수 있다.
제어부(170)는, 선택된 운전자 유형 및 감지된 운전자 상태에 따라, 복수의 ADAS(200)의 기능을 선별적으로 제어할 수 있다.
예를 들면, 운전자 유형이 숙련자인 경우, 제어부(170)는, AEB(210), FCW(211), LDW(212), LKA(213), SAS(214), HBA(216), BSD(217), AES(218)의 기능은 오프(off)가 되고, TSR(215) 기능이 온(on)이 되도록 선별적으로 제어할 수 있다.
예를 들면, 동승자가 감지되는 경우, 제어부(170)는, 동승자의 탑승 여부 및 탑승 위치에 따라 ADAS(200)의 기능을 제어할 수 있다. 가령, 보조석의 후석에 동승자가 탑승하는 경우, 제어부(170)는 승차감 중심의 주행이 이루어질 수 있도록, ADAS(200)의 기능을 선별적으로 제어할 수 있다. 예를 들면, 이경우, 제어부(170)는, AEB(210) 또는 FCW(211) 동작 조건인 TTC(Time to Collision)을 제1 시간으로 설정하여, 오브젝트 검출 시, 일반적인 상황보다 먼저 제동을 수행하여, 부드러운 제동이 되도록 제어할 수 있다.
예를 들면, 선택된 운전자 유형이 노인 또는 장애인인 경우, 제어부(170)는, ADAS(200) 모든 기능이 온(on)되도록 제어할 수 있다. 노인 또는 장애인 운전자의 경우, 운전에 불편함이 있고, 소정의 상황 대처에 미흡할 수 있다. 이경우, ADAS(200) 모든 기능이 온(on)되도록 제어함으로써, 편한하고 안전한 운행을 유도하는 효과가 있다.
예를 들면, 선택된 운전자 유형이 임신부인 경우, 제어부(170)는, ADAS(200) 기능 중, 급제동이 수행되는 기능은 오프(off)되도록 제어할 수 있다. 예를 들면, 제어부(170)는, ADAS(200) 중, 급제동이 수행되는 AEB(210), FCW(211) 및 SAS(214)의 기능이 오프(off)되도록 제어할 수 있다. 임신부가 운전하는 경우, 급제동으로 인한 임신부 및 태아에 미칠 위험을 미리 방지하는 효과가 있다.
한편, 제어부(170)는, 감지된 조도 또는 날씨에 따라 ADAS(200) 기능을 제어할 수 있다.
한편, 제어부(170)는, ADAS(200) 중에서, 일부 기능은, 운전자 유형, 운전자 상태 또는 차량 주변 상황과 무관하게 항상 온(on)이 되도록 제어할 수 있다. 예를 들면, 제어부(170)는, TSR(215)이 주행 중에는 온(on)이 되도록 제어할 수 있다.
한편, 제어부(170)는 ADAS(200) 제어 시, 제어 조건으로, 선택된 운전자 유형보다 감지된 운전자 상태를 더 우선하여, 제어할 수 있다.
가령, 운전자가 숙련자라 하더라도, 운전자 졸음이 감지되는 경우, 제어부(170)는, 숙련자에 따른 ADAS(200) 제어보다, 운전자 졸음에 따른 ADAS(200) 제어를 우선하여 수행할 수 있다.
한편. 실시예에 따라, 자율 주행이 가능한 차량의 경우, 제어부(170)는, 운전자 유형, 운전자 상태 및 주변 상황 중 적어도 어느 하나에 기초하여, 자율 주행 모드로 진입할 수 있다.
ADAS 제어 후, 제어부(170)는, ADAS 기능 동작 상황을, 출력부(140) 또는 램프 구동부(154)를 통해, 출력할 수 있다(S350).
구체적으로, 제어부(170)는 ADAS(200) 중 동작되는 기능을 디스플레이부(141)를 통해 표시할 수 있다. 이경우, 제어부(170)는, ADAS(200)의 기능 동작 여부를 HUD 또는 투명 디스플레이를 통해 표시할 수 있다.
제어부(170)는, ADAS(200) 중 동작되는 기능을 음향 출력부(142)를 통해 출력할 수 있다. 이경우, 제어부(170)는 ADAS(200)의 기능 동작 여부를 음성 또는 경고음으로 출력할 수 있다.
제어부(170)는 ADAS(200) 중 동작되는 기능을 햅틱 출력부(143)를 통해 출력할 수 있다. 이경우, 제어부(170)는, ADAS(200)의 기능 동작 여부를 스티어링 휠, 시트 또는 안전벨트 진동으로 출력할 수 있다.
이후에, 제어부(170)는, 운전자 상태 또는 ADAS 기능 동작 상황을 타 디바이스에 전송할 수 있다(S360).
여기서, 운전자 상태는, S320 단계에서 감지된 운전자 상태이다.
제어부(170)는, 운전자 상태 또는 ADAS 기능 동작 상황을, 통신부(110)를 통해, 이동 단말기(310), 서버(320), 타 차량(320)에 전송할 수 있다.
서버(320)는, 교통을 관제하는 서버일 수 있다. 타 차량(320)은 차량(100) 주변에서 주행 중인 차량일 수 있다.
예를 들면, 제어부(170)는 AEB(210) 동작 상황을, 광통신 모듈(115) 또는 V2X 통신 모듈(116)을 통해, 후행하는 타 차량(320)에 전송할 수 있다. 이경우, AEB(210) 동작 상황을 후행 차량에 전송함으로써, 후행 차량이 사고에 대비할 수 있는 시간을 확보할 수 있는 효과가 발생한다.
도 4 내지 도 5는 본 발명의 실시예에 따라, 도 3의 S350 단계 및 S360 단계의 상세 동작을 설명하는데 참조되는 플로우 차트이다.
제어부(170)는, 차량 주변 상황에 따라 차량 운전 보조 기능을 제어할 수 있다. 여기서 주변 상황은, 차량(100) 주변 오브젝트의 동선, 주행 도로, 조도 또는 날씨일 수 있다.
도 4를 참조하면, 제어부(170)는, 차량 주변의 오브젝트를 검출할 수 있다(S410). 제어부(170)는, 전방 카메라(122a) 또는 어라운드 뷰 카메라(122b)를 통해 획득한 영상에서, 오브젝트를 검출할 수 있다. 여기서, 오브젝트는, 주변 차량, 보행자, 이륜차, 구조물 등 사고 발생 우려가 있는 장애물일 수 있다.
한편, 제어부(170)는 상술한 디스패리티 차이 또는 TOF를 이용하여, 오브젝트와의 거리 또는 상대 속도를 검출할 수 있다.
오브젝트가 검출된 상태에서, 제어부(170)는, 오브젝트의 동선을 분석할 수 있다(S420). 예를 들면, 제어부(170)는 오브젝트가 차량(100)에 접근하는지 여부 또는 얼마나 빠른 속도로 접근하는지 여부를 분석할 수 있다.
제어부(170)는, 오브젝트의 동선 분석 결과를 기초로, 오브젝트가 위험 요소인지 판단할 수 있다(S430).
여기서, 위험 요소인지에 대한 판단은, 오브젝트의 위치, 오브젝트의 움직임의 변화, 오브젝트와의 거리 및 상대 속도 중 적어도 어느 하나를 기초로 판단될 수 있다.
만약, 오브젝트가 위험 요소로 판단되는 경우, 제어부(170)는, 운전자의 유형, 운전자 상태에, 오브젝트를 더 고려하여, ADAS(200)를 제어할 수 있다(S440).
만약, 오브젝트가 위험 요소로 판단되지 않는 경우, 제어부(170)는, 오브젝트를 고려하지 않고, ADAS(200)를 제어할 수 있다(S450).
한편, 본 실시예에서 S410 단계 내지 S430 단계의 동작을 제어부(170)에서 수행하는 것으로 설명하나, 이에 한정되지 않고, 상기 동작은 카메라(122)의 프로세서에서 수행될 수도 있음을 명시한다.
한편, S410단계 내지 S430 단계는 도 3의 S330 단계에 포함될 수 있다. 또한, S440 단계 내지 S450 단계는, 도 3의 S340 단계에 포함될 수 있다.
도 5를 참조하면, 제어부(170)는, 주행 도로를 검출할 수 있다(S510). 제어부(170)는, 전방 카메라(122a) 또는 어라운드 뷰 카메라(122b)를 통해 획득한 영상에서, 주행 도로를 검출할 수 있다.
주행 도로가 검출된 상태에서, 제어부(170)는, 주행 도로가 고속 도로인지 일반 도로인지 판단할 수 있다(S530).
예를 들면, 제어부(170)는 톨게이트, 보행자, 이륜차, 가로수, 이정표, 속도 표시 교통 표지판, 노면 표시 정보 중 적어도 어느 하나를 기초로, 차량(100)이 주행 중인 도로가 고속 도로인지, 일반 도로인지 판단할 수 있다.
주행 도로가 고속 도로인 경우, 제어부(170)는, 고속도로에 적합하게, ADAS(200)를 제어할 수 있다(S540).
예를 들면, 고속 도로 주행 중인 경우, 제어부(170)는, 차선 유지, 속도 유지, 선행 차량 추종 관련 ADAS(200) 기능을 온(on) 시킬 수 있다. 구체적으로, 제어부(170)는 LDW(212), LKA(213), SAS(214), CSWS(219), ACC(220)를 온(on) 시킬 수 있다.
고속 도로 주행 시, 차선 유지 관련 ADAS(200) 기능을 온(on) 시킴으로써, 차선이 유지되는 상태에서 주행할 수 있는 효과가 있다.
고속 도로 주행 시, 속도 유지 관련 ADAS(200) 기능을 온(on) 시킴으로써, 과속 하지 않은 상태에서 주행하도록 유도할 수 있는 효과가 있다.
고속 도로 주행 시, 선행 차량 추종 관련 ADAS(200) 기능을 온(on) 시킴으로써, 운전자에게 편의를 제공할 수 있는 효과가 있다.
예를 들면, 고속 도로 주행 중인 경우, 제어부(170)는, 제공 관련 ADAS(200) 기능의 단계를 조절할 수 있다. 구체적으로, 제어부(170)는, AEB(210), FCW(211) 에서 제동 되는 조건인 오브젝트와의 거리가 길어지도록 조절할 수 있다.
주행 도로가 일반 도로인 경우, 제어부(170)는 일반도로에 적합하게, ADAS(200)를 제어할 수 있다(S550).
예를 들면, 일반 도로 주행 중인 경우, 제어부(170)는, 차선 유지관련 ADAS(200) 기능을 오프(off) 시킬 수 있다. 구체적으로, 제어부(170)는, LDW(212), LKA(213)을 오프(off) 시킬 수 있다. 이에 따라, 일반 도로 주행 시, 좌회전, 우회전이 빈번하게 이루어져, 차선 변경이 발생하고, 불필요하게 알람이 울리거나 차선 유지 제어가 이루어져 발생되는 불편함을 해소할 수 있다.
예를 들면, 일반 도로 주행 중인 경우, 제어부(170)는, 교통 정체시 주행 관련 ADAS(200) 기능을 온(on) 시킬 수 있다. 구체적으로, 제어부(170)는, TJA(222)를 온(on) 시킬 수 있다. 이에 따라, 신호등에 따른 교통 정체시에도 운전자에게 편의를 제공할 수 있는 효과가 있다.
한편, 본 실시예에서 S510 단계 내지 S530 단계의 동작을 제어부(170)에서 수행하는 것으로 설명하나, 이에 한정되지 않고, 상기 동작은 카메라(122)의 프로세서에서 수행될 수도 있음을 명시한다.
한편, S510단계 내지 S530 단계는 도 3의 S330 단계에 포함될 수 있다. 또한, S540 단계 내지 S550 단계는, 도 3의 S340 단계에 포함될 수 있다.
도 6은 본 발명의 실시예에 따라, 운전자 유형을 선택하는 동작을 설명하는데 참조되는 예시도이다.
도 6을 참조하면, 디스플레이부(141)는 운전자 유형 선택 화면을 표시할 수 있다. 이경우, 운전자 유형은 운전 숙련도 또는 신체적 특징에 따라 구분될 수 있다.
사용자 입력에 따라, 운전 숙련도가 선택되는 경우, 디스플레이부(141)는, 초급자(611), 중급자(612) 및 숙련자(613) 중 어느 하나를 선택할 수 있는 화면을 표시할 수 있다. 사용자 입력에 따라, 초급자(611), 중급자(612) 및 숙련자(613) 어느 하나가 선택될 수 있다.
사용자 입력에 따라, 신체적 특징이 선택되는 경우, 디스플레이부(141)는, 노인(621), 장애인(622), 임신부(623) 중 어느 하나를 선택할 수 있는 화면을 표시할 수 있다. 사용자 입력에 따라, 노인(621), 장애인(622), 임신부(623) 중 어느 하나가 선택될 수 있다.
도 7 내지 도 9는 본 발명의 실시예에 따라, 운전자 상태를 감지하는 동작을 설명하는데 참조되는 예시도이다.
먼저, 도 7을 참조하여 본 발명의 실시예에 따라, 차량 실내 영상을 획득하여, 운전자(710) 및 동승자(720)를 검출하는 동작을 설명한다.
내부 카메라(122c)는 차량 실내 영상을 촬영할 수 있다.
내부 카메라(122c)의 프로세서는, 차량 실내 영상에서 운전자(710)를 검출하고, 검출된 운전자(710)의 동작 또는 얼굴 이미지를 분석하여, 운전자(710) 상태를 확인할 수 있다. 이후, 제어부(170)는 운전자 상태 정보를 내부 카메라(122c)로부터 수신할 수 있다.
또는, 제어부(170)는, 내부 카메라(122c)로부터 차량 실내 영상을 수신하여, 운전자(710)를 검출하고, 검출된 운전자(710)의 동작 또는 얼굴 이미지를 분석하여, 운전자 상태를 확인할 수 있다.
한편, 내부 카메라의 프로세서(122c)는, 차량 실내 영상에서 동승자(720)의 탑승 여부 및 탑승 위치를 검출할 수 있다. 제어부(170)는, 동승자(720)의 탑승 여부 및 탑승 위치에 대한 정보를 수신할 수 있다.
한편, 제어부(170)는, 내부 카메라(122c)로부터 차량 실내 영상을 수신하여, 동승자(720)의 탑승 여부 및 탑승 위치를 검출할 수 있다.
다음, 도 8을 참조하여, 본 발명의 실시예에 따라, 영상 처리를 통해, 운전자(710)의 상태를 검출하는 동작을 설명한다.
내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 머리(810)를 검출하고, 검출된 머리(810)를 트래킹할 수 있다.
만약, 트래킹 결과, 머리(810)의 끄덕임(nodding)이 검출되는 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 졸음으로 판단할 수 있다.
만약, 트래킹 결과, 운전자의 머리(810)가 기설정 범위 이상으로, 숙여지거나 좌,우로 돌아간 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 주의 태만으로 판단할 수 있다.
내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 눈(820)을 검출하고, 검출된 눈(820)을 트래킹할 수 있다.
만약, 트래킹 결과, 단위 시간당 기 설정 횟수 이하로 눈(820) 깜빡임이 검출되는 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 졸음으로 판단할 수 있다.
만약, 트래킹 결과, 기 설정 시간 이상 눈(820) 감김이 검출되는 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 졸음으로 판단할 수 있다.
만약, 트래킹 결과, 기 설정 시간 이상 눈(820)이 전방에서 벗어나는 것이 검출되는 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 주의 태만으로 판단할 수 있다.
내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 입(830)을 검출하고, 검출된 입(830)을 트래킹할 수 있다.
만약, 트래킹 결과, 단위 시간당 기 설정 횟수 이상의 하품이 검출되는 경우, 내부 카메라(122c)의 프로세서 또는 제어부(170)는, 운전자의 상태를 졸음으로 판단할 수 있다.
다음, 도 9를 참조하여, 본 발명의 실시예에 따라, 운전 패턴에 기초하여, 운전자의 상태를 검출하는 동작을 설명한다.
제어부(170)는, 운전자의 운전 패턴 또는 운전 습관을 기초로, 운전자의 상태를 판단할 수 있다.
제어부(170)는, 운전자의 차량 탑승시, 운전자의 생체 정보를 통해, 운전자 인증을 수행할 수 있다.
차량(100)의 센싱부(125)는 생체 정보 감지를 위한 생체 인식 정보 감지부(미도시)를 더 포함할 수 있다.
생체 인식 정보 감지부(미도시)는 운전자의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부(미도시)는 탑승자의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 카메라(122) 및 마이크로 폰(123)이 센서로 동작할 수 있다. 생체 인식 정보 감지부(미도시)는 내부 카메라(122c)를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다. 생체 인식 정보 감지부(미도시)는 마이크로 폰(123)을 통해, 음성 인식 정보를 획득할 수 있다.
한편, 생체 인식 정보 감지부(미도시)는 탑승자의 지문 인식 정보, 홍채 인식 정보 또는 망막 인식 정보를 획득하기 위해 지문 인식 스캐너, 홍채 인식 스캐너 또는 망막 인식 스캐너를 더 포함할 수 있다.
제어부(170)는, 운전자 인증이 수행된 후, 운전자의 운전 습관 또는 운전 패턴을 저장할 수 있다.
제어부(170)는 운전자의 운전 조작 수단(121)의 제어 습관 또는 패턴을 저장할 수 있다. 예를 들면, 제어부(170)는, 감속시 브레이크 페달을 밟는 정도, 브레이크 밟을 때 끊어서 밟는 습관, 가속시 RPM 유지 정도 또는 악셀 페달을 밟는 정도를 메모리(130)에 저장할 수 있다.
이후, 운전 습관 또는 운전 패턴이, 메모리(130)에 기 저장된 상태에서, 운전자가 탑승하는 경우, 제어부(170)는 생체 인식 정보 감지부(미도시)를 통해, 운전자를 인증한다. 이후, 제어부(170)는 운전자의 운전 습관 또는 운전 패턴을 메모리(130)에 저장된 운전 습관 또는 운전 패턴을 비교하여, 운전자의 상태를 감지할 수 있다.
예를 들면, 브레이크 페달 또는 악셀 페달(910)을 밟는 정도가 기 저장된 데이터와 다른 경우, 제어부(170)는, 운전자의 상태를 졸음으로 판단할 수 있다.
제어부(170)는, 운전자의 조향을 기초로 운전자의 상태를 판단할 수 있다. 전방 카메라(122a) 또는 어라운드 뷰 카메라(122b)를 통해, 주행 차선이 인식되는 상태에서, 운전자의 스티어링 조작으로 기 설정 횟수 이상 주행 차선을 벗어 나는 경우, 제어부(170)는, 운전자의 상태를 졸음 또는 주의 태만으로 판단할 수 있다.
즉, 불안한 스티어링 또는 급격한 스티어링이 검출되는 경우, 제어부(170)는, 운전자의 상태를 졸음 또는 주의 태만으로 판단할 수 있다. 한편, 불안한 스티어링에 대한 검출은 스티어링 센서를 통해 검출될 수 있다.
제어부(170)는, 운전자의 운전 상황을 기초로 운전자의 상태를 판단할 수 있다.
예를 들어, 교통 체증이 없는 상태의 고속도로에서 기 설정 속도 이하로 기 설정 시간 이상 주행하는 경우, 제어부(170)는, 운전자의 상태를 졸음 또는 주의 태만으로 판단할 수 있다.
예를 들여, 급가속 또는 급제동이 기 설정 횟수 이상 감지되는 경우, 제어부(170)는, 운전자의 상태를 졸음 또는 주의 태만으로 판단할 수 있다.
예를 들어, 경로가 설정된 상태에서, 경로 이탈이 기 설정 횟수 이상 감지되는 경우, 제어부(170)는, 운전자의 상태를 졸음 또는 주의 태만으로 판단할 수 있다.
도 10은 본 발명의 실시예에 따라, 주변 상황에 따른 ADAS 제어 동작을 설명하는데 참조되는 예시도이다.
도 10을 참조하면, 제어부(170)는, 차량 주변 상황에 따라, ADAS 기능을 제어할 수 있다. 여기서, 주변 상황은 차량 주변 오브젝트의 동선, 주행 도로, 조도 또는 날씨일 수 있다.
제어부(170)는, 센싱부(125)를 통해, 차량 주변의 오브젝트(1010, 1011)를 감지할 수 있다. 이때, 감지 센서로, 전방 카메라(122a), 어라운드 뷰 카메라(122b), 레이더, 라이더, 초음파 센서 등이 이용될 수 있다.
여기서, 오브젝트는, 주변 차량, 보행자, 이륜차, 구조물 등 사고 발생 우려가 있는 장애물일 수 있다.
오브젝트(1010, 1011)가 검출될 상태에서, 제어부(170)는 오브젝트(1010, 1011)의 동선을 분석할 수 있다. 구체적으로, 제어부(170)는 오브젝트(1010, 1011)가 차량(100)에 접근하는지 여부 또는 얼마나 빠른 속도로 접근하는지를 분석할 수 있다.
제어부(170)는, 오브젝트의 위치, 오브젝트(1010, 1011)의 움직임의 변화, 오브젝트(1010, 1011)와의 거리 및 상대 속도 중 적어도 어느 하나를 기초로, 오브젝트(1010, 1011)가 위험 요소인지 판단할 수 있다.
만약, 오브젝트(1010, 1011)가 위험 요소로 판단되는 경우, 제어부(170)는, 운전자의 유형, 운전자 상태에, 오브젝트(1010, 1011)를 더 고려하여, ADAS(200)를 제어할 수 있다.
예를 들면, 운전자 유형이 숙련자이고, 운전자 상태가 정상 상태여서, AEB(210), FCW(211), SAS(214), BSD(217),기능이 오프(off)된 상태에서, 오브젝트가 위험 요소로 판단되는 경우, 제어부(170)는 AEB(210), FCW(211), SAS(214) 및 BSD(217) 중 적어도 어느 하나의 기능을 온(on) 상태로 전환할 수 있다.
제어부(170)는, 센싱부(125)를 통해, 주행 도로(1020)를 감지할 수 있다. 이때, 감지 센서로, 전방 카메라(122a), 어라운드 뷰 카메라(122b)가 이용될 수 있다. 한편, 주행 도로(1020) 감지를 위해 ADAS(200) 기능 중 TSR(215)이용 될 수 있다.
예를 들면, 제어부(170)는 톨게이트, 보행자, 이륜차, 가로수, 이정표, 속도 표시 교통 표지판, 노면 표시 정보 중 적어도 어느 하나를 기초로, 차량(100)이 주행 중인 도로가 고속 도로인지, 일반 도로인지 판단할 수 있다.
고속 도로 주행 중인 경우, 제어부(170)는, 차선 유지, 속도 유지, 선행 차량 추종 관련 ADAS(200) 기능을 온(on) 시킬 수 있다. 구체적으로, 제어부(170)는 LDW(212), LKA(213), SAS(214), CSWS(219), ACC(220)를 온(on) 시킬 수 있다.
고속 도로 주행 시, 차선 유지 관련 ADAS(200) 기능을 온(on) 시킴으로써, 차선이 유지되는 상태에서 주행할 수 있는 효과가 있다.
고속 도로 주행 시, 속도 유지 관련 ADAS(200) 기능을 온(on) 시킴으로써, 과속 하지 않은 상태에서 주행하도록 유도할 수 있는 효과가 있다.
고속 도로 주행 시, 선행 차량 추종 관련 ADAS(200) 기능을 온(on) 시킴으로써, 운전자에게 편의를 제공할 수 있는 효과가 있다.
예를 들면, 고속 도로 주행 중인 경우, 제어부(170)는, 제공 관련 ADAS(200) 기능의 단계를 조절할 수 있다. 구체적으로, 제어부(170)는, AEB(210), FCW(211) 에서 제동 되는 조건인 오브젝트와의 거리가 길어지도록 조절할 수 있다.
예를 들면, 일반 도로 주행 중인 경우, 제어부(170)는, 차선 유지관련 ADAS(200) 기능을 오프(off) 시킬 수 있다. 구체적으로, 제어부(170)는, LDW(212), LKA(213)을 오프(off) 시킬 수 있다. 이에 따라, 일반 도로 주행 시, 좌회전, 우회전이 빈번하게 이루어져, 차선 변경이 발생하고, 불필요하게 알람이 울리거나 차선 유지 제어가 이루어져 발생되는 불편함을 해소할 수 있다.
예를 들면, 일반 도로 주행 중인 경우, 제어부(170)는, 교통 정체시 주행 관련 ADAS(200) 기능을 온(on) 시킬 수 있다. 구체적으로, 제어부(170)는, TJA(222)를 온(on) 시킬 수 있다. 이에 따라, 신호등에 따른 교통 정체시에도 운전자에게 편의를 제공할 수 있는 효과가 있다.
제어부(170)는, 센싱부(125)를 통해, 조도 또는 날씨를 감지할 수 있다. 제어부(170)는, 감지된 조도 또는 날씨를 기초로, ADAS(200) 기능을 제어할 수 있다.
가령, 야간이어서 조도가 낮거나, 비 또는 눈이 오는 경우, 사고 발생 우려가 높으므로, 제어부(170)는, AEB(210), FCW(211), LDW(212), LKA(213), SAS(214), HBA(216), BSD(217), AES(218), CSWS(219)의 기능이 온(on)되도록 제어할 수 있다.
가령, 야간이어서 조도가 낮거나, 비 또는 눈이 오는 경우, 운전자의 시야가 제한적이므로, 제어부(170)는, AEB(210)에서 제동 조건이 되는 오브젝트와의 거리가 길어지도록 조절할 수 있다.
도 11은 본 발명의 실시예에 따라, 운전자 유형에 따른 ADAS 기능 제어 동작을 설명하는데 참조되는 도면이다.
도 11을 참조하면, 디폴트 설정의 경우, 제어부(170)는, AEB(210), FCW(211), TSR(215), AES(218) 기능은 온(on)되도록 제어할 수 있다. 또한, 제어부(170)는, LDW(212), LKA(213), BSD(217)은 종전 주행 완료 후, 엔진 오프(off)시의 상태로 유지되도록 제어할 수 있다. 또한, 제어부(170)는, SAS(214), HBA(216) 기능은 오프(off)되도록 제어할 수 있다.
운전자 유형이 초보자, 노인, 장애인인 경우, 제어부(170)는, AEB(210), FCW(211)는 제1 레벨로 설정하고, LDW(212), LKA(213), SAS(214), TSR(215), HBA(216), BSD(217), AES(218) 기능은 온(on)되도록 제어할 수 있다.
한편, AEB(210), FCW(211)의 단계적 제어는, AEB(210), FCW(211)에서 제동에 따른 완전 정지시, 검출된 전방 오브젝트와의 잔여거리를 기초로 이루어질 수 있다.
운전자 유형이 중급자인 경우, 제어부(170)는, AEB(210), FCW(211)는 제2 레벨로 설정하고, LDW(212), LKA(213), TSR(215), BSD(217) 기능은 온(on)되도록 제어할 수 있다. 또한, 제어부(170)는 SAS(214), HBA(216)은 오프(off)되도록 제어할 수 있다.
운전자 유형이 숙련자인 경우, 제어부(170)는, AEB(210), FCW(211)는 제3 레벨로 설정하고, TSR(215) 기능은 온(on)되도록 제어할 수 있다. 또한, 제어부(170)는 LDW(212), LKA(213), SAS(214),HBA(216), BSD(217), AES(218) 기능은 오프(off)되도록 제어할 수 있다.
운전자 유형이 임신부인 경우, 제어부(170)는, LDW(212), LKA(213), TSR(215), HBA(216), BSD(217), AES(218) 기능은 온(on)되도록 제어할 수 있다. 또한, 제어부(170)는, 긴급 제동 우려가 있는 AEB(210), FCW(211), SAS(214) 기능은 오프(off)되도록 제어할 수 있다.
한편, 실시예에 따라, 제어부(170)는 수신되는 사용자 입력에 따라, 각 ADAS(200) 기능의 온(on) 오프(off) 설정 및 단계 설정을 수행할 수도 있다.
한편, 도 11을 참조하여 설명한 ADAS 기능 제어는 일 실시예에 불과할 뿐, 조건 별로 ADAS 기능이 다양하게 제어될 수 있다.
도 12는 본 발명의 실시예에 따라, 운전자 유형이 임신부인 경우의 동작을 설명하는데 참조되는 도면이다.
도 12를 참조하면, 제어부(170)는, 사용자 입력에 따라, 운전자 유형을 임신부(1210)로 선택할 수 있다.
이경우, 제어부(170)는, 근거리 통신 모듈(113)을 통해, 임신부(1210)가 착용한 웨어러블 디바이스(1220)와 페어링된다. 이경우, 제어부(170)는, 웨어러블 디바이스(1220)가 감지한, 임신부의 생체 정보를 수신할 수 있다.
이후에, 제어부(170)는, 임신부에 적합한 ADAS(200) 기능이 온(on)되도록 제어할 수 있다.
차량 주행(1230) 중에, 비정상적인 생체신호가 웨어러블 디바이스(1220)로부터 수신되는 경우, 제어부(170)는, V2X 통신 모듈(116)을 통해, 외부 서버(320)에 임신부의 생체 정보를 전송할 수 있다. 여기서, 외부 서버(320)는, 병원에 위치한 서버일 수 있다.
내원이 필요하다고 판단되는 경우, 제어부(170)는, 외부 서버(320)로부터 내원 권고 정보를 수신할 수 있다. 이경우, 외부 서버(320)는, 자동으로 임신부(1210) 내원 예약을 수행할 수 있다.
내원 권고 정보가 수신되는 경우, 제어부(170)는, 병원에 내원 여부에 대한 사용자 입력을 수신할 수 있다.
내원이 선택되는 경우, 제어부(170)는, 병원(1240)을 새로운 목적지로 설정하고, 주행하도록 제어할 수 있다. 차량(100)이 자율 주행 차량인 경우, 제어부(170)는, 자율 주행 모드로 전환할 수 있다. 이때, 제어부(170)는, 임신부에 적합한 ADAS(200) 기능을 유지할 수 있다.
내원이 선택되지 않는 경우, 제어부(170)는, 기 설정된 목적지를 향해 주행하도록 제어할 수 있다.
어떠한 사용자 입력도 수신되지 않는 경우, 제어부(170)는, 가까운 주차장, 휴게소를 새로운 목적지로 설정하고 주행하도록 제어할 수 있다. 만약, 지속적으로 비정상적인 생체신호가 웨어러블 디바이스(1220)로부터 수신되는 경우, 제어부(170)는, 병원(1240)을 새로운 목적지로 설정하고 주행하도록 제어할 수 있다.
도 13a 내지 도 13c는 본 발명의 실시예에 따라, ADAS 기능 동작 상황을 출력하는 동작을 설명하는데 참조되는 도면이다.
도 13a를 참조하면, 제어부(170)는, ADAS(200) 중 온(on) 상태인 것을 운전자가 인지할 수 있도록 출력할 수 있다. 예를 들면, 제어부(170)는 디스플레이부(141)에 각 ADAS 기능에 대응되는 아이콘(1310, 1311, 1312, 1313)을 표시하여, ADAS 기능 온(on) 상태를 표시할 수 있다. 예를 들면, 제어부(170)는 디스플레이부(141)에 텍스트(1320, 1321, 1322, 1323)를 표시하여, ADAS 기능 온(on) 상태를 표시할 수 있다.
도 13b를 참조하면, 운전자 유형이 선택되는 경우, 제어부(170)는, 선택에 따라 단계적으로 제어되거나, 선별적으로 제어되는 ADAS 기능을, 운전자가 인지할 수 있도록 출력할 수 있다.
예를 들면, 제어부(170)는, 운전자 유형이 임신부(1330)로 선택되는 경우, 운전자 유형(1330)을 표시할 수 있다. 또한, 제어부(170)는 운전자 유형 선택에 따라 단계적으로 제어되거나, 선별적으로 제어되는 ADAS 기능(1331, 1332, 1333, 1334)) 정보를 표시할 수 있다.
한편, 실시예에 따라, 제어부(170)는 운전자 유형외에, 운전자의 상태 또는 주변 상황을 표시할 수 있다. 또한, 제어부(170)는, 운전자의 상태 또는 주변 상황에 따른 ADAS 온(on) 또는 오프(off) 상태를 표시할 수 있다.
도 13c를 참조하면, 제어부(170)는, ADAS 기능에 따라 출력 방식을 다르게 출력할 수 있다. 제어부(170)는, 디스플레이부(141), 음향 출력부(142), 햅틱 출력부(143) 또는, 램프 구동부(154)를 통해, 복수의 ADAS 각각의 제어 상황을 출력할 수 있다.
제어부(170)는, 햅틱 출력부(143)를 통해, 출력하는 경우, 진동의 세기, 진동 패턴, 또는 진동 유지 시간을 달리하여, 각각의 ADAS 제어 상황을 출력할 수 있다.
제어부(170)는, 램프 구동부(154)를 통해, 출력하는 경우, 위험 상황 해제 전까지 지속적으로 출력할 수 있다. 한편, 램프 구동부(154)에 의한 출력을 통해, 타 차량에 상황 정보를 시각적으로 전달할 수 있다.
제어부(170)는, 음향 출력부(142)를 통해, 출력하는 경우, 정보를 음성으로 전환하여 출력할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 제어부(170)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 운전자 유형을 선택하는 사용자 입력을 수신하는 입력부;
    차량 실내 영상에서 검출된 운전자의 상태를 감지하는 내부 카메라; 및
    상기 선택된 운전자 유형 및 상기 감지된 운전자 상태에 따라, 적어도 하나의 차량 운전 보조 기능을 단계적으로 제어하거나 복수의 차량 운전 보조 기능을 선별적으로 제어하는 제어부;를 포함하는 차량.
  2. 제 1항에 있어서,
    상기 운전자 유형은,
    상기 운전자의 운전 숙련도에 따라 구분되거나 상기 운전자의 신체적 특징에 따라 구분되는 차량.
  3. 제 1항에 있어서,
    상기 제어부는,
    상기 사용자 입력 수신되지 않는 경우, 디폴트 설정에 따라 상기 차량 운전 보조 기능을 제어하는 차량.
  4. 제 1항에 있어서,
    상기 제어부는,
    브레이크 페달 및 악셀 페달을 밟는 정도 또는 스티어링 조작을 기초로 운전 패턴을 분석하고, 상기 운전 패턴에 기초하여 상기 운전자 상태를 감지하는 차량.
  5. 제 1항에 있어서,
    상기 차량 운전 보조 기능은, 자동 비상 제동 기능(AEB : Autonomous Emergency Braking), 전방 충돌 회피 기능(FCW : Foward Collision Warning), 차선 이탈 경고 기능(LDW : Lane Departure Warning), 차선 유지 보조 기능(LKA : Lane Keeping Assist), 속도 지원 기능(SAS : Speed Assist System), 교통 신호 검출 기능(TSR : Traffic Sign Recognition), 적응형 상향등 제어 기능(HBA : High Beam Assist), 사각 지대 감시 기능(BSD : Blind Spot Detection), 자동 비상 조향 기능(AES : Autonomous Emergency Steering), 커브 속도 경고 기능(CSWS : Curve Speed Warning System), 적응 순향 제어 기능(ACC : Adaptive Cruise Control), 스마트 주차 기능(SPAS : Smart Parking Assist System), 교통 정체 지원 기능(TJA : Traffic Jam Assist), 어라운드 뷰 모니터링 기능(AVM : Around View Monitor) 중 적어도 어느 하나인 차량.
  6. 제 5항에 있어서,
    상기 제어부는,
    주행중 항상 상기 교통 신호 검출 기능은 온(on) 되도록 제어하는 차량.
  7. 제 1항에 있어서,
    차량 주변 상황을 감지하는 카메라;를 더 포함하고,
    상기 제어부는,
    상기 차량 주변 상황에 따라, 차량 운전 보조 기능을 제어하는 차량.
  8. 제 7항에 있어서,
    상기 카메라는,
    차량 주변에서 검출된 오브젝트의 동선을 분석하고, 상기 동선 분석을 통해, 상기 오브젝트가 위험 요소인지 판단하고,
    상기 제어부는,
    상기 오브젝트가 위험 요소인 경우, 상기 오브젝트를 더 고려하여, 상기 차량 운전 보조 기능을 제어하는 차량.
  9. 제 7항에 있어서,
    상기 카메라는,
    주행 도로를 검출하고,
    상기 제어부는,
    상기 주행 도로가 고속 도로인 경우와 일반 도로인 경우를 구분하여, 상기 차량 운전 보조 기능을 제어하는 차량.
  10. 제 7항에 있어서,
    상기 카메라는,
    조도 또는 날씨를 감지하고,
    상기 제어부는,
    상기 감지된 조도 또는 날씨에 따라 상기 차량 운전 보조 기능을 제어하는 차량.
  11. 제 1항에 있어서,
    상기 제어부는,
    상기 선택된 운전자 유형보다 상기 감지된 운전자 상태를 더 우선하여, 상기 차량 운전 보조 기능을 제어하는 차량.
  12. 제 1항에 있어서,
    상기 제어에 따른 차량 운전 보조 기능의 동작 상황을 출력하는 출력부;를 더 포함하는 차량.
  13. 제 12항에 있어서,
    상기 감지된 운전자 상태 정보 또는 상기 차량 운전 보조 기능의 동작 상황 정보를 타 디바이스에 전송하는 통신부;를 더 포함하는 차량.
  14. 제 1항에 있어서,
    상기 내부 카메라는, 상기 차량 실내 영상에서 검출된 동승자를 감지하고,
    상기 제어부는, 상기 동승자의 탑승 여부 및 탑승 위치에 따라, 상기 차량 운전 보조 기능을 제어하는 차량.
  15. 제 14항에 있어서,
    상기 제어부는,
    보조석의 후석에 동승자 탑승시, 승차감 중심의 주행이 되도록 상기 차량 운전 보조 기능을 제어하는 차량.
  16. 제 1항에 있어서,
    상기 선택된 운전자 유형이 노인 또는 장애인인 경우,
    상기 제어부는,
    상기 복수의 차량 운전 보조 기능이 모두 온(on)되도록 제어하는 차량.
  17. 제 1항에 있어서,
    상기 선택된 운전자 유형이 임신부인 경우,
    상기 제어부는,
    상기 복수의 차량 운전 보조 기능 중, 급제동이 수행되는 기능은 오프(off)되도록 제어하는 차량.
  18. 제 17항에 있어서,
    상기 임신부가 착용한 웨어러블 디바이스로부터 상기 임신부의 생체 정보를 수신하는 통신부;를 더 포함하고,
    상기 제어부는 상기 생체 정보에 따라 상기 차량 운전 보조 기능을 제어하는 차량.
  19. 운전자 유형을 선택하는 단계;
    상기 운전자 상태를 감지하는 단계; 및
    상기 선택된 운전자 유형 및 상기 감지된 운전자 상태에 따라, 적어도 하나의 차량 운전 보조 기능을 단계적으로 제어하거나 복수의 차량 운전 보조 기능을 선별적으로 제어하는 단계;를 포함하는 차량 운전 보조 방법.
  20. 제 19항에 있어서,
    상기 운전자 유형은,
    상기 운전자의 운전 숙련도에 따라 구분되거나 상기 운전자의 신체적 특징에 따라 구분되는 차량 운전 보조 방법.
PCT/KR2015/013829 2015-06-29 2015-12-16 차량 운전 보조 방법 및 차량 WO2017003052A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/741,119 US10800428B2 (en) 2015-06-29 2015-12-16 Vehicle driving assistance method and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0092251 2015-06-29
KR1020150092251A KR102368812B1 (ko) 2015-06-29 2015-06-29 차량 운전 보조 방법 및 차량

Publications (1)

Publication Number Publication Date
WO2017003052A1 true WO2017003052A1 (ko) 2017-01-05

Family

ID=57608566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/013829 WO2017003052A1 (ko) 2015-06-29 2015-12-16 차량 운전 보조 방법 및 차량

Country Status (3)

Country Link
US (1) US10800428B2 (ko)
KR (1) KR102368812B1 (ko)
WO (1) WO2017003052A1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108725447A (zh) * 2017-04-18 2018-11-02 慧展科技股份有限公司 驾驶状态警示方法及其系统
CN108806018A (zh) * 2017-04-28 2018-11-13 华为技术有限公司 一种数据处理方法、数据处理设备和智能汽车
CN109637170A (zh) * 2017-10-05 2019-04-16 丰田自动车株式会社 驾驶辅助装置、信息处理装置、驾驶辅助系统和驾驶辅助方法
CN109677404A (zh) * 2019-01-11 2019-04-26 南京航空航天大学 一种基于驾驶行为的车路协同的汽车主动安全辅助装置及方法
CN109703557A (zh) * 2017-10-26 2019-05-03 株式会社万都 学习驾驶模式的后侧向预警设备和方法
CN109720340A (zh) * 2018-09-17 2019-05-07 魔门塔(苏州)科技有限公司 一种基于视觉识别的自动泊车系统及方法
CN110027566A (zh) * 2018-12-31 2019-07-19 柳姿贝 一种驾驶员异常情况下车辆自主避险控制装置
CN110654386A (zh) * 2019-10-10 2020-01-07 厦门大学 弯道下多智能电动汽车协作式巡航纵横向综合控制方法
CN111587198A (zh) * 2018-01-17 2020-08-25 三菱电机株式会社 驾驶控制装置、驾驶控制方法及驾驶控制程序
CN111762191A (zh) * 2019-04-01 2020-10-13 现代自动车株式会社 用于在车辆中提供四维效果的装置和方法
US10908607B2 (en) 2017-11-30 2021-02-02 Ford Global Technologies, Llc Enhanced traffic jam assist
US11008016B2 (en) * 2018-03-15 2021-05-18 Honda Motor Co., Ltd. Display system, display method, and storage medium
CN114620043A (zh) * 2020-11-27 2022-06-14 宝能汽车集团有限公司 车辆的控制方法、控制系统以及车辆

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6216406B1 (ja) * 2016-04-27 2017-10-18 株式会社デンソーアイティーラボラトリ ドライバ緊張度判定装置及びドライバ緊張度判定方法
JP6418199B2 (ja) 2016-04-27 2018-11-07 トヨタ自動車株式会社 車両の自動運転システム
EP3293064B1 (en) * 2016-09-12 2021-03-10 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Steering control system and a method for controlling steering
KR101976425B1 (ko) * 2016-09-22 2019-05-09 엘지전자 주식회사 차량 운전 보조 장치
US10082869B2 (en) * 2017-02-03 2018-09-25 Qualcomm Incorporated Maintaining occupant awareness in vehicles
JP6920112B2 (ja) * 2017-06-15 2021-08-18 株式会社デンソーテン 運転支援装置および運転支援方法
KR102064220B1 (ko) 2017-07-06 2020-01-09 엘지전자 주식회사 차량용 주행 시스템 및 차량
DE102017212607A1 (de) * 2017-07-21 2019-01-24 Ford Global Technologies, Llc Verfahren und Vorrichtung zur umgebungsbasierten Adaption von Fahrerassistenzsystem-Funktionen
WO2019021500A1 (ja) * 2017-07-25 2019-01-31 日本電気株式会社 乗員数検知システム、乗員数検知方法、およびプログラム
KR102051020B1 (ko) 2017-08-04 2019-12-03 (주)오펠솔루션 운전패턴 활용을 위한 차량용 영상 모니터링 시스템 및 그 방법
KR102452636B1 (ko) * 2017-09-07 2022-10-11 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
KR102026697B1 (ko) * 2017-09-21 2019-09-30 엘지전자 주식회사 주행 시스템 및 차량
KR102216775B1 (ko) * 2017-10-19 2021-02-17 현대모비스 주식회사 운전자 운전지원 장치 및 방법
KR20190134862A (ko) * 2018-04-27 2019-12-05 삼성전자주식회사 전자 장치 및 그 동작 방법
KR102053201B1 (ko) * 2018-08-22 2019-12-06 엘지전자 주식회사 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법
US11046304B2 (en) 2018-11-12 2021-06-29 Argo AI, LLC Rider selectable ride comfort system for autonomous vehicle
EP3882884A4 (en) * 2018-11-13 2022-01-05 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
WO2020101127A1 (en) 2018-11-13 2020-05-22 Samsung Electro-Mechanics Co., Ltd. Driving support system and method
US10906547B2 (en) * 2018-11-28 2021-02-02 Hyundai Motor Company Controlling engine idle sailing in a vehicle using relative vehicle speed
KR102184598B1 (ko) * 2018-11-29 2020-12-03 (주)제인모터스 자율주행차량의 운전자 응급상황발생판단에 기반한 주행예측 및 안전주행시스템
JP6906717B2 (ja) * 2018-12-12 2021-07-21 三菱電機株式会社 状態判定装置、状態判定方法、及び状態判定プログラム
US11345362B2 (en) * 2018-12-31 2022-05-31 Robert Bosch Gmbh Adaptive warnings and emergency braking for distracted drivers
KR20200131640A (ko) * 2019-05-14 2020-11-24 현대자동차주식회사 차량 및 그 제어방법
KR20210012463A (ko) * 2019-07-25 2021-02-03 엘지전자 주식회사 차량 단말 및 그의 동작 방법
FR3100204A1 (fr) * 2019-08-27 2021-03-05 Psa Automobiles Sa Procédé de sauvegarde et de restitution de paramètres de confort de l’habitacle d’un véhicule automobile par détection biométrique
CN110626341B (zh) * 2019-09-04 2021-03-12 威马智慧出行科技(上海)有限公司 一种汽车交通辅助方法、电子设备及汽车
TWI765208B (zh) * 2020-01-06 2022-05-21 為升電裝工業股份有限公司 具車速偵測功能的盲點偵測系統、偵測裝置及其測速方法
JP6993441B2 (ja) * 2020-01-31 2022-01-13 本田技研工業株式会社 車両制御装置、車両、車両制御装置の動作方法およびプログラム
US11524690B2 (en) * 2020-02-06 2022-12-13 Micron Technology, Inc. Black box operations controlled by driver mental state evaluation
US11738804B2 (en) * 2020-02-07 2023-08-29 Micron Technology, Inc. Training a vehicle to accommodate a driver
KR102386869B1 (ko) * 2020-03-10 2022-04-18 현대모비스 주식회사 차량용 시트벨트 제어 시스템 및 방법
US12043143B2 (en) * 2020-07-15 2024-07-23 Micron Technology, Inc. Customized vehicle settings based on occupant identification
KR102440255B1 (ko) 2020-08-14 2022-09-07 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어 방법
US20220196426A1 (en) * 2020-12-18 2022-06-23 Here Global B.V. Network support for dynamic vehicle routing
DE102021201677B3 (de) 2021-02-23 2022-08-25 Volkswagen Aktiengesellschaft Verfahren und Fahrerassistenzsystem zum Unterstützen eines Kraftfahrzeugs beim Durchführen einer Kurvenfahrt
JP2022178808A (ja) * 2021-05-21 2022-12-02 マツダ株式会社 車両制御装置及び車両制御方法
CN113264044B (zh) * 2021-06-29 2022-09-16 奇瑞汽车股份有限公司 行车辅助系统的设置方法、车辆控制方法、装置和介质
CN113609915A (zh) * 2021-07-09 2021-11-05 南京泰晟科技实业有限公司 一种渣土车智能监测系统及方法
CN114013448B (zh) * 2021-10-20 2023-09-26 奇瑞汽车股份有限公司 汽车的控制方法、装置及计算机存储介质
CN118401422A (zh) * 2021-12-27 2024-07-26 哈曼贝克自动系统股份有限公司 用于个人化adas干预的方法和系统
CN114475640B (zh) * 2022-01-24 2023-06-16 东风汽车集团股份有限公司 一种基于驾驶模式的驾驶辅助系统及驾驶辅助方法
US20230278572A1 (en) * 2022-03-07 2023-09-07 Toyota Research Institute, Inc. Vehicle-provided recommendations for use of adas systems
DE102023201539A1 (de) 2023-02-21 2024-08-22 Volkswagen Aktiengesellschaft Fahrerassistenzvorrichtung und Verfahren zum wenigstens teilautomatischen Ausführen einer Fahrerassistenzfunktion
US20240351598A1 (en) * 2023-04-18 2024-10-24 Hyundai Motor Company Vehicle for pregnant woman and method of controlling same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130015739A (ko) * 2011-08-04 2013-02-14 엘지전자 주식회사 운전자 상태 기반의 자율 이동 방법 및 그 장치
KR101480786B1 (ko) * 2014-01-16 2015-01-14 성균관대학교산학협력단 주행 패턴 정보를 이용한 차량의 충돌회피방법
KR20150051550A (ko) * 2013-11-04 2015-05-13 현대오트론 주식회사 성능이 개선된 운전보조시스템 및 그 제어방법
JP2015110411A (ja) * 2011-02-18 2015-06-18 本田技研工業株式会社 運転者の挙動に応答するシステムおよび方法
KR20150069741A (ko) * 2013-12-16 2015-06-24 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000211478A (ja) * 1999-01-20 2000-08-02 Takata Corp 乗員認識装置及び乗員保護装置
JP2009015548A (ja) * 2007-07-04 2009-01-22 Omron Corp 運転支援装置および方法、並びに、プログラム
JP5157544B2 (ja) * 2008-03-11 2013-03-06 株式会社アドヴィックス 車体速度制御装置
US9308879B2 (en) * 2008-08-06 2016-04-12 Honeywell International Inc. Method, system, and apparatus of vehicle and fleet operator profile automation and deployment
JP2010149767A (ja) * 2008-12-25 2010-07-08 Mitsubishi Fuso Truck & Bus Corp 車両の乗客監視装置
DE102011056051A1 (de) * 2011-12-05 2013-06-06 Conti Temic Microelectronic Gmbh Verfahren zur Auswertung von Bilddaten einer Fahrzeugkamera unter Berücksichtigung von Informationen über Regen
KR101417522B1 (ko) * 2012-12-27 2014-08-06 현대자동차주식회사 고속도로 자율주행 시스템 및 방법
US9238467B1 (en) * 2013-12-20 2016-01-19 Lytx, Inc. Automatic engagement of a driver assistance system
JP2015219830A (ja) * 2014-05-20 2015-12-07 トヨタ自動車株式会社 運転支援装置
US10124800B2 (en) * 2014-05-30 2018-11-13 The Boeing Company Variably controlled ground vehicle
US9488980B2 (en) * 2014-11-25 2016-11-08 Toyota Motor Engineering & Manufacturing North America, Inc. Smart notification systems for wearable devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015110411A (ja) * 2011-02-18 2015-06-18 本田技研工業株式会社 運転者の挙動に応答するシステムおよび方法
KR20130015739A (ko) * 2011-08-04 2013-02-14 엘지전자 주식회사 운전자 상태 기반의 자율 이동 방법 및 그 장치
KR20150051550A (ko) * 2013-11-04 2015-05-13 현대오트론 주식회사 성능이 개선된 운전보조시스템 및 그 제어방법
KR20150069741A (ko) * 2013-12-16 2015-06-24 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
KR101480786B1 (ko) * 2014-01-16 2015-01-14 성균관대학교산학협력단 주행 패턴 정보를 이용한 차량의 충돌회피방법

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108725447A (zh) * 2017-04-18 2018-11-02 慧展科技股份有限公司 驾驶状态警示方法及其系统
CN108806018A (zh) * 2017-04-28 2018-11-13 华为技术有限公司 一种数据处理方法、数据处理设备和智能汽车
CN109637170A (zh) * 2017-10-05 2019-04-16 丰田自动车株式会社 驾驶辅助装置、信息处理装置、驾驶辅助系统和驾驶辅助方法
CN109637170B (zh) * 2017-10-05 2021-09-17 丰田自动车株式会社 驾驶辅助装置、信息处理装置、驾驶辅助系统和驾驶辅助方法
CN109703557B (zh) * 2017-10-26 2023-09-01 汉拿科锐动电子股份公司 学习驾驶模式的后侧向预警设备和方法
CN109703557A (zh) * 2017-10-26 2019-05-03 株式会社万都 学习驾驶模式的后侧向预警设备和方法
US10908607B2 (en) 2017-11-30 2021-02-02 Ford Global Technologies, Llc Enhanced traffic jam assist
CN111587198A (zh) * 2018-01-17 2020-08-25 三菱电机株式会社 驾驶控制装置、驾驶控制方法及驾驶控制程序
US11008016B2 (en) * 2018-03-15 2021-05-18 Honda Motor Co., Ltd. Display system, display method, and storage medium
WO2020056874A1 (zh) * 2018-09-17 2020-03-26 魔门塔(苏州)科技有限公司 一种基于视觉识别的自动泊车系统及方法
CN109720340A (zh) * 2018-09-17 2019-05-07 魔门塔(苏州)科技有限公司 一种基于视觉识别的自动泊车系统及方法
CN110027566A (zh) * 2018-12-31 2019-07-19 柳姿贝 一种驾驶员异常情况下车辆自主避险控制装置
CN109677404A (zh) * 2019-01-11 2019-04-26 南京航空航天大学 一种基于驾驶行为的车路协同的汽车主动安全辅助装置及方法
CN111762191A (zh) * 2019-04-01 2020-10-13 现代自动车株式会社 用于在车辆中提供四维效果的装置和方法
CN110654386A (zh) * 2019-10-10 2020-01-07 厦门大学 弯道下多智能电动汽车协作式巡航纵横向综合控制方法
CN114620043A (zh) * 2020-11-27 2022-06-14 宝能汽车集团有限公司 车辆的控制方法、控制系统以及车辆

Also Published As

Publication number Publication date
KR20170002166A (ko) 2017-01-06
US10800428B2 (en) 2020-10-13
KR102368812B1 (ko) 2022-02-28
US20180194365A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
WO2017003052A1 (ko) 차량 운전 보조 방법 및 차량
WO2017039047A1 (ko) 차량 및 그 제어방법
WO2017034282A1 (en) Driver assistance apparatus and method for controlling the same
WO2017022881A1 (ko) 차량 및 그 제어방법
WO2017061653A1 (ko) 음주운전 방지 방법 및 이를 제공하는 차량 보조 장치
WO2017030240A1 (ko) 차량 보조 장치 및 차량
WO2017094952A1 (ko) 차량 외부 알람방법, 이를 실행하는 차량 운전 보조장치 및 이를 포함하는 차량
WO2018088651A1 (ko) 자율 주행 차량 및 그 제어방법
WO2017150768A1 (ko) 디스플레이 장치 및 이를 포함하는 차량
WO2018088615A1 (ko) 차량 주행 제어 장치 및 방법
WO2018009038A1 (ko) 차량 운전 보조 장치 및 이를 포함하는 주차 관제 시스템
WO2020017716A1 (ko) 차량용 로봇 및 상기 로봇의 제어 방법
WO2020105751A1 (ko) 탑승자 모니터링 방법 및 이를 위한 장치
WO2020226258A1 (ko) 자율 주행 차량과 이를 이용한 보행자 안내 시스템 및 방법
WO2018088614A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2017119557A1 (ko) 운전 보조 장치 및 그 제어방법
WO2017119541A1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
WO2017104888A1 (ko) 차량 운전 보조장치 및 이의 차량 운전 보조방법
WO2016186319A1 (ko) 차량 운전 보조 장치 및 차량
WO2019151575A1 (ko) 차량 단말기 및 그것을 포함하는 운송 시스템의 제어방법
WO2017171124A1 (ko) 외장형 모듈 및 이와 연결되는 차량
WO2020166749A1 (ko) 차량을 이용한 정보 표시 방법 및 시스템
WO2020213772A1 (ko) 차량 제어 장치 및 그 장치의 제어 방법
WO2021010524A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2015093823A1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15897270

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15897270

Country of ref document: EP

Kind code of ref document: A1