WO2017003013A1 - 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량 - Google Patents

차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량 Download PDF

Info

Publication number
WO2017003013A1
WO2017003013A1 PCT/KR2015/008534 KR2015008534W WO2017003013A1 WO 2017003013 A1 WO2017003013 A1 WO 2017003013A1 KR 2015008534 W KR2015008534 W KR 2015008534W WO 2017003013 A1 WO2017003013 A1 WO 2017003013A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information
virtual preceding
preceding vehicle
mode
Prior art date
Application number
PCT/KR2015/008534
Other languages
English (en)
French (fr)
Inventor
류승원
박준식
소윤나
송지은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/125,604 priority Critical patent/US10377236B2/en
Publication of WO2017003013A1 publication Critical patent/WO2017003013A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0055Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • B60K2360/166
    • B60K2360/177
    • B60K2360/334
    • B60K35/213
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/20Direction indicator values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06GANALOGUE COMPUTERS
    • G06G7/00Devices in which the computing operation is performed by varying electric or magnetic quantities
    • G06G7/48Analogue computers for specific processes, systems or devices, e.g. simulators
    • G06G7/70Analogue computers for specific processes, systems or devices, e.g. simulators for vehicles, e.g. to determine permissible loading of ships, centre of gravity, necessary fuel
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a vehicle driving assistance apparatus and a method of operating the same, and more particularly, to an apparatus for assisting a driver in driving a vehicle by displaying a virtual preceding vehicle.
  • Navigation devices that provide route information to a destination set by the driver are widely used.
  • route information is displayed on a monitor screen near the console, or is displayed by a separate device, and the driver generally recognizes the displayed information and voice information.
  • the head up display projects the information such as the speed and flow rate of the vehicle or the image information such as the night vision and the image of the rear view camera by using a mirror to project it on the front glass window.
  • the driver can easily recognize the driver to ensure safety.
  • the head-up display is used to display a virtual preceding vehicle so as to maintain a safe distance from the front vehicle or to display the speed or driving direction of the vehicle.
  • the problem to be solved by the present invention is to provide a vehicle driving assistance apparatus for guiding a route change, securing a safety distance, etc., as well as route guidance through a virtual preceding vehicle.
  • the vehicle driving assistance apparatus includes a display unit displaying a virtual preceding vehicle corresponding to one virtual preceding mode selected by a user among a plurality of virtual preceding modes, and route information including destination information set by the user. And an interface unit to receive sensing information detected by a sensor, and a processor to control the virtual preceding vehicle based on the route information and the sensing information.
  • the vehicle according to the embodiment of the present invention may include the vehicle driving assistance device.
  • a control method of a vehicle driving assistance apparatus includes displaying a plurality of virtual preceding modes on a display unit, and displaying a virtual preceding vehicle corresponding to at least one virtual preceding mode selected from the plurality of virtual preceding modes. And changing the state of the virtual preceding vehicle based on the route information and the sensing information received from the interface unit.
  • a virtual preceding vehicle providing various virtual preceding modes may provide route information to the driver and help the driver drive by reflecting real-time traffic information.
  • the embodiment may help the driver cope with an emergency situation and drive safely by turning on or changing the shape of the direction indicator light of the virtual preceding vehicle.
  • FIG. 1 is a block diagram of a vehicle driving assistance apparatus according to an exemplary embodiment of the present invention.
  • FIG. 2 is an internal block diagram of a vehicle including a vehicle driving assistance apparatus according to an exemplary embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an interior of a vehicle according to an exemplary embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating an operation of selecting a virtual preceding mode according to an embodiment of the present invention.
  • FIG. 5 is a front view of a display unit illustrating a plurality of virtual preceding modes according to an embodiment of the present invention.
  • FIG. 6 is a front view of a display unit showing a virtual preceding vehicle in a safe mode according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an operation of a virtual preceding vehicle for securing a safety distance according to an embodiment of the present invention.
  • FIG. 8 is a front view of a display unit showing a virtual preceding vehicle for securing a safety distance according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an operation for speed limit compliance according to an embodiment of the present invention.
  • FIG. 10 is a front view of a display unit showing a virtual preceding vehicle for speed limit compliance according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating an operation of a virtual preceding vehicle for obstacle avoidance according to an embodiment of the present invention.
  • FIG. 12 is a front view of a display unit showing a virtual preceding vehicle for obstacle avoidance according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating an operation of a virtual preceding vehicle for changing lanes according to an exemplary embodiment of the present invention.
  • FIG. 14 is a front view of a display unit showing a virtual preceding vehicle for changing lanes according to an embodiment of the present invention.
  • 15 is a front view of a display unit showing the virtual preceding vehicle in the destination mode according to the embodiment of the present invention.
  • 16 is a flowchart illustrating an operation of turning off the display of the virtual preceding vehicle according to the embodiment of the present invention.
  • 17 is a front view of a display unit showing a guide message for turning off the display of the virtual preceding vehicle according to an embodiment of the present invention.
  • FIG. 18 is a front view of a display unit for selecting a vehicle past driving history mode according to an embodiment of the present invention.
  • 19 is a front view of a display unit to select in the past history history mode of the vehicle in accordance with an embodiment of the present invention.
  • 20 is a front view of a display unit to select in the past vehicle history history mode of another vehicle according to an embodiment of the present invention.
  • 21 is a flowchart illustrating an operation of selecting an icon of a virtual preceding vehicle according to an embodiment of the present invention.
  • 22 is a front view of a display unit for selecting an icon of a virtual preceding vehicle according to an embodiment of the present invention.
  • 23 is a flowchart illustrating an operation of changing lanes by a virtual preceding vehicle according to an embodiment of the present invention.
  • the vehicle described herein may be a concept including an automobile and a motorcycle.
  • a vehicle is mainly described for a vehicle.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, an electric vehicle having an electric motor as a power source, and the like.
  • the left side of the vehicle means the left side of the driving direction of the vehicle
  • the right side of the vehicle means the right side of the driving direction of the vehicle
  • FIG. 1 is a block diagram of a vehicle driving assistance apparatus according to an exemplary embodiment of the present invention.
  • the vehicle driving assistance apparatus 100 may include a processor 110, a communication unit 120, an input unit 130, a driving history storage unit 140, an audio output unit 150, a display unit 160, and a power supply.
  • the supply unit 170, a memory 180, and an interface unit 190 may be included.
  • the processor 110 may process signals, data, and information input or output to the vehicle driving assistance apparatus 100 or drive an application program stored in the memory 180 to provide an appropriate information or function to a driver. .
  • the processor 110 may control the virtual preceding vehicle 2000 of FIG. 3 displayed on the display unit 160.
  • the processor 110 may change the state of the virtual preceding vehicle 2000 based on the path information and the sensing information received from the interface unit 190.
  • the state of the virtual preceding vehicle 2000 may be at least one of shape, color, size, ratio, and position.
  • the communicator 120 may transmit / receive data with the mobile terminal 310 or the server 320 in a wireless manner.
  • the wireless method may be at least one of mobile communication, satellite communication, and short-range communication, but is not limited thereto.
  • the communication unit 120 from the mobile terminal 310 or the server 320 traffic conditions including the location information of each vehicle, the traffic volume information at the current location of each vehicle, traffic accident information, weather information, emergency information At least one of the information and the vehicle driving history information may be received.
  • the input unit 130 may include an image input unit for inputting an image signal, an audio input unit for inputting an audio signal, and a user input unit for receiving information from a user.
  • the input unit 130 may transmit the collected voice data or the image data to the processor 110, and the processor 110 may control the vehicle by analyzing the voice data or the image data.
  • the driving history storage unit 140 may store the driving history data of the vehicle and display the stored driving vehicle history data on the display unit 160.
  • the own vehicle driving history data may include at least one of a driving date, a required time, and fuel economy, but is not limited thereto.
  • the driving history storage unit 140 may receive and store other vehicle driving history data from the server 320 and display the driving history data on the display unit 160.
  • the vehicle driving history data of another person may include at least one of a user name, a required time, and a fuel economy, but is not limited thereto.
  • the audio output unit 150 may output sound to the outside based on the audio signal processed by the processor 110.
  • the display unit 160 may display various types of information processed by the processor 110.
  • the display unit 160 may display an image related to the operation of the vehicle driving assistance apparatus 100.
  • the display unit 160 may include a cluster or a head up display (HUD) on the front surface of the vehicle.
  • the head-up display may be disposed on the windshield of the vehicle, and may include a transparent film or a reflective lens.
  • the head-up display may induce safe driving to the driver by projecting emergency situation notification information received from another vehicle or a mobile terminal of another vehicle onto a transparent film or a reflective lens.
  • the power supply unit 170 may supply power necessary for the operation of each component under the control of the processor 110.
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • the memory 180 may store a program for processing or controlling the processor 110 and various data for the overall operation of the vehicle driving assistance apparatus 100.
  • the interface unit 190 receives vehicle-related data from the control unit 200 of FIG. 2, the sensor unit 500 of FIG. 2, or the navigation 900 of 900, or externally processes a signal generated or processed by the processor 110. Can be sent to.
  • the interface unit 190 may receive sensing information from the sensor unit 500, and may receive route information from the navigation 900.
  • the sensing information may be information sensed from a plurality of sensors (eg, speed sensor, gyro sensor, radar, lidar, etc.), and the route information may be destination information, route information according to the destination information, and vehicle driving. It may be map information or vehicle location information associated with the.
  • FIG. 2 is an internal block diagram of a vehicle including a vehicle driving assistance apparatus according to an exemplary embodiment of the present invention.
  • the vehicle 1000 includes a vehicle driving assistance apparatus 100, a controller 200, a communication unit 300, an input unit 400, a sensor unit 500, and an output unit 600 illustrated in FIG. 1.
  • the vehicle driver 700 may include a memory 800, a memory 800, a navigation 900, a power supply 910, and an interface 920.
  • the controller 200 may control the overall operation of each unit in the vehicle 1000.
  • the controller 200 may process traffic state information received from the communication unit 300, user input data received from the input unit 400, sensing information received from the sensor unit 500, and route information received from the navigation 900. Can be.
  • the controller 200 may control the overall operation of each unit in the vehicle 1000.
  • the controller 200 may be referred to as an electronic control unit (ECU).
  • ECU electronice control unit
  • the controller 200 may be implemented in hardware such as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors ( It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • the controller 200 may control the virtual preceding vehicle 2000 driven by the vehicle driving assistance apparatus 100.
  • the communication unit 300 may include one or more modules that enable wireless communication between the vehicle 1000 and the mobile terminal 310 and between the vehicle 1000 and the server 320. In addition, the communication unit 300 may include one or more modules for connecting the vehicle 1000 to one or more networks.
  • the communication unit 300 may include a broadcast receiving module 301, a wireless internet module 303, a short range communication module 305, a location information module 307, and an optical communication module 309.
  • the broadcast receiving module 301 receives a broadcast signal or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast includes a radio broadcast or a TV broadcast.
  • the wireless internet module 303 refers to a module for wireless internet access and may be embedded or external to the vehicle 1000.
  • the wireless internet module 303 is configured to transmit and receive wireless signals in a communication network according to wireless internet technologies.
  • wireless Internet technologies include wireless LAN (WLAN), wireless-fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, digital living network alliance (DLNA), wireless broadband (WiBro), WiMAX ( World Interoperability for Microwave Access (HSDPA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like.
  • 303 transmits and receives data according to at least one wireless Internet technology in a range including the Internet technologies not listed above.
  • the wireless internet module 303 may exchange data with the server 320 wirelessly.
  • the wireless internet module 303 may receive weather information and traffic condition information (eg, TPEG (Transport Protocol Expert Group)) information of the road from the server 320.
  • TPEG Transport Protocol Expert Group
  • the short range communication module 305 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • Near field communication may be supported using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct, and Wireless Universal Serial Bus (Wireless USB) technologies.
  • the short range communication module 305 may form short range wireless networks to perform short range communication between the vehicle 1000 and at least one external device. For example, the short range communication module 305 may exchange data with the mobile terminal 310 wirelessly.
  • the short range communication module 305 may receive weather information and traffic condition information of a road (for example, a transport protocol expert group (TPEG)) from the mobile terminal 310.
  • TPEG transport protocol expert group
  • the mobile terminal 310 of the user and the vehicle 1000 may perform pairing with each other automatically or by executing an application of the user.
  • the location information module 307 is a module for obtaining the location of the vehicle 1000, and a representative example thereof is a GPS (Global Positioning System) module.
  • GPS Global Positioning System
  • the vehicle may acquire the position of the vehicle using a signal transmitted from a GPS satellite.
  • the optical communication module 309 may include an optical transmitter and an optical receiver.
  • the light receiver may convert the light signal into an electrical signal to receive information.
  • the light receiver may include a photo diode (PD) for receiving light.
  • Photodiodes can convert light into electrical signals.
  • the light receiver may receive information of the front vehicle through the light emitted from the light source included in the front vehicle.
  • the light emitter may include at least one light emitting device for converting an electrical signal into an optical signal.
  • the light emitting element is a light emitting diode (LED).
  • the light emitting unit converts the electric signal into an optical signal and transmits it to the outside.
  • the light transmitting unit may emit an optical signal to the outside through the blinking of the light emitting device corresponding to the predetermined frequency.
  • the light emitting unit may include a plurality of light emitting element arrays.
  • the light emitting unit may be integrated with a lamp provided in the vehicle 1000.
  • the light emitting unit may be at least one of a headlight, a taillight, a brake light, a turn signal, and a vehicle width lamp.
  • the input unit 400 may include a driving operation unit 401, a camera 403, a microphone 405, and a user input unit 407.
  • the driving operation means 401 receives a user input for driving the vehicle 1000.
  • the driving manipulation means 401 may include a steering input means, a shift input means, an acceleration input means, and a brake input means.
  • the camera 403 may include an image sensor and an image processing module.
  • the camera 403 may process a still image or a moving image obtained by an image sensor (for example, CMOS or CCD).
  • the image processing module may process the still image or the video obtained through the image sensor, extract necessary information, and transfer the extracted information to the controller 200.
  • the vehicle 1000 may include a camera 403 for capturing a vehicle front image or a vehicle surrounding image.
  • the microphone 405 may process an external sound signal as electrical data.
  • the processed data may be utilized in various ways depending on the function being performed in the vehicle 1000.
  • the microphone 405 may convert the voice command of the user into electrical data.
  • the converted electrical data may be transferred to the controller 200.
  • the camera 403 or the microphone 405 may be a component included in the sensor unit 500, not a component included in the input unit 400.
  • the user input unit 407 is for receiving information from a user. When information is input through the user input unit 407, the controller 200 may control an operation of the vehicle 1000 to correspond to the input information.
  • the user input unit 407 may include a touch input means or a mechanical input means. According to an embodiment, the user input unit 407 may be disposed in one region of the steering wheel. In this case, the driver may manipulate the user input unit 407 with a finger while holding the steering wheel.
  • the sensor unit 500 senses a signal related to driving of the vehicle 1000.
  • the sensor unit 500 may include a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, a gyro sensor.
  • the sensor unit 500 includes vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, and battery information.
  • the sensing signal may be acquired for fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, and steering wheel rotation angle.
  • the sensor unit 500 may further include an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake temperature sensor (ATS), a water temperature sensor (WTS), and a throttle.
  • the sensor may further include a position sensor TPS, a TDC sensor, a crank angle sensor CAS, and the like.
  • the sensor unit 500 may include a biometric information detecting unit.
  • the biometric information detector detects and acquires biometric information of the occupant.
  • Biometric information includes fingerprint information, iris-scan information, retina-scan information, hand geo-metry information, facial recognition information, voice recognition ( Voice recognition) information.
  • the biometric information detecting unit may include a sensor for sensing biometric information of the occupant.
  • the biometric information detecting unit may acquire hand shape information and face recognition information through the internal camera 195c.
  • the output unit 600 is for outputting the information processed by the controller 200, and may include a display unit 601, a sound output unit 603, and a haptic output unit 605.
  • the display unit 601 may display information processed by the controller 200.
  • the display unit 601 may display vehicle related information.
  • the vehicle related information may include vehicle control information for direct control of the vehicle, or vehicle driving assistance information for driving guide to the vehicle driver.
  • the vehicle related information may include vehicle state information indicating a current state of a vehicle or vehicle driving information related to driving of the vehicle.
  • the display unit 601 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display, a 3D display, or an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • display a 3D display, or an e-ink display.
  • the display unit 601 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen.
  • a touch screen may function as a user input unit 407 that provides an input interface between the vehicle 1000 and the user, and may provide an output interface between the vehicle 1000 and the user.
  • the display unit 601 may include a touch sensor that senses a touch on the display unit 601 so as to receive a control command by a touch method. By using this, when a touch is made to the display unit 601, the touch sensor may sense the touch, and the controller 200 may generate a control command corresponding to the touch based on the touch sensor.
  • the content input by the touch method may be letters or numbers or menu items that can be indicated or designated in various modes.
  • the display unit 601 may include a cluster (cluster) so that the driver can check the vehicle status information or vehicle driving information while driving.
  • the cluster can be located on the dashboard. In this case, the driver can check the information displayed on the cluster while keeping the gaze in front of the vehicle.
  • the display unit 601 may be implemented as a head up display (HUD).
  • HUD head up display
  • information may be output through a transparent display provided in the wind shield.
  • the display unit 601 may include a projection module to output information through an image projected on the wind shield.
  • the sound output unit 603 converts an electric signal from the control unit 200 into an audio signal and outputs the audio signal.
  • the sound output unit 603 may include a speaker.
  • the sound output unit 603 may output sound corresponding to the operation of the user input unit 407.
  • the haptic output unit 605 generates a tactile output.
  • the haptic output unit 605 may operate by vibrating the steering wheel, the seat belt, and the seat so that the user can recognize the output.
  • the vehicle driver 700 may control operations of various vehicles.
  • the vehicle driver 700 includes a power source driver 701, a steering driver 703, a brake driver 705, a lamp driver 707, an air conditioning driver 709, a window driver 711, an airbag driver 713, and a sunroof.
  • the driver 715 and the suspension driver 717 may be included.
  • the power source driver 701 may perform electronic control of the power source in the vehicle 700.
  • the steering driver 703 may perform electronic control of a steering apparatus in the vehicle 1000. As a result, the traveling direction of the vehicle can be changed.
  • the brake driver 705 may perform electronic control of a brake apparatus (not shown) in the vehicle 1000.
  • the speed of the vehicle 1000 may be reduced by controlling the operation of the brake disposed on the wheel.
  • the traveling direction of the vehicle 1000 may be adjusted to the left or the right.
  • the lamp driver 707 may control turn on / turn off of a lamp disposed in or outside the vehicle.
  • the air conditioning driver 709 may perform electronic control of an air cinditioner (not shown) in the vehicle 1000. For example, when the temperature inside the vehicle is high, the air conditioner may be operated to control cold air to be supplied into the vehicle.
  • the window driver 711 may perform electronic control of a window apparatus in the vehicle 1000. For example, the opening or closing of the left and right windows of the side of the vehicle can be controlled.
  • the airbag driver 713 may perform electronic control of an airbag apparatus in the vehicle 1000.
  • the airbag can be controlled to burst.
  • the sunroof driver 715 may perform electronic control of a sunroof apparatus (not shown) in the vehicle 1000. For example, the opening or closing of the sunroof can be controlled.
  • the suspension driver 715 may perform electronic control of a suspension apparatus (not shown) in the vehicle 1000.
  • the suspension device may be controlled to control the vibration of the vehicle 1000 to be reduced.
  • the memory 800 may store various data for overall operation of the vehicle 700, such as a program for processing or controlling the control unit 200.
  • the navigation 900 may transmit and receive the set destination information, route information according to the destination, map information or vehicle location information related to driving of the vehicle with the controller 200.
  • the power supply unit 910 may supply power required for the operation of each component under the control of the controller 200.
  • the power supply unit 910 may receive power from a battery (not shown) in the vehicle.
  • the interface unit 920 may serve as a path to various types of external devices connected to the vehicle 1000.
  • the interface unit 920 may include a port connectable to the mobile terminal 310, and may be connected to the mobile terminal 310 through the port. In this case, the interface unit 920 may exchange data with the mobile terminal 310.
  • the interface unit 920 may serve as a path for supplying electrical energy to the connected mobile terminal 310.
  • the interface unit 920 provides the mobile terminal 600 with electrical energy supplied from the power supply unit 910. do.
  • FIG. 3 is a diagram illustrating an interior of a vehicle according to an exemplary embodiment of the present invention.
  • the vehicle 1000 may include a windshield 1100 disposed at a front surface, a steering input unit 1200 for adjusting a traveling direction of the vehicle, and a direction indicating lever 1210 for operating a direction indicator of the vehicle 1000. Can be.
  • the virtual preceding vehicle 2000 may be displayed to be disposed between the other vehicle 3000 and the vehicle 1000 to assist the driving of the driver.
  • FIG. 4 is a flowchart illustrating an operation of selecting a virtual preceding mode according to an embodiment of the present invention
  • FIG. 5 is a front view of a display unit illustrating a plurality of virtual preceding modes according to an embodiment of the present invention.
  • the processor 110 may display a plurality of virtual preceding modes on the display unit 160 (S410).
  • the plurality of virtual preceding modes may include, but are not limited to, a destination mode, a lowest fuel economy priority mode, a safety mode, a shortest distance priority mode, and a past driving history mode.
  • the processor 110 may receive a virtual preceding mode selected from the plurality of virtual preceding modes from the input unit 130.
  • the input unit 130 may be input through a voice input of the driver, an operation of the steering input unit 1200, or a touch operation, but is not limited thereto.
  • the virtual advanced mode is set as a safe mode by default. However, when the driver moves the steering input unit 1200 to the right direction, the virtual advanced mode may be set to change to the lowest fuel economy priority mode. If the steering input unit 1200 is moved in the left direction, the steering input unit 1200 may be changed to the shortest distance priority mode.
  • the processor 110 may display the virtual preceding vehicle 2000 corresponding to the virtual preceding mode selected by the driver (S420).
  • the processor 110 may change the state of the virtual preceding vehicle 2000 based on the path information and the sensing information received from the interface unit 190 (S330).
  • the state may be at least one of shape, color, size, ratio, and position. That is, when the vehicle 1000 starts to travel, the virtual preceding vehicle 2000 may perform a function of guiding the vehicle 1000 to safely travel from the front of the vehicle 1000 to the destination.
  • FIG. 6 is a front view of a display unit showing a virtual preceding vehicle in a safe mode according to an embodiment of the present invention.
  • the processor 110 may display the virtual preceding vehicle 2000 on the display unit 160 between the other vehicle 3000 and the vehicle 1000.
  • the display unit 160 may include a first guide window 161 and a second guide window 162.
  • the first guide window 161 may display the current virtual preceding mode
  • the second guide window 162 may display the speed information of the virtual preceding vehicle 2000, but the first guide window 161 and Information displayed on the second guide window 162 is not limited.
  • FIG. 7 is a flowchart illustrating an operation of a virtual preceding vehicle for securing a safety distance according to an embodiment of the present invention
  • FIG. 8 is a front view of a display unit illustrating the virtual preceding vehicle for securing a safety distance according to an embodiment of the present invention. It is also.
  • the processor 110 may receive sensing information from the interface unit 190 (S710).
  • the sensing information may include location information of the vehicle 1000 and location information of another vehicle 3000.
  • the processor 110 may detect a distance between the other vehicle 3000 and the vehicle 1000 through the sensing information (S720).
  • the processor 110 may change the shape of the virtual preceding vehicle 2000 and display a guide message.
  • the threshold may be preset. It may be a value received from the communication unit 120. That is, the processor 110 may display the virtual preceding vehicle 2000 as the vehicle 1000 becomes closer or larger. In addition, the color of the virtual preceding vehicle 2000 may be changed, and the emergency lights 2100 and 2200 of the virtual preceding vehicle 2000 may be turned on.
  • the guide message may be displayed on the message window 163 to deliver information to the driver.
  • FIG. 9 is a flowchart illustrating an operation for speed limit compliance according to an embodiment of the present invention
  • FIG. 10 is a front view of a display unit illustrating a virtual preceding vehicle for speed limit compliance according to an embodiment of the present invention.
  • the processor 110 may receive sensing information from the interface unit 190 (S910).
  • the sensing information may include speed information of the vehicle 1000 and location information of the vehicle 1000.
  • the processor 110 may detect the driving speed of the vehicle 1000 by interpreting the sensing information (S920).
  • the processor 110 may change the shape of the virtual preceding vehicle 2000 and display a guide message (S930).
  • the threshold may be set by receiving the speed limit information of the corresponding section included in the received traffic condition information.
  • the shape of the virtual preceding vehicle 2000 may be displayed to be closer to the vehicle 1000, for example, and may be displayed to be larger and larger.
  • the color of the virtual preceding vehicle 2000 may be changed, and the emergency lights 2100 and 2200 of the virtual preceding vehicle 2000 may be turned on.
  • the guide message may be displayed on the message window 163 to deliver information to the driver.
  • FIG. 11 is a flowchart illustrating an operation of a virtual preceding vehicle for obstacle avoidance according to an embodiment of the present invention
  • FIG. 12 is a front view of a display unit illustrating the virtual preceding vehicle for obstacle avoidance according to an embodiment of the present invention.
  • the processor 110 may receive sensing information from the interface unit 190 or receive traffic state information from the communication unit (S1110).
  • the traffic situation information may include at least one of traffic volume information, traffic accident information, weather information, emergency situation information.
  • the processor 110 may detect the obstacle ahead by analyzing the sensing information and the traffic condition information (S1120).
  • the obstacle 104 may be one of a sink hole, a rockfall, a lost object, but is not limited thereto.
  • the processor 110 may control to change the lane of the virtual preceding vehicle 2000 to avoid the vehicle 1000 from the obstacle (S1140).
  • the shape of the virtual preceding vehicle may be changed and a guide message may be displayed.
  • the processor 110 may determine the point of time at which the lane change is possible by analyzing the sensing information and the traffic state information.
  • the direction indicator light 2200 of the virtual preceding vehicle 2000 is determined. Lights up and you can change lanes.
  • the guide message may be displayed on the message window 163 to transmit information to the driver.
  • the processor 110 detects a weather deterioration condition in which a lot of fog or heavy snow falls at a point where the vehicle 1000 is located, based on the traffic condition information, of the virtual preceding vehicle 2000. You can change the shape and display the guide message.
  • the shape of the virtual preceding vehicle 2000 may be displayed to be closer to the vehicle 1000, for example, and may be displayed to be larger and larger.
  • the color of the virtual preceding vehicle 2000 may be changed, and the emergency lights 2100 and 2200 of the virtual preceding vehicle 2000 may be turned on.
  • the processor 110 may change the shape of the virtual preceding vehicle 2000 and display a guide message.
  • the shape of the virtual preceding vehicle 2000 may be displayed to be closer to the vehicle 1000, for example, and may be displayed to be larger and larger.
  • the color of the virtual preceding vehicle 2000 may be changed, and the emergency lights 2100 and 2200 of the virtual preceding vehicle 2000 may be turned on.
  • FIG. 13 is a flowchart illustrating an operation of a virtual preceding vehicle for changing lanes according to an embodiment of the present invention
  • FIG. 14 is a front view of a display unit illustrating a virtual preceding vehicle for changing lanes according to an embodiment of the present invention.
  • the processor 110 may receive a lane change signal from the inputter 130 (S1310).
  • the input unit 130 may be input through manipulation of the direction indication lever 1210 of the steering input unit 1200.
  • the processor 110 may light the direction indicator 2100 or 2200 of the virtual preceding vehicle 2000 according to the lane change signal (S1320).
  • the processor 110 interprets the sensing information and the traffic condition information to change the lane of the virtual preceding vehicle 2000.
  • a possible time point may be determined (S1330), and a control may be performed to change the lane of the virtual preceding vehicle at the time point at which the lane may be changed (S1340). That is, the driver of the vehicle 1000 may safely change the lane according to the guidance of the virtual preceding vehicle.
  • 15 is a front view of a display unit showing the virtual preceding vehicle in the destination mode according to the embodiment of the present invention.
  • path information received from the interface unit 190 may be displayed on the display unit 160.
  • the display unit 160 may include a first guide window 161 and a third guide window 165, and the first guide window 161 may display the current virtual preceding mode, and the third guide.
  • the window 165 may display the route information.
  • the route information may be one of destination information and arrival time, but is not limited thereto.
  • path information received from the interface unit 190 may be displayed on the display unit 160.
  • the route information may include a route that can reach the destination at the lowest fuel economy.
  • the path information received from the interface unit 190 may be displayed on the display unit 160.
  • the route information may include a route that can reach the destination at the lowest fuel economy.
  • the path may be different from the destination mode in the lowest fuel efficiency priority mode and the shortest distance priority mode.
  • the processor 110 may display related information of the favorite place in the message window 163 of the display unit 160. ) Can be displayed.
  • the related information may be information such as a gas charge, the number of visits, recent visits, and the like.
  • FIG. 16 is a flowchart illustrating an operation of terminating a display of a virtual preceding vehicle according to an embodiment of the present invention
  • FIG. 17 is a display unit illustrating a guide message for terminating display of the virtual preceding vehicle according to an embodiment of the present invention. Front view.
  • the processor 110 may display a plurality of virtual preceding modes on the display unit 160 (S1610).
  • the plurality of virtual preceding modes may include, but are not limited to, a destination mode, a shortest distance priority mode, a lowest fuel economy priority mode, a safety mode, and a past driving history mode.
  • the processor 110 may display the virtual preceding vehicle 2000 corresponding to the virtual preceding mode selected by the driver on the display unit 160 (S1620).
  • the processor 110 may change the state of the virtual preceding vehicle 2000 based on the path information and the sensing information received from the interface unit 190 (S1630). That is, when the vehicle 1000 starts to travel, the vehicle 1000 may safely drive to the destination under the guidance of the virtual preceding vehicle 2000.
  • the processor 110 may display whether the virtual preceding vehicle 2000 is displayed on the display unit 160 (S1640).
  • the specific section may be a section preset by the user.
  • the processor 110 may end the display of the virtual preceding vehicle 2000 (S1650).
  • FIG. 18 is a front view of a display unit for selecting a vehicle past driving history mode according to an embodiment of the present invention.
  • the processor 110 may select the own vehicle past driving history mode and the other vehicle past driving history mode to select a past vehicle history record mode and another vehicle past history record mode.
  • the past driving history mode of another vehicle may be displayed on the display unit 160.
  • Figure 19 is a front view of a display unit for selecting in the past vehicle history history mode according to an embodiment of the present invention
  • Figure 20 is a front view of a display unit for selecting in the past vehicle history history mode of another vehicle according to an embodiment of the present invention.
  • the processor 110 may process the own vehicle driving history data received from the driving history storage unit 140 and recommend driving.
  • the history list may be displayed on the display unit 160.
  • the recommended driving history list may be classified by time zone and day of the week.
  • the own vehicle driving history data may include, but is not limited to, at least one of a driving date, a required time, and a fuel economy corresponding to the route information.
  • the processor 110 may control the virtual preceding vehicle 2000 corresponding to the own vehicle driving history data selected by the driver.
  • the processor 110 may analyze the tine vehicle driving history data received from the server 320 and stored in the driving history storage unit 140, and recommended.
  • the driving history list may be displayed on the display unit 160.
  • the vehicle driving history data of another person may include at least one of a user name, a required time, and a fuel economy corresponding to the route information, but are not limited thereto.
  • FIG. 21 is a flowchart illustrating an operation of selecting an icon of a virtual preceding vehicle according to an embodiment of the present invention
  • FIG. 22 is a front view of a display unit for selecting an icon of the virtual preceding vehicle according to an embodiment of the present invention.
  • the processor 110 may display a plurality of virtual preceding modes on the display unit 160 (S2110).
  • the plurality of virtual preceding modes may include, but are not limited to, a destination mode, a shortest distance priority mode, a lowest fuel economy priority mode, a safety mode, and a past driving history mode.
  • the user input unit 130 may receive one of the plurality of virtual preceding modes by the driver.
  • the user input unit 130 may be input through a voice input of the driver, an operation of the steering input unit 120, or a touch operation, but is not limited thereto.
  • the processor 110 may display the virtual preceding vehicle 2000 corresponding to the virtual preceding mode selected by the driver on the display unit 160 (S2120). Thereafter, the processor 110 may display icons of the plurality of virtual preceding vehicles (S2130). For example, the icon may be a variety of vehicles. When the vehicle 1000 starts driving, the processor 110 may change the state of the virtual preceding vehicle 2000 based on the path information and the sensing information received from the interface unit 190 (S2130).
  • the processor 110 may detect the color and the transparency of the virtual preceding vehicle 2000 in real time based on the sensing information including illuminance and brightness information of the display unit 160. Based on the transparency, the color and transparency of the virtual preceding vehicle 2000 may be changed to increase the driver's discrimination ability with respect to the virtual preceding vehicle 2000.
  • 23 is a flowchart illustrating an operation of changing lanes by a virtual preceding vehicle according to an embodiment of the present invention.
  • the processor 110 may display a plurality of virtual preceding modes on the display unit 160 (S2310).
  • the plurality of virtual preceding modes may include, but are not limited to, a destination mode, a shortest distance priority mode, a lowest fuel economy priority mode, a safety mode, and a past driving history mode.
  • the processor 110 may display the virtual preceding vehicle 2000 corresponding to the virtual preceding mode selected by the driver on the display unit 160 (S1620).
  • the processor 110 may change the state of the virtual preceding vehicle 2000 based on the path information and the sensing information received from the interface unit 190 (S1630). For example, when it is determined that the lane change is necessary (S1640), the processor 110 interprets the sensing information and the traffic state information to turn on the direction indicator 2100 or 2200 of the virtual preceding vehicle 2000, and the notification message. Can be displayed on the notification window (S1650). That is, the driver may safely change lanes according to the guidance of the virtual preceding vehicle 2000.
  • the processor 110 may display whether the virtual preceding vehicle 2000 is displayed on the display unit (S1640).
  • the specific section may be a section previously set by the user, and data for the specific section may be received from the mobile terminal 310 or the server 320.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes the implementation in the form of a carrier wave (eg, transmission over the Internet).
  • the computer may include a processor 110 or a controller 200. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Abstract

본 발명은 복수의 가상 선행 모드 중 사용자에 의해 선택된 하나의 가상 선행 모드에 대응하는 가상 선행 차량을 디스플레이하는 표시부와, 사용자가 설정한 목적지 정보를 포함하는 경로 정보와 센서에 의해 검출된 센싱 정보를 수신하는 인터페이스부와, 상기 경로 정보와 상기 센싱 정보에 기초하여 상기 가상 선행 차량을 제어하는 프로세서를 포함하는 차량 주행 보조 장치에 관한 것이다.

Description

차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
본 발명은 차량 주행 보조 장치 및 그 동작 방법에 관한 것으로, 특히 가상 선행 차량을 디스플레이하여 운전자의 차량 주행을 보조하는 장치에 관한 것이다.
운전자에게 설정된 목적지까지 경로 정보를 제공하는 네비게이션(navigation) 장치가 널리 이용되고 있다. 기존의 네비게이션 장치는 경로 정보가 콘솔 부근의 모니터 화면에 표시되거나, 별도의 장치에 의해 표시되며, 표시된 정보와 음성 정보를 통해 운전자가 인식하는 것이 일반적이다.
한편, 헤드업 디스플레이(HUD, Head Up Display)는 차량의 속도나 유량 등의 정보나 나이트 비전, 후방감시카메라의 영상 등의 영상 정보를 렌즈에 의해 확대한 상태로 거울을 이용하여 전면 유리창에 투사시켜 운전자가 쉽게 인식할 수 있어 안전성을 확보하도록 한 것이다.
다만, 헤드업 디스플레이는 전방 차량과의 안전 거리를 유지할 수 있도록 가상 선행 차량을 표시하거나, 차량의 속도나 운행 방향을 디스플레이하는 정도로 이용되고 있는 실정이다.
본 발명의 해결하고자 하는 과제는 가상의 선행 차량을 통해 경로 유도 뿐 아니라 차선 변경, 안전거리 확보 등의 가이드를 하는 차량 주행 보조 장치를 제공하는 것이다.
본 발명의 실시예에 따른 차량 주행 보조 장치는 복수의 가상 선행 모드 중 사용자에 의해 선택된 하나의 가상 선행 모드에 대응하는 가상 선행 차량을 디스플레이하는 표시부와, 사용자가 설정한 목적지 정보를 포함하는 경로 정보와 센서에 의해 검출된 센싱 정보를 수신하는 인터페이스부와, 상기 경로 정보와 상기 센싱 정보에 기초하여 상기 가상 선행 차량을 제어하는 프로세서를 포함할 수 있다.
본 발명의 실시예에 따른 차량은 상기 차량 주행 보조 장치를 포함할 수 있다.
본 발명의 실시예에 따른 차량 주행 보조 장치의 제어 방법은 복수의 가상 선행 모드를 표시부에 디스플레이하는 단계와, 상기 복수의 가상 선행 모드 중 선택된 적어도 하나의 가상 선행 모드에 대응하는 가상 선행 차량을 디스플레이하는 단계와, 인터페이스부로부터 수신된 경로 정보와 센싱 정보에 기초하여 상기 가상 선행 차량의 상태를 변경하는 단계를 포함할 수 있다.
본 발명의 실시예에 따르면, 다양한 가상 선행 모드를 제공하는 가상 선행 차량이 운전자에게 경로 정보를 제공하고, 실시간 교통 정보를 반영하여 운전자의 주행을 도울 수 있다.
또한, 실시예는 가상 선행 차량의 방향 지시등을 점등하거나 형상을 변경하여 운전자가 위급 상황에 대처하고 안전하게 운행하도록 도울 수 있다.
도 1은 본 발명의 실시예에 따른 차량 주행 보조 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 차량 주행 보조 장치를 포함하는 차량의 내부 블록도이다.
도 3은 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 4는 본 발명의 실시예에 따라 가상 선행 모드를 선택하는 동작을 설명하는 흐름도이다.
도 5는 본 발명의 실시예에 따라 복수의 가상 선행 모드를 도시하는 표시부의 전면도이다.
도 6은 본 발명의 실시예에 따라 안전 모드일 때의 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 7은 본 발명의 실시예에 따라 안전 거리 확보를 위한 가상 선행 차량의 동작을 설명하는 흐름도이다.
도 8은 본 발명의 실시예에 따라 안전 거리 확보를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 9는 본 발명의 실시예에 따라 제한 속도 준수를 위한 동작을 설명하는 흐름도이다.
도 10은 본 발명의 실시예에 따라 제한 속도 준수를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 11은 본 발명의 실시예에 따라 장애물 회피를 위한 가상 선행 차량의 동작을 설명하는 흐름도이다.
도 12는 본 발명의 실시예에 따라 장애물 회피를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 13은 본 발명의 실시예에 따라 차선 변경을 위한 가상 선행 차량의 동작을 설명하는 흐름도이다.
도 14는 본 발명의 실시예에 따라 차선 변경을 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 15는 본 발명의 실시예에 따라 목적지 모드일 때의 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 16은 본 발명의 실시예에 따라 가상 선행 차량의 디스플레이를 오프하는 동작을 설명하는 흐름도이다.
도 17은 본 발명의 실시예에 따라 가상 선행 차량의 디스플레이를 오프하는 안내메시지를 도시하는 표시부의 전면도이다.
도 18은 본 발명의 실시예에 따라 차량 과거 주행 이력 모드를 선택하는 표시부의 전면도이다.
도 19는 본 발명의 실시예에 따라 자기 차량 과거 주행 이력 모드에서 선택하는 표시부의 전면도이다.
도 20은 본 발명의 실시예에 따라 타인 차량 과거 주행 이력 모드에서 선택하는 표시부의 전면도이다.
도 21은 본 발명의 실시예에 따라 가상 선행 차량의 아이콘을 선택하는 동작을 설명하는 흐름도이다.
도 22는 본 발명의 실시예에 따라 가상 선행 차량의 아이콘을 선택하는 표시부의 전면도이다.
도 23은 본 발명의 실시예에 따라 가상 선행 차량이 차선 변경을 하는 동작을 설명하는 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
이하의 설명에서 별도로 언급되지 않는한 LHD 차량을 중심으로 설명한다.
도 1은 본 발명의 실시예에 따른 차량 주행 보조 장치의 블록도이다.
도 1을 참조하면, 차량 주행 보조 장치(100)는 프로세서(110), 통신부(120), 입력부(130), 주행 이력 저장부(140), 오디오 출력부(150), 표시부(160), 전원 공급부(170), 메모리(180), 인터페이스부(190)를 포함할 수 있다.
프로세서(110)는 차량 주행 보조 장치(100)에 입력 또는 출력되는 신호, 데이터 및 정보를 처리하거나 메모리(180)에 저장된 응용 프로그램을 구동함으로써, 운전자에게 적절한 정보 또는 기능을 제공하도록 처리할 수 있다.
또한, 프로세서(110)는 표시부(160)에 디스플레이되는 가상 선행 차량(도 3의 2000)을 제어할 수 있다. 예컨대, 프로세서(110)는 인터페이스부(190)로부터 수신된 경로 정보와 센싱 정보에 기초하여 가상 선행 차량(2000)의 상태를 변경할 수 있다. 가상 선행 차량(2000)의 상기 상태는 형상, 색상, 크기, 비율, 위치 중 적어도 하나일 수 있다.
통신부(120)는 이동단말기(310) 또는 서버(320)와 무선 방식으로 데이터를 송수신할 수 있다. 예컨대, 상기 무선 방식은 이동 통신, 위성 통신, 근거리 통신 중 적어도 하나일 수 있으나 이에 대해 한정하는 것은 아니다. 또한, 통신부(120)는 이동단말기(310) 또는 서버(320)로부터 각 차량의 위치 정보, 각 차량이 현재 위치한 지점에서의 교통량 정보, 교통 사고 정보, 기상 정보, 위급 상황 정보를 포함하는 교통 상황 정보, 타인 차량 주행 이력 정보 중 적어도 하나를 수신할 수 있다.
입력부(130)는, 영상 신호 입력을 위한 영상 입력부, 오디오 신호 입력을 위한 오디오 입력부, 사용자로부터 정보를 입력 받기 위한 사용자 입력부를 포함할 수 있다. 입력부(130)는 수집한 음성 데이터나 이미지 데이터를 프로세서(110)로 전송할 수 있고, 프로세서(110)는 상기 음성 데이터나 이미지 데이터를 분석하여 차량을 제어할 수 있다
주행 이력 저장부(140)는 자기 차량 주행 이력 데이터를 저장할 수 있고, 저장된 상기 자기 차량 주행 이력 데이터를 표시부(160)에 디스플레이할 수 있다. 예컨대, 상기 자기 차량 주행 이력 데이터는 주행일자, 소요시간, 연비 중 적어도 하나를 포함할 수 있으나 이에 대해 한정하는 것은 아니다. 또한, 주행 이력 저장부(140)는 타인 차량 주행 이력 데이터를 서버(320)로부터 수신하여 저장할 수 있고, 표시부(160)에 디스플레이할 수 있다. 예컨대, 상기 타인 차량 주행 이력 데이터는 사용자 이름, 소요시간, 연비 중 적어도 하나를 포함할 수 있으나 이에 대해 한정하는 것은 아니다.
오디오 출력부(150)는 프로세서(110)에서 처리된 오디오 신호에 기초하여 사운드를 외부로 출력할 수 있다.
표시부(160)는 프로세서(110)에서 처리된 각종 정보를 표시할 수 있다. 표시부(160)는 차량 주행 보조 장치(100)의 동작과 관련한 이미지를 표시할 수 있다. 이러한 이미지 표시를 위해, 표시부(160)는, 차량 내부 전면의 클러스터(cluster) 또는 헤드업 디스플레이(HUD, Head Up Display)를 포함할 수 있다. 한편, 표시부(160)가 상기 헤드업 디스플레이인 경우, 상기 헤드업 디스플레이는 차량의 전면 유리창에 배치되고, 투명 필름 또는 반사 렌즈를 포함할 수 있다. 상기 헤드업 디스플레이는 다른 차량 또는 다른 차량의 이동 단말기로부터 수신된 긴급 상황 알림 정보를 투명 필름 또는 반사 렌즈에 투영하여 운전자에게 안전한 운전을 유도할 수 있다.
전원 공급부(170)는, 프로세서(110)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
메모리(180)는, 프로세서(110)의 처리 또는 제어를 위한 프로그램과, 차량 운전 보조 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
인터페이스부(190)는 제어부(도 2의 200), 센서부(도 2의 500), 네비게이션(도 2의 900)으로부터 차량 관련 데이터를 수신하거나, 프로세서(110)에서 처리 또는 생성된 신호를 외부로 전송할 수 있다. 예컨대, 인터페이스부(190)는 센서부(500)로부터 센싱 정보를 수신할 수 있고, 네비게이션(900)으로부터 경로 정보를 수신할 수 있다. 예컨대, 상기 센싱 정보는 복수의 센서들(예컨대, 속도 센서, 자이로 센서, 레이더, 라이다 등)로부터 센싱되는 정보일 수 있고, 상기 경로 정보는 목적지 정보, 상기 목적지 정보에 따른 경로 정보, 차량 주행과 관련된 지도 정보 또는 차량 위치 정보일 수 있다.
도 2는 본 발명의 실시예에 따른 차량 주행 보조 장치를 포함하는 차량의 내부 블록도이다.
도 2를 참조하면, 차량(1000)은 도 1에 도시된 차량 주행 보조 장치(100), 제어부(200), 통신부(300), 입력부(400), 센서부(500), 출력부(600), 차량 구동부(700), 메모리(800), 네비게이션(900), 전원부(910), 인터페이스부(920)를 포함할 수 있다.
제어부(200)는 차량(1000) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(200)는 통신부(300)로부터 수신하는 교통 상황 정보, 입력부(400)로부터 수신하는 사용자 입력 데이터, 센서부(500)로부터 수신하는 센싱 정보, 네비게이션(900)으로부터 수신하는 경로 정보를 처리할 수 있다. 제어부(200)는, 차량(1000) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(200)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(200)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
제어부(200)는 차량 운전 보조 장치(100)에 의해 구동되는 가상 선행 차량(2000)을 제어할 수 있다.
통신부(300)는, 차량(1000)과 이동 단말기(310) 사이, 차량(1000)과 서버(320) 간의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(300)는 차량(1000)을 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.
통신부(300)는, 방송 수신 모듈(301), 무선 인터넷 모듈(303), 근거리 통신 모듈(305), 위치 정보 모듈(307) 및 광통신 모듈(309)을 포함할 수 있다.
방송 수신 모듈(301)은, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.
무선 인터넷 모듈(303)은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(1000)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(303)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(303)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(303)은 서버(320)와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(303)은 서버(320)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.
근거리 통신 모듈(305)은, 근거리 통신(Short Range Communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
이러한, 근거리 통신 모듈(305)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(1000)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(305)은 이동 단말기(310)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(305)은 이동 단말기(310)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(1000)에 탑승한 경우, 사용자의 이동 단말기(310)와 차량(1000)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보 모듈(307)은, 차량(1000)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.
광통신 모듈(309)은, 광발신부 및 광수신부를 포함할 수 있다.
광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(1000)에 구비된 램프와 일체화될 수 있다. 예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다.
입력부(400)는, 운전 조작 수단(401), 카메라(403), 마이크로 폰(405) 및 사용자 입력부(407)를 포함할 수 있다.
운전 조작 수단(401)은, 차량(1000) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(401)은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.
카메라(403)는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라(403)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(200)에 전달할 수 있다. 한편, 차량(1000)은 차량 전방 영상 또는 차량 주변 영상을 촬영하는 카메라(403)를 포함할 수 있다.
마이크로 폰(405)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(1000)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(405)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(200)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(403) 또는 마이크로폰(405)은 입력부(400)에 포함되는 구성요소가 아닌, 센서부(500)에 포함되는 구성요소일 수도 있다.
사용자 입력부(407)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(407)를 통해, 정보가 입력되면, 제어부(200)는 입력된 정보에 대응되도록 차량(1000)의 동작을 제어할 수 있다. 사용자 입력부(407)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(407)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(407)를 조작할 수 있다.
센서부(500)는, 차량(1000)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센서부(500)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 레이더, 라이더 등을 포함할 수 있다.
이에 의해, 센서부(500)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센서부(500)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센서부(500)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 생체 인식 정보 감지부는 내부 카메라(195c)를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다.
출력부(600)는, 제어부(200)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(601), 음향 출력부(603) 및 햅틱 출력부(605)를 포함할 수 있다.
디스플레이부(601)는 제어부(200)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(601)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(601)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(601)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(1000)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(407)로써 기능함과 동시에, 차량(1000)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(601)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(601)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(601)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(200)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(601)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.
한편, 실시예에 따라, 디스플레이부(601)는 헤드업 디스플레이(Head Up Display, HUD)로 구현될 수 있다. 디스플레이부(601)가 헤드업 디스플레이로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(601)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
음향 출력부(603)는 제어부(200)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(603)는 스피커 등을 구비할 수 있다. 음향 출력부(603)는, 사용자 입력부(407) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(605)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(605)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(700)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(700)는 동력원 구동부(701), 조향 구동부(703), 브레이크 구동부(705), 램프 구동부(707), 공조 구동부(709), 윈도우 구동부(711), 에어백 구동부(713), 썬루프 구동부(715) 및 서스펜션 구동부(717)를 포함할 수 있다.
동력원 구동부(701)는, 차량(700) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
조향 구동부(703)는, 차량(1000) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(705)는, 차량(1000) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(1000)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(1000)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(707)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(709)는, 차량(1000) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(711)는, 차량(1000) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(713)는, 차량(1000) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(715)는, 차량(1000) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(715)는, 차량(1000) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(1000)의 진동이 저감되도록 제어할 수 있다.
메모리(800)는 제어부(200)의 처리 또는 제어를 위한 프로그램 등, 차량(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
네비게이션(900)은 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보 또는 차량 위치 정보를 제어부(200)와 송수신할 수 있다.
전원부(910)는 제어부(200)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(910)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
인터페이스부(920)는, 차량(1000)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예컨대, 인터페이스부(920)는 이동 단말기(310)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(310)와 연결할 수 있다. 이경우, 인터페이스부(920)는 이동 단말기(310)와 데이터를 교환할 수 있다.
한편, 인터페이스부(920)는 연결된 이동 단말기(310)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(310)가 인터페이스부(920)에 전기적으로 연결되는 경우, 제어부(200)의 제어에 따라, 인터페이스부(920)는 전원부(910)에서 공급되는 전기 에너지를 이동 단말기(600)에 제공한다.
도 3은 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
차량(1000)은 전면에 배치되는 윈드쉴드(1100), 차량의 진행 방향을 조절하기 위한 조향 입력 수단(1200), 차량(1000)의 방향 지시등을 조작하기 위한 방향 지시 레버(1210)를 구비할 수 있다.
실시예에서, 가상 선행 차량(2000)은 타 차량(3000)과 차량(1000) 사이에 배치되도록 디스플레이 되어 운전자의 주행을 보조할 수 있다.
도 4는 본 발명의 실시예에 따라 가상 선행 모드를 선택하는 동작을 설명하는 흐름도이고, 도 5는 본 발명의 실시예에 따라 복수의 가상 선행 모드를 도시하는 표시부의 전면도이다.
도 4와 도 5를 참조하면, 프로세서(110)는 복수의 가상 선행 모드를 표시부(160)에 디스플레이할 수 있다(S410). 상기 복수의 가상 선행 모드는 목적지 모드, 최저 연비 우선 모드, 안전 모드, 최단 거리 우선 모드, 과거 주행 이력 모드를 포함할 수 있고, 이에 대해 한정하는 것은 아니다.
프로세서(110)는 입력부(130)로부터 상기 복수의 가상 선행 모드 중 선택된 가상 선행 모드를 수신할 수 있다. 이때, 입력부(130)는 운전자의 음성 입력, 조향 입력 수단(1200)의 조작, 터치 조작을 통해 입력될 수 있으나 이에 대해 한정하는 것은 아니다. 예컨대, 도 5를 참조하면, 상기 가상 선행 모드가 안전 모드로 기본 설정되어 있으나, 운전자가 조향 입력 수단(1200)을 우측 방향으로 이동하면, 상기 가상 선행 모드는 최저 연비 우선 모드로 변경 설정될 수 있고, 조향 입력 수단(1200)을 좌측 방향으로 이동하면, 최단 거리 우선 모드로 변경 설정될 수 있다.
프로세서(110)는 운전자에 의해 선택된 상기 가상 선행 모드에 상응하는 가상 선행 차량(2000)을 디스플레이할 수 있다(S420).
차량(1000)이 주행을 시작하면, 프로세서(110)는 인터페이스부(190)로부터 수신한 경로 정보와 센싱 정보에 기초하여 가상 선행 차량(2000)의 상태를 변경할 수 있다(S330). 상기 상태는 형상, 색상, 크기, 비율, 위치 중 적어도 하나일 수 있다. 즉, 차량(1000)이 주행을 시작하면, 가상 선행 차량(2000)은 차량(1000)의 전방에서 목적지까지 안전하게 주행할 수 있도록 안내하는 기능을 수행할 수 있다.
도 6은 본 발명의 실시예에 따라 안전 모드일 때의 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 6을 참조하면, 프로세서(110)는 가상 선행 모드가 안전 모드인 경우, 표시부(160)에 가상 선행 차량(2000)을 타 차량(3000)과 차량(1000) 사이에 디스플레이할 수 있다.
표시부(160)는 제1안내창(161), 제2안내창(162)을 포함할 수 있다. 제1안내창(161)은 현재의 가상 선행 모드를 표시할 수 있고, 제2안내창(162)는 가상 선행 차량(2000)의 속도 정보를 표시할 수 있으나, 제1안내창(161)과 제2안내창(162)에 표시되는 정보에 대해 한정하는 것은 아니다.
도 7은 본 발명의 실시예에 따라 안전 거리 확보를 위한 가상 선행 차량의 동작을 설명하는 흐름도이고, 도 8은 본 발명의 실시예에 따라 안전 거리 확보를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 7과 도 8을 참조하면, 프로세서(110)는 인터페이스부(190)로부터 센싱 정보를 수신할 수 있다(S710). 예컨대, 상기 센싱 정보는 차량(1000)의 위치 정보, 타 차량(3000)의 위치 정보를 포함할 수 있다. 프로세서(110)는 상기 센싱 정보를 통해 타 차량(3000)과 차량(1000)과의 차간 거리를 검출할 수 있다(S720).
프로세서(110)는 검출된 상기 차간거리가 임계치보다 작은 경우(S730), 가상 선행 차량(2000)의 형상을 변경하고, 안내메시지를 표시할 수 있다.(S740) 이때, 상기 임계치는 기설정되거나 통신부(120)로부터 수신한 값일 수 있다. 즉, 프로세서(110)는 상기 가상 선행 차량(2000)이 차량(1000)과 점점 가까워지거나 점점 크게 표시될 수 있다. 또한, 가상 선행 차량(2000)의 색상이 변경될 수 있고, 가상 선행 차량(2000)의 비상등(2100, 2200)이 점등될 수 있다. 상기 안내메시지는 메시지창(163)에 표시되어, 운전자에게 정보를 전달할 수 있다.
도 9는 본 발명의 실시예에 따라 제한 속도 준수를 위한 동작을 설명하는 흐름도이고, 도 10은 본 발명의 실시예에 따라 제한 속도 준수를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 9와 도 10을 참조하면, 프로세서(110)는 인터페이스부(190)로부터 센싱 정보를 수신할 수 있다(S910). 예컨대, 상기 센싱 정보는 차량(1000)의 속도 정보, 차량(1000)의 위치 정보를 포함할 수 있다. 프로세서(110)는 상기 센싱 정보를 해석하여 차량(1000)의 주행 속도를 검출할 수 있다(S920).
프로세서(110)는 상기 주행 속도가 임계치보다 높은 경우, 가상 선행 차량(2000)의 형상을 변경하고, 안내메시지를 표시할 수 있다.(S930). 예컨대, 상기 임계치는 수신된 상기 교통 상황 정보에 포함된 해당 구간의 제한 속도 정보를 수신하여 설정할 수 있다.
가상 선행 차량(2000)의 형상은, 예컨대 차량(1000)과 점점 가까워지도록 표시될 수 있고, 점점 크게 표시될 수 있다. 또한, 가상 선행 차량(2000)의 색상이 변경될 수 있고, 가상 선행 차량(2000)의 비상등(2100, 2200)이 점등될 수 있다.
상기 안내메시지는 메시지창(163)에 표시되어, 운전자에게 정보를 전달할 수 있다.
도 11은 본 발명의 실시예에 따라 장애물 회피를 위한 가상 선행 차량의 동작을 설명하는 흐름도이고, 도 12는 본 발명의 실시예에 따라 장애물 회피를 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 11과 도 12를 참조하면, 프로세서(110)는 인터페이스부(190)로부터 센싱 정보를 수신거나, 통신부로부터 교통 상황 정보를 수신할 수 있다(S1110). 예컨대, 상기 교통 상황 정보는 교통량 정보, 교통 사고 정보, 기상 정보, 위급 상황 정보중 적어도 하나를 포함할 수 있다.
프로세서(110)는 상기 센싱 정보와 상기 교통 상황 정보를 해석하여 전방의 장애물을 검출할 수 있다(S1120). 장애물(104)은 싱크홀(sink hole), 낙석, 유실물 중 하나일 수 있으나 이에 대해 한정하는 것은 아니다. 프로세서(110)는 차량(1000)의 운행 차선에 장애물이 검출된 경우(S1130), 차량(1000)을 상기 장애물로부터 회피하기 위해 가상 선행 차량(2000)의 차선을 변경하도록 제어할 수 있고(S1140), 가상 선행 차량의 형상을 변경하고 안내메시지를 표시할 수 있다(S1150).
즉, 프로세서(110)는 상기 센싱 정보와 상기 교통 상황 정보를 해석하여 차선 변경이 가능한 시점을 판단할 수 있고, 차선 변경이 가능하다고 판단되면, 가상 선행 차량(2000)의 방향지시등(2200)이 점등되고 차선을 변경할 수 있다. 이때, 안내메시지는 메시지창(163)에 표시되어, 운전자에게 정보를 전달할 수 있다.
실시예에 따라, 프로세서(110)는 상기 교통 상황 정보를 통해 차량(1000)이 위치하는 지점에서 안개가 많이 끼거나, 폭설이 내리고 있는 기상 악화 상태가 감지되는 경우, 가상 선행 차량(2000)의 형상을 변경하고 안내메시지를 표시할 수 있다. 가상 선행 차량(2000)의 형상은, 예컨대 차량(1000)과 점점 가까워지도록 표시될 수 있고, 점점 크게 표시될 수 있다. 또한, 가상 선행 차량(2000)의 색상이 변경될 수 있고, 가상 선행 차량(2000)의 비상등(2100, 2200)이 점등될 수 있다.
실시예에 따라, 프로세서(110)는 상기 교통 상황 정보를 통해 차량(1000)의 전방에 위급 상황이 감지되는 경우, 가상 선행 차량(2000)의 형상을 변경하고 안내메시지를 표시할 수 있다. 가상 선행 차량(2000)의 형상은, 예컨대 차량(1000)과 점점 가까워지도록 표시될 수 있고, 점점 크게 표시될 수 있다. 또한, 가상 선행 차량(2000)의 색상이 변경될 수 있고, 가상 선행 차량(2000)의 비상등(2100, 2200)이 점등될 수 있다.
도 13은 본 발명의 실시예에 따라 차선 변경을 위한 가상 선행 차량의 동작을 설명하는 흐름도이고, 도 14는 본 발명의 실시예에 따라 차선 변경을 위한 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 13과 도 14를 참조하면, 프로세서(110)는 입력부(130)로부터 차선 변경 신호를 수신할 수 있다(S1310). 이때, 입력부(130)는 조향 입력 수단(1200)의 방향지시 레버(1210)의 조작을 통해 입력될 수 있다. 프로세서(110)는 상기 차선 변경 신호에 따라 가상 선행 차량(2000)의 방향 지시등(2100 또는 2200)을 점등할 수 있다(S1320).
예컨대, 운전자가 방향 지시 레버(1210)를 상향으로 이동시켜 우측 방향으로 차선을 변경하고자 하는 경우, 프로세서(110)는 상기 센싱 정보와 상기 교통 상황 정보를 해석하여 가상 선행 차량(2000)의 차선 변경 가능 시점을 판단할 수 있고(S1330), 차선 변경 가능 시점에 가상 선행 차량의 차선을 변경하도록 제어할 수 있다(S1340). 즉, 상기 가상 선행 차량의 안내에 따라 차량(1000)의 운전자는 안전하게 차선을 변경할 수 있다.
도 15는 본 발명의 실시예에 따라 목적지 모드일 때의 가상 선행 차량을 도시하는 표시부의 전면도이다.
도 15를 참조하면, 상기 가상 선행 모드가 목적지 모드인 경우, 인터페이스부(190)로부터 수신된 경로 정보를 표시부(160)에 도시할 수 있다. 예컨대, 표시부(160)는 제1안내창(161), 제3안내창(165)을 포함할 수 있고, 제1안내창(161)은 현재의 가상 선행 모드를 표시할 수 있고, 제3안내창(165)은 상기 경로 정보를 표시할 수 있다. 상기 경로 정보는 목적지 정보, 도착 예상 시간 중 하나일 수 있으나 이에 대해 한정하는 것은 아니다.
실시예에 따라 상기 가상 선행 모드가 최저 연비 우선 모드인 경우, 인터페이스부(190)로부터 수신된 경로 정보를 표시부(160)에 도시할 수 있다. 상기 경로 정보는 최저 연비로 목적지에 도착할 수 있는 경로를 포함할 수 있다.
실시예에 따라 상기 가상 선행 모드가 최단 거리 우선 모드인 경우, 인터페이스부(190)로부터 수신된 경로 정보를 표시부(160)에 도시할 수 있다. 상기 경로 정보는 최저 연비로 목적지에 도착할 수 있는 경로를 포함할 수 있다.
즉, 상기 최저 연비 우선 모드와 상기 최단 거리 우선 모드는 상기 목적지 모드와 경로가 상이할 수 있다.
실시예에 따라, 프로세서(110)는 차량(1000)이 운행 중에 운전자가 즐겨찾는 장소(point of interest, POI)가 있는 경우, 상기 즐겨찾는 장소의 관련 정보를 표시부(160)의 메시지창(163)에 디스플레이할 수 있다. 예컨대, 상기 즐겨찾는 장소가 주유소인 경우, 상기 관련 정보는 주유 요금, 방문 횟수, 최근 방문일 등의 정보일 수 있다.
도 16은 본 발명의 실시예에 따라 가상 선행 차량의 디스플레이를 종료하는 동작을 설명하는 흐름도이고, 도 17은 본 발명의 실시예에 따라 가상 선행 차량의 디스플레이를 종료하는 안내메시지를 도시하는 표시부의 전면도이다.
도 16과 도 17을 참조하면, 프로세서(110)는 복수의 가상 선행 모드를 표시부(160)에 디스플레이할 수 있다(S1610). 상기 복수의 가상 선행 모드는 목적지 모드, 최단거리 우선 모드, 최저 연비 우선 모드, 안전 모드, 과거 주행 이력 모드를 포함할 수 있고, 이에 대해 한정하는 것은 아니다.
프로세서(110)는 운전자에 의해 선택된 상기 가상 선행 모드에 상응하는 가상 선행 차량(2000)을 표시부(160)에 디스플레이할 수 있다(S1620).
차량(1000)이 주행을 시작하면, 프로세서(110)는 인터페이스부(190)로부터 수신한 경로 정보와 센싱 정보에 기초하여 가상 선행 차량(2000)의 상태를 변경할 수 있다(S1630). 즉, 차량(1000)이 주행을 시작하면, 가상 선행 차량(2000)의 안내를 받아 목적지까지 안전하게 주행할 수 있다.
프로세서(110)는 차량(1000)이 주행 중에 특정 구간에 진입하면 가상 선행 차량(2000)의 표시 여부를 표시부(160)에 디스플레이할 수 있다(S1640). 상기 특정 구간은 사용자가 미리 설정된 구간일 수 있다. 운전자가 프로세서(110)는 가상 선행 차량의 표시를 종료하는 경우, 프로세서(110)는 가상 선행 차량(2000)의 디스플레이를 종료할 수 있다(S1650).
도 18은 본 발명의 실시예에 따라 차량 과거 주행 이력 모드를 선택하는 표시부의 전면도이다.
도 18을 참조하면, 상기 가상 선행 모드가 과거 차량 주행 이력 모드인 경우, 프로세서(110)는 자기 차량 과거 주행 이력 모드와 타인 차량 과거 주행 이력 모드를 선택하기 위해 상기 자기 차량 과거 주행 이력 모드와 상기 타인 차량 과거 주행 이력 모드를 표시부(160)에 디스플레이할 수 있다.
도 19는 본 발명의 실시예에 따라 자기 차량 과거 주행 이력 모드에서 선택하는 표시부의 전면도이고, 도 20은 본 발명의 실시예에 따라 타인 차량 과거 주행 이력 모드에서 선택하는 표시부의 전면도이다.
도 19와 도 20을 참조하면, 가상 선행 모드가 자기 차량 주행 이력 모드인 경우, 프로세서(110)는, 주행 이력 저장부(140)로부터 수신된 자기 차량 주행 이력 데이터를 처리할 수 있고, 추천 주행 이력 리스트를 표시부(160)에 디스플레이할 수 있다. 예컨대, 상기 추천 주행 이력 리스트는 시간대, 요일별로 분류될 수 있다. 상기 자기 차량 주행 이력 데이터는 상기 경로 정보에 상응하는 주행일자, 소요시간, 연비 중 적어도 하나를 포함할 수 있으나 이에 대해 한정하는 것은 아니다.
프로세서(110)는 운전자가 선택한 자기 차량 주행 이력 데이터에 상응하는 가상 선행 차량(2000)을 제어할 수 있다.
실시예에 따라, 가상 선행 모드가 타인 차량 주행 이력 모드인 경우, 프로세서(110)는 서버(320)로부터 수신하여 주행 이력 저장부(140)에 저장된 타인 차량 주행 이력 데이터를 분석할 수 있고, 추천 주행 이력 리스트를 표시부(160)에 디스플레이할 수 있다. 상기 타인 차량 주행 이력 데이터는 상기 경로 정보에 상응하는 사용자 이름, 소요시간, 연비 중 적어도 하나를 포함할 수 있으나 이에 대해 한정하는 것은 아니다.
도 21은 본 발명의 실시예에 따라 가상 선행 차량의 아이콘을 선택하는 동작을 설명하는 흐름도이고, 도 22는 본 발명의 실시예에 따라 가상 선행 차량의 아이콘을 선택하는 표시부의 전면도이다.
도 21과 도 22를 참조하면, 프로세서(110)는 복수의 가상 선행 모드를 표시부(160)에 디스플레이할 수 있다(S2110). 상기 복수의 가상 선행 모드는 목적지 모드, 최단거리 우선 모드, 최저 연비 우선 모드, 안전 모드, 과거 주행 이력 모드를 포함할 수 있고, 이에 대해 한정하는 것은 아니다.
사용자 입력부(130)는 상기 복수의 가상 선행 모드 중 하나를 운전자에 의해 입력받을 수 있다. 이때, 사용자 입력부(130)는 운전자의 음성 입력, 조향 입력 수단(120)의 조작, 터치 조작을 통해 입력될 수 있으나 이에 대해 한정하는 것은 아니다.
프로세서(110)는 운전자에 의해 선택된 상기 가상 선행 모드에 상응하는 가상 선행 차량(2000)을 표시부(160)에 디스플레이할 수 있다(S2120). 이후에, 프로세서(110)는 복수의 가상 선행 차량의 아이콘을 디스플레이할 수 있다(S2130). 예컨대, 상기 아이콘은 다양한 자동차의 종류일 수 있다. 차량(1000)이 주행을 시작하면, 프로세서(110)는 인터페이스부(190)로부터 수신한 경로 정보와 센싱 정보에 기초하여 가상 선행 차량(2000)의 상태를 변경할 수 있다(S2130).
실시예에 따라 프로세서(110)는 표시부(160)의 조도, 밝기 정보를 포함하는 상기 센싱 정보에 기초하여, 가상 선행 차량(2000)의 색상과 투명도를 실시간으로 검출할 수 있고, 검출된 색상과 투명도에 기초하여 가상 선행 차량(2000)의 색상과 투명도를 변경하여 운전자의 가상 선행 차량(2000)에 대한 식별력을 높힐 수 있다.
도 23은 본 발명의 실시예에 따라 가상 선행 차량이 차선 변경을 하는 동작을 설명하는 흐름도이다.
도 23을 참조하면, 프로세서(110)는 복수의 가상 선행 모드를 표시부(160)에 디스플레이할 수 있다(S2310). 상기 복수의 가상 선행 모드는 목적지 모드, 최단거리 우선 모드, 최저 연비 우선 모드, 안전 모드, 과거 주행 이력 모드를 포함할 수 있고, 이에 대해 한정하는 것은 아니다.
프로세서(110)는 운전자에 의해 선택된 상기 가상 선행 모드에 상응하는 가상 선행 차량(2000)을 표시부(160)에 디스플레이할 수 있다(S1620).
차량(1000)이 주행을 시작하면, 프로세서(110)는 인터페이스부(190)로부터 수신한 경로 정보와 센싱 정보에 기초하여 가상 선행 차량(2000)의 상태를 변경할 수 있다(S1630). 예컨대, 프로세서(110)는 차선 변경이 필요하다고 판단되는 경우(S1640), 상기 센싱 정보와 상기 교통 상황 정보를 해석하여 가상 선행 차량(2000)의 방향지시등(2100 또는 2200)을 점등하고, 알림메시지를 알림창에 표시할 수 있다(S1650). 즉, 운전자는 가상 선행 차량(2000)의 안내에 따라 안전하게 차선 변경을 할 수 있다.
실시예에 따라, 프로세서(110)는 차량(1000)이 주행 중에 특정 구간에 진입하면 가상 선행 차량(2000)의 표시 여부를 표시부에 디스플레이할 수 있다(S1640). 상기 특정 구간은 사용자가 미리 설정된 구간일 수 있고, 상기 특정 구간에 대한 데이터는 이동 단말기(310) 또는 서버(320)로부터 수신할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서(110) 또는 제어부(200)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (21)

  1. 가상 선행 차량을 디스플레이하는 차량 주행 보조 장치에 있어서,
    복수의 가상 선행 모드 중 사용자에 의해 선택된 하나의 가상 선행 모드에 대응하는 가상 선행 차량을 디스플레이하는 표시부;
    운전자가 설정한 목적지 정보를 포함하는 경로 정보와 센서부에 의해 검출된 센싱 정보를 수신하는 인터페이스부; 및
    상기 경로 정보와 상기 센싱 정보에 기초하여 상기 가상 선행 차량을 제어하는 프로세서;를 포함하는 차량 주행 보조 장치.
  2. 제1항에 있어서,
    상기 가상 선행 모드는 목적지 모드, 최단거리 우선 모드, 최저 연비 우선 모드, 과거 주행 이력 모드, 안전 모드 중 적어도 하나를 포함하는 차량 주행 보조 장치.
  3. 제2항에 있어서,
    상기 가상 선행 모드가 목적지 모드, 최단거리 우선 모드, 최저 연비 우선 모드 중 하나인 경우,
    상기 프로세서는 상기 인터페이스부로부터 수신된 경로 정보에 기초하여 상기 가상 선행 차량의 경로를 제어하는 차량 주행 보조 장치.
  4. 제3항에 있어서,
    상기 경로 정보는 사용자가 설정한 목적지 정보, 최단거리 우선 정보, 최저 연비 우선 정보를 포함하는 차량 주행 보조 장치.
  5. 제1항에 있어서,
    자기 차량의 과거 주행 이력 데이터와 타인 차량의 과거 주행 이력 데이터를 저장하는 주행 이력 저장부;를 더 포함하고,
    상기 프로세서는, 상기 과거 주행 이력 모드가 자기 차량의 과거 주행 이력 모드인 경우, 상기 주행 이력 저장부로부터 수신된 상기 자기 차량의 과거 주행 이력 데이터를 기초로 상기 가상 선행 차량을 제어하는 차량 주행 보조 장치.
  6. 제5항에 있어서,
    상기 프로세서는, 상기 과거 주행 이력 모드가 타인 차량의 과거 주행 이력 모드인 경우, 상기 주행 이력 저장부로부터 수신된 상기 타인 차량의 과거 주행 이력 데이터를 기초로 상기 가상 선행 차량을 제어하는 차량 주행 보조 장치.
  7. 제6항에 있어서,
    상기 표시부는, 상기 인터페이스부로부터 수신된 경로 정보에 상응하는 타인 차량의 과거 주행 이력 데이터를 디스플레이하는 차량 주행 보조 장치.
  8. 제2항에 있어서,
    상기 가상 선행 모드가 안전 모드인 경우,
    상기 프로세서는, 상기 인터페이스부로부터 수신된 센싱 정보에 기초하여 타 차량과의 안전 거리 정보와 제한속도 정보 중 적어도 하나를 검출하고 검출된 정보에 따라 상기 가상 선행 차량을 제어하는 차량 주행 보조 장치.
  9. 제8항에 있어서,
    상기 프로세서는, 상기 인터페이스부로부터 수신된 센싱 정보에 기초하여 노면 상태 정보를 검출하고, 상기 노면 상태 정보에 따라 상기 가상 선행 차량을 제어하는 차량 주행 보조 장치.
  10. 제8항에 있어서,
    상기 인터페이스부는 통신부로부터 교통 상황 정보를 수신하고,
    상기 프로세서는, 상기 인터페이스부로부터 수신된 교통 상황 정보에 기초하여 상기 가상 선행 차량을 제어하고,
    상기 교통 상황 정보는 교통량 정보, 교통 사고 정보, 위급 상황 정보, 기상 정보 중 적어도 하나를 포함하는 차량 주행 보조 장치.
  11. 제8항에 있어서,
    사용자 입력부를 더 포함하고,
    상기 사용자 입력부로부터 차선 변경 신호를 수신하면,
    상기 프로세서는, 상기 인터페이스부로부터 수신된 센싱 정보와 상기 차선 변경 신호에 기초하여 상기 가상 선행 차량을 제어하는 차량 주행 보조 장치.
  12. 제11항에 있어서,
    상기 프로세서는, 상기 사용자 입력부로부터 차선 변경 신호를 수신하면, 상기 가상 선행 차량의 방향지시등을 점등하고, 상기 가상 선행 차량이 상기 차선 변경 신호에 상응하는 방향으로 차선을 변경하도록 제어하는 차량 주행 보조 장치.
  13. 제8항에 있어서,
    상기 프로세서는, 상기 안전 거리 정보와 상기 제한 속도 정보가 임계치를 초과하는 경우 상기 가상 선행 차량의 형상을 변경하는 차량 주행 보조 장치.
  14. 제10항에 있어서,
    상기 프로세서는, 상기 교통 상황 정보에 기초하여 위급 상황이 감지되는 경우 상기 가상 선행 차량의 형상을 변경하는 차량 주행 보조 장치.
  15. 제14항에 있어서,
    상기 프로세서는, 상기 교통 상황 정보에 기초하여 위급 상황이 감지되는 경우, 상기 가상 선행 차량의 비상등을 점등하고, 경고 메시지를 상기 표시부에 디스플레이하는 차량 주행 보조 장치.
  16. 제1항에 있어서,
    상기 센싱정보는 상기 표시부의 조도, 밝기 정보를 더 포함하고,
    상기 프로세서는 상기 표시부의 조도, 밝기 정보에 기초하여 상기 가상 선행 차량의 색상과 투명도를 실시간으로 검출하고, 검출된 색상과 투명도에 기초하여 상기 가상 선행 차량을 디스플레이하는 차량 주행 보조 장치.
  17. 제1항 내지 제16항 중 어느 하나의 항에 기재된 차량 주행 보조 장치를 포함하는 차량.
  18. 가상 선행 차량을 디스플레이하는 차량 주행 보조 장치의 동작 방법에 있어서,
    복수의 가상 선행 모드를 표시부에 디스플레이하는 단계;
    상기 복수의 가상 선행 모드 중 선택된 적어도 하나의 가상 선행 모드에 대응하는 가상 선행 차량을 디스플레이하는 단계; 및
    인터페이스부로부터 수신된 경로 정보와 센싱 정보에 기초하여 상기 가상 선행 차량의 상태를 변경하는 단계;를 포함하는 차량 주행 보조 장치의 동작 방법.
  19. 제18항에 있어서,
    특정 구간에서 상기 가상 선행 차량의 디스플레이의 종료 여부를 결정하는 단계;를 더 포함하는 차량 주행 보조 장치의 동작 방법.
  20. 제18항에 있어서,
    복수의 상기 가상 선행 차량의 아이콘을 선택하는 단계를 더 포함하는 차량 주행 보조 장치의 동작 방법.
  21. 제18항에 있어서,
    차선 변경이 필요한 구간에 상기 가상 선행 차량의 방향지시등이 점등되거나 알림창을 디스플레이하는 단계를 더 포함하는 차량 주행 보조 장치의 동작 방법.
PCT/KR2015/008534 2015-07-01 2015-08-13 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량 WO2017003013A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/125,604 US10377236B2 (en) 2015-07-01 2015-08-13 Assistance apparatus for driving of a vehicle, method thereof, and vehicle having the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150094076A KR101750159B1 (ko) 2015-07-01 2015-07-01 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
KR10-2015-0094076 2015-07-01

Publications (1)

Publication Number Publication Date
WO2017003013A1 true WO2017003013A1 (ko) 2017-01-05

Family

ID=57608867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/008534 WO2017003013A1 (ko) 2015-07-01 2015-08-13 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량

Country Status (3)

Country Link
US (1) US10377236B2 (ko)
KR (1) KR101750159B1 (ko)
WO (1) WO2017003013A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111164652A (zh) * 2017-10-02 2020-05-15 堪得拉日本株式会社 移动体图像生成记录显示装置和程序
US11008016B2 (en) * 2018-03-15 2021-05-18 Honda Motor Co., Ltd. Display system, display method, and storage medium
US11155262B2 (en) * 2017-01-10 2021-10-26 Toyota Jidosha Kabushiki Kaisha Vehicular mitigation system based on wireless vehicle data

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108139584B (zh) * 2015-10-15 2020-08-28 麦克赛尔株式会社 信息显示装置
US10623111B2 (en) * 2017-03-07 2020-04-14 Ohio State Innovation Foundation Data delivery using acoustic transmissions
US20190027045A1 (en) * 2017-07-18 2019-01-24 Aptiv Technologies Limited Automated vehicle guidance system
JP6630976B2 (ja) * 2017-11-10 2020-01-15 本田技研工業株式会社 表示システム、表示方法、およびプログラム
US20190248364A1 (en) * 2018-02-12 2019-08-15 GM Global Technology Operations LLC Methods and systems for road hazard detection and localization
JP7338632B2 (ja) 2018-09-27 2023-09-05 日本精機株式会社 表示装置
US20200257442A1 (en) * 2019-02-12 2020-08-13 Volvo Car Corporation Display and input mirroring on heads-up display
KR20210054107A (ko) * 2019-11-04 2021-05-13 현대자동차주식회사 차량의 디스플레이 장치 및 방법
US20230104858A1 (en) * 2020-03-19 2023-04-06 Nec Corporation Image generation apparatus, image generation method, and non-transitory computer-readable medium
JP7388329B2 (ja) * 2020-10-08 2023-11-29 トヨタ自動車株式会社 車両表示システム及び車両表示方法
KR20220048501A (ko) * 2020-10-12 2022-04-20 현대자동차주식회사 차량의 예측 속도 안내 장치 및 안내 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP2008037167A (ja) * 2006-08-02 2008-02-21 Mazda Motor Corp 車両用情報表示装置
JP4534922B2 (ja) * 2005-09-16 2010-09-01 株式会社デンソー 仮想先行車画像表示システム
WO2013005293A1 (ja) * 2011-07-04 2013-01-10 トヨタ自動車株式会社 車両用運転支援装置
KR101326847B1 (ko) * 2011-12-12 2013-11-20 기아자동차주식회사 차량의 운전 모드 안내 시스템 및 그 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3931342B2 (ja) * 2003-09-30 2007-06-13 マツダ株式会社 経路誘導装置
DE102004027250A1 (de) * 2004-06-03 2005-12-29 Magna Donnelly Gmbh & Co. Kg Verfahren und Vorrichtung zum unterstützten Steuern eines Kraftfahrzeuges
JP4466438B2 (ja) * 2005-03-31 2010-05-26 株式会社デンソー 経路案内システム
WO2008068832A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
DE102007003118A1 (de) * 2007-01-15 2008-07-17 Thyssenkrupp Transrapid Gmbh Magnetschwebebahn und Verfahren zu deren Betrieb
US9536361B2 (en) * 2012-03-14 2017-01-03 Autoconnect Holdings Llc Universal vehicle notification system
JP6236954B2 (ja) * 2013-07-23 2017-11-29 アイシン・エィ・ダブリュ株式会社 運転支援システム、方法およびプログラム
JP6323565B2 (ja) * 2014-10-22 2018-05-16 日産自動車株式会社 運転支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP4534922B2 (ja) * 2005-09-16 2010-09-01 株式会社デンソー 仮想先行車画像表示システム
JP2008037167A (ja) * 2006-08-02 2008-02-21 Mazda Motor Corp 車両用情報表示装置
WO2013005293A1 (ja) * 2011-07-04 2013-01-10 トヨタ自動車株式会社 車両用運転支援装置
KR101326847B1 (ko) * 2011-12-12 2013-11-20 기아자동차주식회사 차량의 운전 모드 안내 시스템 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11155262B2 (en) * 2017-01-10 2021-10-26 Toyota Jidosha Kabushiki Kaisha Vehicular mitigation system based on wireless vehicle data
CN111164652A (zh) * 2017-10-02 2020-05-15 堪得拉日本株式会社 移动体图像生成记录显示装置和程序
CN111164652B (zh) * 2017-10-02 2023-12-08 加贺富仪艾股份有限公司 移动体图像生成记录显示装置和程序产品
US11008016B2 (en) * 2018-03-15 2021-05-18 Honda Motor Co., Ltd. Display system, display method, and storage medium

Also Published As

Publication number Publication date
KR20170004144A (ko) 2017-01-11
US20180105040A1 (en) 2018-04-19
KR101750159B1 (ko) 2017-06-22
US10377236B2 (en) 2019-08-13

Similar Documents

Publication Publication Date Title
WO2017003013A1 (ko) 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량
KR101989523B1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2017039047A1 (ko) 차량 및 그 제어방법
KR101732983B1 (ko) 차량용 리어 콤비네이션 램프 및 이를 포함하는 차량
KR101843774B1 (ko) 차량 운전 보조 장치 및 차량
WO2017003052A1 (ko) 차량 운전 보조 방법 및 차량
KR101945809B1 (ko) 차량 보조 장치 및 차량
KR20170068780A (ko) 차량용 조향 입력 장치 및 차량
KR20180018159A (ko) 자동주차 보조장치 및 이를 포함하는 차량
WO2021002519A1 (ko) 차량용 광고 제공 장치 및 차량용 광고 제공 방법
WO2020145441A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2018147599A1 (ko) 차량의 운전을 보조하는 전자 장치 및 방법
WO2017171124A1 (ko) 외장형 모듈 및 이와 연결되는 차량
KR101917412B1 (ko) 이동 단말기를 이용한 차량용 긴급 구조 서비스 제공장치 및 이를 포함하는 차량
WO2020189806A1 (ko) 차량 제어 장치
WO2020071564A1 (ko) 이동 its 스테이션 및 상기 이동 its 스테이션의 메시지 송수신 방법
KR20170054849A (ko) 차량 운전 보조장치 및 이를 포함하는 차량
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
KR101705454B1 (ko) 차량 주행 보조 장치 및 이를 구비한 차량
WO2020204225A1 (ko) 차량 제어 방법
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020171242A1 (ko) 차량 제어 방법, 장치, 차량을 이용한 배달 서비스 방법 및 시스템
WO2020145440A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
KR20180013162A (ko) 차량용 어라운드 뷰 제공 장치 및 차량

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 15125604

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15897235

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15897235

Country of ref document: EP

Kind code of ref document: A1