WO2019221390A1 - 차량에 구비된 차량 제어 장치 및 차량의 제어방법 - Google Patents

차량에 구비된 차량 제어 장치 및 차량의 제어방법 Download PDF

Info

Publication number
WO2019221390A1
WO2019221390A1 PCT/KR2019/004244 KR2019004244W WO2019221390A1 WO 2019221390 A1 WO2019221390 A1 WO 2019221390A1 KR 2019004244 W KR2019004244 W KR 2019004244W WO 2019221390 A1 WO2019221390 A1 WO 2019221390A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
vehicle door
processor
information
unit
Prior art date
Application number
PCT/KR2019/004244
Other languages
English (en)
French (fr)
Inventor
장유준
김자연
김현주
조성일
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020197019653A priority Critical patent/KR20200143216A/ko
Priority to US16/490,425 priority patent/US11403946B2/en
Publication of WO2019221390A1 publication Critical patent/WO2019221390A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J1/00Windows; Windscreens; Accessories therefor
    • B60J1/20Accessories, e.g. wind deflectors, blinds
    • B60J1/2011Blinds; curtains or screens reducing heat or light intensity
    • B60J1/2013Roller blinds
    • B60J1/2066Arrangement of blinds in vehicles
    • B60J1/2075Arrangement of blinds in vehicles specially adapted for fixed windows
    • B60J1/2077Arrangement of blinds in vehicles specially adapted for fixed windows for windshields
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/10Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle 
    • B60K28/12Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle  responsive to conditions relating to doors or doors locks, e.g. open door
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/32Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/32Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights
    • B60Q1/323Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights on or for doors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/32Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights
    • B60Q1/323Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights on or for doors
    • B60Q1/324Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating vehicle sides, e.g. clearance lights on or for doors for signalling that a door is open or intended to be opened
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/40Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types
    • B60Q3/41Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors specially adapted for specific vehicle types for mass transit vehicles, e.g. buses
    • B60Q3/47Circuits; Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • B60Q3/76Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose for spotlighting, e.g. reading lamps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/543Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other states or conditions of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/544Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating other states or conditions of the vehicle occupants, e.g. for indicating disabled occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/20Multi-color single source or LED matrix, e.g. yellow blinker and red brake lamp generated by single lamp
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/40Welcome lights, i.e. specific or existing exterior lamps to assist leaving or approaching the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/36Cycles; Motorcycles; Scooters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME RELATING TO HINGES OR OTHER SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS AND DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION, CHECKS FOR WINGS AND WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05Y2400/00Electronic control; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/10Electronic control
    • E05Y2400/44Sensors therefore
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME RELATING TO HINGES OR OTHER SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS AND DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION, CHECKS FOR WINGS AND WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05Y2400/00Electronic control; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/10Electronic control
    • E05Y2400/45Control modes
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME RELATING TO HINGES OR OTHER SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS AND DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION, CHECKS FOR WINGS AND WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05Y2900/00Application of doors, windows, wings or fittings thereof
    • E05Y2900/50Application of doors, windows, wings or fittings thereof for vehicles
    • E05Y2900/506Application of doors, windows, wings or fittings thereof for vehicles for buses

Definitions

  • the present invention relates to a vehicle control apparatus provided in a vehicle and a control method of the vehicle.
  • the vehicle is a device capable of moving in the direction desired by the user on board.
  • An example is a car.
  • ADAS Advanced Driver Assistance System
  • the vehicle may be equipped with various types of lamps.
  • a vehicle is equipped with a variety of vehicle lamps having a lighting function to easily check the objects located around the vehicle when driving at night and a signal function for notifying other vehicles or other road users of the driving condition of the vehicle. have.
  • the vehicle operates by directly emitting light using a lamp, such as a headlight that illuminates the front to secure the driver's vision, a brake light that is turned on when the brake is applied, and a turn signal used when turning right or left.
  • a lamp such as a headlight that illuminates the front to secure the driver's vision, a brake light that is turned on when the brake is applied, and a turn signal used when turning right or left.
  • the device can be provided.
  • reflectors for reflecting light may be installed at the front and the rear of the vehicle so that the vehicle may be easily recognized from the outside.
  • Such vehicle lamps are regulated by laws and regulations for their installation standards and standards so as to fully exhibit their respective functions.
  • the vehicle described herein may include all kinds of transportation such as a car, taxi, bus, subway, train, tram.
  • getting on and off of a user frequently occurs, and a lot of accidents with an object approaching a vehicle door occur in a getting on and off process.
  • An object of the present invention is to provide a vehicle control device and a vehicle control method for guiding a user to get on and off in a method optimized for a vehicle.
  • Another object of the present invention is to provide a vehicle control apparatus and a vehicle control method capable of informing a user of an object approaching the vehicle door in an optimized manner when the vehicle is getting on and off.
  • Still another object of the present invention is to provide a vehicle control apparatus and a vehicle control method capable of visually guiding a user on and off a location at a stop where the vehicle stops.
  • the vehicle control apparatus when a beam output unit for irradiating light to the surrounding road surface of the vehicle and a control command to open the vehicle door after the vehicle is stopped, received a vehicle Information for sensing whether an object approaching the vehicle door exists through a sensing unit provided, and notifying the object approaching toward the vehicle door with the vehicle door closed based on the existence of the object approaching the vehicle door. And a processor for controlling the beam output unit to irradiate a road surface around the vehicle door.
  • the processor may be configured to maintain the vehicle door in a closed state regardless of a control command to open the vehicle door when an object approaching the vehicle door through the sensing unit is sensed.
  • the processor may open the vehicle door according to the control command based on whether the sensed object passes the vehicle door or the object approaching the vehicle door is not sensed. .
  • the processor may be configured to output a first image on the road surface around the vehicle door to guide the getting off of the passenger who gets in the vehicle while the vehicle door is opened by the control command.
  • the vehicle door is closed at a predetermined speed.
  • the processor may change a display mode of the first image being output on a road surface around the vehicle door while the vehicle door is closed at a predetermined speed.
  • the first image may include a plurality of graphic objects, and the processor may vary the color of at least one graphic object adjacent to the vehicle door side among the plurality of graphic objects.
  • the processor may control the beam output unit to further irradiate the road surface around the vehicle door with information related to an object approaching the vehicle door while the vehicle door is closed at a predetermined speed. It is done.
  • the sensing unit senses a disembarked passenger existing inside the vehicle, and senses a passenger traveling on the outside of the vehicle, and wherein the processor is configured to allow the disembarked passenger to disembark when the vehicle door is opened.
  • the processor senses that And outputting warning information.
  • the outputting of the warning information may include at least one of changing a color of the first image or the second image and outputting an additional image to a road surface around the vehicle door. It is done.
  • the sensing unit senses a disembarked passenger present in the vehicle, and senses a passenger who is present in the outside of the vehicle, and the processor is further configured based on the number of the disembarked passengers or the number of the passengers who have boarded the passenger. The length of the image irradiated on the road surface around the vehicle door is determined.
  • the processor may be further configured to reduce the number of passengers present inside the vehicle as the passenger gets off, or as the number of passengers present outside the vehicle decreases as the passenger gets on.
  • the beam output unit is controlled to shorten the length of the image.
  • the processor may control the beam output unit to reduce the length of the image over time.
  • the communication device may further include a communication unit configured to communicate with an external device existing at a stop, wherein the processor is connected to communicate with the external device through the communication unit based on the vehicle entering the stop. And receiving location information for stopping the vehicle from the external device.
  • the processor may determine whether an obstacle of a preset type exists in a place corresponding to the location information through the sensing unit, and if the obstacle of the preset type does not exist in the place, Notification information for notifying a stop position at a place corresponding to the location information, and if the obstacle of the preset type exists at the place, notification information for notifying the stop position at a place different from the place corresponding to the location information. It characterized in that the output.
  • the processor may be configured to sense whether a preset situation has occurred in the vehicle through the sensing unit, and if the preset situation occurs in the vehicle, notifying the vehicle that the vehicle has not stopped at the stop. And controlling the beam output unit to output information to the road surface of the stop.
  • the vehicle according to an embodiment of the present invention includes the vehicle control apparatus described herein.
  • a control method of a vehicle including a vehicle control apparatus when a control command for opening a vehicle door is received after the vehicle stops, sensing whether an object approaching the vehicle door exists. And irradiating the road surface around the vehicle door with information indicating an object approaching the vehicle door with the vehicle door closed based on the existence of an object approaching the vehicle door.
  • the method may further include maintaining the vehicle door closed when the object approaching the vehicle door is sensed, regardless of a control command to open the vehicle door.
  • the vehicle door is opened by the control command, and a first image for guiding the getting off of the passenger who gets in the vehicle is output to a road surface around the vehicle door, wherein the vehicle door is via a sensing unit.
  • a sensing unit When the object approaching is sensed, closing the vehicle door at a preset speed and changing the display method of the first image under investigation on the road surface around the vehicle door while the vehicle door is closed at the preset speed. It further includes.
  • the accident when there is an object approaching the vehicle door at the moment when the user who boards the vehicle should get off, the accident is prevented by irradiating the road surface of the vehicle door with information indicating the object approaching without opening the vehicle door. can do.
  • the present invention if there is an object approaching the vehicle door in the state that the vehicle door is open, changing the display method of the image under investigation on the road surface while closing the door at a predetermined speed, and the information related to the object to access
  • the user who got off in advance can quickly avoid a safe area, and prevent the user who has not yet got off, thereby preventing an accident.
  • the present invention by irradiating different information on the road surface of the vehicle door at the time of getting on and off, it is possible to prevent the complicated situation that can occur during getting on and off, and to induce a quick and safe getting off.
  • the present invention irradiates information on the road surface of the stop through communication with an external device provided at the stop, and the user who rides on the vehicle moves to a place where the user will board in advance to induce a quick get-down.
  • the complexity that may occur at the stop can be prevented in advance.
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view of the vehicle according to an embodiment of the present invention from various angles from the outside.
  • 3 to 4 are views illustrating the interior of a vehicle according to an embodiment of the present invention.
  • 5 to 6 are views referred to for describing an object according to an embodiment of the present invention.
  • FIG. 7 is a block diagram referenced to describe a vehicle according to an embodiment of the present invention.
  • FIG. 8 is a conceptual diagram illustrating a vehicle control apparatus according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a representative control method of the present invention.
  • FIG. 10 is a conceptual view illustrating the control method described with reference to FIG. 9.
  • 11, 12, 13, 14, 15, 16, and 17 are conceptual views illustrating various embodiments of the present invention.
  • the vehicle described herein may be a concept including an automobile and a motorcycle.
  • a vehicle is mainly described for a vehicle.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • the left side of the vehicle means the left side of the driving direction of the vehicle
  • the right side of the vehicle means the right side of the driving direction of the vehicle
  • FIG. 1 is a view showing the appearance of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view of the vehicle according to an embodiment of the present invention from various angles from the outside.
  • 3 to 4 are views illustrating the interior of a vehicle according to an embodiment of the present invention.
  • 5 to 6 are views referred to for describing an object according to an embodiment of the present invention.
  • FIG. 7 is a block diagram referenced to describe a vehicle according to an embodiment of the present invention.
  • the vehicle 100 may include a wheel that rotates by a power source and a steering input device 510 for adjusting a traveling direction of the vehicle 100.
  • the vehicle 100 may be an autonomous vehicle.
  • the vehicle 100 may be switched to an autonomous driving mode or a manual mode based on a user input.
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on the received user input through the user interface device 200.
  • the vehicle 100 may be switched to the autonomous driving mode or the manual mode based on the driving situation information.
  • the driving situation information may be generated based on the object information provided by the object detecting apparatus 300.
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on the driving situation information generated by the object detecting apparatus 300.
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on the driving situation information received through the communication device 400.
  • the vehicle 100 may switch from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on information, data, and signals provided from an external device.
  • the autonomous vehicle 100 may be driven based on the driving system 700.
  • the autonomous vehicle 100 may be driven based on information, data, or signals generated by the driving system 710, the parking system 740, and the parking system 750.
  • the autonomous vehicle 100 may receive a user input for driving through the driving manipulation apparatus 500. Based on a user input received through the driving manipulation apparatus 500, the vehicle 100 may be driven.
  • the overall length is the length from the front to the rear of the vehicle 100
  • the width is the width of the vehicle 100
  • the height is the length from the bottom of the wheel to the roof.
  • the full length direction L is a direction in which the full length measurement of the vehicle 100 is a reference
  • the full width direction W is a direction in which the full width measurement of the vehicle 100 is a reference
  • the total height direction H is a vehicle. It may mean the direction which is the reference of the height measurement of (100).
  • the vehicle 100 includes a user interface device 200, an object detecting device 300, a communication device 400, a driving manipulation device 500, a vehicle driving device 600, and a traveling system. 700, a navigation system 770, a sensing unit 120, an interface unit 130, a memory 140, a control unit 170, and a power supply unit 190 may be included.
  • the vehicle 100 may further include other components in addition to the components described herein, or may not include some of the components described.
  • the user interface device 200 is a device for communicating with the vehicle 100 and a user.
  • the user interface device 200 may receive a user input and provide the user with information generated in the vehicle 100.
  • the vehicle 100 may implement user interfaces (UI) or user experience (UX) through the user interface device 200.
  • UI user interfaces
  • UX user experience
  • the user interface device 200 may include an input unit 210, an internal camera 220, a biometric detector 230, an output unit 250, and a processor 270.
  • the user interface device 200 may further include other components in addition to the described components, or may not include some of the described components.
  • the input unit 200 is for receiving information from a user, and the data collected by the input unit 120 may be analyzed by the processor 270 and processed as a control command of the user.
  • the input unit 200 may be disposed in the vehicle.
  • the input unit 200 may include one area of a steering wheel, one area of an instrument panel, one area of a seat, one area of each pillar, and a door. one area of the door, one area of the center console, one area of the head lining, one area of the sun visor, one area of the windshield or of the window It may be disposed in one area or the like.
  • the input unit 200 may include a voice input unit 211, a gesture input unit 212, a touch input unit 213, and a mechanical input unit 214.
  • the voice input unit 211 may convert a user's voice input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170.
  • the voice input unit 211 may include one or more microphones.
  • the gesture input unit 212 may convert a user's gesture input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170.
  • the gesture input unit 212 may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.
  • the gesture input unit 212 may detect a 3D gesture input of the user.
  • the gesture input unit 212 may include a light output unit or a plurality of image sensors for outputting a plurality of infrared light.
  • the gesture input unit 212 may detect a user's 3D gesture input through a time of flight (TOF) method, a structured light method, or a disparity method.
  • TOF time of flight
  • the touch input unit 213 may convert a user's touch input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170.
  • the touch input unit 213 may include a touch sensor for detecting a user's touch input.
  • the touch input unit 213 may be integrally formed with the display unit 251 to implement a touch screen.
  • a touch screen may provide an input interface and an output interface between the vehicle 100 and the user.
  • the mechanical input unit 214 may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the electrical signal generated by the mechanical input unit 214 may be provided to the processor 270 or the controller 170.
  • the mechanical input unit 214 may be disposed on a steering wheel, a cente facia, a center console, a cockpit module, a door, or the like.
  • the internal camera 220 may acquire a vehicle interior image.
  • the processor 270 may detect a state of the user based on the vehicle interior image.
  • the processor 270 may acquire the gaze information of the user from the vehicle interior image.
  • the processor 270 may detect a gesture of the user in the vehicle interior image.
  • the biometric detector 230 may acquire biometric information of the user.
  • the biometric detector 230 may include a sensor for acquiring biometric information of the user, and may acquire fingerprint information, heartbeat information, etc. of the user using the sensor. Biometric information may be used for user authentication.
  • the output unit 250 is for generating output related to visual, auditory or tactile.
  • the output unit 250 may include at least one of the display unit 251, the audio output unit 252, and the haptic output unit 253.
  • the display unit 251 may display graphic objects corresponding to various pieces of information.
  • the display unit 251 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display (flexible) display, a 3D display, or an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display
  • 3D display 3D display
  • e-ink display e-ink display
  • the display unit 251 forms a layer structure or is integrally formed with the touch input unit 213 to implement a touch screen.
  • the display unit 251 may be implemented as a head up display (HUD).
  • the display unit 251 may include a projection module to output information through an image projected on a wind shield or a window.
  • the display unit 251 may include a transparent display.
  • the transparent display can be attached to the wind shield or window.
  • the transparent display may display a predetermined screen while having a predetermined transparency.
  • Transparent display in order to have transparency, transparent display is transparent thin film elecroluminescent (TFEL), transparent organic light-emitting diode (OLED), transparent liquid crystal display (LCD), transmissive transparent display, transparent light emitting diode (LED) display It may include at least one of. The transparency of the transparent display can be adjusted.
  • the user interface device 200 may include a plurality of display units 251a to 251g.
  • the display unit 251 may include one region of the steering wheel, one region 521a, 251b, and 251e of the instrument panel, one region 251d of the seat, one region 251f of each pillar, and one region of the door ( 251g), one area of the center console, one area of the head lining, one area of the sun visor, or may be implemented in one area 251c of the windshield and one area 251h of the window.
  • the sound output unit 252 converts an electrical signal provided from the processor 270 or the controller 170 into an audio signal and outputs the audio signal. To this end, the sound output unit 252 may include one or more speakers.
  • the haptic output unit 253 generates a tactile output.
  • the haptic output unit 253 may vibrate the steering wheel, the seat belt, and the seats 110FL, 110FR, 110RL, and 110RR so that the user may recognize the output.
  • the processor 270 may control the overall operation of each unit of the user interface device 200.
  • the user interface device 200 may include a plurality of processors 270 or may not include the processor 270.
  • the user interface device 200 may be operated under the control of the processor or the controller 170 of another device in the vehicle 100.
  • the user interface device 200 may be referred to as a vehicle display device.
  • the user interface device 200 may be operated under the control of the controller 170.
  • the object detecting apparatus 300 is a device for detecting an object located outside the vehicle 100.
  • the object may be various objects related to the driving of the vehicle 100.
  • the object O includes a lane OB10, another vehicle OB11, a pedestrian OB12, a two-wheeled vehicle OB13, traffic signals OB14, OB15, light, a road, a structure, Speed bumps, features, animals and the like can be included.
  • the lane OB10 may be a driving lane, a lane next to the driving lane, and a lane in which an opposite vehicle travels.
  • the lane OB10 may be a concept including left and right lines forming a lane.
  • the other vehicle OB11 may be a vehicle that is driving around the vehicle 100.
  • the other vehicle may be a vehicle located within a predetermined distance from the vehicle 100.
  • the other vehicle OB11 may be a vehicle that precedes or follows the vehicle 100.
  • the pedestrian OB12 may be a person located near the vehicle 100.
  • the pedestrian OB12 may be a person located within a predetermined distance from the vehicle 100.
  • the pedestrian OB12 may be a person located on a sidewalk or a roadway.
  • the two-wheeled vehicle OB12 may be a vehicle that is positioned around the vehicle 100 and moves using two wheels.
  • the motorcycle OB12 may be a vehicle having two wheels located within a predetermined distance from the vehicle 100.
  • the motorcycle OB13 may be a motorcycle or a bicycle located on sidewalks or roadways.
  • the traffic signal may include a traffic light OB15, a traffic sign OB14, a pattern or text drawn on a road surface.
  • the light may be light generated by a lamp provided in another vehicle.
  • the light can be light generated from the street light.
  • the light may be sunlight.
  • the road may include a road surface, a curve, an uphill slope, a slope downhill, or the like.
  • the structure may be an object located around a road and fixed to the ground.
  • the structure may include a street lamp, a roadside tree, a building, a power pole, a traffic light, a bridge.
  • the features may include mountains, hills, and the like.
  • the object may be classified into a moving object and a fixed object.
  • the moving object may be a concept including another vehicle and a pedestrian.
  • the fixed object may be a concept including a traffic signal, a road, and a structure.
  • the object detecting apparatus 300 may include a camera 310, a radar 320, a lidar 330, an ultrasonic sensor 340, an infrared sensor 350, and a processor 370.
  • the object detecting apparatus 300 may further include other components in addition to the described components, or may not include some of the described components.
  • the camera 310 may be located at a suitable place outside the vehicle to acquire an image outside the vehicle.
  • the camera 310 may be a mono camera, a stereo camera 310a, an around view monitoring (AVM) camera 310b, or a 360 degree camera.
  • AVM around view monitoring
  • the camera 310 may be disposed in close proximity to the front windshield in the interior of the vehicle in order to acquire an image in front of the vehicle.
  • the camera 310 may be disposed around the front bumper or the radiator grille.
  • the camera 310 may be disposed in close proximity to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle.
  • the camera 310 may be disposed around the rear bumper, the trunk, or the tail gate.
  • the camera 310 may be disposed in close proximity to at least one of the side windows in the interior of the vehicle to acquire an image of the vehicle side.
  • the camera 310 may be arranged around the side mirror, fender or door.
  • the camera 310 may provide the obtained image to the processor 370.
  • the radar 320 may include an electromagnetic wave transmitter and a receiver.
  • the radar 320 may be implemented in a pulse radar method or a continuous wave radar method in terms of radio wave firing principle.
  • the radar 320 may be implemented by a frequency modulated continuous wave (FSCW) method or a frequency shift key (FSK) method according to a signal waveform among the continuous wave radar methods.
  • FSCW frequency modulated continuous wave
  • FSK frequency shift key
  • the radar 320 detects an object based on a time of flight (TOF) method or a phase-shift method based on an electromagnetic wave, and detects the position of the detected object, distance to the detected object, and relative velocity. Can be detected.
  • TOF time of flight
  • phase-shift method based on an electromagnetic wave
  • the radar 320 may be disposed at an appropriate position outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the lidar 330 may include a laser transmitter and a receiver.
  • the lidar 330 may be implemented in a time of flight (TOF) method or a phase-shift method.
  • TOF time of flight
  • the lidar 330 may be implemented as driven or non-driven.
  • the lidar 330 When implemented in a driving manner, the lidar 330 may be rotated by a motor and detect an object around the vehicle 100.
  • the lidar 330 may detect an object located within a predetermined range with respect to the vehicle 100 by optical steering.
  • the vehicle 100 may include a plurality of non-driven lidars 330.
  • the lidar 330 detects an object based on a time of flight (TOF) method or a phase-shift method using laser light, and detects an object, a position of the detected object, a distance from the detected object, and Relative speed can be detected.
  • TOF time of flight
  • phase-shift method using laser light
  • the lidar 330 may be disposed at an appropriate position outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the ultrasonic sensor 340 may include an ultrasonic transmitter and a receiver.
  • the ultrasonic sensor 340 may detect an object based on the ultrasonic wave, and detect a position of the detected object, a distance to the detected object, and a relative speed.
  • the ultrasonic sensor 340 may be disposed at an appropriate position outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the infrared sensor 350 may include an infrared transmitter and a receiver.
  • the infrared sensor 340 may detect an object based on infrared light, and detect a position of the detected object, a distance to the detected object, and a relative speed.
  • the infrared sensor 350 may be disposed at an appropriate position outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the processor 370 may control overall operations of each unit of the object detecting apparatus 300.
  • the processor 370 may detect and track the object based on the obtained image.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with the object through an image processing algorithm.
  • the processor 370 may detect and track the object based on the reflected electromagnetic wave reflected by the transmitted electromagnetic wave to the object.
  • the processor 370 may perform an operation such as calculating a distance from the object, calculating a relative speed with the object, and the like based on the electromagnetic waves.
  • the processor 370 may detect and track the object based on the reflected laser light reflected by the transmitted laser back to the object.
  • the processor 370 may perform an operation such as calculating a distance from the object, calculating a relative speed with the object, and the like based on the laser light.
  • the processor 370 may detect and track the object based on the reflected ultrasound, in which the transmitted ultrasound is reflected by the object and returned.
  • the processor 370 may perform an operation such as calculating a distance from the object, calculating a relative speed with the object, and the like based on the ultrasound.
  • the processor 370 may detect and track the object based on the reflected infrared light from which the transmitted infrared light is reflected back to the object.
  • the processor 370 may perform an operation such as calculating a distance to the object, calculating a relative speed with the object, and the like based on the infrared light.
  • the object detecting apparatus 300 may include a plurality of processors 370 or may not include the processor 370.
  • each of the camera 310, the radar 320, the lidar 330, the ultrasonic sensor 340, and the infrared sensor 350 may individually include a processor.
  • the object detecting apparatus 300 may be operated under the control of the processor or the controller 170 of the apparatus in the vehicle 100.
  • the object detecting apparatus 400 may be operated under the control of the controller 170.
  • the communication device 400 is a device for performing communication with an external device.
  • the external device may be another vehicle, a mobile terminal or a server.
  • the communication device 400 may include at least one of a transmit antenna, a receive antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 400 may include a short range communication unit 410, a location information unit 420, a V2X communication unit 430, an optical communication unit 440, a broadcast transceiver 450, and a processor 470.
  • the communication device 400 may further include other components in addition to the described components, or may not include some of the described components.
  • the short range communication unit 410 is a unit for short range communication.
  • the short range communication unit 410 may include Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and Wi-Fi (Wireless).
  • Local area communication may be supported using at least one of Fidelity, Wi-Fi Direct, and Wireless Universal Serial Bus (USB) technologies.
  • the short range communication unit 410 may form short range wireless networks to perform short range communication between the vehicle 100 and at least one external device.
  • the location information unit 420 is a unit for obtaining location information of the vehicle 100.
  • the location information unit 420 may include a global positioning system (GPS) module or a differential global positioning system (DGPS) module.
  • GPS global positioning system
  • DGPS differential global positioning system
  • the V2X communication unit 430 is a unit for performing wireless communication with a server (V2I: Vehicle to Infra), another vehicle (V2V: Vehicle to Vehicle), or a pedestrian (V2P: Vehicle to Pedestrian).
  • the V2X communication unit 430 may include an RF circuit that can implement a communication with the infrastructure (V2I), an inter-vehicle communication (V2V), and a communication with the pedestrian (V2P).
  • the optical communication unit 440 is a unit for performing communication with an external device via light.
  • the optical communication unit 440 may include an optical transmitter converting an electric signal into an optical signal and transmitting the external signal to an external signal, and an optical receiver converting the received optical signal into an electrical signal.
  • the light emitting unit may be formed to be integrated with the lamp included in the vehicle 100.
  • the broadcast transceiver 450 is a unit for receiving a broadcast signal from an external broadcast management server or transmitting a broadcast signal to a broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal.
  • the processor 470 may control the overall operation of each unit of the communication device 400.
  • the communication device 400 may include a plurality of processors 470 or may not include the processor 470.
  • the communication device 400 may be operated under the control of the processor or the controller 170 of another device in the vehicle 100.
  • the communication device 400 may implement a vehicle display device together with the user interface device 200.
  • the vehicle display device may be called a telematics device or an AVN (Audio Video Navigation) device.
  • the communication device 400 may be operated under the control of the controller 170.
  • the driving operation apparatus 500 is a device that receives a user input for driving.
  • the vehicle 100 may be driven based on a signal provided by the driving manipulation apparatus 500.
  • the driving manipulation apparatus 500 may include a steering input apparatus 510, an acceleration input apparatus 530, and a brake input apparatus 570.
  • the steering input device 510 may receive a driving direction input of the vehicle 100 from the user.
  • the steering input device 510 is preferably formed in a wheel shape to enable steering input by rotation.
  • the steering input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the acceleration input device 530 may receive an input for accelerating the vehicle 100 from a user.
  • the brake input device 570 may receive an input for deceleration of the vehicle 100 from a user.
  • the acceleration input device 530 and the brake input device 570 are preferably formed in the form of a pedal. According to an embodiment, the acceleration input device or the brake input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the driving manipulation apparatus 500 may be operated under the control of the controller 170.
  • the vehicle drive device 600 is a device that electrically controls the driving of various devices in the vehicle 100.
  • the vehicle driving apparatus 600 may include a power train driver 610, a chassis driver 620, a door / window driver 630, a safety device driver 640, a lamp driver 650, and an air conditioning driver 660. Can be.
  • the vehicle driving apparatus 600 may further include other components in addition to the described components, or may not include some of the described components.
  • the vehicle driving device 600 may include a processor.
  • Each unit of the vehicle drive apparatus 600 may each include a processor individually.
  • the power train driver 610 may control the operation of the power train device.
  • the power train driver 610 may include a power source driver 611 and a transmission driver 612.
  • the power source driver 611 may control the power source of the vehicle 100.
  • the power source driver 610 may perform electronic control of the engine. Thereby, the output torque of an engine, etc. can be controlled.
  • the power source drive unit 611 can adjust the engine output torque under the control of the control unit 170.
  • the power source driver 610 may control the motor.
  • the power source driver 610 may adjust the rotational speed, torque, and the like of the motor under the control of the controller 170.
  • the transmission driver 612 may control the transmission.
  • the transmission driver 612 can adjust the state of the transmission.
  • the transmission drive part 612 can adjust the state of a transmission to forward D, backward R, neutral N, or parking P.
  • the transmission drive unit 612 can adjust the bite state of the gear in the forward D state.
  • the chassis driver 620 may control the operation of the chassis device.
  • the chassis driver 620 may include a steering driver 621, a brake driver 622, and a suspension driver 623.
  • the steering driver 621 may perform electronic control of a steering apparatus in the vehicle 100.
  • the steering driver 621 may change the traveling direction of the vehicle.
  • the brake driver 622 may perform electronic control of a brake apparatus in the vehicle 100. For example, the speed of the vehicle 100 may be reduced by controlling the operation of the brake disposed on the wheel.
  • the brake drive unit 622 can individually control each of the plurality of brakes.
  • the brake driver 622 may control the braking force applied to the plurality of wheels differently.
  • the suspension driver 623 may perform electronic control of a suspension apparatus in the vehicle 100. For example, when there is a curvature on the road surface, the suspension driver 623 may control the suspension device to control the vibration of the vehicle 100 to be reduced.
  • the suspension driver 623 may individually control each of the plurality of suspensions.
  • the door / window driver 630 may perform electronic control of a door apparatus or a window apparatus in the vehicle 100.
  • the door / window driver 630 may include a door driver 631 and a window driver 632.
  • the door driver 631 may control the door apparatus.
  • the door driver 631 may control opening and closing of the plurality of doors included in the vehicle 100.
  • the door driver 631 may control the opening or closing of a trunk or a tail gate.
  • the door driver 631 may control the opening or closing of the sunroof.
  • the window driver 632 may perform electronic control of the window apparatus.
  • the opening or closing of the plurality of windows included in the vehicle 100 may be controlled.
  • the safety device driver 640 may perform electronic control of various safety apparatuses in the vehicle 100.
  • the safety device driver 640 may include an airbag driver 641, a seat belt driver 642, and a pedestrian protection device driver 643.
  • the airbag driver 641 may perform electronic control of an airbag apparatus in the vehicle 100.
  • the airbag driver 641 may control the airbag to be deployed when the danger is detected.
  • the seat belt driver 642 may perform electronic control of a seatbelt appartus in the vehicle 100.
  • the seat belt driver 642 may control the passengers to be fixed to the seats 110FL, 110FR, 110RL, and 110RR by using the seat belt when detecting a danger.
  • the pedestrian protection device driver 643 may perform electronic control of the hood lift and the pedestrian airbag. For example, the pedestrian protection device driver 643 may control the hood lift up and the pedestrian air bag to be deployed when detecting a collision with the pedestrian.
  • the lamp driver 650 may perform electronic control of various lamp apparatuses in the vehicle 100.
  • the air conditioning driver 660 may perform electronic control of an air conditioner in the vehicle 100. For example, when the temperature inside the vehicle is high, the air conditioning driver 660 may control the air conditioning apparatus to operate to supply cool air to the inside of the vehicle.
  • the vehicle driving apparatus 600 may include a processor. Each unit of the vehicle drive apparatus 600 may each include a processor individually.
  • the vehicle driving apparatus 600 may be operated under the control of the controller 170.
  • the travel system 700 is a system for controlling various travels of the vehicle 100.
  • the navigation system 700 can be operated in an autonomous driving mode.
  • the travel system 700 can include a travel system 710, a parking system 740, and a parking system 750.
  • the navigation system 700 may further include other components in addition to the described components, or may not include some of the described components.
  • the driving system 700 may include a processor.
  • Each unit of the navigation system 700 may each include a processor individually.
  • the driving system 700 when the driving system 700 is implemented in software, the driving system 700 may be a lower concept of the controller 170.
  • the driving system 700 may include at least one of the user interface device 200, the object detecting device 300, the communication device 400, the vehicle driving device 600, and the controller 170. It may be a concept to include.
  • the traveling system 710 may perform driving of the vehicle 100.
  • the driving system 710 may receive navigation information from the navigation system 770, provide a control signal to the vehicle driving apparatus 600, and perform driving of the vehicle 100.
  • the driving system 710 may receive object information from the object detecting apparatus 300 and provide a control signal to the vehicle driving apparatus 600 to perform driving of the vehicle 100.
  • the driving system 710 may receive a signal from an external device through the communication device 400, provide a control signal to the vehicle driving device 600, and perform driving of the vehicle 100.
  • the taking-out system 740 may perform taking out of the vehicle 100.
  • the taking-out system 740 may receive navigation information from the navigation system 770, provide a control signal to the vehicle driving apparatus 600, and perform take-out of the vehicle 100.
  • the taking-out system 740 may receive the object information from the object detecting apparatus 300, provide a control signal to the vehicle driving apparatus 600, and perform take-out of the vehicle 100.
  • the taking-off system 740 may receive a signal from an external device through the communication device 400, provide a control signal to the vehicle driving apparatus 600, and perform take-out of the vehicle 100.
  • the parking system 750 may perform parking of the vehicle 100.
  • the parking system 750 may receive navigation information from the navigation system 770, provide a control signal to the vehicle driving apparatus 600, and perform parking of the vehicle 100.
  • the parking system 750 may receive the object information from the object detecting apparatus 300, provide a control signal to the vehicle driving apparatus 600, and perform parking of the vehicle 100.
  • the parking system 750 may receive a signal from an external device through the communication device 400, provide a control signal to the vehicle driving device 600, and perform parking of the vehicle 100.
  • the navigation system 770 can provide navigation information.
  • the navigation information may include at least one of map information, set destination information, route information according to the destination setting, information on various objects on the route, lane information, and current location information of the vehicle.
  • the navigation system 770 may include a memory and a processor.
  • the memory may store navigation information.
  • the processor may control the operation of the navigation system 770.
  • the navigation system 770 may receive information from an external device through the communication device 400 and update the pre-stored information.
  • the navigation system 770 may be classified as a subcomponent of the user interface device 200.
  • the sensing unit 120 may sense a state of the vehicle.
  • the sensing unit 120 may include an attitude sensor (for example, a yaw sensor, a roll sensor, a pitch sensor), a collision sensor, a wheel sensor, a speed sensor, and an inclination.
  • the sensing unit 120 includes vehicle attitude information, vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward / reverse information, battery Acquire sensing signals for information, fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illumination, pressure applied to the accelerator pedal, pressure applied to the brake pedal, and the like. can do.
  • the sensing unit 120 may further include an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), TDC sensor, crank angle sensor (CAS), and the like.
  • AFS air flow sensor
  • ATS intake air temperature sensor
  • WTS water temperature sensor
  • TPS throttle position sensor
  • TDC crank angle sensor
  • CAS crank angle sensor
  • the interface unit 130 may serve as a path to various types of external devices connected to the vehicle 100.
  • the interface unit 130 may include a port connectable with the mobile terminal, and may connect with the mobile terminal through the port. In this case, the interface unit 130 may exchange data with the mobile terminal.
  • the interface unit 130 may serve as a path for supplying electrical energy to the connected mobile terminal.
  • the interface unit 130 may provide the mobile terminal with electrical energy supplied from the power supply unit 190.
  • the memory 140 is electrically connected to the controller 170.
  • the memory 140 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data.
  • the memory 140 may be various storage devices such as a ROM, a RAM, an EPROM, a flash drive, a hard drive, and the like, in hardware.
  • the memory 140 may store various data for overall operation of the vehicle 100, such as a program for processing or controlling the controller 170.
  • the memory 140 may be integrally formed with the controller 170 or may be implemented as a subcomponent of the controller 170.
  • the controller 170 may control the overall operation of each unit in the vehicle 100.
  • the controller 170 may be referred to as an electronic control unit (ECU).
  • ECU electronice control unit
  • the power supply unit 190 may supply power required for the operation of each component under the control of the controller 170.
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • processors and controllers 170 included in the vehicle 100 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and FPGAs ( It may be implemented using at least one of field programmable gate arrays, processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions may be implemented using at least one of field programmable gate arrays, processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • the vehicle 100 related to the present invention may include a vehicle control device 800.
  • the vehicle control apparatus 800 may control at least one of the components described with reference to FIG. 7. From this point of view, the vehicle control device 800 may be a control unit 170.
  • the vehicle control device 800 may be a separate configuration independent of the control unit 170.
  • the vehicle control device 800 may be provided in a portion of the vehicle 100.
  • the vehicle control apparatus 800 described herein may include all kinds of devices capable of controlling the vehicle, for example, may be a mobile terminal.
  • the vehicle control apparatus 800 is a mobile terminal
  • the mobile terminal and the vehicle 100 may be connected to communicate with each other through wired / wireless communication.
  • the mobile terminal can control the vehicle 100 in various ways in a communication connection.
  • the processor 870 described herein may be a controller of the mobile terminal.
  • the vehicle control apparatus 800 will be described as having a separate configuration independent of the controller 170.
  • the function (operation) and control method described for the vehicle control apparatus 800 in the present specification may be performed by the controller 170 of the vehicle. That is, all contents described in relation to the vehicle control apparatus 800 may be analogously applied to the controller 170 in the same or similar manner.
  • vehicle control apparatus 800 described herein may include some of the components described in FIG. 7 and various components provided in the vehicle.
  • the components described in FIG. 7 and various components provided in the vehicle will be described with separate names and reference numerals.
  • FIG. 8 is a conceptual diagram illustrating a vehicle control apparatus according to an embodiment of the present invention.
  • the vehicle control apparatus 800 may include a communication unit 810, a sensing unit 820, a beam output unit 830, a processor 870, and the like.
  • the vehicle control device 800 may include a communication unit 810.
  • the communication unit 810 may be the communication device 400 described above.
  • the communication unit 810 may be connected to communicate with a mobile terminal existing in the vehicle 100.
  • the vehicle control apparatus 800 (or the vehicle 100) and the mobile terminal may be connected to enable wireless communication through the communication unit 810.
  • the vehicle control apparatus 800 and the mobile terminal are wirelessly connected to enable mutual wireless communication by a user request, or if the vehicle control device 800 has been previously connected to enable wireless communication, based on the mobile terminal entering the vehicle.
  • the wireless connection may be performed to enable mutual wireless communication.
  • the communication unit 810 may be configured to communicate with an external device (eg, a digital signage, a server, a terminal, a computer, an infrastructure, etc.) existing at a stop designated to stop the vehicle.
  • an external device eg, a digital signage, a server, a terminal, a computer, an infrastructure, etc.
  • the communication unit 810 may be provided in a vehicle (or in a vehicle control apparatus) or may be formed in a separate module form to enable communication (or electrical coupling) with components of the vehicle.
  • the vehicle control device 800 may control a mobile terminal or an external device through the communication unit 810.
  • the vehicle control apparatus 800 may transmit a control signal for controlling the mobile terminal or the external device to the mobile terminal or the external device through the communication unit 810.
  • the mobile terminal or the external device may perform a function / operation / control corresponding to the control signal.
  • the present invention may enable the mobile terminal to control the vehicle control device 800 (or the vehicle 100).
  • the mobile terminal may transmit a control signal for controlling the vehicle to the vehicle control apparatus 800.
  • the vehicle control apparatus 800 may perform a function / operation / control corresponding to the control signal transmitted from the mobile terminal.
  • the communication unit 810 may perform communication with another vehicle.
  • the communication unit 810 may receive information related to a stop from an external device.
  • the stop may include a place formed to stop the vehicle.
  • the communication unit 810 may receive location information for the vehicle to stop from the external device.
  • location information on which the vehicle stops may be determined by an external device.
  • the vehicle control device 800 may receive the location information for stopping the vehicle from the external device through the communication unit 810.
  • Receiving such information may be performed by, for example, control of the processor 870 or may be performed by control of an external device.
  • the communication unit 810 may receive location information of the vehicle.
  • the communication unit 810 may determine the current location of the vehicle through the location information unit 420 or the V2X communication unit 430.
  • the communication unit 810 receives the current location information of the vehicle using the GPS module included in the location information unit, or the current location from another vehicle or an external device (for example, infrastructure) through the V2X communication unit 430. Information can be received.
  • the vehicle control apparatus 800 may include a sensing unit 820.
  • the sensing unit 820 may be the object detecting apparatus 300 described with reference to FIG. 7, or may be the sensing unit 120 provided in the vehicle 100.
  • the sensing unit 120 may include a camera.
  • the camera may include an internal camera configured to photograph the inside of the vehicle and an external camera configured to photograph the exterior of the vehicle.
  • the sensing unit 120 may sense the driver's gaze direction by using the internal camera.
  • the sensing unit 120 may sense information (for example, the state of the user, the number of users, the age of the user, and the like) related to the user in the vehicle using the internal camera.
  • the sensing unit 120 may photograph the outside of the vehicle using an external camera.
  • the sensing unit 120 may use an external camera to determine whether an object approaching the vehicle door exists, the type of the object, information related to the object, and information related to a user who wants to ride in the vehicle (for example, The status of the user, the number of users, the age of the user, and the like.
  • the sensing unit 820 may include a camera 310, a radar 320, a lidar 330, an ultrasonic sensor 340, an infrared sensor 350, and a sensing unit included in the object detecting apparatus 300. At least two of the 120 may be implemented in combination.
  • the sensing unit 820 may sense information related to the vehicle 100 of the present invention.
  • the information related to the vehicle may be at least one of vehicle information (or driving state information of the vehicle) and surrounding information of the vehicle.
  • the vehicle information may include the vehicle's driving speed, the weight of the vehicle, the number of occupants of the vehicle, the braking force of the vehicle, the maximum braking force of the vehicle, the driving mode of the vehicle (whether autonomous driving or manual driving), the parking mode of the vehicle. (Autonomous parking mode, automatic parking mode, manual parking mode), whether the user is in the vehicle, the state of the vehicle and information related to the user (for example, whether the user is an authenticated user), etc. can do.
  • the surrounding information of the vehicle may be, for example, the condition of the road surface on which the vehicle is driving (friction force), the weather, the distance from the vehicle in front (or rear), the relative speed of the vehicle in front (or rear), and the driving lane is curved.
  • Curvature rate of the curve may be, for example, the condition of the road surface on which the vehicle is driving (friction force), the weather, the distance from the vehicle in front (or rear), the relative speed of the vehicle in front (or rear), and the driving lane is curved.
  • Curvature rate of the curve brightness around the vehicle, information related to the object existing in the reference area (constant area) based on the vehicle, whether the object enters or leaves the predetermined area, whether the user exists around the vehicle, It may be information about whether there is an object to approach, the type of object to approach, information related to a user who is present in the vicinity of the vehicle and wants to ride in the vehicle.
  • the surrounding information (or surrounding environment information) of the vehicle the external information of the vehicle (for example, the ambient brightness, temperature, sun position, information on the surrounding subjects (people, other vehicles, signs, etc.), the type of road surface driving , Features, lane information, lane information), and autonomous driving / autonomous parking / automatic parking / manual parking mode.
  • the surrounding information of the vehicle may include a distance between an object (object) existing near the vehicle and the vehicle 100, a type of the object, a parking space where the vehicle can park, and an object for identifying a parking space (for example, Parking lines, ropes, other vehicles, walls, etc.) may be further included.
  • Information related to the vehicle sensed by the sensing unit 820 may be used in the autonomous driving mode for autonomous driving of the vehicle.
  • the processor 870 may autonomously drive the vehicle by using information related to the vehicle sensed by the sensing unit 820.
  • the functions / operations / control methods performed by the sensing unit 820 may be performed by the sensing unit 120 (or the object detecting apparatus 300) of the vehicle.
  • the sensing unit 120 may include the object detecting device 300.
  • sensing information related to the vehicle through the sensing unit 120 provided in the vehicle.
  • the present invention is not limited thereto, and all types of information sensed through the sensing unit 120 may be sensed by the sensing unit 820 of the vehicle control apparatus 800, and the vehicle control apparatus 800 may include: The function / operation / control method described herein may be performed using the information sensed by the sensing unit 820.
  • the vehicle control apparatus 800 may include a beam output unit 830.
  • the beam output unit 830 may be formed to radiate light onto a road surface around a vehicle.
  • the beam output unit 830 may be formed to output light on a road surface (or a predetermined area of the road surface adjacent to the vehicle door) around the vehicle door.
  • the beam output unit 830 may be referred to as a projector or a lamp in that light is output.
  • the light emitted from the beam output unit 830 onto the road surface around the vehicle may have a predetermined shape or form a meaningful figure, color, pattern, text, image, graphic object, or the like.
  • the light irradiated on the road surface around the vehicle by the beam output unit 830 may be understood as information, and the information may include figures, colors, patterns, text, images, graphic objects, and the like. Can be.
  • the beam output unit 830 may include various kinds of light sources for irradiating light (information) to the road surface around the vehicle, and may use any kind of light source for identifying light irradiated on the road surface around the vehicle. It may include.
  • the beam output unit 830 may irradiate light (information) to an area within a predetermined distance with respect to the vehicle.
  • the range of the predetermined distance may be determined by the type of light source forming the beam output unit 830 or may be determined / changed by user setting.
  • the beam output unit 830 may be provided on the outer surface of the vehicle to irradiate light to the outside of the vehicle.
  • the beam output unit 830 may be installed at the vehicle door (or around the vehicle door) to irradiate light (information) to the road surface around the vehicle door. It may be provided in front of the vehicle to irradiate light (information) to the road surface of the stop.
  • the place where the beam output unit 830 is provided is not limited, and may be installed at any place as long as it can irradiate light on a road surface outside the vehicle.
  • the vehicle control apparatus 800 of the present invention may include a processor 870 capable of controlling the communication unit 810, the sensing unit 820, the beam output unit 830, and the like.
  • the processor 870 may be the controller 170 described with reference to FIG. 7.
  • the processor 870 may control the components described with reference to FIG. 7 and the components described with reference to FIG. 8.
  • the vehicle control apparatus may include a communication unit 810, a sensor controller (not shown), and a beam controller (not shown).
  • the communication unit 810 communicates with at least one of the sensing unit 820 and the beam output unit 830 provided in the vehicle. That is, at least one of the sensing unit 820 and the beam output unit 830 may not be provided in the vehicle control apparatus 800, but may be installed in the vehicle as a separate device independent of the vehicle control apparatus 800.
  • the sensor controller communicates with the sensing unit 820 through the communication unit 810 in order to sense an object approaching the vehicle door in response to the event that the vehicle door is opened or is expected to occur. do.
  • the event means that at least one of the plurality of doors provided in the vehicle is switched from the closed state to the open state.
  • the sensor controller may determine a situation in which the event is expected to occur based on vehicle driving information of the vehicle. For example, when the vehicle speed is reduced and the stop is expected, when the vehicle enters the rest area or the stop, the sensor controller may determine that the event is expected to occur.
  • the beam controller controls the beam output unit through the communication unit so that information indicating an object approaching toward the vehicle door is irradiated to a road surface around the vehicle door with the vehicle door closed. do.
  • the sensor controller and the beam controller may be formed inside the processor 870.
  • the processor 870 may perform at least one function of the sensor controller and the beam controller.
  • the vehicle of the present invention may include all kinds of transportation means that users can get on and off such as taxis, buses, subways, trams, and trains.
  • FIG. 9 is a flowchart illustrating a representative control method of the present invention
  • FIG. 10 is a conceptual diagram illustrating the control method described with reference to FIG. 9.
  • the processor 870 may sense information related to a vehicle through the sensing unit 120 provided in the vehicle.
  • the processor 870 may sense information related to the vehicle in a preset state.
  • the preset state may include a state in which the vehicle is running, a state in which the vehicle is stopped, a state in which the vehicle enters a place (for example, a stop) formed to stop, and is preset by the user. Can be added, deleted, or changed.
  • Sensing information related to the vehicle may be performed through the sensing unit 120 or the sensing unit 820 of the vehicle control apparatus 800 provided in the vehicle.
  • a step of receiving a control command for opening a vehicle door after the vehicle 100 stops is performed (S910).
  • the processor 870 may sense whether there is an object approaching the vehicle door through the sensing unit 120. have.
  • the control command to open the vehicle door may be performed by receiving a user request (or user action) to open the vehicle door, pressing a button configured to open the vehicle door, or operating a handle to open the vehicle door. Can be generated (received).
  • control command to open the vehicle door may be generated (received) based on a predetermined condition formed to open the vehicle door while the vehicle is stopped. have.
  • the preset condition may include, for example, when the vehicle is stopped, when the vehicle stops after entering the stop, when the parking of the vehicle is completed, when the vehicle is turned off. It may be determined / changed by user setting.
  • the control command to open the vehicle door may be generated by the separate processor or the controller 170 of the vehicle, and received by the processor 870 based on the above-described situations.
  • the step of irradiating the road surface around the vehicle door with information indicating the object approaching toward the vehicle door with the vehicle door closed (S930).
  • the beam output unit 830 may be controlled.
  • the processor 870 may receive a control command for opening the vehicle door 900 after the vehicle 100 stops, and may be included in the vehicle 100.
  • the sensing unit 120 may sense whether an object 1000 approaching the vehicle door 900 exists.
  • the processor 870 may enter a location (for example, a stop) where the vehicle 100 is formed to stop, and then, when the control command for opening the vehicle door 900 is received, the vehicle 100 may receive the vehicle 100.
  • the sensing unit 120 may detect whether the object 1000 approaching the vehicle door 900 exists.
  • the processor 870 may be configured to provide information related to the object 1000 (eg, type of object, number of objects, speed of an object, etc.). It can be sensed through the sensing unit 120.
  • the processor 870 may close the vehicle door 900 based on the existence of the object 1000 approaching the vehicle door 900.
  • Information 1100 indicating an object approaching the door 900 is placed on a road surface near the vehicle door 900 (that is, a road surface around the vehicle door 900 in which a control command for opening the vehicle door is received among the road surfaces outside the vehicle).
  • the beam output unit 830 may be controlled to be irradiated.
  • the road surface around the vehicle door 900 may mean a predetermined area adjacent to the vehicle door 900 or an area within a predetermined distance based on the vehicle door 900.
  • the processor 870 when a control command for opening the vehicle door 900 is received when the vehicle is stopped, the processor 870 does not open the vehicle door 900 to be opened by the control command, but instead, the processor 120 detects the sensing unit 120. The sensing may detect whether an object approaching toward the vehicle door 900 exists.
  • the processor 870 uses the beam output unit 830 to close the vehicle door 900.
  • Information 1100 indicating an object approaching toward the vehicle door 900 may be irradiated to the road surface around the vehicle door 900.
  • the processor 870 closes the vehicle door 900 regardless of a control command to open the vehicle door 900. Can be maintained.
  • the processor 870 may irradiate the road surface around the vehicle door 900 with information 1100 indicating an object approaching toward the vehicle door 900 while the vehicle door 900 remains closed. have.
  • the information 1100 indicating the object approaching toward the vehicle door 900 may be formed in various forms, and different information may be provided according to the type of the object approaching toward the vehicle door 900. It can be irradiated on the surrounding road surface.
  • the information 1100 may include first information indicating the first type of object.
  • the information 1100 may determine the second type of object. It may be the second information indicating.
  • the processor 870 may not detect that the sensing object 1000 passes the vehicle door 900 or the object approaching toward the vehicle door is not sensed. Based on this, the vehicle door 900 may be opened according to a control command to open the vehicle door.
  • the processor 870 outputs (investigates) a first image 1200a for guiding a user (get off passenger) of getting in the vehicle to the road surface around the vehicle door 900.
  • the beam output unit 830 may be controlled.
  • the processor 870 outputs information 1100 indicating an object approaching toward the vehicle door while the vehicle door is closed, and stops outputting the information 1100 when the vehicle door is opened.
  • the first image 1200a may be output on a road surface around the vehicle door 900.
  • the present invention if there is an object approaching toward the vehicle door in the situation that the vehicle door is open, the vehicle door is kept closed, and information informing the object approaching the vehicle door toward the vehicle door By outputting on the road surface, there is an effect that can prevent accidents that may occur when getting off.
  • 11, 12, 13, 14, 15, 16, and 17 are conceptual views illustrating various embodiments of the present invention.
  • the processor 870 receives the passengers 1150a and 1150b who have boarded the vehicle 100 while the vehicle door 900 is opened by a control command to open the vehicle door.
  • the first image 1200a guiding the getting off of the vehicle may be output on a road surface around the vehicle door 900.
  • the processor 870 presets the vehicle door 900. Can close at speed.
  • the processor 870 reads the open vehicle door 900. Can be closed at a set speed.
  • the preset speed may be lower than or equal to a predetermined speed so that the getting off passenger who is getting off is not injured by the closing door.
  • the preset speed may be a predetermined speed or more so that the passenger who gets off the bus recognizes that the door is closed and stops the getting off.
  • the preset speed may be any one of the speed above the predetermined speed and below the predetermined speed.
  • the processor 870 is configured to output the first image being output (irradiated) to a road surface around the vehicle door while the vehicle door 900 is closed at a preset speed.
  • the display method of 1200a may be changed.
  • the first image 1200a may include a plurality of graphic objects 1210, 1220, 1230, and 1240, as illustrated in FIG. 11B.
  • the processor 870 may include at least one graphic object 1220 adjacent to the vehicle door 900 from among the plurality of graphic objects 1210, 1220, 1230, and 1240 while the vehicle door 900 is closed at a preset speed.
  • 1230 and 1240 may vary in color.
  • At least one graphic object 1220, 1230, and 1240 adjacent to (or near) the vehicle door 900 may be determined in various ways. For example, the last passenger who gets in the vehicle and gets off the passenger 1150a. It may be determined based on.
  • the processor 870 may change the color of the graphic object (s) adjacent to the vehicle from a point at which the getting off passenger 1150a is located among the plurality of graphic objects 1210, 1220, 1230, and 1240. At least one graphic object 1220, 1230, and 1240 may be determined.
  • the number of the at least one graphic objects 1220, 1230, and 1240 varying colors may be increased according to the position of the getting off 1150a. Can be.
  • the processor 870 outputs the colors of the plurality of graphic objects included in the first image 1200a as a first color (eg, green) to induce getting off, and then the vehicle door 900.
  • a first color eg, green
  • the color of at least one graphic object 1220, 1230, 1240 adjacent to the vehicle among the plurality of graphic objects is changed to a second color (eg, red) which induces a stop. You can change it.
  • the processor 870 adds information 1250a and 1250b related to the object approaching the vehicle door 900 to the road surface around the vehicle door 900 while the vehicle door 900 is closed at a preset speed.
  • the beam output unit 830 may be controlled to irradiate with.
  • the information 1250a and 1250b related to the object may include information 1250a indicating an object approaching the vehicle door to the unloaded passenger 1150b that is not yet unloaded from the vehicle, and the unloaded passenger 1150a that gets off the vehicle. May include information 1250b for inducing fast movement.
  • the present invention provides that when an object is further sensed to approach the vehicle door while the vehicle door is open, the unloaded passenger who has already disembarked induces rapid movement and stops unloading unloaded passenger. It is effective to lower the accident rate.
  • the processor 870 senses the disembarked passenger (or disembarked passenger) 1260 existing inside the vehicle by using the sensing unit 120 or 820, and the disembarked passenger (or scheduled to ride) existing outside the vehicle. Passenger) 1270.
  • the processor 870 senses a user existing within a predetermined area from the vehicle door 900 among the users existing inside the vehicle as the passenger 1260. (Can be determined).
  • the processor 870 may sense (determine) a user existing within a predetermined area from the vehicle door 900 among the users existing outside the vehicle.
  • the processor 870 may move the first image 1200a around the vehicle door 900 to allow the passenger 1260 to get off while the vehicle door 900 is open. We can irradiate (output) on road surface.
  • the processor 870 may include a second, different from the first image 1200a to allow the passenger 1270 to board the vehicle after the driver 1260 is unloaded.
  • the beam output unit 830 may be controlled to irradiate the image 1200b on the road surface around the vehicle door 900.
  • the processor 870 stops outputting the first image 1200a based on a predetermined time after the first image 1200a is irradiated to the road surface around the vehicle door 900.
  • the second image 1200b may be irradiated on a road surface around the vehicle door 900.
  • the first image 1200a may be an image formed to induce the getting off of the passenger 1260
  • the second image 1200b may be an image formed to induce the riding of the passenger 1270.
  • the processor 870 the passenger 1270 is approached toward the vehicle door 900 while the first image 1200a (that is, the image formed to induce getting off) is irradiating the road surface around the vehicle door or
  • the second image 1200b ie, the image formed to induce riding
  • the getting off passenger 1260 senses approaching the vehicle door 900, the warning information is sent.
  • the processor 870 may output the warning information 1290.
  • the outputting of the warning information may include, for example, emitting light (or a lamp or a warning lamp) 1280 installed around the vehicle door 900.
  • the processor 870 detects the boarding of the passenger 1270 while the first image 1200a configured to induce the getting off of the passenger is under investigation, or the boarding passenger 1270 is connected to the vehicle door ( If approaching to 900 is detected, warning information may be output.
  • the processor 870, the sensing unit 120 or 820 may sense a passenger getting off inside the vehicle, it may sense a passenger riding on the outside of the vehicle.
  • the processor 870 based on the number of passengers getting off or the number of passengers getting on, the length of the image irradiated on the road surface around the vehicle door 900 (or the number of the plurality of graphic objects included in the image) Can be determined.
  • the processor 870 may determine the number of passengers 1270 to ride in the vehicle through the sensing unit 120.
  • the processor 870 may determine the length of the image irradiated on the road surface around the vehicle door by a length corresponding to the determined number of passengers.
  • the processor 870 may determine that the length of the image is based on a decrease in the number of disengagement passengers present inside the vehicle as the disembarkation passengers disembark, or a decrease in the number of passengers in the exterior of the vehicle as the passengers get on.
  • the beam output unit 830 may be controlled to shorten (or reduce the number of graphic objects included in the image).
  • the beam output unit 830 may be controlled such that the second image 1200b is irradiated on the road surface around the vehicle door.
  • the processor 870 may output the beam output unit 830 such that the image 1200b is irradiated onto the road surface around the vehicle door by a second length (second length shorter than the first length) d2 corresponding to the m name. Can be controlled.
  • the processor 870 may stop the output of the image 1200b.
  • the processor 870 may be configured to close the vehicle door based on the vehicle door being closed according to a control command for closing the vehicle door while the first image 1200a or the second image 1200b is being output.
  • the output of the image (information) under investigation on the road surface can be stopped.
  • the processor 870 may control the beam output unit 830 such that the length of the image (the first or second image 1200a or 1200b) decreases with time.
  • the processor 870 outputs the image to the road surface around the vehicle door for a first length for a first time after outputting the image, and as time passes from the first time to the second time.
  • the image may be output on a road surface around the vehicle door by a second length shorter than the first length.
  • the processor 870 may stop the output of the image and close the vehicle door based on reaching the third time after the second time.
  • the present invention can provide a vehicle control apparatus and a control method thereof capable of inducing the getting on and off of a passenger who gets on or off.
  • the vehicle control device 800 of the present invention may further include a communication unit 810 formed to be able to communicate with the external device existing at the station.
  • the processor 870 may communicate with an external device 1410 provided in the stop 1400 formed so that the vehicle 100 may stop through the communication unit 810.
  • the external device 1410 may include a communication unit.
  • the external device 1410 may include all kinds of devices that can communicate with each other.
  • the external device 1410 may be a digital signage (or a signage).
  • the external device 1410 may include a sensing unit (eg, a camera), and information (eg, passengers) related to a user (eg, a passenger) existing at the stop 1400 through the sensing unit. , Number of users, status of the user, age of the user, and the like.
  • the external device 1410 may include a beam output unit capable of irradiating light (or information) 1420 on the road surface of the stop.
  • the external device 1410 may include a controller for controlling the communication unit, the sensing unit, and the beam output unit.
  • the processor 870 of the vehicle control apparatus 800 may be connected to communicate with the external device 1410 through the communication unit 810 based on the vehicle 100 entering the stop 1400.
  • the processor 870 when the processor 870 enters the stop 1400 in which the external device 1410 is installed, the processor 870 may be connected to communicate with the communication unit of the external device 1410 through V2X communication through the communication unit 810. have.
  • the controller of the external device 1410 may communicate with the vehicle 100 through the communication unit of the external device 1400 (or the communication is connected), and the vehicle 100 connected to the communication. It may be determined to enter this stop 1410.
  • the controller of the external device 1410 may receive a specific signal (for example, information related to a vehicle) from the vehicle 100 through the communication unit of the external device 1410. May enter the stop 1400.
  • a specific signal for example, information related to a vehicle
  • the controller of the external device 1410 may receive information related to the transportation means 910 based on the reception of the information related to the vehicle 100 from the vehicle 100 through the communication unit of the external device 1410. You can decide.
  • the processor 870 of the vehicle control apparatus 800 may transmit the specific signal (or information related to the vehicle) to the communication unit ( 810 may be sent.
  • the controller of the external device 1410 may transmit a response signal corresponding thereto to the vehicle 100.
  • the processor 870 of the vehicle control apparatus 800 included in the vehicle 100 is based on the reception of the response signal through the communication unit 810 and the external device 1410 existing at the stop 1400. It may be connected to enable communication.
  • the information related to the vehicle 100 may include a number assigned to the vehicle (eg, a bus number, a train number, etc.), a feature related to the vehicle (eg, color, size, etc.), and the remaining information on the vehicle.
  • the number of vacant seats (or the number of occupants) and route information of the vehicle may be included.
  • the controller of the external device 1410 may communicate with the plurality of vehicles through the communication unit of the external device 1410 to sense information related to the plurality of vehicles.
  • the controller of the external device 1410 may determine (generate) location information on which the vehicle 100 entering the stop 1400 stops based on information related to a user present at the stop.
  • the external device 1410 may transmit location information where the vehicle is to be located.
  • the processor 870 of the vehicle control apparatus 800 may receive location information for stopping the vehicle from the external device 1410 through the communication unit 810.
  • the processor 870 may notify the stop position (for example, one region of the road surface of the stop 1400) corresponding to the position information on which the vehicle stops. That is, the beam output unit 830 may be controlled to irradiate information (1420) indicating that the vehicle 100 stops.
  • the notification information 1420 indicating the stop position may be irradiated by the beam output unit of the external device 1410 provided at the stop 1400.
  • the processor 870 may determine whether an obstacle of a preset type exists in a place corresponding to the location information through the sensing unit 120.
  • the determination of whether the obstacle of the preset type exists may be performed by the sensing unit of the external device 1410.
  • the preset type of obstacle may be an obstacle that does not ride (or is not loaded) of the vehicle 100, and may include, for example, a trash box, a construction sign, a structure installed so as not to move.
  • the user, luggage, etc., which can ride in the vehicle may not be included in the obstacle of the preset type.
  • the processor 870 may be configured as shown in FIG. 15B. As such, the notification information 1420 indicating the stop position may be output to a place different from the place corresponding to the location information.
  • the notification information 1420 for notifying the stationary location may be output to the place corresponding to the location information.
  • the processor 870 of the vehicle control apparatus 800 may output notification information 1420 indicating a stop position to a place corresponding to the location information on the road surface of the stop 1400 directly through the beam output unit 830. Can be.
  • control unit of the external device 1410 installed in the stop 1400 also determines a stop position at which the vehicle entering the stop stops at a place corresponding to the location information on the road surface of the stop 1400 through the beam output unit of the external device.
  • the notification may output notification information 1420.
  • the beam output unit of the external device 1410 irradiates the notification information 1420 on the road surface of the stop, and the vehicle 100
  • the beam output unit 830 of the vehicle control apparatus 800 may cause the notification information 1420 to be irradiated on the road surface of the stop.
  • the present disclosure may determine which device outputs the notification information 1420 through communication between the vehicle control device 800 and the external device 1410.
  • the present invention at least one of the vehicle control device 800 and the external device 1410 by the user request, the communication status of the vehicle control device or the status of the stop, the notification information 1420 We can check on road surface of stop.
  • the processor 870 may sense a situation inside the vehicle through the sensing unit 120. For example, the processor 870 may sense (determine) whether a preset situation occurs in the vehicle through the internal camera of the sensing unit 120.
  • the preset situation may be, for example, an emergency situation, and may include a case where a user existing inside the vehicle is ill, a case of fainting, and the like.
  • Whether or not the predetermined situation occurs may be sensed (determined) through, for example, an image analysis received through a camera, or by a control command (specific gesture, emergency button input, etc.) of a user present in the vehicle. It may be sensed.
  • the processor 870 stops the vehicle 100 at the stop 1400 as illustrated in FIG. 16.
  • the beam output unit 830 may be controlled to output the information (that is, the information that passes without stopping) 1600 to the road surface of the stop 1400.
  • the processor 870 may transmit information indicating that the vehicle is not stopped to the external device 1400 through the communication unit 810.
  • the external device 1410 included in the stop 1400 may output the information indicating that the vehicle is not stopped at the stop on the road surface of the stop based on the reception of the information on the beam of the external device 1410.
  • the output can be controlled.
  • the controller of the external device 1410 may be connected to the vehicle from the plurality of vehicles 1700a and 1700b, respectively. Receive related low notes.
  • the controller of the external device 1410 may notify a plurality of notifications indicating a location where each of the plurality of vehicles 1700a and 1700b stops, based on information associated with the plurality of vehicles received from the plurality of vehicles 1700a and 1700b.
  • the beam output unit of the external device may be controlled to radiate the information 1710a and 1710b to the road surface of the stop 1400.
  • the notification information 1710a and 1710b may reflect information related to the vehicle (for example, a number assigned to the vehicle and a color of the vehicle).
  • the controller of the external device 1410 may determine the location information to be stopped by the plurality of vehicles based on the information related to the plurality of vehicles, and may transmit the determined location information to the plurality of vehicles, respectively.
  • the vehicle control apparatus provided in the plurality of vehicles determines the location information on which the own vehicle stops, and provides notification information indicating the stop position to a place corresponding to the determined location information from the plurality of vehicles to the road surface of the stop. You can investigate.
  • the processor 870 may analyze a position and a state of a passenger in a vehicle by using an internal camera (sensing unit 120) (S1810).
  • the processor 870 may determine whether there is a risk factor inside the vehicle, based on the analyzed result (S1820).
  • the risk factor may be set in advance and may include, for example, an emergency situation or a robbery ride.
  • the processor 870 may reduce the speed of the vehicle and output the light through the beam output unit 830 or a lamp provided in the vehicle to inform the danger to the outside (S1830). ).
  • the processor 870 opens the vehicle door based on a control instruction for opening the vehicle door and guides the vehicle to get off the road surface around the vehicle door (or the first image). ) May be output (S1840).
  • the accident when there is an object approaching the vehicle door at the moment when the user who boards the vehicle should get off, the accident is prevented by irradiating the road surface of the vehicle door with information indicating the object approaching without opening the vehicle door. can do.
  • the present invention if there is an object approaching the vehicle door in the state that the vehicle door is open, changing the display method of the image under investigation on the road surface while closing the door at a predetermined speed, and the information related to the object to access
  • the user who got off in advance can quickly avoid a safe area, and prevent the user who has not yet got off, thereby preventing an accident.
  • the present invention by irradiating different information on the road surface of the vehicle door at the time of getting on and off, it is possible to prevent the complicated situation that can occur during getting on and off, and to induce a quick and safe getting off.
  • the present invention irradiates information on the road surface of the stop through communication with an external device provided at the stop, and the user who rides on the vehicle moves to a place where the user will board in advance to induce a quick get-down.
  • the complexity that may occur at the stop can be prevented in advance.
  • the vehicle control apparatus 800 described above may be included in the vehicle 100.
  • the operation or control method of the vehicle control apparatus 800 described above may be analogously applied to the operation or control method of the vehicle 100 (or the control unit 170).
  • the control method of the vehicle 100 (or the control method of the vehicle control device 800), if a control command to open the vehicle door after the vehicle is stopped, whether there is an object approaching toward the vehicle door. Sensing whether or not, based on the presence of an object approaching the vehicle door, and irradiating the road surface around the vehicle door with information indicating an object approaching the vehicle door with the vehicle door closed; can do.
  • control method of the vehicle 100 when the object approaching the vehicle door is sensed, the vehicle door is closed regardless of the control command to open the vehicle door.
  • the method may further include maintaining the state.
  • control method of the vehicle 100 is a first to guide the unloading passengers who get in the vehicle while the vehicle door is opened by the control command. Outputting an image on a road surface around the vehicle door; if an object approaching the vehicle door is sensed through a sensing unit; closing the vehicle door at a predetermined speed; and closing the vehicle door at a predetermined speed; The method may further include changing a display mode of the first image under investigation on a road surface around a vehicle door.
  • Each of the above steps may be performed by the controller 170 provided in the vehicle 100 as well as the vehicle control apparatus 800.
  • all functions, configurations, or control methods performed by the vehicle control apparatus 800 described above may be performed by the controller 170 provided in the vehicle 100. That is, all the control methods described herein may be applied to the control method of the vehicle or may be applied to the control method of the control device.
  • vehicle control apparatus 800 described above may be a mobile terminal.
  • all functions, configurations, or control methods performed by the vehicle control apparatus 800 may be performed by the controller of the mobile terminal.
  • all the control methods described herein may be analogously applied to the control method of the mobile terminal.
  • the mobile terminal may be formed not only in the form of a smart phone but also in the form of a wearable device (for example, a watch or a glass).
  • a wearable device for example, a watch or a glass.
  • the mobile terminal may be connected to communicate with the vehicle control apparatus through the communication unit.
  • the mobile terminal can transmit / receive all kinds of screen information, signals related to vehicle control, and user input signals described herein through a communication unit.
  • the mobile terminal may receive all kinds of screen information described herein through the communication unit and output the screen information to the display unit of the mobile terminal.
  • the touched (selected) information may be transmitted to the vehicle control apparatus. The vehicle may be controlled based on the touched information.
  • the controller 170 of the vehicle may transmit all kinds of information sensed through the sensing unit 120 of the vehicle to the mobile terminal through the communication unit.
  • the controller of the mobile terminal may perform a function / operation / control method performed by the processor 870 of the vehicle control apparatus described herein based on the information.
  • the controller of the mobile terminal may control the beam output unit 830 of the vehicle control apparatus 800 through the communication unit to irradiate information on the road surface around the vehicle door or to irradiate light on the road surface of the stop.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. There is this.
  • the computer may also include a processor or a controller. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Abstract

본 발명은 차량에 구비된 차량 제어 장치 및 차량의 제어방법에 관한 것이다. 본 발명의 일 실시 예에 따른 차량 제어 장치는, 차량의 주변 노면에 광을 조사하는 빔 출력부 및 상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량에 구비된 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하며, 상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 빔 출력부를 제어하는 프로세서를 포함한다.

Description

차량에 구비된 차량 제어 장치 및 차량의 제어방법
본 발명은 차량에 구비된 차량 제어 장치 및 차량의 제어방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 것이 가능한 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어 지고 있다.
차량에는 다양한 종류의 램프가 구비될 수 있다. 일반적으로, 차량은 야간 주행을 할 때 차량 주변에 위치한 대상물을 용이하게 확인할 수 있도록 하는 조명 기능 및 다른 차량이나 기타 도로 이용자에게 자기 차량의 주행 상태를 알리기 위한 신호 기능을 가지는 다양한 차량용 램프를 구비하고 있다.
예를 들어, 차량에는 전방에 빛을 조사하여 운전자의 시야를 확보토록 하는 전조등, 브레이크를 밟을 때 점등되는 브레이크등, 우회전 또는 좌회전 시 사용되는 방향지시등과 같이 램프를 이용하여 직접 발광하는 방식으로 작동하는 장치가 구비될 수 있다.
다른 예로, 차량의 전방 및 후방에는 자기 차량이 외부에서 용이하기 인식될 수 있도록 빛을 반사시키는 반사기 등이 장착되고 있다.
이러한 차량용 램프는 각 기능을 충분히 발휘하도록 그 설치 기준과 규격에 대해서 법규로 규정되어 있다.
한편, 최근에는 ADAS(Advanced Driving Assist System)에 대한 개발이 활발히 이루어짐에 따라, 차량 운행에 있어서 사용자 편의와 안전을 극대화할 수 있는 기술 개발의 필요성이 대두되고 있다.
또한, 최근에는 차량을 자율주행시키기 위한 다양한 기술 개발이 활발히 진행되고 있다.
또한, 본 명세서에서 설명하는 차량은, 승용차, 택시, 버스, 지하철, 기차, 트램 등 모든 종류의 교통수단을 포함할 수 있다. 차량의 경우 사용자의 승하차가 빈번하게 일어나며, 승하차 과정에서 차량 문 쪽으로 접근하는 객체와의 사고가 많이 발생하는 문제점이 있다.
본 발명의 일 목적은, 사용자가 차량에 최적화된 방법으로 승하차하도록 가이드하는 차량 제어 장치 및 차량의 제어방법을 제공하는데 있다.
본 발명의 다른 일 목적은, 차량의 승하차 시, 차량 문 쪽으로 접근하는 객체를 최적화된 방법으로 사용자에게 알릴 수 있는 차량 제어 장치 및 차량의 제어방법을 제공하는데 있다.
본 발명의 또 다른 일 목적은, 차량이 정차하는 정류장에서 시각적으로 승하차 위치를 사용자에게 안내할 수 있는 차량 제어 장치 및 차량의 제어방법을 제공하는데 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량 제어 장치는, 차량의 주변 노면에 광을 조사하는 빔 출력부 및 상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량에 구비된 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하고, 상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 빔 출력부를 제어하는 프로세서를 포함한다.
실시 예에 있어서, 상기 프로세서는, 상기 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 여는 제어명령과는 무관하게 상기 차량 문을 닫힌 상태로 유지시키는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 센싱된 객체가 상기 차량 문을 지나치거나, 상기 차량 문 쪽으로 접근하는 객체가 센싱되지 않는 것에 근거하여, 상기 제어명령에 따라 상기 차량 문을 여는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 제어명령에 의해 차량 문을 연 상태에서, 상기 차량에 탑승한 하차 승객의 하차를 가이드하는 제1 이미지를 상기 차량 문 주변의 노면에 출력하고, 상기 센싱부를 통해 상기 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 기 설정된 속도로 닫는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 주변의 노면에 출력중인 상기 제1 이미지의 표시방식을 변경하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제1 이미지는 복수의 그래픽 객체를 포함하고, 상기 프로세서는, 상기 복수의 그래픽 객체 중 상기 차량 문 쪽에 인접한 적어도 하나의 그래픽 객체의 색상을 가변하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 쪽으로 접근하는 객체와 관련된 정보를 상기 차량 문 주변의 노면에 추가로 조사하도록 상기 빔 출력부를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 센싱부는, 차량 내부에 존재하는 하차 승객을 센싱하고, 상기 차량 외부에 존재하는 승차 승객을 센싱하며, 상기 프로세서는, 상기 차량 문이 열린 상태에서, 상기 하차 승객이 하차하도록 제1 이미지를 상기 차량 문 주변의 노면에 조사하고, 상기 하차 승객의 하차가 완료된 후 상기 승차 승객이 승차하도록 상기 제1 이미지와 다른 제2 이미지를 상기 차량 문 주변의 노면에 조사하도록 상기 빔 출력부를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 제1 이미지가 조사중인 상태에서 승차 승객이 상기 차량 문 쪽으로 접근하거나, 상기 제2 이미지가 조사중인 상태에서 하차 승객이 상기 차량 문 쪽으로 접근하는 것이 센싱되면, 경고 정보를 출력하는 것을 특징으로 한다.
실시 예에 있어서, 상기 경고 정보를 출력하는 것은, 상기 제1 이미지 또는 상기 제2 이미지의 색상을 변경하는 것 및 추가 이미지를 상기 차량 문 주변의 노면에 출력하는 것 중 적어도 하나를 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 센싱부는, 차량 내부에 존재하는 하차 승객을 센싱하고, 상기 차량 외부에 존재하는 승차 승객을 센싱하고, 상기 프로세서는, 상기 하차 승객의 수 또는 상기 승차 승객의 수에 근거하여, 상기 차량 문 주변의 노면에 조사되는 이미지의 길이를 결정하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 하차 승객이 하차함에 따라 차량 내부에 존재하는 하차 승객의 수가 줄어들거나, 상기 승차 승객이 승차함에 따라 차량 외부에 존재하는 승차 승객의 수가 줄어드는 것에 근거하여, 상기 이미지의 길이가 짧아지도록 상기 빔 출력부를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 시간이 흐름에 따라 상기 이미지의 길이가 줄어들도록 상기 빔 출력부를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 정류장에 존재하는 외부 장치와 통신 가능하도록 형성된 통신부를 더 포함하고, 상기 프로세서는, 상기 차량이 상기 정류장에 진입하는 것에 근거하여 상기 통신부를 통해 상기 외부 장치와 통신 가능하도록 연결되며, 상기 외부 장치로부터 상기 차량이 정차할 위치 정보를 수신하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 센싱부를 통해 상기 위치 정보에 대응되는 장소에 기 설정된 종류의 장애물이 존재하는지 여부를 판단하고, 상기 장소에 상기 기 설정된 종류의 장애물이 존재하지 않는 경우, 상기 위치 정보에 대응되는 장소에 정차 위치를 알리는 알림 정보를 출력하고, 상기 장소에 상기 기 설정된 종류의 장애물이 존재하는 경우, 상기 위치 정보에 대응되는 장소와는 다른 장소에 상기 정차 위치를 알리는 알림 정보를 출력하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프로세서는, 상기 센싱부를 통해 상기 차량 내부에 기 설정된 상황이 발생했는지 여부를 센싱하고, 상기 차량 내부에서 기 설정된 상황이 발생된 경우, 상기 차량이 상기 정류장에 미정차함을 알리는 정보를 상기 정류장의 노면에 출력하도록 상기 빔 출력부를 제어하는 것을 특징으로 한다.
본 발명의 일 실시 예에 따른 차량은, 본 명세서에서 설명한 차량 제어 장치를 포함한다.
본 발명의 일 실시 예에 따른 차량 제어 장치를 포함하는 차량의 제어방법은,상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하는 단계 및 상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보를 상기 차량 문 주변의 노면에 조사하는 단계를 포함한다.
실시 예에 있어서, 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 여는 제어명령과는 무관하게 상기 차량 문을 닫힌 상태로 유지시키는 단계를 더 포함한다.
실시 예에 있어서, 상기 제어명령에 의해 차량 문을 연 상태에서, 상기 차량에 탑승한 하차 승객의 하차를 가이드하는 제1 이미지를 상기 차량 문 주변의 노면에 출력하는 단계, 센싱부를 통해 상기 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 기 설정된 속도로 닫는 단계 및 상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 주변의 노면에 조사중인 상기 제1 이미지의 표시방식을 변경하는 단계를 더 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 본 발명은 차량에 탑승한 사용자가 하차해야 하는 순간 차량 문 쪽으로 접근하는 객체가 존재하는 경우, 차량 문을 열지 않고 접근하는 객체를 알리는 정보를 차량 문 쪽의 노면에 조사함으로써, 사고를 방지할 수 있다.
둘째, 본 발명은 차량 문이 열린 상태에서 차량 문 쪽으로 접근하는 객체가 존재하는 경우, 문을 기 설정된 속도고 닫으면서, 노면에 조사중인 이미지의 표시방식을 변경하고, 접근하는 객체와 관련된 정보를 추가적으로 노면에 조사함으로써, 미리 하차한 사용자는 빠르게 안전한 지역으로 피하고, 아직 하차하지 않은 사용자의 하차를 방지하여 사고를 방지할 수 있다.
셋째, 본 발명은 승차시와 하차시 각각 서로 다른 정보를 차량 문 쪽의 노면에 조사함으로써, 승하차 시 발생할 수 있는 복잡한 상황을 미연에 방지하고, 신속하고 안전한 승하차를 유도할 수 있다.
넷째, 본 발명은 정류장에 구비된 외부 장치와의 통신을 통해 차량이 정차할 위치를 가이하는 정보를 정류장의 노면에 조사하여, 차량에 승차할 사용자가 미리 승차할 장소로 이동하여 신속한 승하차를 유도하고, 정류장에서 발생될 수 있는 복잡함을 미연에 방지할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.
도 3 내지 도 4는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따른 오브젝트를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 8은 본 발명의 실시예에 따른 차량 제어 장치를 설명하기 위한 개념도이다.
도 9는 본 발명의 대표적인 제어방법을 설명하기 위한 흐름도이다.
도 10은 도 9에서 살펴본 제어방법을 설명하기 위한 개념도이다.
도 11, 도 12, 도 13, 도 14, 도 15, 도 16 및 도 17은 본 발명의 다양한 실시 예를 설명하기 위한 개념도이다.
도 18은 본 발명의 다른 제어방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.
도 3 내지 도 4는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따른 오브젝트를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 1 내지 도 7을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(510)를 포함할 수 있다.
차량(100)은 자율 주행 차량일 수 있다.
차량(100)은, 사용자 입력에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다.
예를 들면, 차량(100)은, 사용자 인터페이스 장치(200)를 통해, 수신되는 사용자 입력에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 주행 상황 정보에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 주행 상황 정보는, 오브젝트 검출 장치(300)에서 제공된 오브젝트 정보에 기초하여 생성될 수 있다.
예를 들면, 차량(100)은, 오브젝트 검출 장치(300)에서 생성되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
예를 들면, 차량(100)은, 통신 장치(400)를 통해 수신되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 외부 디바이스에서 제공되는 정보, 데이터, 신호에 기초하여 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)이 자율 주행 모드로 운행되는 경우, 자율 주행 차량(100)은, 운행 시스템(700)에 기초하여 운행될 수 있다.
예를 들면, 자율 주행 차량(100)은, 주행 시스템(710), 출차 시스템(740), 주차 시스템(750)에서 생성되는 정보, 데이터 또는 신호에 기초하여 운행될 수 있다.
차량(100)이 메뉴얼 모드로 운행되는 경우, 자율 주행 차량(100)은, 운전 조작 장치(500)를 통해 운전을 위한 사용자 입력을 수신할 수 있다. 운전 조작 장치(500)를 통해 수신되는 사용자 입력에 기초하여, 차량(100)은 운행될 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 7에 예시된 바와 같이, 차량(100)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700), 내비게이션 시스템(770), 센싱부(120), 인터페이스부(130), 메모리(140), 제어부(170) 및 전원 공급부(190)를 포함할 수 있다.
실시예에 따라, 차량(100)은, 본 명세서에서 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
사용자 인터페이스 장치(200)는, 차량(100)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(100)에서 생성된 정보를 제공할 수 있다. 차량(100)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
사용자 인터페이스 장치(200)는, 입력부(210), 내부 카메라(220), 생체 감지부(230), 출력부(250) 및 프로세서(270)를 포함할 수 있다.
실시예에 따라, 사용자 인터페이스 장치(200)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수도 있다.
입력부(200)는, 사용자로부터 정보를 입력받기 위한 것으로, 입력부(120)에서 수집한 데이터는, 프로세서(270)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다.
입력부(200)는, 차량 내부에 배치될 수 있다. 예를 들면, 입력부(200)는, 스티어링 휠(steering wheel)의 일 영역, 인스투루먼트 패널(instrument panel)의 일 영역, 시트(seat)의 일 영역, 각 필러(pillar)의 일 영역, 도어(door)의 일 영역, 센타 콘솔(center console)의 일 영역, 헤드 라이닝(head lining)의 일 영역, 썬바이저(sun visor)의 일 영역, 윈드 쉴드(windshield)의 일 영역 또는 윈도우(window)의 일 영역 등에 배치될 수 있다.
입력부(200)는, 음성 입력부(211), 제스쳐 입력부(212), 터치 입력부(213) 및 기계식 입력부(214)를 포함할 수 있다.
음성 입력부(211)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
음성 입력부(211)는, 하나 이상의 마이크로 폰을 포함할 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.
실시예에 따라, 제스쳐 입력부(212)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(212)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다.
제스쳐 입력부(212)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다.
실시예에 따라, 터치 입력부(213)는 디스플레이부(251)와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 차량(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.
기계식 입력부(214)는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부(214)에 의해 생성된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
기계식 입력부(214)는, 스티어링 휠, 센테 페시아, 센타 콘솔, 칵픽 모듈, 도어 등에 배치될 수 있다.
내부 카메라(220)는, 차량 내부 영상을 획득할 수 있다. 프로세서(270)는, 차량 내부 영상을 기초로, 사용자의 상태를 감지할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 시선 정보를 획득할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 제스쳐를 감지할 수 있다.
생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있다. 생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있는 센서를 포함하고, 센서를 이용하여, 사용자의 지문 정보, 심박동 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증을 위해 이용될 수 있다.
출력부(250)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다.
출력부(250)는, 디스플레이부(251), 음향 출력부(252) 및 햅틱 출력부(253) 중 적어도 어느 하나를 포함할 수 있다.
디스플레이부(251)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다.
디스플레이부(251)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(251)는 터치 입력부(213)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.
디스플레이부(251)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(251)가 HUD로 구현되는 경우, 디스플레이부(251)는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다.
디스플레이부(251)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 복수의 디스플레이부(251a 내지 251g)를 포함할 수 있다.
디스플레이부(251)는, 스티어링 휠의 일 영역, 인스투루먼트 패널의 일 영역(521a, 251b, 251e), 시트의 일 영역(251d), 각 필러의 일 영역(251f), 도어의 일 영역(251g), 센타 콘솔의 일 영역, 헤드 라이닝의 일 영역, 썬바이저의 일 영역에 배치되거나, 윈드 쉴드의 일영역(251c), 윈도우의 일영역(251h)에 구현될 수 있다.
음향 출력부(252)는, 프로세서(270) 또는 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(252)는, 하나 이상의 스피커를 포함할 수 있다.
햅틱 출력부(253)는, 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(253)는, 스티어링 휠, 안전 벨트, 시트(110FL, 110FR, 110RL, 110RR)를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
프로세서(270)는, 사용자 인터페이스 장치(200)의 각 유닛의 전반적인 동작을 제어할 수 있다.
실시예에 따라, 사용자 인터페이스 장치(200)는, 복수의 프로세서(270)를 포함하거나, 프로세서(270)를 포함하지 않을 수도 있다.
사용자 인터페이스 장치(200)에 프로세서(270)가 포함되지 않는 경우, 사용자 인터페이스 장치(200)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 차량용 디스플레이 장치로 명명될 수 있다.
사용자 인터페이스 장치(200)는, 제어부(170)의 제어에 따라 동작될 수 있다.
오브젝트 검출 장치(300)는, 차량(100) 외부에 위치하는 오브젝트를 검출하기 위한 장치이다.
오브젝트는, 차량(100)의 운행과 관련된 다양한 물체들일 수 있다.
도 5 내지 도 6을 참조하면, 오브젝트(O)는, 차선(OB10), 타 차량(OB11), 보행자(OB12), 이륜차(OB13), 교통 신호(OB14, OB15), 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다.
차선(Lane)(OB10)은, 주행 차선, 주행 차선의 옆 차선, 대향되는 차량이 주행하는 차선일 수 있다. 차선(Lane)(OB10)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량(OB11)은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 예를 들면, 타 차량(OB11)은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다.
보행자(OB12)는, 차량(100)의 주변에 위치한 사람일 수 있다. 보행자(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들면, 보행자(OB12)는, 인도 또는 차도상에 위치하는 사람일 수 있다.
이륜차(OB12)는, 차량(100)의 주변에 위치하고, 2개의 바퀴를 이용해 움직이는 탈것을 의미할 수 있다. 이륜차(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 2개의 바퀴를 가지는 탈 것일 수 있다. 예를 들면, 이륜차(OB13)는, 인도 또는 차도상에 위치하는 오토바이 또는 자전거일 수 있다.
교통 신호는, 교통 신호등(OB15), 교통 표지판(OB14), 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다.
지형물은, 산, 언덕, 등을 포함할 수 있다.
한편, 오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.
오브젝트 검출 장치(300)는, 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340), 적외선 센서(350) 및 프로세서(370)를 포함할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
카메라(310)는, 차량 외부 영상을 획득하기 위해, 차량의 외부의 적절한 곳에 위치할 수 있다. 카메라(310)는, 모노 카메라, 스테레오 카메라(310a), AVM(Around View Monitoring) 카메라(310b) 또는 360도 카메라일 수 있다.
예를 들면, 카메라(310)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
카메라(310)는, 획득된 영상을 프로세서(370)에 제공할 수 있다.
레이다(320)는, 전자파 송신부, 수신부를 포함할 수 있다. 레이더(320)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(320)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(320)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
레이더(320)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다(330)는, 레이저 송신부, 수신부를 포함할 수 있다. 라이다(330)는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다.
라이다(330)는, 구동식 또는 비구동식으로 구현될 수 있다.
구동식으로 구현되는 경우, 라이다(330)는, 모터에 의해 회전되며, 차량(100) 주변의 오브젝트를 검출할 수 있다.
비구동식으로 구현되는 경우, 라이다(330)는, 광 스티어링에 의해, 차량(100)을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다(330)를 포함할 수 있다.
라이다(330)는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
라이다(330)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
초음파 센서(340)는, 초음파 송신부, 수신부를 포함할 수 있다. 초음파 센서(340)은, 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
초음파 센서(340)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
적외선 센서(350)는, 적외선 송신부, 수신부를 포함할 수 있다. 적외선 센서(340)는, 적외선 광을 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
적외선 센서(350)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
프로세서(370)는, 오브젝트 검출 장치(300)의 각 유닛의 전반적인 동작을 제어할 수 있다.
프로세서(370)는, 획득된 영상에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 영상 처리 알고리즘을 통해, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 전자파가 오브젝트에 반사되어 되돌아오는 반사 전자파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 전자파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 레이저가 오브젝트에 반사되어 되돌아오는 반사 레이저 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 레이저 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 초음파가 오브젝트에 반사되어 되돌아오는 반사 초음파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 초음파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 적외선 광이 오브젝트에 반사되어 되돌아오는 반사 적외선 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 적외선 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 복수의 프로세서(370)를 포함하거나, 프로세서(370)를 포함하지 않을 수도 있다. 예를 들면, 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340) 및 적외선 센서(350) 각각은 개별적으로 프로세서를 포함할 수 있다.
오브젝트 검출 장치(300)에 프로세서(370)가 포함되지 않는 경우, 오브젝트 검출 장치(300)는, 차량(100)내 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
오브젝트 검출 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
통신 장치(400)는, 외부 디바이스와 통신을 수행하기 위한 장치이다. 여기서, 외부 디바이스는, 타 차량, 이동 단말기 또는 서버일 수 있다.
통신 장치(400)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(400)는, 근거리 통신부(410), 위치 정보부(420), V2X 통신부(430), 광통신부(440), 방송 송수신부(450) 및 프로세서(470)를 포함할 수 있다.
실시예에 따라, 통신 장치(400)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
근거리 통신부(410)는, 근거리 통신(Short range communication)을 위한 유닛이다. 근거리 통신부(410)는, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부(410)는, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다.
위치 정보부(420)는, 차량(100)의 위치 정보를 획득하기 위한 유닛이다. 예를 들면, 위치 정보부(420)는, GPS(Global Positioning System) 모듈 또는 DGPS(Differential Global Positioning System) 모듈을 포함할 수 있다.
V2X 통신부(430)는, 서버(V2I : Vehicle to Infra), 타 차량(V2V : Vehicle to Vehicle) 또는 보행자(V2P : Vehicle to Pedestrian)와의 무선 통신 수행을 위한 유닛이다. V2X 통신부(430)는, 인프라와의 통신(V2I), 차량간 통신(V2V), 보행자와의 통신(V2P) 프로토콜이 구현 가능한 RF 회로를 포함할 수 있다.
광통신부(440)는, 광을 매개로 외부 디바이스와 통신을 수행하기 위한 유닛이다. 광통신부(440)는, 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다.
실시예에 따라, 광발신부는, 차량(100)에 포함된 램프와 일체화되게 형성될 수 있다.
방송 송수신부(450)는, 방송 채널을 통해, 외부의 방송 관리 서버로부터 방송 신호를 수신하거나, 방송 관리 서버에 방송 신호를 송출하기 위한 유닛이다. 방송 채널은, 위성 채널, 지상파 채널을 포함할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 수 있다.
프로세서(470)는, 통신 장치(400)의 각 유닛의 전반적인 동작을 제어할 수 있다.
실시예에 따라, 통신 장치(400)는, 복수의 프로세서(470)를 포함하거나, 프로세서(470)를 포함하지 않을 수도 있다.
통신 장치(400)에 프로세서(470)가 포함되지 않는 경우, 통신 장치(400)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 통신 장치(400)는, 사용자 인터페이스 장치(200)와 함께 차량용 디스플레이 장치를 구현할 수 있다. 이경우, 차량용 디스플레이 장치는, 텔레 매틱스(telematics) 장치 또는 AVN(Audio Video Navigation) 장치로 명명될 수 있다.
통신 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운전 조작 장치(500)는, 운전을 위한 사용자 입력을 수신하는 장치이다.
메뉴얼 모드인 경우, 차량(100)은, 운전 조작 장치(500)에 의해 제공되는 신호에 기초하여 운행될 수 있다.
운전 조작 장치(500)는, 조향 입력 장치(510), 가속 입력 장치(530) 및 브레이크 입력 장치(570)를 포함할 수 있다.
조향 입력 장치(510)는, 사용자로부터 차량(100)의 진행 방향 입력을 수신할 수 있다. 조향 입력 장치(510)는, 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
가속 입력 장치(530)는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신할 수 있다. 브레이크 입력 장치(570)는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신할 수 있다. 가속 입력 장치(530) 및 브레이크 입력 장치(570)는, 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
운전 조작 장치(500)는, 제어부(170)의 제어에 따라 동작될 수 있다.
차량 구동 장치(600)는, 차량(100)내 각종 장치의 구동을 전기적으로 제어하는 장치이다.
차량 구동 장치(600)는, 파워 트레인 구동부(610), 샤시 구동부(620), 도어/윈도우 구동부(630), 안전 장치 구동부(640), 램프 구동부(650) 및 공조 구동부(660)를 포함할 수 있다.
실시예에 따라, 차량 구동 장치(600)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
한편, 차량 구동 장치(600)는 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
파워 트레인 구동부(610)는, 파워 트레인 장치의 동작을 제어할 수 있다.
파워 트레인 구동부(610)는, 동력원 구동부(611) 및 변속기 구동부(612)를 포함할 수 있다.
동력원 구동부(611)는, 차량(100)의 동력원에 대한 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진이 동력원인 경우, 동력원 구동부(610)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(611)는, 제어부(170)의 제어에 따라, 엔진 출력 토크를 조정할 수 있다.
예를 들면, 전기 에너지 기반의 모터가 동력원인 경우, 동력원 구동부(610)는, 모터에 대한 제어를 수행할 수 있다. 동력원 구동부(610)는, 제어부(170)의 제어에 따라, 모터의 회전 속도, 토크 등을 조정할 수 있다.
변속기 구동부(612)는, 변속기에 대한 제어를 수행할 수 있다.
변속기 구동부(612)는, 변속기의 상태를 조정할 수 있다. 변속기 구동부(612)는, 변속기의 상태를, 전진(D), 후진(R), 중립(N) 또는 주차(P)로 조정할 수 있다.
한편, 엔진이 동력원인 경우, 변속기 구동부(612)는, 전진(D) 상태에서, 기어의 물림 상태를 조정할 수 있다.
샤시 구동부(620)는, 샤시 장치의 동작을 제어할 수 있다.
샤시 구동부(620)는, 조향 구동부(621), 브레이크 구동부(622) 및 서스펜션 구동부(623)를 포함할 수 있다.
조향 구동부(621)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 조향 구동부(621)는, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(622)는, 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다.
한편, 브레이크 구동부(622)는, 복수의 브레이크 각각을 개별적으로 제어할 수 있다. 브레이크 구동부(622)는, 복수의 휠에 걸리는 제동력을 서로 다르게 제어할 수 있다.
서스펜션 구동부(623)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 서스펜션 구동부(623)는 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 서스펜션 구동부(623)는, 복수의 서스펜션 각각을 개별적으로 제어할 수 있다.
도어/윈도우 구동부(630)는, 차량(100) 내의 도어 장치(door apparatus) 또는 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다.
도어/윈도우 구동부(630)는, 도어 구동부(631) 및 윈도우 구동부(632)를 포함할 수 있다.
도어 구동부(631)는, 도어 장치에 대한 제어를 수행할 수 있다. 도어 구동부(631)는, 차량(100)에 포함되는 복수의 도어의 개방, 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 트렁크(trunk) 또는 테일 게이트(tail gate)의 개방 또는 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 썬루프(sunroof)의 개방 또는 폐쇄를 제어할 수 있다.
윈도우 구동부(632)는, 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 차량(100)에 포함되는 복수의 윈도우의 개방 또는 폐쇄를 제어할 수 있다.
안전 장치 구동부(640)는, 차량(100) 내의 각종 안전 장치(safety apparatus)에 대한 전자식 제어를 수행할 수 있다.
안전 장치 구동부(640)는, 에어백 구동부(641), 시트벨트 구동부(642) 및 보행자 보호 장치 구동부(643)를 포함할 수 있다.
에어백 구동부(641)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 에어백 구동부(641)는, 위험 감지시, 에어백이 전개되도록 제어할 수 있다.
시트벨트 구동부(642)는, 차량(100) 내의 시트벨트 장치(seatbelt appartus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 시트벨트 구동부(642)는, 위험 감지시, 시트 밸트를 이용해 탑승객이 시트(110FL, 110FR, 110RL, 110RR)에 고정되도록 제어할 수 있다.
보행자 보호 장치 구동부(643)는, 후드 리프트 및 보행자 에어백에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 보행자 보호 장치 구동부(643)는, 보행자와의 충돌 감지시, 후드 리프트 업 및 보행자 에어백 전개되도록 제어할 수 있다.
램프 구동부(650)는, 차량(100) 내의 각종 램프 장치(lamp apparatus)에 대한 전자식 제어를 수행할 수 있다.
공조 구동부(660)는, 차량(100) 내의 공조 장치(air cinditioner)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 공조 구동부(660)는, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
차량 구동 장치(600)는, 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
차량 구동 장치(600)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운행 시스템(700)은, 차량(100)의 각종 운행을 제어하는 시스템이다. 운행 시스템(700)은, 자율 주행 모드에서 동작될 수 있다.
운행 시스템(700)은, 주행 시스템(710), 출차 시스템(740) 및 주차 시스템(750)을 포함할 수 있다.
실시예에 따라, 운행 시스템(700)은, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
한편, 운행 시스템(700)은, 프로세서를 포함할 수 있다. 운행 시스템(700)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
한편, 실시예에 따라, 운행 시스템(700)이 소프트웨어적으로 구현되는 경우, 제어부(170)의 하위 개념일 수도 있다.
한편, 실시예에 따라, 운행 시스템(700)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 차량 구동 장치(600) 및 제어부(170) 중 적어도 어느 하나를 포함하는 개념일 수 있다.
주행 시스템(710)은, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
출차 시스템(740)은, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
주차 시스템(750)은, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
내비게이션 시스템(770)은, 내비게이션 정보를 제공할 수 있다. 내비게이션 정보는, 맵(map) 정보, 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 경로 상의 다양한 오브젝트에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 적어도 어느 하나를 포함할 수 있다.
내비게이션 시스템(770)은, 메모리, 프로세서를 포함할 수 있다. 메모리는 내비게이션 정보를 저장할 수 있다. 프로세서는 내비게이션 시스템(770)의 동작을 제어할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 통신 장치(400)를 통해, 외부 디바이스로부터 정보를 수신하여, 기 저장된 정보를 업데이트 할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 사용자 인터페이스 장치(200)의 하위 구성 요소로 분류될 수도 있다.
센싱부(120)는, 차량의 상태를 센싱할 수 있다. 센싱부(120)는, 자세 센서(예를 들면, 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor)), 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(120)는, 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(120)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
인터페이스부(130)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(130)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 인터페이스부(130)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 인터페이스부(130)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 인터페이스부(130)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(130)는 전원 공급부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
메모리(140)는, 제어부(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(140)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
실시예에 따라, 메모리(140)는, 제어부(170)와 일체형으로 형성되거나, 제어부(170)의 하위 구성 요소로 구현될 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
차량(100)에 포함되는, 하나 이상의 프로세서 및 제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
한편, 본 발명과 관련된 차량(100)은 차량 제어 장치(800)를 포함할 수 있다.
차량 제어 장치(800)는, 도 7에서 설명한 구성요소들 중 적어도 하나를 제어하는 것이 가능하다. 이러한 관점에서 봤을 때, 상기 차량 제어 장치(800)는 제어부(170)일 수 있다.
이에 한정되지 않고, 차량 제어 장치(800)는, 제어부(170)와 독립된 별도의 구성일 수 있다. 차량 제어 장치(800)가 제어부(170)와 독립된 구성요소로 구현되는 경우, 상기 차량 제어 장치(800)는 차량(100)의 일부분에 구비될 수 있다.
한편, 본 명세서에서 설명하는 차량 제어 장치(800)는, 차량을 제어하는 것이 가능한 모든 종류의 기기를 포함할 수 있으며, 일 예로, 이동 단말기일 수 있다. 차량 제어 장치(800)가 이동 단말기인 경우, 이동 단말기와 차량(100)은 유/무선 통신을 통해 통신 가능하도록 연결될 수 있다. 또한, 이동 단말기는 통신 연결된 상태에서 다양한 방식으로 차량(100)을 제어할 수 있다.
차량 제어 장치(800)가 이동 단말기인 경우, 본 명세서에서 설명하는 프로세서(870)는, 이동 단말기의 제어부일 수 있다.
이하에서는, 설명의 편의를 위해 차량 제어 장치(800)를 제어부(170)와 독립된 별도의 구성인 것으로 설명하기로 한다. 본 명세서에서 차량 제어 장치(800)에 대하여 설명하는 기능(동작) 및 제어방법은, 차량의 제어부(170)에 의해 수행될 수 있다. 즉, 차량 제어 장치(800)와 관련하여 설명한 모든 내용은, 제어부(170)에도 동일/유사하게 유추적용될 수 있다.
또한, 본 명세서에서 설명하는 차량 제어 장치(800)는, 도 7에서 설명한 구성요소 및 차량에 구비되는 다양한 구성요소들 중 일부분이 포함될 수 있다. 본 명세서에서는, 설명의 편의를 위해, 도 7에서 설명한 구성요소 및 차량에 구비되는 다양한 구성요소들을 별도의 명칭과 도면부호를 부여하여 설명하기로 한다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 차량 제어 장치(800)에 포함되는 구성요소들에 대하여 보다 구체적으로 살펴보기로 한다.
도 8은 본 발명의 실시예에 따른 차량 제어 장치를 설명하기 위한 개념도이다.
본 발명과 관련된 차량 제어 장치(800)는, 통신부(810), 센싱부(820), 빔 출력부(830) 및 프로세서(870) 등을 포함할 수 있다.
우선, 본 발명과 관련된 차량 제어 장치(800)는, 통신부(810)를 구비할 수 있다.
통신부(810)는, 앞서 설명한 통신장치(400)일 수 있다. 통신부(810)는, 차량(100) 내에 존재하는 이동 단말기와 통신이 가능하도록 연결될 수 있다.
일 예로, 차량 제어 장치(800)(또는 차량(100))와 이동 단말기는, 통신부(810)를 통해 무선 통신이 가능하도록 연결될 수 있다. 상기 차량 제어 장치(800)와 이동 단말기는, 사용자 요청에 의해 상호 무선 통신이 가능하도록 무선 연결되거나, 이전에 무선 통신이 가능하도록 연결된 적이 있으면, 상기 이동 단말기가 상기 차량 내부로 진입하는 것에 근거하여, 상호 무선 통신이 가능하도록 무선 연결될 수 있다.
또한, 상기 통신부(810)는, 차량이 정차하도록 지정된 정류장에 존재하는 외부 장치(예를 들어, 디지털 사이니지, 서버, 단말기, 컴퓨터, 인프라 등)와 통신 가능하도록 형성될 수 있다.
이러한 통신부(810)는, 차량 내(또는 차량 제어 장치 내)에 구비될 수도 있고, 별도의 모듈 형태로 형성되어 차량의 구성요소와 통신(또는 전기적인 결합)이 가능하도록 형성될 수 있다.
차량 제어 장치(800)는, 통신부(810)를 통해 이동 단말기 또는 외부 장치를 제어할 수 있다.
구체적으로, 차량 제어 장치(800)는 통신부(810)를 통해 이동 단말기 또는 외부 장치를 제어하기 위한 제어신호를 이동 단말기 또는 외부 장치로 전송할 수 있다. 이동 단말기 또는 외부 장치는 상기 제어신호가 수신되면, 상기 제어신호에 대응하는 기능/동작/제어를 수행할 수 있다.
반대로, 본 발명은 이동 단말기가 차량 제어 장치(800)(또는 차량(100))을 제어하는 것이 가능할 수 있다. 구체적으로, 이동 단말기는 차량 제어 장치(800)로 차량을 제어하기 위한 제어신호를 전송할 수 있다. 이에 응답하여, 차량 제어 장치(800)는, 이동 단말기로부터 전송된 제어신호에 대응되는 기능/동작/제어를 수행할 수 있다.
또한, 통신부(810)는, 타차량과 통신을 수행할 수 있다.
통신부(810)는, 외부 장치로부터 정류장과 관련된 정보를 수신할 수 있다. 상기 정류장은, 상기 차량이 정차하도록 형성된 장소를 포함할 수 있다.
또한, 통신부(810)는, 외부 장치로부터 차량이 정차할 위치 정보를 수신할 수 있다.
예를 들어, 상기 차량이 정차할 위치 정보는 외부 장치에서 결정될 수 있다. 상기 외부 장치에서 상기 차량이 정차할 위치 정보가 결정되면, 차량 제어 장치(800)는, 통신부(810)를 통해 상기 외부 장치로부터 상기 차량이 정차할 위치 정보를 수신할 수 있다.
이러한 정보의 수신은, 일 예로, 프로세서(870)의 제어에 의해 수행되거나, 외부 장치의 제어에 의해 수행될 수 있다.
또한, 통신부(810)는, 차량의 위치정보를 수신할 수있다. 통신부(810)는, 위치 정보부(420) 또는 V2X 통신부(430)를 통해 차량의 현재위치를 결정할 수 있다.
구체적으로, 통신부(810)는, 위치 정보부에 포함된 GPS 모듈을 이용하여 차량의 현재 위치정보를 수신하거나, V2X 통신부(430)를 통해 타차량 또는 외부 장치(예를 들어, 인프라)로부터 현재 위치정보를 수신할 수 있다.
본 발명과 관련된 차량 제어 장치(800)는, 센싱부(820)를 포함할 수 있다. 상기 센싱부(820)는, 도 7에서 설명한 오브젝트 검출장치(300)일 수도 있고, 차량(100)에 구비된 센싱부(120)일 수 있다.
상기 센싱부(120)는 카메라를 포함할 수 있다. 상기 카메라는, 일 예로, 차량 내부를 촬영하도록 형성된 내부 카메라 및 차량 외부를 촬영하도록 형성된 외부 카메라를 포함할 수 있다.
센싱부(120)는, 내부 카메라를 이용하여, 운전자의 시선 방향을 센싱할 수 있다. 또한, 센싱부(120)는, 내부 카메라를 이용하여 차량 내부에 탑승한 사용자와 관련된 정보(예를 들어, 사용자의 상태, 사용자의 수, 사용자의 연령 등)을 센싱할 수 있다.
또한, 센싱부(120)는, 외부 카메라를 이용하여, 차량 외부를 촬영할 수 있다.
상기 센싱부(120)는, 외부 카메라를 이용하여, 차량 문 쪽으로 접근하는 객체가 존재하는지 여부, 상기 객체의 종류, 상기 객체와 관련된 정보 및 차량으로 탑승하고자 하는 사용자와 관련된 정보(예를 들어, 사용자의 상태, 사용자의 수, 사용자의 연령 등)을 센싱할 수 있다.
일 예로, 센싱부(820)는, 상기 오브젝트 검출장치(300)에 포함된 카메라(310), 레이다(320), 라이다(330), 초음파센서(340), 적외선 센서(350), 센싱부(120) 중 적어도 두 개가 조합되어 구현될 수도 있다.
센싱부(820)는, 본 발명의 차량(100)과 관련된 정보를 센싱할 수 있다.
상기 차량과 관련된 정보는, 차량 정보(또는, 차량의 주행 상태 정보) 및 차량의 주변정보 중 적어도 하나일 수 있다.
예를 들어, 차량 정보는, 차량의 주행속도, 차량의 무게, 차량의 탑승인원, 차량의 제동력, 차량의 최대 제동력, 차량의 주행모드(자율주행모드인지 수동주행인지 여부), 차량의 주차모드(자율주차모드, 자동주차모드, 수동주차모드), 차량 내에 사용자가 탑승해있는지 여부, 차량 내부의 상태 및 상기 사용자와 관련된 정보(예를 들어, 상기 사용자가 인증된 사용자인지 여부) 등을 포함할 수 있다.
차량의 주변정보는, 예를 들어, 차량이 주행중인 노면의 상태(마찰력), 날씨, 전방(또는 후방) 차량과의 거리, 전방(또는 후방) 차량의 상대속도, 주행중인 차선이 커브인 경우 커브의 굴곡률, 차량 주변밝기, 차량을 기준으로 기준영역(일정영역) 내에 존재하는 객체와 관련된 정보, 상기 일정영역으로 객체가 진입/이탈하는지 여부, 차량 주변에 사용자가 존재하는지 여부, 차량으로 접근하는 객체가 존재하는지 여부, 접근하는 객체의 종류, 차량 주변에 존재하며 차량에 탑승하고자 하는 사용자와 관련된 정보 등일 수 있다.
또한, 상기 차량의 주변정보(또는 주변 환경정보)는, 차량의 외부 정보(예를 들어, 주변밝기, 온도, 태양위치, 주변 피사체(사람, 타차량, 표지판 등) 정보, 주행중인 노면의 종류, 지형지물, 차선(Line) 정보, 주행차로(Lane) 정보), 자율주행/자율주차/자동주차/수동주차 모드에 필요한 정보를 포함할 수 있다.
또한, 차량의 주변정보는, 차량 주변에 존재하는 객체(오브젝트)와 차량(100)까지의 거리, 상기 객체의 종류, 차량이 주차 가능한 주차공간, 주차공간을 식별하기 위한 객체(예를 들어, 주차선, 노끈, 타차량, 벽 등) 등을 더 포함할 수 있다.
상기 센싱부(820)를 통해 센싱된 차량과 관련된 정보들은, 차량의 자율주행을 위한 자율주행모드에서 이용될 수 있다. 구체적으로, 프로세서(870)는, 센싱부(820)를 통해 센싱된 차량과 관련된 정보를 이용하여, 차량을 자율주행시킬 수 있다.
상기 센싱부(820)에서 수행되는 기능/동작/제어방법들은, 차량의 센싱부(120)(또는 오브젝트 검출장치(300))에 의해 수행될 수 있다. 상기 센싱부(120)는, 상기 오브젝트 검출장치(300)를 포함할 수 있다.
본 명세서에서는, 설명의 편의를 위해, 차량과 관련된 정보를 차량에 구비된 센싱부(120)를 통해 센싱하는 것으로 설명하기로 한다. 다만, 이에 한정되지 않고, 상기 센싱부(120)를 통해 센싱되는 모든 종류의 정보는, 차량 제어 장치(800)의 센싱부(820)에 의해 센싱될 수 있으며, 차량 제어 장치(800)는, 상기 센싱부(820)에 의해 센싱된 정보를 이용하여 본 명세서에서 설명하는 기능/동작/제어방법을 수행할 수 있다.
또한, 본 발명과 관련된 차량 제어 장치(800)는, 빔 출력부(830)를 포함할 수 있다.
상기 빔 출력부(830)는, 차량 주변의 노면에 광을 조사하도록 형성될 수 있다. 일 예로, 상기 빔 출력부(830)는, 차량 문 주변의 노면(또는 차량 문에 인접해 있는 노면의 소정 영역)에 광을 출력하도록 형성될 수 있다.
상기 빔 출력부(830)는, 광을 출력한다는 점에서 프로젝터 또는 램프로 명명될 수 있다.
상기 빔 출력부(830)에서 차량 주변의 노면에 조사하는 광은 소정 형태를 갖거나 의미있는 도형, 색상, 문양, 텍스트, 이미지, 그래픽 객체 등을 형성할 수 있다.
이러한 관점에서 봤을 때, 상기 빔 출력부(830)에서 차량 주변의 노면에 조사하는 광은 정보로 이해될 수 있으며, 상기 정보는, 도형, 색상, 문양, 텍스트, 이미지, 그래픽 객체 등을 포함할 수 있다.
상기 빔 출력부(830)는, 차량 주변의 노면에 광(정보)를 조사하기 위한 다양한 종류의 광원을 포함할 수 있으며, 차량 주변의 노면에 조사된 광을 식별할 수 있는 모든 종류의 광원을 포함할 수 있다.
상기 빔 출력부(830)는, 차량을 기준으로 소정 거리 이내의 영역에 광(정보)를 조사할 수 있다. 상기 소정 거리의 범위는, 빔 출력부(830)를 형성하는 광원의 종류에 의해 결정되거나, 사용자 설정에 의해 결정/변경될 수 있다.
상기 빔 출력부(830)는, 차량 외부로 빛을 조사하도록 차량 외면에 구비될 수 있으며, 일 예로, 차량 문 주변의 노면에 광(정보)을 조사하도록 차량 문(또는 차량 문 주변)에 설치되거나, 정류장의 노면에 광(정보)을 조사하도록 차량의 전방에 구비될 수 있다.
상기 빔 출력부(830)가 구비되는 장소는 한정되지 않으며, 차량 외부의 노면에 광을 조사할 수 있는 위치이면 어느 장소에든 설치될 수 있다.
또한, 본 발명의 차량 제어 장치(800)는, 통신부(810), 센싱부(820) 및 빔 출력부(830) 등을 제어하는 것이 가능한 프로세서(870)를 포함할 수 있다.
상기 프로세서(870)는, 도 7에서 설명한 제어부(170)일 수 있다.
프로세서(870)는, 도 7에서 설명한 구성요소들 및 도 8에서 설명한 구성요소들을 제어할 수 있다.
한편, 본 발명에 따른 차량 제어 장치는 통신부(810), 센서 제어부(미도시) 및 빔 제어부(미도시)로 이루어질 수 있다.
상기 통신부(810)는 차량에 구비된 센싱부(820) 및 빔 출력부(830) 중 적어도 하나와 통신을 수행한다. 즉, 센싱부(820) 및 빔 출력부(830) 중 적어도 하나는 차량 제어 장치(800)에 구비되는 것이 아니라, 차량 제어 장치(800)와 독립된 별도 장치로 차량에 설치될 수 있다.
상기 센서 제어부는 상기 차량 문이 열리는 이벤트가 발생하거나 발생하는 것이 예상되는 것에 응답하여, 상기 차량 문 쪽으로 접근하는 객체를 센싱하기 위하여 상기 통신부(810)를 통해 상기 센싱부(820)와 통신을 수행한다.
상기 이벤트는 차량에 구비된 복수의 도어들 중 적어도 하나의 도어가 닫혀 있는 닫힘 상태에서 열려 있는 열림 상태로 전환되는 것을 의미한다.
상기 센서 제어부는 차량의 차량 주행 정보에 근거하여 상기 이벤트가 발생하는 것이 예상되는 상황을 판단할 수 있다. 예를 들어, 차량 속도가 감속되어 정차가 예상되는 경우, 휴게소나 정류소에 차량이 진입하는 경우 상기 센서 제어부는 상기 이벤트가 발생하는 것이 예상되는 상황으로 판단할 수 있다.
상기 빔 제어부는 상기 차량 문 쪽으로 객체가 존재하는 경우, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 통신부를 통해 상기 빔 출력부를 제어한다.
상기 센서 제어부와 상기 빔 제어부는 상기 프로세서(870) 내부에 형성될 수 있다. 다시 말해, 상기 프로세서(870)는 상기 센서 제어부와 상기 빔 제어부 중 적어도 하나의 기능을 수행할 수 있다.
이하에서는, 첨부된 도면을 참조하여, 본 발명에서 차량이 정차한 상황에서 보다 안전하게 승하차가 수행될 수 있도록 가이드하는 방법에 대하여 구체적으로 살펴본다.
본 발명의 차량은, 택시, 버스, 지하철, 트램, 기차 등 사용자가 승하차할 수 있는 모든 종류의 교통수단을 포함할 수 있다.
도 9는 본 발명의 대표적인 제어방법을 설명하기 위한 흐름도이고, 도 10은 도 9에서 살펴본 제어방법을 설명하기 위한 개념도이다.
우선, 프로세서(870)는, 차량에 구비된 센싱부(120)를 통해 차량과 관련된 정보를 센싱할 수 있다. 프로세서(870)는, 기 설정된 상태에서 상기 차량과 관련된 정보를 센싱할 수 있다.
일 예로, 상기 기 설정된 상태은, 차량이 주행하고 있는 상태, 차량이 정차한 상태, 차량이 정차하도록 형성된 장소(예를 들어, 정류장)에 진입한 상태 등을 포함할 수 있으며, 사용자에 의해 미리 설정되거나, 추가/삭제/변경될 수 있다.
상기 차량과 관련된 정보를 센싱하는 것은, 차량에 구비된 센싱부(120) 또는 차량 제어 장치(800)의 센싱부(820)를 통해 수행될 수 있다.
도 9를 참조하면, 본 발명에서는, 차량(100)이 정차한 후 차량 문을 여는 제어명령을 수신하는 단계가 진행된다(S910).
이후, 본 발명에서는, 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하는 단계가 진행된다(S920).
구체적으로, 프로세서(870)는, 상기 차량(100)이 정차한 후 차량 문을 여는 제어명령이 수신되면, 상기 센싱부(120)를 통해 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱할 수 있다.
상기 차량 문을 여는 제어명령은, 차량 내부에서 차량 문을 여는 사용자 요청(또는 사용자 동작)이 수신되는 것, 차량 문을 열도록 형성된 버튼이 가압되는 것또는 차량 문을 여는 손잡이가 동작되는 것에 의해 발생(수신)될 수 있다.
또한, 차량(100)이 자율주행모드인 경우, 상기 차량 문을 여는 제어명령은, 차량이 정차한 상태에서 차량 문을 열도록 형성된 기 설정된 조건이 만족되는 것에 근거하여, 발생(수신)될 수 있다.
여기서, 상기 기 설정된 조건은, 일 예로, 차량이 정차한 경우, 차량이 정류장에 진입한 후 정차한 경우, 차량의 주차가 완료된 경우, 차량의 시동이 오프(off)된 경우 등을 포함할 수 있으며, 사용자 설정에 의해 결정/변경될 수 있다.
상기 차량 문을 여는 제어명령은, 위에서 설명한 상황들이 발생되는 것에 근거하여, 차량 문에 구비된 별도의 프로세서 또는 차량의 제어부(170)에 의해 발생되어, 프로세서(870)로 수신될 수 있다.
이후, 본 발명에서는, 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 차량 문을 닫은 상태로 차량 문 쪽으로 접근하는 객체를 알리는 정보를 차량 문 주변의 노면에 조사하는 단계가 진행된다(S930).
구체적으로, 프로세서(870)는, 상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록, 빔 출력부(830)를 제어할 수 있다.
예를 들어, 도 10의 (a)에 도시된 것과 같이, 프로세서(870)는, 차량(100)이 정차한 후 차량 문(900)을 여는 제어명령이 수신되면, 차량(100)에 구비된 센싱부(120)를 통해 차량 문(900) 쪽으로 접근하는 객체(1000)가 존재하는지 여부를 센싱할 수 있다.
일 예로, 프로세서(870)는, 차량(100)이 정차하도록 형성된 장소(예를 들어, 정류장)에 진입한 후 정차한 상태에서, 차량 문(900)을 여는 제어명령이 수신되면, 차량(100)에 구비된 센싱부(120)를 통해 차량 문(900) 쪽으로 접근하는 객체(1000)가 존재하는지 여부를 센싱할 수 있다.
프로세서(870)는, 상기 차량 문(900) 쪽으로 접근하는 객체(1000)가 존재하는 경우, 상기 객체(1000)와 관련된 정보(예를 들어, 객체의 종류, 객체의 수, 객체의 속도 등)를 센싱부(120)를 통해 센싱할 수 있다.
또한, 프로세서(870)는, 도 10의 (b)에 도시된 것과 같이, 상기 차량 문(900) 쪽으로 접근하는 객체(1000)가 존재하는 것에 근거하여, 차량 문(900)을 닫은 상태로 차량 문(900) 쪽으로 접근하는 객체를 알리는 정보(1100)가 차량 문(900) 주변의 노면(즉, 차량 외부의 노면 중 차량 문을 여는 제어명령이 수신된 차량 문(900) 주변의 노면)에 조사되도록 빔 출력부(830)를 제어할 수 있다.
상기 차량 문(900) 주변의 노면은, 차량 문(900)에 인접한 소정 영역 또는 상기 차량 문(900)을 기준으로 소정 거리 이내의 영역을 의미할 수 있다.
즉, 프로세서(870)는, 차량이 정차한 상태로 차량 문(900)을 여는 제어명령이 수신되면, 바로 상기 제어명령에 의해 열려야 하는 차량 문(900)을 여는 것이 아니라, 센싱부(120)를 통해 상기 차량 문(900) 쪽으로 접근하는 객체가 존재하는지 여부를 센싱할 수 있다.
이후, 상기 제어명령에 의해 열려야 하는 차량 문(900)쪽으로 접근하는 객체가 존재하는 경우, 프로세서(870)는, 빔 출력부(830)를 이용하여 상기 차량 문(900)을 닫은 상태로, 상기 차량 문(900) 쪽으로 접근하는 객체를 알리는 정보(1100)를 상기 차량 문(900) 주변의 노면에 조사할 수 있다.
프로세서(870)는, 상기 센싱부(120)를 통해 차량 문(900) 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문(900)을 여는 제어명령과는 무관하게 상기 차량 문(900)을 닫힌 상태로 유지시킬 수 있다.
프로세서(870)는, 상기 차량 문(900)이 닫힌 상태가 유지되는 동안, 상기 차량 문(900) 쪽으로 접근하는 객체를 알리는 정보(1100)를 상기 차량 문(900) 주변의 노면에 조사할 수 있다.
상기 차량 문(900) 쪽으로 접근하는 객체를 알리는 정보(1100)는, 다양한 형태로 형성될 수 있으며, 상기 차량 문(900) 쪽으로 접근하는 객체의 종류에 따라 서로 다른 정보가 상기 차량 문(900) 주변의 노면에 조사될 수 있다.
예를 들어, 상기 차량 문(900) 쪽으로 접근하는 객체의 종류가 제1 종류의 객체(예를 들어, 오토바이)인 경우, 상기 정보(1100)는, 상기 제1 종류의 객체를 나타내는 제1 정보이고, 상기 차량 문(900) 쪽으로 접근하는 객체의 종류가 상기 제1 종류와 다른 제2 종류의 객체(예를 들어, 차량)인 경우, 상기 정보(1100)는, 상기 제2 종류의 객체를 나타내는 제2 정보일 수 있다.
이후, 도 10의 (c)에 도시된 것과 같이, 프로세서(870)는, 상기 센싱된 객체(1000)가 상기 차량 문(900)을 지나치거나, 상기 차량 문 쪽으로 접근하는 객체가 센싱되지 않는 것에 근거하여, 상기 차량 문을 여는 제어명령에 따라 상기 차량 문(900)을 열 수 있다.
또한, 프로세서(870)는, 상기 차량 문이 열리게 되면, 차량에 탑승한 사용자(하차 승객)의 하차를 가이드하는 제1 이미지(1200a)를 상기 차량 문(900) 주변 노면에 출력(조사)하도록, 빔 출력부(830)를 제어할 수 있다.
즉, 프로세서(870)는, 차량의 문이 닫힌 상태에서, 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보(1100)를 출력하고, 상기 차량 문이 열리면, 상기 정보(1100)의 출력을 중단하고, 상기 제1 이미지(1200a)를 상기 차량 문(900) 주변의 노면에 출력할 수 있다.
이러한 구성을 통해, 본 발명은, 차량 문이 열리는 상황에서, 차량 문 쪽으로 접근하는 객체가 존재하는 경우, 차량 문을 닫은 상태로 유지하고, 차량 문 쪽으로 접근하는 객체를 알리는 정보를 차량 문 주변의 노면에 출력함으로써, 하차 시 발생할 수 있는 사고를 방지할 수 있다는 효과가 있다.
이하에서는, 첨부된 도면을 참조하여, 본 발명의 보다 안전한 승하차를 가이드하는 방법에 대하여 보다 구체적으로 살펴본다.
도 11, 도 12, 도 13, 도 14, 도 15, 도 16 및 도 17은 본 발명의 다양한 실시 예를 설명하기 위한 개념도이다.
도 11의 (a)에 도시된 것과 같이, 프로세서(870)는, 차량 문을 여는 제어명령에 의해 차량 문(900)을 연 상태에서, 차량(100)에 탑승한 하차 승객(1150a, 1150b)의 하차를 가이드하는 제1 이미지(1200a)를 차량 문(900) 주변의 노면에 출력할 수 있다.
이 때, 프로세서(870)는, 도 11의 (b)에 도시된 것과 같이, 센싱부(120)를 통해 차량 문(900) 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문(900)을 기 설정된 속도로 닫을 수 있다.
구체적으로, 프로세서(870)는, 차량 문(900)이 열린 상태에서, 센싱부(120)를 통해 상기 열린 차량 문(900) 쪽으로 접근하는 객체가 센싱되면, 상기 열린 차량 문(900)을 기 설정된 속도로 닫을 수 있다.
이 때, 상기 기 설정된 속도는, 하차중인 하차 승객이 닫히는 문에 의해 부상을 입지 않도록, 소정 속도 이하일 수 있다. 또한, 상기 기 설정된 속도는, 하차하려는 하차 승객이 문이 닫히는 것을 인식하고 하차를 멈추도록 일정 속도 이상일 수 있다. 일 예로, 상기 기 설정된 속도는, 상기 일정 속도 이상, 상기 소정 속도 이하의 속도 중 어느 하나의 속도일 수 있다.
또한, 도 11의 (b)에 도시된 것과 같이, 프로세서(870)는, 상기 차량 문(900)이 기 설정된 속도로 닫히는 동안, 상기 차량 문 주변의 노면에 출력(조사)중인 상기 제1 이미지(1200a)의 표시방식을 변경할 수 있다.
일 예로, 상기 제1 이미지(1200a)는, 도 11의 (b)에 도시된 것과 같이, 복수의 그래픽 객체(1210, 1220, 1230, 1240)를 포함할 수 있다.
프로세서(870)는, 상기 차량 문(900)이 기 설정된 속도로 닫히는 동안, 상기 복수의 그래픽 객체(1210, 1220, 1230, 1240) 중 상기 차량 문(900) 쪽에 인접한 적어도 하나의 그래픽 객체(1220, 1230, 1240)의 색상을 가변할 수 있다.
상기 차량 문(900) 쪽에 인접한(또는 가까운) 적어도 하나의 그래픽 객체(1220, 1230, 1240)는, 다양한 방식으로 결정될 수 있으며, 일 예로, 차량에 탑승해 있다가 하차한 마지막 하차 승객(1150a)을 기준으로 결정될 수 있다.
예를 들어, 프로세서(870)는, 상기 복수의 그래픽 객체(1210, 1220, 1230, 1240) 중 상기 하차 승객(1150a)이 위치한 지점에서부터 상기 차량에 인접한 그래픽 객체(들)를 상기 색상을 가변하는 적어도 하나의 그래픽 객체(1220, 1230, 1240)로 결정할 수 있다.
이 경우, 상기 하차 승객(1150a)의 위치가 차량에서 멀어지게 되면, 상기 하차 승개(1150a)의 위치에 따라, 색상을 가변하는 적어도 하나의 그래픽 객체(1220, 1230, 1240)의 수를 증가시킬 수 있다.
일 예로, 프로세서(870)는, 상기 제1 이미지(1200a)에 포함된 복수의 그래픽 객체의 색상을 하차를 유도하는 제1 색상(예를 들어, 초록색)으로 출력하다가, 상기 차량 문(900) 쪽으로 객체가 접근하는 것이 센싱되면, 상기 복수의 그래픽 객체 중 상기 차량에 인접한 적어도 하나의 그래픽 객체(1220, 1230, 1240)의 색상을 하차 정지를 유도하는 제2 색상(예를 들어, 빨간색)으로 변경할 수 있다.
또한, 프로세서(870)는, 차량 문(900)이 기 설정된 속도로 닫히는 동안, 상기 차량 문(900) 쪽으로 접근하는 객체와 관련된 정보(1250a, 1250b)를 차량 문(900) 주변의 노면에 추가로 조사하도록 빔 출력부(830)를 제어할 수 있다.
예를 들어, 상기 객체와 관련된 정보(1250a, 1250b)는, 차량에서 아직 미하차한 하차 승객(1150b)에게 차량 문 쪽으로 접근하는 객체를 알리는 정보(1250a) 및 차량에서 하차한 하차 승객(1150a)에서 빠른 이동을 유도하는 정보(1250b) 등을 포함할 수 있다.
이러한 구성을 통해, 본 발명은, 차량 문이 열린 상태에서 객체가 차량 문 쪽으로 접근하는 것이 추가로 센싱되는 경우, 이미 하차한 하차 승객은 빠른 이동을 유도하고, 미하차한 하차 승객의 하차를 중단시켜 사고 발생율을 낮출 수 있는 효과가 있다.
한편, 프로세서(870)는, 센싱부(120 또는 820)를 이용하여, 차량 내부에 존재하는 하차 승객(또는 하차 예정 승객)(1260)을 센싱하고, 차량 외부에 존재하는 승차 승객(또는 승차 예정 승객)(1270)을 센싱할 수 있다.
예를 들어, 도 12의 (a)에 도시된 것과 같이, 프로세서(870)는, 차량 내부에 존재하는 사용자들 중 차량 문(900)으로부터 일정 영역 이내에 존재하는 사용자를 하차 승객(1260)으로 센싱(결정)할 수 있다.
또한, 프로세서(870)는, 차량 외부에 존재하는 사용자들 중 차량 문(900)으로부터 소정 영역 이내에 존재하는 사용자를 승차 승객(1270)으로 센싱(결정)할 수 있다.
도 12의 (a)에 도시된 것과 같이, 프로세서(870)는, 차량 문(900)이 열린 상태에서, 하차 승객(1260)이 하차하도록 제1 이미지(1200a)를 차량 문(900) 주변의 노면에 조사(출력)할 수 있다.
또한, 프로세서(870)는, 도 12의 (b)에 도시된 것과 같이, 상기 하차 승객(1260)의 하차가 완료된 후 승차 승객(1270)이 승차하도록 상기 제1 이미지(1200a)와 다른 제2 이미지(1200b)를 상기 차량 문(900) 주변의 노면에 조사하도록 빔 출력부(830)를 제어할 수 있다.
다른 예로, 프로세서(870)는, 상기 제1 이미지(1200a)가 차량 문(900) 주변의 노면에 조사된 후 일정 시간이 경과하는 것에 근거하여, 상기 제1 이미지(1200a)의 출력을 중단하고, 상기 제2 이미지(1200b)를 상기 상기 차량 문(900) 주변의 노면에 조사할 수 있다.
상기 제1 이미지(1200a)는, 하차 승객(1260)의 하차를 유도하도록 형성된 이미지이며, 상기 제2 이미지(1200b)는 승차 승객(1270)의 승차를 유도하도록 형성된 이미지일 수 있다.
한편, 프로세서(870)는, 상기 제1 이미지(1200a)(즉 하차를 유도하도록 형성된 이미지)가 차량 문 주변의 노면에 조사중인 상태에서 승차 승객(1270)이 상기 차량 문(900) 쪽으로 접근하거나, 상기 제2 이미지(1200b)(즉, 승차를 유도하도록 형성된 이미지)가 차량 문 주변의 노면에 주사중인 상태에서 하차 승객(1260)이 차량 문(900) 쪽으로 접근하는 것이 센싱되면, 경고 정보를 출력할 수 있다.
예를 들어, 도 12의 (b)에 도시된 것과 같이, 제2 이미지(1200b)가 출력중인 상태에서, 차량 내부에 존재하는 하차 승객이 차량 문 쪽으로 접근하거나, 상기 차량 문을 통해 하차한 경우, 프로세서(870)는, 경고 정보(1290)를 출력할 수 있다.
상기 경고 정보를 출력하는 것은, 제1 이미지(1200a) 또는 제2 이미지(1200b)의 색상을 변경하는 것 및 추가 이미지(예를 들어, 도 12의 (b)에 도시된 “승차 순서를 준수해주세요”)를 차량 문 주변의 노면에 출력하는 것 중 적어도 하나를 포함할 수 있다.
또한, 상기 경고 정보를 출력하는 것은, 일 예로, 차량 문(900) 주변에 설치된 발광부(또는 램프, 경고등)(1280)을 발광하는 것을 포함할 수 있다.
도시되진 않았지면, 프로세서(870)는, 하차 승객의 하차를 유도하도록 형성된 제1 이미지(1200a)가 조사중인 상태에서 승차 승객(1270)의 승차가 감지되거나, 승차 승객(1270)이 차량 문(900) 쪽으로 접근하는 것이 감지되면, 경고 정보를 출력할 수 있다.
한편, 프로세서(870)는, 센싱부(120 또는 820)를 통해 차량 내부에 존재하는 하차 승객을 센싱하고, 차량 외부에 존재하는 승차 승객을 센싱할 수 있다.
이 때, 프로세서(870)는, 하차 승객의 수 또는 승차 승객의 수에 근거하여, 차량 문(900) 주변의 노면에 조사되는 이미지의 길이(또는 상기 이미지에 포함된 복수의 그래픽 객체의 수)를 결정할 수 있다.
예를 들어, 도 13의 (a)에 도시된 것과 같이, 프로세서(870)는, 센싱부(120)를 통해 차량에 탑승하고자 하는 승차 승객(1270)의 수를 결정할 수 있다.
이후, 프로세서(870)는, 결정된 승차 승객의 수에 대응되는 길이만큼 차량 문 주변의 노면에 조사되는 이미지의 길이를 결정할 수 있다.
또한, 프로세서(870)는, 하차 승객이 하차함에 따라 차량 내부에 존재하는 하차 승객의 수가 줄어들거나, 승차 승객이 승차함에 따라 차량 외부에 존재하는 승차 승객의 수가 줄어드는 것에 근거하여, 상기 이미지의 길이가 짧아지도록(또는 상기 이미지에 포함된 복수의 그래픽 객체의 수가 줄어들도록) 빔 출력부(830)를 제어할 수 있다.
예를 들어, 도 13의 (a)에 도시된 것과 같이, 상기 승차 승객의 수가 n명(예를 들어, 3명)인 경우, 상기 n명에 대응되는 제1 길이(d1)만큼 상기 이미지(dPfmf 들어, 제2 이미지(1200b))가 차량 문 주변의 노면에 조사되도록 빔 출력부(830)를 제어할 수 있다.
이후, 도 13의 (b)에 도시된 것과 같이, 승차 승객이 승차함에 따라 차량 외부에 존재하는 승차 승객의 수가 n명에서 상기 n명보다 적은 m명(예를 들어, 2명)으로 줄어드는 경우, 프로세서(870)는, 상기 m명에 대응되는 제2 길이(제1 길이보다 짧은 제2 길이)(d2)만큼 상기 이미지(1200b)가 차량 문 주변의 노면에 조사되도록 빔 출력부(830)를 제어할 수 있다.
이후, 승차 승객이 모두 승차함에 따라 차량 외부에 존재하는 승차 승객이 미존재하는 경우, 프로세서(870)는, 상기 이미지(1200b)의 출력을 중단할 수 있다.
또한, 도시되진 않았지만, 프로세서(870)는, 제1 이미지(1200a) 또는 제2 이미지(1200b)가 출력중인 상태에서, 차량 문을 닫는 제어명령에 따라 차량 문이 닫히는 것에 근거하여, 차량 문 주변의 노면에 조사중인 이미지(정보)의 출력을 중단할 수 있다.
또한, 도시되진 않았지만, 프로세서(870)는, 시간의 흐름에 따라 상기 이미지(제1 또는 제2 이미지(1200a, 1200b))의 길이가 줄어들도록 빔 출력부(830)를 제어할 수도 있다.
예를 들어, 프로세서(870)는, 상기 이미지를 출력한 후 제1 시간동안은 제1 길이만큼 상기 이미지를 차량 문 주변의 노면에 출력하고, 시간이 흐름에 따라 제1 시간 이후 제2 시간까지는 상기 제1 길이보다 짧은 제2 길이만큼 상기 이미지를 상기 차량 문 주변의 노면에 출력할 수 있다.
이후, 프로세서(870)는, 상기 제2 시간 이후의 제3 시간에 도달하는 것에 근거하여, 상기 이미지의 출력을 중단하고, 차량 문을 닫을 수 있다.
이러한 구성을 통해, 본 발명은, 직관적으로 승차 승객 또는 하차 승객의 승하차를 유도할 수 있는 차량 제어 장치 및 그 제어방법을 제공할 수 있다.
한편, 본 발명의 차량 제어 장치(800)는, 정류장에 존재하는 외부 장치와 통신 가능하도록 형성된 통신부(810)를 더 포함할 수 있다.
도 14에 도시된 것과 같이, 프로세서(870)는, 통신부(810)를 통해 차량(100)이 정차하도록 형성된 정류장(1400)에 구비된 외부 장치(1410)와 통신을 수행할 수 있다. 이를 위해, 외부 장치(1410)는 통신부를 포함할 수 있다.
상기 외부 장치(1410)는, 통신 가능한 모든 종류의 기기를 포함할 수 있으며, 일 예로, 디지털 사이니지(또는 사이니지)일 수 있다.
상기 외부 장치(1410)는, 센싱부(예를 들어, 카메라)를 구비할 수 있으며, 상기 센싱부를 통해 정류장(1400)에 존재하는 사용자(예를 들어, 승차 승객)와 관련된 정보(예를 들어, 사용자의 수, 사용자의 상태, 사용자의 연령 등)를 센싱할 수 있다.
또한, 외부 장치(1410)는, 정류장의 노면에 광(또는 정보)(1420)를 조사할 수 있는 빔 출력부를 구비할 수 있다.
또한, 상기 외부 장치(1410)는, 상기 통신부, 센싱부 및 빔 출력부를 제어하기 위한 제어부를 포함할 수 있다.
차량 제어 장치(800)의 프로세서(870)는, 차량(100)이 정류장(1400)에 진입하는 것에 근거하여, 통신부(810)를 통해 외부 장치(1410)와 통신 가능하도록 연결될 수 있다.
예를 들어, 프로세서(870)는, 외부 장치(1410)가 설치된 정류장(1400)에 진입하는 경우, 통신부(810)를 통해 V2X 통신을 이용하여 외부 장치(1410)의 통신부와 통신 가능하도록 연결될 수 있다.
이 경우, 외부 장치(1410)의 제어부는, 외부 장치(1400)의 통신부를 통해 차량(100)과 통신을 수행하는 것(또는 통신이 연결되는 것)에 근거하여, 상기 통신 연결된 차량(100)이 정류장(1410)에 진입하는 것으로 결정할 수 있다.
다른 예로, 외부 장치(1410)의 제어부는, 외부 장치(1410)의 통신부를 통해 차량(100)으로부터 특정 신호(예를 들어, 교통수단과 관련된 정보)가 수신되는 것에 근거하여, 상기 차량(100)이 정류장(1400)에 진입하는 것으로 결정할 수 있다.
또한, 외부 장치(1410)의 제어부는, 외부 장치(1410)의 통신부를 통해 차량(100)으로부터 상기 차량(100)과 관련된 정보가 수신되는 것에 근거하여, 상기 교통수단(910)과 관련된 정보를 결정할 수 있다.
예를 들어, 차량 제어 장치(800)의 프로세서(870)는, 센싱부(120)를 통해 차량으로부터 일정 거리 이내에 정류장(1410)이 센싱되면, 상기 특정 신호(또는 차량과 관련된 정보)를 통신부(810)를 통해 송출할 수 있다.
외부 장치(1410)의 제어부는, 통신부를 통해 상기 특정 신호(또는 차량과 관련된 정보)가 수신되면, 이에 응답하는 응답 신호를 차량(100)으로 송출할 수 있다.
차량(100)에 구비된 차량 제어 장치(800)의 프로세서(870)는, 상기 통신부(810)를 통해 상기 응답 신호가 수신되는 것에 근거하여, 정류장(1400)에 존재하는 외부 장치(1410)와 통신 가능하도록 연결될 수 있다.
여기서, 상기 차량(100)과 관련된 정보는, 해당 차량에 지정된 번호(예를 들어, 버스 번호, 열차 번호 등), 해당 차량과 관련된 특징(예를 들어, 색상, 크기 등), 해당 차량에 남은 빈 자리수(또는 탑승한 탑승자의 수), 해당 차량의 노선 정보 등을 포함할 수 있다.
정류장에 진입하는 차량이 복수 대인 경우, 외부 장치(1410)의 제어부는, 외부 장치(1410)의 통신부를 통해 상기 복수의 차량과 통신을 수행하여, 복수의 차량과 관련된 정보를 센싱할 수 있다.
외부 장치(1410)의 제어부는, 정류장에 존재하는 사용자와 관련된 정보에 근거하여, 정류장(1400)에 진입하는 차량(100)이 정차할 위치 정보를 결정(생성)할 수 있다.
이후, 외부 장치(1410)는 상기 차량이 위치할 위치 정보를 송출할 수 있다.
차량 제어 장치(800)의 프로세서(870)는, 통신부(810)를 통해 상기 외부 장치(1410)로부터 상기 차량이 정차할 위치 정보를 수신할 수 있다.
이후, 도 14에 도시된 것과 같이, 프로세서(870)는, 상기 차량이 정차할 위치 정보에 대응되는 장소(예를 들어, 정류장(1400)의 노면 중 일 영역)에 정차 위치를 알리는 알림 정보(즉, 차량(100)이 정차할 것을 알리는 정보)(1420)를 조사하도록 빔 출력부(830)를 제어할 수 있다.
다른 예로, 상기 정차 위치를 알리는 알림 정보(1420)는, 정류장(1400)에 구비된 외부 장치(1410)의 빔 출력부에 의해 조사될 수도 있다.
한편, 프로세서(870)는, 센싱부(120)를 통해 상기 위치 정보에 대응되는 장소에 기 설정된 종류의 장애물이 존재하는지 여부를 판단할 수 있다.
상기 기 설정된 종류의 장애물이 존재하는지 여부를 판단하는 것은, 외부 장치(1410)의 센싱부에 의해 수행될 수도 있다.
예를 들어, 상기 기 설정된 종류의 장애물은, 차량(100)의 승차하지 않는(또는 적재되지 않는) 장애물로, 일 예로, 쓰레기통, 공사 표지판, 움직이지 않도록 설치된 구조물 등을 포함할 수 있다.
차량에 탑승할 수 있는 사용자, 짐 등은 상기 기 설정된 종류의 장애물에 포함되지 않을 수 있다.
도 15의 (a)에 도시된 것과 같이, 프로세서(870)는, 상기 위치 정보에 대응되는 장소에 상기 기 설정된 종류의 장애물(1430)이 존재하는 경우, 도 15의 (b)에 도시된 것과 같이, 상기 위치 정보에 대응되는 장소와는 다른 장소에 상기 정차 위치를 알리는 알림 정보(1420)를 출력할 수 있다.
도시되진 않았지만, 상기 위치 정보에 대응되는 장소에 상기 기 설정된 종류의 장애물(1430)이 존재하지 않는 경우, 상기 위치 정보에 대응되는 장소에 정치 위치를 알리는 알림 정보(1420)를 출력할 수 있다.
차량 제어 장치(800)의 프로세서(870)는, 빔 출력부(830)를 통해 직접 상기 정류장(1400)의 노면 중 상기 위치 정보에 대응되는 장소에 정차 위치를 알리는 알림 정보(1420)를 출력할 수 있다.
또한, 정류장(1400)에 설치된 외부 장치(1410)의 제어부도 외부 장치의 빔 출력부를 통해 상기 정류장(1400)의 노면 중 상기 위치 정보에 대응되는 장소에 정류장에 진입하는 차량이 정차할 정차 위치를 알리는 알림 정보(1420)를 출력할 수 있다.
일 예로, 본 발명은 차량(100)이 정류장(1400)으로부터 소정 거리 이상 이격된 경우에는, 외부 장치(1410)의 빔 출력부가 상기 알림 정보(1420)를 정류장의 노면에 조사하고, 차량(100)이 정류장(1400)으로부터 소정 거리 이내에 진입한 경우에는, 차량 제어 장치(800)의 빔 출력부(830)가 상기 알림 정보(1420)를 정류장의 노면에 조사하도록 할 수 있다.
다른 예로, 본 발명은, 차량 제어 장치(800)와 외부 장치(1410)의 통신을 통해 어느 장치에서 상기 알림 정보(1420)를 출력할지 결정할 수 있다.
또 다른 예로, 본 발명은, 사용자의 요청, 차량 제어 장치의 통신 상태 또는 정류장의 상태 등 다양한 조건에 따라 차량 제어 장치(800)와 외부 장치(1410) 중 적어도 하나가 상기 알림 정보(1420)를 정류장의 노면에 조사할 수 있다.
한편, 프로세서(870)는, 센싱부(120)를 통해 차량 내부의 상황을 센싱할 수 있다. 예를 들어, 프로세서(870)는, 센싱부(120)의 내부 카메라를 통해 차량 내부에서 기 설정된 상황이 발생했는지 여부를 센싱(판단)할 수 있다.
여기서, 상기 기 설정된 상황은, 일 예로, 응급 상황일 수 있으며, 차량 내부에 존재하는 사용자가 아픈 경우, 기절한 경우 등을 포함할 수 있다.
상기 기 설정된 상황이 발생했는지 여부는, 일 예로, 카메라를 통해 수신되는 영상 분석을 통해 센싱(판단)될 수도 있고, 차량 내부에 존재하는 사용자의 제어명령(특정 제스처, 응급 버튼 입력 등)에 의해 센싱(판단)될 수도 있다.
프로세서(870)는, 정류장(1400)에 진입하는 차량(100) 내부에서 상기 기 설정된 상황이 발생된 경우, 도 16에 도시된 것과 같이, 차량(100)이 상기 정류장(1400)에 미 정차함을 알리는 정보(즉 정차하지 않고 통과한다는 정보)(1600)를 정류장(1400)의 노면에 출력하도록 빔 출력부(830)를 제어할 수 있다.
다른 예로, 프로세서(870)는, 센싱부(120)를 통해 차량 내부에서 상기 기 설정되 상황이 발생되면, 통신부(810)를 통해 외부 장치(1400)로 미정차함을 알리는 정보를 전송할 수 있다.
이후, 정류장(1400)에 구비된 외부 장치(1410)는, 상기 정보가 수신되는 것에 근거하여, 상기 차량이 상기 정류장에 미정차함을 알리는 정보를 정류장의 노면에 출력하도록 외부 장치(1410)의 빔 출력부를 제어할 수 있다.
한편, 도 17에 도시된 것과 같이, 외부 장치(1410)의 제어부는, 정류장(1400)에 복수의 차량(1700a, 1700b)이 진입하는 경우, 상기 복수의 차량(1700a, 1700b)으로부터 각각 차량과 관련된 저보를 수신할 수 있다.
이후, 외부 장치(1410)의 제어부는, 복수의 차량(1700a, 1700b)으로부터 수신된 복수의 차량과 관련된 정보에 근거하여, 복수의 차량(1700a, 1700b) 각각이 정차할 위치를 알리는 복수의 알림 정보(1710a, 1710b)를 정류장(1400)의 노면에 조사하도록 외부 장치의 빔 출력부를 제어할 수 있다.
상기 알림 정보(1710a, 1710b)는, 각각 차량과 관련된 정보(예를 들어, 차량에 지정된 번호, 차량의 색상) 등이 반영되어 있을 수 있다.
이 때, 외부 장치(1410)의 제어부는, 상기 복수의 차량과 관련된 정보에 근거하여, 복수의 차량이 각각 정차할 위치 정보를 결정하고, 결정된 위치 정보를 복수의 차량으로 각각 전송할 수도 있다.
이 경우, 복수의 차량에 구비된 차량 제어 장치는, 본인의 차량이 정차할 위치 정보를 결정하고, 상기 결정된 위치 정보에 대응되는 장소에 정차 위치를 알리는 알림 정보를 복수의 차량에서 정류장의 노면에 조사할 수 있다.
도 18은 본 발명의 다른 제어방법을 설명하기 위한 흐름도이다.
도 18을 참조하면, 프로세서(870)는, 내부 카메라(센싱부(120))를 이용하여 차량 내부의 탑승한 승객의 위치 및 상태를 분석할 수 있다(S1810).
이후, 프로세서(870)는, 상기 분석된 결과에 근거하여, 차량 내부에 위험 요인이 있는지 여부를 판단할 수 있다(S1820).
상기 위험 요인은, 미리 설정되어 있을 수 있으며, 일 예로, 응급 상황, 강도 탑승 등의 상황을 포함할 수 있다.
프로세서(870)는, 차량 내부에 위험 요인이 있다고 판단되는 경우, 차량의 속도를 줄이고, 빔 출력부(830) 또는 차량에 구비된 램프를 통해 광을 출력하여 위험을 외부로 알릴 수 있다(S1830).
한편, 프로세서(870)는, 차량 내부에 위험 요인이 없다고 판단되는 경우, 차량 문을 여는 제어명령에 근거하여, 차량 문을 열고, 차량 문 주변의 노면에 하차를 가이드하는 정보(또는 제1 이미지)를 출력할 수 있다(S1840).
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 본 발명은 차량에 탑승한 사용자가 하차해야 하는 순간 차량 문 쪽으로 접근하는 객체가 존재하는 경우, 차량 문을 열지 않고 접근하는 객체를 알리는 정보를 차량 문 쪽의 노면에 조사함으로써, 사고를 방지할 수 있다.
둘째, 본 발명은 차량 문이 열린 상태에서 차량 문 쪽으로 접근하는 객체가 존재하는 경우, 문을 기 설정된 속도고 닫으면서, 노면에 조사중인 이미지의 표시방식을 변경하고, 접근하는 객체와 관련된 정보를 추가적으로 노면에 조사함으로써, 미리 하차한 사용자는 빠르게 안전한 지역으로 피하고, 아직 하차하지 않은 사용자의 하차를 방지하여 사고를 방지할 수 있다.
셋째, 본 발명은 승차시와 하차시 각각 서로 다른 정보를 차량 문 쪽의 노면에 조사함으로써, 승하차 시 발생할 수 있는 복잡한 상황을 미연에 방지하고, 신속하고 안전한 승하차를 유도할 수 있다.
넷째, 본 발명은 정류장에 구비된 외부 장치와의 통신을 통해 차량이 정차할 위치를 가이하는 정보를 정류장의 노면에 조사하여, 차량에 승차할 사용자가 미리 승차할 장소로 이동하여 신속한 승하차를 유도하고, 정류장에서 발생될 수 있는 복잡함을 미연에 방지할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
이상에서 설명한 차량 제어 장치(800)는, 차량(100)에 포함 될 수 있다.
또한, 위에서 설명한 차량 제어 장치(800)의 동작 또는 제어방법은, 차량(100)(또는 제어부(170))의 동작 또는 제어방법으로 동일/유사하게 유추적용될 수 있다.
예를 들어, 차량(100)의 제어방법(또는 차량제어장치(800)의 제어방법)은, 상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하는 단계 및 상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보를 상기 차량 문 주변의 노면에 조사하는 단계를 포함할 수 있다.
또한, 상기 차량(100)의 제어방법(또는 차량제어장치(800)의 제어방법)은, 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 여는 제어명령과는 무관하게 상기 차량 문을 닫힌 상태로 유지시키는 단계를 더 포함할 수 있다.
또한, 상기 차량(100)의 제어방법(또는 차량제어장치(800)의 제어방법)은, 상기 제어명령에 의해 차량 문을 연 상태에서, 상기 차량에 탑승한 하차 승객의 하차를 가이드하는 제1 이미지를 상기 차량 문 주변의 노면에 출력하는 단계, 센싱부를 통해 상기 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 기 설정된 속도로 닫는 단계 및 상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 주변의 노면에 조사중인 상기 제1 이미지의 표시방식을 변경하는 단계를 더 포함할 수 있다.
보다 구체적인 실시 예는, 앞서 설명한 내용으로 갈음하거나, 동일/유사하게 유추적용될 수 있다.
위와 같은 각 단계는, 차량 제어 장치(800)뿐만 아니라, 차량(100)에 구비된 제어부(170)에 의해 수행될 수 있다.
또한, 위에서 살펴본 차량제어장치(800)가 수행하는 모든 기능, 구성 또는 제어방법들은, 차량(100)에 구비된 제어부(170)에 의해 수행될 수 있다. 즉, 본 명세서에서 설명하는 모든 제어방법은, 차량의 제어방법에 적용될 수도 있고, 제어 장치의 제어방법에 적용될 수도 있다.
나아가, 위에서 살펴본 차량 제어 장치(800)는 이동 단말기일 수 있다. 이 경우, 상기 차량 제어 장치(800)가 수행하는 모든 기능, 구성 또는 제어방법들은, 이동 단말기의 제어부에 의해 수행될 수 있다. 또한, 본 명세서에서 설명하는 모든 제어방법들은, 이동 단말기의 제어방법에 동일/유사하게 유추적용될 수 있다.
구체적으로, 이동 단말기는, 스마트폰 형태 뿐만 아니라, 웨어러블 디바이스 형태(예를 들어, 와치, 글래스 등)로 형성될 수 있다.
또한, 이동 단말기는, 통신부를 통해 차량 제어 장치와 통신을 수행하도록 연결될 수 있다.
이동 단말기는 본 명세서에서 설명한 모든 종류의 화면정보, 차량 제어와 관련된 신호 및 사용자 입력신호를 통신부를 통해 송수신할 수 있다.
또한, 이동 단말기는, 본 명세서에서 설명한 모든 종류의 화면정보를 통신부를 통해 수신하여 이동 단말기의 디스플레이부에 출력할 수 있다. 또한, 이동 단말기의 디스플레이부를 통해 터치(또는 선택)이 수행되면, 터치(선택)된 정보를 차량 제어 장치로 전송할 수 있다. 상기 터치된 정보에 근거하여 차량은 제어될 수 있다.
또한, 차량의 제어부(170)(또는 차량 제어 장치의 프로세서(870))는, 차량의 센싱부(120)를 통해 센싱된 모든 종류의 정보를 통신부를 통해 이동 단말기로 전송할 수 있다. 이 경우, 이동 단말기의 제어부는, 상기 정보에 근거하여, 본 명세서에서 설명한 차량 제어 장치의 프로세서(870)가 수행하는 기능/동작/제어방법을 수행할 수 있다.
또한, 이동 단말기의 제어부는, 통신부를 통해 차량 제어 장치(800)의 빔 출력부(830)를 제어하여, 차량 문 주변의 노면에 정보를 조사하거나, 정류장의 노면에 광을 조사할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 차량의 주변 노면에 광을 조사하는 빔 출력부; 및
    상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량에 구비된 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하며,
    상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 빔 출력부를 제어하는 프로세서를 포함하는 차량 제어 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 여는 제어명령과는 무관하게 상기 차량 문을 닫힌 상태로 유지시키는 것을 특징으로 하는 차량 제어 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 센싱된 객체가 상기 차량 문을 지나치거나, 상기 차량 문 쪽으로 접근하는 객체가 센싱되지 않는 것에 근거하여, 상기 제어명령에 따라 상기 차량 문을 여는 것을 특징으로 하는 차량 제어 장치.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제어명령에 의해 차량 문을 연 상태에서, 상기 차량에 탑승한 하차 승객의 하차를 가이드하는 제1 이미지를 상기 차량 문 주변의 노면에 출력하고,
    상기 센싱부를 통해 상기 차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 기 설정된 속도로 닫는 것을 특징으로 하는 차량 제어 장치.
  5. 제 4 항에 있어서,
    상기 프로세서는,
    상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 주변의 노면에 출력중인 상기 제1 이미지의 표시방식을 변경하는 것을 특징으로 하는 차량 제어 장치.
  6. 제 5 항에 있어서,
    상기 제1 이미지는 복수의 그래픽 객체를 포함하고,
    상기 프로세서는,
    상기 복수의 그래픽 객체 중 상기 차량 문 쪽에 인접한 적어도 하나의 그래픽 객체의 색상을 가변하는 것을 특징으로 하는 차량 제어 장치.
  7. 제 4 항에 있어서,
    상기 프로세서는,
    상기 차량 문이 기 설정된 속도로 닫히는 동안, 상기 차량 문 쪽으로 접근하는 객체와 관련된 정보를 상기 차량 문 주변의 노면에 추가로 조사하도록 상기 빔 출력부를 제어하는 것을 특징으로 하는 차량 제어 장치.
  8. 제 1 항에 있어서,
    상기 센싱부는,
    차량 내부에 존재하는 하차 승객을 센싱하고, 상기 차량 외부에 존재하는 승차 승객을 센싱하며,
    상기 프로세서는,
    상기 차량 문이 열린 상태에서, 상기 하차 승객이 하차하도록 제1 이미지를 상기 차량 문 주변의 노면에 조사하고,
    상기 하차 승객의 하차가 완료된 후 상기 승차 승객이 승차하도록 상기 제1 이미지와 다른 제2 이미지를 상기 차량 문 주변의 노면에 조사하도록 상기 빔 출력부를 제어하는 것을 특징으로 하는 차량 제어 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 제1 이미지가 조사중인 상태에서 승차 승객이 상기 차량 문 쪽으로 접근하거나, 상기 제2 이미지가 조사중인 상태에서 하차 승객이 상기 차량 문 쪽으로 접근하는 것이 센싱되면, 경고 정보를 출력하는 것을 특징으로 하는 차량 제어 장치.
  10. 제 9 항에 있어서,
    상기 경고 정보를 출력하는 것은,
    상기 제1 이미지 또는 상기 제2 이미지의 색상을 변경하는 것 및 추가 이미지를 상기 차량 문 주변의 노면에 출력하는 것 중 적어도 하나를 포함하는 것을 특징으로 하는 차량 제어 장치.
  11. 제 1 항에 있어서,
    상기 센싱부는,
    차량 내부에 존재하는 하차 승객을 센싱하고, 상기 차량 외부에 존재하는 승차 승객을 센싱하고,
    상기 프로세서는,
    상기 하차 승객의 수 또는 상기 승차 승객의 수에 근거하여, 상기 차량 문 주변의 노면에 조사되는 이미지의 길이를 결정하는 것을 특징으로 하는 차량 제어 장치.
  12. 제 11 항에 있어서,
    상기 프로세서는,
    상기 하차 승객이 하차함에 따라 차량 내부에 존재하는 하차 승객의 수가 줄어들거나, 상기 승차 승객이 승차함에 따라 차량 외부에 존재하는 승차 승객의 수가 줄어드는 것에 근거하여, 상기 이미지의 길이가 짧아지도록 상기 빔 출력부를 제어하는 것을 특징으로 하는 차량 제어 장치.
  13. 제 11 항에 있어서,
    상기 프로세서는,
    시간이 흐름에 따라 상기 이미지의 길이가 줄어들도록 상기 빔 출력부를 제어하는 것을 특징으로 하는 차량 제어 장치.
  14. 제 1 항에 있어서,
    정류장에 존재하는 외부 장치와 통신 가능하도록 형성된 통신부를 더 포함하고,
    상기 프로세서는,
    상기 차량이 상기 정류장에 진입하는 것에 근거하여 상기 통신부를 통해 상기 외부 장치와 통신 가능하도록 연결되며,
    상기 외부 장치로부터 상기 차량이 정차할 위치 정보를 수신하는 것을 특징으로 하는 차량 제어 장치.
  15. 제 14 항에 있어서,
    상기 프로세서는,
    상기 센싱부를 통해 상기 위치 정보에 대응되는 장소에 기 설정된 종류의 장애물이 존재하는지 여부를 판단하고,
    상기 장소에 상기 기 설정된 종류의 장애물이 존재하지 않는 경우, 상기 위치 정보에 대응되는 장소에 정차 위치를 알리는 알림 정보를 출력하고,
    상기 장소에 상기 기 설정된 종류의 장애물이 존재하는 경우, 상기 위치 정보에 대응되는 장소와는 다른 장소에 상기 정차 위치를 알리는 알림 정보를 출력하는 것을 특징으로 하는 차량 제어 장치.
  16. 제 14 항에 있어서,
    상기 프로세서는,
    상기 센싱부를 통해 상기 차량 내부에 기 설정된 상황이 발생했는지 여부를 센싱하고,
    상기 차량 내부에서 기 설정된 상황이 발생된 경우, 상기 차량이 상기 정류장에 미정차함을 알리는 정보를 상기 정류장의 노면에 출력하도록 상기 빔 출력부를 제어하는 것을 특징으로 하는 차량 제어 장치.
  17. 차량 제어 장치를 포함하는 차량의 제어방법으로,
    상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하는 단계; 및
    상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보를 상기 차량 문 주변의 노면에 조사하는 단계를 포함하는 차량의 제어방법.
  18. 제 17 항에 있어서,
    차량 문 쪽으로 접근하는 객체가 센싱되면, 상기 차량 문을 여는 제어명령과는 무관하게 상기 차량 문을 닫힌 상태로 유지시키는 단계를 더 포함하는 차량의 제어방법.
  19. 차량과 관련된 정보를 센싱하는 센싱부;
    상기 차량의 주변 노면에 광을 조사하는 빔 출력부; 및
    상기 차량이 정차한 후 차량 문을 여는 제어명령이 수신되면, 상기 센싱부를 통해 차량 문 쪽으로 접근하는 객체가 존재하는지 여부를 센싱하고,
    상기 차량 문 쪽으로 접근하는 객체가 존재하는 것에 근거하여, 기 설정된 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 빔 출력부를 제어하는 프로세서를 포함하는 차량.
  20. 차량에 구비된 센싱부 및 빔 출력부 중 적어도 하나와 통신을 수행하는 통신부;
    상기 차량 문이 열리는 이벤트가 발생하거나 발생하는 것이 예상되는 것에 응답하여, 상기 차량 문 쪽으로 접근하는 객체를 센싱하기 위하여 상기 통신부를 통해 상기 센싱부와 통신을 수행하는 센서 제어부; 및
    상기 차량 문 쪽으로 객체가 존재하는 경우, 상기 차량 문을 닫은 상태로 상기 차량 문 쪽으로 접근하는 객체를 알리는 정보가 상기 차량 문 주변의 노면에 조사되도록 상기 통신부를 통해 상기 빔 출력부를 제어하는 빔 제어부를 포함하는 것을 특징으로 하는 차량 제어 장치.
PCT/KR2019/004244 2018-05-13 2019-04-10 차량에 구비된 차량 제어 장치 및 차량의 제어방법 WO2019221390A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020197019653A KR20200143216A (ko) 2018-05-13 2019-04-10 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US16/490,425 US11403946B2 (en) 2018-05-13 2019-04-10 Vehicle control device and control method provided in vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862670854P 2018-05-13 2018-05-13
US62/670,854 2018-05-13

Publications (1)

Publication Number Publication Date
WO2019221390A1 true WO2019221390A1 (ko) 2019-11-21

Family

ID=68540817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004244 WO2019221390A1 (ko) 2018-05-13 2019-04-10 차량에 구비된 차량 제어 장치 및 차량의 제어방법

Country Status (3)

Country Link
US (1) US11403946B2 (ko)
KR (3) KR102124804B1 (ko)
WO (1) WO2019221390A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030982A1 (ko) * 2020-08-06 2022-02-10 주식회사 드웰링 재난 안전 스마트 쉘터의 운용방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210060038A (ko) * 2019-11-18 2021-05-26 엘지전자 주식회사 로봇 및 그 제어 방법
KR20210086887A (ko) 2019-12-31 2021-07-09 재단법인 지능형자동차부품진흥원 자율주행 중 운전자의 차량 제어정보가 저장되는 자율주행 시스템
CN115151444A (zh) * 2020-02-17 2022-10-04 株式会社小糸制作所 灯具系统
US11492008B2 (en) * 2020-02-21 2022-11-08 Baidu Usa Llc Model reference adaptive control algorithm to address the vehicle actuation dynamics
JP7424878B2 (ja) * 2020-03-19 2024-01-30 本田技研工業株式会社 車両制御装置および車両
KR102400726B1 (ko) * 2020-03-20 2022-05-24 주식회사 넥스트칩 이미지에 기초한 차량 검출 방법 및 장치
KR102462547B1 (ko) * 2020-08-24 2022-11-04 피에이치에이 주식회사 레이더를 이용한 차량 제어 장치
JP7268669B2 (ja) * 2020-11-30 2023-05-08 トヨタ自動車株式会社 注意喚起システム
KR102443467B1 (ko) 2021-01-29 2022-09-16 주식회사 카코 자율주행 또는 원격제어 주행 기반의 친환경 차량 속도 제어장치
KR20220110378A (ko) 2021-01-29 2022-08-08 주식회사 케이에이알 자율 주행용 모션 플래닝 기능을 가지는 친환경 차량의 조향제어 시스템
KR102552370B1 (ko) * 2021-05-25 2023-07-07 주식회사 경신 탑승객 하차 경고 장치 및 방법
WO2024005303A1 (ko) * 2022-06-29 2024-01-04 엘지전자 주식회사 타겟 객체 식별 장치 및 그 장치의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120107602A (ko) * 2011-03-22 2012-10-04 주식회사 네비웨이 버스 정류장 승객 안전 유도 시스템
KR101476811B1 (ko) * 2013-08-30 2014-12-31 진성호 버스의 승하차 가이드라인 투사장치
KR101740395B1 (ko) * 2016-12-21 2017-05-26 한동일 승차 대기 알림 기능이 구비된 안전 질서 버스 승강장
KR20170112735A (ko) * 2016-04-01 2017-10-12 엘지이노텍 주식회사 차량 제어 장치 및 제어 방법
JP2018030655A (ja) * 2016-08-22 2018-03-01 株式会社日立製作所 エレベーターシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100528995B1 (ko) * 2003-04-01 2005-11-22 (주)케이엔아이 디스플레이 액정을 이용한 전자커튼용 쇼윈도우
KR20120040518A (ko) * 2010-10-19 2012-04-27 신양중 차량을 이용한 광고 시스템 및 방법
JP2014202859A (ja) 2013-04-03 2014-10-27 パイオニア株式会社 広告表示装置、広告表示方法並びに広告表示用プログラム及び情報記録媒体
JP2015200933A (ja) * 2014-04-04 2015-11-12 株式会社ニコン 自律走行車両
JP2016065938A (ja) * 2014-09-24 2016-04-28 エイディシーテクノロジー株式会社 広告表示装置
JP6330611B2 (ja) * 2014-10-09 2018-05-30 トヨタ車体株式会社 ウィンドウ表示装置
KR20170010645A (ko) * 2015-07-20 2017-02-01 엘지전자 주식회사 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
US10065555B2 (en) * 2016-09-08 2018-09-04 Ford Global Technologies, Llc Directional approach lighting
KR102561132B1 (ko) * 2016-09-21 2023-07-28 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR101744198B1 (ko) * 2016-12-27 2017-06-07 이상훈 현장 맞춤형 이동식 차량 광고시스템
US10794107B2 (en) * 2018-04-10 2020-10-06 Ford Global Technologies, Llc Vehicle door entry system and method
CN111959389A (zh) * 2019-05-20 2020-11-20 麦格纳外饰公司 连续安全光

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120107602A (ko) * 2011-03-22 2012-10-04 주식회사 네비웨이 버스 정류장 승객 안전 유도 시스템
KR101476811B1 (ko) * 2013-08-30 2014-12-31 진성호 버스의 승하차 가이드라인 투사장치
KR20170112735A (ko) * 2016-04-01 2017-10-12 엘지이노텍 주식회사 차량 제어 장치 및 제어 방법
JP2018030655A (ja) * 2016-08-22 2018-03-01 株式会社日立製作所 エレベーターシステム
KR101740395B1 (ko) * 2016-12-21 2017-05-26 한동일 승차 대기 알림 기능이 구비된 안전 질서 버스 승강장

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030982A1 (ko) * 2020-08-06 2022-02-10 주식회사 드웰링 재난 안전 스마트 쉘터의 운용방법

Also Published As

Publication number Publication date
KR20190135390A (ko) 2019-12-06
KR20200143216A (ko) 2020-12-23
KR102130800B1 (ko) 2020-07-06
KR20190135392A (ko) 2019-12-06
US11403946B2 (en) 2022-08-02
KR102124804B1 (ko) 2020-06-23
US20210355738A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
WO2019221390A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2018088615A1 (ko) 차량 주행 제어 장치 및 방법
WO2017138702A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2018056538A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2019117333A1 (ko) 차량에 구비된 디스플레이 장치 및 디스플레이 장치의 제어방법
WO2018079919A1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
WO2018088651A1 (ko) 자율 주행 차량 및 그 제어방법
WO2017183797A1 (ko) 차량용 운전 보조 장치
WO2018088647A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2018110762A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2019098434A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2018110789A1 (en) Vehicle controlling technology
WO2017030240A1 (ko) 차량 보조 장치 및 차량
WO2018230768A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2018169162A1 (ko) 차량 제어 장치를 구비한 차량 및 차량의 제어방법
WO2018199380A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2020017716A1 (ko) 차량용 로봇 및 상기 로봇의 제어 방법
WO2018088614A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2017217575A1 (ko) 차량에 구비된 제어장치 및 이의 제어방법
WO2019035652A1 (en) DRIVING ASSISTANCE SYSTEM AND VEHICLE COMPRISING THE SAME
WO2019132078A1 (ko) 차량에 구비된 디스플레이 장치
WO2018097423A1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
WO2019066477A1 (en) AUTONOMOUS VEHICLE AND ITS CONTROL METHOD
WO2018186709A1 (ko) 차량용 헤드 업 디스플레이 장치
WO2018235979A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19802909

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19802909

Country of ref document: EP

Kind code of ref document: A1