WO2017018842A1 - 자율 주행 차량을 제어하는 장치 및 방법 - Google Patents

자율 주행 차량을 제어하는 장치 및 방법 Download PDF

Info

Publication number
WO2017018842A1
WO2017018842A1 PCT/KR2016/008324 KR2016008324W WO2017018842A1 WO 2017018842 A1 WO2017018842 A1 WO 2017018842A1 KR 2016008324 W KR2016008324 W KR 2016008324W WO 2017018842 A1 WO2017018842 A1 WO 2017018842A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driving mode
occupant
autonomous vehicle
driving
Prior art date
Application number
PCT/KR2016/008324
Other languages
English (en)
French (fr)
Inventor
크로닌존
디안드레아미카엘
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160054109A external-priority patent/KR20170015113A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/744,528 priority Critical patent/US20180203451A1/en
Priority to EP16830875.7A priority patent/EP3330825A4/en
Publication of WO2017018842A1 publication Critical patent/WO2017018842A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present disclosure relates to an apparatus and method for controlling an autonomous vehicle.
  • An apparatus and method for controlling an autonomous vehicle is provided.
  • the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and further technical problems can be inferred from the following embodiments.
  • an apparatus for controlling an autonomous vehicle includes an interface for obtaining at least one of context information about a passenger of an autonomous vehicle and surrounding environment information of the autonomous vehicle; And a processor configured to determine a driving mode optimized for the occupant based on the obtained at least one information and to control the autonomous driving vehicle according to the determined driving mode.
  • a method of controlling an autonomous vehicle includes: obtaining at least one of context information about an occupant of an autonomous vehicle and surrounding environment information of the autonomous vehicle; Determining a driving mode optimized for the occupant based on the obtained at least one information; And controlling the autonomous vehicle according to the determined driving mode.
  • a computer readable recording medium having recorded thereon a program for implementing the method.
  • a method of controlling an autonomous vehicle includes: obtaining user environment information; Determining a driving style based on user environment information; And setting driving parameters of the vehicle according to the driving style.
  • a driving mode suitable for a situation in which an occupant of an autonomous vehicle is located provides a passenger-friendly driving environment.
  • FIG 1 illustrates an example of an autonomous vehicle.
  • FIG. 2 is a diagram for describing an autonomous vehicle.
  • FIG. 3 is a diagram for describing a vehicle control apparatus for controlling an autonomous vehicle.
  • FIG. 4 illustrates a vehicle control apparatus for determining a driving mode based on destination information of a passenger.
  • FIG. 5 illustrates an example of an association relationship between passenger destination information and a driving mode.
  • FIG. 6 illustrates an example in which the vehicle control apparatus determines a driving mode based on destination information of a passenger.
  • FIG 7 illustrates an example in which the vehicle controller controls the autonomous vehicle in the acceleration driving mode.
  • FIG. 8 illustrates a vehicle control apparatus for determining a driving mode based on passenger schedule information.
  • FIG 9 illustrates an example in which the vehicle control apparatus determines a driving mode based on schedule information of a passenger.
  • FIG. 10 illustrates a vehicle control apparatus for determining a driving mode based on body state information of a passenger.
  • FIG. 11 illustrates an example in which the vehicle control apparatus determines a driving mode based on the sleep state information of the occupant and controls the autonomous driving vehicle according to the determined driving mode.
  • FIG. 12 illustrates an example in which the vehicle control apparatus controls the autonomous vehicle in a calm driving mode.
  • the vehicle control apparatus determines the driving mode based on the concentrated state information of the occupant, and controls the autonomous driving vehicle according to the determined driving mode.
  • the vehicle control apparatus determines a driving mode based on emergency state information of a passenger.
  • FIG. 15 illustrates an example of a vehicle control apparatus for determining a driving mode based on identification information of a passenger.
  • 16 illustrates an example in which the vehicle control apparatus determines a driving mode based on identification information of a passenger.
  • 17 illustrates an example of a vehicle control apparatus for determining a driving mode based on location information of an autonomous vehicle.
  • the vehicle control apparatus determines a driving mode based on the highway position information, and controls the autonomous driving vehicle according to the determined driving mode.
  • 19 illustrates an example in which the vehicle control apparatus determines a driving mode based on location information in a city center, and controls the autonomous driving vehicle in the determined driving mode.
  • FIG 20 illustrates an example in which the vehicle controller controls the autonomous vehicle in the eco driving mode.
  • FIG. 21 illustrates an example in which the vehicle control apparatus determines a driving mode based on landmark position information and controls the autonomous driving vehicle in the determined driving mode.
  • 22 illustrates an example of a vehicle control apparatus for determining a driving mode based on traffic information.
  • FIG. 23 illustrates an embodiment in which the vehicle control apparatus determines a driving mode based on the traffic information and controls the autonomous driving vehicle according to the determined driving mode.
  • GUI graphical user interface
  • 25 illustrates an example of a vehicle control apparatus for determining a driving mode based on weather information.
  • FIG. 26 illustrates an embodiment in which the vehicle control apparatus determines a driving mode based on weather information and controls the autonomous driving vehicle according to the determined driving mode.
  • FIG. 27 illustrates an example of a vehicle control apparatus for determining a driving mode based on road state information.
  • the vehicle control apparatus determines a driving mode based on road state information and controls the autonomous driving apparatus according to the determined driving mode.
  • 29 illustrates an example in which the vehicle control apparatus provides a GUI associated with a dangerous road.
  • 31 illustrates an example in which the vehicle control device controls the autonomous vehicle according to the degree of danger of the dangerous road.
  • 32 illustrates an example in which the vehicle controller changes the driving mode based on other surrounding environment information.
  • 33 illustrates an example in which the vehicle control apparatus changes the driving mode based on other context information.
  • FIG. 35 illustrates an example in which the vehicle control apparatus determines a driving mode optimized for a passenger based on priorities among acquired context information and surrounding environment information.
  • 36 is a diagram for describing an example of a vehicle control apparatus communicating with a mobile device.
  • 39 shows an example of a menu for setting a driving mode.
  • FIG. 40 illustrates an example of a menu for selecting a passenger from among a plurality of passengers in the autonomous vehicle.
  • 41 shows an example of a method of controlling an autonomous vehicle.
  • an apparatus for controlling an autonomous vehicle includes an interface for obtaining at least one of context information about a passenger of an autonomous vehicle and surrounding environment information of the autonomous vehicle; And a processor configured to determine a driving mode optimized for the occupant based on the obtained at least one information and to control the autonomous driving vehicle according to the determined driving mode.
  • the interface may obtain at least one information of the other context information and the other environment information, and the processor may change the driving mode based on at least one of the other context information and the other environment information.
  • the interface obtains at least two or more different information included in the context information and the surrounding environment information, and the processor, based on a preset priority and at least two different information obtained, the driving optimized for the occupant The mode can be determined.
  • the processor may determine a driving mode corresponding to the obtained at least one information based on a correlation between the obtainable context information and the driving mode applicable to the autonomous vehicle.
  • association may be predetermined by the occupant or learned by the occupant's driving history to be determined.
  • the processor may control the driving parameter of the autonomous vehicle according to the determined driving mode.
  • a method of controlling an autonomous vehicle includes: obtaining at least one of context information about an occupant of an autonomous vehicle and surrounding environment information of the autonomous vehicle; Determining a driving mode optimized for the occupant based on the obtained at least one information; And controlling the autonomous vehicle according to the determined driving mode.
  • a computer readable recording medium having recorded thereon a program for implementing the method.
  • a method of controlling an autonomous vehicle includes: obtaining user environment information; Determining a driving style based on user environment information; And setting driving parameters of the vehicle according to the driving style.
  • the term “consisting of” or “comprising” should not be construed as including all of the various elements, or steps, described in the specification, and some or some of them may be included. Should not be included, or should be construed to further include additional components or steps.
  • the terms “... unit”, “module”, etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
  • FIG 1 illustrates an example of an autonomous vehicle.
  • the autonomous vehicle 1 may refer to a vehicle that can drive itself without intervention of a passenger.
  • the autonomous vehicle 1 may obtain driving context information.
  • the driving context information may refer to user environment information describing what kind of situation the user of the autonomous vehicle 1 is in.
  • the driving context information may include information affecting the driving of the autonomous vehicle 1.
  • the driving context information may include at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1.
  • context information may mean “context information about a passenger.”
  • the context information about the occupant may refer to information representing a state of the occupant or a situation in which the occupant is located.
  • the context information may include at least one of destination information of the passenger, schedule information of the passenger, physical condition information of the passenger, and identification information of the passenger.
  • the context information for the occupant may include information about the occupant at the present time or in the future.
  • the surrounding environment information of the autonomous vehicle 1 may mean information indicating an environment around the autonomous vehicle 1.
  • the surrounding environment information may include weather information, traffic information, road condition information, location information of the autonomous vehicle 1, current time information on which the autonomous vehicle is operating, and day of the week information. It may include at least one of the date information.
  • the autonomous vehicle 1 may determine the driving mode optimized for the occupant based on the obtained at least one driving context information.
  • the driving mode may indicate a driving style of the autonomous vehicle 1. For example, when the driving mode is the acceleration driving mode, the autonomous vehicle 1 may travel in terms of increasing the acceleration performance. When the driving mode is the eco driving mode, the autonomous driving vehicle 1 may have fuel efficiency. You can drive in terms of savings. According to the driving mode, it is possible to determine which driving characteristics or driving characteristics of the autonomous vehicle 1 are to be driven.
  • the autonomous driving vehicle 1 may determine a situation in which the occupant is placed based on at least one of context information and surrounding environment information about the occupant in order to determine a driving mode optimized for the occupant, and the determined situation It is possible to determine the driving mode suitable for. That is, the autonomous vehicle 1 may determine a driving mode suitable for a situation in which the occupant is in the plurality of driving modes. For example, the autonomous vehicle 1 may determine the driving mode optimized for the occupant as the acceleration driving mode when the situation in which the occupant is in need of the acceleration driving. According to another example, the autonomous vehicle 1 may determine the speed limit mode as the driving mode optimized for the occupant when the situation in which the occupant is in need of safe driving.
  • the autonomous vehicle 1 can travel in accordance with the determined driving mode without any intervention of the occupant.
  • the autonomous vehicle 1 may travel by adjusting driving parameters according to the determined driving mode.
  • the autonomous vehicle 1 may drive by adjusting a driving parameter according to the determined driving mode. Examples of travel parameters include brake sensitivity, steering sensitivity, acceleration and deceleration degree, maximum speed, G-force, throttle, suspension frequency, and the like. That is, at least one driving parameter may be set differently according to the driving mode.
  • FIG. 2 is a diagram for describing an autonomous vehicle.
  • the autonomous vehicle 1 includes a power supply device 299, a communication device 250, an input device 260, an output device 280, a storage device 270, a travel device 220, and a sensing device 230. , Peripheral device 240, and control device 290.
  • a power supply device 299 a communication device 250
  • an input device 260 an output device 280
  • a storage device 270 a travel device 220
  • Peripheral device 240 Peripheral device 240
  • control device 290 Peripheral device 240
  • the propulsion device 210 may include an engine / motor 211, an energy source 212, a transmission 213 and a wheel / tire 214.
  • the engine / motor 211 may be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine.
  • the engine / motor 211 may be a gasoline engine and an electric motor.
  • Energy source 212 may be a source of energy that powers the engine / motor 211 in whole or in part. That is, engine / motor 211 may be configured to convert energy source 212 into mechanical energy. Examples of energy sources 212 may be at least one of gasoline, diesel, propane, other compressed gas based fuels, ethanol, solar panels, batteries, and other electrical power sources. Alternatively, the energy source 212 may be at least one of a fuel tank, a battery, a capacitor, and a flywheel. According to one example, the energy source 212 can provide energy to the systems and devices of the autonomous vehicle 1.
  • Transmission 213 may be configured to transfer mechanical power from engine / motor 211 to wheel / tire 214.
  • the transmission 213 may include at least one of a gearbox, a clutch, a differential, and a drive shaft.
  • the drive shafts may include one or more axles configured to be coupled to the wheel / tire 214.
  • the wheel / tire 214 may be configured in a variety of formats, including a unicycle, a bike / motorcycle, a tricycle, or a four wheel type of a car / truck. For example, other wheel / tire types may be possible, such as including six or more wheels.
  • the wheel / tire 214 includes at least one wheel fixedly attached to the transmission 213 and at least one tire coupled to a rim of the wheel that can contact the driving surface. can do.
  • the traveling device 220 may include a brake unit 221, a steering unit 222, and a throttle 223.
  • the steering unit 222 may be a combination of mechanisms configured to adjust the direction of the autonomous vehicle 1.
  • the throttle 223 may be a combination of mechanisms configured to control the speed of operation of the engine / motor 211 to control the speed of the autonomous vehicle 1.
  • the throttle 223 may adjust the amount of throttle opening to adjust the amount of mixed gas of fuel air flowing into the engine / motor 211, and may control power and thrust by adjusting the throttle opening.
  • the brake unit 221 may be a combination of mechanisms configured to decelerate the autonomous vehicle 1.
  • the brake unit 221 may use friction to reduce the speed of the wheel / tire 214.
  • the sensing device 230 may include a plurality of sensors configured to sense information about the environment in which the autonomous vehicle 1 is located, as well as one or more actuators configured to modify the position and / or orientation of the sensors. Can include them.
  • sensing device 230 may include a Global Positioning System (GPS) 224, an Inertial Measurement Unit (IMU) 225, a RADAR unit 226, a LIDAR unit 227, and a camera 228.
  • GPS Global Positioning System
  • IMU Inertial Measurement Unit
  • the sensing device 230 may include a geomagnetic sensor 229, an acceleration sensor 231, a temperature / humidity sensor 232, an infrared sensor 233, a gyroscope sensor 234, and atmospheric pressure.
  • the sensor 235 may include at least one of the proximity sensor 236 and the RGB sensor 237, but is not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted
  • the GPS 224 may be a sensor configured to estimate the geographic location of the autonomous vehicle 1. That is, the GPS 224 may include a transceiver configured to estimate the position of the autonomous vehicle 1 with respect to the earth.
  • the IMU 225 may be a combination of sensors configured to detect positional and orientation changes of the autonomous vehicle 1 based on inertial acceleration.
  • the combination of sensors may include accelerometers and gyroscopes.
  • the RADAR unit 226 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a wireless signal.
  • the RADAR unit 226 can be configured to sense the speed and / or direction of the objects.
  • the LIDAR unit 227 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a laser. More specifically, LIDAR unit 227 may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser. The LIDAR unit 227 may be configured to operate in coherent (eg, using hetirodyne detection) or noncoherent detection mode.
  • the camera 228 may be a still camera or a video camera configured to record three-dimensional images of the interior of the autonomous vehicle 1.
  • the camera 228 may include a plurality of cameras, and the plurality of cameras may be disposed at a plurality of positions on the inside and outside of the autonomous vehicle 1.
  • the peripheral device 240 may include a navigation 241, a light 242, a turn signal 243, a wiper 244, an interior light 245, a heater 246, and an air conditioner 247.
  • the navigation 241 may be a system configured to determine a travel route for the autonomous vehicle 1.
  • the navigation 241 may be configured to dynamically update the travel route while the autonomous vehicle 1 is traveling.
  • the navigation 241 may use data from the GPS 224 and maps to determine the route of travel for the autonomous vehicle 1.
  • the storage device 270 may include a magnetic disk drive, an optical disk drive, and a flash memory. Alternatively, the storage device 270 may be a portable USB data storage device. Storage device 270 may store system software for executing examples related to the present disclosure. System software for carrying out the examples relating to the present disclosure may be stored on a portable storage medium.
  • the communication device 250 may include at least one antenna for wirelessly communicating with another device.
  • communication device 250 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth.
  • the communication device 250 controlled by the control device 290 may transmit and receive a wireless signal.
  • the control device 290 may execute a program included in the storage device 270 in order for the communication device 250 to transmit and receive a wireless signal with the cellular network.
  • the input device 260 means a means for inputting data for controlling the autonomous vehicle 1.
  • the input device 260 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the input device 260 may include a microphone, which may be configured to receive audio (eg, voice commands) from the occupant of the autonomous vehicle 1.
  • the output device 280 may output an audio signal or a video signal, and the output device 280 may include a display 281 and a sound output unit 282.
  • the display unit 281 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display, an electrophoretic display.
  • the output device 280 may include two or more display units 281.
  • the sound output unit 282 outputs audio data received from the communication device 250 or stored in the storage device 270.
  • the sound output unit 282 may include a speaker, a buzzer, and the like.
  • the input device 260 and the output device 280 may include a network interface, and may be implemented as a touch screen.
  • the control device 290 typically controls the overall operation of the autonomous vehicle 1.
  • the control device 290 executes the programs stored in the storage device 270, such that the propulsion device 210, the traveling device 220, the sensing device 230, the peripheral device 240, and the communication device ( 250, the input device 260, the storage device 270, the output device 280, and the power supply 299 may be controlled overall.
  • the power supply 299 may be configured to provide power to some or all of the components of the autonomous vehicle 1.
  • power supply 299 may comprise a rechargeable lithium ion or lead-acid battery.
  • FIG. 3 is a diagram for describing a vehicle control apparatus for controlling an autonomous vehicle.
  • the vehicle control device 100 may be included in the autonomous vehicle 1, and the control device 290, the communication device 250, the input device 260, the output device 280, and the sensing device 230 of FIG. 2. ) May include at least one, and thus descriptions of overlapping contents will be omitted.
  • the vehicle control apparatus 100 may include an interface 110 and a processor 120.
  • an interface 110 In the autonomous vehicle 1 shown in FIG. 2, only components related to the present embodiment are shown. Accordingly, it will be understood by those skilled in the art that other general purpose components may be further included in addition to the components shown in FIG. 2.
  • the interface 110 may obtain at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1.
  • the interface 110 may obtain at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1 from an external device.
  • the communication device 250 may acquire at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1 from an external device, and transmit the obtained information to the interface 110.
  • the interface 110 may obtain at least one of context information about the occupant stored in the storage device 270 and surrounding environment information of the autonomous vehicle 1.
  • the interface 110 may obtain at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1 from the sensing device 230.
  • the sensing device 230 may obtain body state information of the occupant and transmit the obtained information to the interface 110.
  • the interface 110 may obtain at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1 from the input device 260.
  • the occupant may input context information about the occupant and surrounding environment information of the autonomous vehicle 1 through the input device 260, and the input device 260 may input the user interface to the interface 110.
  • Information can be sent.
  • the processor 120 may determine a driving mode optimized for the occupant based on the obtained at least one information. That is, the processor 120 may determine the situation in which the occupant is faced without the intervention of the occupant based on at least one of context information and surrounding environment information about the occupant, and determine a driving mode suitable for the determined situation. .
  • the driving mode may be, for example, an acceleration driving mode for increasing the acceleration performance of the autonomous vehicle 1, an eco driving mode for saving fuel economy of the autonomous vehicle 1, vibration and acceleration of the autonomous vehicle 1. It may include a calm driving mode for minimizing the speed, a speed limit mode for driving below a certain speed, a terrain mode suitable for the terrain on which the autonomous vehicle 1 travels, and an emergency driving mode for an emergency of a passenger.
  • the name of the driving mode described above is an example, and is not limited to the name of the driving mode described above.
  • each driving mode described above may be applied to a case of manual driving for driving under the driver's driving control, and may also be applied to an autonomous driving without the driver's driving control. For example, even when the occupant directly drives the autonomous vehicle 1, the autonomous vehicle 1 may travel in a predetermined eco driving mode, and the occupant does not directly drive the autonomous vehicle 1. Even in this case, the autonomous vehicle 1 may travel in a predetermined acceleration driving mode.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode. For example, the processor 120 may adjust the driving parameter according to the determined driving mode. In addition, the processor 120 may control the propulsion device 210 or the peripheral device 240 of the autonomous vehicle 1 according to the determined driving mode.
  • the processor 120 may adjust the driving parameter in terms of increasing the acceleration performance of the autonomous vehicle 1. For example, the processor 120 may increase the amount of opening of the throttle, the suspension frequency, and the suspension stiffness. In addition, the processor 120 may allow the autonomous vehicle 1 to react quickly by using a large torque output to enable agile driving.
  • the processor 120 may adjust the driving parameters in terms of improving fuel efficiency of the autonomous vehicle 1. For example, the processor 120 may set the throttle opening amount and the acceleration of the autonomous vehicle 1 to a minimum value. In addition, the processor 120 may increase fuel efficiency by allowing the autonomous vehicle 1 to maintain a low revolution per minute (RPM) through a faster shift.
  • RPM revolution per minute
  • the processor 120 may adjust the driving parameter in terms of minimizing vibration and acceleration of the autonomous vehicle 1. For example, processor 120 may reduce suspension stiffness and suspension frequency. In addition, the processor 120 may control a damping ratio of shock absorbers for suppressing vibrations applied to the tire generated by the road surface reaction and vibrations on the suspension spring.
  • the processor 120 may limit the speed at which the autonomous vehicle 1 can travel to a predetermined value. For example, the processor 120 may limit the maximum speed at which the autonomous vehicle 1 can travel to 60 km / h.
  • the processor 120 may control the autonomous vehicle 1 to travel for a shortest time to a predetermined destination. For example, the processor 120 may control the autonomous vehicle 1 to autonomously travel for the shortest time to the hospital nearest to the current location.
  • the processor 120 may adjust the driving parameters of the autonomous vehicle 1 according to the terrain state in which the autonomous vehicle 1 travels. For example, when the terrain on which the autonomous vehicle 1 runs is mountainous terrain with a lot of gravel / sand, the processor 120 may raise the suspension, and switch to four-wheel drive to a ratio of the front wheel and the rear wheel at a certain ratio. The driving force can be distributed.
  • FIG. 4 illustrates a vehicle control apparatus for determining a driving mode based on destination information of a passenger.
  • the interface 110 may obtain destination information of the passenger as context information about the passenger. For example, the interface 110 may directly receive destination information from the occupant. As an example, the interface 110 may obtain destination information of the passenger through a voice signal of the passenger representing the destination information. As another example, the interface 110 can obtain destination information from the occupant's device via the communication device 250.
  • the processor 120 may determine a driving mode optimized for the occupant based on the obtained destination information of the occupant. For example, the processor 120 may determine the situation of the occupant based on the destination information of the occupant, and determine a driving mode suitable for the determined situation. If the destination information of the occupant is 'work', the processor 120 determines that the occupant's situation is 'urgent situation in which traffic congestion is possible' because the current time is a commute time, and accelerates the driving mode optimized for the occupant. You can decide in mode. As an example, whether the current time or traffic congestion is imminent may be obtained through an in-vehicle device, an out-of-vehicle device, a server, and the like through the interface 110.
  • the processor 120 may infer or assume other information based on the destination information. For example, when a workplace is input as the destination information, the processor 120 determines that the occupant has boarded the autonomous vehicle 1 for the purpose of going to work, and assumes that the current time is the time of commencement. May be determined.
  • the processor 120 may determine a driving mode corresponding to the destination information of the passenger based on the association between the destination information of the passenger and the driving mode. A more detailed example of the association between the destination information of the passenger and the driving mode will be described below with reference to FIG. 5.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • FIG. 5 illustrates an example of an association relationship between passenger destination information and a driving mode.
  • the table 510 illustrated in FIG. 5 represents an association relationship between the destination information of the passenger and the driving mode.
  • the processor 120 may determine a driving mode optimized for the occupant based on the table 510. For example, when the destination information of the occupant is the 'rest area', the processor 120 may determine the driving mode optimized for the occupant as the calm driving mode with reference to the table 510 since the current time is 'weekend'. . According to another example, when the destination information of the occupant is 'coastal road', since the current time is 'dawn time zone', the processor 120 accelerates the driving mode optimized for the occupant with reference to the table 510. You can decide in mode.
  • An association such as the table 510 may be preset by the occupant.
  • the passenger in advance may input information for setting the table 510 through the input device 260 of the autonomous vehicle 1 in advance.
  • the occupant may preset the table 510 within the mobile device.
  • the interface 110 may then receive the table 510 from the mobile device, and the processor 120 may determine the driving mode corresponding to the passenger's destination using the received table 510.
  • an association relationship such as the table 510 may be learned and determined by a passenger's past driving history.
  • the processor 120 may determine an association, such as the table 510, based on the passenger's past driving history. If the occupant directly determines the driving mode of the autonomous vehicle 1, the processor 120 determines an association relationship such as the table 510 based on the destination of the occupant, the driving time zone, and the determined driving mode. You can update it.
  • FIG. 6 illustrates an example in which the vehicle control apparatus determines a driving mode based on destination information of a passenger.
  • the occupant 610 may speak the destination information as 'company' in the autonomous vehicle 1. Subsequently, the vehicle control apparatus 100 may sense a voice signal of the occupant 610 to obtain destination information as a 'company'.
  • the vehicle control apparatus 100 may determine the driving mode optimized for the occupant 610 as the acceleration driving mode since the current time is the commute time zone based on the 'company', which is the destination information. That is, the vehicle control apparatus 100 determines that the destination information of the occupant 610 is 'company' and the current time is at the commute time, so that the situation of the occupant 610 is 'urgent situation in which traffic congestion is possible'. Can be determined as the acceleration driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 in the determined acceleration driving mode.
  • FIG 7 illustrates an example in which the vehicle controller controls the autonomous vehicle in the acceleration driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 based on the parameter setting menu 710 for the acceleration driving mode.
  • the vehicle control apparatus 100 may provide a menu 710 to a passenger in advance, and receive parameter values of the menu 710 from the passenger. That is, as shown in FIG. 7, the occupant is configured to maximize the amount of opening of the throttle, maximum suspension stiffness, maximum suspension frequency, and lateral force. G-force) to the maximum value, turning speed can be set to the maximum value.
  • G-force G-force
  • the maximum throttle opening can mean more than 70% of the wide-open state
  • the maximum suspension frequency can mean between 1.25 hz and 2.5 hz
  • the maximum lateral force is 0.9 at 0.7 G.
  • the maximum value of the throttle opening amount, the maximum value of the suspension frequency, and the maximum value of the lateral force are not limited to the numerical values described above.
  • the vehicle control apparatus 100 may receive the menu 710 from the passenger's mobile device and control the autonomous vehicle 1 according to the received menu 710.
  • the occupant may input a parameter value for the accelerated driving mode through the menu 710 of the occupant's mobile device.
  • FIG. 8 illustrates a vehicle control apparatus for determining a driving mode based on passenger schedule information.
  • the interface 110 may obtain schedule information of the occupant as context information about the occupant. For example, the interface 110 may obtain the schedule information of the passenger stored in the mobile device of the passenger through the communication device 250. In detail, the interface 110 may obtain information about a destination and a target arrival time of the passenger from among schedule information of the passenger.
  • the processor 120 may determine a driving mode optimized for the occupant based on the acquired schedule information of the occupant. For example, the processor 120 may determine a driving mode optimized for the occupant based on the information on the occupant's destination and the target arrival time of the occupant's schedule information.
  • the processor 120 may determine an estimated arrival time at which the autonomous vehicle 1 arrives at the passenger's destination based on the information on the passenger's destination. Subsequently, the processor 120 may compare the target arrival time and the estimated arrival time of the passenger to determine how much time the passenger has. That is, when the difference between the target arrival time and the scheduled arrival time is shorter than the predetermined time, or when the target arrival scheduled time is after the target arrival time, the processor 120 determines that the passenger lacks the time, and the driving optimized for the passenger The mode can be determined as the acceleration driving mode.
  • the processor 120 determines that the passengers have enough time, and the driving optimized for the passengers.
  • the mode can be determined as the eco driving mode.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • FIG 9 illustrates an example in which the vehicle control apparatus determines a driving mode based on schedule information of a passenger.
  • the vehicle control apparatus 100 may receive schedule information 920 stored in the passenger's mobile device 910 from the mobile device 910. That is, based on the communication between the vehicle control apparatus 100 and the mobile device 910, the vehicle control apparatus 100 may receive the passenger schedule information 920 from the mobile device 910.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant based on the received schedule information 920 of the occupant. More specifically, the vehicle control apparatus 100 may obtain information about 'office A', which is the passenger's destination, and information about '10: 00 ', which is a target arrival time, through the schedule information 920 of the passenger. . Subsequently, the vehicle control apparatus 100 may determine an estimated arrival time for reaching the destination 'A office' based on the current location and the current time. For example, the vehicle control apparatus 100 may determine an estimated arrival time for reaching the destination 'A office' using the navigation 241 of the autonomous vehicle 1.
  • the vehicle control apparatus 100 may compare the determined estimated arrival time with the target arrival time '10: 00 'to determine how much time the passenger has time, and the vehicle control apparatus 100 based on the determination The driving mode optimized for the occupant may be determined.
  • the vehicle control apparatus 100 when the determined estimated arrival time is 09:50, since the difference from the target arrival time '10: 00 'is within a preset time of 20 minutes, the vehicle control apparatus 100 indicates that the passenger lacks time. By determining, the driving mode optimized for the occupant may be determined as the acceleration driving mode. Therefore, the vehicle control apparatus 100 may control the autonomous driving vehicle 1 according to the determined acceleration driving mode. According to another example, when the determined estimated arrival time is 09:20, since the difference from the target arrival time '10: 00 'is 20 minutes or more, which is a preset time, the vehicle control apparatus 100 may allow time for the occupant. Is determined to be sufficient, the driving mode optimized for the occupant can be determined as the eco driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined eco driving mode.
  • FIG. 10 illustrates a vehicle control apparatus for determining a driving mode based on body state information of a passenger.
  • the interface 110 may obtain body state information of the occupant as context information about the occupant.
  • the passenger's physical condition information includes information about the occupant's heart rate, blood pressure, breathing, blood alcohol level, body temperature, blood sugar, as well as whether the occupant is sleeping, the occupant is concentrating, or the occupant's health is critical. Information about whether or not the state is included.
  • the sensing device 230 may sense the physical state information of the occupant and transmit the sensed information to the interface 110.
  • the interface 110 may obtain body state information of the occupant from the communication device 250. That is, the communication device 250 may obtain body state information of the occupant from an external device capable of sensing the body state of the occupant, and transmit the obtained information to the interface 110.
  • the processor 120 may determine a driving mode optimized for the occupant based on the acquired physical condition information of the occupant. As an example, when the physical condition information of the occupant is information indicating the sleep state of the occupant, the processor 120 may determine the calmness driving mode that is optimized for the occupant to minimize the disturbance of the occupant's sleep. have. As another example, when the occupant's physical state information is in a state where the occupant is concentrating, the processor 120 may determine the occupant-optimized driving mode as the calm driving mode in order to remove an obstacle to the occupant's concentration. An example of a state in which the occupant is concentrating may be a case in which the occupant is looking at the tablet PC for a predetermined time or more. As another example, when the physical condition information of the occupant is in an emergency state of the occupant, the processor 120 may determine a mode optimized for the occupant as the emergency driving mode.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • FIG. 11 illustrates an example in which the vehicle control apparatus determines a driving mode based on the sleep state information of the occupant and controls the autonomous driving vehicle according to the determined driving mode.
  • the wearable device 1110 may determine whether the occupant is in the sleep state. For example, the wearable device 1110 may photograph an occupant's eye through a camera, and determine whether the occupant is in a sleeping state by photographing the occupant's eye. In detail, the wearable device 1110 may determine that the occupant is in the sleep state when the occupant's eyes are closed more than a reference ratio compared to the normal state, or when the occupant's eyes are closed for a predetermined time or more. Subsequently, the wearable device 1110 may transmit sleep state information of the occupant to the vehicle control apparatus 100.
  • the vehicle control apparatus 100 may obtain the sleep state information of the occupant from the wearable device 1110 as the body state information of the occupant.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant based on the sleep state information of the occupant. That is, since the vehicle control apparatus 100 is sleeping, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the calm driving mode in order to minimize the disturbance of the occupant's sleep.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined calm driving mode.
  • the vehicle control device 100 may also control the peripheral device 240 of the autonomous vehicle 1.
  • the vehicle control apparatus 100 may adjust the internal lighting 245 to a predetermined brightness.
  • FIG. 12 illustrates an example in which the vehicle control apparatus controls the autonomous vehicle in a calm driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 based on the parameter setting menu 1210 for the calm driving mode.
  • the vehicle control apparatus 100 may provide the passenger with the menu 1210 in advance, and receive parameter values of the menu 1210 from the passenger. That is, as shown in FIG. 12, the occupant has a minimum amount of opening of the throttle, a minimum of suspension stiffness, a minimum of suspension frequency, and a lateral force. G-force) can be set to minimum and turning speed to minimum.
  • the minimum value of the throttle opening may mean less than 30% of the wide-open state
  • the minimum value of the suspension frequency may mean between 1.0 and 1.2 hz
  • the minimum of the lateral force is 0.5 to 0.3 G.
  • the vehicle control apparatus 100 may receive the menu 1210 from the passenger's mobile device, and control the autonomous vehicle 1 according to the received menu 1210.
  • the occupant may input a parameter value for the calm driving mode through the menu 1210 of the occupant's mobile device.
  • the vehicle control apparatus determines the driving mode based on the concentrated state information of the occupant, and controls the autonomous driving vehicle according to the determined driving mode.
  • the occupant 1310 may perform a predetermined task through the tablet PC 1320. That is, the occupant 1310 may concentrate on the tablet PC 1320.
  • the tablet PC 1320 may photograph the eyes of the occupant 1310 through a camera, and may determine whether the occupant 1310 is in a concentrated state by photographing the eyes of the occupant 1310. For example, when the occupant 1310 looks at the tablet PC 1320 for a predetermined time or more, the tablet PC 1320 may determine that the occupant 1310 is in a concentrated state. Subsequently, the tablet PC 1320 may transmit the concentrated state information of the occupant 1310 to the vehicle control apparatus 100.
  • the vehicle control apparatus 100 may obtain the concentrated state information of the occupant from the tablet PC 1320 as the physical state information of the occupant.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant 1310 based on the concentrated state information of the occupant 1310. That is, since the occupant 1310 is concentrating on a predetermined task, the vehicle control apparatus 100 sets the driving mode optimized for the occupant 1310 to the calm driving mode in order to minimize the disturbance of the occupant 1310. You can decide.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined calm driving mode.
  • the vehicle control apparatus determines a driving mode based on emergency state information of a passenger.
  • the wearable device 1420 may periodically detect a health state of the occupant 1410. For example, the wearable device 1420 may periodically detect heart rate, blood pressure, respiration, body temperature, and the like of the occupant 1410 through a sensor. Accordingly, the wearable device 1420 may periodically detect a health state of the occupant 1410 and determine whether the occupant 1410 is in an emergency state. For example, the wearable device 1420 may detect a heart rate of the occupant 1410 to determine whether the occupant 1410 is a heart attack, and the wearable device 1420 may detect a body temperature of the occupant 1410. The occupant 1410 may determine whether there is a high temperature symptom.
  • the wearable device 1420 may determine whether the illness of the occupant 1410 is worsened. When the occupant 1410 is in an emergency state, the wearable device 1420 may transmit emergency state information of the occupant 1410 to the vehicle control apparatus 100.
  • the vehicle control apparatus 100 may obtain emergency state information of the occupant 1410 from the wearable device 1420 as body state information of the occupant 1410.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant 1410 based on the emergency state information of the occupant 1410. That is, since the health of the occupant 1410 is in an emergency state, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant 1410 as the emergency driving mode in order to recover the health of the occupant 1410.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined emergency driving mode. For example, the vehicle control apparatus 100 may control the autonomous vehicle 1 to autonomously travel for the shortest time to the hospital closest to the current location.
  • FIG. 15 illustrates an example of a vehicle control apparatus for determining a driving mode based on identification information of a passenger.
  • the interface 110 may obtain identification information of the passenger as context information about the passenger.
  • the identification information of the occupant may indicate whether the occupant is a 'child' or 'elderly person'.
  • the interface 110 may obtain identification information of the passenger from a device capable of identifying the passenger.
  • the device capable of identifying the occupant may determine whether the occupant is a child according to whether the child is in the child car seat.
  • the device capable of identifying the occupant may identify the occupant's voice to determine whether the occupant is a child or an elderly person.
  • the processor 120 may determine a driving mode optimized for the occupant based on the acquired identification information of the occupant. For example, if the identification information of the occupant is information representing the elderly or the child, the processor 120 may determine the driving mode optimized for the occupant as the calm driving mode to protect the elderly or the child.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • 16 illustrates an example in which the vehicle control apparatus determines a driving mode based on identification information of a passenger.
  • the occupant information detector 1610 may acquire child occupant information when a child rides in the child car seat. Subsequently, the vehicle control apparatus 100 may obtain child occupant information from the occupant information detector 1610.
  • the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the calm driving mode based on the acquired child occupant information. That is, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the calm driving mode to protect the child.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined calm driving mode.
  • 17 illustrates an example of a vehicle control apparatus for determining a driving mode based on location information of an autonomous vehicle.
  • the interface 110 may obtain location information of the autonomous vehicle 1 as the environment information of the autonomous vehicle 1. According to one example, the interface 110 may obtain location information of the autonomous vehicle 1 from the GPS 224 of the autonomous vehicle 1, and according to another example, the interface 110 may be a mobile device of a passenger. The position information of the autonomous vehicle 1 can be obtained from the GPS of the device.
  • the processor 120 may determine the driving mode optimized for the occupant based on the acquired position information of the autonomous vehicle 1. According to an example, when the location information of the autonomous vehicle 1 indicates the 'highway', the processor 120 may determine the driving mode optimized for the occupant as the acceleration driving mode. According to another example, when the location information of the autonomous vehicle 1 indicates 'in the city', the processor 120 may determine the driving mode optimized for the occupant as the eco driving mode. According to another example, when the location information of the autonomous vehicle 1 indicates 'around the landmark', the processor 120 may determine the speed limit mode as the driving mode optimized for the occupant.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • the vehicle control apparatus determines a driving mode based on the highway position information, and controls the autonomous driving vehicle according to the determined driving mode.
  • the GPS 224 of the autonomous vehicle 1 may obtain current location information of the autonomous vehicle 1. Subsequently, the vehicle control apparatus 100 may obtain current location information of the autonomous vehicle 1 from the GPS 224.
  • the vehicle control apparatus 100 may recognize that the current location is 'highway' based on the current location information. Therefore, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on the current position 'highway'. That is, since the autonomous vehicle 1 is suitable for the high speed driving mode on the highway, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the high speed driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined calm driving mode.
  • 19 illustrates an example in which the vehicle control apparatus determines a driving mode based on location information in a city center, and controls the autonomous driving vehicle in the determined driving mode.
  • the occupant's mobile device 1910 may obtain current location information of the autonomous vehicle 1 using the GPS in the mobile device 1910. Subsequently, the vehicle control apparatus 100 may obtain current location information of the autonomous vehicle 1 from the mobile device 1910.
  • the vehicle control apparatus 100 may recognize that the current position of the autonomous vehicle 1 is within a city center based on the current position information. Therefore, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on the current position 'in the city'. That is, since the autonomous vehicle 1 stops a lot in the city, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the eco driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined eco driving mode.
  • FIG 20 illustrates an example in which the vehicle controller controls the autonomous vehicle in the eco driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 based on the parameter setting menu 2010 for the eco driving mode.
  • the vehicle control apparatus 100 may provide a menu 2010 to a passenger in advance, and receive parameter values of the menu 2010 from the passenger. That is, as shown in FIG. 20, the occupant may set the opening amount of the throttle to the minimum value and the acceleration value to the minimum value.
  • the vehicle control apparatus 100 may receive the menu 2010 from the passenger's mobile device, and control the autonomous vehicle 1 according to the received menu 2010.
  • the occupant may input a parameter value for the eco driving mode through the menu 2010 of the occupant's mobile device.
  • FIG. 21 illustrates an example in which the vehicle control apparatus determines a driving mode based on landmark position information and controls the autonomous driving vehicle in the determined driving mode.
  • the GPS 224 of the autonomous vehicle 1 may obtain current location information of the current autonomous vehicle 1. Subsequently, the vehicle control apparatus 100 may obtain current location information of the autonomous vehicle 1 from the GPS 224.
  • the vehicle control apparatus 100 may recognize that the current position of the autonomous vehicle 1 is around a specific landmark 2110 based on the obtained current position information. For example, when the current location is within a predetermined distance of the specific landmark 2110, the vehicle control apparatus 100 may recognize that the current location is around the specific landmark 2110.
  • the vehicle control apparatus 100 may store location information of the specific landmark 2110.
  • the vehicle control apparatus 100 may store location information about landmarks that the occupant wants to visit in advance. Therefore, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on the current position around the specific landmark 2110. That is, when there is a landmark in the vicinity, the vehicle control apparatus 100 may determine the speed limit mode as a driving mode optimized for the occupant so that the occupant may easily view the landmark.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined speed limit mode.
  • 22 illustrates an example of a vehicle control apparatus for determining a driving mode based on traffic information.
  • the interface 110 may obtain traffic information as surrounding environment information of the autonomous vehicle 1.
  • the interface 110 may acquire traffic information around the autonomous vehicle 1 based on the location information of the autonomous vehicle 1.
  • the traffic information around the autonomous vehicle 1 is not only information about the speed, position, etc. of the vehicle in front of the autonomous vehicle 1, but also information on whether the road on which the autonomous vehicle 10 is running is congested. It includes.
  • the interface 110 may obtain traffic information around the autonomous vehicle 1 from an external traffic management system.
  • the communication device 250 may obtain traffic information around the autonomous vehicle 1 from an external traffic management system and transmit the obtained information to the interface 110.
  • the sensing device 230 may sense the speed of the vehicle in front of the autonomous vehicle 1 and transmit the sensed information to the interface 110.
  • the RADAR unit 226 of FIG. 2 may continue to sense the speed of the vehicle in front of the autonomous vehicle 1, and the RADAR unit 226 may provide information about the sensed speed to the interface 110. Can transmit Subsequently, the processor 120 may recognize traffic congestion when the speed of the front vehicle is maintained for a predetermined time or less based on the information on the speed transmitted to the interface 110.
  • the processor 120 may determine a driving mode optimized for the occupant based on the obtained traffic information. As an example, when the obtained traffic information is information indicating traffic congestion, since the autonomous vehicle 1 stops a lot, the processor 120 may determine the driving mode optimized for the passenger as the eco driving mode. have. As another example, when the obtained traffic information is information indicating that the traffic is smooth, the autonomous vehicle 1 may determine the driving mode optimized for the occupant as the acceleration driving mode.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • the processor 120 may provide the occupant to the passenger through the output device 280 of FIG. 2, based on the traffic information acquired by the interface 110, that there will be a traffic congestion after a predetermined time. For example, the processor 120 may inform the occupant by a voice signal through the output device 280 that there will be a traffic jam after 15 seconds. In addition, since the traffic is congested after a predetermined time, the processor 120 may provide the passenger with information indicating that the current driving mode is stopped through the output device 280.
  • the vehicle control apparatus determines a driving mode based on the traffic information, and controls the autonomous driving vehicle according to the determined driving mode.
  • the vehicle control apparatus 100 may obtain traffic information around the vehicle control apparatus 100 from an external traffic information management system 2310. That is, the vehicle control device 100 may establish communication with the external traffic information management system 2310 to obtain traffic information around the vehicle control device 100 from the external traffic information management system 2310.
  • the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on the obtained traffic information. That is, since the traffic information is information representing the traffic congestion, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the eco driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined driving mode.
  • GUI graphical user interface
  • the vehicle control apparatus 100 may provide a GUI 2410 to the occupant when traffic congestion approaches. That is, when the autonomous vehicle 1 reaches a traffic congestion situation after 15 seconds, the vehicle control apparatus 100 may provide the GUI 2410 to the occupant.
  • the vehicle control apparatus 100 may control the autonomous driving vehicle 1 in a preset driving mode. For example, the vehicle control apparatus 100 may change the driving mode of the autonomous vehicle 1 to the eco driving mode according to the traffic jam information.
  • the vehicle control apparatus 100 may determine another driving route without traffic congestion, and drive the autonomous vehicle 1 in another driving route. Can be controlled.
  • the vehicle control apparatus 100 may transmit a preset message or voice to a preset person. I can deliver it. For example, when the passenger selects 'Send a text' in the GUI 2410, the vehicle control apparatus 100 may transmit a message including the arrival time of the passenger to the person who is scheduled to meet.
  • 25 illustrates an example of a vehicle control apparatus for determining a driving mode based on weather information.
  • the interface 110 may obtain weather information as surrounding environment information of the autonomous vehicle 1.
  • the interface 110 may obtain weather information around the autonomous vehicle 1 from an external weather information management system.
  • the sensing device 230 may sense a surrounding road condition through a tire of the autonomous vehicle 1, and the processor 120 may detect the autonomous driving vehicle 1 based on the sensed surrounding road condition. ) May generate weather information around the interface, and the interface 110 may obtain weather information from the processor 120.
  • the processor 120 may recognize that the surrounding road condition is a rainy state, based on the information on the frictional force of the tire ground surface of the autonomous vehicle 1 sensed by the sensing device 230. It can generate weather information that it is raining.
  • the interface 110 may then obtain weather information that it is raining from the processor 120.
  • the processor 120 may determine a driving mode optimized for the occupant based on the acquired weather information. For example, if the acquired weather information is information indicating that rain or snow is falling around the autonomous vehicle 1, for the safety of the occupant, the processor 120 may select the driving mode optimized for the occupant, the calm driving mode and the speed. You can decide to limit mode.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • FIG. 26 illustrates an example in which the vehicle control apparatus determines a driving mode based on weather information and controls the autonomous driving vehicle according to the determined driving mode.
  • the vehicle control apparatus 100 may obtain traffic information around the vehicle control apparatus 100 from an external weather information management system 2510. That is, the vehicle control apparatus 100 may establish communication with the external weather information management system 2510 to obtain weather information around the vehicle control apparatus 100 from the external weather information management system 2510.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant based on the acquired weather information. That is, since the weather information is raining information, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the speed limit mode and the calm driving mode.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined driving mode.
  • FIG. 27 illustrates an example of a vehicle control apparatus for determining a driving mode based on road state information.
  • the interface 110 may obtain road state information as surrounding environment information of the autonomous vehicle 1. That is, the interface 110 may obtain road state information around the autonomous vehicle 1. For example, the interface 110 may obtain road state information from a device capable of sensing road state. In detail, the sensing device 230 may acquire road state information based on a vibration signal transmitted through the tire of the autonomous vehicle 1, and the interface 110 may acquire the road state obtained from the sensing device 230. You can get information.
  • the processor 120 may determine a driving mode optimized for the occupant based on the obtained road condition information. For example, when the obtained road condition information is information of mountainous terrain with a lot of gravel / sand, the processor 120 may optimize the passenger's driving mode in order to minimize the safety of the passenger and the vibration of the autonomous vehicle 1. To determine the terrain mode suitable for mountainous terrain.
  • the processor 120 may control the autonomous vehicle 1 according to the determined driving mode.
  • the interface 110 may obtain information about the dangerous road.
  • the interface 110 may receive information about a dangerous road from an external traffic management system.
  • the processor 120 may determine whether the autonomous vehicle 1 is near a dangerous road based on the current location information. For example, the processor 120 may determine whether the autonomous vehicle 1 reaches the dangerous road after 15 seconds. When the autonomous vehicle 1 reaches the dangerous road, the processor 120 may control the autonomous vehicle 1 according to the degree of danger of the dangerous road. That is, the processor 120 may reduce the acceleration of the autonomous vehicle 1 and control the vehicle to run smoother according to the danger of the dangerous road. For example, if the risk of the dangerous road is low, the processor 120 may decrease the value of the throttle opening amount or the lateral force by 5% according to the preset driving mode.
  • the vehicle control apparatus determines a driving mode based on road state information and controls the autonomous driving apparatus according to the determined driving mode.
  • the road state sensing unit 2810 may sense a vibration signal transmitted through the tire of the autonomous vehicle 1, and the vehicle control apparatus 100 may determine that the road state is a mountainous terrain state based on the sensed vibration signal. Information can be obtained.
  • the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on the obtained road state information. That is, since the road state information is mountainous terrain, in order to minimize the safety of the occupants and the vibration of the autonomous vehicle 1, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the terrain mode suitable for the mountainous terrain. have.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the determined terrain mode. For example, the vehicle control apparatus 100 may raise the suspension of the autonomous vehicle 1 and may switch to four-wheel drive to distribute the driving force at a ratio of 1: 1 to the front wheel and the rear wheel.
  • 29 illustrates an example in which the vehicle control apparatus provides a GUI associated with a dangerous road.
  • the vehicle control apparatus 100 may provide a GUI 2910 to the occupant when the dangerous road approaches. That is, when the autonomous vehicle 1 reaches the dangerous road after 15 seconds, the vehicle control apparatus 100 may provide the GUI 2910 to the occupant.
  • the items 'High', 'Medium', and 'Low' shown in the GUI 2910 indicate how dangerous the roads to reach are.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 in a preset driving mode. For example, the vehicle control apparatus 100 may partially adjust a parameter value corresponding to the preset driving mode according to the danger of the dangerous road.
  • the vehicle control apparatus 100 may determine another driving route without a dangerous road, and drive the autonomous vehicle 1 in another driving route. Can be controlled.
  • the vehicle control apparatus 100 may transmit a preset message or voice to a preset person. I can deliver it.
  • the vehicle control apparatus 100 may transmit a message including the estimated arrival time of the occupant to the person who is supposed to meet on a schedule.
  • the vehicle control apparatus 100 may obtain information 3010 about the dangerous road.
  • the vehicle control apparatus 100 may obtain information 3010 on the dangerous road from the external traffic management system. As shown in FIG. 30, the vehicle control apparatus 100 includes the starting position information 'Mile 52' and '44 .0N: -72.6E 'of the dangerous road' Interstate 89 'and the ending position information' Mile 69 'and' 44.3: -72.7E '.
  • the vehicle control apparatus 100 may obtain information that the risk of the dangerous road 'Interstate 89' is 'Low'.
  • the degree of danger among the information about the dangerous road 3010 may be set based on the number of accidents occurring on the dangerous road.
  • the risk of that dangerous road may be low, and on average the accident rate on the road. For example, if the accident rate on the dangerous road is 25% or higher, the risk of the dangerous road may be high.
  • 31 illustrates an example in which the vehicle control device controls the autonomous vehicle according to the degree of danger of the dangerous road.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 based on the table 3110. That is, when driving on a dangerous road with a low risk, the vehicle control apparatus 100 may reduce the maximum throttle opening amount, which is a driving parameter corresponding to the preset driving mode, by 5%, and decrease the maximum lateral force value by 5%. You can. Similarly, when driving on a dangerous road having a medium risk, the vehicle control apparatus 100 may reduce the maximum throttle opening amount, which is a driving parameter corresponding to the preset driving mode, by 10%, and decrease the maximum lateral force value by 10%. You can.
  • the interface 110 may obtain at least one of other context information and other surrounding environment information in addition to the previously obtained context information or surrounding environment information.
  • the interface 110 may obtain at least one of other context information and other surrounding environment information.
  • the interface 110 may obtain traffic congestion information as other surrounding environment information.
  • the processor 120 may change the driving mode optimized for the occupant based on at least one of other context information and other surrounding environment information. That is, while the autonomous vehicle 1 is driving in the preset driving mode, as other context information or other surrounding environment information is generated, the processor 120 may change the driving mode optimized for the occupant. For example, based on the traffic congestion information acquired by the interface 110 while the autonomous vehicle 1 is driving in the high speed driving mode, the processor 120 may echo the driving mode optimized for the passenger in the high speed driving mode. You can change the mode.
  • the processor 120 may control the autonomous vehicle 1 based on the changed driving mode.
  • 32 illustrates an example in which the vehicle controller changes the driving mode based on other surrounding environment information.
  • the vehicle control apparatus 100 may determine the driving mode as the acceleration driving mode based on the positional information indicating the high speed road, and the autonomous vehicle 1 may run in the acceleration driving mode under the control of the vehicle control apparatus 100. Can be.
  • the vehicle control apparatus 100 may acquire position information that is around the landmark 3210. That is, the vehicle control apparatus 100 may obtain current position information from the GPS 224, and the vehicle control apparatus 100 may land the current position of the autonomous vehicle 1 based on the obtained current position information. It may be recognized that the mark 2110 is around. Therefore, the vehicle control apparatus 100 may change the driving mode optimized for the occupant from the accelerated driving mode to the limited speed mode based on the positional information of the vicinity of the landmark 2110.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 in accordance with the changed speed limit mode.
  • 33 illustrates an example in which the vehicle control apparatus changes the driving mode based on other context information.
  • the vehicle control apparatus 100 may determine the driving mode as the acceleration driving mode based on the positional information indicating the high speed road, and the autonomous vehicle 1 may run in the acceleration driving mode under the control of the vehicle control apparatus 100. Can be.
  • the vehicle control apparatus 100 may obtain the sleep state information of the occupant. That is, the vehicle control apparatus 100 may obtain the sleep state information of the occupant from the device 3310 capable of sensing the physical state of the occupant. Therefore, the vehicle control apparatus 100 may change the driving mode optimized for the occupant from the acceleration driving mode to the calm driving mode based on the sleep state information of the occupant.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 in accordance with the changed calm driving mode.
  • the interface 110 may obtain at least two different information included in the context information and the surrounding environment information.
  • the interface 110 may obtain information that the current location is a highway and traffic jam information around the autonomous vehicle 1.
  • the interface 110 may obtain schedule information, traffic smoothness information, and passenger identification information of the passenger.
  • the processor 120 may determine a driving mode optimized for the occupant based on at least two different pieces of information obtained and preset priority. That is, the processor 120 may determine any one of at least two different pieces of information obtained in consideration of a preset priority, and determine a driving mode optimized for the occupant based on the determination result. For example, assuming that the information acquired by the interface 110 is high speed road location information and surrounding traffic congestion information, and at a preset priority, the surrounding traffic congestion information has priority over the high speed road location information, the processor 120 may determine the surroundings. According to the traffic jam information, the driving mode optimized for the occupant may be determined as the eco driving mode.
  • the processor 120 may determine that the eco-driving mode based on the surrounding traffic congestion information is a driving mode optimized for the occupant rather than the acceleration driving mode based on the high speed road location information.
  • the priority of the context information and the surrounding environment information may be preset by the occupant.
  • the vehicle control apparatus 100 may provide a priority setting menu 3410 to a passenger.
  • the vehicle control apparatus 100 may display a priority setting menu on the screen through the output device 280.
  • the occupant may set a priority between context information and surrounding environment information through the priority setting menu 3410.
  • the occupant may set emergency state information among physical state information as first rank information, and the vehicle control apparatus 100 may obtain emergency state information among various acquired context information and surrounding environment information.
  • the emergency driving mode may be determined as the driving mode optimized for the occupant.
  • the occupant's mobile device may provide a priority setting menu 3410 to the occupant. That is, the passenger may set the priority between the context information and the surrounding environment information through the priority setting menu 3410 provided by the mobile device, and the vehicle control apparatus 100 may obtain information about the priority from the passenger's mobile device. Can be obtained.
  • FIG. 35 illustrates an example in which the vehicle control apparatus determines a driving mode optimized for a passenger based on priorities among acquired context information and surrounding environment information.
  • the vehicle control apparatus 100 may acquire the sleep state information as the body state information of the occupant and the landmark surrounding information as the surrounding environment information. For example, the vehicle control apparatus 100 may obtain sleep state information from the device 3510 capable of sensing the physical state of the occupant, and the vehicle control apparatus 100 may obtain the current position obtained from the GPS 224. The landmark may acquire the surrounding information based on the information.
  • the vehicle control apparatus 100 may preferentially set sleep state information among sleep state information and landmark surrounding information acquired based on the priority setting menu 3410 of FIG. 31. Therefore, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the calm driving mode based on the sleep state information.
  • the vehicle control device 100 may control the autonomous vehicle 1 based on the calm driving mode.
  • 36 is a diagram for describing an example of a vehicle control apparatus communicating with a mobile device.
  • the vehicle control apparatus 100 may interwork with the mobile device 3610 through a communication such as the Internet or Bluetooth.
  • the mobile device 3610 may be the device of the occupant in the autonomous vehicle 1.
  • the mobile device 3610 may include a communication interface 3611, a touch screen 3612, a power supply 3613, and a memory 3614.
  • the memory 3614 may include driving information for setting a driving mode and driving parameters of the autonomous vehicle 1.
  • the occupant's mobile device 3610 may provide the occupant with driving information 3710 that sets the driving parameter of the autonomous vehicle 1. That is, the occupant may adjust driving parameters of the autonomous vehicle 1 through the driving information 3710 provided from the mobile device 3610. For example, the occupant's mobile device may provide driving information 3710 to the occupant via the touch screen.
  • FIG. 37 illustrates driving information 3710 for setting parameters related to a maximum throttle opening, a maximum G-force limit, and a suspension frequency, according to an example.
  • the default limit setting may set the maximum throttle opening amount to 70%, the maximum horizontal force to 0.7g, the suspension frequency to 1.25 Hz, and the maximum limit setting (Maximum). Limit Throttle), the maximum throttle opening amount is 100%, the maximum lateral force is 0.9g, the suspension frequency is 2.00Hz, the minimum throttle opening amount is 50%, the maximum lateral force is 0.5%. g, the suspension frequency may be set to 1.00 Hz. Each of the above values can be changed by the occupant.
  • the occupant may determine whether to set each of the maximum throttle opening amount, the maximum lateral force, and the suspension frequency to a maximum limit setting, a minimum limit setting, or a default limit setting. For example, as shown in FIG. 37, the occupant may set each of the maximum throttle opening amount, maximum lateral force, and suspension frequency to the maximum limit setting.
  • the occupant may set a driving parameter corresponding to the driving mode through the driving information 3710. That is, in the acceleration driving mode, the occupant may set the maximum throttle opening amount, the maximum lateral force, and the suspension frequency to the maximum limit setting. Similarly, each of the quiet driving mode and the normal driving mode may also be set as the driving information 3710.
  • the vehicle control apparatus 100 receives the parameter information set in the driving information 3710 from the passenger's mobile device 3610, and based on the driving information 3710.
  • the autonomous vehicle 1 can be controlled.
  • the vehicle control apparatus 100 of FIG. 36 may include a driving profile for controlling the autonomous vehicle 1.
  • the driving profile can be set by the occupant and stored on the occupant's mobile device.
  • the driving profile may include thresholds of driving parameters such as acceleration, brake force, suspension.
  • the threshold value of the driving parameter may be set so as not to exceed the safety limit.
  • the safety limit may be set in consideration of road conditions, traffic regulations, proximity to other vehicles on the road, technical capability of the autonomous vehicle 1, and the like.
  • the driving profile can be updated by the occupant and can also be updated when the autonomous vehicle 1 is driving.
  • the driving profile may be downloaded from the occupant's mobile device 3610 to the vehicle control device 100.
  • the communication between the mobile device 3610 and the vehicle control device 100 may be formed by a near field communication technology such as NFC or Bluetooth.
  • the vehicle control apparatus 100 may use a wireless communication method such as Wi-Fi or cellular.
  • the vehicle control apparatus 100 may access a road history network through the Internet and collect information.
  • the road history network can provide information on the risks associated with a particular road, and the road history network can be provided from an external traffic management system.
  • the driving profile can be adjusted based on the information provided in the road history network.
  • the vehicle control apparatus 100 may provide a driver with a driving profile 3810 that sets driving parameters. That is, the occupant may adjust driving parameters of the autonomous vehicle 1 through the driving profile 3810 provided from the vehicle control apparatus 100.
  • the maximum throttle opening, the maximum lateral force, the suspension frequency, the tire pressure, and the ride height are set for setting parameters related to.
  • the default limit setting is 70% maximum throttle opening, 0.7 g maximum lateral force, 1.25 Hz suspension frequency, 32 psi tire pressure, and 7 inch ride height.
  • the maximum limit setting and the minimum limit setting may also be set as shown in FIG. 38.
  • the occupant may determine whether to set each of the maximum throttle opening amount, the maximum lateral force, and the suspension frequency to a maximum limit setting, a minimum limit setting, or a default limit setting. For example, as shown in FIG. 38, the occupant may set the maximum throttle opening amount, the maximum lateral force, and the suspension frequency respectively to the maximum limit setting.
  • 39 shows an example of a menu for setting a driving mode.
  • the vehicle control apparatus 100 may provide a menu 3910 for setting a driving mode to the occupant. That is, the occupant may set parameters of each driving mode through the menu 3910 provided by the vehicle control apparatus 100. For example, when the occupant selects the 'parameter setting' menu of the acceleration driving mode, the vehicle control apparatus 100 may additionally provide the passenger with a menu for setting parameter values for the acceleration driving mode. In addition, when the occupant selects the "default" menu of the acceleration driving mode, the vehicle control apparatus 100 may set a parameter value for the acceleration driving mode according to a preset setting.
  • the occupant may add a new driving mode through the menu 3910.
  • the occupant may set driving parameters for the new driving mode through the menu 3910 and set context information or surrounding environment information requiring the new driving mode. For example, if the passenger wants the autonomous vehicle 1 to travel at a preset speed at night or at dawn, the passenger may add a new dawn driving mode. Therefore, when the current time is night or dawn time, the vehicle control apparatus 100 may determine the driving mode optimized for the occupant as the dawn driving mode, and the speed at which the autonomous vehicle 1 is preset based on the determined dawn driving mode. It can be controlled to drive while maintaining.
  • FIG. 40 illustrates an example of a menu for selecting a passenger from among a plurality of passengers in the autonomous vehicle.
  • the vehicle control apparatus 100 may provide a passenger with a menu 4010 for selecting which passenger to determine the driving mode based on. have. That is, since the optimized driving mode may be different for each of the plurality of passengers, the vehicle control apparatus 100 may determine the driving mode based on the passenger selected through the menu 4010.
  • the vehicle control apparatus 100 may detect mobile devices of each of the plurality of passengers in the autonomous vehicle 1 to recognize the presence of the plurality of passengers in the autonomous vehicle 1. Accordingly, the vehicle control apparatus 100 includes a plurality of passengers 'User 1', 'User 2', 'User 3'. The passenger may be provided with a menu 4010 inquiring to select a specific passenger's mobile device. Therefore, the vehicle control apparatus 100 may determine the driving mode based on the mobile device of the specific occupant selected through the menu 4010.
  • 41 shows an example of a method of controlling an autonomous vehicle.
  • FIG. 41 Since the method illustrated in FIG. 41 may be performed by the vehicle control apparatus 100 of FIGS. 3 to 40, redundant descriptions thereof will be omitted.
  • the vehicle control apparatus 100 may obtain driving context information.
  • the driving context information may refer to user environment information describing a situation in which the user of the autonomous vehicle 1 is in the bar, and the vehicle control apparatus 100 may obtain user environment information.
  • the driving context information may include at least one of context information about the occupant and surrounding environment information of the autonomous vehicle 1, and the vehicle control apparatus 100 may include context information about the occupant in the autonomous vehicle 1 and At least one piece of information about the surrounding environment of the autonomous vehicle 1 may be obtained.
  • the context information may include at least one of destination information of the passenger, schedule information of the passenger, physical condition information of the passenger, or identification information of the passenger.
  • the surrounding environment information may include at least one of weather information, traffic information, road condition information, or location information of the autonomous vehicle 1 around the autonomous vehicle 1.
  • the vehicle control apparatus 100 may obtain at least one of other context information and other surrounding environment information in addition to the previously obtained context information or surrounding environment information. According to an example, while the autonomous vehicle 1 is driving in a preset driving mode, the vehicle control apparatus 100 may obtain at least one of other context information and other surrounding environment information.
  • the vehicle control apparatus 100 may obtain at least two different pieces of information included in the context information and the surrounding environment information.
  • the vehicle control apparatus 100 may obtain information that the current location is a highway and traffic jam information around the autonomous vehicle 1.
  • the vehicle control apparatus 100 may determine a driving mode optimized for the occupant based on the information obtained in operation S4110. That is, the vehicle control apparatus 100 may determine the situation in which the occupant is faced without the intervention of the occupant based on at least one of context information and surrounding environment information about the occupant, and determine a driving mode suitable for the determined situation. Can be.
  • the driving mode includes an acceleration driving mode for increasing the acceleration performance of the autonomous driving vehicle 1, an eco driving mode for saving fuel efficiency of the autonomous driving vehicle 1, and for minimizing vibration and acceleration of the autonomous driving vehicle 1.
  • the vehicle may include a quiet driving mode, a speed limit mode for driving below a certain speed, a terrain mode optimized for a predetermined terrain, and an emergency driving mode for an emergency of a passenger.
  • the driving mode optimized for the occupant may be changed based on at least one of other context information and other surrounding environment information in addition to the context information or surrounding environment information. That is, while the autonomous vehicle 1 is driving in the preset driving mode, as the other context information or other surrounding environment information is generated, the vehicle control apparatus 100 may change the driving mode optimized for the occupant.
  • the vehicle control apparatus 100 may determine the driving mode optimized for the occupant based on at least two different pieces of information and preset priorities obtained. That is, the vehicle control apparatus 100 may determine specific information among two types of information obtained in consideration of a preset priority, and determine a driving mode optimized for a passenger based on the determined specific information. For example, when the information obtained by the vehicle control apparatus 100 is the high speed road location information and the surrounding traffic congestion information, since the surrounding traffic congestion information has priority over the high speed road location information at the preset priority, the vehicle control device 100 ) May determine the driving mode optimized for the occupant as the eco driving mode according to the surrounding traffic congestion information. That is, the vehicle control apparatus 100 may determine that the eco driving mode based on the surrounding traffic congestion information is a driving mode optimized for the occupant rather than the acceleration driving mode based on the high speed road position information.
  • the vehicle control apparatus 100 may determine the driving style based on the user environment information acquired in s4110.
  • the vehicle control apparatus 100 may control the autonomous vehicle 1 according to the driving mode determined in operation S4120. For example, the vehicle control apparatus 100 may adjust the driving parameter according to the determined driving mode. In addition, the vehicle control apparatus 100 may control the propulsion device or the peripheral device of the autonomous vehicle 1 according to the determined driving mode.
  • the vehicle control apparatus 100 may provide the user with the driving mode determined in s4120 and control the autonomous driving vehicle 1 according to the driving mode selected in s4130 when a selection of the driving mode is input from the occupant. have.
  • the vehicle control apparatus 100 may present one driving mode to the occupant, or may present a plurality of driving modes.
  • priority information may be provided with respect to each driving mode in an order suitable for the current situation, or information about the driving mode having the highest priority may be provided together.
  • the occupant may accept the presented driving mode or request another driving mode.
  • the occupant may select one of the presented driving modes or request another driving mode.
  • the vehicle control apparatus 100 may provide the user with the driving mode determined in s4120, and if the driver does not select the driving mode from the occupant for a predetermined time, the autonomous driving vehicle 1 according to the driving mode determined in s4130. You can also control. If a plurality of driving modes are presented, if there is no driving mode selection for a predetermined time from the occupant, the vehicle control apparatus 100 may control the autonomous driving vehicle 1 in the driving mode having the highest priority.
  • the vehicle control apparatus 100 may present the driving mode to the user through an output device such as a speaker or a display, and receive a driving mode selection or another driving mode request from the user through the input device 260.
  • the embodiments described so far may be applied to manual driving vehicles as well as autonomous driving vehicles.
  • the vehicle control apparatus 100 may drive driving parameters such as suspension and brake sensitivity according to the determined driving mode even when the passenger manually drives the vehicle. Can be set or changed. In this case, the occupant becomes a driver, and the driver may feel a different ride or driving feeling depending on the driving mode.
  • the device includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like.
  • a computer readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
  • the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the medium is readable by the computer, stored in the memory, and can be executed by the processor.
  • This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions.
  • an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them.
  • the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like.
  • the functional aspects may be implemented with an algorithm running on one or more processors.
  • the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as “mechanism”, “element”, “means” and “configuration” can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정하고, 상기 결정된 주행 모드에 따라, 자율 주행 차량을 제어하는 장치 및 방법을 나타낸다.

Description

[규칙 제26조에 의한 보정 24.08.2016] 자율 주행 차량을 제어하는 장치 및 방법
본 개시는 자율 주행 차량을 제어하는 장치 및 방법에 관한 것이다.
최근 자율 주행 차량에 대한 관심이 높아지고 있다. 특히 자동차 수요증가에 따른 교통혼잡을 해소함과 아울러 사람이나 다른 차량 등의 장애물을 안전하게 회피하기 위해, 자율 주행과 관련된 다양한 부가 기능이 지속적으로 개발되고 있다. 예를 들면, 차선 유지 시스템과 관련된 수 많은 알고리즘이 존재한다.
또한 인터넷 연결성이 확대되면서, 각종 디바이스나 자동차로부터 생성되는 데이터 양이 급증하고 있어 이를 이용한 다양한 서비스가 등장하고 있다.
따라서 각종 데이터를 이용하여 탑승자에게 친숙한 자율 주행 경험을 제공할 수 있는 방법 및 자율 주행 차량이 요구되고 있다.
자율 주행 차량을 제어하는 장치 및 방법을 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
일 측면에 따라, 자율 주행 차량(autonomous vehicle)을 제어하는 장치는, 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 인터페이스; 획득된 적어도 하나의 정보에 기초하여 탑승자에 최적화된 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 프로세서;를 포함할 수 있다.
다른 측면에 따라, 자율 주행 차량(autonomous vehicle)을 제어하는 방법은, 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 단계; 획득된 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정하는 단계; 및 결정된 주행 모드에 따라, 자율 주행 차량을 제어하는 단계;를 포함할 수 있다.
또 다른 측면에 따라, 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.
또 다른 측면에 따라, 자율 주행 차량을 제어하는 방법은, 사용자 환경 정보를 획득하는 단계; 사용자 환경 정보에 기반하여 주행 스타일을 결정하는 단계; 및 주행 스타일에 따라서 차량의 주행 파라미터를 설정하는 단계를 포함할 수 있다.
본 실시예에 따르면, 자율 주행 차량의 탑승자가 처한 상황에 적합한 주행 모드를 제공하는 바, 탑승자 친화적인 주행 환경을 제공한다.
도 1은 자율 주행 차량(autonomous vehicle)에 대한 일 예를 나타낸다.
도 2는 자율 주행 차량을 설명하기 위한 도면이다.
도 3은 자율 주행 차량을 제어하기 위한 차량 제어 장치를 설명하기 위한 도면이다.
도 4는 탑승자의 목적지 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
도 5는 탑승자의 목적지 정보와 주행 모드 간의 연관 관계의 일 예를 나타낸다.
도 6은 차량 제어 장치가 탑승자의 목적지 정보에 기초하여, 주행 모드를 결정하는 일 예를 나타낸다.
도 7은 차량 제어 장치가 가속 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 8은 탑승자의 스케줄 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
도 9는 차량 제어 장치가 탑승자의 스케줄 정보에 기초하여 주행 모드를 결정하는 예를 나타낸다.
도 10은 탑승자의 신체 상태 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
도 11은 차량 제어 장치가 탑승자의 수면 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 12는 차량 제어 장치가 평온 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 13은 차량 제어 장치가 탑승자의 집중 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 14는 차량 제어 장치가 탑승자의 위급 상태 정보에 기초하여 주행 모드를 결정하는 일 예를 나타낸다.
도 15는 탑승자의 식별 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
도 16은 차량 제어 장치가 탑승자의 식별 정보에 기초하여 주행 모드를 결정하는 일 예를 나타낸다.
도 17은 자율 주행 차량의 위치 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
도 18은 차량 제어 장치가 고속 도로 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 19는 차량 제어 장치가 도심 내 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 20은 차량 제어 장치가 에코 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 21은 차량 제어 장치가 랜드마크 주변 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 22는 교통 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
도 23은 차량 제어 장치가 교통 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 실시예를 나타낸다.
도 24는 차량 제어 장치가 교통 정체와 관련된 GUI(Graphical User Interface)를 제공하는 일 예를 나타낸다.
도 25는 날씨 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
도 26은 차량 제어 장치가 날씨 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 실시예를 나타낸다.
도 27은 도로 상태 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
도 28은 차량 제어 장치가 도로 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 장치를 제어하는 일 예를 나타낸다.
도 29는 차량 제어 장치가 위험 도로와 관련된 GUI를 제공하는 일 예를 나타낸다.
도 30은 위험 도로에 대한 정보의 일 예를 나타낸다.
도 31는 차량 제어 장치가 위험 도로의 위험도에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
도 32는 차량 제어 장치가 다른 주변 환경 정보에 기초하여 주행 모드를 변경하는 일 예를 나타낸다.
도 33은 차량 제어 장치가 다른 컨텍스트 정보에 기초하여 주행 모드를 변경하는 일 예를 나타낸다.
도 34는 우선 순위 설정 메뉴에 대한 일 예를 나타낸다.
도 35는 차량 제어 장치가 획득된 컨텍스트 정보 및 주변 환경 정보 중 우선 순위에 기초하여, 탑승자에 최적화된 주행 모드를 결정하는 일 예를 나타낸다.
도 36은 모바일 디바이스와 통신하는 차량 제어 장치의 일 예를 설명하기 위한 도면이다.
도 37은 모바일 디바이스에서 설정 가능한 주행 정보의 일 예를 나타낸다.
도 38은 차량 제어 장치에서 제공하는 드라이빙 프로파일의 예를 나타낸다.
도 39는 주행 모드를 설정하는 메뉴의 일 예를 나타낸다.
도 40은 자율 주행 차량 내의 복수의 탑승자들 중 탑승자를 선택하는 메뉴의 일 예를 나타낸다.
도 41은 자율 주행 차량을 제어하는 방법의 일 예를 나타낸다.
일 측면에 따라, 자율 주행 차량(autonomous vehicle)을 제어하는 장치는, 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 인터페이스; 획득된 적어도 하나의 정보에 기초하여 탑승자에 최적화된 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 프로세서;를 포함할 수 있다.
또한, 인터페이스는, 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득하고, 프로세서는, 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 주행 모드를 변경할 수 있다.
또한, 인터페이스는, 컨텍스트 정보 및 주변 환경 정보에 포함된 적어도 2이상의 서로 다른 정보를 획득하고, 프로세서는, 기 설정된 우선 순위, 및 획득된 적어도 2이상의 서로 다른 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다.
또한, 프로세서는, 획득 가능한 컨텍스트 정보, 및 자율 주행 차량에 적용 가능한 주행 모드 간의 연관 관계에 기초하여, 획득된 적어도 하나의 정보에 대응되는 주행 모드를 결정할 수 있다.
또한, 연관 관계는, 탑승자에 의해 기 설정되거나, 탑승자의 주행 히스토리에 의해 학습되어 결정될 수 있다.
또한, 프로세서는, 결정된 주행 모드에 따라, 자율 주행 차량의 주행 파라미터를 제어할 수 있다.
다른 측면에 따라, 자율 주행 차량(autonomous vehicle)을 제어하는 방법은, 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 단계; 획득된 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정하는 단계; 및 결정된 주행 모드에 따라, 자율 주행 차량을 제어하는 단계;를 포함할 수 있다.
또 다른 측면에 따라, 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.
또 다른 측면에 따라, 자율 주행 차량을 제어하는 방법은, 사용자 환경 정보를 획득하는 단계; 사용자 환경 정보에 기반하여 주행 스타일을 결정하는 단계; 및 주행 스타일에 따라서 차량의 주행 파라미터를 설정하는 단계를 포함할 수 있다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다. 하기 실시예는 기술적 사상을 구체화하기 위한 것일 뿐 권리범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 해당 기술분야에 속하는 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.
본 명세서에서 사용되는 “구성된다” 또는 “포함한다” 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 도는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
또한, 본 명세서에서 사용되는 “제 1” 또는 “제 2” 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 이러한 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하거나 설명의 편의를 위한 목적으로 사용될 수 있다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 자율 주행 차량(autonomous vehicle)에 대한 일 예를 나타낸다.
자율 주행 차량(1)은 탑승자의 개입 없이 스스로 주행 가능한 차량을 의미할 수 있다. 자율 주행 차량(1)은 주행 컨텍스트 정보를 획득할 수 있다. 주행 컨텍스트 정보는 자율 주행 차량(1)의 사용자가 어떠한 상황에 있는지를 묘사하는 사용자 환경 정보를 의미할 수 있다. 다른 예로서, 주행 컨텍스트 정보는 자율 주행 차량(1)의 주행에 영향을 미치는 정보를 포함할 수 있다.
주행 컨텍스트 정보는 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나를 포함할 수 있다. 이하에서 간략하게 ‘컨텍스트 정보’로 언급되는 용어는 ‘탑승자에 대한 컨텍스트 정보’를 의미할 수 있다.
탑승자에 대한 컨텍스트 정보란, 탑승자의 상태 또는 탑승자가 처한 상황을 나타내는 정보를 의미할 수 있다. 예를 들어, 컨텍스트 정보는 탑승자의 목적지 정보, 탑승자의 스케줄 정보, 탑승자의 신체 상태 정보, 및 탑승자의 식별 정보 중 적어도 하나를 포함할 수 있다. 다른 예로써, 탑승자에 대한 컨텍스트 정보는 현재 시점 또는 미래 시점에서의 탑승자에 관한 정보를 포함할 수도 있다.
자율 주행 차량(1)의 주변 환경 정보란, 자율 주행 차량(1) 주변의 환경을 나타내는 정보를 의미할 수 있다. 예를 들어, 주변 환경 정보는, 자율 주행 차량(1) 주변의 날씨 정보, 교통 정보, 도로 상태 정보, 및 자율 주행 차량(1)의 위치 정보, 자율주행 차량이 동작 중인 현재 시간 정보, 요일 정보, 날짜 정보 중 적어도 하나를 포함할 수 있다.
자율 주행 차량(1)은 획득된 적어도 하나의 주행 컨텍스트 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 주행 모드란, 자율 주행 차량(1)의 주행 스타일을 나타낼 수 있다. 예를 들어, 주행 모드가 가속 주행 모드인 경우, 자율 주행 차량(1)은 가속 성능의 증대를 위한 측면에서 주행할 수 있으며, 주행 모드가 에코 주행 모드인 경우, 자율 주행 차량(1)은 연비 절약을 위한 측면에서 주행할 수 있다. 주행 모드에 따라서 자율 주행 차량(1)이 어떠한 주행 성격이나 주행 특성을 강조하여 주행할 것인지가 결정될 수 있다.
자율 주행 차량(1)은, 탑승자에 최적화된 주행 모드를 결정하기 위해, 탑승자에 대한 컨텍스트 정보 및 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자가 처해진 상황을 판단할 수 있고, 판단된 상황에 적합한 주행 모드를 결정할 수 있다. 즉, 자율 주행 차량(1)은 복수의 주행 모드들 중 탑승자가 처해진 상황에 적합한 주행 모드를 결정할 수 있다. 예를 들어, 자율 주행 차량(1)은 탑승자가 처해진 상황이 가속 주행을 필요로 하는 경우, 탑승자에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 또한, 다른 예에 따라, 자율 주행 차량(1)은 탑승자가 처해진 상황이 안전 주행을 필요로 하는 경우, 탑승자에 최적화된 주행 모드를 속력 제한 모드로 결정할 수 있다.
자율 주행 차량(1)은, 탑승자의 별도의 개입 없이, 결정된 주행 모드에 따라, 주행할 수 있다. 예를 들어, 자율 주행 차량(1)은 결정된 주행 모드에 따라, 주행 파라미터를 조정하여 주행할 수 있다. 구체적으로, 자율 주행 차량(1)은 결정된 주행 모드에 따라, 주행 파라미터를 조절하여 주행할 수 있다. 주행 파라미터의 예로써, 브레이크 감도, 스티어링(steering) 감도, 가감속 정도, 최대 속력, 지포스(G-force), 스로틀, 및 서스펜션 주파수 등을 들 수 있다. 즉, 주행 모드에 따라서 적어도 하나의 주행 파라미터가 상이하게 설정될 수 있다.
도 2는 자율 주행 차량을 설명하기 위한 도면이다.
자율 주행 차량(1)은, 전원 공급 장치(299), 통신 장치(250), 입력 장치(260), 출력 장치(280), 저장 장치(270), 주행 장치(220), 센싱 장치(230), 주변 장치(240), 및 제어 장치(290)를 포함할 수 있다. 도 2에 도시된 자율 주행 차량(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
추진 장치(210)는 엔진/모터(211), 에너지원(212), 변속기(213) 및 휠/타이어(214)를 포함할 수 있다.
엔진/모터(211)는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 예를 들어, 자율 주행 차량(1)이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터(211)는 가솔린 엔진 및 전기 모터가 될 수 있다.
에너지원(212)은 엔진/모터(211)에 전체적으로 또는 부분적으로 동력을 제공하는 에너지의 공급원일 수 있다. 즉, 엔진/모터(211)는 에너지원(212)을 기계 에너지로 변환하도록 구성될 수 있다. 에너지원(212)의 예로는 가솔린, 디젤, 프로판, 다른 압축 가스 기반 연료들, 에탄올, 태양광 패널(solar panel), 배터리, 및 다른 전기 전력원들 중 적어도 하나가 될 수 있다. 또는, 에너지원(212)은 연로 탱크, 배터리, 커패시터, 및 플라이휠(flywheel) 중 적어도 하나가 될 수 있다. 일 예에 따라, 에너지원(212)은 자율 주행 차량(1)의 시스템 및 장치에 에너지를 제공할 수 있다.
변속기(213)는 기계적 동력을 엔진/모터(211)로부터 휠/타이어(214)에 전달하도록 구성될 수 있다. 예를 들어, 변속기(213)는 기어박스, 클러치, 차동 장치(differential), 및 구동축 중 적어도 하나를 포함할 수 있다. 변속기(213)가 구동축들을 포함하는 경우, 구동축들은 휠/타이어(214)에 결합되도록 구성되는 하나 이상의 차축들을 포함할 수 있다.
휠/타이어(214)은 외발 자전거, 자전거/오토바이, 삼륜차, 또는 자동차/트럭의 사륜 형식을 포함한 다양한 형식들로 구성될 수 있다. 예를 들어, 6개 이상의 휠을 포함하는 것과 같은 다른 휠/타이어 형식이 가능할 수 있다. 휠/타이어(214)은 변속기(213)에 고정되게 부착되어 있는 적어도 하나의 휠, 및 구동면(driving surface)과 접촉할 수 있는 휠의 림(rim)에 결합되어 있는 적어도 하나의 타이어를 포함할 수 있다.
주행 장치(220)는 브레이크 유닛(221), 조향 유닛(222) 및 스로틀(223)을 포함할 수 있다.
조향 유닛(222)은 자율 주행 차량(1)의 방향을 조절하도록 구성되는 매커니즘들의 조합이 될 수 있다.
스로틀(223)은 엔진/모터(211)의 동작 속도를 제어하여, 자율 주행 차량(1)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 스로틀(223)은 스로틀 개방량을 조절하여 엔진/모터(211)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
브레이크 유닛(221)은 자율 주행 차량(1)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 휠/타이어(214)의 속도를 줄이기 위해 마찰을 사용할 수 있다.
센싱 장치(230)는 자율 주행 차량(1)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 뿐만 아니라 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱 장치(230)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 유닛(226), LIDAR 유닛(227), 및 카메라(228)를 포함할 수 있다. 또한, 센싱 장치(230)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 온/습도 센서(232), 적외선 센서(233), 자이로스코프 센서(234), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
GPS(224)는 자율 주행 차량(1)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 자율 주행 차량(1)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU(225)는 관성 가속도에 기초하여 자율 주행 차량(1)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 유닛(226)은 무선 신호를 사용하여 자율 주행 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 유닛(226)은, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 유닛(227)은 레이저를 사용하여 자율 주행 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 유닛(227)은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 유닛(227)은 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
카메라(228)는 자율 주행 차량(1)의 내부의 3차원 영상들을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 예를 들어, 카메라(228)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 자율 주행 차량(1)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.
주변 장치(240)는 네비게이션(241), 라이트(242), 방향 지시등(243), 와이퍼(244), 내부 조명(245), 히터(246), 및 에어컨(247)을 포함할 수 있다.
네비게이션(241)은 자율 주행 차량(1)에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션(241)은 자율 주행 차량(1)이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 예를 들어, 네비게이션(241)은 자율 주행 차량(1)에 대한 운행 경로를 결정하기 위해, GPS(224) 및 지도들로부터의 데이터를 이용할 수 있다.
저장 장치(270)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있다. 또는 저장 장치(270)는 휴대 가능한 USB 데이터 저장 장치가 될 수 있다. 저장 장치(270)는 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
통신 장치(250)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신 장치(250)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 제어 장치(290)에 의해 제어되는 통신 장치(250)는 무선 신호를 송수신할 수 있다. 예를 들어, 제어 장치(290)는, 통신 장치(250)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 저장 장치(270)에 포함된 프로그램을 실행시킬 수 있다.
입력 장치(260)는 자율 주행 차량(1)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력 장치(260)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력 장치(260)는 마이크를 포함할 수 있는 바, 마이크는 자율 주행 차량(1)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력 장치(280)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(280)는 디스플레이부(281), 및 음향 출력부(282)를 포함할 수 있다.
디스플레이부(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 출력 장치(280)의 구현 형태에 따라 출력 장치(280)는 디스플레이부(281)를 2개 이상 포함할 수도 있다.
음향 출력부(282)는 통신 장치(250)로부터 수신되거나 저장 장치(270)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
입력 장치(260) 및 출력 장치(280)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
제어 장치(290)는, 통상적으로 자율 주행 차량(1)의 전반적인 동작을 제어한다. 예를 들어, 제어 장치(290)는, 저장 장치(270)에 저장된 프로그램들을 실행함으로써, 추진 장치(210), 주행 장치(220), 센싱 장치(230), 주변 장치(240), 통신 장치(250), 입력 장치(260), 저장 장치(270), 출력 장치(280), 및 전원 공급 장치(299)를 전반적으로 제어할 수 있다.
전원 공급 장치(299)는 자율 주행 차량(1)의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급 장치(299)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.
도 3은 자율 주행 차량을 제어하기 위한 차량 제어 장치를 설명하기 위한 도면이다.
차량 제어 장치(100)는 자율 주행 차량(1)에 포함될 수 있으며, 도 2의 제어 장치(290), 통신 장치(250), 입력 장치(260), 출력 장치(280), 및 센싱 장치(230) 중 적어도 하나를 포함할 수 있는 바, 중복되는 내용에 대해서는 설명을 생략한다.
차량 제어 장치(100)는 인터페이스(interface)(110) 및, 프로세서(processor)(120)를 포함할 수 있다. 도 2에 도시된 자율 주행 차량(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
인터페이스(110)는 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 일 예로서, 인터페이스(110)는 외부 디바이스로부터 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 예를 들어, 통신 장치(250)는 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 외부 디바이스로부터 획득하고, 인터페이스(110)에게 획득된 정보를 전송할 수 있다. 다른 예로서, 인터페이스(110)는 저장 장치(270)에 저장된 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 또 다른 예로서, 인터페이스(110)는 센싱 장치(230)로부터 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 예를 들어, 센싱 장치(230)는 탑승자의 신체 상태 정보를 획득하고, 인터페이스(110)에게 획득된 정보를 전송할 수 있다. 또 다른 예로서, 인터페이스(110)는 입력 장치(260)로부터 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 예를 들어, 탑승자는 입력 장치(260)를 통해 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보를 입력할 수 있고, 입력 장치(260)는 인터페이스(110)에게 사용자가 입력한 정보를 전송할 수 있다.
프로세서(120)는 획득된 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 프로세서(120)는 탑승자에 대한 컨텍스트 정보 및 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자가 처해진 상황을 탑승자의 개입 없이 판단할 수 있고, 판단된 상황에 적합한 주행 모드를 결정할 수 있다.
주행 모드는 일 예에 따라, 자율 주행 차량(1)의 가속 성능을 증대시키기 위한 가속 주행 모드, 자율 주행 차량(1)의 연비 절약을 위한 에코 주행 모드, 자율 주행 차량(1)의 진동 및 가속을 최소화하기 위한 평온 주행 모드, 일정한 속력 이하로 주행하기 위한 속력 제한 모드, 자율 주행 차량(1)이 주행하는 지형에 적합한 지형 모드, 탑승자의 위급 상황을 위한 긴급 주행 모드를 포함할 수 있다. 전술한 주행 모드의 명칭은 일 예시인 바, 전술한 주행 모드의 명칭으로 제한되지 않는다. 또한, 전술한 각각의 주행 모드는 탑승자의 운전 제어 하에 주행하기 위한 수동 주행에 경우에도 적용될 수 있으며, 또한 탑승자의 운전 제어가 없는 자율 주행의 경우에도 적용될 수 있다. 예를 들어, 탑승자가 직접 자율 주행 차량(1)을 운전하는 경우에도, 자율 주행 차량(1)은 기 결정된 에코 주행 모드로 주행할 수 있으며, 탑승자가 직접 자율 주행 차량(1)을 운전하지 않는 경우에도, 자율 주행 차량(1)은 기 결정된 가속 주행 모드로 주행할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 프로세서(120)는 결정된 주행 모드에 따라, 주행 파라미터를 조정할 수 있다. 또한, 프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)의 추진 장치(210), 또는 주변 장치(240)를 제어할 수 있다.
프로세서(120)는, 주행 모드가 가속 주행 모드인 경우, 자율 주행 차량(1)의 가속 성능을 증대시키기 위한 측면에서 주행 파라미터를 조정할 수 있다. 예를 들어, 프로세서(120)는 스로틀의 개방량, 서스펜션 주파수, 및 서스펜션 강성도(stiffness)을 증가시킬 수 있다. 또한, 프로세서(120)는 자율 주행 차량(1)이 큰 토크 출력을 이용하여 빠른 엑셀링의 반응을 보이도록 하여 민첩한 주행이 가능하도록 할 수 있다.
프로세서(120)는, 주행 모드가 에코 주행 모드인 경우, 자율 주행 차량(1)의 연비를 향상시키기 위한 측면에서 주행 파라미터를 조정할 수 있다. 예를 들어, 프로세서(120)는 자율 주행 차량(1)의 스로틀 개방량, 가속도를 최소치로 설정할 수 있다. 또한, 프로세서(120)는 자율 주행 차량(1)이 보다 빠른 변속을 통해 낮은 RPM(revolution per minute)을 유지하도록 하여 연료 효율을 높일 수 있다.
프로세서(120)는, 주행 모드가 평온 주행 모드인 경우, 자율 주행 차량(1)의 진동 및 가속을 최소화하기 위한 측면에서 주행 파라미터를 조정할 수 있다. 예를 들어, 프로세서(120)는 서스펜션 강성도 및 서스펜션 주파수를 감소시킬 수 있다. 또한, 프로세서(120)는 도로 표면 반작용에 의해 발생되는 타이어에 인가되는 진동 및 서스펜션 스프링 상의 진동을 억제하기 위한 쇼크 업소버(shock absorbers)의 감쇠비를 제어할 수 있다.
프로세서(120)는, 주행 모드가 속력 제한 모드인 경우, 자율 주행 차량(1)이 주행 가능한 속력을 소정값으로 제한할 수 있다. 예를 들어, 프로세서(120)는 자율 주행 차량(1)의 주행 가능한 최대 속력을 60km/h로 제한할 수 있다.
프로세서(120)는, 주행 모드가 긴급 주행 모드인 경우, 자율 주행 차량(1)이 소정의 목적지로 최단 시간 동안 주행하도록 제어할 수 있다. 예를 들어, 프로세서(120)는 자율 주행 차량(1)이 현재 위치에서 가장 가까운 병원으로 최단 시간 동안 자율 주행하도록 제어할 수 있다.
프로세서(120)는, 주행 모드가 지형 모드인 경우, 자율 주행 차량(1)이 주행하는 지형 상태에 따라 자율 주행 차량(1)의 주행 파라미터를 조절할 수 있다. 예를 들어, 자율 주행 차량(1)이 주행하는 지형이 자갈/모래가 많은 산악 지형인 경우, 프로세서(120)는 서스펜션을 상승시킬 수 있으며, 4륜 구동으로 전환하여 전륜과 후륜에 일정 비율로 구동력을 배분할 수 있다.
도 4는 탑승자의 목적지 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
인터페이스(110)는 탑승자에 대한 컨텍스트 정보로써 탑승자의 목적지 정보를 획득할 수 있다. 예를 들어, 인터페이스(110)는 탑승자로부터 목적지 정보를 직접 수신할 수 있다. 일 예로서, 인터페이스(110)는 목적지 정보를 나타내는 탑승자의 음성 신호를 통해 탑승자의 목적지 정보를 획득할 수 있다. 다른 예로서, 인터페이스(110)는 통신 장치(250)를 통해, 탑승자의 디바이스로부터 목적지 정보를 획득할 수 있다.
프로세서(120)는 획득된 탑승자의 목적지 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 프로세서(120)는 탑승자의 목적지 정보에 기초하여, 탑승자의 상황을 판단할 수 있고, 판단된 상황에 적합한 주행 모드를 결정할 수 있다. 만약, 탑승자의 목적지 정보가 ‘직장’인 경우, 프로세서(120)는 현재 시간이 출퇴근 시간대이므로, 탑승자의 상황이 ‘교통 정체가 가능한 급한 상황’임을 판단하여, 탑승자에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 일 예로써, 현재의 시간이나 교통 정체가 임박했는지 여부는 인터페이스(110)를 통해서 차량내 기기나 차량 외 디바이스, 서버 등을 통해 획득할 수 있다. 물론, 현재의 시간이나 교통 정체 임박 여부 등의 다른 정보가 인터페이스(110)를 통해 직접 입력되지 않더라도, 프로세서(120)가 목적지 정보에 기초하여 다른 정보를 유추하거나 가정하는 실시예도 가능하다. 예를 들어, 목적지 정보로써 직장이 입력되면, 프로세서(120)는 탑승자가 출근을 목적으로 자율 주행 차량(1)에 탑승한 것으로 판단하고, 현재 시간이 출근 시간임을 가정하여 가속 주행 모드로 주행 모드를 결정할 수도 있다.
또한, 프로세서(120)는 탑승자의 목적지 정보와 주행 모드 간의 연관 관계에 기초하여, 탑승자의 목적지 정보에 대응되는 주행 모드를 결정할 수 있다. 탑승자의 목적지 정보와 주행 모드 간의 연관 관계에 대한 보다 구체적인 예는 이하 도 5에서 살펴보기로 한다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 5는 탑승자의 목적지 정보와 주행 모드 간의 연관 관계의 일 예를 나타낸다.
일 예에 따라, 도 5에 도시된 테이블(510)은 탑승자의 목적지 정보와 주행 모드 간의 연관 관계를 나타낸다.
프로세서(120)는 탑승자의 목적지 정보를 획득하는 경우, 테이블(510)에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 탑승자의 목적지 정보가 ‘휴양지’인 경우, 프로세서(120)는 현재 시각이 ‘주말’이므로, 테이블(510)을 참조하여, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다. 또한, 다른 예에 따라, 탑승자의 목적지 정보가 ‘해안 도로’인 경우, 프로세서(120)는 현재 시각이 ‘새벽 시간대’이므로, 테이블(510)을 참조하여, 탑승자에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다.
테이블(510)과 같은 연관 관계는 탑승자에 의해 기 설정될 수 있다. 일 예로서, 사전에 탑승자는 자율 주행 차량(1)의 입력 장치(260)를 통해 테이블(510)을 설정하기 위한 정보를 미리 입력할 수 있다. 다른 예로서, 탑승자는 모바일 디바이스 내에서 테이블(510)을 미리 설정할 수 있다. 이어서, 인터페이스(110)는 모바일 디바이스로부터 테이블(510)을 수신할 수 있고, 프로세서(120)는 수신된 테이블(510)을 이용하여, 탑승자의 목적지에 대응되는 주행 모드를 결정할 수 있다.
또한, 테이블(510)과 같은 연관 관계는, 탑승자의 과거 주행 히스토리에 의해 학습되어 결정될 수 있다. 예를 들어, 프로세서(120)는 탑승자의 과거 주행 히스토리에 기초하여, 테이블(510)과 같은 연관 관계를 결정할 수 있다. 만약, 탑승자가 자율 주행 차량(1)의 주행 모드를 직접 결정하는 경우, 프로세서(120)는 탑승자의 목적지, 주행 시간대, 및 결정된 주행 모드에 기초하여, 테이블(510)과 같은 연관 관계를 결정하고 업데이트할 수 있다.
도 6은 차량 제어 장치가 탑승자의 목적지 정보에 기초하여, 주행 모드를 결정하는 일 예를 나타낸다.
탑승자(610)는 자율 주행 차량(1) 내에서 목적지 정보를 ‘회사’로써 말할 수 있다. 이어서, 차량 제어 장치(100)는 탑승자(610)의 음성 신호를 센싱하여, 목적지 정보를 ‘회사’로써 획득할 수 있다.
차량 제어 장치(100)는 목적지 정보인 ‘회사’에 기초하여, 현재 시각이 출퇴근 시간대이므로 탑승자(610)에게 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 즉, 차량 제어 장치(100)는 탑승자(610)의 목적지 정보가 ‘회사’이면서 현재 시각이 출퇴근 시간대이므로, 탑승자(610)의 상황이 ‘교통 정체가 가능한 급한 상황’임을 판단하여, 탑승자(610)에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 가속 주행 모드로, 자율 주행 차량(1)을 제어할 수 있다.
도 7은 차량 제어 장치가 가속 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 가속 주행 모드를 위한 파라미터 설정 메뉴(710)에 기초하여, 자율 주행 차량(1)을 제어할 수 있다. 일 예로서, 차량 제어 장치(100)는 탑승자에게 메뉴(710)를 사전에 제공하여, 탑승자로부터 메뉴(710)의 파라미터값들을 입력 받을 수 있다. 즉, 도 7에 도시된 바와 같이, 탑승자는 스로틀(throttle)의 개방량을 최대치(maximum)으로, 서스펜션 강성도(suspension stiffness)를 최대치로, 서스펜션 주파수(suspension frequency)를 최대치로, 횡포스(lateral G-force)를 최대치로, 터닝 스피드를 최대치로 설정할 수 있다. 예를 들어, 스로틀 개방량의 최대치는 wide-open 상태의 70% 이상을 의미할 수 있고, 서스펜션 주파수의 최대치는 1.25hz에서 2.5hz 사이를 의미할 수 있고, 횡포스의 최대치는 0.7G에서 0.9G를 의미할 수 있다. 그러나, 스로틀 개방량의 최대치, 서스펜션 주파수의 최대치 및 횡포스의 최대치는 상술한 수치에 한정되지 않는다.
다른 예로서, 차량 제어 장치(100)는 탑승자의 모바일 디바이스로부터 메뉴(710)를 전송 받을 수 있고, 전송 받은 메뉴(710)에 따라 자율 주행 차량(1)을 제어할 수 있다. 탑승자는 탑승자의 모바일 디바이스의 메뉴(710)를 통해 가속 주행 모드를 위한 파라미터값을 입력할 수 있다.
도 8은 탑승자의 스케줄 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
인터페이스(110)는 탑승자에 대한 컨텍스트 정보로써 탑승자의 스케줄 정보를 획득할 수 있다. 예를 들어, 인터페이스(110)는 통신 장치(250)를 통해 탑승자의 모바일 디바이스에 저장된 탑승자의 스케줄 정보를 획득할 수 있다. 구체적으로, 인터페이스(110)는 탑승자의 스케줄 정보 중 탑승자의 목적지 및 목표 도착 시각에 대한 정보를 획득할 수 있다.
프로세서(120)는 획득된 탑승자의 스케줄 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 프로세서(120)는 탑승자의 스케줄 정보 중 탑승자의 목적지 및 목표 도착 시각에 대한 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다.
구체적으로, 프로세서(120)는 탑승자의 목적지에 대한 정보에 기초하여, 자율 주행 차량(1)이 탑승자의 목적지에 도달하는 도착 예정 시각을 결정할 수 있다. 이어서, 프로세서(120)는 탑승자의 목표 도착 시각과 도착 예정 시각을 비교하여, 탑승자에게 시간적 여유가 얼마나 있는지를 판단할 수 있다. 즉, 목표 도착 시각과 도착 예정 시각의 차이가 소정의 시간보다 짧거나, 목표 도착 예정 시각이 목표 도착 시각 후인 경우, 프로세서(120)는 탑승자에게 시간적 여유가 부족하다고 판단하여, 탑승자에게 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 또한, 목표 도착 예정 시각이 목표 도착 시각 전이면서, 목표 도착 시각과 도착 예정 시각의 차이가 소정의 시간보다 긴 경우, 프로세서(120)는 탑승자에게 시간적 여유가 충분하다고 판단하여, 탑승자에게 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 9는 차량 제어 장치가 탑승자의 스케줄 정보에 기초하여 주행 모드를 결정하는 예를 나타낸다.
차량 제어 장치(100)는 탑승자의 모바일 디바이스(910)에 저장된 스케줄 정보(920)를 모바일 디바이스(910)로부터 수신할 수 있다. 즉, 차량 제어 장치(100)와 모바일 디바이스(910) 간의 통신에 기초하여, 차량 제어 장치(100)는 모바일 디바이스(910)로부터 탑승자의 스케줄 정보(920)를 수신할 수 있다.
차량 제어 장치(100)는 수신된 탑승자의 스케줄 정보(920)에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 보다 구체적으로, 차량 제어 장치(100)는 탑승자의 스케줄 정보(920)를 통해, 탑승자의 목적지인 ‘A 사무소’에 대한 정보 및 목표 도착 시각인 ‘10:00’에 대한 정보를 획득할 수 있다. 이어서, 차량 제어 장치(100)는 현재 위치 및 현재 시각에 기초하여 목적지인 ‘A 사무소’에 도달하는 도착 예정 시각을 결정할 수 있다. 예를 들어, 차량 제어 장치(100)는 자율 주행 차량(1)의 네비게이션(241)을 이용하여, 목적지인 ‘A 사무소’에 도달하는 도착 예정 시각을 결정할 수 있다. 이어서, 차량 제어 장치(100)는 결정된 도착 예정 시각과 목표 도착 시각 ‘10:00’을 비교하여, 탑승자에게 시간적 여유가 얼마나 있는지를 판단할 수 있고, 차량 제어 장치(100)는 판단에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다.
예를 들어, 결정된 도착 예정 시각이 09:50인 경우, 목표 도착 시각 ‘10:00’과의 차이가 기 설정된 시간인 20분 내이므로, 차량 제어 장치(100)는 탑승자에게 시간적 여유가 부족하다고 판단하여, 탑승자에게 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 따라서, 차량 제어 장치(100)는 결정된 가속 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 또한, 다른 예에 따라, 결정된 도착 예정 시각이 09:20인 경우, 목표 도착 시각 ‘10:00’과의 차이가 기 설정된 시간인 20분 이상이므로, 차량 제어 장치(100)는 탑승자에게 시간적 여유가 충분하다고 판단하여, 탑승자에게 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 에코 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 10은 탑승자의 신체 상태 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치를 나타낸다.
인터페이스(110)는 탑승자에 대한 컨텍스트 정보로써 탑승자의 신체 상태 정보를 획득할 수 있다. 탑승자의 신체 상태 정보는 탑승자의 심박수, 혈압, 호흡, 혈중 알코올 농도, 체온, 혈당 등에 대한 정보 뿐만 아니라, 탑승자가 수면 상태인지 여부, 탑승자가 집중하고 있는 상태인지 여부, 또는 탑승자의 건강이 위급한 상태인지 여부 등에 대한 정보를 포함한다. 일 예로서, 센싱 장치(230)는 탑승자의 신체 상태 정보를 센싱하고, 인터페이스(110)에게 센싱된 정보를 전송할 수 있다. 또한, 다른 예로서, 인터페이스(110)는 통신 장치(250)로부터 탑승자의 신체 상태 정보를 획득할 수 있다. 즉, 통신 장치(250)는 탑승자의 신체 상태를 센싱할 수 있는 외부 디바이스로부터 탑승자의 신체 상태 정보를 획득하고, 인터페이스(110)에게 획득된 정보를 전송할 수 있다.
프로세서(120)는 획득된 탑승자의 신체 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 일 예로서, 탑승자의 신체 상태 정보가 탑승자의 수면 상태를 나타내는 정보인 경우, 프로세서(120)는 탑승자의 수면에 방해되는 요소를 최소화하기 위해, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다. 다른 예로서, 탑승자의 신체 상태 정보가 탑승자가 집중하고 있는 상태인 경우, 프로세서(120)는 탑승자의 집중에 방해 요소를 제거하기 위해, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다. 탑승자가 집중하고 있는 상태의 예로는, 탑승자가 태블릿 PC에 기 설정된 시간 이상 동안 바라보고 있는 경우가 될 수 있다. 또 다른 예로서, 탑승자의 신체 상태 정보가 탑승자의 건강이 위급한 상태인 경우, 프로세서(120)는 탑승자에 최적화된 모드를 긴급 주행 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 11은 차량 제어 장치가 탑승자의 수면 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
웨어러블 디바이스(1110)는 탑승자가 수면 상태인지 여부를 판단할 수 있다. 예를 들어, 웨어러블 디바이스(1110)는 카메라를 통해 탑승자의 눈을 촬영할 수 있고, 탑승자의 눈을 촬영하여 탑승자가 수면 상태인지 여부를 판단할 수 있다. 구체적으로, 웨어러블 디바이스(1110)는 탑승자의 눈이 평소 상태에 비해 기준 비율 이상 감긴 경우, 또는 탑승자가 눈을 감고 있는 시간이 소정 시간 이상인 경우에 탑승자가 수면 상태라고 판단할 수 있다. 이어서, 웨어러블 디바이스(1110)는 탑승자의 수면 상태 정보를 차량 제어 장치(100)에 전송할 수 있다.
차량 제어 장치(100)는 탑승자의 신체 상태 정보로써 탑승자의 수면 상태 정보를 웨어러블 디바이스(1110)로부터 획득할 수 있다. 차량 제어 장치(100)는 탑승자의 수면 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 차량 제어 장치(100)는 탑승자가 수면 중이므로, 탑승자의 수면에 방해되는 요소를 최소화하기 위해, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 평온 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 또한, 차량 제어 장치(100)는 평온 주행 모드로 자율 주행 차량(1)을 제어하는 경우, 자율 주행 차량(1)의 주변 장치(240) 또한 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 내부 조명(245)을 기 설정된 밝기로 조정할 수 있다.
도 12는 차량 제어 장치가 평온 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 평온 주행 모드를 위한 파라미터 설정 메뉴(1210)에 기초하여, 자율 주행 차량(1)을 제어할 수 있다. 일 예로서, 차량 제어 장치(100)는 탑승자에게 메뉴(1210)를 사전에 제공하여, 탑승자로부터 메뉴(1210)의 파라미터값들을 입력 받을 수 있다. 즉, 도 12에 도시된 바와 같이, 탑승자는 스로틀(throttle)의 개방량을 최소치(minimum)으로, 서스펜션 강성도(suspension stiffness)를 최소치로, 서스펜션 주파수(suspension frequency)를 최소치로, 횡포스(lateral G-force)를 최소치로, 터닝 스피드를 최소치로 설정할 수 있다. 예를 들어, 스로틀 개방량의 최소치는 wide-open 상태의 30% 미만을 의미할 수 있고, 서스펜션 주파수의 최소치는 1.0hz에서 1.2hz 사이를 의미할 수 있고, 횡포스의 최소치는 0.3G에서 0.5G를 의미할 수 있다.
다른 예로서, 차량 제어 장치(100)는 탑승자의 모바일 디바이스로부터 메뉴(1210)를 전송 받을 수 있고, 전송 받은 메뉴(1210)에 따라 자율 주행 차량(1)을 제어할 수 있다. 탑승자는 탑승자의 모바일 디바이스의 메뉴(1210)를 통해 평온 주행 모드를 위한 파라미터값을 입력할 수 있다.
도 13은 차량 제어 장치가 탑승자의 집중 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
탑승자(1310)는 태블릿 PC(1320)를 통해 소정의 작업을 수행할 수 있다. 즉, 탑승자(1310)는 태블릿 PC(1320)에 집중할 수 있다. 태블릿 PC(1320)는 카메라를 통해 탑승자(1310)의 눈을 촬영할 수 있고, 탑승자(1310)의 눈을 촬영하여 탑승자(1310)가 집중 상태인지 여부를 판단할 수 있다. 예를 들어, 태블릿 PC(1320)는 탑승자(1310)가 태블릿 PC(1320)를 소정의 시간 이상 동안 바라보는 경우, 탑승자(1310)가 집중 상태라고 판단할 수 있다. 이어서, 태블릿 PC(1320)는 탑승자(1310)의 집중 상태 정보를 차량 제어 장치(100)에 전송할 수 있다.
차량 제어 장치(100)는 탑승자의 신체 상태 정보로써 탑승자의 집중 상태 정보를 태블릿 PC(1320)로부터 획득할 수 있다. 차량 제어 장치(100)는 탑승자(1310)의 집중 상태 정보에 기초하여, 탑승자(1310)에 최적화된 주행 모드를 결정할 수 있다. 즉, 차량 제어 장치(100)는 탑승자(1310)가 소정의 작업에 집중 중이므로, 탑승자(1310)의 집중에 방해되는 요소를 최소화하기 위해, 탑승자(1310)에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 평온 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 14는 차량 제어 장치가 탑승자의 위급 상태 정보에 기초하여 주행 모드를 결정하는 일 예를 나타낸다.
웨어러블 디바이스(1420)는 탑승자(1410)의 건강 상태를 주기적으로 검출할 수 있다. 예를 들어, 웨어러블 디바이스(1420)는 탑승자(1410)의 심박수, 혈압, 호흡, 체온 등을 센서를 통해 주기적으로 검출할 수 있다. 따라서, 웨어러블 디바이스(1420)는 탑승자(1410)의 건강 상태를 주기적으로 검출하여, 탑승자(1410)가 위급한 상태인 지 여부를 판단할 수 있다. 예를 들어, 웨어러블 디바이스(1420)는 탑승자(1410)의 심박수를 검출하여, 탑승자(1410)가 심장마비인지 여부를 판단할 수 있으며, 웨어러블 디바이스(1420)는 탑승자(1410)의 체온을 검출하여, 탑승자(1410)가 고온 증상이 있는지 여부를 판단할 수 있다. 또한, 다른 예에 따라, 탑승자(1410)가 소정의 질병을 갖는 경우, 웨어러블 디바이스(1420)는 탑승자(1410)의 질병이 악화되는지 여부를 판단할 수 있다. 웨어러블 디바이스(1420)는 탑승자(1410)가 위급한 상태인 경우, 차량 제어 장치(100)에 탑승자(1410)의 위급 상태 정보를 전송할 수 있다.
차량 제어 장치(100)는 탑승자(1410)의 신체 상태 정보로써 탑승자(1410)의 위급 상태 정보를 웨어러블 디바이스(1420)로부터 획득할 수 있다. 차량 제어 장치(100)는 탑승자(1410)의 위급 상태 정보에 기초하여, 탑승자(1410)에 최적화된 주행 모드를 결정할 수 있다. 즉, 차량 제어 장치(100)는 탑승자(1410)의 건강이 위급한 상태이므로, 탑승자(1410)의 건강 회복을 위해, 탑승자(1410)에 최적화된 주행 모드를 긴급 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 긴급 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 자율 주행 차량(1)이 현재 위치에서 가장 가까운 병원으로 최단 시간 동안 자율 주행하도록 제어할 수 있다.
도 15는 탑승자의 식별 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
인터페이스(110)는 탑승자에 대한 컨텍스트 정보로써 탑승자의 식별 정보를 획득할 수 있다. 예를 들어, 탑승자의 식별 정보는 탑승자가 ‘어린이’ 또는 ‘노약자’인지 여부를 나타낼 수 있다. 일 예로서, 인터페이스(110)는 탑승자를 식별할 수 있는 디바이스로부터 탑승자의 식별 정보를 획득할 수 있다. 여기에서, 탑승자를 식별할 수 있는 디바이스는, 어린이 카시트에 어린이가 탑승하였는지 여부에 따라, 탑승자가 어린이인지 여부를 판단할 수 있다. 다른 예로서, 탑승자를 식별할 수 있는 디바이스는, 탑승자의 목소리를 식별하여, 탑승자가 어린이 또는 노약자인지 여부를 판단할 수 있다.
프로세서(120)는 획득된 탑승자의 식별 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 탑승자의 식별 정보가 노약자 또는 어린이를 나타내는 정보인 경우, 프로세서(120)는 노약자 또는 어린이 보호를 위해, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 16은 차량 제어 장치가 탑승자의 식별 정보에 기초하여 주행 모드를 결정하는 일 예를 나타낸다.
탑승자 정보 감지부(1610)는 어린이 카시트에 어린이가 탑승하는 경우, 어린이 탑승자 정보를 획득할 수 있다. 이어서, 차량 제어 장치(100)는 탑승자 정보 감지부(1610)로부터 어린이 탑승자 정보를 획득할 수 있다.
차량 제어 장치(100)는 획득된 어린이 탑승자 정보에 기초하여, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다. 즉, 차량 제어 장치(100)는 어린이 보호를 위해, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 평온 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 17은 자율 주행 차량의 위치 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
인터페이스(110)는 자율 주행 차량(1)의 주변 환경 정보로써 자율 주행 차량(1)의 위치 정보를 획득할 수 있다. 일 예에 따라, 인터페이스(110)는 자율 주행 차량(1)의 GPS(224)로부터 자율 주행 차량(1)의 위치 정보를 획득할 수 있고, 다른 예에 따라, 인터페이스(110)는 탑승자의 모바일 디바이스의 GPS로부터 자율 주행 차량(1)의 위치 정보를 획득할 수 있다.
프로세서(120)는 획득된 자율 주행 차량(1)의 위치 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 일 예에 따라, 자율 주행 차량(1)의 위치 정보가 ‘고속 도로’를 나타내는 경우, 프로세서(120)는 탑승자에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다. 다른 예에 따라, 자율 주행 차량(1)의 위치 정보가 ‘도심 내’를 나타내는 경우, 프로세서(120)는 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다. 또 다른 예에 따라, 자율 주행 차량(1)의 위치 정보가 ‘랜드마크 주변’을 나타내는 경우, 프로세서(120)는 탑승자에 최적화된 주행 모드를 속력 제한 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 18은 차량 제어 장치가 고속 도로 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
자율 주행 차량(1)의 GPS(224)는 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다. 이어서, 차량 제어 장치(100)는 GPS(224)로부터 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다.
이어서, 차량 제어 장치(100)는 현재 위치 정보에 기초하여, 현재 위치가 ‘고속 도로’임을 인식할 수 있다. 따라서, 차량 제어 장치(100)는 현재 위치 ‘고속 도로’에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 고속 도로에서는 자율 주행 차량(1)이 고속 위주의 주행 모드에 적합하므로, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 고속 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 평온 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 19는 차량 제어 장치가 도심 내 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
탑승자의 모바일 디바이스(1910)는 모바일 디바이스(1910) 내의 GPS를 이용하여 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다. 이어서, 차량 제어 장치(100)는 모바일 디바이스(1910)로부터 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다.
이어서, 차량 제어 장치(100)는 현재 위치 정보에 기초하여, 자율 주행 차량(1)의 현재 위치가 도심 내임을 인식할 수 있다. 따라서, 차량 제어 장치(100)는 현재 위치 ‘도심 내’에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 도심 내에서는 자율 주행 차량(1)이 정차하는 상황이 많이 발생하므로, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 에코 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 20은 차량 제어 장치가 에코 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 에코 주행 모드를 위한 파라미터 설정 메뉴(2010)에 기초하여, 자율 주행 차량(1)을 제어할 수 있다. 일 예로서, 차량 제어 장치(100)는 탑승자에게 메뉴(2010)를 사전에 제공하여, 탑승자로부터 메뉴(2010)의 파라미터값들을 입력 받을 수 있다. 즉, 도 20에 도시된 바와 같이, 탑승자는 스로틀(throttle)의 개방량을 최소치(minimum)로, 가속도의 값을 최소치로 설정할 수 있다.
다른 예로서, 차량 제어 장치(100)는 탑승자의 모바일 디바이스로부터 메뉴(2010)를 전송 받을 수 있고, 전송 받은 메뉴(2010)에 따라 자율 주행 차량(1)을 제어할 수 있다. 탑승자는 탑승자의 모바일 디바이스의 메뉴(2010)를 통해 에코 주행 모드를 위한 파라미터값을 입력할 수 있다.
도 21은 차량 제어 장치가 랜드마크 주변 위치 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드로 자율 주행 차량을 제어하는 일 예를 나타낸다.
자율 주행 차량(1)의 GPS(224)는 현재 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다. 이어서, 차량 제어 장치(100)는 GPS(224)로부터 자율 주행 차량(1)의 현재 위치 정보를 획득할 수 있다.
이어서, 차량 제어 장치(100)는 획득된 현재 위치 정보에 기초하여, 자율 주행 차량(1)의 현재 위치가 특정 랜드 마크(2110) 주변임을 인식할 수 있다. 예를 들어, 차량 제어 장치(100)는, 현재 위치가 특정 랜드 마크(2110)의 소정의 거리 내인 경우, 현재 위치가 특정 랜드 마크(2110) 주변임을 인식할 수 있다. 또한, 차량 제어 장치(100)는 특정 랜드 마크(2110)의 위치 정보를 저장할 수 있다. 예를 들어, 차량 제어 장치(100)는 탑승자가 구경하고자 하는 랜드 마크들에 대한 위치 정보를 미리 저장할 수 있다. 따라서, 차량 제어 장치(100)는 현재 위치가 특정 랜드 마크(2110) 주변임에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 주변에 랜드 마크가 있는 경우, 탑승자가 랜드 마크를 보다 용이하게 구경하기 위해, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 속력 제한 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 결정된 속력 제한 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 22는 교통 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
인터페이스(110)는 자율 주행 차량(1)의 주변 환경 정보로써 교통 정보를 획득할 수 있다. 또한, 인터페이스(110)는 자율 주행 차량(1)의 위치 정보에 기초하여, 자율 주행 차량(1) 주변의 교통 정보를 획득할 수 있다. 예를 들어, 자율 주행 차량(1) 주변의 교통 정보는 자율 주행 차량(1)의 앞 차량의 속도, 위치 등에 대한 정보뿐만 아니라, 자율 주행 차량(10)이 주행하는 도로의 정체 여부 등에 대한 정보를 포함한다. 일 예로서, 인터페이스(110)는 외부 교통 관리 시스템으로부터 자율 주행 차량(1) 주변의 교통 정보를 획득할 수 있다. 다른 예로서, 통신 장치(250)는 외부 교통 관리 시스템으로부터 자율 주행 차량(1) 주변의 교통 정보를 획득하고, 인터페이스(110)에게 획득된 정보를 전송할 수 있다. 또 다른 예로서, 센싱 장치(230)는 자율 주행 차량(1)의 앞 차량의 속도를 센싱하고, 인터페이스(110)에게 센싱된 정보를 전송할 수 있다. 예를 들어, 도 2의 RADAR 유닛(226)은 자율 주행 차량(1)의 앞 차량의 속도를 계속하여 센싱할 수 있고, RADAR 유닛(226)은 센싱된 속도에 대한 정보를 인터페이스(110)에게 전송할 수 있다. 이어서, 프로세서(120)는 인터페이스(110)에게 전송된 속도에 대한 정보에 기초하여, 앞 차량의 속도가 일정 속도 이하로 일정 시간 동안 유지되는 경우, 교통 정체로 인식할 수 있다.
프로세서(120)는 획득된 교통 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 일 예로서, 프로세서(120)는 획득된 교통 정보가 교통 정체를 나타내는 정보인 경우, 자율 주행 차량(1)이 정차하는 상황이 많이 발생하므로, 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다. 또한, 다른 예로서, 프로세서(120)는 획득된 교통 정보가 교통이 원활하다는 정보인 경우, 자율 주행 차량(1)은 탑승자에 최적화된 주행 모드를 가속 주행 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
또한, 프로세서(120)는 인터페이스(110)에 의해 획득된 교통 정보에 기초하여, 소정의 시간 이후에 교통 정체가 있을 것이라는 정보를 도 2의 출력 장치(280)를 통해 탑승자에게 제공할 수 있다. 예를 들어, 프로세서(120)는 15초 후에 교통 정체가 있을 것이라는 정보를 출력 장치(280)를 통해 음성 신호로 탑승자에게 알릴 수 있다. 또한, 프로세서(120)는 소정의 시간 이후에 교통 정체가 있으므로, 현재 주행 모드를 중지한다는 정보를 출력 장치(280)를 통해 탑승자에게 제공할 수 있다.
도 23은 차량 제어 장치가 교통 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 외부의 교통 정보 관리 시스템(2310)으로부터 차량 제어 장치(100) 주변의 교통 정보를 획득할 수 있다. 즉, 차량 제어 장치(100)는 외부의 교통 정보 관리 시스템(2310)과 통신을 수립하여, 외부의 교통 정보 관리 시스템(2310)으로부터 차량 제어 장치(100) 주변의 교통 정보를 획득할 수 있다.
차량 제어 장치(100)는 획득된 교통 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 교통 정보가 교통 정체를 나타내는 정보이므로, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다.
차량 제어 장치(100)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 24는 차량 제어 장치가 교통 정체와 관련된 GUI(Graphical User Interface)를 제공하는 일 예를 나타낸다.
차량 제어 장치(100)는 교통 정체가 다가오는 경우에 GUI(2410)를 탑승자에게 제공할 수 있다. 즉, 자율 주행 차량(1)이 15초 후에 교통 정체 상황에 도달하는 경우, 차량 제어 장치(100)는 GUI(2410)를 탑승자에게 제공할 수 있다. 탑승자가 GUI(2410)에서 ‘Auto Adjust in 15 seconds’를 선택하는 경우, 차량 제어 장치(100)는 기 설정된 주행 모드로 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 교통 정체 정보에 따라, 자율 주행 차량(1)의 주행 모드를 에코 주행 모드로 변경할 수 있다. 또한, 탑승자가 GUI(2410)에서 ‘Select New Route’를 선택하는 경우, 차량 제어 장치(100)는 교통 정체가 없는 다른 주행 경로를 결정할 수 있고, 다른 주행 경로로 자율 주행 차량(1)을 주행하게끔 제어할 수 있다. 또한, 탑승자가 GUI(2410)에서, ‘Make a call’, ‘Send a text’, 또는 ‘Send an email’을 선택하는 경우, 차량 제어 장치(100)는 기 설정된 메시지 또는 음성을 기 설정된 사람에게 전달할 수 있다. 예를 들어, 탑승자가 GUI(2410)에서 ‘Send a text’를 선택하는 경우, 차량 제어 장치(100)는 스케줄 상 만나기로 한 사람에게 탑승자의 도착 예정 시각을 포함하는 메시지를 전송할 수 있다.
도 25는 날씨 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
인터페이스(110)는 자율 주행 차량(1)의 주변 환경 정보로써 날씨 정보를 획득할 수 있다. 일 예로서, 인터페이스(110)는 외부 날씨 정보 관리 시스템으로부터 자율 주행 차량(1) 주변의 날씨 정보를 획득할 수 있다. 또한, 다른 예로서, 센싱 장치(230)는 자율 주행 차량(1)의 타이어를 통해 주변 도로 상태를 센싱할 수 있고, 프로세서(120)는 센싱된 주변 도로 상태에 기초하여, 자율 주행 차량(1) 주변의 날씨 정보를 생성할 수 있고, 인터페이스(110)는 프로세서(120)로부터 날씨 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는 센싱 장치(230)에 의해 센싱된 자율 주행 차량(1)의 타이어 접지면의 마찰력에 대한 정보에 기초하여, 주변 도로 상태가 빗길인 상태임을 인지할 수 있고, 비가 온다는 날씨 정보를 생성할 수 있다. 이어서, 인터페이스(110)는 프로세서(120)로부터 비가 온다는 날씨 정보를 획득할 수 있다.
프로세서(120)는 획득된 날씨 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들면, 획득된 날씨 정보가 자율 주행 차량(1) 주변에 비 또는 눈이 내리고 있다는 정보인 경우, 탑승자의 안전을 위해, 프로세서(120)는 탑승자에 최적화된 주행 모드를 평온 주행 모드 및 속력 제한 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 26은 차량 제어 장치가 날씨 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 외부의 날씨 정보 관리 시스템(2510)으로부터 차량 제어 장치(100) 주변의 교통 정보를 획득할 수 있다. 즉, 차량 제어 장치(100)는 외부의 날씨 정보 관리 시스템(2510)과 통신을 수립하여, 외부의 날씨 정보 관리 시스템(2510)으로부터 차량 제어 장치(100) 주변의 날씨 정보를 획득할 수 있다.
차량 제어 장치(100)는 획득된 날씨 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 날씨 정보가 비가 오고 있다는 정보이므로, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 속력 제한 모드 및 평온 주행 모드로 결정할 수 있다.
차량 제어 장치(100)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 27은 도로 상태 정보에 기초하여 주행 모드를 결정하는 차량 제어 장치의 일 예를 나타낸다.
인터페이스(110)는 자율 주행 차량(1)의 주변 환경 정보로써 도로 상태 정보를 획득할 수 있다. 즉, 인터페이스(110)는 자율 주행 차량(1) 주변의 도로 상태 정보를 획득할 수 있다. 예를 들어, 인터페이스(110)는 도로 상태를 센싱할 수 있는 디바이스로부터 도로 상태 정보를 획득할 수 있다. 구체적으로, 센싱 장치(230)는 자율 주행 차량(1)의 타이어를 통해 전달되는 진동 신호에 기초하여 도로 상태 정보를 획득할 수 있고, 인터페이스(110)는 센싱 장치(230)로부터 획득된 도로 상태 정보를 전달받을 수 있다.
프로세서(120)는 획득된 도로 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 획득된 도로 상태 정보가 자갈/모래가 많은 산악 지형이라는 정보인 경우, 탑승자의 안전 및 자율 주행 차량(1)의 진동을 최소화하기 위해, 프로세서(120)는 탑승자에 최적화된 주행 모드를 산악 지형에 적합한 지형 모드로 결정할 수 있다.
프로세서(120)는 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
또한, 인터페이스(110)는 위험 도로에 대한 정보를 획득할 수 있다. 예를 들어, 인터페이스(110)는 위험 도로에 대한 정보를 외부 교통 관리 시스템으로부터 전송 받을 수 있다.
프로세서(120)는 현재 위치 정보에 기초하여, 자율 주행 차량(1)이 위험 도로 근방에 있는 지 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 자율 주행 차량(1)이 15초 후에 위험 도로에 도달하는 지 여부를 판단할 수 있다. 자율 주행 차량(1)이 위험 도로에 도달하는 경우, 프로세서(120)는 위험 도로의 위험도에 따라, 자율 주행 차량(1)을 제어할 수 있다. 즉, 프로세서(120)는 위험 도로의 위험도에 따라, 탑승자의 안전을 위해, 자율 주행 차량(1)의 가속도를 줄이고, 보다 부드럽게 주행하도록 제어할 수 있다. 예를 들어, 위험 도로의 위험도가 낮은 정도라면, 프로세서(120)는 기 설정된 주행 모드에 따른 스로틀 개방량 또는 횡포스의 값을 5%씩 감소시킬 수 있다.
도 28은 차량 제어 장치가 도로 상태 정보에 기초하여 주행 모드를 결정하고, 결정된 주행 모드에 따라 자율 주행 장치를 제어하는 일 예를 나타낸다.
도로 상태 센싱부(2810)는 자율 주행 차량(1)의 타이어를 통해 전달되는 진동 신호를 센싱할 수 있고, 차량 제어 장치(100)는 센싱된 진동 신호에 기초하여, 도로 상태가 산악 지형 상태라는 정보를 획득할 수 있다.
차량 제어 장치(100)는 획득된 도로 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 도로 상태 정보가 산악 지형이므로, 탑승자의 안전 및 자율 주행 차량(1)의 진동을 최소화하기 위해, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 산악 지형에 적합한 지형 모드로 결정할 수 있다.
차량 제어 장치(100)는 결정된 지형 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 자율 주행 차량(1)의 서스펜션을 상승시킬 수 있으며, 4륜 구동으로 전환하여 전륜과 후륜에 1:1의 비율로 구동력을 배분할 수 있다.
도 29는 차량 제어 장치가 위험 도로와 관련된 GUI를 제공하는 일 예를 나타낸다.
차량 제어 장치(100)는 위험 도로가 다가오는 경우에 GUI(2910)를 탑승자에게 제공할 수 있다. 즉, 자율 주행 차량(1)이 15초 후에 위험 도로에 도달하는 경우, 차량 제어 장치(100)는 GUI(2910)를 탑승자에게 제공할 수 있다. GUI(2910)에서 보여지는 ‘High’, ‘Medium’, 및 ‘Low’항목은 도달하는 위험 도로의 위험도가 어느 정도 인지를 나타낸다. 탑승자가 GUI(2910)에서 ‘Auto Adjust’를 선택하는 경우, 차량 제어 장치(100)는 기 설정된 주행 모드로 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 위험 도로의 위험도에 따라, 기 설정된 주행 모드에 대응되는 파라미터 값을 일부 조정할 수 있다. 또한, 탑승자가 GUI(2910)에서 ‘Select New Route’를 선택하는 경우, 차량 제어 장치(100)는 위험 도로가 없는 다른 주행 경로를 결정할 수 있고, 다른 주행 경로로 자율 주행 차량(1)을 주행하게끔 제어할 수 있다. 또한, 탑승자가 GUI(2910)에서, ‘Make a call’, ‘Send a text’, 또는 ‘Send an email’을 선택하는 경우, 차량 제어 장치(100)는 기 설정된 메시지 또는 음성을 기 설정된 사람에게 전달할 수 있다. 예를 들어, 탑승자가 GUI(2910)에서 ‘Send a text’를 선택하는 경우, 차량 제어 장치(100)는 스케줄 상 만나기로 한 사람에게 탑승자의 도착 예정 시각을 포함하는 메시지를 전송할 수 있다.
도 30은 위험 도로에 대한 정보의 일 예를 나타낸다.
차량 제어 장치(100)는 위험 도로에 대한 정보(3010)를 획득할 수 있다. 차량 제어 장치(100)는 위험 도로에 대한 정보(3010)를 외부 교통 관리 시스템으로부터 획득할 수 있다. 도 30에 도시된 바와 같이, 차량 제어 장치(100)는 위험 도로 ‘Interstate 89’의 시작 위치 정보인‘Mile 52’및 ‘44.0N:-72.6E’와 끝 위치 정보인 ‘Mile 69’ 및 ‘44.3:-72.7E’를 획득할 수 있다. 또한, 차량 제어 장치(100)는 위험 도로 ‘Interstate 89’의 위험도가 ‘Low’라는 정보를 획득할 수 있다. 위험 도로에 대한 정보(3010) 중 위험도는 해당 위험 도로에서 발생하는 사고의 횟수에 기초하여 설정될 수 있다. 예를 들어, 평균적으로 도로에서 발생하는 사고율보다, 해당 위험 도로에서 발생하는 사고율이 0% 내지 10% 높은 경우, 해당 위험 도로의 위험도는 Low에 해당할 수 있고, 평균적으로 도로에서 발생하는 사고율보다, 해당 위험 도로에서 발생하는 사고율이 25% 이상 높은 경우, 해당 위험 도로의 위험도는 High에 해당할 수 있다.
도 31는 차량 제어 장치가 위험 도로의 위험도에 따라 자율 주행 차량을 제어하는 일 예를 나타낸다.
차량 제어 장치(100)는 테이블(3110)에 기초하여, 자율 주행 차량(1)을 제어할 수 있다. 즉, 위험도가 Low인 위험 도로를 주행하는 경우, 차량 제어 장치(100)는 기 설정된 주행 모드에 해당하는 주행 파라미터인 최대 스로틀 개방량을 5% 감소시킬 수 있으며, 최대 횡포스 값을 5% 감소시킬 수 있다. 마찬가지로, 위험도가 Medium인 위험 도로를 주행하는 경우, 차량 제어 장치(100)는 기 설정된 주행 모드에 해당하는 주행 파라미터인 최대 스로틀 개방량을 10% 감소시킬 수 있으며, 최대 횡포스 값을 10% 감소시킬 수 있다.
다시 도 3을 살펴보면, 인터페이스(110)는 기 획득된 컨텍스트 정보 또는 주변 환경 정보 외에 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 예를 들어, 자율 주행 차량(1)이 기 설정된 주행 모드로 주행 중, 인터페이스(110)는 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 구체적으로, 자율 주행 차량(1)이 가속 주행 모드로 주행 중, 인터페이스(110)는 다른 주변 환경 정보로써 교통 정체 정보를 획득할 수 있다.
프로세서(120)는 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 변경할 수 있다. 즉, 자율 주행 차량(1)이 기 설정된 주행 모드로 주행 중, 다른 컨텍스트 정보 또는 다른 주변 환경 정보가 발생함에 따라, 프로세서(120)는 탑승자에 최적화된 주행 모드를 변경할 수 있다. 예를 들어, 자율 주행 차량(1)이 고속 주행 모드로 주행 중, 인터페이스(110)가 획득한 교통 정체 정보에 기초하여, 프로세서(120)는 탑승자에 최적화된 주행 모드를 고속 주행 모드에서 에코 주행 모드로 변경할 수 있다.
프로세서(120)는 변경된 주행 모드에 기초하여, 자율 주행 차량(1)을 제어할 수 있다.
도 32는 차량 제어 장치가 다른 주변 환경 정보에 기초하여 주행 모드를 변경하는 일 예를 나타낸다.
차량 제어 장치(100)는 고속 도로를 나타내는 위치 정보에 기초하여, 주행 모드를 가속 주행 모드로 결정할 수 있고, 자율 주행 차량(1)은 차량 제어 장치(100)에 제어 하에 가속 주행 모드로 주행할 수 있다.
자율 주행 차량(1)이 가속 주행 모드로 주행 중에, 차량 제어 장치(100)는 랜드 마크(3210) 주변이라는 위치 정보를 획득할 수 있다. 즉, 차량 제어 장치(100)는 GPS(224)로부터 현재 위치 정보를 획득할 수 있고, 차량 제어 장치(100)는 획득된 현재 위치 정보에 기초하여, 자율 주행 차량(1)의 현재 위치가 랜드 마크(2110) 주변임을 인식할 수 있다. 따라서, 차량 제어 장치(100)는 랜드 마크(2110) 주변이라는 위치 정보에 기초하여, 탑승자에 최적화된 주행 모드를 가속 주행 모드에서 제한 속력 모드로 변경할 수 있다.
따라서, 차량 제어 장치(100)는 변경된 제한 속력 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
도 33은 차량 제어 장치가 다른 컨텍스트 정보에 기초하여 주행 모드를 변경하는 일 예를 나타낸다.
차량 제어 장치(100)는 고속 도로를 나타내는 위치 정보에 기초하여, 주행 모드를 가속 주행 모드로 결정할 수 있고, 자율 주행 차량(1)은 차량 제어 장치(100)에 제어 하에 가속 주행 모드로 주행할 수 있다.
자율 주행 차량(1)이 가속 주행 모드로 주행 중에, 차량 제어 장치(100)는 탑승자의 수면 상태 정보를 획득할 수 있다. 즉, 차량 제어 장치(100)는 탑승자의 신체 상태를 센싱할 수 있는 디바이스(3310)로부터 탑승자의 수면 상태 정보를 획득할 수 있다. 따라서, 차량 제어 장치(100)는 탑승자의 수면 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 가속 주행 모드에서 평온 주행 모드로 변경할 수 있다.
따라서, 차량 제어 장치(100)는 변경된 평온 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다.
다시 도 3을 살펴보면, 인터페이스(110)는 컨텍스트 정보 및 주변 환경 정보에 포함된 적어도 2 이상의 서로 다른 정보를 획득할 수 있다. 예를 들어, 인터페이스(110)는 현재 위치가 고속 도로라는 정보 및 자율 주행 차량(1) 주변의 교통 정체 정보를 획득할 수 있다. 또한, 다른 예로, 인터페이스(110)는 탑승자의 스케줄 정보, 교통 원활 정보 및 탑승자 식별 정보를 획득할 수 있다.
프로세서(120)는 획득된 적어도 2 이상의 서로 다른 정보 및 기 설정된 우선 순위에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 프로세서(120)는 기 설정된 우선 순위를 고려하여 획득된 적어도 2 이상의 서로 다른 정보 중 어느 하나를 결정할 수 있고, 결정 결과에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 인터페이스(110)가 획득한 정보가 고속 도로 위치 정보 및 주변 교통 정체 정보이고, 기 설정된 우선 순위에서는 주변 교통 정체 정보가 고속 도로 위치 정보보다 우선한다고 가정하면, 프로세서(120)는 주변 교통 정체 정보에 따라, 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다. 즉, 프로세서(120)는 고속 도로 위치 정보에 따른 가속 주행 모드보다 주변 교통 정체 정보에 따른 에코 주행 모드가 탑승자에게 최적화된 주행모드임을 결정할 수 있다. 컨텍스트 정보 및 주변 환경 정보에 대한 우선 순위는 탑승자에 의해 기 설정될 수 있다.
도 34는 우선 순위 설정 메뉴에 대한 일 예를 나타낸다.
일 예로서, 차량 제어 장치(100)는 우선 순위 설정 메뉴(3410)를 탑승자에게 제공할 수 있다. 예를 들어, 차량 제어 장치(100)는 출력 장치(280)를 통해 우선 순위 설정 메뉴를 화면 상에 표시할 수 있다. 탑승자는 컨텍스트 정보 및 주변 환경 정보 간의 우선 순위를 우선 순위 설정 메뉴(3410)를 통해 설정할 수 있다. 도 34에 도시되어 있듯이, 탑승자는 제 1 순위 정보로써, 신체 상태 정보 중 위급한 상태 정보를 설정할 수 있고, 차량 제어 장치(100)는 획득된 여러 가지 컨텍스트 정보 및 주변 환경 정보 중 위급한 상태 정보를 우선하여, 탑승자에 최적화된 주행 모드로 긴급 주행 모드를 결정할 수 있다.
다른 예로서, 탑승자의 모바일 디바이스는 우선 순위 설정 메뉴(3410)를 탑승자에게 제공할 수 있다. 즉, 탑승자는 모바일 디바이스에서 제공하는 우선 순위 설정 메뉴(3410)를 통해 컨텍스트 정보 및 주변 환경 정보 간의 우선 순위를 설정할 수 있고, 차량 제어 장치(100)는 탑승자의 모바일 디바이스로부터 우선 순위에 관한 정보를 획득할 수 있다.
도 35는 차량 제어 장치가 획득된 컨텍스트 정보 및 주변 환경 정보 중 우선 순위에 기초하여, 탑승자에 최적화된 주행 모드를 결정하는 일 예를 나타낸다.
차량 제어 장치(100)는 탑승자의 신체 상태 정보로써 수면 상태 정보, 및 주변 환경 정보로써 랜드 마크 주변 정보를 획득할 수 있다. 예를 들어, 차량 제어 장치(100)는 탑승자의 신체 상태를 센싱할 수 있는 디바이스(3510)로부터 수면 상태 정보를 획득할 수 있고, 차량 제어 장치(100)는 GPS(224)로부터 획득된 현재 위치 정보에 기초하여 랜드 마크가 주변 정보를 획득할 수 있다.
이어서, 차량 제어 장치(100)는 도 31의 우선 순위 설정 메뉴(3410)에 기초하여 획득된 수면 상태 정보 및 랜드 마크 주변 정보 중 수면 상태 정보를 우선으로 설정할 수 있다. 따라서, 차량 제어 장치(100)는 수면 상태 정보에 기초하여, 탑승자에 최적화된 주행 모드를 평온 주행 모드로 결정할 수 있다.
따라서, 차량 제어 장치(100)는 평온 주행 모드에 기초하여, 자율 주행 차량(1)을 제어할 수 있다.
도 36은 모바일 디바이스와 통신하는 차량 제어 장치의 일 예를 설명하기 위한 도면이다.
차량 제어 장치(100)는 모바일 디바이스(3610)와 인터넷 또는 블루투스와 같은 통신을 통해 서로 연동될 수 있다. 예를 들어, 모바일 디바이스(3610)는 자율 주행 차량(1) 내의 탑승한 탑승자의 디바이스가 될 수 있다.
모바일 디바이스(3610)는 통신 인터페이스(3611), 터치 스크린(3612), 전원 공급부(power supply)(3613), 및 메모리(3614)를 포함할 수 있다. 메모리(3614)는 자율 주행 차량(1)의 주행 모드 및 주행 파라미터를 설정하는 주행 정보를 포함할 수 있다.
도 37은 모바일 디바이스에서 설정 가능한 주행 정보의 일 예를 나타낸다.
탑승자의 모바일 디바이스(3610)는 자율 주행 차량(1)의 주행 파라미터를 설정하는 주행 정보(3710)를 탑승자에게 제공할 수 있다. 즉, 탑승자는 모바일 디바이스(3610)로부터 제공되는 주행 정보(3710)를 통해 자율 주행 차량(1)의 주행 파라미터를 조정할 수 있다. 예를 들어, 탑승자의 모바일 디바이스는 터치 스크린을 통해 주행 정보(3710)를 탑승자에게 제공할 수 있다. 도 37에서는, 일 예시에 따라, 최대 스로틀 개방량(Maximum Throttle), 최대 횡포스(Lateral G-force Limit), 및 서스펜션 주파수(Suspension Frequency)에 관한 파라미터를 설정하는 주행 정보(3710)를 나타낸다.
주행 정보(3710)에서 개시되는 바와 같이, 디폴트 한계 설정(Default Limit Setting)으로 최대 스로틀 개방량은 70%, 최대 횡포스는 0.7g, 서스펜션 주파수는 1.25Hz로 설정될 수 있으며, 최대 한계 설정(Maximum Limit Setting)으로 최대 스로틀 개방량은 100%, 최대 횡포스는 0.9g, 서스펜션 주파수는 2.00Hz로 설정될 수 있으며, 최소 한계 설정(Low Limit Setting)으로 최대 스로틀 개방량은 50%, 최대 횡포스는 0.5g, 서스펜션 주파수는 1.00Hz로 설정될 수 있다. 전술한 각 수치는 탑승자에 의해 변경될 수 있다.
또한, 탑승자는 최대 스로틀 개방량, 최대 횡포스, 및 서스펜션 주파수 각각을 최대 한계 설정, 최소 한계 설정, 또는 디폴트 한계 설정 중 어느 설정으로 설정할 지 여부를 결정할 수 있다. 예를 들어, 도 37에 도시되어 있듯이, 탑승자는 최대 스로틀 개방량, 최대 횡포스, 및 서스펜션 주파수 각각을 최대 한계 설정으로 설정할 수 있다.
또한, 탑승자는 주행 모드에 대응되는 주행 파라미터를 주행 정보(3710)를 통해 설정할 수 있다. 즉, 탑승자는 가속 주행 모드(Acceleration driving mode)의 경우, 최대 스로틀 개방량, 최대 횡포스, 및 서스펜션 주파수 각각을 최대 한계 설정으로 설정할 수 있다. 마찬가지로, 평온 주행 모드(quiet driving mode) 및 기본 주행 모드(normal driving mode) 각각 또한 주행 정보(3710)와 같이 설정될 수 있다.
따라서, 탑승자가 주행 정보(3710)를 설정하는 경우, 차량 제어 장치(100)는 탑승자의 모바일 디바이스(3610)로부터 주행 정보(3710)에서 설정된 파라미터 정보를 전송 받아, 주행 정보(3710)에 기초하여 자율 주행 차량(1)을 제어할 수 있다.
도 36의 차량 제어 장치(100)는 자율 주행 차량(1)를 제어하기 위한 드라이빙 프로파일을 포함할 수 있다.
드라이빙 프로파일은 탑승자에 의해 설정될 수 있으며, 탑승자의 모바일 디바이스에 저장될 수 잇다. 드라이빙 프로파일은 가속도(acceleration), 제동력(brake force), 서스펜션과 같은 주행 파라미터의 임계값들을 포함할 수 있다. 주행 파라미터의 임계값은 안전 한계(safety limit)를 넘지 않도록 설정될 수 있다. 안전 한계는 도로 상황, 교통 법규, 도로 위 다른 차량과의 인접성, 자율 주행 차량(1)의 기술적 능력(technical capability) 등을 고려하여 설정될 수 있다. 드라이빙 프로파일은 탑승자에 의해 업데이트될 수 있으며, 자율 주행 차량(1)이 주행 중인 경우 또한 업데이트될 수 있다.
드라이빙 프로파일은 탑승자의 모바일 디바이스(3610)로부터 차량 제어 장치(100)로 다운로드될 수 있다. 모바일 디바이스(3610)와 차량 제어 장치(100) 간의 통신은 NFC 또는 블루투스와 같은 근거리 통신 기술에 의해 형성될 수 있다. 또한, 차량 제어 장치(100)는 와이파이 또는 셀룰러와 같은 무선 통신 방법을 사용할 수 있다. 예를 들어, 차량 제어 장치(100)는 인터넷을 통해 도로 히스토리 네트워크(road history network)에 접속하여 정보를 수집할 수 있다. 도로 히스토리 네트워크는 특정 도로와 관련한 위험에 대한 정보를 제공할 수 있고, 도로 히스토리 네트워크는 외부 교통 관리 시스템으로부터 제공될 수 있다.
드라이빙 프로파일은 도로 히스토리 네트워크에서 제공되는 정보에 기초하여 조정될 수 있다.
도 38은 차량 제어 장치에서 제공하는 드라이빙 프로파일의 일 예를 나타낸다.
차량 제어 장치(100)은 주행 파라미터를 설정하는 드라이빙 프로파일(3810)을 탑승자에게 제공할 수 있다. 즉, 탑승자는 차량 제어 장치(100)으로부터 제공되는 드라이빙 프로파일(3810)을 통해 자율 주행 차량(1)의 주행 파라미터를 조정할 수 있다. 도 38에서는, 일 예시에 따라, 최대 스로틀 개방량(Maximum Throttle), 최대 횡포스(Lateral G-force Limit), 서스펜션 주파수(Suspension Frequency), 타이어 공기압(tire pressure), 및 승차 높이(ride height)에 관한 파라미터를 설정하는 드라이빙 프로파일(3810)을 나타낸다.
드라이빙 프로파일(3810)에서 개시되는 바와 같이, 디폴트 한계 설정(Default Limit Setting)으로 최대 스로틀 개방량은 70%, 최대 횡포스는 0.7g, 서스펜션 주파수는 1.25Hz, 타이어 공기압은 32psi, 및 승차 높이는 7인치로 설정될 수 있으며, 최대 한계 설정 및 최소 한계 설정 또한 도 38과 같이 설정될 수 있다.
또한, 탑승자는 최대 스로틀 개방량, 최대 횡포스, 및 서스펜션 주파수 각각을 최대 한계 설정, 최소 한계 설정, 또는 디폴트 한계 설정 중 어느 설정으로 설정할 지 여부를 결정할 수 있다. 예를 들어, 도 38에 도시되어 있듯이, 탑승자는 최대 스로틀 개방량, 최대 횡포스, 및 서스펜션 주파수 각각을 최대 한계 설정으로 설정할 수 있다.
도 39는 주행 모드를 설정하는 메뉴의 일 예를 나타낸다.
차량 제어 장치(100)는 탑승자에게 주행 모드를 설정하는 메뉴(3910)를 제공할 수 있다. 즉, 탑승자는 차량 제어 장치(100)에서 제공되는 메뉴(3910)를 통해 각 주행 모드의 파라미터를 설정할 수 있다. 예를 들어, 탑승자가 가속 주행 모드의 ‘파라미터 설정’ 메뉴를 선택하는 경우, 차량 제어 장치(100)는 가속 주행 모드를 위한 파라미터 값을 설정하기 위한 메뉴를 추가로 탑승자에게 제공할 수 있다. 또한, 탑승자가 가속 주행 모드의 ‘디폴트’메뉴를 선택하는 경우, 차량 제어 장치(100)는 기 설정된 바에 따라 가속 주행 모드를 위한 파라미터 값을 설정할 수 있다.
또한, 탑승자는 메뉴(3910)를 통해 새로운 주행 모드를 추가할 수 있다. 또한, 탑승자는 메뉴(3910)를 통해 새로운 주행 모드를 위한 주행 파라미터를 설정할 수 있으며, 새로운 주행 모드가 필요한 컨텍스트 정보 또는 주변 환경 정보를 설정할 수 있다. 예를 들어, 밤 또는 새벽 시간 대에 자율 주행 차량(1)이 기 설정된 속도를 유지하며 주행하기를 탑승자가 원하는 경우, 탑승자는 새벽 주행 모드를 새로 추가할 수 있다. 따라서, 차량 제어 장치(100)는 현재 시간이 밤 또는 새벽 시간인 경우, 탑승자에 최적화된 주행 모드를 새벽 주행 모드로 결정할 수 있고, 결정된 새벽 주행 모드에 따라 자율 주행 차량(1)이 기 설정된 속도를 유지하며 주행하도록 제어할 수 있다.
도 40은 자율 주행 차량 내의 복수의 탑승자들 중 탑승자를 선택하는 메뉴의 일 예를 나타낸다.
일 예로서, 자율 주행 차량(1) 내의 복수의 탑승자들이 존재하는 경우, 차량 제어 장치(100)는 어느 탑승자를 기준으로 주행 모드를 결정할지 여부를 선택하는 메뉴(4010)를 탑승자에게 제공할 수 있다. 즉, 복수의 탑승자들 각각마다 최적화된 주행 모드가 다를 수 있으므로, 차량 제어 장치(100)는 메뉴(4010)를 통해 선택된 탑승자를 기준으로 주행 모드를 결정할 수 있다.
다른 예로서, 차량 제어 장치(100)는 자율 주행 차량(1) 내의 복수의 탑승자들 각각의 모바일 디바이스들을 감지하여, 자율 주행 차량(1) 내의 복수의 탑승자들의 존재를 인식할 수 있다. 따라서, 차량 제어 장치(100)는 복수의 탑승자들 ‘User 1’, ‘User 2’, ‘User 3’… 중 특정 탑승자의 모바일 디바이스를 선택할 것을 질의하는 메뉴(4010)를 탑승자에게 제공할 수 있다. 따라서, 차량 제어 장치(100)는 메뉴(4010)를 통해 선택된 특정 탑승자의 모바일 디바이스를 기준으로 주행 모드를 결정할 수 있다.
도 41은 자율 주행 차량을 제어하는 방법의 일 예를 나타낸다.
도 41에 도시된 방법은, 도 3 내지 도 40의 차량 제어 장치(100)에 의해 수행될 수 있으므로, 중복되는 설명에 대해서는 생략한다.
단계 s4110에서, 차량 제어 장치(100)는 주행 컨텍스트 정보를 획득할 수 있다. 주행 컨텍스트 정보는 자율 주행 차량(1)의 사용자가 어떠한 상황에 있는지를 묘사하는 사용자 환경 정보를 의미할 수 있는 바, 차량 제어 장치(100)는 사용자 환경 정보를 획득할 수 있다. 주행 컨텍스트 정보는 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나를 포함할 수 있는 바, 차량 제어 장치(100)는 자율 주행 차량(1) 내의 탑승자에 대한 컨텍스트 정보 및 자율 주행 차량(1)의 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 컨텍스트 정보는 탑승자의 목적지 정보, 탑승자의 스케줄 정보, 탑승자의 신체 상태 정보, 또는 탑승자의 식별 정보 중 적어도 하나를 포함할 수 있다. 또한, 주변 환경 정보는, 자율 주행 차량(1) 주변의 날씨 정보, 교통 정보, 도로 상태 정보, 또는 자율 주행 차량(1)의 위치 정보 중 적어도 하나를 포함할 수 있다.
또한, 차량 제어 장치(100)는 기 획득된 컨텍스트 정보 또는 주변 환경 정보 외에 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다. 일 예에 따라, 자율 주행 차량(1)이 기 설정된 주행 모드로 주행 중, 차량 제어 장치(100)는 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득할 수 있다.
또한, 차량 제어 장치(100)는 컨텍스트 정보 및 주변 환경 정보에 포함된 적어도 2 이상의 서로 다른 정보를 획득할 수 있다. 예를 들어, 차량 제어 장치(100)는 현재 위치가 고속 도로라는 정보 및 자율 주행 차량(1) 주변의 교통 정체 정보를 획득할 수 있다.
단계 s4120에서, 차량 제어 장치(100)는 s4110에서 획득된 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 차량 제어 장치(100)는 탑승자에 대한 컨텍스트 정보 및 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자가 처해진 상황을 탑승자의 개입 없이 판단할 수 있고, 판단된 상황에 적합한 주행 모드를 결정할 수 있다. 주행 모드는, 자율 주행 차량(1)의 가속 성능을 증대시키기 위한 가속 주행 모드, 자율 주행 차량(1)의 연비 절약을 위한 에코 주행 모드, 자율 주행 차량(1)의 진동 및 가속을 최소화하기 위한 평온 주행 모드, 일정한 속력 이하로 주행하기 위한 속력 제한 모드, 소정의 지형에 최적화된 지형 모드, 탑승자의 위급 상황을 위한 긴급 주행 모드를 포함할 수 있다.또한, 차량 제어 장치(100)는 기 획득된 컨텍스트 정보 또는 주변 환경 정보 외에 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 탑승자에 최적화된 주행 모드를 변경할 수 있다. 즉, 자율 주행 차량(1)이 기 설정된 주행 모드로 주행 중, 다른 컨텍스트 정보 또는 다른 주변 환경 정보가 발생함에 따라, 차량 제어 장치(100)는 탑승자에 최적화된 주행 모드를 변경할 수 있다.
또한, 차량 제어 장치(100)는 획득된 적어도 2 이상의 서로 다른 정보 및 기 설정된 우선 순위에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 즉, 차량 제어 장치(100)는 기 설정된 우선 순위를 고려하여 획득된 두 종류의 정보 중 특정 정보를 결정할 수 있고, 결정된 특정 정보에 기초하여, 탑승자에 최적화된 주행 모드를 결정할 수 있다. 예를 들어, 차량 제어 장치(100)가 획득한 정보가 고속 도로 위치 정보 및 주변 교통 정체 정보인 경우, 기 설정된 우선 순위에서는 주변 교통 정체 정보가 고속 도로 위치 정보보다 우선하므로, 차량 제어 장치(100)는 주변 교통 정체 정보에 따라, 탑승자에 최적화된 주행 모드를 에코 주행 모드로 결정할 수 있다. 즉, 차량 제어 장치(100)는 고속 도로 위치 정보에 따른 가속 주행 모드보다 주변 교통 정체 정보에 따른 에코 주행 모드가 탑승자에게 최적화된 주행모드임을 결정할 수 있다.
또한, 차량 제어 장치(100)는 s4110에서 획득한 사용자 환경 정보에 기초하여 주행 스타일을 결정할 수 있다.
단계 s4130에서, 차량 제어 장치(100)는 s4120에서 결정된 주행 모드에 따라, 자율 주행 차량(1)을 제어할 수 있다. 예를 들어, 차량 제어 장치(100)는 결정된 주행 모드에 따라, 주행 파라미터를 조정할 수 있다. 또한, 차량 제어 장치(100)는 결정된 주행 모드에 따라, 자율 주행 차량(1)의 추진 장치, 또는 주변 장치를 제어할 수 있다.
다른 실시예로써, 차량 제어 장치(100)는 s4120에서 결정된 주행 모드를 사용자에게 제공하고, 탑승자로부터 주행 모드에 대한 선택이 입력되면 s4130에서 선택된 주행 모드에 따라 자율 주행 차량(1)을 제어할 수도 있다.
이때 차량 제어 장치(100)는 탑승자에게 하나의 주행 모드를 제시할 수도 있고, 복수의 주행 모드를 제시할 수도 있다. 복수의 주행 모드가 제시되는 경우에는 현재 상황에 적합한 순서대로 각 주행 모드에 대해 우선 순위 정보가 함께 제공되거나, 가장 우선 순위가 높은 주행모드에 대한 정보가 함께 제공될 수도 있다. 하나의 주행 모드가 제시되는 경우, 탑승자는 제시된 주행 모드를 수락하거나, 다른 주행 모드를 요청할 수 있다. 마찬가지로, 복수의 주행 모드가 제시되는 경우에 탑승자는 제시된 주행 모드 중 하나를 선택하거나 다른 주행 모드를 요청할 수 있다.
또 다른 실시예로써, 차량 제어 장치(100)는 s4120에서 결정된 주행 모드를 사용자에게 제공하고, 일정 시간 동안 탑승자로부터 주행 모드에 대한 선택 없는 경우에 s4130에서 결정된 주행 모드에 따라 자율 주행 차량(1)을 제어할 수도 있다. 만약 복수의 주행 모드가 제시되는 경우 탑승자로부터 일정 시간 동안 주행 모드 선택이 없다면, 차량 제어 장치(100)는 가장 우선 순위가 높은 주행 모드로 자율 주행 차량(1)을 제어할 수 있다.
차량 제어 장치(100)는 스피커나 디스플레이와 같은 출력 장치를 통해 주행 모드를 사용자에게 제시할 수 있고, 입력 장치(260)를 통해 사용자로부터 주행 모드 선택이나 다른 주행 모드 요청을 입력 받을 수 있다.
지금까지 설명한 실시예는 자율 주행 차량뿐만 아니라 수동 주행 차량에 적용될 수도 있다. 예를 들어, 탑승자에 대한 컨텍스트 정보나 주변 환경 정보를 기준으로 주행 모드가 결정되면, 탑승자가 수동으로 차량을 주행할 때에도 차량 제어 장치(100)는 결정된 주행 모드에 따라서 서스펜션이나 브레이크 감도 등 주행 파라미터를 설정하거나 변경할 수 있다. 이 경우, 탑승자는 운전자가되며, 운전자는 주행 모드에 따라서 상이한 승차감이나 운행감을 느낄 수 있다.
상기 살펴 본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (34)

  1. 자율 주행 차량(autonomous vehicle)을 제어하는 장치에 있어서,
    상기 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 상기 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 인터페이스(interface); 및
    상기 획득된 적어도 하나의 정보에 기초하여 상기 탑승자에 최적화된 주행 모드를 결정하고, 상기 결정된 주행 모드에 따라 상기 자율 주행 차량을 제어하는 프로세서(processor);를 포함하는, 장치.
  2. 제 1 항에 있어서,
    상기 인터페이스는,
    다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득하고,
    상기 프로세서는,
    상기 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 상기 주행 모드를 변경하는, 장치.
  3. 제 1 항에 있어서,
    상기 인터페이스는,
    컨텍스트 정보 및 주변 환경 정보에 포함된 적어도 2이상의 서로 다른 정보를 획득하고,
    상기 프로세서는,
    기 설정된 우선 순위, 및 상기 획득된 적어도 2이상의 서로 다른 정보에 기초하여, 상기 탑승자에 최적화된 주행 모드를 결정하는, 장치.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    획득 가능한 컨텍스트 정보, 및 상기 자율 주행 차량에 적용 가능한 주행 모드 간의 연관 관계에 기초하여, 상기 획득된 적어도 하나의 정보에 대응되는 상기 주행 모드를 결정하는, 장치.
  5. 제 4 항에 있어서,
    상기 연관 관계는,
    상기 탑승자에 의해 기 설정되거나, 상기 탑승자의 주행 히스토리에 의해 학습되어 결정되는, 장치.
  6. 제 1 항에 있어서,
    상기 프로세서는,
    상기 결정된 주행 모드에 따라, 상기 자율 주행 차량의 주행 파라미터를 제어하는, 장치.
  7. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 탑승자의 목적지 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 목적지 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  8. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 탑승자의 스케줄 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 스케줄 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  9. 제 8 항에 있어서,
    상기 인터페이스는,
    상기 탑승자의 모바일 디바이스로부터 상기 스케줄 정보를 획득하는, 장치.
  10. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 탑승자의 신체 상태 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 신체 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  11. 제 10 항에 있어서,
    상기 인터페이스는,
    상기 탑승자의 신체 상태를 센싱하는 디바이스로부터 상기 신체 상태 정보를 획득하는, 장치.
  12. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 자율 주행 차량의 탑승자 식별 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 탑승자 식별 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  13. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 자율 주행 차량의 위치 정보를 상기 주변 환경 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 위치 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  14. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 자율 주행 차량 주변의 교통 상태 정보를 상기 주변 환경 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 교통 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  15. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 자율 주행 차량 주변의 도로 상태 정보를 상기 주변 환경 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 도로 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  16. 제 1 항에 있어서,
    상기 인터페이스는,
    상기 자율 주행 차량 주변의 날씨 정보를 상기 주변 환경 정보로써 획득하고,
    상기 프로세서는,
    상기 획득된 날씨 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 장치.
  17. 자율 주행 차량(autonomous vehicle)을 제어하는 방법에 있어서,
    상기 자율 주행 차량의 탑승자에 대한 컨텍스트 정보 및 상기 자율 주행 차량의 주변 환경 정보 중 적어도 하나의 정보를 획득하는 단계;
    상기 획득된 적어도 하나의 정보에 기초하여, 상기 탑승자에 최적화된 주행 모드를 결정하는 단계; 및
    상기 결정된 주행 모드에 따라, 상기 자율 주행 차량을 제어하는 단계;를 포함하는, 방법.
  18. 제 17 항에 있어서,
    상기 획득하는 단계는,
    다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보를 획득하고,
    상기 결정하는 단계는,
    상기 다른 컨텍스트 정보 및 다른 주변 환경 정보 중 적어도 하나의 정보에 기초하여, 상기 주행 모드를 변경하는, 방법.
  19. 제 17 항에 있어서,
    상기 획득하는 단계는,
    컨텍스트 정보 및 주변 환경 정보에 포함된 적어도 2 이상의 서로 다른 정보를 획득하고,
    상기 결정하는 단계는,
    기 설정된 우선 순위, 및 상기 획득된 적어도 2 이상의 서로 다른 정보에 기초하여, 상기 탑승자에 최적화된 주행 모드를 결정하는, 방법.
  20. 제 17 항에 있어서,
    상기 결정하는 단계는,
    획득 가능한 컨텍스트 정보, 및 상기 자율 주행 차량에 적용 가능한 주행 모드 간의 연관 관계에 기초하여, 상기 획득된 적어도 하나의 정보에 대응되는 상기 주행 모드를 결정하는, 방법.
  21. 제 20 항에 있어서,
    상기 연관 관계는,
    상기 탑승자에 의해 기 설정되거나, 상기 탑승자의 주행 히스토리에 의해 학습되어 결정되는, 방법.
  22. 제 17 항에 있어서,
    상기 제어하는 단계는,
    상기 결정된 주행 모드에 따라, 상기 자율 주행 차량의 주행 파라미터를 제어하는, 방법.
  23. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 탑승자의 목적지 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 목적지 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  24. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 탑승자의 스케줄 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 스케줄 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  25. 제 24 항에 있어서,
    상기 획득하는 단계는,
    상기 탑승자의 모바일 디바이스로부터 상기 스케줄 정보를 획득하는, 방법.
  26. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 탑승자의 신체 상태 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 신체 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  27. 제 26 항에 있어서,
    상기 획득하는 단계는,
    상기 탑승자의 신체 상태를 센싱하는 디바이스로부터 상기 신체 상태 정보를 획득하는, 방법.
  28. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 자율 주행 차량의 탑승자 식별 정보를 상기 컨텍스트 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 탑승자 식별 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  29. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 자율 주행 차량의 위치 정보를 상기 주변 환경 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 위치 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  30. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 자율 주행 차량 주변의 교통 상태 정보를 상기 주변 환경 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 교통 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  31. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 자율 주행 차량 주변의 도로 상태 정보를 상기 주변 환경 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 도로 상태 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  32. 제 17 항에 있어서,
    상기 획득하는 단계는,
    상기 자율 주행 차량 주변의 날씨 정보를 상기 주변 환경 정보로써 획득하고,
    상기 결정하는 단계는,
    상기 획득된 날씨 정보에 기초하여, 상기 자율 주행 차량의 주행 모드를 결정하는, 방법.
  33. 제 17 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  34. 사용자 환경 정보를 획득하는 단계;
    상기 사용자 환경 정보에 기반하여 주행 스타일을 결정하는 단계; 및
    상기 주행 스타일에 따라서 차량의 주행 파라미터를 설정하는 단계를 포함하는 차량 제어 방법.
PCT/KR2016/008324 2015-07-30 2016-07-29 자율 주행 차량을 제어하는 장치 및 방법 WO2017018842A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/744,528 US20180203451A1 (en) 2015-07-30 2016-07-29 Apparatus and method of controlling an autonomous vehicle
EP16830875.7A EP3330825A4 (en) 2015-07-30 2016-07-29 Apparatus and method for controlling an autonomous driving vehicle

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201562199182P 2015-07-30 2015-07-30
US62/199,182 2015-07-30
KR10-2016-0054109 2016-05-02
KR1020160054109A KR20170015113A (ko) 2015-07-30 2016-05-02 자율 주행 차량을 제어하는 장치 및 방법
KR10-2016-0095970 2016-07-28
KR1020160095970A KR102659196B1 (ko) 2015-07-30 2016-07-28 자율 주행 차량을 제어하는 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2017018842A1 true WO2017018842A1 (ko) 2017-02-02

Family

ID=57884809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/008324 WO2017018842A1 (ko) 2015-07-30 2016-07-29 자율 주행 차량을 제어하는 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2017018842A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019125446A1 (en) * 2017-12-20 2019-06-27 Intel Corporation Coordinated autonomous driving
US10688867B2 (en) 2018-05-22 2020-06-23 International Business Machines Corporation Vehicular medical assistant
CN111399490A (zh) * 2018-12-27 2020-07-10 华为技术有限公司 一种自动驾驶方法以及装置
US10921812B2 (en) 2018-05-22 2021-02-16 International Business Machines Corporation System and method for rendezvous coordination of an autonomous automotive vehicle with an ambulance
US10953888B2 (en) 2018-05-22 2021-03-23 International Business Machines Corporation Autonomous vehicle monitoring

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009913A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
JP2011240816A (ja) * 2010-05-18 2011-12-01 Denso Corp 自律走行制御装置
JP2013123363A (ja) * 2011-12-09 2013-06-20 Hyundai Motor Co Ltd 電気自動車用運転者エコドライブ支援システム及び支援方法
KR20150016381A (ko) * 2012-06-01 2015-02-11 구글 인코포레이티드 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기
KR20150032598A (ko) * 2011-02-18 2015-03-26 혼다 기켄 고교 가부시키가이샤 운전자 거동에 응답하는 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009913A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
JP2011240816A (ja) * 2010-05-18 2011-12-01 Denso Corp 自律走行制御装置
KR20150032598A (ko) * 2011-02-18 2015-03-26 혼다 기켄 고교 가부시키가이샤 운전자 거동에 응답하는 시스템 및 방법
JP2013123363A (ja) * 2011-12-09 2013-06-20 Hyundai Motor Co Ltd 電気自動車用運転者エコドライブ支援システム及び支援方法
KR20150016381A (ko) * 2012-06-01 2015-02-11 구글 인코포레이티드 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3330825A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019125446A1 (en) * 2017-12-20 2019-06-27 Intel Corporation Coordinated autonomous driving
US10688867B2 (en) 2018-05-22 2020-06-23 International Business Machines Corporation Vehicular medical assistant
US10921812B2 (en) 2018-05-22 2021-02-16 International Business Machines Corporation System and method for rendezvous coordination of an autonomous automotive vehicle with an ambulance
US10953888B2 (en) 2018-05-22 2021-03-23 International Business Machines Corporation Autonomous vehicle monitoring
CN111399490A (zh) * 2018-12-27 2020-07-10 华为技术有限公司 一种自动驾驶方法以及装置
CN111399490B (zh) * 2018-12-27 2021-11-19 华为技术有限公司 一种自动驾驶方法以及装置

Similar Documents

Publication Publication Date Title
WO2017018842A1 (ko) 자율 주행 차량을 제어하는 장치 및 방법
WO2020235813A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2017138702A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2017022881A1 (ko) 차량 및 그 제어방법
WO2018088615A1 (ko) 차량 주행 제어 장치 및 방법
WO2019098434A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2017018850A1 (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2021090971A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2020017716A1 (ko) 차량용 로봇 및 상기 로봇의 제어 방법
WO2018110789A1 (en) Vehicle controlling technology
WO2018088614A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2021182655A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2017030240A1 (ko) 차량 보조 장치 및 차량
WO2019132078A1 (ko) 차량에 구비된 디스플레이 장치
WO2022154323A1 (ko) 차량과 연동된 디스플레이 장치 및 그것의 동작방법
WO2019198998A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2019151575A1 (ko) 차량 단말기 및 그것을 포함하는 운송 시스템의 제어방법
WO2018110762A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2019066477A1 (en) AUTONOMOUS VEHICLE AND ITS CONTROL METHOD
WO2019054719A1 (ko) 차량 운전 보조 장치 및 차량
WO2020080566A1 (ko) 전자 제어 장치 및 통신 장치
WO2021141145A1 (ko) 영상 출력 장치 및 그것의 제어 방법
WO2017155199A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2020017677A1 (ko) 영상 출력 장치
WO2017018844A1 (ko) 자율 주행 차량 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830875

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15744528

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016830875

Country of ref document: EP