WO2017018852A1 - 자율 주행 차량 및 자율 주행 차량 제어 방법 - Google Patents

자율 주행 차량 및 자율 주행 차량 제어 방법 Download PDF

Info

Publication number
WO2017018852A1
WO2017018852A1 PCT/KR2016/008355 KR2016008355W WO2017018852A1 WO 2017018852 A1 WO2017018852 A1 WO 2017018852A1 KR 2016008355 W KR2016008355 W KR 2016008355W WO 2017018852 A1 WO2017018852 A1 WO 2017018852A1
Authority
WO
WIPO (PCT)
Prior art keywords
autonomous vehicle
information
vehicle
function
user
Prior art date
Application number
PCT/KR2016/008355
Other languages
English (en)
French (fr)
Inventor
크로닌존
마이클 허파인스크리스토퍼
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160054121A external-priority patent/KR20170015114A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP16830885.6A priority Critical patent/EP3330827A4/en
Priority to US15/744,489 priority patent/US10962378B2/en
Publication of WO2017018852A1 publication Critical patent/WO2017018852A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00357Air-conditioning arrangements specially adapted for particular vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • B60H1/00742Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by detection of the vehicle occupants' presence; by detection of conditions relating to the body of occupants, e.g. using radiant heat detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]

Definitions

  • the present disclosure relates to an autonomous vehicle and an autonomous driving control method.
  • a method of controlling an autonomous vehicle in communication with a device and an autonomous vehicle in communication with a device are disclosed.
  • a method of controlling an autonomous vehicle using information received from a device is provided.
  • the autonomous vehicle in communication with the device can be efficiently controlled.
  • FIG. 1A is a diagram illustrating an example in which an autonomous vehicle is controlled through communication with a device, according to an exemplary embodiment.
  • 1B is a block diagram illustrating an example of a configuration of an autonomous vehicle according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of information used to control an autonomous vehicle according to an exemplary embodiment.
  • FIG. 3 is a flowchart illustrating a method of controlling an autonomous vehicle using device side information according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a method of controlling an autonomous vehicle using device side information and vehicle side information, according to an exemplary embodiment.
  • FIG. 5 is a block diagram illustrating an apparatus for executing functions that an autonomous vehicle may have, according to an exemplary embodiment.
  • FIGS. 6 and 7 are block diagrams of a device according to an exemplary embodiment.
  • FIG. 8 is a block diagram illustrating an autonomous vehicle and a wearable device communicating with the autonomous vehicle, according to an exemplary embodiment.
  • FIG. 9 is a block diagram illustrating vehicle software used for controlling an autonomous vehicle according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating a control method of the autonomous vehicle through communication between the autonomous vehicle and the device, according to an exemplary embodiment.
  • 11 is a flowchart illustrating a method of controlling an autonomous vehicle using a function matrix according to an embodiment.
  • FIG. 12 is a flowchart illustrating a method of controlling an autonomous vehicle according to a function matched with data received according to an embodiment.
  • FIG. 13 is a block diagram illustrating wearable device software used to control an autonomous vehicle, according to an exemplary embodiment.
  • FIG. 14 is a flowchart illustrating a method of communicating and controlling an autonomous vehicle with a wearable device within a communication range, according to an exemplary embodiment.
  • 15 is a flowchart illustrating a method of controlling a wearable device communicating with an autonomous vehicle, according to an exemplary embodiment.
  • 16 is a diagram illustrating a database included in an autonomous vehicle and a wearable device, according to an exemplary embodiment.
  • 17A to 17C are diagrams illustrating a screen for setting a guideline linking a function of an autonomous vehicle and a function of a device, according to an exemplary embodiment.
  • FIG. 18 is a diagram illustrating an example of updating a guide line indicating a correlation between a function of an autonomous vehicle and a function of a device, according to an exemplary embodiment.
  • 19 is a diagram illustrating a mutual relationship between a driving related function of a self-driving vehicle and a function of a device, according to an exemplary embodiment.
  • 20 is a diagram illustrating a mutual relationship between a peripheral device function of a self-driving vehicle and a function of a device, according to an exemplary embodiment.
  • 21 is a diagram illustrating a mutual relationship between a sensor-related function of a self-driving vehicle and a function of a device, according to an exemplary embodiment.
  • 22 is a diagram illustrating an example of controlling an autonomous vehicle using biometric information according to an exemplary embodiment.
  • 23 is a flowchart illustrating a method of controlling an autonomous vehicle using biometric information according to an embodiment.
  • 24 is a flowchart illustrating a method of controlling an autonomous vehicle using biometric information and vehicle side information, according to an exemplary embodiment.
  • FIG. 25 is a diagram illustrating an example of controlling an autonomous vehicle using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • FIG. 26 is a flowchart illustrating a method of controlling an autonomous vehicle using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • FIG. 27 is a flowchart illustrating a method of controlling an audio / video device of an autonomous vehicle using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • FIG. 28 is a flowchart illustrating a method of controlling peripheral devices of an autonomous vehicle using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • 29 is a diagram illustrating an example of controlling an autonomous vehicle according to biometric information indicating a behavior of a user, according to an exemplary embodiment.
  • FIG. 30 is a flowchart illustrating a method of controlling an autonomous vehicle according to biometric information representing a user's behavior according to an embodiment.
  • 31 is a diagram illustrating an example of controlling an autonomous vehicle using schedule information according to an exemplary embodiment.
  • 32 is a flowchart illustrating a method of controlling a driving route of an autonomous vehicle using schedule information according to an exemplary embodiment.
  • 33 is a flowchart illustrating a method of controlling a driving speed of an autonomous vehicle using schedule information according to an exemplary embodiment.
  • 34 is a diagram illustrating an example of controlling a navigation function of an autonomous vehicle according to driving environment information according to an exemplary embodiment.
  • 35 is a flowchart illustrating a method of controlling a navigation function of an autonomous vehicle according to driving environment information according to an exemplary embodiment.
  • 36 is a diagram illustrating an example of controlling an autonomous driving function of an autonomous vehicle according to driving environment information according to an exemplary embodiment.
  • FIG. 37 is a flowchart illustrating a method of controlling an autonomous driving function of an autonomous vehicle according to driving environment information according to an exemplary embodiment.
  • 38 is a diagram illustrating an example of controlling an autonomous vehicle according to driving environment information representing area information, according to an exemplary embodiment.
  • 39 is a flowchart illustrating a method of controlling an autonomous vehicle according to driving environment information representing area information, according to an exemplary embodiment.
  • 40 is a diagram illustrating an example of controlling an autonomous vehicle according to weather information, according to an exemplary embodiment.
  • 41 is a flowchart illustrating a method of controlling an autonomous vehicle according to weather information according to an embodiment.
  • FIG. 42 is a diagram illustrating an example of controlling an autonomous vehicle using information obtained from a server.
  • FIG. 42 is a diagram illustrating an example of controlling an autonomous vehicle using information obtained from a server.
  • 43 is a flowchart illustrating a method of controlling an autonomous vehicle using information obtained from a server, according to an exemplary embodiment.
  • 44 is a diagram illustrating an example of controlling an autonomous vehicle using information obtained from a plurality of devices, according to an exemplary embodiment.
  • 45 is a diagram illustrating an example of controlling an autonomous vehicle according to an embodiment by displaying an inquiry screen.
  • 46 is a flowchart illustrating a method of controlling an autonomous vehicle according to an exemplary embodiment by displaying an inquiry screen.
  • FIG. 47 illustrates an example of adding a waypoint to a driving route of an autonomous vehicle without displaying an inquiry screen.
  • FIG. 48 is a flowchart illustrating a method of adding a waypoint to a driving route of an autonomous vehicle without displaying an inquiry screen, according to an exemplary embodiment.
  • 49 is a flowchart illustrating a method of controlling an autonomous vehicle using a wearable device communicating with the autonomous vehicle according to an embodiment of the present disclosure.
  • 50 is a flowchart illustrating a method of controlling an autonomous vehicle using a wearable device which communicates with an autonomous vehicle by pairing according to an embodiment.
  • the step of receiving device-side information obtained from the device in communication with the autonomous vehicle from the device, the device-side information and the autonomous that can be obtained in the device Determining the vehicle control information corresponding to the received device side information based on the guide line associated with the vehicle control information controlling at least one function of the traveling vehicle and the autonomous driving vehicle according to the determined vehicle control information. It can provide an autonomous vehicle control method comprising the step of controlling.
  • another aspect of the present invention provides a communication apparatus for receiving device side information obtained from a device communicating with an autonomous vehicle from the device, and device side information obtainable from the device and at least one function of the autonomous vehicle.
  • An autonomous vehicle including a processor configured to determine the vehicle control information corresponding to the received device side information and control the autonomous vehicle according to the determined vehicle control information based on the guide line associated with the vehicle control information Can be provided.
  • Still another aspect may further provide a computer readable non-transitory recording medium having recorded thereon a computer program for executing the method of the first aspect on a computer.
  • the autonomous vehicle may include a vehicle capable of autonomous driving through an additional setting or an additional process. Therefore, the autonomous vehicle may include not only a vehicle capable of performing an autonomous driving function at present, but also a general vehicle which is not yet capable of performing an autonomous driving function.
  • an autonomous vehicle may include a manual vehicle.
  • FIG. 1A illustrates an example in which the autonomous vehicle 100 is controlled through communication with the device 1000.
  • the autonomous vehicle 100 may perform a communication connection with the device 1000.
  • the autonomous vehicle 100 may form a short range communication link with the device 1000, or may form a mobile communication link (eg, 3G, 4G, 5G, etc.).
  • Short-range communication may include Bluetooth, Bluetooth Low Energy (BLE), Wi-Fi, ultra wideband (UWB), Zigbee, Near Field Communication Unit (NFC), Ant +, and the like, but is not limited thereto.
  • the device 1000 described in the present embodiments may correspond to a portable mobile device having a mobile communication function such as a smart phone, a tablet device, a personal digital assistant (PDA), a wearable device, a laptop, or the like. It is not limited.
  • the device 1000 when the device 1000 corresponds to a wearable device, the device 1000 may be a smart band, a smart watch, a smart glasses, etc. worn on the body of the user who rides in the autonomous vehicle 100.
  • the autonomous vehicle 100 may perform communication based on the distance between the autonomous vehicle 100 and the device 1000.
  • the autonomous vehicle 100 may request communication from the autonomous vehicle 100 to the device 1000 located within a predetermined range.
  • the autonomous vehicle 100 may receive device side information in response to the communication request.
  • the autonomous vehicle 100 may determine whether the device 1000 is within a predetermined range from the autonomous vehicle. When it is determined that the device 1000 is within a predetermined range from the autonomous vehicle 100, the autonomous vehicle 100 may request the device 1000 to communicate and receive device side information in response to the communication request. .
  • the device 1000 may obtain device side information in various ways.
  • the device 1000 may obtain sensing information by using a sensor included in the device 1000, may receive data from the outside of the device 1000 through communication, and may acquire communication information.
  • new data may be generated using data stored in a storage medium in the device 1000.
  • the autonomous vehicle 100 may receive device side information from the device 1000.
  • the device side information may mean information obtained by the device 1000, and the meaning of the detailed device side information will be described later with reference to FIG. 2.
  • the autonomous vehicle 100 may obtain vehicle control information for controlling the autonomous vehicle 100.
  • the autonomous vehicle 100 may determine the vehicle control information using the device side information received from the device 1000.
  • the autonomous vehicle 100 may be controlled according to the vehicle control information. For example, when the vehicle control information indicates to travel to the A destination, the autonomous vehicle 100 may be controlled to autonomously travel to the A destination according to the vehicle control information.
  • 1B is a block diagram illustrating an example of a configuration of an autonomous vehicle 100 according to an embodiment.
  • the autonomous vehicle 100 may include a communication device 110 and a processor 120.
  • a communication device 110 may include a communication device 110 and a processor 120.
  • other general-purpose components may be further included in the autonomous vehicle 100 in addition to the components illustrated in FIG. 1B.
  • the communication device 110 may communicate with the outside of the autonomous vehicle 100.
  • the communication device 110 may communicate with the device 1000.
  • the processor 120 may control the autonomous vehicle 100.
  • the processor 120 may acquire vehicle control information and control the autonomous vehicle 100 according to the obtained vehicle control information.
  • FIG. 2 is a diagram illustrating an example of information used to control the autonomous vehicle 100, according to an exemplary embodiment.
  • the device side information 210 may mean information obtained by the device 1000.
  • the device side information 210 may include device communication information 231, which is information that the device 1000 obtains through communication, and device sensing information 241, which is information sensed by a sensor included in the device 1000.
  • Device storage information 251 which is information stored in a storage medium of the device 1000
  • device generation information which is information generated by the device 1000, may be included.
  • the device communication information 231 may include information that the device 1000 obtains through communication from a server.
  • the device communication information 231 may include weather information, schedule information, driving environment information (eg, road situation information, surrounding area information, map information, terrain information, traffic) that the device 1000 obtains through communication from a server.
  • driving environment information eg, road situation information, surrounding area information, map information, terrain information, traffic
  • facility information gas station information, car repair shop information, parking information, etc.
  • news information eg, nearby performance information, etc.
  • the device sensing information 241 may include information obtained from at least one sensor included in the device 1000.
  • the device 1000 may include one or more sensors.
  • the device 1000 may include a pulse sensor, a blood pressure sensor, a blood glucose sensor, a respiratory rate sensor, a blood alcohol concentration sensor, a GPS sensor, a camera, an inertial sensor, an acceleration sensor, a geomagnetic sensor, a temperature sensor, a humidity sensor, a gyroscope sensor , Pressure sensor, proximity sensor, infrared sensor, microphone, voice recognition sensor, pupil recognition sensor, biometric signature sensor, state recognition sensor, fatigue recognition sensor, vibration sensor and the like, but is not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
  • the device storage information 251 may include at least one of information previously stored in a storage medium included in the device 1000 or information received from the outside of the device 1000 and stored in the storage medium included in the device 1000. .
  • the device generation information may mean information generated by the device 1000 using at least one of the device communication information 231, the device sensing information 241, and the device storage information 251.
  • the device generation information may include information obtained by calculating the device storage information 251 and the device sensing information 241.
  • the device generation information may include map information, which is device storage information 251, and waypoint information determined using biometric information, which is device sensing information 241.
  • the vehicle side information 220 may mean information obtained by the autonomous vehicle 100.
  • the vehicle side information is vehicle communication information 232 which is information obtained by the autonomous vehicle 100 through communication, and vehicle sensing information 242 which is information sensed by a sensor included in the autonomous vehicle 100.
  • Vehicle storage information 252 which is information stored in a storage medium of the autonomous vehicle 100
  • vehicle generation information (not shown), which is information generated by the autonomous vehicle 100, may be included.
  • the vehicle communication information 232 may include information that the autonomous vehicle 100 obtains through communication from a server.
  • the vehicle communication information 232 may include weather information, schedule information, driving environment information (eg, road situation information, surrounding area information, map information, terrain information) that the autonomous vehicle 100 obtains through communication from a server. , Traffic accident information, enforcement information, caution section information, etc.), facility information (gas station information, car shop information, parking information, etc.), news information (eg, nearby performance information, etc.), but is not limited thereto. no. Meaning of each information can be intuitively inferred by those skilled in the art from the name, so a detailed description thereof will be omitted.
  • the vehicle sensing information 242 may include information obtained from at least one sensor included in the autonomous vehicle 100.
  • the autonomous vehicle 100 may include one or more sensors.
  • the autonomous vehicle 100 may include a pulse sensor, a blood pressure sensor, a blood sugar sensor, a respiratory rate sensor, a blood alcohol concentration sensor, a GPS, a camera, an inertial sensor, an acceleration sensor, a geomagnetic sensor, a temperature sensor, a humidity sensor, a gyroscope Sensors, barometric pressure sensors, proximity sensors, infrared sensors, microphones, voice recognition sensors, pupil recognition sensors, biometric signature sensors, status sensors, fatigue sensors, vibration sensors and vehicle sensors (e.g., air flow sensors, Air temperature sensor, barometric pressure sensor, water temperature sensor, throttle position sensor, motor position sensor, oxygen sonsor, Knock sensors, oil sensors, fuel sensors, tire sensors, brake sensors, speed sensors, external temperature sensors, external illuminance sensors, ambient perception sensors, and the like.
  • a pulse sensor e.g., a blood pressure
  • the vehicle sensor may include a vehicle device that detects an environment inside or outside the vehicle or detects a driver's behavior.
  • the vehicle storage information 252 includes information previously stored in a storage medium included in the autonomous vehicle 100 and / or information received from an exterior of the autonomous vehicle 100 and stored in a storage medium included in the vehicle 100. can do.
  • the vehicle generation information may refer to information generated by the autonomous vehicle 100 using at least one of the vehicle communication information 232, the vehicle sensing information 242, and the vehicle storage information 252.
  • the vehicle generation information may include information obtained by calculating the vehicle storage information 252 and the vehicle sensing information 242.
  • the vehicle generation information may include vehicle interior temperature information, which is the vehicle sensing information 242, and preset temperature information determined by using vehicle exterior temperature information, which is the vehicle sensing information 242.
  • the communication information 230 may include at least one of the device communication information 231 and the vehicle communication information 232
  • the sensing information 240 may include at least one of the device sensing information 241 and the vehicle sensing information 242.
  • the storage information 250 may include at least one of the device storage information 251 and the vehicle storage information 252.
  • FIG. 3 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using the device side information 210, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive at least one of device communication information 231, device sensing information 241, device storage information 251, and device generation information.
  • the device side information 210 refers to information that can be obtained from the device.
  • the device side information 210 may include at least one of device communication information 231, device sensing information 241, device storage information 251, and device generation information (not shown). That is, the device side information 210 may include biometric information, schedule information, surrounding situation information, weather information, and the like.
  • the autonomous vehicle 100 is based on a guide line that links device side information 210 that can be acquired by the device 1000 and vehicle control information that controls at least one function of the autonomous vehicle 100.
  • the vehicle control information corresponding to the received device side information 210 may be determined.
  • the guide line may refer to a kind of situation response manual in which the device side information 210 and / or the vehicle side information and the vehicle control information are linked.
  • the device-side information 210 including a bio-signal indicating an emergency may be associated with vehicle control information for controlling the autonomous vehicle 100 to add a hospital as a waypoint according to the guideline.
  • the navigation function corresponding to the schedule information included in the device side information 210 may be determined according to the guidelines included in the function matrix.
  • the guide line may be set at the time of shipment of the autonomous vehicle 100 or based on a user input.
  • the guidelines set at the time of shipment may be updated based on a user's input.
  • the functional matrix may represent an associated mutual relationship between the functions of the autonomous vehicle 100 and the functions of the device 1000 according to one or more guidelines.
  • the vehicle control information may mean information used for controlling at least one function of the autonomous vehicle 100. For example, depending on the vehicle control information, navigation, accelerator, brake, handle, air conditioner, heating device, window, ventilation device, audio / video device, turn signal, interior lighting, exterior included in the autonomous vehicle 100 Lighting, driving devices, and the like may be controlled, but is not limited thereto.
  • the vehicle control information may include control information of the acceleratoretier for controlling the amount of air sucked into the engine, control information for adding a waypoint of navigation, control information for setting the navigation route, and cooling for controlling the vehicle internal temperature. It may include at least one of control information for controlling the device, heating device, ventilation device and the like.
  • the autonomous vehicle 100 may receive at least one of control parameters for controlling each of the devices that execute a plurality of functions of the autonomous vehicle 100 based on the guide line. It may be set corresponding to the information 210.
  • the autonomous vehicle 100 may determine control parameters such as a cooling device, a heating device, and a ventilation device included in the autonomous vehicle 100 so as to correspond to device information including information about a user's body temperature.
  • the autonomous vehicle 100 may determine the driving route of the navigation included in the autonomous vehicle 100 to correspond to the device information including the place information on the schedule of the user.
  • the autonomous vehicle 100 may determine the set temperature of the cooling device included in the autonomous vehicle 100 to correspond to device information including information about the vehicle internal temperature.
  • the autonomous vehicle 100 may be controlled according to the vehicle control information determined in operation S320.
  • the processor 120 may control the autonomous vehicle 100 according to the vehicle control information determined in operation S320.
  • the autonomous vehicle 100 may set a driving route and / or a driving average speed of the autonomous vehicle according to the vehicle control information determined in step S320.
  • the autonomous vehicle 100 may add a waypoint on the driving route of the autonomous vehicle according to the vehicle control information determined in step S320.
  • the autonomous vehicle 100 may determine the internal brightness, the set temperature, the playback content, the driving mode, etc. of the autonomous vehicle according to the vehicle control information determined in step S320.
  • the autonomous vehicle 100 may change the driving path of the autonomous vehicle to the bypass path according to the vehicle control information determined in step S320.
  • the autonomous vehicle 100 may stop autonomous driving according to the vehicle control information determined in step S320.
  • the driving mode may mean a state in which the vehicle is controlled according to the surrounding situation of the vehicle or the situation of the vehicle occupant.
  • the driving mode is a standard mode in which the vehicle is controlled according to a driving mode suitable for normal driving, an eco mode in which the vehicle is controlled according to a driving mode suitable for eco-friendly economic driving, and a vehicle in accordance with a sporty driving method.
  • an anti-slip mode in which the vehicle is controlled according to a driving mode suitable for a slippery road surface
  • a sleep mode in which the vehicle is controlled to be suitable for the occupant's sleep, and the vehicle is controlled to be suitable when the occupant is reading
  • Slow mode in which the vehicle is controlled to drive at a low speed below a predetermined speed according to an emergency mode in which the vehicle is controlled to be suitable for a reading mode, an emergency occurrence, a special situation, etc., around the vehicle and / or the occupant of the vehicle Safe mode with vehicle control focusing on safety, ideal for fast arrival to your destination
  • It may include a speed mode in which the vehicle is controlled according to one driving method, but is not limited thereto.
  • the meaning of each mode can be intuitively deduced by the person skilled in the art from the name and the above description, and thus a detailed description thereof will be omitted.
  • FIG. 4 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using the device side information 210 and the vehicle side information 220, according to an exemplary embodiment.
  • Step S410 the autonomous vehicle 100 requests a communication from the device 1000.
  • Step S410 may optionally be performed.
  • the autonomous vehicle 100 determines whether the device 1000 is located within a predetermined distance from the autonomous vehicle 100, and when the device 1000 is located within a predetermined distance from the autonomous vehicle 100, communication is performed. You can request According to a communication request of the autonomous vehicle 100, a communication link between the autonomous vehicle 100 and the device 1000 may be formed.
  • the autonomous vehicle 100 may form a short range communication link with the device 1000, or may form a mobile communication link (eg, 3G, 4G, 5G, etc.).
  • the autonomous vehicle 100 may receive device side information 210 from the device 1000.
  • the autonomous vehicle 100 may receive the device side information 210 from the device 1000 through the communication link formed in step S410.
  • the device 1000 may transmit the device side information 210 to the autonomous vehicle 100 in response to a communication request from the autonomous vehicle 100.
  • the device 1000 may transmit the device side information 210 to the autonomous vehicle 100 without a communication request from the autonomous vehicle 100. That is, the device 1000 recognizes the autonomous vehicle 100 without the communication request from the autonomous vehicle 100, and the device communication information 231, the device sensing information 241, and the device storage information as the autonomous vehicle. At least one of 251 and device generation information may be transmitted.
  • the autonomous vehicle 100 may acquire vehicle side information 220. Step S430 may be optionally performed.
  • the autonomous vehicle 100 may obtain at least one of vehicle communication information 232, vehicle sensing information 242, vehicle storage information 252, and vehicle generation information (not shown).
  • the autonomous vehicle 100 communicates with the server via ice server section information, steep slope warning section information, sharp corner warning section information, congestion status information, weather information, schedule information, surrounding situation information, surrounding area information, Map information, terrain information, traffic accident information, enforcement information, gas station information, car repair shop information, parking information, news information, nearby performance information, etc. can be received, but is not limited thereto.
  • the autonomous vehicle 100 may include a pulse sensor, a blood pressure sensor, a blood glucose sensor, a respiratory rate sensor, a blood alcohol concentration sensor, a GPS, a camera, an inertial sensor, an acceleration sensor, a geomagnetic sensor, a temperature sensor, and the like included in the autonomous vehicle 100.
  • Humidity sensors gyroscope sensors, barometric pressure sensors, proximity sensors, infrared sensors, microphones, voice recognition sensors, pupil recognition sensors, biometric signature sensors, status sensors, fatigue sensors, vibration sensors, vehicle sensors (e.g., air flow sensors, Sensing from intake air temperature sensor, atmospheric pressure sensor, water temperature sensor, throttle position sensor, motor position sensor, oil sensor, fuel sensor, tire sensor, brake sensor, speed sensor, external temperature sensor, external illuminance sensor, ambient perception sensor Information may be obtained, but is not limited thereto.
  • air flow sensors Sensing from intake air temperature sensor, atmospheric pressure sensor, water temperature sensor, throttle position sensor, motor position sensor, oil sensor, fuel sensor, tire sensor, brake sensor, speed sensor, external temperature sensor, external illuminance sensor, ambient perception sensor Information may be obtained, but is not limited thereto.
  • the autonomous vehicle 100 may obtain information pre-stored in a storage medium included in the autonomous vehicle 100 and / or information received from an exterior of the vehicle 100 and stored in the storage medium included in the vehicle 100. have.
  • the autonomous vehicle 100 may generate and obtain vehicle generation information by using at least one of the vehicle communication information 232, the vehicle sensing information 242, and the vehicle storage information 252.
  • the autonomous vehicle 100 may determine vehicle control information.
  • the autonomous vehicle 100 may determine vehicle control information corresponding to the received device side information 210 and / or the acquired vehicle side information 220 based on the guide line.
  • the guide line may mean a kind of situation response manual in which the device side information 210 and / or the vehicle side information 220 and the vehicle control information are linked.
  • the device-side information 210 including the bio-signal indicating that the user is sleeping according to the guideline and the vehicle-side information 220 including the oil remaining information may control the autonomous vehicle 100 to add a gas station as a waypoint. It may be linked with the vehicle control information.
  • the autonomous vehicle 100 corresponds to the received device side information 210 based on the guide line, at least one of control parameters for controlling each of the apparatuses executing the plurality of functions of the autonomous vehicle 100. Can be set.
  • the autonomous vehicle 100 may be included in the autonomous vehicle 100 to correspond to the device information including the body temperature information of the user and the vehicle side information 220 including the information about the vehicle external temperature.
  • the control parameters of the cooling device, heating device, ventilation device and the like can be determined. If the air outside the vehicle is cool and the user is hot, the autonomous vehicle 100 may acquire vehicle control information for controlling the autonomous vehicle 100 to open a window. However, when the air outside the vehicle is hot and the user is hot, the autonomous vehicle 100 may obtain vehicle control information for controlling the autonomous vehicle 100 to operate the air conditioner.
  • the autonomous vehicle 100 is included in the autonomous vehicle 100 to correspond to the device side information 210 including the biosignal indicating that the user is reading and the vehicle side information 220 including the vehicle exterior illumination information. Control parameters of the interior lighting can be determined.
  • the autonomous driving vehicle 100 may correspond to the device side information 210 including schedule information indicating a schedule time of the user and the vehicle side information 220 including information about the air pressure of the tire.
  • the average travel speed may be set by determining a control parameter of the included traveling device.
  • the autonomous vehicle 100 may be controlled according to the vehicle control information determined in operation S440.
  • the processor 120 may control the autonomous vehicle 100 according to the vehicle control information determined in operation S440. This step may refer to step S330 described above.
  • the autonomous vehicle 100 may be controlled according to a control condition received from the user.
  • a method in which the autonomous vehicle 100 is controlled according to the control condition received from the user will be described.
  • the autonomous vehicle 100 may provide a user with mapping information between a function of the device 1000 communicating with the autonomous vehicle 100 and a function of the autonomous vehicle 100.
  • the mapping information may indicate whether a function of the autonomous vehicle 100 and a function of the device 1000 are interoperable with each other.
  • the mapping information may include interworking condition setting information of a function of the autonomous vehicle 100 and a function of the device 1000.
  • the mapping information may include information about a guide line to be described later.
  • the autonomous vehicle 100 may provide mapping information to the user.
  • the autonomous vehicle 100 may display mapping information through a display provided in the autonomous vehicle 100.
  • the autonomous vehicle 100 may output mapping information in the form of voice or the like through a speaker provided in the autonomous vehicle 100.
  • the autonomous vehicle 100 may transmit the mapping information to the device 1000 so that the mapping information may be displayed through a display provided in the device 1000.
  • the autonomous vehicle 100 may receive a control condition of a first function among functions of the autonomous vehicle 100 from a user.
  • the control condition may indicate whether a function of the autonomous vehicle 100 and a function of the device 1000 are interrelated with each other.
  • the control condition may specifically include a control method which is a method in which the autonomous driving amount 100 is controlled.
  • the control method according to an embodiment may represent a method in which a function of the autonomous vehicle 100 and a function of the device 1000 are interconnected.
  • the autonomous vehicle 100 may receive information indicating a control condition of the first function among the functions of the autonomous vehicle 100. For example, information indicating the control condition of the navigation function of the autonomous vehicle 100 can be received.
  • the autonomous vehicle 100 may receive biometric information of a user or schedule information of a user used as a control condition of a navigation function based on a user input.
  • the user input may include a voice, a gesture, a screen touch, a button touch, and the like.
  • the autonomous vehicle 100 may obtain a user input through a voice recognition, a gesture recognition, a touch recognition, or the like.
  • the user input obtained by the autonomous vehicle 100 may be shared with the device 1000.
  • control condition may be related to the second function of the device 1000 corresponding to the first function according to the mapping information.
  • the autonomous vehicle 100 is a control condition for controlling the autonomous vehicle 100 to be controlled so that the navigation function of the autonomous vehicle 100 is activated according to a schedule management function or biometric information acquisition function of the device 1000. Can be obtained based on the user input.
  • the autonomous vehicle 100 may receive a control scheme of a first function according to a control condition from a user.
  • control method may represent a method in which a function of the autonomous vehicle 100 and a function of the device 1000 are interconnected.
  • control scheme may represent a scheme in which a schedule management function of the device 1000 and a driving mode determination function of the autonomous vehicle 1000 are linked.
  • control method may represent a method in which the biometric information acquisition function of the user of the device 1000 and the navigation function of the autonomous vehicle 100 are linked.
  • the navigation function of the autonomous vehicle 100 is controlled according to the health state of the user acquired using the biometric information acquisition function to set the destination of the autonomous vehicle 100 as a hospital.
  • the autonomous vehicle 100 may obtain a control scheme based on a user input.
  • the navigation function of the autonomous vehicle 100 is controlled according to a user's schedule acquired by the device 1000 using the schedule management function to set the destination of the autonomous vehicle 100 as a place corresponding to the schedule.
  • the autonomous vehicle 100 may obtain a control scheme indicating a based on a user input.
  • the autonomous vehicle 100 may control the first function of the autonomous vehicle 100 when the information received from the device 1000 satisfies the control condition.
  • the autonomous vehicle 100 may activate the first function of the autonomous vehicle 100 according to the control condition.
  • the autonomous vehicle 100 may activate a navigation function or control a specific operation.
  • the autonomous vehicle 100 may control a destination setting function of the navigation.
  • the autonomous vehicle 100 may control the first function according to the received control scheme.
  • the autonomous vehicle 100 may receive information from the device 1000 and control a corresponding function of the autonomous vehicle 1000 according to a control scheme indicated by the received information. For example, when the autonomous vehicle 100 receives information indicating that there is a problem with a user's health state from the device 1000, the autonomous vehicle 100 may control the navigation function to set the destination of the autonomous vehicle 100 as a hospital. As another example, when the autonomous vehicle 100 receives information from the device 1000 that the user has a live broadcast schedule in the building A after 20 minutes, the autonomous vehicle 100 controls the navigation function to move the destination of the autonomous vehicle 100 to the building A. Can be set.
  • the device 1000 may provide the user with mapping information between a function of the autonomous vehicle 100 communicating with the device 1000 and a function of the device 1000.
  • the mapping information may indicate whether a function of the autonomous vehicle 100 and a function of the device 1000 are interoperable with each other.
  • the mapping information may include interworking condition setting information of a function of the autonomous vehicle 100 and a function of the device 1000.
  • the mapping information may include information about a guide line to be described later.
  • the device 1000 may provide mapping information to the user.
  • the device 1000 may display mapping information through a display provided in the device 1000.
  • the device 1000 may output mapping information in the form of voice or the like through a speaker provided in the device 1000.
  • the device 1000 may transmit the mapping information to the autonomous vehicle 100 so that the mapping information may be output through a display or a speaker provided in the autonomous vehicle 100.
  • the device 1000 may receive a control condition of a third function of the autonomous vehicle 100 corresponding to the fourth function among the functions of the device 1000 from the user according to the mapping information.
  • the control condition may indicate whether a function of the autonomous vehicle 100 and a function of the device 1000 are interrelated with each other.
  • the control condition may specifically include a control method which is a method in which the autonomous driving amount 100 is controlled.
  • the control method according to an embodiment may represent a method in which a function of the autonomous vehicle 100 and a function of the device 1000 are interconnected.
  • the device 1000 may receive information indicating a control condition of the third function of the autonomous vehicle 100 corresponding to the fourth function among the plurality of functions of the device 1000, based on a user input. For example, the device 1000 may acquire, based on a user input, information indicating a control condition of a navigation function of the autonomous vehicle 100 corresponding to a biometric information acquisition function among a plurality of functions of the device 1000. have. In this case, the device 1000 may obtain a control condition for activating a navigation function based on the biometric information acquired by the device 1000 based on a user input. As another example, the device 1000 may obtain information indicating a control condition of the navigation function of the autonomous vehicle 100 corresponding to the schedule management function of the device 1000 based on a user input. In this case, in this case, the device 1000 may acquire a control condition for activating the navigation function based on the schedule information acquired by the device 1000, based on a user input.
  • the device 1000 may receive a control scheme of a third function according to a control condition from a user.
  • control method may represent a method in which a function of the autonomous vehicle 100 and a function of the device 1000 are interconnected.
  • control scheme may represent a scheme in which a schedule management function of the device 1000 and a driving mode determination function of the autonomous vehicle 1000 are linked.
  • control method may represent a method in which the biometric information acquisition function of the user of the device 1000 and the navigation function of the autonomous vehicle 100 are linked.
  • the navigation function of the autonomous vehicle 100 is controlled according to the health state of the user acquired using the biometric information acquisition function to set the destination of the autonomous vehicle 100 as a hospital.
  • the device 1000 may obtain a control scheme based on a user input.
  • the navigation function of the autonomous vehicle 100 is controlled according to a user's schedule acquired by the device 1000 using the schedule management function to set the destination of the autonomous vehicle 100 as a place corresponding to the schedule.
  • the device 1000 may obtain a control method indicating a based on a user input.
  • the user input may include a voice, a gesture, a screen touch, a button touch, and the like.
  • the device 1000 may obtain a user input through a voice recognition, a gesture recognition, a touch recognition, or the like.
  • the user input obtained by the device 1000 may be shared with the autonomous vehicle 100.
  • the device 1000 may transmit the received control condition and / or control method to the autonomous vehicle 100.
  • the device 1000 may acquire a control condition and / or a control scheme based on a user input. For example, the device 1000 may generate or receive information indicating a control condition and / or a control scheme based on a user input.
  • the device 1000 may transmit the obtained control condition and / or control method to the autonomous vehicle 100.
  • the device 1000 may transmit, to the autonomous vehicle 100, information indicating a control condition and / or a control scheme obtained through wireless communication connected to the autonomous vehicle 100.
  • the device 1000 may transmit the control scheme to the autonomous vehicle 100 together with the control condition.
  • the device 1000 may transmit information generated as the fourth function is executed to the autonomous vehicle 100.
  • the device 1000 may execute a fourth function among a plurality of functions that may be executed in the device 1000 according to a user input.
  • the device 1000 may transmit information obtained as the fourth function is executed to the autonomous vehicle 100.
  • the device 1000 may transmit, to the autonomous vehicle 100, information indicating a control condition and / or a control scheme for the third function of the autonomous vehicle 100 acquired in relation to the user input and the fourth function.
  • Can transmit The information indicating the control condition and / or control scheme for the third function may include control request information for the third function of the autonomous vehicle 100.
  • the device 1000 may transmit, to the autonomous vehicle 100, information requesting to set a destination of a navigation generated as a hospital as the biometric information acquisition function of the device 1000 executed according to a user input is executed. have.
  • FIG. 5 is a block diagram illustrating an apparatus for executing functions that an autonomous vehicle 100 may have, according to an embodiment.
  • the autonomous vehicle 100 may include a power supply 5400, a driving device 5100, a sensor device 5200, a peripheral device 5300, a processor 120, and a memory 5500.
  • a power supply 5400 a driving device 5100, a sensor device 5200, a peripheral device 5300, a processor 120, and a memory 5500.
  • FIG. 5 only components related to the present exemplary embodiment are illustrated. Therefore, it will be understood by those of ordinary skill in the art that other general-purpose components may be further included in addition to the components illustrated in FIG. 5.
  • the traveling device 5100 includes a brake 5111, an accelerator 5112, a steering 5113, a navigation 5130, an energy source 5140, an engine / motor 5160, a transmission 5170, a wheel 5180, and It may include a tire 5190.
  • the brake 5111 may be a combination of mechanisms configured to slow down the autonomous vehicle 100.
  • the brake 5111 may use friction to reduce the speed of the wheels 5180 and / or tires 5190.
  • the accelerator 5112 may be a combination of mechanisms configured to control the operating speed of the engine / motor 5160 to control the speed of the autonomous vehicle 100.
  • the accelerator 5112 may adjust the amount of throttle opening to adjust the amount of gas mixture of fuel air flowing into the engine / motor 5160, and control the power and thrust by adjusting the amount of throttle opening.
  • the steering 5113 may be a device used to adjust the direction of the autonomous vehicle 100.
  • the navigation 5130 may be a system configured to determine a travel route for the autonomous vehicle 100.
  • the navigation 5130 may be configured to dynamically update the driving route while the autonomous vehicle 100 is driving.
  • the navigation 5130 may use data from the GPS 5210 and the maps to determine a driving route for the autonomous vehicle 100.
  • Energy source 5140 may be a source of energy that powers the engine / motor 5160 in whole or in part. That is, engine / motor 5160 may be configured to convert energy source 5140 into mechanical energy. Examples of energy sources 5140 may be gasoline, diesel, propane, other compressed gas based fuels, ethanol, solar panels, batteries, other electrical power sources, and the like. According to another embodiment, the energy source 5140 may be a fuel tank, a battery, a capacitor, a flywheel, or the like. According to an embodiment, the energy source 5140 may provide energy to the systems and devices of the autonomous vehicle 100.
  • Engine / motor 5160 may be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine. According to another embodiment, when the autonomous vehicle 100 is a gas-electric hybrid car, the engine / motor 5160 may be a gasoline engine and an electric motor.
  • Transmission 5170 may be configured to transmit mechanical power from engine / motor 5160 to wheel 5180 and / or tire 5190.
  • the transmission 5170 may include a gearbox, a clutch, a differential, a drive shaft, and the like.
  • the drive shafts may include one or more axles configured to couple to the wheel 5180 and / or the tire 5190.
  • Wheel 5180 and / or tire 5190 may be configured in a variety of formats including unicycle, bicycle / motorcycle, tricycle, or four-wheeled type of vehicle / truck. For example, other wheel / tire types may be possible, such as including six or more wheels. Wheel 5180 and / or tire 5190 may be coupled to at least one wheel fixedly attached to transmission 5170 and at least coupled to a rim of the wheel that may be in contact with a driving surface. It may include one tire.
  • the sensor device 5200 may include a plurality of sensors configured to sense information about the environment in which the autonomous vehicle 100 is located, as well as one or more actuators configured to modify the position and / or orientation of the sensors. Can include them.
  • the sensor device 5200 includes a GPS (Global Positioning System) 5210, a camera 5220, an inertial sensor 5231, an acceleration sensor 5302, a geomagnetic sensor 5333, a temperature sensor 5231, and a humidity sensor 5122.
  • GPS Global Positioning System
  • Gyroscope sensor 5250 barometric pressure sensor 5260, distance sensor 5271, infrared sensor 5272, tire air pressure sensor 5280, speed sensor 5290, IMU (Inertial Measurement Unit) (not shown), A RADAR unit (not shown), a LIDAR unit (not shown), an RGB sensor (illuminance sensor) (not shown), etc. may be included, but are not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
  • the GPS 5220 may be a sensor configured to estimate the geographic location of the autonomous vehicle 100. That is, the GPS 5220 may include a transceiver configured to estimate the position of the autonomous vehicle 100 with respect to the earth.
  • the IMU can be a combination of sensors configured to detect positional and orientation changes of the autonomous vehicle 100 based on inertial acceleration.
  • the combination of sensors may include accelerometers and gyroscopes.
  • the RADAR unit may be a sensor configured to detect objects in the environment in which the autonomous vehicle 100 is located using a wireless signal. In one embodiment, in addition to sensing objects, the RADAR unit may be configured to sense the speed and / or direction of the objects.
  • the LIDAR unit may be a sensor configured to detect objects in the environment in which the autonomous vehicle 100 is located using a laser. More specifically, the LIDAR unit may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser. The LIDAR unit may be configured to operate in a coherent (eg, using hetirodine detection) or noncoherent detection mode.
  • the camera 5220 may be a still camera or a video camera configured to record three-dimensional images of the interior of the autonomous vehicle 100.
  • the camera 5220 may include a plurality of cameras, and the plurality of cameras may be disposed at a plurality of locations on the inside and the outside of the autonomous vehicle 100.
  • the peripheral device 5300 may include a geofence 5310, a wiper 5320, a lighting device 5330, a heating and cooling device 5340, a ventilation device 5350, an input device 5260, an output device 5370, and a memory 5500. ) May be included.
  • the lighting device 5330 may include an internal light 5331 and an external light 5332.
  • Exterior light 5332 may include a light 5333 and a turn signal 5344.
  • the air conditioning unit 5340 may include a heater 5331 and an air conditioner 5322.
  • the ventilator 5350 may include a ventilator 5331 and a window opener 5332.
  • the input device 5260 means a means for inputting data for controlling the autonomous vehicle 100.
  • the input device 5260 includes a key pad, a dome switch, and a touch screen 5361 (contact capacitive type, pressure resistive layer type, infrared sensing type, and surface ultrasonic conduction type). , Integral tension measuring method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the input device 5360 may include a microphone 5312, which may be configured to receive audio (eg, voice commands) from the occupant of the autonomous vehicle 100.
  • the output device 5370 may output an audio signal or a video signal, and the output device 5370 may include a speaker 5371 and a display 5172.
  • the display 5172 is a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display (3D). display, an electrophoretic display.
  • the output device 5370 may include two or more displays 5172.
  • the speaker 5371 outputs audio data received from the communication device 110 or stored in the memory 5500.
  • the input device 5260 and the output device 5370 may include a network interface, and may be implemented as a touch screen.
  • the processor 120 typically controls the overall operation of the autonomous vehicle 100.
  • the processor 120 executes programs stored in the memory 5500 to control the driving device 5100, the sensor device 5200, the peripheral device 5300, the communication device 110, and the like. Can be.
  • the communication device 110 may include at least one antenna for wirelessly communicating with another device.
  • communication device 110 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth.
  • the communication device 110 controlled by the processor 120 may transmit and receive a wireless signal.
  • the processor 120 may execute a program included in the memory 5500 in order for the communication device 110 to transmit and receive a wireless signal with the cellular network.
  • the power supply 5400 may be configured to provide power to some or all of the components of the autonomous vehicle 100.
  • the power supply 5400 can include a rechargeable lithium ion or lead-acid battery.
  • the memory 5500 may include a magnetic disk drive, an optical disk drive, and a flash memory, and according to an embodiment, may be a removable USB data storage device.
  • the memory 5500 may store system software for executing the embodiments related to the present disclosure.
  • System software for executing the embodiments related to the present disclosure may be stored in a portable storage medium.
  • FIG. 6 and 7 are block diagrams of the device 1000 according to an exemplary embodiment.
  • the device 1000 may include a user input unit 1100, an output unit 1200, a processor 1300, and a communication unit 1500.
  • the device 1000 may be implemented by more components than those illustrated in FIG. 6, and the device 1000 may be implemented by fewer components than those illustrated in FIG. 6.
  • the device 1000 may include a sensing unit 1400 and an A / V in addition to the user input unit 1100, the output unit 1200, the processor 1300, and the communication unit 1500.
  • the apparatus may further include an input unit 1600 and a memory 1700.
  • the user input unit 1100 means a means for a user to input data for controlling the device 1000.
  • the user input unit 1100 includes a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the user input unit 1100 may receive a user input related to the control of the autonomous vehicle 100.
  • the user input unit 1100 may receive a user input (eg, a schedule input) related to the use of the conventional device 1000.
  • the output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210, an audio output unit 1220, and a vibration motor 1230. have.
  • the display unit 1210 displays and outputs information processed by the device 1000.
  • the display unit 1210 may display a user interface related to the control of the autonomous vehicle 100 and a user interface related to the use of the conventional device 1000.
  • the display unit 1210 may be used as an input device in addition to the output device.
  • the display unit 1210 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display, an electrophoretic display.
  • the device 1000 may include two or more display units 1210 according to an implementation form of the device 1000. In this case, the two or more display units 1210 may be disposed to face each other using a hinge.
  • the sound output unit 1220 outputs audio data received from the communication unit 1500 or stored in the memory 1700.
  • the sound output unit 1220 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, and a notification sound) performed by the device 1000.
  • the sound output unit 1220 may include a speaker, a buzzer, and the like.
  • the vibration motor 1230 may output a vibration signal.
  • the vibration motor 1230 may output a vibration signal corresponding to the output of audio data or video data (eg, a call signal reception sound, a message reception sound, etc.).
  • the vibration motor 1230 may output a vibration signal when a touch is input to the touch screen.
  • the processor 1300 typically controls the overall operation of the device 1000.
  • the processor 1300 may execute the programs stored in the memory 1700 to thereby execute the user input unit 1100, the output unit 1200, the sensing unit 1400, the communication unit 1500, and the A / V input unit 1600. ) Can be controlled overall.
  • the processor 1300 may acquire the device side information 210 used by the autonomous vehicle 100 to obtain vehicle control information.
  • the method of obtaining the device side information 210 has been described above with reference to FIGS. 1A to 4.
  • the sensing unit 1400 may detect a state of the device 1000 or a state around the device 1000 and transmit the detected information to the processor 1300.
  • the sensing unit 1400 may include a geomagnetic sensor 1410, an acceleration sensor 1420, a temperature / humidity sensor 1430, an infrared sensor 1440, a gyroscope sensor 1450, and a position sensor. (Eg, GPS) 1460, barometric pressure sensor 1470, proximity sensor 1480, RGB sensor 1illuminance sensor 1490, and the like, but are not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
  • the communication unit 1500 may include one or more components that allow communication between the device 1000 and the autonomous vehicle 100 or the device 1000 and a server.
  • the communicator 1500 may include a short range communicator 1510, a mobile communicator 1520, and a broadcast receiver 1530.
  • the short-range wireless communication unit 151 includes a Bluetooth communication unit, a Bluetooth low energy (BLE) communication unit, a near field communication unit (Near Field Communication unit), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray ( An infrared data association (IrDA) communication unit, a Wi-Fi Direct communication unit, an ultra wideband communication unit, an Ant + communication unit, and the like may be included, but is not limited thereto.
  • the mobile communication unit 1520 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the broadcast receiving unit 1530 receives a broadcast signal and / or broadcast related information from the outside through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel. According to an implementation example, the device 1000 may not include the broadcast receiver 1530.
  • the communication unit 1500 may transmit / receive information necessary for obtaining the device side information 210 with the HMD device 2000, the server 4000, and the peripheral device 3000.
  • the A / V input unit 1600 is for inputting an audio signal or a video signal, and may include a camera 1610 and a microphone 1620.
  • the camera 1610 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode.
  • the image captured by the image sensor may be processed by the processor 1300 or a separate image processor (not shown).
  • the image frame processed by the camera 1610 may be stored in the memory 1700 or transmitted to the outside through the communication unit 1500. Two or more cameras 1610 may be provided according to the configuration aspect of the terminal.
  • the microphone 1620 receives an external sound signal and processes the external sound signal into electrical voice data.
  • the microphone 1620 may receive an acoustic signal from an external device or speaker.
  • the microphone 1620 may use various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the memory 1700 may store a program for processing and controlling the processor 1300, and may store data input to or output from the device 1000.
  • the memory 1700 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic Disk It may include a storage medium of the type, such as an optical disk.
  • RAM Random Access Memory
  • SRAM Static Random Access Memory
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • PROM Programmable Read-Only Memory
  • Magnetic Memory Magnetic Disk It may include a storage medium of the type, such as an optical disk.
  • Programs stored in the memory 1700 may be classified into a plurality of modules according to their functions.
  • the programs stored in the memory 1700 may be classified into a UI module 1710, a touch screen module 1720, a notification module 1730, and the like. .
  • the UI module 1710 may provide a specialized UI, GUI, or the like that is linked with the device 1000 for each application.
  • the touch screen module 1720 may detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the processor 1300.
  • the touch screen module 1720 according to some embodiments may recognize and analyze a touch code.
  • the touch screen module 1720 may be configured as separate hardware including a controller.
  • Various sensors may be provided inside or near the touch screen to detect a touch or proximity touch of the touch screen.
  • An example of a sensor for sensing a touch of a touch screen is a tactile sensor.
  • the tactile sensor refers to a sensor that senses the contact of a specific object to the extent that a person feels or more.
  • the tactile sensor may sense various information such as the roughness of the contact surface, the rigidity of the contact object, the temperature of the contact point, and the like.
  • an example of a sensor for sensing a touch of a touch screen is a proximity sensor.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the user's touch gesture may include tap, touch and hold, double tap, drag, pan, flick, drag and drop, and swipe.
  • the notification module 1730 may generate a signal for notifying occurrence of an event of the device 1000. Examples of events occurring in the device 1000 include call signal reception, message reception, key signal input, and schedule notification.
  • the notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210, may output the notification signal in the form of an audio signal through the sound output unit 1220, and the vibration motor 1230. Through the notification signal may be output in the form of a vibration signal.
  • FIG. 8 to 16 illustrate a method of controlling the autonomous vehicle 100 communicating with the wearable device 1001 when the device 1000 is the wearable device 1001, and the wearable device 1001 according to an embodiment.
  • the autonomous vehicle 100 controlled according to the acquired device side information 210 will be described.
  • FIG. 8 is a block diagram illustrating the wearable device 1001 communicating with the autonomous vehicle 100 and the autonomous vehicle 100, according to an exemplary embodiment.
  • the wearable device 1001 includes a communication unit 1500, a sensing unit 1400, an output unit 2100, a processor 1300, a power supply 810, additional components 820, and the like.
  • Memory 1700 may be included.
  • the autonomous vehicle 100 may include a communication device 110, a sensor device 5200, a travel device 5100, a peripheral device 5300, a processor 120, a power supply 5400, a memory 5500, May include a motif system 850 and a control system 860.
  • the wearable device 1001 or the autonomous vehicle 100 may be implemented by more components than those illustrated in FIG. 8, and the wearable device 1001 may be implemented by fewer components than those illustrated in FIG. 8.
  • the autonomous vehicle 100 may be implemented.
  • the sensor device 5200 may include a GPS 5210.
  • the positioning system of the autonomous vehicle 100 includes, in addition to the GPS 5210, positioning systems such as dead reckoning, Galileo, Bedou, GLOSNASS, and long range navigation (LORAN) systems. can do.
  • positioning systems such as dead reckoning, Galileo, Bedou, GLOSNASS, and long range navigation (LORAN) systems. can do.
  • LORAN long range navigation
  • Motif system 850 may provide direct control to devices such as engine / motor 5160, power train, wheel 5180, steering 5113, etc. of autonomous vehicle 100.
  • the control system 860 may control the movement of the autonomous vehicle 100.
  • the control system 860 may be included in the processor 120 to generate a signal for controlling the movement of the autonomous vehicle 100.
  • the autonomous vehicle 100 may include software for determining a current location and a driving route of the autonomous vehicle 100.
  • the control system 860 can send commands to the motif system 850 and / or the memory 5500.
  • the memory 5500 may store autonomous vehicle software 5381 for operating the autonomous vehicle 100.
  • the autonomous vehicle software 5381 may control the operation of the autonomous vehicle 100.
  • the autonomous vehicle function database 5538 may store data identifying a function of the autonomous vehicle 100, and store information linking the function of the wearable device 1001 to the function of the autonomous vehicle 100. have.
  • a guide line indicating a linkage scheme between a function of the autonomous vehicle 100 and a function of the wearable device 1001 may be pre-loaded into the autonomous vehicle function database 5332.
  • the function of the autonomous vehicle 100 and the function of the wearable device 1001 may be pre-loaded.
  • the wearable device 1001 may include, but is not limited to, a smart band, a smart watch, a smart glass, a mobile computing device (eg, a smartphone), and the like.
  • the additional component 820 may include a display unit 1210.
  • the display unit 1210 may provide information to the user.
  • the display unit 1210 may receive a user input.
  • the sensing unit 1400 may include a GPS.
  • the positioning system of the wearable device 1001 may include a positioning system such as dead reckoning, Galileo, Bedou, GLOSNASS, and long range navigation (LORAN) system in addition to GPS.
  • LORAN long range navigation
  • the wearable device 1001 may include a speaker, a vibration device, and voice recognition software, but is not limited thereto.
  • the processor 1300 of the wearable device 1001 may execute a software by receiving a command from a memory to execute the functions described in the embodiments.
  • the memory 1700 may include a wearable device function database 1702.
  • the wearable device function database 1702 may store a function of the wearable device 1001.
  • the wearable device function database 1702 may store data identifying a function of the wearable device 1001, and include a guideline including information linking a function of the wearable device 1001 to a function of the autonomous vehicle 100. Can be saved.
  • a guideline indicating a linkage method between the function of the autonomous vehicle 100 and the function of the wearable device 1001 may be pre-loaded into the wearable device function database 1702.
  • FIG. 9 is a block diagram illustrating the autonomous vehicle software 900 used to control the autonomous vehicle 100, according to an embodiment.
  • Autonomous vehicle software 900 may include, but is not limited to, vehicle handshaking software 910, vehicle sink and setup software 920, and vehicle monitor and operation software 930.
  • the vehicle handshaking software 910 may include software that enables the autonomous vehicle 100 to perform handshaking or pairing with the wearable device 1001.
  • the vehicle sink and setup software 920 establishes a linkage between the function of the autonomous vehicle 100 and the function of the wearable device 1001, so that the autonomous vehicle 100 can synchronize with the function of the wearable device 1001. Can mean software.
  • the vehicle monitor and operation software 930 monitors data of the autonomous vehicle 100 and data received from the wearable device 1001, and when the associated function is triggered, the triggered operation is triggered by the autonomous vehicle 100.
  • the autonomous vehicle 100 may be controlled to be performed at.
  • FIG. 10 is a flowchart illustrating a control method of the autonomous vehicle 100 through communication between the autonomous vehicle 100 and the wearable device 1001 according to an exemplary embodiment.
  • step S1010 the autonomous vehicle 100 receives the activation of the autonomous vehicle 100.
  • the autonomous vehicle software may be activated in the autonomous vehicle 100.
  • the autonomous vehicle 100 determines whether the wearable device 1001 is within a communication range.
  • the autonomous vehicle 100 may determine that the wearable device 1001 is within the communication range.
  • the communication range may be inside the autonomous vehicle 100 or may be a range within a predetermined distance from the autonomous vehicle 100. If there is no data received from the wearable device 1001, the autonomous vehicle 100 determines that there is no wearable device 1001 within a current communication range, and searches for a signal from the wearable device 1001. Can be.
  • step S1030 the autonomous vehicle 100 runs the vehicle handshaking software.
  • the autonomous vehicle 100 may execute vehicle handshaking software for pairing between the autonomous vehicle 100 and the wearable device 1001.
  • step S1040 the autonomous vehicle 100 executes the vehicle sink and setup software.
  • the autonomous vehicle 100 may execute vehicle sink and setup software when synchronizing between one or more functions of the autonomous vehicle 100 and the wearable device.
  • step S1050 the autonomous vehicle 100 runs the vehicle monitor and operation software.
  • the vehicle monitor and the operation software monitor data of the autonomous vehicle 100 and data received from the wearable device 1001, and when the associated function is triggered, the triggered operation is performed in the autonomous vehicle 100.
  • the autonomous vehicle 100 may be controlled.
  • 11 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to an embodiment using a function matrix.
  • the autonomous vehicle 100 receives information of the wearable device function database 1702 of the wearable device 1001 from the wearable device 1001.
  • the autonomous vehicle 100 may receive function information from the wearable device function database 1702 through the vehicle sink and setup software 920.
  • the autonomous vehicle 100 may store the received information in the autonomous vehicle function database 5538.
  • the autonomous vehicle 100 may display one or more inquiry screens on the display 5172 of the autonomous vehicle 100.
  • the autonomous vehicle 100 receives a user input for a function matrix.
  • the autonomous vehicle 100 may receive a user input corresponding to the inquiry screen displayed in operation S1130.
  • the autonomous vehicle 100 stores user input for a function matrix.
  • the autonomous vehicle 100 executes vehicle software.
  • the autonomous vehicle 100 may execute vehicle software for executing a function of the autonomous vehicle 100 according to a user input to a function matrix.
  • FIG. 12 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to a function matching the received data, according to an exemplary embodiment.
  • the processor 120 receives data from the autonomous vehicle 100 and the wearable device 1001.
  • data received from the autonomous vehicle 100 may include information related to an accelerator or a brake
  • data received from the wearable device 1001 may include information related to a pulse rate or a breathing rate.
  • the processor 120 compares the data received in operation S1210 with a previously stored functional matrix.
  • the processor 120 may determine whether there is a match according to a function matrix between data received from the autonomous vehicle 100 and data received from the wearable device 1001 as a result of the comparison of operation S1220. If there is a match, step S1240 proceeds, and if it does not match, step S1210.
  • the processor 120 may determine whether the matched function matches a function of the autonomous vehicle 100 and a function of the wearable device 1001.
  • the processor 120 may execute a function of the matched autonomous vehicle 100 when the matched function is a function of the autonomous vehicle 100 as a result of the determination of step S1240.
  • the processor 120 may execute a function of the matched wearable device 1001 when the matching function is a function of the wearable device 1001 as a result of the determination of operation S1240.
  • the processor 120 may execute software of the autonomous vehicle 100 related to the matching.
  • FIG. 13 is a block diagram illustrating wearable device wearable device software 1701 used to control the autonomous vehicle 100, according to an exemplary embodiment.
  • the wearable device software 1701 may include, but is not limited to, the wearable device handshaking software 13200 and the wearable device execution software 13300.
  • the wearable device handshaking software 13200 may include software that enables the wearable device 1001 to perform handshaking or pairing with the autonomous vehicle 100.
  • the wearable device execution software 13300 may execute an operation associated with the wearable device 1001.
  • FIG. 14 is a flowchart illustrating a method of communicating and controlling the autonomous vehicle 100 with a wearable device 1001 within a communication range, according to an exemplary embodiment.
  • the wearable device 1001 receives an activation of a vehicle.
  • the wearable device software 1701 may be activated in the wearable device 1001.
  • the wearable device 1001 determines whether the autonomous vehicle 100 is within a communication range.
  • the wearable device 1001 may determine that the autonomous vehicle 100 is in the communication range. However, if there is no data received from the autonomous vehicle 100, the wearable device 1001 determines that there is no autonomous vehicle 100 within the current communication range, and searches for a signal from the autonomous vehicle 100. )can do.
  • the wearable device 1001 executes vehicle handshaking software.
  • the wearable device 1001 may execute vehicle handshaking software for pairing between the autonomous vehicle 100 and the wearable device 1001.
  • the wearable device 1001 executes the wearable device execution software 13300.
  • 15 is a flowchart illustrating a method of controlling the wearable device 1001 in communication with the autonomous vehicle 100, according to an exemplary embodiment.
  • the wearable device 1001 loads information stored in the wearable device function database 1702 into the wearable device 1001.
  • the wearable device 1001 transmits the loaded wearable device function database 1702 to the autonomous vehicle 100.
  • the wearable device 1001 determines whether an activation signal is received from the autonomous vehicle 100.
  • the wearable device 1001 may continue to search for the signal from the autonomous vehicle 100.
  • step S1540 may proceed.
  • the wearable device 1001 activates the designated wearable device function when an activation signal is received from the autonomous vehicle 100.
  • the wearable device 1001 executes the wearable device software 1701.
  • the wearable device 1001 may execute the wearable device software 1701 to execute a designated wearable device function.
  • 16 is a diagram illustrating a database included in the autonomous vehicle 100 and the wearable device 1001, according to an exemplary embodiment.
  • the wearable device function database 1702 includes GPS related information 16110, pulse rate related information 16120, blood pressure related information 16130, respiratory rate related information 16140, blood alcohol concentration related information 16150, and vibration related information. 16160, display related information 16170, and speaker related information 16180.
  • the autonomous vehicle function database 5652 includes geofence related information 16210, brake related information 16220, accelerator related information 16230, steering related information 16240, facility related information 16250, and navigation related information. 16260, driving mode related information 16270, communication device related information 16280, and atmosphere control related information 16290.
  • the autonomous vehicle 100 may associate a function of the at least one wearable device 1001 with a function of the autonomous vehicle 100 according to the guideline. For example, autonomous vehicle 100 may associate the function of an accelerator or brake with monitoring the pulse rate in accordance with the guidelines. Therefore, when the brake is activated, the autonomous vehicle 100 may transmit a signal requesting the wearable device 1001 to monitor the pulse rate.
  • 17A to 17C are diagrams illustrating a screen for setting a guideline linking a function of the autonomous vehicle 100 to a function of the device 1000, according to an exemplary embodiment.
  • 17A to 17C a case in which the device side information 210 is schedule information will be described.
  • the autonomous vehicle 100 may receive a user input and update a guideline indicating a relationship between the function of the autonomous vehicle 100 and the function of the device 1000.
  • the autonomous vehicle 100 may update a guideline by receiving a user input of a correlation between a function of the autonomous vehicle 100 and a function of the device 1000 having no preset correlation.
  • X indicated inside the tables of FIGS. 17A to 17C may indicate a case where a mutual linkage between the function of the autonomous vehicle 100 and the function of the device 1000 is preset
  • the " A ′′ may represent a case where the mutual linkage between the function of the autonomous vehicle 100 and the function of the device 1000 is set by the user.
  • Guidelines may be determined based on user input.
  • a guide line is determined based on a user input.
  • a case 2120 will be described when the function of the device 1000 is a user schedule function and the function of the autonomous vehicle 100 is a navigation function.
  • the navigation function may be implemented by an associated device included in the autonomous vehicle 100.
  • the navigation function may be implemented through the navigation 5130 included in the autonomous vehicle.
  • the correlation between the navigation function of the autonomous vehicle 100 and the user schedule function of the device 1000 may not be preset.
  • the autonomous vehicle 100 may set a correlation between the navigation function of the autonomous vehicle 100 and the schedule function of the device 1000 by receiving a user input.
  • Settings that have not been set in advance may be determined according to user input.
  • a navigation function of the autonomous vehicle 100 and a schedule function of the device 1000 may be selected for mutual relationship setting.
  • the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be displayed in a predetermined area 2110 of the display of the device 1000 and / or the autonomous vehicle 100.
  • a correlation between the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be determined based on a user input. For example, based on a user's input, the autonomous vehicle 100 may determine a destination as a live broadcast schedule when the live broadcast schedule is within 1 hour, and the navigation function and the device of the autonomous vehicle 100 may be determined. Correlation between the scheduling functions of 1000 may be determined. As another example, based on a user input, when the live schedule is within 30 minutes of the user schedule, the autonomous vehicle 100 may determine the waypoint as the live broadcast schedule location.
  • a case 2220 will be described when the function of the device 1000 is a user schedule function (schedule location) and the function of the autonomous vehicle 100 is a navigation function.
  • the navigation function may be implemented by an associated device included in the autonomous vehicle 100.
  • the navigation function may be implemented through the navigation 5130 included in the autonomous vehicle.
  • FIG. 17B reference may be made to the content described in FIG. 17A.
  • the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be displayed in a predetermined area 2210 of the display of the device 1000 and / or the autonomous vehicle 100.
  • a correlation between the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be determined based on a user input. For example, based on a user's input, the autonomous vehicle 100 determines the destination as the XXX building when the user schedule place is XXX building, so that the navigation function of the autonomous vehicle 100 and the device 1000 are determined. The interrelationship of schedule functions can be determined. As another example, based on a user input, the autonomous vehicle 100 may determine a correlation between the navigation function of the autonomous vehicle 100 and the schedule function of the device 1000 to add the XXX building, which is a schedule place, as a waypoint. Can be.
  • a case 2320 will be described when the function of the device 1000 is a user schedule function (schedule time) and the function of the autonomous vehicle 100 is an accelerator function.
  • the navigation function may be implemented by an associated device included in the autonomous vehicle 100.
  • the navigation function may be implemented through the navigation 5130 included in the autonomous vehicle.
  • FIG. 17C reference may be made to the content described in FIG. 17A.
  • the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be displayed in a predetermined area 2310 of the display of the device 1000 and / or the autonomous vehicle 100.
  • a correlation between the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be determined based on a user input. For example, based on a user's input, the autonomous vehicle 100 determines the driving average speed, driving average acceleration, or maximum driving speed according to a user schedule time. 1000 may be used to determine the correlation between the scheduling functions.
  • FIG. 18 is a diagram illustrating an example of updating a guide line indicating a correlation between a function of an autonomous vehicle and a function of a device, according to an exemplary embodiment.
  • the autonomous vehicle 100 may set a mutual relationship between a function of the autonomous vehicle 100 and a function of the device 1000 by receiving a user input.
  • the blood pressure sensor function of the device 1000 may be associated with the navigation function of the autonomous vehicle 100. If the blood pressure obtained from the blood pressure sensor of the device 1000 is greater than or equal to a predetermined reference, the autonomous vehicle 100 may add a hospital to the driving route by executing a navigation function according to the guideline.
  • the microphone function of the device 1000 may be associated with the air conditioner function of the autonomous vehicle 100 according to the guideline. If the audio input received from the microphone of the device 1000 corresponds to the clapping sound, the autonomous vehicle 100 may lower the temperature in the vehicle by executing the air conditioning function according to the guideline.
  • the temperature sensor function of the device 1000 may be associated with the window opening and closing function of the autonomous vehicle 100.
  • the autonomous vehicle 100 may lower the temperature in the vehicle by executing the window opening / closing function according to the guideline.
  • the guideline may be determined based on user input.
  • a guide line is determined based on a user input.
  • a case 2020 will be described in which the function of the device 1000 is a speaker and the function of the autonomous vehicle 100 is a geofence 5310.
  • Geofence functionality may include the ability to recognize a virtual boundary for a geographic location or a particular area.
  • the correlation between the speaker function of the device 1000 and the geofence function of the autonomous vehicle 100 may be preset. For example, when the autonomous vehicle 100 enters a geographic area corresponding to a crackdown area, the speaker function of the device 1000 and the autonomous vehicle may be reproduced to reproduce a warning sound indicating a threat from a speaker included in the device 1000.
  • the correlation between the geofence functions of 100 may be preset.
  • preset settings may be changed according to a user input.
  • a speaker function of the device 1000 and a geofence function of the autonomous vehicle 100 may be selected to establish a correlation according to a user input.
  • the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be displayed in a predetermined area 2010 of the display of the device 1000 and / or the autonomous vehicle 100.
  • a correlation between the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be determined based on a user input. For example, when the autonomous vehicle 100 enters a geographic area corresponding to an enforcement area, the content played by the speaker included in the device 1000 may be changed based on a user input. As a specific example, when it is recognized through the geofence function of the autonomous vehicle 100 that the autonomous vehicle 100 has entered the geographic area corresponding to the crackdown area, the autonomous vehicle 100 threatens. Mp3, fate. The content determined according to the user's input among mp3 and happy.mp3 may be played by the speaker included in the device 1000.
  • the function of the device 1000 is the GPS function and the function of the autonomous vehicle 100 is the speaker 2030 will also be described.
  • the correlation between the speaker function of the autonomous vehicle 100 and the GPS function of the device 1000 may be preset. For example, when the autonomous vehicle 100 enters a geographic area corresponding to a crackdown area, the speaker function of the autonomous vehicle 100 is to reproduce a warning sound indicating a threat from a speaker included in the autonomous vehicle 100. And a correlation between the GPS function of the device 1000 may be preset.
  • the preset settings may be changed according to a user input. That is, according to a user input, the speaker function of the autonomous vehicle 100 and the geofence function of the device 1000 may be selected to establish a mutual relationship (not shown). The function of the selected autonomous vehicle 100 may be displayed in a predetermined area of the display of the device 1000 and / or the autonomous vehicle 100.
  • a correlation between the function of the selected device 1000 and the function of the selected autonomous vehicle 100 may be determined based on a user input. That is, when the autonomous vehicle 100 enters the geographic area corresponding to the enforcement area, the content played by the speaker included in the autonomous vehicle 100 may be changed based on a user input. As a specific example, when it is recognized through the GPS function of the device 1000 that the autonomous vehicle 100 enters the geographic area corresponding to the crackdown area, the autonomous vehicle 100 may threaten.mp3, destiny.mp3 and happiness. Among the .mp3, contents determined according to a user's input may be played by a speaker included in the autonomous vehicle 100.
  • a method of determining a guide line for associating a function of the autonomous vehicle 100 with a function of the device 1000 based on a user input is disclosed.
  • the embodiment of determining the guideline is not limited to FIGS. 17 and 18.
  • the functions of all the autonomous vehicles 100 and the functions of all the devices 1000, which are described in the present embodiments, may be linked based on user input or according to preset settings.
  • Various modifications and improvements by those skilled in the art regarding the linkage between the functions and the functions of the device 1000 also belong to the embodiments.
  • the autonomous vehicle 100 may move the biometric information, schedule information, surrounding situation information weather information, etc. included in the device side information 210 and / or the vehicle side information 220 to the navigation of the autonomous vehicle 100.
  • travel device 5100 e.g., accelerator, brake, transmission, steering device
  • interior light (5331) e.g., interior light
  • exterior light (5332) e.g. light (5333)
  • audio / Video devices e.g. speakers 5317
  • thermostats e.g. air conditioners 5332, heaters 5331, fans 5535, window openers 5302, hot wires
  • geofences e.g.
  • the guide line associated with the wiper 5320, the direction indicator 5332, the touch screen 5331, the sensor device 5200, and the like may be determined based on a user input, but is not limited thereto.
  • FIG. 19 is a diagram illustrating a mutual relationship between a driving related function of the autonomous vehicle 100 and a function of the device 1000 according to an exemplary embodiment.
  • "X" displayed in the table of FIG. 19 may indicate a case where a mutual linkage between a function of the autonomous vehicle 100 and a function of the device 1000 is preset, and "A" displayed in the table. Denotes a case where the mutual linkage between the function of the autonomous vehicle 100 and the function of the device 1000 is set by the user.
  • the GPS function of the device 1000 and the navigation function of the autonomous vehicle 100 may be set in advance.
  • the autonomous vehicle 100 may obtain current location information from location information obtained from a GPS sensor of the device 1000, and set a driving route to a destination based on the obtained current location information.
  • the voice recognition function of the device 1000 and the driving mode related function of the autonomous vehicle 100 may be set by the user so as to be interrelated with each other.
  • the autonomous vehicle 100 may determine the driving mode according to user voice information obtained from the voice recognition sensor of the device 1000.
  • the device function 17200 is a device capable function 17210, which includes a pulse rate sensing function, a blood pressure sensing function, a respiratory rate sensing function, a blood alcohol concentration sensing function, a GPS information acquisition function, a camera function, an inertial sensing function, an acceleration sensing function, and a geomagnetic sensing function. Function, temperature sensing function humidity sensing function, gyroscope sensing function barometric pressure sensing function, proximity sensing function, infrared sensing function, microphone function, vibration function, display function, speaker function, voice recognition function, voice communication function, data communication function, user
  • the schedule acquisition function may be included, but is not limited thereto.
  • the vehicle function 17100 may include a driving related function 17110.
  • the driving related function 17110 may include a brake function, an accelerator function, a steering function, an obstacle avoidance function, a navigation function, a driving mode related function, an engine / motor function, a transmission function, a wheel function, a tire function, and the like. It is not limited thereto.
  • vehicle functions 17100 may be performed by some devices included in the autonomous vehicle 100.
  • driving mode related functions may be performed by the traveling device and / or the peripheral device.
  • 20 is a diagram illustrating a mutual relationship between a peripheral device function of the autonomous vehicle 100 and a function of the device 1000, according to an exemplary embodiment.
  • the respiration rate sensing function of the device 1000 and the direction indicator function of the autonomous vehicle 100 may be preset to be interrelated with each other.
  • the autonomous vehicle 100 determines whether the health state of the user is an emergency state from the breathing rate information obtained from the respiration rate sensor of the device 1000, and when it is determined that the health state of the user is an emergency state, the emergency light
  • the turn indicator 5332 can be controlled to turn on.
  • the device function 17200 may refer to the contents described above with reference to FIG. 19.
  • Vehicle function 17100 may include peripheral device function 18110.
  • the peripheral device function 18110 may include a navigation function, a geofence function, a light function, a wiper function, a speaker function, a turn signal function, an internal lighting function, an external lighting function, a communication function, a heater function (a kind of a heater), It may include an air conditioner function (a type of cooler), a touch screen function, a microphone function, and the like, but is not limited thereto.
  • FIG. 21 is a diagram illustrating a mutual relationship between a sensor-related function of the autonomous vehicle 100 and a function of the device 1000, according to an exemplary embodiment.
  • the acceleration sensor function of the device 1000 and the camera function of the autonomous vehicle 100 may be set in advance so as to interrelate with each other.
  • the acceleration sensor 5252 of the device 1000 senses rapid acceleration or rapid deceleration
  • the function of the camera 5220 included in the autonomous vehicle may be executed to photograph the front and / or the rear of the vehicle.
  • the function of the speaker of the device 1000 and the function of the GPS 5210 of the autonomous vehicle 100 may be set by the user.
  • the warning notification may be reproduced in the speaker of the device 1000 by executing a function of the speaker included in the device 1000 according to the location information obtained from the GPS 5210 included in the autonomous vehicle 100. have.
  • the device function 17200 may refer to the contents described above with reference to FIG. 19.
  • Vehicle function 17100 may include sensor function 19110.
  • sensor function 19110 may include GPS sensor function, camera function, photometric sensor function, acceleration sensor function, geomagnetic sensor function, temperature sensor function, humidity sensor function, gyroscope sensor function, barometric pressure sensor function, distance sensor function, An infrared sensor function, a tire pressure sensor function, a speed sensor function, and the like may be included, but are not limited thereto.
  • 22 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment using biometric information.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include biometric information.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to execute the autonomous vehicle according to the biometric information. Waypoints can be added on the driving route of the vehicle.
  • the autonomous vehicle 100 may receive the blood pressure information of the user from the device 1000 and analyze the received blood pressure information to determine that the user's health state is an emergency state. When the autonomous vehicle 100 determines that the health state of the user is in an emergency state, the autonomous vehicle 100 may execute a navigation function to add the hospital as a waypoint on the current driving route. As another example, when biometric information indicating an emergency state of the user is received from the device 1000, the autonomous vehicle 100 may execute a navigation function to add a hospital as a waypoint on the current driving route.
  • the device 1000 determines that the user is in an emergency state and indicates that the user is in an emergency state.
  • Information may be transmitted to the autonomous vehicle 100.
  • the device side information 210 may include information indicating that the user is in an emergency state.
  • the autonomous vehicle 100 may receive the device side information 210 including information indicating that the user is in an emergency state from the device 100.
  • the autonomous vehicle 100 executes a navigation function to add a hospital as a waypoint on the current driving route. Can be.
  • Hospitals added as waypoints on the travel route may be determined in a predetermined manner.
  • the autonomous vehicle 100 may add, as a waypoint, the hospital closest to the current location among the plurality of hospitals determined to be able to resolve the emergency state of the user. For example, when the emergency state of the user is due to diabetes, the autonomous vehicle 100 may add as a waypoint the hospital closest to the current location among the hospitals capable of treating diabetes.
  • the autonomous vehicle 100 may add the hospital closest to the current location among hospitals of a predetermined size or more as a waypoint.
  • the autonomous vehicle 100 is one of hospitals larger than the university hospital You can add the nearest hospital as a waypoint.
  • the autonomous vehicle 100 may execute an emergency call function while driving. For example, the autonomous vehicle 100 may send a text indicating the location and the situation to 119 or a preset number.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the biometric information. Accordingly, the pharmacy may be added as a waypoint on the driving route of the autonomous vehicle 100.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives the blood pressure information of the user from the device 1000 and analyzes the received blood pressure information to determine that the user's health condition requires a simple drug administration, the autonomous vehicle ( In operation 100, the navigation function may add a pharmacy for purchasing medicine corresponding to the biometric information as a waypoint on the current driving route.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the biometric information. Accordingly, a drowsiness shelter or rest area may be added as a stopover on the driving path of the autonomous vehicle 100.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives fatigue information of the user from the device 1000 and analyzes the received fatigue information to determine that the user is in a tired state, the autonomous vehicle 100 executes a navigation function.
  • a drowsiness shelter or rest area close to the driving route may be added as a stopover on the current driving route.
  • the autonomous vehicle 100 may receive the user's blink related information to determine the fatigue level of the user, and if the fatigue level is detected above the threshold, the autonomous vehicle 100 may execute a navigation function to drive the drowsiness shelter or rest area close to the driving route. Can be added as a waypoint on the route.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives the alcohol concentration information of the user from the device 1000 and analyzes the received alcohol concentration information to determine that the user is in a drinking state, the autonomous vehicle 100 performs a navigation function.
  • a drowsiness shelter or rest area close to the driving route may be added as a stopover on the current driving route.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the biometric information. Accordingly, the restaurant may be added as a waypoint on the driving route of the autonomous vehicle 100.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives blood sugar information of the user from the device 1000 and analyzes the received blood sugar information to determine that the user is hungry, the autonomous vehicle 100 executes a navigation function.
  • a restaurant near the travel route may be added as a stopover on the current travel route.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives blood sugar information of the user from the device 1000 and analyzes the received blood sugar information to determine that the user is hungry, the autonomous vehicle 100 determines whether to pass through a restaurant.
  • the screen for inquiring can be displayed. Based on the user input corresponding to the displayed inquiry screen, the autonomous vehicle 100 may execute a navigation function to add a restaurant near the driving route as a waypoint on the current driving route.
  • the autonomous vehicle 100 may obtain schedule information of the user. have.
  • the autonomous vehicle 100 may determine whether to add the restaurant as a waypoint on the current driving route in consideration of the delay time expected by passing through the restaurant and the schedule information of the user.
  • the autonomous vehicle 100 may obtain vehicle side information 220 and device side information 210.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include biometric information, and the vehicle side information 220 obtained by the autonomous vehicle 100 may travel. Possible distance information may be included.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the vehicle side information 220.
  • a waypoint may be added on the driving route of the autonomous vehicle.
  • the autonomous vehicle 100 may receive the blood pressure information of the user from the device 1000 and analyze the received blood pressure information to determine that the user's health state is an emergency state. When the autonomous vehicle 100 determines that the health state of the user is in an emergency state, the autonomous vehicle 100 may execute a navigation function to add the hospital as a waypoint on the current driving route. When the biometric information indicating the emergency state of the user is received from the device 1000, the autonomous vehicle 100 may execute a navigation function to add a hospital as a waypoint on the current driving route.
  • Hospitals added as waypoints on the travel route may be determined in a predetermined manner.
  • the autonomous vehicle 100 is determined to be able to resolve the emergency state of the user, it may be added as a waypoint through the hospital closest to the current position of the plurality of hospitals located within the current range of the driving range. For example, if the emergency state of the user is due to diabetes, the autonomous vehicle 100 can treat diabetes and is the largest hospital among the hospitals located within a certain distance from the current location, which is within the range of the current driving distance. You can add a hospital as a waypoint.
  • the autonomous vehicle 100 when the autonomous vehicle 100 cannot determine a hospital that can resolve an emergency of the user, the autonomous vehicle 100 adds via the hospital closest to the current location among hospitals of a predetermined size or more located within the range of the current driving distance. can do. For example, if the analysis capability of the autonomous vehicle 100 and / or the device 1000 cannot determine which disease is the user's emergency, the autonomous vehicle 100 is located within the current range of travel. For hospitals larger than university hospitals, you can add a stopover to the hospital closest to your current location.
  • the autonomous vehicle 100 may activate the emergency light and stop at the nearest authorized location.
  • the autonomous vehicle 100 may execute an emergency call function. For example, the autonomous vehicle 100 may send a text indicating the location and the situation to 119 or a preset number.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to perform biometric information and The pharmacy may be added as a waypoint on the driving route of the autonomous vehicle 100 according to the vehicle side information 220.
  • the autonomous vehicle 100 may execute a navigation function to purchase a medicine corresponding to the biometric information and add a pharmacy located within a range of the travelable distance as a waypoint on the current driving route.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the biometric information. Accordingly, a drowsiness shelter or rest area located within the range of the travelable distance on the driving route of the autonomous vehicle 100 may be added as a waypoint. If the drowsiness shelter or rest area is located outside the predetermined distance range from the current location, the autonomous vehicle 100 may operate the emergency light and stop at the nearest authorized location.
  • the autonomous vehicle 100 may drive by executing a navigation function.
  • a drowsiness shelter or rest area located within range can be added as a stopover on the current route.
  • the autonomous driving vehicle 100 determines the fatigue level of the user by receiving the user's eye blink-related information, and if the fatigue level is detected above the threshold, the autonomous vehicle 100 executes a navigation function to detect a drowsiness shelter or rest area within a range of the driving distance. Can be added as a waypoint on the current travel route.
  • the autonomous vehicle 100 When the autonomous vehicle 100 receives the alcohol concentration information of the user from the device 1000 and analyzes the received alcohol concentration information to determine that the user is in a drinking state, the autonomous vehicle 100 executes a navigation function. A drowsiness shelter or rest area within the range of travel can be added as a stopover on the current route.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to display the biometric information. Accordingly, it is possible to add a restaurant located within a range of the travelable distance on the driving route of the autonomous vehicle 100 as a waypoint.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives blood sugar information of the user from the device 1000 and analyzes the received blood sugar information to determine that the user is hungry, the autonomous vehicle 100 executes a navigation function.
  • a restaurant that is close to the driving route and located within the range of the traveling range may be added as a stopover on the current driving route.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives blood sugar information of the user from the device 1000 and analyzes the received blood sugar information to determine that the user is hungry, whether the autonomous vehicle 100 passes through a restaurant. You can display a screen to inquire. Based on the user input corresponding to the displayed inquiry screen, the autonomous vehicle 100 may execute a navigation function to add a restaurant located near the driving route and within a range of the driving distance as a waypoint on the current driving route.
  • the autonomous vehicle 100 may determine the schedule information of the user. Can be obtained. The autonomous vehicle 100 may determine whether to add a restaurant located within a range of the available distance as a waypoint on the current driving route in consideration of the delay time and the schedule information of the user, which are expected through the restaurant.
  • 23 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using biometric information according to an embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive device side information 210 including biometric information indicating an emergency state of a device user from the device 1000.
  • operation S2320 when the device-side information 210 received in operation S2310 includes biometric information indicating an emergency state of the device user, the autonomous vehicle 100 executes a navigation function of the autonomous vehicle.
  • the autonomous vehicle 100 adds a waypoint on the driving route of the autonomous vehicle according to the biometric information.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle to add a hospital via a hospital on the driving route of the autonomous vehicle 100. can do.
  • the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the added waypoint.
  • the autonomous vehicle 100 may acquire vehicle control information for controlling the autonomous vehicle 100 by the updated driving route according to the function of the navigation 5130.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may autonomously travel in the updated driving route.
  • 24 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using biometric information and vehicle side information 220, according to an exemplary embodiment.
  • step S2410 corresponds to step S2310 described above, a detailed description is omitted to simplify the overall description.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle.
  • the autonomous vehicle 100 obtains vehicle side information 220 of the autonomous vehicle.
  • the vehicle side information 220 acquired by the autonomous vehicle 100 may include driving distance information.
  • the autonomous vehicle 100 adds a waypoint on the driving route of the autonomous vehicle according to the driving distance determined according to the biometric information and the vehicle side information 220. For example, when the autonomous vehicle 100 receives biometric information indicating an emergency state of the device user, the autonomous vehicle 100 executes a navigation function of the autonomous vehicle and falls within a range of a travelable distance on the driving route of the autonomous vehicle 100. A hospital can be added as a waypoint.
  • the autonomous vehicle 100 controls the autonomous vehicle according to the vehicle control information determined based on the additional waypoint.
  • the autonomous vehicle 100 may acquire vehicle control information for controlling the autonomous vehicle 100 by the updated driving route according to the function of the navigation 5130.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may autonomously travel on the updated driving route.
  • FIG. 25 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment using biometric information representing a physical and mental state of a user.
  • the autonomous vehicle 100 may determine a driving mode of the autonomous vehicle by using biometric information indicating a user's physical and mental state.
  • the autonomous vehicle 100 may control one or more peripheral devices included in the autonomous vehicle by using biometric information indicating a user's physical and mental state.
  • the mental and physical state may include a physical state and / or a mental state of the user.
  • the mental and physical condition may include a degree of fatigue of the user, a degree of nervousness of the user, a state of health of the user, a degree of excitement of the user, a pulse of the user, a degree of hotness of the user, a temperature of the user, and the like.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device-side information 210 received by the autonomous vehicle 100 from the device 1000 may include biometric information indicating a physical and mental state of the user.
  • the autonomous vehicle 100 controls the driving device and / or the peripheral device of the autonomous vehicle 100, thereby providing the biometric information. According to the driving mode of the autonomous vehicle can be determined.
  • the autonomous vehicle 100 may receive the user's pulse rate related information from the device 1000 and may analyze the received information to determine whether the user's state is a state requiring stability. When the autonomous vehicle 100 determines that the state of the user needs to be stabilized, the autonomous vehicle 100 may control the driving device to drive in the safe mode. When the autonomous vehicle 100 receives the biometric information from the device 1000 indicating that the state of the user needs to be stabilized, the autonomous vehicle 100 may control the driving device to drive in the safe mode.
  • the safe mode may refer to an operation mode in which the acceleration and deceleration frequency is low and the maximum speed is low.
  • the autonomous vehicle 100 may receive the user's blink related information or the user's posture related information from the device 1000, and analyze the received information to determine whether the user's state is a sleep state. have.
  • the autonomous vehicle 100 may drive in the sleep mode by controlling the driving device.
  • the autonomous vehicle 100 receives biometric information from the device 1000 indicating that the user is sleeping, the autonomous vehicle 100 may run in a sleep mode by executing a peripheral device or a traveling device.
  • the sleep mode may refer to a driving mode in which the interior of the vehicle is dark, the frequency of acceleration and deceleration is low, and the vehicle vibration is reduced.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives biometric information from the device 1000 indicating that the user is sleeping, the autonomous vehicle 100 controls the indoor lighting device included in the autonomous vehicle 100. In addition, the vehicle interior brightness may be maintained below a predetermined standard. As another example, when the autonomous vehicle 100 receives the biometric information from the device 1000 indicating that the user is sleeping, the autonomous vehicle 100 controls the air conditioning apparatus included in the autonomous vehicle 100, The vehicle room temperature can be maintained within a predetermined temperature range.
  • the autonomous vehicle 100 may drive in an emergency mode by controlling the driving device.
  • the emergency mode may mean a driving mode optimized to protect occupants in the vehicle and to arrive at a hospital or the like quickly.
  • the autonomous vehicle 100 may set higher allowable values for acceleration, deceleration, and maximum speed than in the standard mode.
  • the autonomous vehicle 100 may turn the direction indicators to continuously blink at the same time (for example, an emergency light). Can be controlled.
  • the autonomous vehicle 100 may drive in a sport mode by controlling the driving device.
  • the sports mode may mean a driving mode having a high frequency of acceleration and deceleration and a high maximum driving speed.
  • the autonomous vehicle 100 controls the audio to set the audio reproduction volume to a predetermined reference value or more. Can be.
  • the autonomous vehicle 100 may drive in a safe mode by controlling the driving device. have.
  • the autonomous vehicle 100 controls the audio, so that the autonomous vehicle 100 is searched for in a preset or preset manner. You can play the content.
  • the autonomous vehicle 100 may control the audio to play music to help relax the tension.
  • driving mode described in FIG. 25 is an embodiment of the present disclosure and is not limited thereto.
  • FIG. 26 is a flowchart illustrating a method of controlling a traveling device of an autonomous vehicle 100 using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive, from the device 1000, device side information 210 including biometric information indicating a user's physical and mental state.
  • the autonomous vehicle 100 controls the driving apparatus of the autonomous vehicle.
  • the traveling device may include, but is not limited to, a brake 5111, an accelerator 5112, a steering device (eg, steering 5113), an engine / motor 5160, a transmission 5170, and the like.
  • the autonomous vehicle 100 determines the driving mode of the autonomous vehicle according to the biometric information indicating the physical and mental state of the user of the device. For example, when the autonomous vehicle 100 receives biometric information indicating an emergency state of the user from the device 1000, the autonomous vehicle 100 may drive in an emergency mode by controlling the driving device.
  • the autonomous vehicle 100 may travel in a driving mode determined by using a driving device function of the autonomous vehicle.
  • the autonomous vehicle 100 may execute the accelerator function so as to correspond to the device side information 210, and control the maximum acceleration and the maximum speed to travel in the determined driving mode.
  • the autonomous vehicle 100 controls the autonomous vehicle according to the vehicle control information determined based on the determined driving mode.
  • the autonomous vehicle 100 may obtain vehicle control information for controlling the driving device.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may autonomously travel in the determined driving mode.
  • FIG. 27 is a flowchart illustrating a method of controlling an audio / video device of an autonomous vehicle 100 using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • the present invention has been described with reference to embodiments of the audio / video device, the present invention is not limited thereto. The method of the present invention may be used to control peripheral devices other than the audio / video device.
  • step S2710 corresponds to step S2610 described above, a detailed description is omitted to simplify the overall description.
  • the autonomous vehicle 100 executes an audio / video device of the autonomous vehicle when the device-side information 210 received in operation S2710 includes biometric information indicating a mental state of the device user.
  • the audio / video device may mean an audio device and / or a video device.
  • the audio / video device disclosed in this step is an example of a peripheral device included in an autonomous vehicle, and is not limited to the audio / video device.
  • the autonomous vehicle 100 may include a geofence function, a light function, a wiper function, You can control speaker functions, turn indicators, interior lighting, exterior lighting, air conditioning, and communication.
  • the autonomous vehicle 100 plays content determined according to the biometric information acquired in operation S2720.
  • the content may include audio content and / or audio content.
  • the audio content may include music, sound effects, call voice, voice notification, and the like.
  • the autonomous vehicle 100 will be described in the case where it is determined that the user is in a tired state from the biometric information indicating the physical and mental state of the user.
  • the autonomous vehicle 100 may execute an audio / video device to play quiet music or music video for comfortable driving of the device user.
  • the autonomous vehicle 100 may execute an audio / video device to play active music or music video that can wake up the sleepiness of the device user.
  • FIG. 28 is a flowchart illustrating a method of controlling a peripheral device of the autonomous vehicle 100 using biometric information representing a physical and mental state of a user, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive, from the device 1000, device side information 210 including biometric information indicating a user's physical and mental state.
  • the biometric information indicating the physical and mental state of the user received by the autonomous vehicle 100 may indicate a hot state of the user.
  • the autonomous vehicle 100 executes cooling, heating, and ventilation of the autonomous vehicle.
  • the cooling device may comprise an air conditioner
  • the heating device may comprise a heater or a heating wire
  • the ventilation device may comprise a window or a fan.
  • the autonomous vehicle 100 determines the set temperature inside the autonomous vehicle according to the biometric information indicating the mental and physical state of the user. For example, when the device side information 210 includes biometric information indicating a user's hot state, the autonomous vehicle 100 may determine the set temperature to be lower than the current temperature or lower than the standard temperature.
  • the autonomous vehicle 100 controls the autonomous vehicle according to the vehicle control information determined based on the determined set temperature.
  • the autonomous vehicle 100 may obtain vehicle control information for maintaining the vehicle internal temperature within a predetermined range from the set temperature of the vehicle.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may control cooling, heating, a ventilation device, or the like so as to correspond to the set temperature.
  • the autonomous vehicle 100 may close the window, turn on the heater, turn on the heating wire, or the like. Can be controlled.
  • the vehicle side information 220 may also be used to control the autonomous vehicle 100.
  • the autonomous vehicle 100 may control the window to open the window when the external temperature is low and the air is clear. If the outside temperature is high or the air is cloudy, the windows and air conditioners can be controlled to close the windows and turn on the air conditioners.
  • FIG. 29 is a diagram illustrating an example of controlling the autonomous driving vehicle 100 according to biometric information representing a user's behavior.
  • the autonomous vehicle 100 may determine a driving mode of the autonomous vehicle by using biometric information indicating a user's behavior.
  • the autonomous vehicle 100 may control one or more peripheral devices included in the autonomous vehicle using biometric information indicating a user's behavior.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include biometric information indicating a user's behavior.
  • the autonomous vehicle 100 controls the driving device and / or the peripheral device of the autonomous vehicle 100 to display the biometric information. Accordingly, the driving mode of the autonomous vehicle can be determined.
  • the autonomous vehicle 100 may drive in a driving mode corresponding to the received gesture information.
  • the autonomous vehicle 100 may control a peripheral device corresponding to the received gesture information.
  • the autonomous vehicle 100 may drive in a reading mode by controlling the driving device.
  • the reading mode may refer to a driving mode in which the interior of the vehicle is bright, the frequency of acceleration and deceleration is low, and the noise in the vehicle is reduced.
  • the autonomous vehicle 100 controls the indoor lighting device to control the brightness of the autonomous vehicle 100. Can be maintained above a predetermined criterion.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives biometric information indicating a posture of a user's arm from the device 1000, the autonomous vehicle 100 may drive in a safe mode by controlling the driving device. have.
  • the driving mode corresponding to the armed posture may be set to a driving mode other than the safety mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives biometric information indicating a user's armed posture from the device 1000, the autonomous vehicle 100 may control the audio device to play preset audio content. .
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives biometric information indicating an act of clapping a user's applause once from the device 1000, the autonomous vehicle 100 controls the driving device to run in an eco mode. can do.
  • the driving mode corresponding to the act of clapping once may be set to a driving mode other than the safety mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives biometric information indicating an act of clapping a user's applause once from the device 1000, the autonomous vehicle 100 controls a window to control the window of the autonomous vehicle 100. Can open windows
  • FIG. 30 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to biometric information representing a user's behavior according to an embodiment.
  • the autonomous vehicle 100 may receive, from the device 1000, device side information 210 obtained by the device 1000 that communicates with the autonomous vehicle 100.
  • the autonomous vehicle 100 may receive, from the device 1000, device side information 210 including biometric information indicating a user's behavior.
  • operation S3020 when the device-side information 210 received in operation S2910 includes biometric information indicating an action of the device user, the autonomous vehicle 100 executes an internal lighting function of the autonomous vehicle 100.
  • the autonomous vehicle 100 determines the internal brightness of the autonomous vehicle according to the biometric information indicating the behavior of the user of the device.
  • the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the determined internal brightness.
  • the autonomous vehicle 100 may obtain vehicle control information related to the interior lighting for controlling the brightness of the interior of the vehicle at the determined interior brightness.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may maintain the brightness inside the vehicle at the determined internal brightness.
  • 31 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment using schedule information.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include schedule information.
  • the autonomous vehicle 100 executes a navigation function of the autonomous vehicle 100 to set a driving route corresponding to the location of the schedule information.
  • a waypoint corresponding to a place of schedule information may be added.
  • the autonomous vehicle 100 When the autonomous vehicle 100 receives the schedule place information of the user corresponding to the current time from the device 1000 before starting the driving, the autonomous vehicle 100 executes a navigation function to destination the received schedule place. It is possible to set the driving route.
  • the autonomous vehicle 100 When the autonomous vehicle 100 receives the schedule place information of the user corresponding to the current time from the device 1000 while driving, the autonomous vehicle 100 executes a navigation function to travel through the received schedule place. You can set the path.
  • the autonomous vehicle 100 controls the driving device 5100 of the autonomous vehicle 100, so that the time and / or place of the schedule information The driving mode corresponding to the operation may be determined.
  • the autonomous vehicle 100 may determine the driving mode as the speed mode when the distance from the current position to the schedule place is far and the time from the current time to the schedule time is tight.
  • the autonomous vehicle 100 may determine the driving mode as the stable mode when the distance from the current location to the schedule place is close and the time from the current time to the schedule time is sufficient.
  • the autonomous vehicle 100 executes an accelerator function of the autonomous vehicle 100 to drive the vehicle corresponding to the time of the schedule information. You can set the average speed.
  • the set driving average speed may be an average speed set in the driving mode corresponding to the time of the schedule information.
  • the autonomous vehicle 100 may determine the average driving speed according to the distance from the current location to the schedule place and the time from the current time to the schedule time.
  • the autonomous vehicle 100 executes an accelerator and / or a brake function of the autonomous vehicle 100 to execute the time of the schedule information.
  • the maximum acceleration and / or average acceleration corresponding to may be set.
  • the autonomous vehicle 100 may determine the maximum acceleration and / or the average acceleration according to the distance from the current location to the schedule place and the time from the current time to the schedule time.
  • 32 is a flowchart illustrating a method of controlling a driving route of the autonomous vehicle 100 using schedule information, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive device side information 210 including schedule information of a device user from the device 1000.
  • operation S3220 when the device-side information 210 received in operation S2310 includes schedule information of the device user, the autonomous vehicle 100 executes a navigation function of the autonomous vehicle.
  • step S3230 the autonomous vehicle 100 sets the driving route corresponding to the place of the schedule information.
  • the autonomous vehicle 100 may execute a navigation function of the autonomous vehicle to determine a driving route for setting the destination to the XX tower. .
  • the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the set driving route.
  • the autonomous vehicle 100 may acquire vehicle control information for controlling the autonomous vehicle 100 in a driving route determined according to the function of the navigation 5130.
  • the autonomous vehicle 100 may be controlled according to the obtained vehicle control information.
  • the autonomous vehicle 100 may autonomously travel along the determined driving route.
  • 33 is a flowchart illustrating a method of controlling the traveling speed of the autonomous vehicle 100 using schedule information according to an embodiment.
  • step S3310 corresponds to step S3210 described above, a detailed description is omitted to simplify the overall description.
  • operation S3320 when the device-side information 210 received in operation S3310 includes schedule information of the device user, the autonomous vehicle 100 executes an accelerator function of the autonomous vehicle.
  • step S3330 the autonomous vehicle 100 sets the driving average speed corresponding to the time of the schedule information.
  • the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the set average driving speed.
  • 34 is a diagram illustrating an example of controlling a navigation function of the autonomous vehicle 100 according to driving environment information according to an embodiment.
  • the driving environment information may include information representing an external situation related to driving of the vehicle.
  • the driving environment information may include area information corresponding to the current location of the device user.
  • the area information may include road condition information that is information indicating a situation of a road corresponding to a current location and / or area information that is information about an area corresponding to a current location.
  • the road situation information may include road surface condition information, traffic condition information, accident occurrence information, road construction information, surrounding building information, surrounding facility information, surrounding landscape information, and the like.
  • the driving environment information may indicate whether the detour driving is required according to the surrounding environment. Whether the detour driving is required may be determined according to local information.
  • the driving environment information may indicate autonomous driving according to the surrounding environment. Autonomous driving can be determined according to local information.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include driving environment information.
  • the autonomous vehicle 100 may set the driving route by reflecting the received driving environment information by executing the navigation function. have.
  • the autonomous vehicle 100 may update the driving path by reflecting the received driving environment information by executing a navigation function.
  • the autonomous vehicle 100 may perform a navigation function of the autonomous vehicle 100 according to the driving environment information.
  • the driving route of the autonomous vehicle 100 may be changed into a bypass route.
  • the autonomous vehicle 100 may drive the autonomous vehicle according to the driving environment information.
  • the navigation function of 100 may be controlled to change the driving route of the autonomous vehicle 100 to the bypass route.
  • the driving environment information indicating that the bypass driving is required includes information indicating that there is a problem on the driving route. can do.
  • the driving environment information indicating that the detour driving is required is information indicating that the road surface is poor on the driving route, information indicating that a traffic accident has occurred on the driving route, information indicating that construction is in progress on the driving route. , Information indicating that traffic is congested on the driving route, information indicating that there is a slow section (for example, a child protection zone) on the driving route, information indicating that there is a driving discomfort area (such as a sharp curve) on the driving route, etc. It may include.
  • 35 is a flowchart illustrating a method of controlling a navigation function of the autonomous vehicle 100 according to driving environment information according to an embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive device side information 210 including driving environment information from the device 1000.
  • the driving environment information may indicate whether a detour driving is required.
  • step S3520 When the autonomous vehicle 100 in step S3520 includes driving environment information indicating that the device-side information 210 received in step S3510 requires a detour driving, the autonomous vehicle 100 of the autonomous driving vehicle 100 according to the driving environment information is determined. Control the navigation.
  • the autonomous vehicle 100 changes the driving route of the autonomous vehicle 100 to the bypass route.
  • the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the changed detour route.
  • 36 is a diagram illustrating an example of controlling an autonomous driving function of the autonomous vehicle 100 according to driving environment information according to an exemplary embodiment.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include driving environment information.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include driving environment information indicating that autonomous driving is impossible.
  • the autonomous vehicle 100 may stop the autonomous driving function by reflecting the received driving environment information by controlling the autonomous driving function. Can be.
  • the autonomous vehicle 100 controls the autonomous driving function of the autonomous vehicle 100 according to the driving environment information. Can stop autonomous driving. For example, when the autonomous vehicle 100 receives driving environment information indicating that there is a caution area in the driving route, the autonomous vehicle 100 may drive the autonomous vehicle ( By controlling the autonomous driving function of 100, the autonomous driving function of the autonomous vehicle 100 can be stopped.
  • the driving environment information indicating that autonomous driving is not possible is information indicating an area requiring manual driving on the driving route. It may include.
  • the driving environment information indicating the impossibility of autonomous driving is information indicating that the road surface on the driving route is an icy road, so that slow driving is required by manual driving, and when the traffic accident occurs on the driving route, the driving situation copes with the sudden situation Information indicating that driving is required, information indicating that construction is in progress on a driving route, information indicating traffic congestion on a driving route, information indicating that there is a slow section (eg a child protection zone) on a driving route, driving Information indicating that there is a non-autonomous driving region (eg, an area without map information) on the route may be included.
  • the driving environment information indicating the impossibility of autonomous driving is information indicating that the road surface on the driving route is an icy road, so that slow driving is required by manual driving, and when the traffic accident occurs on the driving route, the driving situation copes with the sudden situation Information indicating that driving is required, information indicating that construction is in progress on a driving route, information indicating traffic congestion on a driving route, information indicating that
  • FIG. 37 is a flowchart illustrating a method of controlling an autonomous driving function of an autonomous vehicle 100 according to driving environment information according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive, from the device 1000, device side information 210 obtained by the device 1000 that communicates with the autonomous vehicle 100.
  • the autonomous vehicle 100 may receive device side information 210 including driving environment information from the device 1000.
  • the driving environment information may indicate that autonomous driving is impossible.
  • the autonomous driving function of the autonomous vehicle 100 is performed according to the driving environment information.
  • the autonomous vehicle 100 may stop autonomous driving by controlling the autonomous driving function.
  • the autonomous vehicle 100 may stop the autonomous driving function by controlling the autonomous driving function when the user can drive using the biometric information included in the device side information 210.
  • step S3730 the autonomous vehicle 100 is controlled to stop autonomous driving.
  • the autonomous vehicle 100 may display a message indicating that the vehicle is driven by manual driving.
  • the autonomous vehicle 100 may travel based on a user's manual operation.
  • 38 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to one embodiment, based on driving environment information representing area information.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include driving environment information.
  • the driving environment information received by the autonomous vehicle 100 from the device 1000 may include area information.
  • the autonomous vehicle 100 may be configured to include the autonomous vehicle 100 of the autonomous vehicle 100.
  • the driving device may be executed to determine the driving mode of the autonomous vehicle according to the driving environment information.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives driving environment information indicating that the current surrounding area is a child protection zone, the autonomous vehicle 100 executes the driving device of the autonomous vehicle 100 to execute the autonomous vehicle.
  • the operation mode of 100 may be determined as a slow mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives driving environment information indicating that the current surrounding area is a construction area, the autonomous vehicle 100 executes the driving device of the autonomous vehicle 100 to execute the autonomous vehicle 100. ) Can be determined as the safe mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives driving environment information indicating that the road currently being driven is an ice road, the autonomous vehicle 100 executes the driving device of the autonomous vehicle 100 to execute the autonomous vehicle (
  • the operation mode of 100 may be determined as an anti-slip mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives driving environment information indicating that the current surrounding area is a tourist destination, the autonomous vehicle 100 executes the driving device of the autonomous vehicle 100, thereby driving the autonomous vehicle 100.
  • the driving mode of may be determined as a slow mode.
  • the autonomous vehicle 100 may execute an accelerator function of the autonomous vehicle 100 to set an average driving speed corresponding to the region information. have.
  • the set running average speed may be an average speed set in a driving mode corresponding to area information.
  • the autonomous vehicle 100 may determine the average driving speed according to the characteristics of the region acquired from the region information. For example, if you have a famous building or tower 500 meters ahead, you can determine your average driving speed below the standard average speed.
  • the autonomous vehicle 100 executes an accelerator and / or a brake function of the autonomous vehicle 100, so that the maximum acceleration corresponding to the area information is performed. And / or average acceleration.
  • the autonomous vehicle 100 may be controlled to drive at a lower maximum acceleration and / or average acceleration than the standard.
  • 39 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to driving environment information representing area information, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive device side information 210 including driving environment information from the device 1000.
  • the driving environment information may include area information corresponding to the current location of the device user.
  • the autonomous vehicle 100 executes the driving device of the autonomous vehicle when the device-side information 210 received in operation S3910 includes driving environment information indicating area information corresponding to the current location of the device user. do.
  • the autonomous vehicle 100 determines the driving mode of the autonomous vehicle according to the driving environment information.
  • step S3940 the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the driving mode determined in step S3930.
  • 40 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to weather information, according to an embodiment.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include weather information.
  • the autonomous vehicle 100 executes a temperature control function of the autonomous vehicle 100 to determine a set temperature inside the autonomous vehicle according to the weather information.
  • the temperature control function may be performed by a cooling device, a heating device, a dehumidifying device, a ventilation device (eg, a fan, a window) or the like.
  • the autonomous vehicle 100 may determine a set temperature lower than the current vehicle internal temperature as the set temperature. have. When the weather is clear and the air is clean, the information is included in the weather information, and if the set temperature is lower than the current vehicle internal temperature, the autonomous vehicle 100 may control the window device to open the window.
  • the autonomous vehicle 100 may determine a value higher than the current vehicle internal temperature as the set temperature. have.
  • the autonomous vehicle 100 may be controlled to close the window, execute the dehumidification function, and execute the heater function. Can be.
  • the autonomous vehicle is a cooling device, heating included in the autonomous vehicle 100 in response to weather information (temperature, humidity, snow or rain, fine dust, air pollution, etc.) Devices, dehumidifiers, ventilation devices (e.g. fans, windows).
  • weather information temperature, humidity, snow or rain, fine dust, air pollution, etc.
  • Devices dehumidifiers, ventilation devices (e.g. fans, windows).
  • the autonomous vehicle may update the set temperature inside the autonomous vehicle according to the weather information.
  • 41 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to weather information, according to an exemplary embodiment.
  • the autonomous vehicle 100 may receive device side information 210 obtained from the device 1000 that communicates with the autonomous vehicle 100 from the device 1000.
  • the autonomous vehicle 100 may receive device side information 210 including weather information from the device 1000.
  • operation S4120 when the device-side information 210 received in operation S2310 includes weather information, the autonomous vehicle 100 executes a temperature control function of the autonomous vehicle.
  • the autonomous vehicle 100 determines the set temperature inside the autonomous vehicle according to the weather information.
  • step S4140 the autonomous vehicle 100 is controlled according to the vehicle control information determined based on the set temperature determined in step S3230.
  • FIG. 42 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment by using information obtained from the server 200.
  • the server 200 may communicate with the device 1000 and / or the autonomous vehicle 100.
  • the autonomous vehicle 100 may obtain device side information 210 from the device 1000.
  • the device side information 210 received by the autonomous vehicle 100 from the device 1000 may include information received by the device 1000 from the server 200.
  • the autonomous vehicle 100 may obtain server side information from the server 200.
  • the server-side information received by the autonomous vehicle 100 from the server 200 may include information uploaded by the user of the device 1000 to the server 200 through the device 1000.
  • the server side information received by the autonomous vehicle 100 from the server 200 may include information previously stored in the server.
  • the server side information may include schedule information, surrounding situation information weather information, and the like.
  • the autonomous vehicle 100 may acquire vehicle control information by using server side information received from the server 200 and / or device side information 210 received from the device 1000.
  • the autonomous vehicle 100 controls the vehicle to set the driving route of the autonomous vehicle 100 using the user schedule information included in the server side information and the user biometric information included in the device side information 210. Information can be obtained.
  • the autonomous vehicle 100 may determine the driving mode and / or the driving route of the autonomous vehicle 100 using the driving environment information included in the server side information and the user biometric information included in the device side information 210. Determining vehicle control information may be obtained.
  • 43 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using information obtained from a server according to an exemplary embodiment.
  • the device 1000 receives device communication information 231 from the server 200.
  • the device 1000 obtains device sensing information 241.
  • the device 1000 obtains device storage information 251.
  • the autonomous vehicle 100 receives vehicle communication information 232 from the server 200.
  • the autonomous vehicle 100 obtains vehicle sensing information 242.
  • the autonomous vehicle 100 obtains vehicle storage information 252.
  • the autonomous vehicle 100 uses the device side information 210 obtained by using at least one of device communication information 231, device sensing information 241, device storage information 251, and device generation information. From 1000.
  • the autonomous vehicle 100 may determine at least one of a plurality of functions that may be performed in the autonomous vehicle, and in operation S4390, the autonomous vehicle 100 may control the function determined in operation S80.
  • the autonomous vehicle 100 may obtain vehicle side information 220 using at least one of vehicle communication information 232, vehicle sensing information 242, vehicle storage information 252, and vehicle generation information.
  • the autonomous vehicle 100 may determine at least one of a plurality of functions that may be performed in the autonomous vehicle 100 using the vehicle side information 220 and / or the device side information 210.
  • the autonomous vehicle 100 may control a function determined according to the vehicle side information 220 and / or the device side information 210.
  • the autonomous vehicle 100 may use the biometric information, the schedule information, the surrounding situation information, the weather information, etc. included in the device side information 210 and / or the vehicle side information 220 to determine the autonomous vehicle.
  • Navigation 5130
  • travel devices e.g. accelerators, brakes, transmissions, steering devices
  • internal lights e.g. indoors
  • external lights e.g. lights
  • audio / video devices e.g. speakers
  • thermostats E.g., air conditioners, heaters, fans, windows, hot wires
  • geofences other peripherals (e.g. wipers, turn signals, touch screens), sensors, etc.
  • 44 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment by using information obtained from a plurality of devices 1000-1 and 1000-2.
  • the autonomous vehicle 100 may obtain information from the plurality of devices 1000-1 and 1000-2. For example, the autonomous vehicle 100 receives the first device side information 210 from the first device 1000-1 and receives the second device side information 210 from the second device 1000-2. Can be received.
  • the autonomous vehicle 100 may obtain vehicle control information by using information from the plurality of devices 1000-1 and 1000-2.
  • the first device side information and / or the second device side information may be used as the device side information 210 described in the embodiments described above with reference to FIGS. 1 to 43.
  • the autonomous vehicle 100 may assign different priorities to the received first device side information and the second device side information, respectively.
  • the autonomous vehicle 100 may give different priorities according to the boarding position of the occupant. For example, the highest priority may be given to information obtained from the device 1000-2 of the occupant in the driver's seat.
  • the autonomous vehicle 100 may assign different priorities according to unique identification numbers assigned to each of the plurality of devices. For example, when the autonomous vehicle 100 is set in a setting option of the autonomous vehicle 100 so as to give the highest priority to the unique identification number of the first device 1000-1, the autonomous vehicle 100 may prioritize the first device side information. May be set higher than the priority of the second device side information.
  • the autonomous vehicle 100 may assign different priorities according to login information of each of the plurality of devices. For example, when the autonomous vehicle 100 is set in a setting option of the autonomous vehicle 100 to give the highest priority to the login information logged in to the first device 1000-1, the autonomous vehicle 100 may give priority to the first device side information. The priority may be set higher than the priority of the second device side information.
  • the autonomous vehicle 100 may generate vehicle control information based on higher priority information.
  • the biometric information included in the first device-side information includes information that the user is hot
  • the biometric information included in the second device-side information includes information that the user is cold
  • the autonomous vehicle 100 may generate vehicle control information for operating the air conditioner.
  • the autonomous vehicle 100 may operate the air conditioner according to the generated vehicle control information.
  • 45 is a diagram illustrating an example of controlling the autonomous vehicle 100 according to an embodiment by controlling the display of an inquiry screen.
  • the autonomous vehicle 100 obtains device side information 210 from the device 100, and functions to control one of a plurality of functions of the autonomous vehicle 100 based on the obtained device side information 210. Can be determined. In addition, the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210.
  • the autonomous vehicle 100 obtains the device side information 210 from the device 100, and based on the obtained device side information 210 and the vehicle side information 220, the autonomous vehicle 100 is obtained.
  • a function to be controlled can be determined from one of a plurality of functions.
  • the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210 and the vehicle side information 220.
  • the autonomous vehicle 100 may display an inquiry screen on a display included in the autonomous vehicle 100 before controlling a function determined according to the generated control information.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives the device side information 210 including the biometric information indicating a high fatigue state from the device 1000, the autonomous vehicle 100 is at the current position 3310 A query screen for inquiring whether to add a drowsiness shelter 3330 as a stopover may be displayed on the driving route to the destination 3320.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives the device side information 210 including driving environment information indicating that the autonomous vehicle 100 has entered the child protection area from the device 1000, the autonomous vehicle 100 slows down the driving mode.
  • a query screen can be displayed inquiring whether to change to the mode.
  • the autonomous vehicle 100 when the autonomous vehicle 100 includes vehicle side information 220 including information indicating that the tire pressure is below a predetermined criterion, the autonomous vehicle 100 inquires whether to add a nearby repair shop as a waypoint. Can display a query screen.
  • the present disclosure is not limited to this embodiment, and an operation of displaying an inquiry screen may be performed before controlling the autonomous vehicle 100 according to the control information for all the above-described embodiments.
  • 46 is a flowchart illustrating a method of controlling the autonomous vehicle 100 according to an embodiment of the present disclosure by displaying an inquiry screen.
  • the device 1000 obtains biometric information using a sensor included in the device 1000.
  • the autonomous vehicle 100 receives device sensing information 241 from the device 1000.
  • the received device sensing information 241 may include information indicating a high degree of fatigue.
  • the autonomous vehicle 100 may request the dwelling shelter related information from the server 200.
  • the server 200 may acquire drowsiness shelter position information around the position of the current autonomous driving vehicle 100 and route information to the drowsiness shelter.
  • the autonomous vehicle 100 receives drowsiness related information from the server 200.
  • the drowsiness shelter related information may include drowsiness shelter position information around the position of the current autonomous driving vehicle 100 and route information to the drowsiness shelter.
  • the autonomous vehicle 100 obtains vehicle side information 220.
  • the autonomous vehicle 100 may obtain information about the remaining amount of oil.
  • the vehicle side information 220 may include drowsy shelter related information obtained in step S4650.
  • the drowsiness shelter related information may be included in the vehicle communication information 232.
  • the autonomous vehicle 100 may determine whether driving to the drowsiness shelter is possible based on the current amount of oil.
  • step S4670 the autonomous vehicle 100 is to control among a plurality of functions of the autonomous vehicle 100 based on the device sensing information 241 acquired in step S4620 and the vehicle side information 220 obtained in step S4660.
  • the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210.
  • the autonomous vehicle 100 may display an inquiry screen inquiring whether the operation of controlling the determined function is progressed on a display included in the autonomous vehicle 100 before controlling the function determined according to the generated control information. have.
  • the autonomous vehicle 100 receives device side information 210 including biometric information indicating a high fatigue state from the device 1000, and the vehicle side information 220 provides information indicating a sufficient oil level.
  • the autonomous vehicle 100 may display an inquiry screen for inquiring whether to add a drowsiness shelter as a waypoint.
  • the autonomous vehicle 100 may receive a response from the user corresponding to the inquiry screen displayed in operation S4670.
  • the autonomous vehicle 100 may receive a touch input for a button corresponding to “Yes” among two buttons corresponding to “Yes” and “No”, respectively.
  • the autonomous vehicle 100 may be controlled according to the control information generated in operation S4670 in response to the user input received in operation S4680. For example, when the autonomous vehicle 100 displays an inquiry screen inquiring whether to add a drowsiness shelter as a stop, and then receives an input corresponding to "Yes" from the user, the autonomous vehicle 100 travels on a driving route. You can add a drowsiness shelter to your stop.
  • FIG. 47 is a diagram illustrating an example of adding a waypoint to a driving route of the autonomous vehicle 100 without displaying an inquiry screen.
  • the autonomous vehicle 100 obtains the device side information 210 from the device 100 and based on the obtained device side information 210, one function to be controlled among a plurality of functions of the autonomous vehicle 100. Can be determined. In addition, the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210.
  • the autonomous vehicle 100 obtains the device side information 210 from the device 100, and based on the obtained device side information 210 and the vehicle side information 220, a plurality of autonomous vehicle 100 may be used. One of the functions to control the function can be determined. In addition, the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210 and the vehicle side information 220.
  • the autonomous vehicle 100 may omit a process of displaying an inquiry screen on a display included in the autonomous vehicle 100 before controlling a function determined according to the generated control information.
  • the autonomous vehicle 100 when the autonomous vehicle 100 receives the device side information 210 including the live broadcasting schedule information having high priority from the device 1000 and biometric information indicating that the user is sleeping, the autonomous vehicle 100 ) May omit the process of displaying an inquiry screen inquiring whether to add the broadcast station 3620 as a waypoint on the driving route from the current location 3610 to the destination 3630, and add the broadcast station as a waypoint.
  • the autonomous vehicle 100 receives the device side information 210 including the biometric information indicating that the user is sleeping from the device 1000, and the vehicle side information including information indicating that the oil remaining amount is below a predetermined reference.
  • the autonomous vehicle 100 may add a gas station as a waypoint by omitting the process of displaying an inquiry screen inquiring whether to add a gas station as a waypoint.
  • the autonomous vehicle 100 receives the device side information 210 including the biometric information indicating that the user is sleeping from the device 1000, and the vehicle side information including information indicating that the tire air pressure is below a predetermined reference.
  • the autonomous vehicle 100 may omit the process of displaying an inquiry screen inquiring whether to add the repair shop as a waypoint and add the shop as a waypoint.
  • the autonomous vehicle 100 may add the hospital as a waypoint. You can omit the process of displaying an inquiry screen to inquire and add a hospital as a waypoint.
  • the process of displaying the inquiry screen may be predetermined. For example, if there is a highest priority schedule such as a live broadcast schedule, the process of displaying an inquiry screen about the case where the driving distance is less than a predetermined distance (for example, lack of oil, a vehicle error, etc.), or when the user is in an emergency state is omitted. It may be set in advance.
  • the autonomous vehicle 100 may update setting items according to a user's input.
  • the present invention is not limited to this embodiment.
  • an operation of displaying an inquiry screen before controlling the autonomous vehicle 100 according to control information may be omitted.
  • 48 is a diagram illustrating an example of adding a waypoint to a driving route of the autonomous vehicle 100 according to an embodiment without displaying an inquiry screen.
  • the device 1000 obtains schedule information of the user from the storage medium or the server 200 included in the device 1000.
  • the autonomous vehicle 100 receives device side information 210 from the device 1000.
  • the received device side information 210 may include live broadcast schedule information.
  • the autonomous vehicle 100 may request the server 200 for broadcasting station related information, which is a schedule of live broadcasting.
  • the server 200 may obtain location information of the broadcasting station and route information from the location of the current autonomous vehicle 100 to the broadcasting station.
  • the autonomous vehicle 100 receives broadcast station related information from the server 200.
  • the broadcasting station related information may include location information of the broadcasting station and path information from the location of the current autonomous vehicle 100 to the broadcasting station.
  • the autonomous vehicle 100 acquires vehicle side information 220.
  • the autonomous vehicle 100 may acquire information about the remaining amount of oil.
  • the vehicle side information 220 may include broadcasting station related information obtained in step S50.
  • the broadcasting station related information may be included in the vehicle communication information 232.
  • the autonomous vehicle 100 may determine whether driving to the broadcasting station is possible based on the amount of oil remaining.
  • step S4870 the autonomous vehicle 100 is to control among a plurality of functions of the autonomous vehicle 100 based on the device side information 210 acquired in step S4820 and the vehicle side information 220 obtained in step S4860. One can decide the function.
  • the autonomous vehicle 100 may generate vehicle control information for controlling a function determined according to the acquired device side information 210.
  • the autonomous vehicle 100 receives the device side information 210 including the high priority live broadcast schedule information and the biometric information indicating that the user is sleeping from the device 1000, and the vehicle side information 220. In the case of including information indicating sufficient oil remaining, the autonomous vehicle 100 skips the process of displaying an inquiry screen inquiring whether to add a station as a waypoint and generates vehicle control information for adding the station as waypoint. can do.
  • the autonomous vehicle 100 may be controlled according to the control information generated in operation S4870. According to the control information generated in operation S4870, the autonomous vehicle 100 may omit the process of displaying an inquiry screen for inquiring whether to add the broadcasting station as a waypoint and add the broadcasting station as the waypoint.
  • 49 to 50 illustrate a method of controlling the autonomous vehicle 100 communicating with the wearable device 1001 and the device side information 210 when the device 1000 is the wearable device 1001.
  • the autonomous vehicle 100 controlled according to this will be described.
  • 49 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using the wearable device 1001 communicating with the autonomous vehicle 100, according to an exemplary embodiment.
  • the wearable device 1001 may determine whether the autonomous vehicle is in a communication range with the wearable device 1001 using the wearable device software 1701.
  • the autonomous vehicle 100 may determine whether the wearable device 1001 is within a communication range by using the autonomous vehicle software 5381.
  • the wearable device 1001 may shake hands with the autonomous vehicle 100 using the wearable device software 1701.
  • the autonomous vehicle 100 may handshaking with the wearable device 1001 using the autonomous vehicle software 5381.
  • the wearable device 1001 may load the wearable device function database 1702 using the wearable device software 1701 and transmit the same to the autonomous vehicle 100.
  • step S4906 the autonomous vehicle 100 receives the wearable device function database 1702 from the wearable device 1001 using the autonomous vehicle software 5313.
  • step S4907 the autonomous vehicle 100 loads the autonomous vehicle function database 5332 using the autonomous vehicle software 5381.
  • step S4908 the autonomous vehicle 100 generates a functional matrix using the autonomous vehicle software 5381.
  • the autonomous vehicle 100 displays a screen for requesting a user input regarding a method of linking the function of the autonomous vehicle 100 and the function of the wearable device 1001 using the display 5372.
  • the wearable device 1001 transmits information on a user input to the autonomous vehicle 100 using the wearable device software 1701.
  • the autonomous vehicle 100 receives information on a user input from the wearable device 1001 using the autonomous vehicle software 5381.
  • step S4913 the autonomous vehicle 100 compares the information on the user input with the function matrix by using the autonomous vehicle software 5381.
  • step S4914 the autonomous vehicle 100 determines whether a match is made using the autonomous vehicle software 5381.
  • the autonomous vehicle 100 may determine whether there is a matching function using the obtained device side information 210 and the vehicle side information 220.
  • the autonomous vehicle 100 obtains from the wearable device 1001 whether to execute the cooling and heating function. Can be determined based on the collected body temperature information. For example, when the body temperature is more than a predetermined value, the body temperature measurement function and the air conditioning function may be matched to operate the air conditioner.
  • the autonomous vehicle 100 activates the function of the matched autonomous vehicle 100 when the matching function is the function of the autonomous vehicle 100 in step S4914.
  • the autonomous vehicle 100 activates the function of the wearable device 1001 that is matched using the autonomous vehicle software 5381 when the matching function is the function of the autonomous vehicle 100 in step S4914. Transmits a signal to the wearable device 1001.
  • the wearable device 1001 receives the signal transmitted from the autonomous vehicle 100 in operation S4916 by using the wearable device software 1701.
  • the wearable device 1001 activates a function of the matched wearable device 1001 using the wearable device software 1701.
  • 50 is a flowchart illustrating a method of controlling the autonomous vehicle 100 using the wearable device 1001 that communicates with the autonomous vehicle 100 through pairing according to an embodiment.
  • a wearable device 1001 including a communication unit 1500, a sensing unit 1400, an output unit 1200, a processor 1300, a power supply 810, a memory 1700, and the like is provided.
  • the memory 1700 may include wearable device software 1701 and a wearable device function database 1702.
  • an autonomous vehicle including a communication device 110, a sensor device 5200, a travel device 5100, a peripheral device 5300, a processor 120, a power supply 5400, a memory 5500, and the like. 100 is provided.
  • the memory 5500 may include autonomous vehicle software 5381 and autonomous vehicle function database 5332.
  • the wearable device 1001 accepts a user input for wearable setting.
  • the wearable device 1001 may determine a setting for the wearable operating system based on a user input.
  • the wearable device 1001 and / or the autonomous vehicle 100 perform pairing between the wearable device 1001 and the autonomous vehicle 100.
  • the wearable device 1001 and / or the autonomous vehicle 100 link the function of the wearable device 1001 with the function of the autonomous vehicle 100.
  • a function of the wearable device 1001 and a function of the autonomous vehicle 100 may be linked in a predetermined manner.
  • the wearable device 1001 and / or the autonomous vehicle 100 display a screen requesting to establish a linkage between the function of the wearable device 1001 and the function of the autonomous vehicle 100.
  • the wearable device 1001 and / or the autonomous vehicle 100 receive a user input corresponding to the request displayed in operation S5060.
  • the wearable device 1001 receives data about an associated function from the autonomous vehicle 100 or the autonomous vehicle 100 from the wearable device 1001.
  • the wearable device 1001 and / or the autonomous vehicle 100 activate the associated function using the data received in operation S5080.
  • the device includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button, and the like.
  • a computer readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
  • the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the medium is readable by the computer, stored in the memory, and can be executed by the processor.
  • This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions.
  • an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them.
  • the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like.
  • the functional aspects may be implemented with an algorithm running on one or more processors.
  • the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as “mechanism”, “element”, “means”, “configuration” can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Thermal Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

사용자의 디바이스로부터 획득되는 정보인 디바이스 측 정보를 이용하여 사용자에게 적응적인 자율 주행을 구현하는 자율 주행 방법 및 자율 주행 차량을 개시한다. 특히 웨어러블 디바이스로부터 획득한 디바이스 측 정보에 대응되는 자율 주행 차량의 기능을 제어함으로써, 사용자의 상황에 적합한 자율 주행을 구현하는 자율 주행 방법 및 자율 주행 차량이 개시된다.

Description

자율 주행 차량 및 자율 주행 차량 제어 방법
본 개시는 자율 주행 차량 및 자율 주행 제어 방법에 관한 것이다.
최근 자율 주행 차량에 대한 관심이 높아지고 있다. 특히 자동차 수요증가에 따른 교통혼잡을 해소함과 아울러 사람이나 다른 차량 등의 장애물을 안전하게 회피하기 위해, 자율 주행과 관련된 다양한 부가 기능이 지속적으로 개발되고 있다. 예를 들면, 차선 유지 시스템과 관련된 수 많은 알고리즘이 존재한다.
또한 인터넷 연결성이 확대되면서, 각종 디바이스나 자동차로부터 생성되는 데이터 양이 급증하고 있어 이를 이용한 다양한 서비스가 등장하고 있다.
따라서 각종 데이터를 이용하여 사용자에게 친숙한 자율 주행 경험을 제공할 수 있는 방법 및 자율 주행 차량이 요구되고 있다.
디바이스와 통신하는 자율 주행 차량을 제어하는 방법 및 디바이스와 통신하는 자율 주행 차량을 개시한다.
디바이스로부터 수신한 정보를 이용하여 자율 주행 차량을 제어하는 방법을 제공한다.
디바이스와 통신하는 자율 주행 차량을 효율적으로 제어할 수 있다.
도 1a는 일 실시 예에 따른 자율 주행 차량이 디바이스와 통신을 통해 제어되는 일례를 도시한 도면이다.
도 1b는 일 실시 예에 따른 자율 주행 차량의 구성의 일례를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 정보의 일례를 도시한 도면이다.
도 3은 일 실시 예에 따른 자율 주행 차량을 디바이스 측 정보를 이용하여 제어하는 방법의 흐름도이다.
도 4는 일 실시 예에 따른 자율 주행 차량을 디바이스 측 정보 및 차량 측 정보를 이용하여 제어하는 방법의 흐름도이다.
도 5는 일 실시 예에 따른 자율 주행 차량이 가질 수 있는 기능들을 실행하는 장치를 설명하기 위한 블록도이다.
도 6 및 도 7은 일 실시 예에 따른 디바이스의 블록도이다.
도 8은 일 실시 예에 따른 자율 주행 차량 및 자율 주행 차량과 통신하는 웨어러블 디바이스를 나타내는 블록도이다.
도 9는 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 차량 소프트웨어를 나타내는 블록도이다.
도 10은 일 실시 예에 따른 자율 주행 차량과 디바이스간의 통신을 통한 자율 주행 차량의 제어 방법을 나타내는 흐름도이다.
도 11은 일 실시 예에 따른 자율 주행 차량을 기능 매트릭스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 12는 일 실시 예에 따른 자율 주행 차량을 수신한 데이터에 매칭되는 기능에 따라서 제어하는 방법을 나타내는 흐름도이다.
도 13은 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 웨어러블 디바이스 소프트웨어를 나타내는 블록도이다.
도 14는 일 실시 예에 따른 자율 주행 차량을 통신 범위 내에 있는 웨어러블 디바이스와 통신하여 제어하는 방법을 나타내는 흐름도이다.
도 15는 일 실시 예에 따른 자율 주행 차량과 통신하는 웨어러블 디바이스를 제어하는 방법을 나타내는 흐름도이다.
도 16은 일 실시 예에 따른 자율 주행 차량 및 웨어러블 디바이스가 포함하는 데이터 베이스를 나타내는 도면이다.
도 17a 내지 17c는 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능을 연계하는 가이드 라인을 설정하는 화면을 나타낸 도면이다.
도 18은 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신하는 일례를 나타내는 도면이다.
도 19는 일 실시 예에 따른 자율 주행 차량의 주행 관련 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 20은 일 실시 예에 따른 자율 주행 차량의 주변 장치 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 21은 일 실시 예에 따른 자율 주행 차량의 센서 관련 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 22는 일 실시 예에 따른 자율 주행 차량을 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 23은 일 실시 예에 따른 자율 주행 차량을 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 24는 일 실시 예에 따른 자율 주행 차량을 생체 정보 및 차량 측 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 25는 일 실시 예에 따른 자율 주행 차량을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 26은 일 실시 예에 따른 자율 주행 차량을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 27은 일 실시 예에 따른 자율 주행 차량의 오디오·비디오 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 28은 일 실시 예에 따른 자율 주행 차량의 주변 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 29는 일 실시 예에 따른 자율 주행 차량을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 30은 일 실시 예에 따른 자율 주행 차량을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 31은 일 실시 예에 따른 자율 주행 차량을 스케줄 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 32는 일 실시 예에 따른 자율 주행 차량의 주행 경로를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 33은 일 실시 예에 따른 자율 주행 차량의 주행 속도를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 34는 일 실시 예에 따른 자율 주행 차량의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 35는 일 실시 예에 따른 자율 주행 차량의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 36은 일 실시 예에 따른 자율 주행 차량의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 37은 일 실시 예에 따른 자율 주행 차량의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 38은 일 실시 예에 따른 자율 주행 차량을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 39는 일 실시 예에 따른 자율 주행 차량을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 40은 일 실시 예에 따른 자율 주행 차량을 날씨 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 41은 일 실시 예에 따른 자율 주행 차량을 날씨 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 42는 일 실시 예에 따른 자율 주행 차량을 서버로부터 획득한 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 43은 일 실시 예에 따른 자율 주행 차량을 서버로부터 획득한 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 44는 일 실시 예에 따른 자율 주행 차량을 복수의 디바이스로부터 획득되는 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 45는 일 실시 예에 따른 자율 주행 차량을 문의 화면을 디스플레이함에 따라 제어하는 일례를 나타내는 도면이다.
도 46은 일 실시 예에 따른 자율 주행 차량을 문의 화면을 디스플레이함에 따라 제어하는 방법을 나타내는 흐름도이다.
도 47은 일 실시 예에 따른 자율 주행 차량의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
도 48은 일 실시 예에 따른 자율 주행 차량의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 방법을 나타내는 흐름도이다.
도 49는 일 실시 예에 따른 자율 주행 차량을 자율 주행 차량과 통신하는 웨어러블 디바이스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 50은 일 실시 예에 따른 자율 주행 차량을 자율 주행 차량과 페어링을 통해 통신하는 웨어러블 디바이스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면은, 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 단계, 상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하는 단계 및 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 단계를 포함하는 자율 주행 차량 제어 방법을 제공할 수 있다.
또한, 다른 측면은, 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 통신 장치 및 상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하고, 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 프로세서를 포함하는 자율 주행 차량을 제공할 수 있다.
또한, 또 다른 측면은, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 판독 가능한 비일시적 기록 매체를 더 제공할 수 있다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시 예를 상세히 설명하기로 한다. 하기 실시 예는 기술적 내용을 구체화하기 위한 것일 뿐 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시 예로부터 해당 기술분야의 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
본 실시 예들은 렌더링 방법 및 장치에 관한 것으로서 이하의 실시 예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.
또한, 본 명세서에서 자율 주행 차량은 추후에 추가적인 설정이나 추가적인 공정 등을 통해 자율 주행이 가능한 차량을 포함할 수 있다. 따라서 자율 주행 차량은 현재 자율 주행 기능을 수행할 수 있는 차량 뿐 아니라, 아직 자율 주행 기능을 수행할 수 없는 일반 차량을 포함할 수 있다. 예를 들면 본 명세서에서 자율 주행 차량은 수동 주행 차량을 포함할 수 있다.
도 1a는 일 실시 예에 따른 자율 주행 차량(100)이 디바이스(1000)와 통신을 통해 제어되는 일례를 도시한 도면이다.
도 1a를 참고하면, 자율 주행 차량(100)은 디바이스(1000)와 통신 연결을 수행할 수 있다. 예를 들어, 자율 주행 차량(100)은, 디바이스(1000)와 근거리 통신 링크를 형성할 수도 있고, 이동 통신 링크(예컨대, 3G, 4G, 5G 등)를 형성할 수도 있다. 근거리 통신에는 블루투스, BLE (Bluetooth Low Energy), 와이파이, UWB(ultra wideband), Zigbee, NFC(Near Field Communication unit), Ant+ 등이 있을 수 있고, 이에 한정되는 것은 아니다.
본 실시 예들에서 설명되는 디바이스(1000)는 스마트폰, 태블릿 디바이스, PDA(personal digital assistant) 등과 같은 이동통신 기능을 갖는 휴대용 모바일 디바이스들, 웨어러블 디바이스, 또는 랩탑(laptop) 등에 해당될 수 있으나, 이에 제한되지 않는다. 예를 들어, 디바이스(1000)가 웨어러블 디바이스에 해당되는 경우 디바이스(1000)는 자율 주행 차량(100)에 탑승한 사용자의 신체에 착용된 스마트 밴드, 스마트 워치, 스마트 글래스 등일 수 있다.
자율 주행 차량(100)은 자율 주행 차량(100)과 디바이스(1000)간의 거리에 기초하여 통신을 수행할 수 있다. 이때, 자율 주행 차량(100)은 자율 주행 차량(100)으로부터 소정 범위 내에 위치한 디바이스(1000)에 통신을 요청할 수 있다. 또한, 자율 주행 차량(100)은 통신 요청에 대한 응답으로 디바이스 측 정보를 수신할 수 있다.
자율 주행 차량(100)은 디바이스(1000)가 자율 주행 차량으로부터 소정 범위 내에 있는지 여부를 결정할 수 있다. 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 범위 내에 있다고 결정된 경우, 자율 주행 차량(100)은 디바이스(1000)에 통신을 요청하고, 통신 요청에 대한 응답으로 디바이스 측 정보를 수신할 수 있다.
디바이스(1000)는 여러 방식으로 디바이스 측 정보를 획득할 수 있다. 예를 들면, 디바이스(1000)는 디바이스(1000)에 포함된 센서를 이용하여 센싱 정보를 획득할 수 있고, 통신을 통해서 디바이스(1000)의 외부로부터 데이터를 수신하여 통신 정보를 획득할 수 있고, 또는 디바이스(1000) 내의 저장 매체에 저장된 데이터를 이용하여 새로운 데이터를 생성할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보를 수신할 수 있다. 디바이스 측 정보는 앞서 설명된 바와 같이, 디바이스(1000)가 획득하는 정보를 의미할 수 있으며, 자세한 디바이스 측 정보의 의미에 대해서는 도 2에서 후술한다.
자율 주행 차량(100)은 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 또한, 자율 주행 차량(100)은 디바이스(1000)로부터 수신한 디바이스 측 정보를 이용하여 차량 제어 정보를 결정할 수 있다.
차량 제어 정보에 따라 자율 주행 차량(100)이 제어될 수 있다. 예를 들면, 차량 제어 정보가 A목적지로 주행할 것을 나타내는 경우, 자율 주행 차량(100)은 차량 제어 정보에 따라 A목적지로 자율 주행하도록 제어될 수 있다.
도 1b는 일 실시 예에 따른 자율 주행 차량(100)의 구성의 일례를 나타내는 블록도이다.
도 1b에 도시된 바와 같이, 자율 주행 차량(100)은 통신 장치(110) 및 프로세서(120)를 포함할 수 있다. 그러나, 도 1b에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 자율 주행 차량(100)에 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
통신 장치(110)는 자율 주행 차량(100)의 외부와 통신을 수행할 수 있다. 예를 들면, 통신 장치(110)는 디바이스(1000)와 통신할 수 있다.
프로세서(120)는 자율 주행 차량(100)을 제어할 수 있다. 예를 들면, 프로세서(120)는 차량 제어 정보를 획득하고, 획득된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다.
이하에서는, 본 실시 예에 따른 자율 주행 차량(100)의 제어 방법 및 자율 주행 차량(100)에 대해 상세하게 설명하도록 한다.
도 2는 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 정보의 일례를 도시한 도면이다.
디바이스 측 정보(210)는 디바이스(1000)가 획득하는 정보를 의미할 수 있다. 예를 들면, 디바이스 측 정보(210)는 디바이스(1000)가 통신을 통해 획득하는 정보인 디바이스 통신 정보(231), 디바이스(1000)에 포함된 센서에 의해 센싱되는 정보인 디바이스 센싱 정보(241), 디바이스(1000)의 저장 매체에 저장된 정보인 디바이스 저장 정보(251) 및 디바이스(1000)가 생성한 정보인 디바이스 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다.
디바이스 통신 정보(231)는 디바이스(1000)가 서버로부터 통신을 통해 획득하는 정보를 포함할 수 있다. 예를 들면, 디바이스 통신 정보(231)는 디바이스(1000)가 서버로부터 통신을 통해 획득하는 날씨 정보, 스케줄 정보, 주행 환경 정보(예: 도로 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주의 구간 정보 등), 시설 정보(주유소 정보, 차량 정비소 정보, 주차 정보 등), 뉴스 정보(예: 주변 공연 정보 등) 등을할 수 있고, 이에 한정되는 것은 아니다. 각 정보의 의미는 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
디바이스 센싱 정보(241)는 디바이스(1000)에 포함된 적어도 하나의 센서로부터 획득되는 정보를 포함할 수 있다. 디바이스(1000)는 하나 이상의 센서를 포함할 수 있다. 예를 들면, 디바이스(1000)는 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS 센서, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
디바이스 저장 정보(251)는 디바이스(1000)에 포함된 저장 매체에 기저장된 정보 또는 디바이스(1000)의 외부로부터 수신되어 디바이스(1000)에 포함된 저장 매체에 저장된 정보 중 적어도 하나를 포함할 수 있다. 디바이스 생성 정보는 디바이스 통신 정보(231), 디바이스 센싱 정보(241) 및 디바이스 저장 정보(251) 중 적어도 하나를 이용하여 디바이스(1000)가 생성한 정보를 의미할 수 있다. 예를 들면, 디바이스 생성 정보는 디바이스 저장 정보(251)와 디바이스 센싱 정보(241)를 연산하여 획득한 정보를 포함할 수 있다. 예를 들면, 디바이스 생성 정보는 디바이스 저장 정보(251)인 지도 정보와, 디바이스 센싱 정보(241)인 생체 정보를 이용하여 결정된 경유지 정보를 포함할 수 있다.
차량 측 정보(220)는 자율 주행 차량(100)이 획득하는 정보를 의미할 수 있다. 예를 들면, 차량 측 정보는 자율 주행 차량(100)이 통신을 통해 획득하는 정보인 차량 통신 정보(232), 자율 주행 차량(100)에 포함된 센서에 의해 센싱되는 정보인 차량 센싱 정보(242), 자율 주행 차량(100)의 저장 매체에 저장된 정보인 차량 저장 정보(252) 및 자율 주행 차량(100)이 생성한 정보인 차량 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다.
차량 통신 정보(232)는 자율 주행 차량(100)이 서버로부터 통신을 통해 획득하는 정보를 포함할 수 있다. 예를 들면, 차량 통신 정보(232)는 자율 주행 차량(100)이 서버로부터 통신을 통해 획득하는 날씨 정보, 스케줄 정보, 주행 환경 정보(예: 도로 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주의 구간 정보 등), 시설 정보(주유소 정보, 차량 정비소 정보, 주차 정보 등), 뉴스 정보(예: 주변 공연 정보 등) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 정보들의 의미는 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
차량 센싱 정보(242)는 자율 주행 차량(100)에 포함된 적어도 하나의 센서로부터 획득되는 정보를 포함할 수 있다. 자율 주행 차량(100)은 하나 이상의 센서를 포함할 수 있다. 예를 들면, 자율 주행 차량(100)은 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서 및 차량 센서(예: 흡입 공기량 센서(air flow sensor), 흡기 온도 센서(air temperature sensor), 대기압 센서(barometric pressure sensor), 수온 센서(water temperature sensor), 스로틀 포지션 센서(throttle position sensor), 모터 포지션 센서(motor position sensor), 산소 센서(oxygen sonsor), 노크 센서(knock sensor), 오일 센서, 연료 센서, 타이어 센서, 브레이크 센서, 속도 센서, 외부 온도 감지 센서, 외부 조도 감지 센서, 주변 인지 센서 등) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 차량 센서는 차량의 내부 또는 외부의 환경을 감지하거나 운전자의 행동을 검출하는 차량 장치를 포함할 수 있다.
차량 저장 정보(252)는 자율 주행 차량(100)에 포함된 저장 매체에 기저장된 정보 및/또는 자율 주행 차량(100)의 외부로부터 수신되어 차량(100)에 포함된 저장 매체에 저장된 정보를 포함할 수 있다.
차량 생성 정보는 차량 통신 정보(232), 차량 센싱 정보(242) 및 차량 저장 정보(252) 중 적어도 하나를 이용하여 자율 주행 차량(100)이 생성한 정보를 의미할 수 있다. 예를 들면, 차량 생성 정보는 차량 저장 정보(252)와 차량 센싱 정보(242)를 연산하여 획득한 정보를 포함할 수 있다. 예를 들면, 차량 생성 정보는 차량 센싱 정보(242)인 차량 내부 온도 정보와, 차량 센싱 정보(242)인 차량 외부 온도 정보를 이용하여 결정된 설정 온도 정보를 포함할 수 있다.
통신 정보(230)는 디바이스 통신 정보(231) 및 차량 통신 정보(232) 중 적어도 하나를 포함할 수 있고, 센싱 정보(240)는 디바이스 센싱 정보(241) 및 차량 센싱 정보(242) 중 적어도 하나를 포함할 수 있고, 저장 정보(250)는 디바이스 저장 정보(251) 및 차량 저장 정보(252) 중 적어도 하나를 포함할 수 있다.
도 3은 일 실시 예에 따른 자율 주행 차량(100)을 디바이스 측 정보(210)를 이용하여 제어하는 방법의 흐름도이다.
단계 S310에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 수신할 수 있다.
디바이스 측 정보(210)는 디바이스에서 획득할 수 있는 정보를 의미한다. 예를 들면, 디바이스 측 정보(210)는 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다. 즉, 디바이스 측 정보(210)는 생체 정보, 스케줄 정보, 주변 상황 정보, 날씨 정보 등을 포함할 수 있다.
단계 S320에서 자율 주행 차량(100)은 디바이스(1000)에서 획득할 수 있는 디바이스 측 정보(210)와 자율 주행 차량(100)의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 수신된 디바이스 측 정보(210)에 대응되는 차량 제어 정보를 결정할 수 있다.
가이드 라인은 디바이스 측 정보(210) 및/또는 차량 측 정보와 차량 제어 정보가 연계된 일종의 상황 대응 매뉴얼을 의미할 수 있다. 또한, 가이드 라인에 따라 위급 상황을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210)는 병원을 경유지로 추가하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보와 연계될 수 있다. 기능 매트릭스에 포함된 가이드 라인에 따라서 디바이스 측 정보(210)에 포함되는 스케줄 정보에 대응되는 네비게이션 기능이 결정될 수 있다.
가이드 라인은 자율 주행 차량(100)의 출고시에 설정되거나, 사용자의 입력에 기초하여 설정될 수 있다. 또한, 출고시에 설정된 가이드 라인은 사용자의 입력에 기초하여 갱신될 수 있다.
기능 매트릭스는 하나 이상의 가이드라인에 따라 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 연계된 상호 관계를 나타낼 수 있다.
차량 제어 정보는 자율 주행 차량(100)의 적어도 하나의 기능의 제어에 이용되는 정보를 의미할 수 있다. 예를 들면, 차량 제어 정보에 따라서, 자율 주행 차량(100) 내에 포함된 네비게이션, 엑셀러레이터, 브레이크, 핸들, 냉방 장치, 난방 장치, 창문, 환기 장치, 오디오/비디오 장치, 방향 지시등, 내부 조명, 외부 조명, 주행 장치 등이 제어될 수 있으나 이에 한정되는 것은 아니다. 다른 예로, 차량 제어 정보는 엔진에 흡입되는 공기량을 제어하기 위한 엑셀러레티어의 제어 정보, 네비게이션의 경유지를 추가하기 위한 제어 정보, 네비게이션의 경로 설정을 위한 제어 정보 및 차량 내부 온도를 제어하기 위한 냉방 장치, 난방 장치, 환기 장치 등을 제어하기 위한 제어 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른, 자율 주행 차량(100)은 가이드 라인에 기초하여, 자율 주행 차량(100)이 가지는 복수의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 수신된 디바이스 측 정보(210)에 대응하여 설정할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 체온에 대한 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 환기 장치 등의 제어 파라미터를 결정할 수 있다. 또한, 자율 주행 차량(100)은 사용자의 스케줄에 대한 장소 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 네비게이션의 주행 경로를 결정할 수 있다. 나아가서, 자율 주행 차량(100)은 차량 내부 온도에 대한 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치의 설정 온도를 결정할 수 있다.
자율 주행 차량이 가이드 라인에 기초하여 차량 제어 정보를 결정하는 구체적인 예들은 도 17a 내지 도 50에서 후술한다.
단계 S330에서 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 제어될 수 있다. 프로세서(120)는 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다.
예를 들어, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로 및/또는 주행 평균 속도를 설정할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 내부 밝기, 설정 온도, 재생 컨텐츠, 운전 모드 등을 결정할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로를 우회 경로로 변경할 수 있다. 나아가서, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행을 중지할 수 있다.
본 실시 예들에서, 운전 모드는 차량의 주변 상황 또는 차량 탑승자의 상황에 따라 차량이 제어되는 상태를 의미할 수 있다. 예를 들면, 운전 모드는 통상적인 주행에 적합한 주행 방식에 따라 차량이 제어되는 상태인 표준 모드, 친환경 경제 운전에 적합한 주행 방식에 따라 차량이 제어되는 상태인 에코 모드, 스포티한 주행 방식에 따라 차량이 제어되는 상태인 스포츠 모드, 미끄러운 노면에 적합한 주행 방식에 따라 차량이 제어되는 상태인 미끄럼 방지 모드, 탑승자의 수면 중일 때 적합하도록 차량이 제어되는 수면 모드, 탑승자가 독서 중일 때 적합하도록 차량이 제어되는 독서 모드, 위급 사태 발생 등의 경우에 적합하도록 차량이 제어되는 긴급 모드, 특수 상황 등에 따라 기설정된 속도 이하의 저속 주행으로 주행하도록 차량이 제어되는 상태인 서행 모드, 차량 주변 및/또는 차량 탑승자의 안전에 중점을 둔 차량 제어 상태인 안전 모드, 목적지까지 빠른 도착에 적합한 주행 방식에 따라 차량이 제어되는 상태인 스피드 모드 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 모드의 의미는 그 명칭 및 상술한 설명으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
차량 제어 정보에 따라 자율 주행 차량이 제어되는 구체적인 예들은 도 17a 내지 도 55에서 후술한다.
도 4는 일 실시 예에 따른 자율 주행 차량(100)을 디바이스 측 정보(210) 및 차량 측 정보(220)를 이용하여 제어하는 방법의 흐름도이다.
단계 S410에서 자율 주행 차량(100)은 디바이스(1000)에 통신을 요청한다. 단계 S410은 선택적으로 수행될 수 있다.
자율 주행 차량(100)은 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 거리 내에 위치하는지 여부를 결정하고, 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 거리 내에 위치하는 경우, 통신을 요청할 수 있다. 자율 주행 차량(100)의 통신 요청에 따라 자율 주행 차량(100)과 디바이스(1000)간의 통신 링크가 형성될 수 있다. 예를 들어, 자율 주행 차량(100)은, 디바이스(1000)와 근거리 통신 링크를 형성할 수도 있고, 이동 통신 링크(예컨대, 3G, 4G, 5G 등)를 형성할 수도 있다.
단계 S420에서 자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 수신할 수 있다.
자율 주행 차량(100)은 단계 S410에서 형성된 통신 링크를 통해서 디바이스(1000)로부터 디바이스 측 정보(210)를 수신할 수 있다. 디바이스(1000)는 자율 주행 차량(100)의 통신 요청에 대응하여 디바이스 측 정보(210)를 자율 주행 차량(100)으로 전송할 수 있다.
한편, 단계 S410이 생략되는 경우, 디바이스(1000)는 자율 주행 차량(100)으로부터의 통신 요청 없이, 자율 주행 차량(100)으로 디바이스 측 정보(210)를 전송할 수 있다. 즉, 디바이스(1000)는 자율 주행 차량(100)으로부터의 통신 요청 없이, 자율 주행 차량(100)을 인식하고, 자율 주행 차량으로 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 전송할 수 있다.
단계 S430에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득할 수 있다. 단계 S430은 선택적으로 수행될 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242), 차량 저장 정보(252) 및 차량 생성 정보(미도시) 중 적어도 하나를 획득할 수 있다.
예를 들면, 자율 주행 차량(100)은 서버와 통신을 통해서 빙판 주의 구간 정보, 급경사 주의 구간 정보, 급코너 주의 구간 정보, 정체 상황 정보, 날씨 정보, 스케줄 정보, 주변 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주유소 정보, 차량 정비소 정보, 주차 정보, 뉴스 정보, 주변 공연 정보 등을 수신할 수 있고, 이에 한정되는 것은 아니다.
자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서, 차량 센서(예: 공기 유량 센서, 흡기 온도 센서, 대기압 센서, 수온 센서, 스로틀 위치 센서, 모터 포지션 센서, 오일 센서, 연료 센서, 타이어 센서, 브레이크 센서, 속도 센서, 외부 온도 감지 센서, 외부 조도 감지 센서, 주변 인지 센서) 등으로부터 센싱된 정보를 획득할 수 있으나 이에 한정되는 것은 아니다.
자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 저장 매체에 기저장된 정보 및/또는 차량(100)의 외부로부터 수신되어 차량(100)에 포함된 저장 매체에 저장된 정보를 획득할 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242) 및 차량 저장 정보(252) 중 적어도 하나를 이용하여 차량 생성 정보를 생성하여 획득할 수 있다.
단계 S440에서 자율 주행 차량(100)은 차량 제어 정보를 결정할 수 있다. 자율 주행 차량(100)은 가이드 라인에 기초하여, 수신된 디바이스 측 정보(210) 및/또는 획득된 차량 측 정보(220)에 대응되는 차량 제어 정보를 결정할 수 있다.
가이드 라인은 디바이스 측 정보(210) 및/또는 차량 측 정보(220)와 차량 제어 정보가 연계된 일종의 상황 대응 매뉴얼을 의미할 수 있다. 또한, 가이드 라인에 따라 수면 중임을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210) 및 기름 잔량 정보를 포함하는 차량 측 정보(220)는 주유소를 경유지로 추가하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보로 연계될 수 있다.
자율 주행 차량(100)은 가이드 라인에 기초하여, 자율 주행 차량(100)이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 수신된 디바이스 측 정보(210)에 대응하여 설정할 수 있다.
예를 들면, 자율 주행 차량(100)은 사용자의 체온에 대한 정보를 포함하는 디바이스 정보 및 차량 외부 온도에 대한 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 환기 장치 등의 제어 파라미터를 결정할 수 있다. 만약, 차량 외부 공기가 선선하고 사용자가 더운 경우, 자율 주행 차량(100)은 창문을 열도록 자율 주행 차량(100)을 제어하는 차량 제어 정보를 획득할 수 있다. 하지만, 차량 외부 공기가 뜨겁고 사용자가 더운 경우, 자율 주행 차량(100)은 에어컨이 작동하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보를 획득할 수 있다.
자율 주행 차량(100)은 사용자가 독서 중임을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210) 및 차량 외부 조도 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 내부 조명의 제어 파라미터를 결정할 수 있다.
자율 주행 차량(100)은 사용자의 스케줄 시간을 나타내는 스케줄 정보를 포함하는 디바이스 측 정보(210) 및 타이어의 공기압에 대한 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 주행 장치의 제어 파라미터를 결정하여 평균 주행 속도를 설정할 수 있다.
단계 S450에서 자율 주행 차량(100) 단계 S440에서 결정된 차량 제어 정보에 따라 제어될 수 있다. 예를 들면, 프로세서(120)는 단계 S440에서 결정된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다. 본 단계는 상술된 단계 S330을 참조할 수 있다.
또한, 자율 주행 차량(100)은 사용자로부터 수신한 제어 조건에 따라서 제어될 수 있다. 이하에서는 자율 주행 차량(100)이 사용자로부터 수신한 제어 조건에 따라서 제어되는 방법에 대해서 설명한다.
자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)의 기능과 자율 주행 차량(100)의 기능 간 매핑 정보를 사용자에게 제공할 수 있다.
매핑 정보는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연동 가능한지 여부를 나타낼 수 있다. 또는 매핑 정보는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능의 상호 연동 조건 설정 정보를 포함할 수 있다. 예를 들면, 매핑 정보는 후술하는 가이드 라인에 대한 정보를 포함할 수 있다.
또한, 자율 주행 차량(100)은 매핑 정보를 사용자에게 제공할 수 있다. 예를 들면, 자율 주행 차량(100)은 자율 주행 차량(100) 내에 구비된 디스플레이를 통해서 매핑 정보를 디스플레이 할 수 있다. 다른 예로, 자율 주행 차량(100)은 자율 주행 차량(100) 내에 구비된 스피커를 통해서 매핑 정보를 음성 등의 형태로 출력할 수 있다. 다른 예로, 자율 주행 차량(100)은 디바이스(1000)에 구비된 디스플레이를 통해서 매핑 정보가 디스플레이 될 수 있도록, 디바이스(1000)에 매핑 정보를 송신할 수 있다.
자율 주행 차량(100)은 사용자로부터 자율 주행 차량(100)의 기능 중 제1 기능의 제어 조건을 입력 받을 수 있다.
제어 조건은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는지 여부를 나타낼 수 있다. 또한, 제어 조건은 구체적으로 자율 주행 치량(100)이 제어되는 방식인 제어 방식을 포함할 수 있다. 일 실시 예에 따른 제어 방식은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는 방식을 나타낼 수 있다.
사용자의 입력에 기초하여 자율 주행 차량(100)은 자율 주행 차량(100)의 기능 중 제1 기능의 제어 조건을 나타내는 정보를 수신할 수 있다. 예를 들면, 자율 주행 차량(100)의 네비게이션 기능의 제어 조건을 나타내는 정보를 수신할 수 있다. 일 예로, 자율 주행 차량(100)은 사용자 입력에 기초하여, 네비게이션 기능의 제어 조건으로 이용되는 사용자의 생체 정보 또는 사용자의 스케줄 정보를 수신할 수 있다.
사용자 입력은 음성, 제스처, 화면 터치, 버튼 터치 등의 방식을 포함할 수 있다. 자율 주행 차량(100)은 음성 인식, 제스처 인식, 터치 인식 등의 방식을 통해 사용자 입력을 획득할 수 있다.
또한, 자율 주행 차량(100)이 획득한 사용자 입력은 디바이스(1000)와 공유될 수 있다.
또한, 제어 조건은 매핑 정보에 따라 제1 기능에 대응되는 디바이스(1000)의 제2 기능과 관련될 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스(1000)의 스케줄 관리 기능 또는 생체 정보 획득 기능에 따라 자율 주행 차량(100)의 네비게이션 기능이 활성화되도록 자율 주행 차량(100)이 제어되도록 하는 제어 조건을 사용자 입력에 기초하여 획득할 수 있다.
자율 주행 차량(100)은 사용자로부터 제어 조건에 따른 제1 기능의 제어 방식을 입력 받을 수 있다.
상술한 바와 같이, 일 실시 예에 따른 제어 방식은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는 방식을 나타낼 수 있다.
예를 들면, 제어 방식은 디바이스(1000)의 스케줄 관리 기능과 자율 주행 차량(1000)의 주행 모드 결정 기능이 연계되는 방식을 나타낼 수 있다. 다른 예로, 제어 방식은 디바이스(1000)의 사용자의 생체 정보 획득 기능과 자율 주행 차량(100)의 네비게이션 기능이 연계되는 방식을 나타낼 수 있다.
다른 예로, 디바이스(1000)가 생체 정보 획득 기능을 이용하여 획득한 사용자의 건강 상태에 따라서 자율 주행 차량(100)의 네비게이션 기능이 제어되어 자율 주행 차량(100)의 목적지를 병원으로 설정함을 나타내는 제어 방식을 자율 주행 차량(100)은 사용자의 입력에 기초하여 획득할 수 있다. 다른 예로, 디바이스(1000)가 스케줄 관리 기능을 이용하여 획득한 사용자의 스케줄에 따라서 자율 주행 차량(100)의 네비게이션 기능이 제어되어 자율 주행 차량(100)의 목적지를 스케줄에 대응되는 장소로 설정함을 나타내는 제어 방식을 자율 주행 차량(100)은 사용자의 입력에 기초하여 획득할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 수신되는 정보가 제어 조건을 만족하는 경우 자율 주행 차량(100)의 제1 기능을 제어할 수 있다.
일 예로, 자율 주행 차량(100)은 디바이스(1000)로부터 정보를 수신하고, 수신된 정보가 제어 조건을 만족하는 경우, 해당 제어 조건에 따라 자율 주행 차량(100)의 제 1 기능을 활성화할 수 있다. 예를 들면, 제어 조건에 따라 디바이스(1000)의 생체 정보 획득 기능과 자율 주행 차량(100)의 네비게이션 기능이 연계되어 있고, 자율 주행 차량(100)이 디바이스(1000)로부터 생체 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 활성화 또는 구체적인 동작의 제어를 할 수 있다. 다른 예로, 디바이스(1000)로부터 수신되는 스케줄 정보가 제어 조건을 만족하는 경우, 자율 주행 차량(100)은 네비게이션의 목적지 설정 기능을 제어할 수 있다.
자율 주행 차량(100)은 입력받은 제어 방식에 따라 제1 기능을 제어할 수 있다.
일 예로, 자율 주행 차량(100)은 디바이스(1000)로부터 정보를 수신하고, 수신된 정보가 나타내는 제어 방식에 따라 자율 주행 차량(1000)의 대응되는 기능을 제어할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스(1000)로부터 사용자의 건강 상태에 문제가 있다는 정보를 수신한 경우, 네비게이션 기능을 제어하여 자율 주행 차량(100)의 목적지를 병원으로 설정할 수 있다. 다른 예로, 자율 주행 차량(100)은 디바이스(1000)로부터 사용자에게 20분 후 A건물에서 생방송 스케줄이 있다는 정보를 수신한 경우, 네비게이션 기능을 제어하여 자율 주행 차량(100)의 목적지를 A건물로 설정할 수 있다.
디바이스(1000)는 디바이스(1000)와 통신하는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능 간 매핑 정보를 사용자에게 제공할 수 있다.
매핑 정보는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연동 가능한지 여부를 나타낼 수 있다. 또는 매핑 정보는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능의 상호 연동 조건 설정 정보를 포함할 수 있다. 예를 들면, 매핑 정보는 후술하는 가이드 라인에 대한 정보를 포함할 수 있다.
또한, 디바이스(1000)는 매핑 정보를 사용자에게 제공할 수 있다. 예를 들면, 디바이스(1000)는 디바이스(1000) 내에 구비된 디스플레이를 통해서 매핑 정보를 디스플레이 할 수 있다. 다른 예로, 디바이스(1000)는 디바이스(1000) 내에 구비된 스피커를 통해서 매핑 정보를 음성 등의 형태로 출력할 수 있다. 다른 예로, 디바이스(1000)는 자율 주행 차량(100)에 구비된 디스플레이 또는 스피커를 통해서 매핑 정보가 출력 될 수 있도록, 자율 주행 차량(100)에 매핑 정보를 송신할 수 있다.
디바이스(1000)는 매핑 정보에 따라서 디바이스(1000)의 기능 중 제4 기능에 대응되는 자율 주행 차량(100)의 제3 기능의 제어 조건을 사용자로부터 입력 받을 수 있다.
제어 조건은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는지 여부를 나타낼 수 있다. 또한, 제어 조건은 구체적으로 자율 주행 치량(100)이 제어되는 방식인 제어 방식을 포함할 수 있다. 일 실시 예에 따른 제어 방식은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는 방식을 나타낼 수 있다.
사용자의 입력에 기초하여 디바이스(1000)는 디바이스(1000)의 복수개의 기능들 중 제4 기능에 대응되는 자율 주행 차량(100)의 제3 기능의 제어 조건을 나타내는 정보를 수신할 수 있다. 예를 들면, 디바이스(1000)는 디바이스(1000)의 복수개의 기능들 중 생체 정보 획득 기능에 대응되는 자율 주행 차량(100)의 네비게이션 기능의 제어 조건을 나타내는 정보를 사용자 입력에 기초하여 획득할 수 있다. 이 경우, 디바이스(1000)는 디바이스(1000)에서 획득된 생체 정보에 따라 네비게이션 기능을 활성화하는 제어 조건 등을 사용자 입력에 기초하여 획득할 수 있다. 다른 예로, 디바이스(1000)는 디바이스(1000)의 스케줄 관리 기능에 대응되는 자율 주행 차량(100)의 네비게이션 기능의 제어 조건을 나타내는 정보를 사용자 입력에 기초하여 획득할 수 있다. 이 경우, 이 경우, 디바이스(1000)는 디바이스(1000)에서 획득된 스케줄 정보에 따라 네비게이션 기능을 활성화하는 제어 조건 등을 사용자 입력에 기초하여 획득할 수 있다.
디바이스(1000)는 사용자로부터 제어 조건에 따른 제3 기능의 제어 방식을 입력 받을 수 있다.
상술한 바와 같이, 일 실시 예에 따른 제어 방식은 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능이 상호 연계되는 방식을 나타낼 수 있다.
예를 들면, 제어 방식은 디바이스(1000)의 스케줄 관리 기능과 자율 주행 차량(1000)의 주행 모드 결정 기능이 연계되는 방식을 나타낼 수 있다. 다른 예로, 제어 방식은 디바이스(1000)의 사용자의 생체 정보 획득 기능과 자율 주행 차량(100)의 네비게이션 기능이 연계되는 방식을 나타낼 수 있다.
다른 예로, 디바이스(1000)가 생체 정보 획득 기능을 이용하여 획득한 사용자의 건강 상태에 따라서 자율 주행 차량(100)의 네비게이션 기능이 제어되어 자율 주행 차량(100)의 목적지를 병원으로 설정함을 나타내는 제어 방식을 디바이스(1000)는 사용자의 입력에 기초하여 획득할 수 있다. 다른 예로, 디바이스(1000)가 스케줄 관리 기능을 이용하여 획득한 사용자의 스케줄에 따라서 자율 주행 차량(100)의 네비게이션 기능이 제어되어 자율 주행 차량(100)의 목적지를 스케줄에 대응되는 장소로 설정함을 나타내는 제어 방식을 디바이스(1000)는 사용자의 입력에 기초하여 획득할 수 있다.
사용자 입력은 음성, 제스처, 화면 터치, 버튼 터치 등의 방식을 포함할 수 있다. 디바이스(1000)는 음성 인식, 제스처 인식, 터치 인식 등의 방식을 통해 사용자 입력을 획득할 수 있다.
또한, 디바이스(1000)가 획득한 사용자 입력은 자율 주행 차량(100)과 공유될 수 있다.
디바이스(1000)는 입력 받은 제어 조건 및/또는 제어 방식을 자율 주행 차량(100)에 전송할 수 있다.
상술한 바와 같이 디바이스(1000)는 사용자 입력에 기초하여 제어 조건 및/또는 제어 방식을 획득할 수 있다. 예를 들면, 디바이스(1000)는 사용자 입력에 기초하여 제어 조건 및/또는 제어 방식을 나타내는 정보를 생성 또는 수신할 수 있다.
또한, 디바이스(1000)는 획득한 제어 조건 및/또는 제어 방식을 자율 주행 차량(100)에 전송할 수 있다. 예를 들면, 디바이스(1000)는 자율 주행 차량(100)과 연결된 무선 통신을 이용하여 획득한 제어 조건 및/또는 제어 방식을 나타내는 정보를 자율 주행 차량(100)에 전송할 수 있다. 예를 들면, 디바이스(1000)는 제어 조건과 함께 제어 방식을 자율 주행 차량(100)에 전송할 수 있다.
디바이스(1000)는 제4 기능이 실행됨에 따라서 생성되는 정보를 자율 주행 차량(100)에 전송할 수 있다.
디바이스(1000)는 사용자 입력에 따라서 디바이스(1000)에서 실행시킬 수 있는 복수개의 기능들 중 제4 기능을 실행시킬 수 있다. 또한, 디바이스(1000)는 제4 기능이 실행됨에 따라서 획득되는 정보를 자율 주행 차량(100)에 전송할 수 있다. 예를 들면, 디바이스(1000)는 사용자 입력 및 제4 기능과 관련하여 획득된 자율 주행 차량(100)의 제3 기능에 대한 제어 조건 및/또는 제어 방식을 나타내는 정보를 자율 주행 차량(100)에 전송할 수 있다. 제3 기능에 대한 제어 조건 및/또는 제어 방식을 나타내는 정보는 자율 주행 차량(100)의 제3 기능에 대한 제어 요청 정보를 포함할 수 있다. 일 예로, 디바이스(1000)는 사용자 입력에 따라 실행되는 디바이스(1000)의 생체 정보 획득 기능이 실행됨에 따라서 생성되는 네비게이션의 목적지를 병원으로 설정할 것을 요청하는 정보를 자율 주행 차량(100)에 전송할 수 있다.
본 도에서는 구체적으로 자율 주행 차량(100)이 제어되는 방법에 대해서는 개시되지 않았으나, 도 17a이하에서 구체적인 자율 주행 차량(100)의 제어 방법에 대해 개시된다.
도 5는 일 실시 예에 따른 자율 주행 차량(100)이 가질 수 있는 기능들을 실행하는 장치를 설명하기 위한 블록도이다.
자율 주행 차량(100)은, 전원 공급 장치(5400), 주행 장치(5100), 센서 장치(5200), 주변 장치(5300), 프로세서(120) 및 메모리(5500)를 포함할 수 있다. 도 5에 도시된 자율 주행 차량(100)은 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 5에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
주행 장치(5100)는 브레이크(5111), 엑셀러레이터(5112), 스티어링(5113), 네비게이션(5130), 에너지원(5140), 엔진/모터(5160), 변속기(5170), 휠(5180), 및 타이어(5190)를 포함할 수 있다.
브레이크(5111)는 자율 주행 차량(100)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크(5111)은 휠(5180) 및/또는 타이어(5190)의 속도를 줄이기 위해 마찰을 사용할 수 있다.
엑셀러레이터(5112)는 엔진/모터(5160)의 동작 속도를 제어하여, 자율 주행 차량(100)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 엑셀러레이터(5112)는 스로틀 개방량을 조절하여 엔진/모터(5160)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
스티어링(5113)은 자율 주행 차량(100)의 방향 조절에 이용되는 장치일 수 있다.
네비게이션(5130)은 자율 주행 차량(100)에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션(5130)은 자율 주행 차량(100)이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 일 실시 예에 따라, 네비게이션(5130)은 자율 주행 차량(100)에 대한 운행 경로를 결정하기 위해, GPS(5210) 및 지도들로부터의 데이터를 이용할 수 있다.
에너지원(5140)은 엔진/모터(5160)에 전체적으로 또는 부분적으로 동력을 제공하는 에너지의 공급원일 수 있다. 즉, 엔진/모터(5160)는 에너지원(5140)을 기계 에너지로 변환하도록 구성될 수 있다. 에너지원(5140)의 예로는 가솔린, 디젤, 프로판, 다른 압축 가스 기반 연료들, 에탄올, 태양광 패널(solar panel), 배터리, 다른 전기 전력원들 등이 될 수 있다. 다른 실시 예에 따라, 에너지원(5140)은 연로 탱크, 배터리, 커패시터, 플라이휠(flywheel) 등이 될 수 있다. 일 실시 예에 따라, 에너지원(5140)은 자율 주행 차량(100)의 시스템 및 장치에 에너지를 제공할 수 있다.
엔진/모터(5160)는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 다른 실시 예에 따라, 자율 주행 차량(100)이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터(5160)는 가솔린 엔진 및 전기 모터가 될 수 있다.
변속기(5170)는 기계적 동력을 엔진/모터(5160)로부터 휠(5180) 및/또는 타이어(5190)에 전달하도록 구성될 수 있다. 일 실시 예에 따라, 변속기(5170)는 기어박스, 클러치, 차동 장치(differential), 구동축 등을 포함할 수 있다. 변속기(5170)가 구동축들을 포함하는 실시 예에서, 구동축들은 휠(5180) 및/또는 타이어(5190)에 결합되도록 구성되는 하나 이상의 차축들을 포함할 수 있다.
휠(5180) 및/또는 타이어(5190)는 외발 자전거, 자전거/오토바이, 삼륜차, 또는 자동차/트럭의 사륜 형식을 포함한 다양한 형식들로 구성될 수 있다. 예를 들어, 6개 이상의 휠을 포함하는 것과 같은 다른 휠/타이어 형식이 가능할 수 있다. 휠(5180) 및/또는 타이어(5190)는 변속기(5170)에 고정되게 부착되어 있는 적어도 하나의 휠, 및 구동면(driving surface)과 접촉할 수 있는 휠의 림(rim)에 결합되어 있는 적어도 하나의 타이어를 포함할 수 있다.
센서 장치(5200)는 자율 주행 차량(100)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 뿐만 아니라 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 센서 장치(5200)는 GPS(Global Positioning System)(5210), 카메라(5220), 관성 센서(5231), 가속도 센서(5232), 지자기 센서(5233), 온도 센서(5241), 습도 센서(5242), 자이로스코프 센서(5250), 기압 센서(5260), 거리 센서(5271), 적외선 센서(5272), 타이어 공기압 센서(5280), 속도 센서(5290), IMU(Inertial Measurement Unit)(미도시), RADAR 유닛(미도시), LIDAR 유닛(미도시), RGB 센서(illuminance sensor) (미도시) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
GPS(5220)는 자율 주행 차량(100)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(5220)는 지구에 대한 자율 주행 차량(100)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU는 관성 가속도에 기초하여 자율 주행 차량(100)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 유닛은 무선 신호를 사용하여 자율 주행 차량(100)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 일 실시 예에서, 물체들을 감지하는 것에 부가하여, RADAR 유닛은, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 유닛은 레이저를 사용하여 자율 주행 차량(100)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 유닛은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 유닛은 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
카메라(5220)는 자율 주행 차량(100)의 내부의 3차원 영상들을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 일 실시 예에 따라, 카메라(5220)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 자율 주행 차량(100)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.
주변 장치(5300)는 지오 펜스(5310), 와이퍼(5320), 조명 장치(5330), 냉난방 장치(5340), 환풍 장치(5350), 입력 장치(5360), 출력 장치(5370) 및 메모리(5500)를 포함할 수 있다.
조명 장치(5330)는 내부 조명(5331) 및 외부 조명(5332)을 포함할 수 있다.
외부 조명(5332)은 라이트(5333) 및 방향 지시등(5334)을 포함할 수 있다.
냉난방 장치(5340)는 히터(5341) 및 에어컨(5342)을 포함할 수 있다.
환풍 장치(5350)는 환풍기(5351) 및 창문 개폐 장치(5352)를 포함할 수 있다.
입력 장치(5360)는 자율 주행 차량(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력 장치(5360)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 스크린(5361)(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력 장치(5360)는 마이크(5362)를 포함할 수 있는 바, 마이크는 자율 주행 차량(100)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력 장치(5370)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(5370)는 스피커(5371) 및 디스플레이(5372)를 포함할 수 있다.
디스플레이(5372)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 출력 장치(5370)의 구현 형태에 따라 출력 장치(5370)는 디스플레이(5372)를 2개 이상 포함할 수도 있다.
스피커(5371)는 통신 장치(110)로부터 수신되거나 메모리(5500)에 저장된 오디오 데이터를 출력한다.
입력 장치(5360) 및 출력 장치(5370)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
프로세서(120)는, 통상적으로 자율 주행 차량(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는, 메모리(5500)에 저장된 프로그램들을 실행함으로써, 주행 장치(5100), 센서 장치(5200), 주변 장치(5300), 통신 장치(110) 등을 전반적으로 제어할 수 있다.
통신 장치(110)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신 장치(110)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(120)에 의해 제어되는 통신 장치(110)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(120)는, 통신 장치(110)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 메모리(5500)에 포함된 프로그램을 실행시킬 수 있다.
전원 공급 장치(5400)는 자율 주행 차량(100)의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급 장치(5400)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.
메모리(5500)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있으며, 일 실시 예에 따라 이동 가능한 USB 데이터 저장 장치가 될 수 있다. 메모리(5500)는 본원과 관련되는 실시 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 실시 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
도 6 및 도 7은 일 실시 예에 따른 디바이스(1000)의 블록도이다.
도 6에 도시된 바와 같이, 디바이스(1000)는, 사용자 입력부(1100), 출력부(1200), 프로세서(1300), 및 통신부(1500)를 포함할 수 있다. 그러나, 도 6에 도시된 구성 요소보다 많은 구성 요소에 의해 디바이스(1000)가 구현될 수도 있고, 도 6에 도시된 구성 요소보다 적은 구성 요소에 의해 디바이스(1000)가 구현될 수도 있다.
예를 들어, 도 7에 도시된 바와 같이, 디바이스(1000)는, 사용자 입력부(1100), 출력부(1200), 프로세서(1300), 및 통신부(1500) 이외에 센싱부(1400), A/V 입력부(1600), 및 메모리(1700)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 디바이스(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(1100)는, 자율 주행 차량(100)의 제어와 관련된 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(1100)는 통상적인 디바이스(1000)의 사용과 관련된 사용자 입력(예: 스케줄 입력)을 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 디바이스(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(1210)는, 자율 주행 차량(100) 제어와 관련된 사용자 인터페이스, 통상적인 디바이스(1000)의 사용과 관련된 사용자 인터페이스를 디스플레이할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(1000)의 구현 형태에 따라 디바이스(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(1210)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 디바이스(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
프로세서(1300)는, 통상적으로 디바이스(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 프로세서(1300)는 자율 주행 차량(100)이 차량 제어 정보의 획득에 이용되는 디바이스 측 정보(210)를 획득할 수 있다. 디바이스 측 정보(210)를 획득하는 방법에 대해서는 도1a 내지 도 4에서 상술하였다.
센싱부(1400)는, 디바이스(1000)의 상태 또는 디바이스(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), RGB 센서(illuminance sensor)(1490) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 디바이스(1000)와 자율 주행 차량(100) 또는 디바이스(1000)와 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있고, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
또한, 통신부(1500)는, 디바이스 측 정보(210)를 획득하기 위하여 필요한 정보를, HMD 장치(2000), 서버(4000) 및 주변 기기(3000)와 송수신할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 디바이스(1000)로 입력되거나 디바이스(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 디바이스(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시 예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 디바이스(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디바이스(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
도 8 내지 도 16은 일 실시 예에 따라, 디바이스(1000)가 웨어러블 디바이스(1001)인 경우, 웨어러블 디바이스(1001)와 통신하는 자율 주행 차량(100)을 제어하는 방법 및 웨어러블 디바이스(1001)에서 획득되는 디바이스 측 정보(210)에 따라 제어되는 자율 주행 차량(100)을 설명한다.
도 8은 일 실시 예에 따른 자율 주행 차량(100) 및 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 나타내는 블록도이다.
도 8에 도시된 바와 같이, 웨어러블 디바이스(1001)는 통신부(1500), 센싱부(1400), 출력부(2100), 프로세서(1300), 전원 공급 장치(810), 추가 구성요소(820) 및 메모리(1700)를 포함할 수 있다. 또한, 자율 주행 차량(100)은 통신 장치(110), 센서 장치(5200), 주행 장치(5100), 주변 장치(5300), 프로세서(120), 전원 공급 장치(5400), 메모리(5500), 모티브 시스템(850) 및 제어 시스템(860)을 포함할 수 있다.
다만, 도 8에 도시된 구성 요소보다 많은 구성 요소에 의해 웨어러블 디바이스(1001) 또는 자율 주행 차량(100)이 구현될 수도 있고, 도 8에 도시된 구성 요소보다 적은 구성 요소에 의해 웨어러블 디바이스(1001) 또는 자율 주행 차량(100)이 구현될 수도 있다.
센서 장치(5200)는 GPS(5210)를 포함할 수 있다. 자율 주행 차량(100)의 위치 결정 시스템은 GPS(5210)외에도 추측 항법(dead reckoning), 갈릴레오(Galileo), 비도우(Bedou), GLOSNASS, LORAN(Long range navigation) 시스템 과 같은 위치 결정 시스템을 포함할 수 있다.
모티브 시스템(850)은 자율 주행 차량(100)의 엔진/모터(5160), 파워 트레인, 휠(5180), 스티어링(5113) 등의 장치에 직접적인 제어를 제공할 수 있다.
제어 시스템(860)은 자율 주행 차량(100)의 움직임을 제어할 수 있다. 제어 시스템(860)은 프로세서(120)에 포함되어 자율 주행 차량(100)의 움직임을 제어하는 신호를 생성할 수 있다. 자율 주행 차량(100)은 자율 주행 차량(100)의 현재 위치 및 주행 경로를 결정하는 소프트웨어를 포함할 수 있다. 제어 시스템(860)은 명령을 모티브 시스템(850) 및/또는 메모리(5500)에 전송할 수 있다.
메모리(5500)는 자율 주행 차량(100)을 동작시키기 위한 자율 주행 차량 소프트웨어(5381)를 저장할 수 있다. 자율 주행 차량 소프트웨어(5381)는 자율 주행 차량(100)의 동작을 제어할 수 있다.
자율 주행 차량 기능 데이터 베이스(5382)는 자율 주행 차량(100)의 기능을 식별하는 데이터를 저장할 수 있고, 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계하는 정보를 저장할 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능에 대한 연계 방식을 나타내는 가이드라인은 자율 주행 차량 기능 데이터 베이스(5382)에 미리 로딩되어(pre-loaded) 있을 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능은 미리 로딩되어(pre-loaded) 있을 수 있다. 웨어러블 디바이스(1001)는 스마트 밴드, 스마트 워치, 스마트 글래스, 모바일 컴퓨팅 디바이스(예: 스마트폰) 등을 포함할 수 있으나 이에 한정되지 않는다.
추가 구성요소(820)는 디스플레이부(1210)를 포함할 수 있다. 디스플레이부(1210)는 사용자에게 정보를 제공할 수 있다. 디스플레이부(1210)가 터치 스크린인 경우, 디스플레이부(1210)는 사용자 입력을 수신할 수 있다.
센싱부(1400)는 GPS를 포함할 수 있다. 웨어러블 디바이스(1001)의 위치 결정 시스템은 GPS외에도 추측 항법(dead reckoning), 갈릴레오(Galileo), 비도우(Bedou), GLOSNASS, LORAN(Long range navigation) 시스템과 같은 위치 결정 시스템을 포함할 수 있다.
웨어러블 디바이스(1001)는 스피커, 진동 장치, 음성 인식 소프트웨어 등을 포함할 수 있으나 이에 한정되지 않는다.
웨어러블 디바이스(1001)의 프로세서(1300)는 본 실시 예 들에서 설명된 기능들을 실행하기 위해 메모리로부터 명령을 수신하여 소프트웨어를 실행할 수 있다.
메모리(1700)는 웨어러블 디바이스 기능 데이터 베이스(1702)를 포함할 수 있다. 웨어러블 디바이스 기능 데이터 베이스(1702)는 웨어러블 디바이스(1001)의 기능을 저장할 수 있다. 웨어러블 디바이스 기능 데이터 베이스(1702)는 웨어러블 디바이스(1001)의 기능을 식별하는 데이터를 저장할 수 있고, 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계하는 정보를 포함하는 가이드 라인을 저장할 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능에 대한 연계 방식을 나타내는 가이드라인은 웨어러블 디바이스 기능 데이터 베이스(1702)에 미리 로딩되어(pre-loaded) 있을 수 있다.
도 9는 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 자율 주행 차량 소프트웨어(900)를 나타내는 블록도이다.
자율 주행 차량 소프트웨어(900)는 차량 핸드셰이킹 소프트웨어(910), 차량 싱크 및 셋업 소프트웨어(920) 및 차량 모니터 및 동작 소프트웨어(930)를 포함할 수 있으나 이에 제한되지 않는다.
차량 핸드셰이킹 소프트웨어(910)는 자율 주행 차량(100)이 웨어러블 디바이스(1001)와 핸드셰이킹 또는 페어링을 수행할 수 있도록 하는 소프트웨어를 포함할 수 있다.
차량 싱크 및 셋업 소프트웨어(920)는 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능간에 연계를 설정하고, 자율 주행 차량(100)이 웨어러블 디바이스(1001)의 기능과 동기화 할 수 있도록 하는 소프트웨어를 의미할 수 있다.
차량 모니터 및 동작 소프트웨어(930)는 자율 주행 차량(100)의 데이터와 웨어러블 디바이스(1001)로부터 수신된 데이터를 모니터링하고, 연계된 기능이 트리거(trigger) 되면 트리거된 동작이 자율 주행 차량(100)에서 수행되도록 자율 주행 차량(100)을 제어할 수 있다.
도 10은 일 실시 예에 따른 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 통신을 통한 자율 주행 차량(100)의 제어 방법을 나타내는 흐름도이다.
단계 S1010에서 자율 주행 차량(100)은 자율 주행 차량(100)의 액티베이션을 수신한다. 이때, 자율 주행 차량(100)에서 자율 주행 차량 소프트웨어가 활성화될 수 있다.
단계 S1020에서 자율 주행 차량(100)은 통신 범위 내에 웨어러블 디바이스(1001)가 있는지 여부를 결정한다.
자율 주행 차량(100)은 통신 범위 내에 웨어러블 디바이스(1001)로부터 데이터를 수신하면, 통신 범위 내에 웨어러블 디바이스(1001)가 있다고 결정할 수 있다. 이때, 통신 범위는 자율 주행 차량(100) 내부일 수도 있고 자율 주행 차량(100)으로부터 소정 거리 내의 범위일 수도 있다. 만약, 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 수신되는 데이터가 없으면, 현재 통신 범위 내에 웨어러블 디바이스(1001)가 없다고 결정하고, 웨어러블 디바이스(1001)로부터의 신호를 검색(looking for)할 수 있다.
단계 S1030에서 자율 주행 차량(100)은 차량 핸드셰이킹 소프트웨어를 실행한다.
자율 주행 차량(100)은 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 페어링을 위해 차량 핸드셰이킹 소프트웨어를 실행할 수 있다.
단계 S1040에서 자율 주행 차량(100)은 차량 싱크 및 셋업 소프트웨어를 실행한다.
자율 주행 차량(100)은 자율 주행 차량(100)의 하나 이상의 기능과 웨어러블 디바이스간의 동기화(synchronizing)를 수행할 때 차량 싱크 및 셋업 소프트웨어를 실행할 수 있다.
단계 S1050에서 자율 주행 차량(100)은 차량 모니터 및 동작 소프트웨어를 실행한다.
차량 모니터 및 동작 소프트웨어는 자율 주행 차량(100)의 데이터와 웨어러블 디바이스(1001)로부터 수신된 데이터를 모니터링하고, 연계된 기능이 트리거(trigger) 되면 트리거된 동작이 자율 주행 차량(100)에서 수행되도록 자율 주행 차량(100)을 제어할 수 있다.
도 11은 일 실시 예에 따른 자율 주행 차량(100)을 기능 매트릭스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S1110에서 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 웨어러블 디바이스(1001)의 웨어러블 디바이스 기능 데이터 베이스(1702)의 정보를 수신한다. 차량 싱크 및 셋업 소프트웨어(920)를 통해 자율 주행 차량(100)은 웨어러블 디바이스 기능 데이터 베이스(1702)로부터 기능 정보를 수신할 수 있다.
단계 S1120에서 자율 주행 차량(100)은 자율 주행 차량 기능 데이터 베이스(5382)에 수신한 정보를 저장할 수 있다.
단계 S1130에서 자율 주행 차량(100)은 자율 주행 차량(100)의 디스플레이(5372)에 하나 이상의 문의 화면을 디스플레이할 수 있다.
단계 S1140에서 자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력을 수신한다.자율 주행 차량(100)은 단계 S1130에서 디스플레이된 문의 화면에 대응하는 사용자 입력을 수신할 수 있다.
단계 S1150에서 자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력을 저장한다.
단계 S1160에서 자율 주행 차량(100)은 차량 소프트웨어를 실행한다.자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력에 따라 자율 주행 차량(100)의 기능을 실행시키기 위한 차량 소프트웨어를 실행할 수 있다.
도 12는 일 실시 예에 따른 자율 주행 차량(100)을 수신한 데이터에 매칭되는 기능에 따라서 제어하는 방법을 나타내는 흐름도이다.
단계 S1210에서 프로세서(120)는 자율 주행 차량(100) 및 웨어러블 디바이스(1001)로부터 데이터를 수신한다. 예를 들면, 자율 주행 차량(100)으로부터 수신되는 데이터는 엑셀러레이터 또는 브레이크와 관련된 정보를 포함할 수 있고, 웨어러블 디바이스(1001)로부터 수신되는 데이터는 맥박수 또는 호흡수와 관련된 정보를 포함할 수 있다.
단계 S1220에서 프로세서(120)는 단계 S1210에서 수신된 데이터와 기존에 저장되어 있는 기능 매트릭스를 비교한다.
단계 S1230에서 프로세서(120)는 단계 S1220의 비교 결과 자율 주행 차량(100)으로부터 수신한 데이터와 웨어러블 디바이스(1001)로부터 수신한 데이터간에 기능 매트릭스에 따른 매칭이 되는지 여부를 결정할 수 있다. 매칭이 되는 경우, 단계 S1240이 진행되고, 매칭이 되지 않는 경우 단계 S1210이 진행된다.
단계 S1240에서 프로세서(120)는 매칭된 기능이 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능 중 어느 쪽에 매칭되는지 결정할 수 있다.
단계 S1250에서 프로세서(120)는 단계 S1240의 결정 결과, 매칭되는 기능이 자율 주행 차량(100)의 기능인 경우, 매칭되는 자율 주행 차량(100)의 기능을 실행할 수 있다.
단계 S1260에서 프로세서(120)는 단계 S1240의 결정 결과, 매칭되는 기능이 웨어러블 디바이스(1001)의 기능인 경우, 매칭되는 웨어러블 디바이스(1001)의 기능을 실행할 수 있다.
단계 S1270에서 프로세서(120)는 매칭과 관련된 자율 주행 차량(100)의 소프트웨어를 실행시킬 수 있다.
도 13은 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 웨어러블 디바이스 웨어러블 디바이스 소프트웨어(1701)를 나타내는 블록도이다.
웨어러블 디바이스 소프트웨어(1701)는 웨어러블 디바이스 핸드셰이킹 소프트웨어(13200), 웨어러블 디바이스 실행 소프트웨어(13300)를 포함할 수 있으나 이에 제한되지 않는다.
웨어러블 디바이스 핸드셰이킹 소프트웨어(13200)는 웨어러블 디바이스(1001)가 자율 주행 차량(100)과 핸드셰이킹 또는 페어링을 수행할 수 있도록 하는 소프트웨어를 포함할 수 있다.
웨어러블 디바이스 실행 소프트웨어(13300)는 웨어러블 디바이스(1001)와 연계된 동작을 실행시킬 수 있다.
도 14는 일 실시 예에 따른 자율 주행 차량(100)을 통신 범위 내에 있는 웨어러블 디바이스(1001)와 통신하여 제어하는 방법을 나타내는 흐름도이다.
단계 S1410에서 웨어러블 디바이스(1001)는 차량의 액티베이션을 수신한다. 이때, 웨어러블 디바이스(1001)에서 웨어러블 디바이스 소프트웨어(1701)가 활성화될 수 있다.
단계 S1420에서 웨어러블 디바이스(1001)는 통신 범위 내에 자율 주행 차량(100)이 있는지 여부를 결정한다.
웨어러블 디바이스(1001)는 통신 범위 내의 자율 주행 차량(100)으로부터 데이터를 수신하면, 통신 범위 내에 자율 주행 차량(100)이 있다고 결정할 수 있다. 하지만, 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 수신되는 데이터가 없으면, 현재 통신 범위 내에 자율 주행 차량(100)이 없다고 결정하고, 자율 주행 차량(100)으로부터의 신호를 검색(looking for)할 수 있다.
단계 S1430에서 웨어러블 디바이스(1001)는 차량 핸드셰이킹 소프트웨어를 실행한다.
웨어러블 디바이스(1001)는 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 페어링을 위해 차량 핸드셰이킹 소프트웨어를 실행할 수 있다.
단계 S1440에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 실행 소프트웨어(13300)를 실행한다.
도 15는 일 실시 예에 따른 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 제어하는 방법을 나타내는 흐름도이다.
단계 S1510에서 웨어러블 디바이스(1001)는 웨어러블 디바이스(1001)에 웨어러블 디바이스 기능 데이터 베이스(1702)에 저장된 정보를 로드한다.
단계 S1520에서 웨어러블 디바이스(1001)는 로드된 웨어러블 디바이스 기능 데이터 베이스(1702)를 자율 주행 차량(100)으로 전송한다.
단계 S1530에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 활성화 신호(activation signal)를 수신했는지 여부를 결정한다.
이때, 자율 주행 차량(100)으로부터 활성화 신호를 수신하지 못한 경우, 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 신호를 계속 검색(looking for)할 수 있다.
웨어러블 디바이스(1001)가 자율 주행 차량(100)으로부터 활성화 신호를 수신한 경우, 단계 S1540이 진행될 수 있다.
단계 S1540에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 활성화 신호가 수신된 경우 지정된 웨어러블 디바이스 기능을 활성화시킨다.
단계 S1550에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 실행시킨다. 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 실행시켜 지정된 웨어러블 디바이스 기능을 실행시킬 수 있다.
도 16은 일 실시 예에 따른 자율 주행 차량(100) 및 웨어러블 디바이스(1001)가 포함하는 데이터 베이스를 나타내는 도면이다.
웨어러블 디바이스 기능 데이터 베이스(1702)는 GPS 관련 정보(16110), 맥박수 관련 정보(16120), 혈압 관련 정보(16130), 호흡수 관련 정보(16140), 혈중 알코올 농도 관련 정보(16150), 진동 관련 정보(16160), 디스플레이 관련 정보(16170), 스피커 관련 정보(16180)를 포함할 수 있다.
자율 주행 차량 기능 데이터 베이스(5382)는 지오 펜스 관련 정보(16210), 브레이크 관련 정보(16220), 엑셀러레이터 관련 정보(16230), 스티어링 관련 정보(16240), 편의시설 관련 정보(16250), 네비게이션 관련 정보(16260), 운전 모드 관련 정보(16270), 통신 장치 관련 정보(16280), 분위기 제어 관련 정보(16290)를 포함할 수 있다.
자율 주행 차량(100)은 가이드 라인에 따라 하나 이상의 웨어러블 디바이스(1001)의 기능을 자율 주행 차량(100)의 기능과 연계시킬 수 있다. 예를 들면, 자율 주행 차량(100)은 가이드 라인에 따라 엑셀러레이터 또는 브레이크의 기능을 맥박수를 모니터링하는 것과 연계시킬 수 있다. 따라서, 브레이크가 작동되면, 자율 주행 차량(100)은 웨어러블 디바이스(1001)에 맥박수를 모니터링 할 것을 요청하는 신호를 전송할 수 있다.
도 17a 내지 도 17c는 일 실시 예에 따라 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능을 연계하는 가이드 라인을 설정하는 화면을 나타낸 도면이다. 도 17a 내지 도 17c에서는 디바이스 측 정보(210)가 스케줄 정보인 경우를 설명한다.
자율 주행 차량(100)은 사용자의 입력을 수신하여 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신할 수 있다. 자율 주행 차량(100)은 기설정된 상호 관계가 없는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 사용자의 입력을 수신하여 가이드 라인을 갱신할 수 있다.
도 17a 내지 도 17c의 표들 내부에 표시된 "X"는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 미리 설정(preset)된 경우를 나타낼 수 있고, 표들 내부에 표시된 "A"는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 사용자에 의해 설정되는 경우를 나타낼 수 있다.
가이드 라인은 사용자 입력에 기초하여 결정될 수 있다. 이하에서는 도 17a를 참조하여 사용자 입력에 기초하여 가이드 라인이 결정되는 일례에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능이고, 자율 주행 차량(100)의 기능이 네비게이션 기능인 경우(2120)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다.
자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 사용자 스케줄 기능 간에 상호 관계는 미리 설정(preset)되어 있지 않을 수 있다. 자율 주행 차량(100)은 기설정된 상호 관계가 없는 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능간의 상호 관계를 사용자의 입력을 수신하여 설정할 수 있다.
미리 설정된 적이 없는 설정 사항은 사용자 입력에 따라 결정될 수 있다. 사용자 입력에 따라, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능이 상호 관계 설정을 위해서 선택될 수 있다. 또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2110)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 중 생방송 스케줄이 1시간 이내에 있는 경우, 목적지를 생방송 스케줄 장소로 결정하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다. 다른 예로, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 중 생방송 스케줄이 30분 이내에 있는 경우, 경유지를 생방송 스케줄 장소로 결정하도록 할 수 있다.
이하에서는 도 17b를 참조하여, 사용자 입력에 기초하여 가이드 라인이 결정되는 다른 예에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능(스케줄 장소)이고, 자율 주행 차량(100)의 기능이 네비게이션 기능인 경우(2220)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다. 도 17b에서는 도 17a에서 기술된 내용을 참조할 수 있다.
또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2210)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 장소가 XXX빌딩인 경우, 목적지를 XXX빌딩으로 결정하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다. 다른 예로, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 스케줄 장소인 XXX빌딩을 경유지로 추가 하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다.
이하에서는 도 17c를 참조하여, 사용자 입력에 기초하여 가이드 라인이 결정되는 다른 예에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능(스케줄 시간)이고, 자율 주행 차량(100)의 기능이 엑셀러레이터 기능인 경우(2320)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다. 도 17c에서는 도 17a에서 기술된 내용을 참조할 수 있다.
또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2310)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 시간에 따라 주행 평균 속도, 주행 평균 가속도 또는 최대 주행 속도를 결정하도록, 자율 주행 차량(100)의 엑셀러레이터 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다.
도 18은 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 사용자의 입력을 수신하여 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 설정할 수 있다.
가이드라인에 따라 디바이스(1000)의 혈압 센서 기능이 자율 주행 차량(100)의 네비게이션 기능과 연계될 수 있다. 만약, 디바이스(1000)의 혈압 센서로부터 획득한 혈압이 소정 기준 이상인 경우 자율 주행 차량(100)은 가이드 라인에 따라 네비게이션 기능을 실행하여 주행 경로에 병원을 추가할 수 있다.
또는, 가이드라인에 따라 디바이스(1000)의 마이크 기능이 자율 주행 차량(100)의 에어컨 기능과 연계될 수 있다. 만약, 디바이스(1000)의 마이크로부터 수신한 오디오 입력이 박수 소리에 대응되는 경우, 자율 주행 차량(100)은 가이드 라인에 따라 에어컨 기능을 실행하여 차량 내 온도를 낮출 수 있다.
가이드라인에 따라 디바이스(1000)의 온도 센서 기능이 자율 주행 차량(100)의 창문 개폐 기능과 연계될 수 있다. 일례로, 디바이스(1000)의 온도 센서로부터 수신한 온도 수치가 소정 기준 이상인 경우, 자율 주행 차량(100)은 가이드 라인에 따라 창문 개폐 기능을 실행하여 차량 내 온도를 낮출 수 있다.
즉, 가이드 라인은 사용자 입력에 기초하여 결정될 수 있다. 이하에서는 도 18을 참조하여 사용자 입력에 기초하여 가이드 라인이 결정되는 일례에 대해 설명한다.
예를 들면, 디바이스(1000)의 기능이 스피커이고, 자율 주행 차량(100)의 기능이 지오 펜스(5310)인 경우(2020)에 대해서 설명한다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계가 설정될 수 있다. 지오 펜스 기능은 지리상의 위치나 특정 지역에 대한 가상의 경계를 인식하는 기능을 포함할 수 있다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계는 미리 설정(preset)되어 있을 수 있다. 예를 들면, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 디바이스(1000)에 포함된 스피커에서 위협을 나타내는 경고음을 재생하도록 디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계가 미리 설정(preset)되어 있을 수 있다.
도 18에 도시된 바와 같이, 미리 설정된 설정 사항은 사용자 입력에 따라 변경될 수 있다. 구체적으로 설명하면, 우선, 사용자 입력에 따라 디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능이 상호 관계 설정을 위해서 선택될 수 있다. 그 결과, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2010)에 디스플레이될 수 있다.
다음으로, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 자율 주행 차량(100)이 단속 지역에 해당하는 지리상 영역에 진입한 경우, 디바이스(1000)에 포함된 스피커에서 재생되는 컨텐츠를 사용자의 입력에 기초하여 변경할 수 있다. 구체적인 예로, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 것이 자율 주행 차량(100)의 지오 펜스 기능을 통해 인지된 경우, 자율 주행 차량(100)은 위협.mp3, 운명.mp3 및 행복.mp3 중 사용자의 입력에 따라 결정된 컨텐츠를 디바이스(1000)에 포함된 스피커에서 재생하도록 할 수 있다.
한편, 디바이스(1000)의 기능이 GPS 기능이고, 자율 주행 차량(100)의 기능이 스피커인 경우(2030)에 대해서도 설명한다.
자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 GPS 기능 간에 상호 관계는 미리 설정(preset)되어 있을 수 있다. 예를 들면, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 자율 주행 차량(100)에 포함된 스피커에서 위협을 나타내는 경고음을 재생하도록 자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 GPS 기능 간에 상호 관계가 미리 설정(preset)되어 있을 수 있다.
미리 설정된 설정 사항은 사용자 입력에 따라 변경될 수 있다. 즉, 사용자 입력에 따라, 자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 지오 펜스 기능이 상호 관계 설정을 위해서 선택될 수 있다.(미도시) 또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 즉, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 자율 주행 차량(100)에 포함된 스피커에서 재생되는 컨텐츠는 사용자의 입력에 기초하여 변경될 수 있다. 구체적인 예로, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 것이 디바이스(1000)의GPS 기능을 통해 인지된 경우, 자율 주행 차량(100)은 위협.mp3, 운명.mp3 및 행복.mp3 중 사용자의 입력에 따라 결정된 컨텐츠를 자율 주행 차량(100)에 포함된 스피커에서 재생하도록 할 수 있다.
도 17 및 도 18에서는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능을 사용자의 입력에 기초하여 연계하는 가이드 라인을 결정하는 방법에 대해서 개시되었다. 그러나 가이드 라인을 결정하는 실시 예는 도 17 및 도 18로 한정되지 않는다. 본 실시 예들에서 설명되는, 모든 자율 주행 차량(100)의 기능과 모든 디바이스(1000)의 기능이 사용자의 입력에 기초하여 또는 미리 설정된 설정 사항에 따라 연계될 수 있으며, 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능의 연계에 대한 당업자의 여러 변형 및 개량 형태 또한 본 실시 예들에 속한다.
예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)및/또는 차량 측 정보(220)에 포함된 생체 정보, 스케줄 정보, 주변 상황 정보 날씨 정보 등을 자율 주행 차량(100)의 네비게이션(5130), 주행 장치(5100)(예: 엑셀러레이터, 브레이크, 변속기, 조향 장치), 내부 조명(5331)(예: 실내 등), 외부 조명(5332)(예: 라이트(5333)), 오디오/비디오 장치(예: 스피커(5371)), 온도 조절 장치(예: 에어컨(5342), 히터(5341), 환풍기(5351), 창문 개폐 장치(5352), 열선), 지오 펜스, 기타 주변 장치(예: 와이퍼(5320), 방향 지시등(5334), 터치스크린(5361)), 센서 장치(5200) 등과 연계하는 가이드 라인을 사용자 입력에 기초하여 결정할 수 있으나 이에 제한되지 않는다.
도 19는 일 실시 예에 따른 자율 주행 차량(100)의 주행 관련 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
본 도 19의 표 내부에 표시된 "X"는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 미리 설정(preset)된 경우를 나타낼 수 있고, 표 내부에 표시된 "A"는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 사용자에 의해 설정되는 경우를 나타낼 수 있다.
디바이스(1000)의 GPS 기능과 자율 주행 차량(100)의 네비게이션 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 GPS 센서로부터 획득한 위치 정보로부터 현재 위치 정보를 획득하고, 획득한 현재 위치 정보에 기초하여 목적지까지의 주행 경로를 설정할 수 있다.
디바이스(1000)의 음성 인식 기능과 자율 주행 차량(100)의 운전 모드 관련 기능이 상호 연계되도록 사용자에 의해 설정될 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 음성 인식 센서로부터 획득한 사용자 음성 정보에 따라 운전 모드를 결정할 수 있다.
디바이스 기능(17200)은 디바이스 수행 가능 기능(17210)으로, 맥박수 센싱 기능, 혈압 센싱 기능, 호흡수 센싱 기능 혈중 알코올 농도 센싱 기능, GPS 정보 획득 기능, 카메라 기능, 관성 센싱 기능, 가속도 센싱 기능 지자기 센싱 기능, 온도 센싱 기능 습도 센싱 기능, 자이로스코프 센싱 기능 기압 센싱 기능, 근접 센싱 기능, 적외선 센싱 기능, 마이크 기능, 진동 기능, 디스플레이 기능, 스피커 기능, 음성 인식 기능, 음성 통신 기능, 데이터 통신 기능, 사용자 스케줄 획득 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
차량 기능(17100)은 주행관련 기능(17110)을 포함할 수 있다. 예를 들면, 주행관련 기능(17110)은 브레이크 기능, 엑셀러레이터 기능, 스티어링 기능, 장애물 회피 기능, 네비게이션 기능, 운전 모드 관련 기능, 엔진/모터 기능, 변속기 기능, 휠 기능, 타이어 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
차량 기능(17100) 중 일부는 자율 주행 차량(100)에 포함된 일부 장치에 의해 수행될 수 있다. 예를 들면 운전 모드 관련 기능은 주행 장치 및/또는 주변 장치에 의해 수행될 수 있다.
도 20은 일 실시 예에 따른 자율 주행 차량(100)의 주변 장치 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
디바이스(1000)의 호흡수 센싱 기능과 자율 주행 차량(100)의 방향 지시등 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 호흡수 센서로부터 획득한 호흡수 정보로부터 사용자의 건강 상태가 위급 상태인지 여부를 결정하고, 사용자의 건강 상태가 위급 상태라고 결정된 경우, 비상등이 켜지도록 방향 지시등(5334)을 제어할 수 있다.
디바이스 기능(17200)은 도 19에서 상술된 내용을 참조할 수 있다.
차량 기능(17100)은 주변 장치 기능(18110)을 포함할 수 있다. 예를 들면, 주변 장치 기능(18110)은 네비게이션 기능, 지오 펜스 기능, 라이트 기능, 와이퍼 기능, 스피커 기능, 방향 지시등 기능, 내부 조명 기능, 외부 조명 기능, 통신 기능, 히터 기능(난방기의 일종), 에어컨 기능(냉방기의 일종), 터치 스크린 기능, 마이크 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
도 21은 일 실시 예에 따른 자율 주행 차량(100)의 센서 관련 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
디바이스(1000)의 가속도 센서 기능과 자율 주행 차량(100)의 카메라 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 디바이스(1000)의 가속도 센서(5232)가 급 가속이나 급 감속을 센싱한 경우, 자율 주행 차량에 포함된 카메라(5220)의 기능이 실행되어 차량 전방 및/또는 후방을 촬영할 수 있다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 GPS(5210)의 기능이 상호 연계되도록 사용자에 의해 설정될 수 있다. 일례로, 자율 주행 차량(100)에 포함된 GPS(5210)로부터 획득한 위치 정보에 따라 디바이스(1000)에 포함된 스피커의 기능을 실행하여, 디바이스(1000)의 스피커에서 경고 알림이 재생될 수 있다.
디바이스 기능(17200)은 도 19에서 상술된 내용을 참조할 수 있다.
차량 기능(17100)은 센서 기능(19110)을 포함할 수 있다. 예를 들면, 센서 기능(19110)은 GPS 센서 기능, 카메라 기능, 광성 센서 기능, 가속도 센서 기능, 지자기 센서 기능, 온도 센서 기능, 습도 센서 기능, 자이로스코프 센서 기능, 기압 센서 기능, 거리 센서 기능, 적외선 센서 기능, 타이어 공기압 센서 기능, 속도 센서 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
도 22는 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 위급 상태임을 결정할 수 있다. 자율 주행 차량(100)이 사용자의 건강 상태가 위급 상태임을 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다. 다른 예로, 사용자의 위급 상태를 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
디바이스가 디바이스 사용자의 위급 상태를 나타내는 생체 정보(예: 기준치 이상의 혈압 수치 정보, 기준치 이상의 맥박수 정보 등)를 획득하는 경우, 디바이스(1000)는 사용자가 위급 상태임을 결정하고, 사용자가 위급 상태임을 나타내는 정보를 자율 주행 차량(100)으로 송신할 수 있다. 이 경우, 디바이스 측 정보(210)는 사용자가 위급 상태임을 나타내는 정보를 포함할 수 있다. 또한, 이 경우, 자율 주행 차량(100)은 디바이스(100)로부터 사용자가 위급 상태임을 나타내는 정보를 포함하는 디바이스 측 정보(210)를 수신할 수 있다. 사용자가 위급 상태임을 나타내는 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
주행 경로 상에 경유지로 추가되는 병원은 기설정된 방식에 따라 결정될 수 있다.
예를 들면, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있을 것으로 결정된 복수개의 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 사용자의 위급 상태가 당뇨병에 의한 것인 경우, 자율 주행 차량(100)은 당뇨병을 치료할 수 있는 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
그러나, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있는 병원을 결정할 수 없는 경우, 소정 규모 이상의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 한편, 자율 주행 차량(100) 및/또는 디바이스(1000)의 분석 능력으로는 사용자의 위급 상태가 어떤 병에 의한 것인지 결정할 수 없는 경우, 자율 주행 차량(100)은 대학 병원 이상 규모의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
경유지로 추가된 병원이 소정 거리 범위의 밖에 위치하는 경우, 자율 주행 차량(100)은 주행 도중 비상 통화 기능을 실행할 수 있다. 예를 들면 자율 주행 차량(100)은 119 또는 기설정된 번호로 위치 및 상황을 알리는 문자를 발송할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 약국을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 간단한 약 투여가 필요한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 생체 정보에 대응되는 약을 구입할 수 있는 약국을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 졸음 쉼터 또는 휴게소를 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 피로도 정보를 수신하고, 수신한 피로도 정보를 분석하여 사용자가 피로한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100)은 사용자 눈 깜박임 관련 정보를 수신하여 사용자의 피로도를 결정하고, 임계치 이상의 피로도가 인식된 경우, 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 알코올 농도 정보를 수신하고, 수신한 알코올 농도 정보를 분석하여 사용자가 음주 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 음식점을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
한편, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 음식점을 경유할지 여부를 문의하는 화면을 디스플레이할 수 있다. 디스플레이된 문의 화면에 대응한 사용자 입력에 기초하여 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 사용자의 스케줄 정보를 획득할 수 있다. 자율 주행 차량(100)은 음식점에 경유함으로써 예상되는 지연 시간 및 사용자의 스케줄 정보를 고려하여, 음식점을 현재 주행 경로 상에 경유지로 추가할지 여부를 결정할 수 있다.
자율 주행 차량(100)은 차량 측 정보(220) 및 디바이스 측 정보(210)를 획득 할 수 있다. 예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 생체 정보를 포함할 수 있고, 자율 주행 차량(100)이 획득한 차량 측 정보(220)는 주행 가능 거리 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 차량 측 정보(220)를 고려하여 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 위급 상태임을 결정할 수 있다. 자율 주행 차량(100)이 사용자의 건강 상태가 위급 상태임을 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다. 사용자의 위급 상태를 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
주행 경로 상에 경유지로 추가되는 병원은 기설정된 방식에 따라 결정될 수 있다.
구체적으로, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있을 것으로 결정되고, 현재 주행 가능 거리 범위 내에 위치하는 복수개의 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 사용자의 위급 상태가 당뇨병에 의한 것인 경우, 자율 주행 차량(100)은 당뇨병을 치료할 수 있고, 현재 주행 가능 거리 범위 내에 위치하며 현재 위치에서 소정 거리 내에 위치하는 병원 중 가장 규모가 큰 병원을 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있는 병원을 결정할 수 없는 경우, 현재 주행 가능 거리 범위 내에 위치하는 소정 규모 이상의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100) 및/또는 디바이스(1000)의 분석 능력으로는 사용자의 위급 상태가 어떤 병에 의한 것인지 결정할 수 없는 경우, 자율 주행 차량(100)은 현재 주행 가능 거리 범위 내에 위치하는 대학 병원 이상 규모의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
다른 예로, 현재 주행 가능 거리 범위 내에 병원이 없는 경우, 자율 주행 차량(100)은 비상등을 작동시키고 가장 가까운 허가된 위치에 정차할 수 있다. 또한 현재 주행 가능 거리 범위 내에 병원이 없는 경우, 자율 주행 차량(100)은 비상 통화 기능을 실행 할 수 있다. 예를 들면 자율 주행 차량(100)은 119 또는 기설정된 번호로 위치 및 상황을 알리는 문자를 발송할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보 및 차량 측 정보(220)에 따라 자율 주행 차량(100)의 주행 경로 상에 약국을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 간단한 약 투여가 필요한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 생체 정보에 대응되는 약을 구입할 수 있고 주행 가능 거리 범위 내에 위치한 약국을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 경유지로 추가할 수 있다. 졸음 쉼터나 휴게소가 현재 위치에서 소정 거리 범위 외에 위치하는 경우, 자율 주행 차량(100)은 비상등을 작동시키고 가장 가까운 허가된 위치에 정차할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 피로도 정보를 수신하고, 수신한 피로도 정보를 분석하여 사용자가 피로한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100)은 사용자 눈 깜박임 관련 정보를 수신하여 사용자의 피로도를 결정하고, 임계치 이상의 피로도가 인식된 경우, 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 알코올 농도 정보를 수신하고, 수신한 알코올 농도 정보를 분석하여 사용자가 음주 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 음식점을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가깝고, 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 음식점을 경유할지 여부를 문의하는 화면을 디스플레이할 수 있다. 디스플레이된 문의 화면에 대응한 사용자 입력에 기초하여 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가깝고 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 사용자의 스케줄 정보를 획득할 수 있다. 자율 주행 차량(100)은 음식점을 경유함으로써 예상되는 지연 시간 및 사용자의 스케줄 정보를 고려하여, 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할지 여부를 결정할 수 있다.
도 23은 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2310에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S2320에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S2330에서 자율 주행 차량(100)은 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가한다.
예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 자율 주행 차량(100)의 주행 경로 상에 병원을 경유지로 추가할 수 있다.
단계 S2340에서 자율 주행 차량(100)은 추가된 경유지에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
예를 들면, 자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 갱신된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 예를 들면, 갱신된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 24는 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보 및 차량 측 정보(220)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2410은 상술된 단계 S2310에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S2420에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S2430에서 자율 주행 차량(100)은 자율 주행 차량의 차량 측 정보(220)를 획득한다. 예를 들면, 자율 주행 차량(100)이 획득한 차량 측 정보(220)는 주행 가능 거리 정보를 포함할 수 있다.
단계 S2440에서 자율 주행 차량(100)은 생체 정보 및 차량 측 정보(220)에 따라 결정된 주행 가능 거리에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가한다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 병원을 경유지로 추가할 수 있다.
단계 S2450에서 자율 주행 차량(100)은 추가된 경유지에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 갱신된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이 경우, 갱신된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 25는 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다. 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 자율 주행 차량의 주행 모드를 결정할 수 있다. 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 자율 주행 차량에 포함된 하나 이상의 주변 장치를 제어할 수 있다.
심신 상태는 사용자의 신체적인 상태 및/또는 심적인 상태를 포함할 수 있다. 예를 들면, 심신 상태는 사용자가 피곤한 정도, 사용자가 긴장한 정도, 사용자의 건강 상태, 사용자가 흥분한 정도, 사용자의 맥박 수치, 사용자가 더운 정도, 사용자의 체온 수치 등을 포함할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 사용자의 심신 상태를 나타내는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치 및/또는 주변 장치를 제어하여, 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
일 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 맥박수 관련 정보를 수신하고, 수신한 정보를 분석하여 사용자의 상태가 안정이 필요한 상태인지 여부를 결정할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 안정이 필요한 상태임을 결정한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 안정이 필요한 상태임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 안전 모드는 가속 및 감속의 빈도가 적고, 최대 속도가 낮은 형태의 운전 모드를 의미할 수 있다.
다른 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 눈 깜박임 관련 정보 또는 사용자의 자세 관련 정보를 수신하고, 수신한 정보를 분석하여 사용자의 상태가 수면 상태인지 여부를 결정할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 수면 상태임을 결정한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 수면 모드로 주행할 수 있다. 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 주변 장치 또는 주행 장치를 실행하여, 수면 모드로 주행할 수 있다. 수면 모드는 차량의 실내가 어둡고, 가속 및 감속의 빈도가 적고, 차량 진동을 감소시키는 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 실내 조명 장치를 제어하여, 차량 실내 밝기를 소정 기준 이하로 유지할 수 있다. 다른 예로, 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 냉난방 장치를 제어하여, 차량 실내 온도를 소정 온도 범위 내로 유지할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 긴급 모드로 주행할 수 있다. 긴급 모드는 차량 내 탑승자를 보호하고, 병원 등에 빨리 도착하기 위해 최적화된 운전 모드를 의미할 수 있다. 예를 들면, 긴급 모드로 주행할 때 자율 주행 차량(100)은 가속, 감속 및 최대 속도의 허용치를 표준 모드의 경우보다 높게 설정할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 방향 지시등이 지속적으로 동시에 점멸되도록(예: 비상등) 방향 지시등을 제어할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 기분이 활동적임을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 스포츠 모드로 주행할 수 있다. 스포츠 모드는 가속 및 감속의 빈도가 높고, 최고 주행 속도가 높은 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 기분이 활동적임을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오를 제어하여, 오디오 재생 볼륨을 소정 기준 이상으로 설정할 수 있다.
다른 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 긴장하고 있음을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 긴장하고 있음을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오를 제어하여, 기설정된 또는 기설정된 방식으로 검색된 오디오 컨텐츠를 재생할 수 있다. 예를 들면, 자율 주행 차량(100)은 오디오를 제어하여, 긴장 완화에 도움이 되는 음악을 재생할 수 있다.
또한, 도 25에서 기술된 운전 모드는 본 개시의 일 실시 예이며, 한정되지 않는다.
도 26은 일 실시 예에 따른 자율 주행 차량(100)의 주행 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2610에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S2620에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량의 주행 장치를 제어 한다. 주행 장치는 브레이크(5111), 엑셀러레이터(5112), 조향 장치(예: 스티어링(5113)), 엔진/모터(5160), 변속기(5170) 등을 포함할 수 있으며 이에 제한되지 않는다.
단계 S2430에서 자율 주행 차량(100)은 디바이스의 사용자의 심신 상태를 나타내는 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정한다. 예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 긴급 모드로 주행할 수 있다.
다른 예로, 자율 주행 차량(100)은 자율 주행 차량의 주행 장치 기능을 이용하여 결정된 운전 모드로 주행할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)에 대응하도록 엑셀러레이터 기능을 실행하여, 최대 가속도 및 최대 속도를 제어하여 결정된 운전 모드로 주행할 수 있다.
단계 S2440에서 자율 주행 차량(100)은 결정된 운전 모드에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
예를 들면, 자율 주행 차량(100)은 주행 장치를 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 결정된 운전 모드로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 27은 일 실시 예에 따른 자율 주행 차량(100)의 오디오/비디오 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다. 본 도에서는 오디오/비디오 장치의 실시 예에 대해 설명하고 있으나 이에 한정되지 않으며, 오디오/비디오 장치 외의 주변 장치의 제어에 본 도면의 방법이 이용될 수 있다.
단계 S2710은 상술된 단계 S2610에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S2720에서 자율 주행 차량(100)은 단계 S2710에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 오디오/비디오 장치를 실행한다. 오디오/비디오 장치는 오디오 장치 및/또는 비디오 장치를 의미할 수 있다.
또한, 본 단계에서 개시된 오디오/비디오 장치는 자율 주행 차량에 포함된 주변 장치의 일례이고, 오디오/비디오 장치로 제한되지 않는다. 예를 들면, 자율 주행 차량(100)은 단계 S2710에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 생체 정보를 포함하는 경우, 수신한 생체 정보에 따라서, 지오 펜스 기능, 라이트 기능, 와이퍼 기능, 스피커 기능, 방향 지시등 기능, 내부 조명 기능, 외부 조명 기능, 냉난방기 기능, 통신 기능 등을 제어할 수 있다.
단계 S2730에서 자율 주행 차량(100)은 단계 S2720에서 획득한 생체 정보에 따라 결정된 컨텐츠를 재생한다.
컨텐츠는 오디오 컨텐츠 및/또는 오디오 컨텐츠를 포함할 수 있다. 오디오 컨텐츠는 음악, 효과음, 통화 음성, 음성 알림 등을 포함할 수 있다.
자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보로부터 사용자가 피로한 상태임을 결정한 경우에 대해 설명한다. 자율 주행 차량(100)이 자율 주행 중인 경우, 자율 주행 차량(100)은 오디오/비디오 장치를 실행하여, 디바이스 사용자의 편안한 주행을 위한 조용한 음악 또는 뮤직 비디오를 재생할 수 있다. 자율 주행 차량(100)이 수동 주행 중인 경우, 자율 주행 차량(100)은 오디오/비디오 장치를 실행하여, 디바이스 사용자의 졸음을 깨울 수 있는 액티브한 음악 또는 뮤직 비디오를 재생할 수 있다.
도 28은 일 실시 예에 따른 자율 주행 차량(100) 의 주변 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2810에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 자율 주행 차량(100)이 수신한 사용자의 심신 상태를 나타내는 생체 정보는 사용자가 더운 상태를 나타낼 수 있다.
단계 S2820에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 냉방, 난방, 환기 장치 등을 실행한다. 냉방 장치는 에어컨을 포함할 수 있고, 난방 장치는 히터 또는 열선을 포함할 수 있고, 환기 장치는 창문 또는 환풍기를 포함할 수 있다.
단계 S2830에서 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정한다. 예를 들면 디바이스 측 정보(210)가 사용자가 더운 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 설정 온도를 현재 온도보다 낮게 또는 표준 온도보다 낮게 결정할 수 있다.
단계 S2840에서 자율 주행 차량(100)은 결정된 설정 온도에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
자율 주행 차량(100)은 차량 내부의 설정 온도로부터 소정 범위 내로 차량 내부 온도를 유지하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 예를 들면, 자율 주행 차량(100)은 설정 온도에 대응되도록 냉방, 난방, 환기 장치 등을 제어할 수 있다. 다른 예로, 디바이스 측 정보(210)가 사용자가 추운 상태를 나타내는 생체 정보를 포함할 때, 자율 주행 차량(100)은 창문을 닫거나, 히터를 켜거나, 열선을 켜도록 창문, 히터, 열선 등을 제어할 수 있다.
차량 측 정보(220)도 자율 주행 차량(100)의 제어에 이용될 수 있다. 예를 들면, 디바이스 측 정보(210)가 사용자가 더운 상태를 나타내는 생체 정보를 포함할 때, 자율 주행 차량(100)은 외부 온도가 낮고 공기가 맑은 경우 창문을 열도록 창문을 제어할 수 있고, 외부 온도가 높거나 공기가 탁한 경우 창문은 닫고 에어컨을 켜도록 창문 및 에어컨을 제어할 수 있다.
도 29는 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 일례를 나타내는 도면이다. 예를 들면, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 이용하여 자율 주행 차량의 주행 모드를 결정할 수 있다. 다른 예로, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 이용하여 자율 주행 차량에 포함된 하나 이상의 주변 장치를 제어할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 사용자의 행위를 나타내는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 행위를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치 및/또는 주변 장치를 제어하여, 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 사용자의 제스쳐 정보를 수신한 경우, 수신한 제스처 정보에 대응되는 운전 모드로 주행할 수 있다. 다른 실시 예에 따른 자율 주행 차량(100)은 디바이스(1000)로부터 사용자의 제스쳐 정보를 수신한 경우, 수신한 제스처 정보에 대응되는 주변 장치를 제어할 수 있다.
일 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 독서 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 독서 모드로 주행할 수 있다. 독서 모드는 차량의 실내가 밝고, 가속 및 감속의 빈도가 적고, 차량 내 소음을 감소시키는 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 독서 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 실내 조명 장치를 제어하여, 자율 주행 차량(100) 내의 밝기를 소정 기준 이상으로 유지할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 팔장 낀 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 팔장 낀 자세에 대응되는 운전 모드는 안전 모드 외의 다른 운전 모드로 설정될 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 팔장 낀 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오 장치를 제어하여, 기설정된 오디오 컨텐츠를 재생할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 박수를 한번 치는 행위를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 에코 모드로 주행할 수 있다. 박수를 한번 치는 행위에 대응되는 운전 모드는 안전 모드 외의 다른 운전 모드로 설정될 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 박수를 한번 치는 행위를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 창문을 제어하여, 자율 주행 차량(100)의 창문을 열 수 있다.
도 30은 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3010에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S3020에서 자율 주행 차량(100)은 단계 S2910에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 행위를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)의 내부 조명 기능을 실행한다.
단계 S3030에서 자율 주행 차량(100)은 디바이스의 사용자의 행위를 나타내는 생체 정보에 따라 자율 주행 차량의 내부 밝기를 결정한다.
단계 S3040에서 자율 주행 차량(100)은 결정된 내부 밝기에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
자율 주행 차량(100)은 결정된 내부 밝기로 차량 내부의 밝기를 제어하기 위한 내부 조명과 관련된 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이 경우, 자율 주행 차량(100)은 결정된 내부 밝기로 차량 내부의 밝기를 유지할 수 있다.
도 31은 일 실시 예에 따른 자율 주행 차량(100)을 스케줄 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 스케줄 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 스케줄 정보의 장소에 대응되는 주행 경로를 설정하거나 스케줄 정보의 장소에 대응되는 경유지를 추가할 수 있다.
자율 주행 차량(100)이 주행을 시작하기 전에 디바이스(1000)로부터 현재 시간에 대응되는 사용자의 스케줄 장소 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 스케줄 장소를 목적지로 하는 주행 경로를 설정할 수 있다.
자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 현재 시간에 대응되는 사용자의 스케줄 장소 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 스케줄 장소를 경유지로 하는 주행 경로를 설정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치(5100)를 제어하여, 스케줄 정보의 시간 및/또는 장소에 대응되는 운전 모드를 결정할 수 있다.
예를 들면, 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리가 멀고, 현재 시간으로부터 스케줄 시간까지의 시간이 촉박한 경우, 운전 모드를 스피드 모드로 결정할 수 있다. 다른 예로, 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리가 가깝고, 현재 시간으로부터 스케줄 시간까지의 시간이 여유 있는 경우, 운전 모드를 안정 모드로 결정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 기능을 실행하여, 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정할 수 있다. 설정된 주행 평균 속도는 스케줄 정보의 시간에 대응되는 주행 모드에서 설정된 평균속도일 수 있다. 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리 및 현재 시간으로부터 스케줄 시간까지의 시간에 따라 주행 평균 속도를 결정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 및/또는 브레이크 기능을 실행하여, 스케줄 정보의 시간에 대응되는 최대 가속도 및/또는 평균 가속도를 설정할 수 있다. 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리 및 현재 시간으로부터 스케줄 시간까지의 시간에 따라 최대 가속도 및/또는 평균 가속도를 결정할 수 있다.
도 32는 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S3210에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 스케줄 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S3220에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S3230에서 자율 주행 차량(100)은 스케줄 정보의 장소에 대응되는 주행 경로를 설정한다.
예를 들면, 자율 주행 차량(100)은 현지 시간에 대응되는 목적지가 XX타워라는 스케줄 장소 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 목적지를 XX타워로 하는 주행 경로를 결정할 수 있다.
단계 S3240에서 자율 주행 차량(100)은 설정된 주행 경로에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 결정된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이때, 결정된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 33은 일 실시 예에 따른 자율 주행 차량(100)의 주행 속도를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S3310은 상술된 단계 S3210에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S3320에서 자율 주행 차량(100)은 단계 S3310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행한다.
단계 S3330에서 자율 주행 차량(100)은 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정한다.
단계 S3340에서 자율 주행 차량(100)은 설정된 주행 평균 속도에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 34는 일 실시 예에 따른 자율 주행 차량(100)의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
본 명세서에서, 주행 환경 정보는 차량의 주행과 관련된 외부적 상황을 나타내는 정보를 포함할 수 있다.
예를 들면, 주행 환경 정보는 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 포함할 수 있다. 지역 정보는 현재 위치에 대응하는 도로의 상황을 나타내는 정보인 도로 상황 정보 및/또는 현재 위치에 대응되는 지역에 대한 정보인 지역 정보를 포함할 수 있다. 도로 상황 정보는 노면 상태 정보, 교통 상황 정보, 사고 발생 정보, 도로 공사 정보, 주변 건물 정보, 주변 시설 정보, 주변 경치 정보 등을 포함할 수 있다.
다른 예로, 주행 환경 정보는 주변 환경 상황에 따라 우회 주행 요구 여부를 나타낼 수 있다. 우회 주행 요구 여부는 지역 정보에 따라 결정될 수 있다.
다른 예로, 주행 환경 정보는 주변 환경 상황에 따라 자율 주행 가부를 나타낼 수 있다. 자율 주행 가부는 지역 정보에 따라 결정될 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다.
자율 주행 차량(100)이 주행을 시작하기 전에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 주행 환경 정보를 반영하여 주행 경로를 설정할 수 있다.
자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 주행 환경 정보를 반영하여 주행 경로를 갱신할 수 있다.
예를 들면, 수신된 디바이스 측 정보(210)가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어하여, 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경할 수 있다. 일례로, 자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 경로에 통제 지역이 있음을 나타내는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어하여, 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경할 수 있다.우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보는 주행 경로 상에 문제가 있음을 나타내는 정보를 포함할 수 있다. 예를 들면, 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보는 주행 경로 상의 노면 상태가 불량함을 나타내는 정보, 주행 경로 상에서 교통 사고가 발생했음을 나타내는 정보, 주행 경로 상에 공사가 진행 중임을 나타내는 정보, 주행 경로 상에 교통 정체 중임을 나타내는 정보, 주행 경로 상에 서행 구간(예: 어린이 보호구역)이 있음을 나타내는 정보, 주행 경로 상에 운전 불편 지역(예: 급커브)이 있음을 나타내는 정보 등을 포함할 수 있다.
도 35는 일 실시 예에 따른 자율 주행 차량(100)의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3510에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 우회 주행이 요구되는 상황인지 여부를 나타낼 수 있다.
단계 S3520에서 자율 주행 차량(100)은 단계 S3510에서 수신된 디바이스 측 정보(210)가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어한다.
단계 S3530에서 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경한다.
단계 S3540에서 자율 주행 차량(100)은 변경된 우회 경로에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 36은 일 실시 예에 따른 자율 주행 차량(100)의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 자율 주행 불가를 나타내는 주행 환경 정보를 포함할 수 있다.
자율 주행 차량(100)이 자율 주행 중에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 기능을 제어하여 수신한 주행 환경 정보를 반영하여 자율 주행 기능을 중지할 수 있다.
예를 들면, 수신된 디바이스 측 정보(210)가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어하여 자율 주행을 중지할 수 있다. 일례로, 자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 경로에 주의 지역이 있음을 나타내는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어하여, 자율 주행 차량(100)의 자율 주행 기능을 중지할 수 있다.자율 주행 불가를 나타내는 주행 환경 정보는 주행 경로 상에 수동 주행이 요구되는 지역을 나타는 정보를 포함할 수 있다. 예를 들면, 자율 주행 불가를 나타내는 주행 환경 정보는 주행 경로 상의 노면 상태가 빙판길이므로 수동 주행으로 서행 운전이 요구됨을 나타내는 정보, 주행 경로 상에서 교통 사고가 발생함에 따라 수동 주행으로 돌발 상황에 대처하는 운전이 요구됨을 나타내는 정보, 주행 경로 상에 공사가 진행 중임을 나타내는 정보, 주행 경로 상에 교통 정체 중임을 나타내는 정보, 주행 경로 상에 서행 구간(예: 어린이 보호구역)이 있음을 나타내는 정보, 주행 경로 상에 자동 주행 불가 지역(예: 지도 정보가 없는 지역)이 있음을 나타내는 정보 등을 포함할 수 있다.
도 37은 일 실시 예에 따른 자율 주행 차량(100)의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3710에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 자율 주행이 불가능함을 나타낼 수 있다.
단계 S3720에서 자율 주행 차량(100)은 단계 S3710에서 수신된 디바이스 측 정보(210)가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어한다. 자율 주행 차량(100)은 자율 주행 기능을 제어하여 자율 주행을 중지할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)에 포함된 생체 정보를 이용하여 사용자가 운전할 수 있는 상황인 경우, 자율 주행 기능을 제어하여 자율 주행 기능을 중지할 수 있다.
단계 S3730에서 자율 주행 차량(100)은 자율 주행을 중지하도록 제어된다. 자율 주행 차량(100)은 수동 주행으로 주행됨을 알리는 메시지를 디스플레이할 수 있다. 자율 주행 기능이 중지되는 경우, 자율 주행 차량(100)은 사용자의 수동 조작에 기초하여 주행할 수 있다.
도 38은 일 실시 예에 따른 자율 주행 차량(100)을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 주행 환경 정보는 지역 정보를 포함할 수 있다.
자율 주행 차량(100)이 수신된 디바이스 측 정보(210)가 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 주행 환경 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
예를 들면, 자율 주행 차량(100)이 현재 주변 지역이 어린이 보호 구역이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 서행 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주변 지역이 공사 구역이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 안전 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주행 중인 도로가 빙판길이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 미끄럼 방지 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주변 지역이 관광지라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 서행 모드로 결정할 수 있다.
수신된 디바이스 측 정보(210)가 지역 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 기능을 실행하여, 지역 정보에 대응되는 주행 평균 속도를 설정할 수 있다. 설정된 주행 평균 속도는 지역 정보에 대응되는 주행 모드에서 설정된 평균속도일 수 있다. 자율 주행 차량(100)은 지역 정보로부터 획득한 지역의 특성에 따라 주행 평균 속도를 결정할 수 있다. 예를 들면 500m 전방에 유명한 건물이나 탑이 있는 경우, 표준 평균 속도보다 낮게 주행 평균 속도를 결정할 수 있다.
수신된 디바이스 측 정보(210)가 지역 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 및/또는 브레이크 기능을 실행하여, 지역 정보에 대응되는 최대 가속도 및/또는 평균 가속도를 설정할 수 있다. 예를 들면, 현재 주행 중인 지역의 도로가 미끄럽다는 지역 정보를 수신한 경우, 자율 주행 차량(100)은 표준보다 낮은 최대 가속도 및/또는 평균 가속도로 주행하도록 제어될 수 있다.
도 39는 일 실시 예에 따른 자율 주행 차량(100)을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3910에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 포함할 수 있다.
단계 S3920에서 자율 주행 차량(100)은 단계 S3910에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량의 주행 장치를 실행한다.
단계 S3930에서 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량의 운전 모드를 결정한다.
단계 S3940에서 자율 주행 차량(100)은 단계 S3930에서 결정된 운전 모드에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 40은 일 실시 예에 따른 자율 주행 차량(100)을 날씨 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 날씨 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 날씨 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 온도 조절 기능을 실행하여, 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정할 수 있다. 온도 조절 기능은 냉방 장치, 난방 장치, 제습 장치, 환기 장치(예: 환풍기, 창문) 등에 의해 수행될 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 현재 지역의 날씨가 맑다는 날씨 정보를 수신한 경우, 자율 주행 차량(100)은 현재 차량 내부 온도보다 낮은 값을 설정 온도로 결정할 수 있다. 날씨가 맑고 공기가 깨끗하다는 정보가 날씨 정보에 포함되어 있고, 설정 온도가 현재 차량 내부 온도보다 낮은 경우, 자율 주행 차량(100)은 창문을 열도록 창문 장치를 제어할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 현재 지역의 날씨가 춥고 비가 온다는 날씨 정보를 수신한 경우, 자율 주행 차량(100)은 현재 차량 내부 온도보다 높은 값을 설정 온도로 결정할 수 있다. 날씨가 춥고 비가 온다는 정보가 날씨 정보에 포함되어 있고, 설정 온도가 현재 차량 내부 온도보다 높은 경우, 자율 주행 차량(100)은 창문을 닫고, 제습 기능을 실행시키고, 히터 기능을 실행시키도록 제어될 수 있다.
상술한 예에 제한되지 않으며, 자율 주행 차량은 날씨 정보(온도, 습도, 눈 또는 비가 오는지 여부, 미세먼지 정도, 공기 오염 정도 등)에 대응하여 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 제습 장치, 환기 장치(예: 환풍기, 창문) 등을 실행할 수 있다. 예를 들면, 자율 주행 차량은 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 갱신할 수 있다.
도 41은 일 실시 예에 따른 자율 주행 차량(100)을 날씨 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S4110에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 날씨 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S4120에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 날씨 정보를 포함하는 경우, 자율 주행 차량의 온도 조절 기능을 실행한다.
단계 S4130에서 자율 주행 차량(100)은 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정한다.
단계 S4140에서 자율 주행 차량(100)은 단계 S3230에서 결정된 설정 온도에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 42는 일 실시 예에 따른 자율 주행 차량(100)을 서버(200)로부터 획득한 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
서버(200)는 디바이스(1000) 및/또는 자율 주행 차량(100)과 통신할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 디바이스(1000)가 서버(200)로부터 수신한 정보를 포함할 수 있다.
자율 주행 차량(100)은 서버(200)로부터 서버 측 정보를 획득할 수 있다. 예를 들면, 자율 주행 차량(100)이 서버(200)로부터 수신한 서버 측 정보는 디바이스(1000)의 사용자가 디바이스(1000)를 통해 서버(200)에 업로드한 정보를 포함할 수 있다. 자율 주행 차량(100)이 서버(200)로부터 수신한 서버 측 정보는 기존에 서버에 저장된 정보를 포함할 수 있다. 예를 들면 서버 측 정보는 스케줄 정보, 주변 상황 정보 날씨 정보 등을 포함할 수 있다.
자율 주행 차량(100)은 서버(200)로부터 수신한 서버 측 정보 및/또는 디바이스(1000)로부터 수신한 디바이스 측 정보(210)를 이용하여 차량 제어 정보를 획득할 수 있다.
예를 들면, 자율 주행 차량(100)은 서버 측 정보에 포함된 사용자 스케줄 정보와 디바이스 측 정보(210)에 포함된 사용자 생체 정보를 이용하여 자율 주행 차량(100)의 주행 경로를 설정하는 차량 제어 정보를 획득할 수 있다.
다른 예로, 자율 주행 차량(100)은 서버 측 정보에 포함된 주행 환경 정보와 디바이스 측 정보(210)에 포함된 사용자 생체 정보를 이용하여 자율 주행 차량(100)의 운전 모드 및/또는 주행 경로를 결정하는 차량 제어 정보를 획득할 수 있다.
도 43은 일 실시 예에 따른 자율 주행 차량(100)을 서버로부터 획득한 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S4310에서 디바이스(1000)는 서버(200)로부터 디바이스 통신 정보(231)를 수신한다.
단계 S4320에서 디바이스(1000)는 디바이스 센싱 정보(241)를 획득한다.
단계 S4330에서 디바이스(1000)는 디바이스 저장 정보(251)를 획득한다.
단계 S4340에서 자율 주행 차량(100)은 서버(200)로부터 차량 통신 정보(232)를 수신한다.
단계 S4350에서 자율 주행 차량(100)은 차량 센싱 정보(242)를 획득한다.
단계 S4360에서 자율 주행 차량(100)은 차량 저장 정보(252)를 획득한다.
단계S4370에서 자율 주행 차량(100)은 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 이용하여 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한다.
단계S4380에서 자율 주행 차량(100)은 자율 주행 차량에서 수행할 수 있는 복수개의 기능 중 적어도 하나를 결정하고, 단계S4390에서 자율 주행 차량(100)은 단계 S80에서 결정된 기능을 제어할 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242), 차량 저장 정보(252) 및 차량 생성 정보 중 적어도 하나를 이용하여 차량 측 정보(220)를 획득할 수 있다. 자율 주행 차량(100)은 차량 측 정보(220) 및/ 디바이스 측 정보(210)를 이용하여 자율 주행 차량(100)에서 수행할 수 있는 복수개의 기능 중 적어도 하나를 결정할 수 있다. 또한, 자율 주행 차량(100)은 차량 측 정보(220) 및/ 디바이스 측 정보(210)에 따라 결정된 기능을 제어할 수 있다.
예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210) 및/또는 차량 측 정보(220)에 포함된 생체 정보, 스케줄 정보, 주변 상황 정보, 날씨 정보 등을 이용하여, 자율 주행 차량의 네비게이션(5130), 주행 장치(예: 엑셀러레이터, 브레이크, 변속기, 조향 장치), 내부 조명(예: 실내 등), 외부 조명(예: 라이트), 오디오/비디오 장치(예: 스피커), 온도 조절 장치(예: 에어컨, 히터, 환풍기, 창문, 열선), 지오 펜스, 기타 주변 장치(예: 와이퍼, 방향 지시등, 터치스크린), 센서들 등을 제어할 수 있으나 이에 제한되지 않는다.
또한, 상술된 모든 실시 예가 서버 측 정보에 기초하여 구현될 수 있다.
도 44는 일 실시 예에 따른 자율 주행 차량(100)을 복수의 디바이스(1000-1, 1000-2)로부터 획득되는 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 획득할 수 있다. 예를 들면, 자율 주행 차량(100)은 제1 디바이스(1000-1)로부터 제1 디바이스 측 정보(210)를 수신하고, 제2 디바이스(1000-2)로부터 제2 디바이스 측 정보(210)를 수신할 수 있다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 이용하여 차량 제어 정보를 획득할 수 있다. 도 1 내지 도 43에서 상술된 실시 예에서 기재된 디바이스 측 정보(210)로 제1 디바이스 측 정보 및/또는 제2 디바이스 측 정보가 이용될 수 있다.
자율 주행 차량(100)은 수신한 제1 디바이스 측 정보와 제2 디바이스 측 정보간에 각각 서로 다른 우선 순위를 부여할 수 있다.
예를 들면, 자율 주행 차량(100)은 탑승자의 탑승 위치에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면 운전석에 탑승한 탑승자의 디바이스(1000-2)로부터 획득되는 정보에 가장 높은 우선 순위를 부여할 수 있다.
다른 예로, 자율 주행 차량(100)은 복수의 디바이스 각각에 부여된 고유 식별 번호에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면, 제1 디바이스(1000-1)의 고유 식별 번호에 최우선 순위를 부여하도록 자율 주행 차량(100)의 설정 옵션에서 설정된 경우, 자율 주행 차량(100)은 제1 디바이스 측 정보의 우선순위를 제2 디바이스 측 정보의 우선순위 보다 높게 설정할 수 있다.
다른 예로, 자율 주행 차량(100)은 복수의 디바이스 각각의 로그인 정보에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면, 제1 디바이스(1000-1)에 로그인된 로그인 정보에 최우선 순위를 부여하도록 자율 주행 차량(100)의 설정 옵션에서 설정된 경우, 자율 주행 차량(100)은 제1 디바이스 측 정보의 우선순위를 제2 디바이스 측 정보의 우선순위 보다 높게 설정할 수 있다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 획득한 경우, 우선 순위가 더 높은 정보에 기초하여 차량 제어 정보를 생성할 수 있다. 예를 들면, 제1 디바이스 측 정보에 포함된 생체 정보는 사용자가 덥다는 정보를 포함하고, 제2 디바이스 측 정보에 포함된 생체 정보는 사용자가 춥다는 정보를 포함하고, 제1 디바이스 측 정보의 우선 순위가 제2 디바이스 측 정보의 우선 순위보다 높은 경우, 자율 주행 차량(100)은 에어컨을 작동시키는 차량 제어 정보를 생성할 수 있다. 또한, 생성된 차량 제어 정보에 따라 자율 주행 차량(100)은 에어컨을 작동시킬 수 있다.
도 45는 일 실시 예에 따른 자율 주행 차량(100)을 문의 화면을 디스플레이함에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
다른 실시 예에 따른 자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 문의 화면을 디스플레이할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 피로도가 높은 상태를 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 현재 위치(3310)에서 도착지(3320)까지 가는 주행 경로 상에 졸음 쉼터(3330)를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 어린이 보호 구역에 진입하였음을 나타내는 주행 환경 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 운전 모드를 서행 모드로 변경할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
다른 예로, 자율 주행 차량(100)이 타이어 공기압이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 포함하는 경우, 자율 주행 차량(100)은 주변 정비소를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
본 실시 예에 한정되지 않으며, 상술된 모든 실시 예에 대해서 제어 정보에 따라 자동 주행 차량(100)을 제어하기 전에 문의 화면을 디스플레이하는 동작이 수행될 수 있다.
도 46은 일 실시 예에 따른 자율 주행 차량(100)을 문의 화면을 디스플레이함에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S4610에서 디바이스(1000)는 디바이스(1000)에 포함된 센서를 이용하여 생체 정보를 획득한다.
단계 S4620에서 자율 주행 차량(100)은 디바이스 센싱 정보(241)를 디바이스(1000)로부터 수신한다. 수신한 디바이스 센싱 정보(241)는 높은 피로도를 나타내는 정보를 포함할 수 있다.
단계 S4630에서 자율 주행 차량(100)은 서버(200)에 졸음 쉼터 관련 정보를 요청할 수 있다.
단계 S4640에서 서버(200)는 현재 자율 주행 차량(100)의 위치 주변의 졸음 쉼터 위치 정보 및 졸음 쉼터까지의 경로 정보를 획득할 수 있다.
단계 S4650에서 자율 주행 차량(100)은 서버(200)로부터 졸음 쉼터 관련 정보를 수신한다. 졸음 쉼터 관련 정보는 현재 자율 주행 차량(100)의 위치 주변의 졸음 쉼터 위치 정보 및 졸음 쉼터까지의 경로 정보를 포함할 수 있다.
단계 S4660에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득한다. 예를 들면 자율 주행 차량(100)은 기름 잔량에 대한 정보를 획득할 수 있다. 차량 측 정보(220)는 단계 S4650에서 획득한 졸음 쉼터 관련 정보를 포함할 수 있다. 졸음 쉼터 관련 정보는 차량 통신 정보(232)에 포함될 수 있다. 또한 자율 주행 차량(100)은 현재 기름 잔량으로 졸음 쉼터까지 주행이 가능한지 여부를 결정할 수 있다.
단계S4670에서 자율 주행 차량(100)은 단계 S4620에서 획득한 디바이스 센싱 정보(241) 및 단계 S4660에서 획득한 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다. 또한, 자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 결정된 기능을 제어하는 동작의 진행 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 피로도가 높은 상태를 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 차량 측 정보(220)는 충분한 기름 잔량을 나타내는 정보를 포함하는 경우, 자율 주행 차량(100)은 졸음 쉼터를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
단계S4680에서 자율 주행 차량(100)은 단계 S4670에서 디스플레이한 문의 화면에 대응한 사용자의 응답을 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 "예"와 "아니오" 각각에 대응되는 두 개의 버튼 중 "예"에 대응되는 버튼에 대한 터치 입력을 수신할 수 있다.
단계S4690에서 자율 주행 차량(100)은 단계 S4680에서 수신한 사용자 입력에 대응하여, 단계 S4670에서 생성된 제어 정보에 따라 제어될 수 있다. 예를 들면, 자율 주행 차량(100)이 졸음 쉼터를 경유지로 추가할지 문의하는 문의 화면을 디스플레이한 후, 사용자로부터 "예"에 대응하는 입력을 수신한 경우, 자율 주행 차량(100)은 주행 경로에 졸음 쉼터를 경유지로 추가할 수 있다.
도 47은 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나의 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
또한, 자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 문의 화면을 디스플레이하는 과정을 생략할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 우선순위가 높은 생방송 스케줄 정보 및 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 현재 위치(3610)에서 도착지(3630)까지 가는 주행 경로 상에 방송국(3620)을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 기름 잔량이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 획득한 경우, 자율 주행 차량(100)은 주유소을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 주유소를 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 타이어 공기압이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 획득한 경우, 자율 주행 차량(100)은 정비소를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 정비소를 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 위급 상태임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 병원을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 병원을 경유지로 추가할 수 있다.
어떤 경우에 문의 화면을 디스플레이하는 과정이 생략이 생략되는지는 미리 결정되어 있을 수 있다. 예를 들면, 생방송 스케줄과 같은 최우선순위 스케줄이 있는 경우, 주행 가능 거리가 소정 거리 이하인 경우(예: 기름 부족, 차량 이상 등), 사용자의 위급 상태인 경우 등에 대해서 문의 화면을 디스플레이하는 과정이 생략되도록 미리 설정되어 있을 수 있다. 자율 주행 차량(100)은 사용자의 입력에 따라 설정 사항을 갱신할 수 있다.
본 실시 예에 한정되지 않으며, 상술된 모든 실시 예에 대해서, 미리 설정된 경우, 제어 정보에 따라 자동 주행 차량(100)을 제어하기 전에 문의 화면을 디스플레이하는 동작이 생략될 수 있다.
도 48은 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
단계 S4810에서 디바이스(1000)는 디바이스(1000)에 포함된 저장매체 또는 서버(200)로부터 사용자의 스케줄 정보를 획득한다.
단계 S4820에서 자율 주행 차량(100)은 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한다. 수신한 디바이스 측 정보(210)는 생방송 출연 스케줄 정보를 포함할 수 있다.
단계 S4830에서 자율 주행 차량(100)은 서버(200)에 생방송 출연 스케줄 장소인 방송국 관련 정보를 요청할 수 있다.
단계 S4840에서 서버(200)는 방송국의 위치 정보 및 현재 자율 주행 차량(100)의 위치로부터 방송국까지의 경로 정보를 획득할 수 있다.
단계 S4850에서 자율 주행 차량(100)은 서버(200)로부터 방송국 관련 정보를 수신한다. 방송국 관련 정보는 방송국의 위치 정보 및 현재 자율 주행 차량(100)의 위치로부터 방송국까지의 경로 정보를 포함할 수 있다.
단계 S4860에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득한다. 자율 주행 차량(100)은 기름 잔량에 대한 정보를 획득할 수 있다. 차량 측 정보(220)는 단계 S50에서 획득한 방송국 관련 정보를 포함할 수 있다. 방송국 관련 정보는 차량 통신 정보(232)에 포함될 수 있다. 또한 자율 주행 차량(100)은 현재 기름 잔량으로 방송국까지 주행이 가능한지 여부를 결정할 수 있다.
단계S4870에서 자율 주행 차량(100)은 단계 S4820에서 획득한 디바이스 측 정보(210) 및 단계 S4860에서 획득한 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 우선순위가 높은 생방송 스케줄 정보 및 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 차량 측 정보(220)는 충분한 기름 잔량을 나타내는 정보를 포함하는 경우, 자율 주행 차량(100)은 방송국을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가하기 위한 차량 제어 정보를 생성할 수 있다.
단계S4880에서 자율 주행 차량(100)은 단계 S4870에서 생성된 제어 정보에 따라 제어될 수 있다. 단계 S4870에서 생성된 제어 정보에 따라, 자율 주행 차량(100)은 방송국을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가할 수 있다.
도 49 내지 도 50은 일 실시 예에 따라 디바이스(1000)가 웨어러블 디바이스(1001)인 경우, 웨어러블 디바이스(1001)와 통신하는 자율 주행 차량(100)을 제어하는 방법 및 디바이스 측 정보(210)에 따라 제어되는 자율 주행 차량(100)을 설명한다.
도 49는 일 실시 예에 따른 자율 주행 차량(100)을 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S4901에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량이 웨어러블 디바이스(1001)과 통신 범위 내에 있는지 여부를 결정할 수 있다.
단계 S4902에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)가 통신 범위 내에 있는지 여부를 결정할 수 있다.
단계 S4903에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량(100)과 핸드셰이킹할 수 있다.
단계 S4904에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)과 핸드셰이킹 할 수 있다.
단계 S4905에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 웨어러블 디바이스 기능 데이터 베이스(1702)를 로드하여 자율 주행 차량(100)으로 송신할 수 있다.
단계 S4906에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)로부터 웨어러블 디바이스 기능 데이터 베이스(1702)를 수신한다.
단계 S4907에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 자율 주행 차량 기능 데이터 베이스(5382)를 로드한다.
단계 S4908에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 기능 매트릭스를 생성한다.
단계 S4909에서 자율 주행 차량(100)은 디스플레이(5372)를 이용하여 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능간에 연계하는 방법에 대한 사용자 입력을 요청하는 화면을 디스플레이한다.
사용자의 선택이 있는 경우(S4910), 단계 S4911에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 사용자 입력에 대한 정보를 자율 주행 차량(100)으로 전송한다.
단계 S4912에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)로부터 사용자 입력에 대한 정보를 수신한다.
단계 S4913에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 사용자 입력에 대한 정보를 기능 매트릭스와 비교를 수행한다.
단계 S4914에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 매칭이 되는지 여부를 결정한다. 자율 주행 차량(100)은 획득되는 디바이스 측 정보(210) 및 차량 측 정보(220)를 이용하여 매칭되는 기능이 있는지 여부를 결정할 수 있다.
사용자 입력이 자율 주행 차량(100)의 냉난방 기능과 웨어러블 디바이스(1001)의 체온 측정 기능을 연계할 것을 나타내는 경우, 자율 주행 차량(100)은 냉난방 기능을 실행할지 여부를 웨어러블 디바이스(1001)로부터 획득된 체온 정보에 기초하여 결정할 수 있다. 일례로, 체온이 소정 수치 이상인 경우 에어컨이 동작하도록 체온 측정 기능과 냉난방 기능이 매칭될 수 있다.
단계 S4915에서 자율 주행 차량(100)은 단계 S4914에서 매칭이 되는 기능이 자율 주행 차량(100)의 기능인 경우, 매칭되는 자율 주행 차량(100)의 기능을 활성화시킨다.
단계 S4916에서 자율 주행 차량(100)은 단계 S4914에서 매칭이 되는 기능이 자율 주행 차량(100)의 기능인 경우, 자율 주행 차량 소프트웨어(5381)를 이용하여 매칭되는 웨어러블 디바이스(1001)의 기능을 활성화시키기 위한 신호를 웨어러블 디바이스(1001)로 송신한다.
단계 S4917에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량(100)이 단계 S4916에서 송신한 신호를 수신한다.
단계 S4918에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 매칭되는 웨어러블 디바이스(1001)의 기능을 활성화시킨다.
도 50은 일 실시 예에 따른 자율 주행 차량(100)을 자율 주행 차량(100)과 페어링을 통해 통신하는 웨어러블 디바이스(1001)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S5010에서 통신부(1500), 센싱부(1400), 출력부(1200), 프로세서(1300), 전원 공급 장치(810) 및 메모리(1700) 등을 포함하는 웨어러블 디바이스(1001)가 제공된다. 메모리(1700)는 웨어러블 디바이스 소프트웨어(1701)와 웨어러블 디바이스 기능 데이터 베이스(1702)를 포함할 수 있다.
단계 S5020에서 통신 장치(110), 센서 장치(5200), 주행 장치(5100), 주변 장치(5300), 프로세서(120), 전원 공급 장치(5400) 및 메모리(5500) 등을 포함하는 자율 주행 차량(100)이 제공된다. 메모리(5500)는 자율 주행 차량 소프트웨어(5381) 및 자율 주행 차량 기능 데이터 베이스(5382)를 포함할 수 있다.
단계 S5030에서 웨어러블 디바이스(1001)는 웨어러블 셋팅을 위한 사용자 입력을 허용한다. 웨어러블 디바이스(1001)는 웨어러블 동작 시스템에 대한 셋팅을 사용자 입력에 기초하여 결정할 수 있다..
단계 S5040에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)와 자율 주행 차량(100)간의 페어링을 수행한다.
단계 S5050에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계한다. 예를 들면 기설정된 방식에 따라 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능이 연계될 수 있다.
단계 S5060에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능 간의 연계를 설정하여 줄 것을 요청하는 화면을 디스플레이한다.
단계 S5070에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 단계 S5060에서 디스플레이된 요청에 대응하는 사용자 입력을 수신한다.
단계 S5080에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 연계된 기능에 대한 데이터를 수신한다.
단계 S5090에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 연계된 기능을 단계 S5080에서 수신한 데이터를 이용하여 활성화시킨다.
상기 살펴 본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (35)

  1. 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 단계;
    상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하는 단계; 및
    상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 단계;
    를 포함하는 자율 주행 차량 제어 방법.
  2. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 스케줄 정보의 장소에 대응되는 주행 경로를 설정하는 자율 주행 차량 제어 방법.
  3. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행하여, 상기 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정하는 자율 주행 차량 제어 방법.
  4. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 생체 정보에 따라 상기 자율 주행 차량의 주행 경로 상에 경유지를 추가하는 자율 주행 차량 제어 방법.
  5. 제 4 항에 있어서,
    상기 자율 주행 차량의 차량 측 정보를 획득하는 단계를 더 포함하고,
    상기 경유지는 상기 생체 정보 및 상기 차량 측 정보에 따라 결정된 주행 가능 거리에 따라 결정되는 자율 주행 차량 제어 방법.
  6. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 제어하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량 제어 방법.
  7. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 내부 조명 기능을 실행하여, 상기 디바이스의 사용자의 행위를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 내부 밝기를 결정하는 자율 주행 차량 제어 방법.
  8. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 냉방, 난방 및 환기 장치 중 적어도 하나를 실행하여, 상기 사용자의 심신 상태를 나타내는 생체 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량 제어 방법.
  9. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 오디오/비디오 장치를 실행하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 결정된 컨텐츠를 재생하는 자율 주행 차량 제어 방법.
  10. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 네비게이션 기능을 제어하여, 상기 자율 주행 차량의 주행 경로를 우회 경로로 변경하는 자율 주행 차량 제어 방법.
  11. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 자율 주행 기능을 제어하여 자율 주행을 중지하는 자율 주행 차량 제어 방법.
  12. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 실행하여, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량 제어 방법.
  13. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 날씨 정보를 포함하는 경우, 상기 자율 주행 차량의 온도 조절 기능을 실행하여, 상기 날씨 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량 제어 방법.
  14. 제 1 항에 있어서,
    상기 수신하는 단계는
    상기 자율 주행 차량으로부터 소정 범위 내에 위치한 상기 디바이스에 통신을 요청하는 단계; 및
    상기 통신 요청에 대한 응답으로 상기 디바이스 측 정보를 수신하는 단계를 포함하는 자율 주행 차량 제어 방법.
  15. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 가이드 라인에 기초하여, 상기 자율 주행 차량이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 상기 수신된 디바이스 측 정보에 대응하여 설정하는 단계를 포함하는 자율 주행 차량 제어 방법.
  16. 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 통신 장치; 및
    상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하고, 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 프로세서;
    를 포함하는 자율 주행 차량.
  17. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 스케줄 정보의 장소에 대응되는 주행 경로를 설정하는 자율 주행 차량.
  18. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행하여, 상기 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정하는 자율 주행 차량.
  19. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 생체 정보에 따라 상기 자율 주행 차량의 주행 경로 상에 경유지를 추가하는 자율 주행 차량.
  20. 제 19 항에 있어서,
    상기 프로세서는
    상기 자율 주행 차량의 차량 측 정보를 획득하고,
    상기 경유지는 상기 생체 정보 및 상기 차량 측 정보에 따라 결정된 주행 가능 거리에 따라 결정되는 자율 주행 차량.
  21. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 제어하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량.
  22. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 내부 조명 기능을 실행하여, 상기 디바이스의 사용자의 행위를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 내부 밝기를 결정하는 자율 주행 차량.
  23. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 냉방, 난방 및 환기 장치 중 적어도 하나를 실행하여, 상기 사용자의 심신 상태를 나타내는 생체 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량.
  24. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 오디오/비디오 장치를 실행하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 결정된 컨텐츠를 재생하는 자율 주행 차량.
  25. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 네비게이션 기능을 제어하여, 상기 자율 주행 차량의 주행 경로를 우회 경로로 변경하는 자율 주행 차량.
  26. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 자율 주행 기능을 제어하여 자율 주행을 중지하는 자율 주행 차량.
  27. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 실행하여, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량.
  28. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 날씨 정보를 포함하는 경우, 상기 자율 주행 차량의 온도 조절 기능을 실행하여, 상기 날씨 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량.
  29. 제 16 항에 있어서,
    상기 통신 장치는
    상기 자율 주행 차량으로부터 소정 범위 내에 위치한 상기 디바이스에 통신을 요청하고,
    상기 통신 요청에 대한 응답으로 상기 디바이스 측 정보를 수신하는 자율 주행 차량.
  30. 제 16 항에 있어서,
    상기 프로세서는
    상기 가이드 라인에 기초하여, 상기 자율 주행 차량이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 상기 수신된 디바이스 측 정보에 대응하여 설정하는 자율 주행 차량.
  31. 제 1 항 내지 제 15 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적 기록매체.
  32. 차량과 통신하는 디바이스의 기능과 상기 차량의 기능 간 매핑 정보를 사용자에게 제공하는 단계;
    사용자로부터 상기 차량의 기능 중 제1 기능의 제어 조건을 입력 받는 단계; 및
    상기 디바이스로부터 수신되는 정보가 상기 제어 조건을 만족하는 경우, 상기 차량의 상기 제1 기능을 제어하는 단계를 포함하고,
    상기 제어 조건은 상기 매핑 정보에 따라서 상기 제1 기능에 대응되는 상기 디바이스의 제2 기능과 관련되는, 차량 기능 제어 방법.
  33. 제 32항에 있어서,
    상기 사용자로부터 상기 제어 조건에 따른 상기 제1 기능의 제어 방식을 입력 받는 단계를 더 포함하고,
    상기 제1 기능을 제어하는 단계는 상기 제어 방식에 따라 상기 제1 기능을 제어하는 단계를 포함하는, 차량 기능 제어 방법.
  34. 디바이스와 통신하는 차량의 기능과 상기 디바이스의 기능 간 매핑 정보를 사용자에게 제공하는 단계;
    상기 매핑 정보에 따라서 상기 디바이스의 기능 중 제2 기능에 대응되는 상기 차량의 제1 기능의 제어 조건을 사용자로부터 입력 받는 단계;
    상기 입력된 제어 조건을 상기 차량에게 전송하는 단계; 및
    상기 제2 기능이 실행됨에 따라서 생성되는 정보를 상기 차량에게 전송하는 단계를 포함하는, 차량 기능 제어 방법.
  35. 제 34항에 있어서,
    상기 사용자로부터 상기 제어 조건에 따른 상기 제1 기능의 제어 방식을 입력 받는 단계를 더 포함하고,
    상기 전송하는 단계는 상기 제어 조건과 함께 상기 제어 방식을 상기 차량에게 전송하는 단계를 포함하는, 차량 기능 제어 방법.
PCT/KR2016/008355 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법 WO2017018852A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16830885.6A EP3330827A4 (en) 2015-07-30 2016-07-29 AUTONOMOUS VEHICLE AND CONTROL PROCEDURE OF AN AUTONOMOUS VEHICLE
US15/744,489 US10962378B2 (en) 2015-07-30 2016-07-29 Autonomous vehicle and method of controlling the autonomous vehicle

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201562199184P 2015-07-30 2015-07-30
US62/199,184 2015-07-30
KR1020160054121A KR20170015114A (ko) 2015-07-30 2016-05-02 자율 주행 차량 및 자율 주행 차량 제어 방법
KR10-2016-0054121 2016-05-02
KR10-2016-0096766 2016-07-29
KR1020160096766A KR20170015240A (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법

Publications (1)

Publication Number Publication Date
WO2017018852A1 true WO2017018852A1 (ko) 2017-02-02

Family

ID=57884969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/008355 WO2017018852A1 (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법

Country Status (1)

Country Link
WO (1) WO2017018852A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190170522A1 (en) * 2017-12-01 2019-06-06 Honda Motor Co., Ltd. Vehicle, route calculation device, and route calculation method
WO2020091574A1 (ko) * 2018-11-02 2020-05-07 엘지전자 주식회사 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
US10688867B2 (en) 2018-05-22 2020-06-23 International Business Machines Corporation Vehicular medical assistant
US10921812B2 (en) 2018-05-22 2021-02-16 International Business Machines Corporation System and method for rendezvous coordination of an autonomous automotive vehicle with an ambulance
US10953888B2 (en) 2018-05-22 2021-03-23 International Business Machines Corporation Autonomous vehicle monitoring

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236993A (ja) * 2001-02-09 2002-08-23 Kddi Research & Development Laboratories Inc 走行制御システム
JP2008009913A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
KR20130015739A (ko) * 2011-08-04 2013-02-14 엘지전자 주식회사 운전자 상태 기반의 자율 이동 방법 및 그 장치
KR20130061901A (ko) * 2011-12-02 2013-06-12 현대자동차주식회사 운전자의 생체 신호를 이용한 가변형 운전자-차량 인터페이스 제공방법
KR20150016381A (ko) * 2012-06-01 2015-02-11 구글 인코포레이티드 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236993A (ja) * 2001-02-09 2002-08-23 Kddi Research & Development Laboratories Inc 走行制御システム
JP2008009913A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
KR20130015739A (ko) * 2011-08-04 2013-02-14 엘지전자 주식회사 운전자 상태 기반의 자율 이동 방법 및 그 장치
KR20130061901A (ko) * 2011-12-02 2013-06-12 현대자동차주식회사 운전자의 생체 신호를 이용한 가변형 운전자-차량 인터페이스 제공방법
KR20150016381A (ko) * 2012-06-01 2015-02-11 구글 인코포레이티드 대용 데이터에 기초하여 교통 신호의 상태 및 차량의 환경의 다른 양상들을 추론하기

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190170522A1 (en) * 2017-12-01 2019-06-06 Honda Motor Co., Ltd. Vehicle, route calculation device, and route calculation method
JP2019100836A (ja) * 2017-12-01 2019-06-24 本田技研工業株式会社 車両、経路算出装置及び経路算出方法
CN110021179A (zh) * 2017-12-01 2019-07-16 本田技研工业株式会社 车辆、路径计算装置和路径计算方法
US10845204B2 (en) * 2017-12-01 2020-11-24 Honda Motor Co., Ltd. Vehicle, route calculation device, and route calculation method
CN110021179B (zh) * 2017-12-01 2022-02-25 本田技研工业株式会社 车辆、路径计算装置和路径计算方法
US10688867B2 (en) 2018-05-22 2020-06-23 International Business Machines Corporation Vehicular medical assistant
US10921812B2 (en) 2018-05-22 2021-02-16 International Business Machines Corporation System and method for rendezvous coordination of an autonomous automotive vehicle with an ambulance
US10953888B2 (en) 2018-05-22 2021-03-23 International Business Machines Corporation Autonomous vehicle monitoring
WO2020091574A1 (ko) * 2018-11-02 2020-05-07 엘지전자 주식회사 무선 통신 시스템에서 무선 신호 송수신 방법 및 장치
CN113056887A (zh) * 2018-11-02 2021-06-29 Lg电子株式会社 用于在无线通信系统中发送或接收无线信号的方法和装置
CN113056887B (zh) * 2018-11-02 2023-06-23 Lg电子株式会社 用于在无线通信系统中发送或接收无线信号的方法和装置
US11997515B2 (en) 2018-11-02 2024-05-28 Lg Electronics Inc. Method and device for transmitting or receiving wireless signal in wireless communication system

Similar Documents

Publication Publication Date Title
WO2017018852A1 (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2018135804A1 (en) Vehicle and method of controlling a display therein
WO2017111234A1 (en) Method for electronic device to control object and electronic device
WO2020241922A1 (ko) 차량 제어 장치
WO2016093535A1 (ko) 차량 디스플레이 장치 및 이를 구비한 차량
WO2014171734A2 (ko) 이동 단말기 및 그 제어 방법
WO2020130219A1 (ko) 로봇의 제어 방법
WO2017014544A1 (ko) 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
WO2016017997A1 (en) Wearable glasses and method of providing content using the same
WO2018066746A1 (ko) 이동 단말기 및 그 제어방법
WO2017018842A1 (ko) 자율 주행 차량을 제어하는 장치 및 방법
WO2017022881A1 (ko) 차량 및 그 제어방법
WO2016195156A1 (ko) 이동 단말기 및 그 제어방법
WO2017200162A1 (ko) 차량 운전 보조 장치 및 차량
WO2016140391A1 (ko) 차량 제어 장치, 차량 운전 보조 장치, 이동 단말기 및 그 제어 방법
WO2017030240A1 (ko) 차량 보조 장치 및 차량
WO2018034370A1 (ko) 이동 단말기 및 그 제어방법
WO2017018850A1 (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
WO2017091042A1 (en) Electronic device and method for controlling a transport device thereof
WO2021006365A1 (ko) 차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스
WO2015156461A1 (ko) 이동 단말기 및 그 제어방법
WO2016093502A1 (ko) 차량 디스플레이 장치 및 이를 구비한 차량
WO2017115916A1 (ko) 차량 보조장치 및 이를 포함하는 차량
WO2019054719A1 (ko) 차량 운전 보조 장치 및 차량
WO2021029457A1 (ko) 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830885

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15744489

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016830885

Country of ref document: EP