KR20170015114A - 자율 주행 차량 및 자율 주행 차량 제어 방법 - Google Patents

자율 주행 차량 및 자율 주행 차량 제어 방법 Download PDF

Info

Publication number
KR20170015114A
KR20170015114A KR1020160054121A KR20160054121A KR20170015114A KR 20170015114 A KR20170015114 A KR 20170015114A KR 1020160054121 A KR1020160054121 A KR 1020160054121A KR 20160054121 A KR20160054121 A KR 20160054121A KR 20170015114 A KR20170015114 A KR 20170015114A
Authority
KR
South Korea
Prior art keywords
autonomous vehicle
information
vehicle
autonomous
function
Prior art date
Application number
KR1020160054121A
Other languages
English (en)
Inventor
존 크로닌
딜런 윌슨
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP16830885.6A priority Critical patent/EP3330827A4/en
Priority to PCT/KR2016/008355 priority patent/WO2017018852A1/ko
Priority to KR1020160096766A priority patent/KR20170015240A/ko
Priority to US15/744,489 priority patent/US10962378B2/en
Publication of KR20170015114A publication Critical patent/KR20170015114A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00357Air-conditioning arrangements specially adapted for particular vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • B60H1/00742Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by detection of the vehicle occupants' presence; by detection of conditions relating to the body of occupants, e.g. using radiant heat detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/80Circuits; Control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • H04M1/6075Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle
    • H04M1/6083Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system
    • H04M1/6091Portable telephones adapted for handsfree use adapted for handsfree use in a vehicle by interfacing with the vehicle audio system including a wireless interface
    • H05B37/0227
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/045Occupant permissions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0453Sensor means for detecting worn on the body to detect health condition by physiological monitoring, e.g. electrocardiogram, temperature, breathing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72451User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to schedules, e.g. using calendar applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location

Abstract

사용자의 디바이스로부터 획득되는 정보인 디바이스 측 정보를 이용하여 사용자에게 적응적인 자율 주행을 구현하는 자율 주행 방법 및 자율 주행 차량을 개시한다. 특히 웨어러블 디바이스로부터 획득한 디바이스 측 정보에 대응되는 자율 주행 차량의 기능을 제어함으로써, 사용자의 상황에 적합한 자율 주행을 구현하는 자율 주행 방법 및 자율 주행 차량이 개시된다.

Description

자율 주행 차량 및 자율 주행 차량 제어 방법{Autonomous vehicle and method for controlling the autonomous vehicle}
본 개시는 자율 주행 차량 및 자율 주행 제어 방법에 관한 것이다.
최근 자율 주행 차량에 대한 관심이 높아지고 있다. 특히 자동차 수요증가에 따른 교통혼잡을 해소함과 아울러 사람이나 다른 차량 등의 장애물을 안전하게 회피하기 위해, 자율 주행과 관련된 다양한 부가 기능이 지속적으로 개발되고 있다. 예를 들면, 차선 유지 시스템과 관련된 수 많은 알고리즘이 존재한다.
또한 인터넷 연결성이 확대되면서, 각종 디바이스나 자동차로부터 생성되는 데이터 양이 급증하고 있어 이를 이용한 다양한 서비스가 등장하고 있다.
따라서 각종 데이터를 이용하여 사용자에게 친숙한 자율 주행 경험을 제공할 수 있는 방법 및 자율 주행 차량이 요구되고 있다.
디바이스와 통신하는 자율 주행 차량을 제어하는 방법 및 디바이스와 통신하는 자율 주행 차량을 개시한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면은, 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 단계, 상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하는 단계 및 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 단계를 포함하는 자율 주행 차량 제어 방법을 제공할 수 있다.
또한, 다른 측면은, 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 통신 장치 및 상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하고, 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 프로세서를 포함하는 자율 주행 차량을 제공할 수 있다.
또한, 또 다른 측면은, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 판독 가능한 비일시적 기록 매체를 더 제공할 수 있다.
도 1a는 일 실시 예에 따른 자율 주행 차량이 디바이스와 통신을 통해 제어되는 일례를 도시한 도면이다.
도 1b는 일 실시 예에 따른 자율 주행 차량의 구성의 일례를 나타내는 블록도이다.
도 2는 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 정보의 일례를 도시한 도면이다.
도 3은 일 실시 예에 따른 자율 주행 차량을 디바이스 측 정보를 이용하여 제어하는 방법의 흐름도이다.
도 4는 일 실시 예에 따른 자율 주행 차량을 디바이스 측 정보 및 차량 측 정보를 이용하여 제어하는 방법의 흐름도이다.
도 5는 일 실시 예에 따른 자율 주행 차량이 가질 수 있는 기능들을 실행하는 장치를 설명하기 위한 블록도이다.
도 6 및 도 7은 일 실시 예에 따른 디바이스의 블록도이다.
도 8은 일 실시 예에 따른 자율 주행 차량 및 자율 주행 차량과 통신하는 웨어러블 디바이스를 나타내는 블록도이다.
도 9는 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 차량 소프트웨어를 나타내는 블록도이다.
도 10은 일 실시 예에 따른 자율 주행 차량과 디바이스간의 통신을 통한 자율 주행 차량의 제어 방법을 나타내는 흐름도이다.
도 11은 일 실시 예에 따른 자율 주행 차량을 기능 매트릭스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 12는 일 실시 예에 따른 자율 주행 차량을 수신한 데이터에 매칭되는 기능에 따라서 제어하는 방법을 나타내는 흐름도이다.
도 13은 일 실시 예에 따른 자율 주행 차량의 제어에 이용되는 웨어러블 디바이스 소프트웨어를 나타내는 블록도이다.
도 14는 일 실시 예에 따른 자율 주행 차량을 통신 범위 내에 있는 웨어러블 디바이스와 통신하여 제어하는 방법을 나타내는 흐름도이다.
도 15는 일 실시 예에 따른 자율 주행 차량과 통신하는 웨어러블 디바이스를 제어하는 방법을 나타내는 흐름도이다.
도 16은 일 실시 예에 따른 자율 주행 차량 및 웨어러블 디바이스가 포함하는 데이터 베이스를 나타내는 도면이다.
도 17a 내지 17c는 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능을 연계하는 가이드 라인을 설정하는 화면을 나타낸 도면이다.
도 18은 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신하는 일례를 나타내는 도면이다.
도 19는 일 실시 예에 따른 자율 주행 차량의 주행 관련 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 20은 일 실시 예에 따른 자율 주행 차량의 주변 장치 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 21은 일 실시 예에 따른 자율 주행 차량의 센서 관련 기능과 디바이스의 기능간의 상호 관계를 나타내는 도면이다.
도 22는 일 실시 예에 따른 자율 주행 차량을 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 23은 일 실시 예에 따른 자율 주행 차량을 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 24는 일 실시 예에 따른 자율 주행 차량을 생체 정보 및 차량 측 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 25는 일 실시 예에 따른 자율 주행 차량을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 26은 일 실시 예에 따른 자율 주행 차량을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 27은 일 실시 예에 따른 자율 주행 차량의 오디오/비디오 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 28은 일 실시 예에 따른 자율 주행 차량의 주변 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 29는 일 실시 예에 따른 자율 주행 차량을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 30은 일 실시 예에 따른 자율 주행 차량을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 31은 일 실시 예에 따른 자율 주행 차량을 스케줄 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 32는 일 실시 예에 따른 자율 주행 차량의 주행 경로를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 33은 일 실시 예에 따른 자율 주행 차량의 주행 속도를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 34는 일 실시 예에 따른 자율 주행 차량의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 35는 일 실시 예에 따른 자율 주행 차량의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 36은 일 실시 예에 따른 자율 주행 차량의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 37은 일 실시 예에 따른 자율 주행 차량의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 38은 일 실시 예에 따른 자율 주행 차량을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 39는 일 실시 예에 따른 자율 주행 차량을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 40은 일 실시 예에 따른 자율 주행 차량을 날씨 정보에 따라 제어하는 일례를 나타내는 도면이다.
도 41은 일 실시 예에 따른 자율 주행 차량을 날씨 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
도 42는 일 실시 예에 따른 자율 주행 차량을 서버로부터 획득한 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 43은 일 실시 예에 따른 자율 주행 차량을 서버로부터 획득한 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 44는 일 실시 예에 따른 자율 주행 차량을 복수의 디바이스로부터 획득되는 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
도 45는 일 실시 예에 따른 자율 주행 차량을 문의 화면을 디스플레이함에 따라 제어하는 일례를 나타내는 도면이다.
도 46은 일 실시 예에 따른 자율 주행 차량을 문의 화면을 디스플레이함에 따라 제어하는 방법을 나타내는 흐름도이다.
도 47은 일 실시 예에 따른 자율 주행 차량의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
도 48은 일 실시 예에 따른 자율 주행 차량의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 방법을 나타내는 흐름도이다.
도 49는 일 실시 예에 따른 자율 주행 차량을 자율 주행 차량과 통신하는 웨어러블 디바이스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
도 50은 일 실시 예에 따른 자율 주행 차량을 자율 주행 차량과 페어링을 통해 통신하는 웨어러블 디바이스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시 예를 상세히 설명하기로 한다. 하기 실시 예는 기술적 내용을 구체화하기 위한 것일 뿐 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시 예로부터 해당 기술분야의 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.
본 명세서에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다.
본 실시 예들은 렌더링 방법 및 장치에 관한 것으로서 이하의 실시 예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.
도 1a는 일 실시 예에 따른 자율 주행 차량(100)이 디바이스(1000)와 통신을 통해 제어되는 일례를 도시한 도면이다.
도 1a를 참고하면, 자율 주행 차량(100)은 디바이스(1000)와 통신 연결을 수행할 수 있다. 예를 들어, 자율 주행 차량(100)은, 디바이스(1000)와 근거리 통신 링크를 형성할 수도 있고, 이동 통신 링크(예컨대, 3G, 4G, 5G 등)를 형성할 수도 있다. 근거리 통신에는 블루투스, BLE (Bluetooth Low Energy), 와이파이, UWB(ultra wideband), Zigbee, NFC(Near Field Communication unit), Ant+ 등이 있을 수 있고, 이에 한정되는 것은 아니다.
본 실시 예들에서 설명되는 디바이스(1000)는 스마트폰, 태블릿 디바이스, PDA(personal digital assistant) 등과 같은 이동통신 기능을 갖는 휴대용 모바일 디바이스들, 웨어러블 디바이스, 또는 랩탑(laptop) 등에 해당될 수 있으나, 이에 제한되지 않는다. 예를 들어, 디바이스(1000)가 웨어러블 디바이스에 해당되는 경우 디바이스(1000)는 자율 주행 차량(100)에 탑승한 사용자의 신체에 착용된 스마트 밴드, 스마트 워치, 스마트 글래스 등일 수 있다.
자율 주행 차량(100)은 자율 주행 차량(100)과 디바이스(1000)간의 거리에 기초하여 통신을 수행할 수 있다. 이때, 자율 주행 차량(100)은 자율 주행 차량(100)으로부터 소정 범위 내에 위치한 디바이스(1000)에 통신을 요청할 수 있다. 또한, 자율 주행 차량(100)은 통신 요청에 대한 응답으로 디바이스 측 정보를 수신할 수 있다.
자율 주행 차량(100)은 디바이스(1000)가 자율 주행 차량으로부터 소정 범위 내에 있는지 여부를 결정할 수 있다. 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 범위 내에 있다고 결정된 경우, 자율 주행 차량(100)은 디바이스(1000)에 통신을 요청하고, 통신 요청에 대한 응답으로 디바이스 측 정보를 수신할 수 있다.
디바이스(1000)는 여러 방식으로 디바이스 측 정보를 획득할 수 있다. 예를 들면, 디바이스(1000)는 디바이스(1000)에 포함된 센서를 이용하여 센싱 정보를 획득할 수 있고, 통신을 통해서 디바이스(1000)의 외부로부터 데이터를 수신하여 통신 정보를 획득할 수 있고, 또는 디바이스(1000) 내의 저장 매체에 저장된 데이터를 이용하여 새로운 데이터를 생성할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보를 수신할 수 있다. 디바이스 측 정보는 앞서 설명된 바와 같이, 디바이스(1000)가 획득하는 정보를 의미할 수 있으며, 자세한 디바이스 측 정보의 의미에 대해서는 도 2에서 후술한다.
자율 주행 차량(100)은 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 또한, 자율 주행 차량(100)은 디바이스(1000)로부터 수신한 디바이스 측 정보를 이용하여 차량 제어 정보를 결정할 수 있다.
차량 제어 정보에 따라 자율 주행 차량(100)이 제어될 수 있다. 예를 들면, 차량 제어 정보가 A목적지로 주행할 것을 나타내는 경우, 자율 주행 차량(100)은 차량 제어 정보에 따라 A목적지로 자율 주행하도록 제어될 수 있다.
도 1b는 일 실시 예에 따른 자율 주행 차량(100)의 구성의 일례를 나타내는 블록도이다.
도 1b에 도시된 바와 같이, 자율 주행 차량(100)은 통신 장치(110) 및 프로세서(120)를 포함할 수 있다. 그러나, 도 1b에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 자율 주행 차량(100)에 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
통신 장치(110)는 자율 주행 차량(100)의 외부와 통신을 수행할 수 있다. 예를 들면, 통신 장치(110)는 디바이스(1000)와 통신할 수 있다.
프로세서(120)는 자율 주행 차량(100)을 제어할 수 있다. 예를 들면, 프로세서(120)는 차량 제어 정보를 획득하고, 획득된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다.
이하에서는, 본 실시 예에 따른 자율 주행 차량(100)의 제어 방법 및 자율 주행 차량(100)에 대해 상세하게 설명하도록 한다.
도 2는 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 정보의 일례를 도시한 도면이다.
디바이스 측 정보(210)는 디바이스(1000)가 획득하는 정보를 의미할 수 있다. 예를 들면, 디바이스 측 정보(210)는 디바이스(1000)가 통신을 통해 획득하는 정보인 디바이스 통신 정보(231), 디바이스(1000)에 포함된 센서에 의해 센싱되는 정보인 디바이스 센싱 정보(241), 디바이스(1000)의 저장 매체에 저장된 정보인 디바이스 저장 정보(251) 및 디바이스(1000)가 생성한 정보인 디바이스 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다.
디바이스 통신 정보(231)는 디바이스(1000)가 서버로부터 통신을 통해 획득하는 정보를 포함할 수 있다. 예를 들면, 디바이스 통신 정보(231)는 디바이스(1000)가 서버로부터 통신을 통해 획득하는 날씨 정보, 스케줄 정보, 주행 환경 정보(예: 도로 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주의 구간 정보 등), 시설 정보(주유소 정보, 차량 정비소 정보, 주차 정보 등), 뉴스 정보(예: 주변 공연 정보 등) 등을할 수 있고, 이에 한정되는 것은 아니다. 각 정보의 의미는 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
디바이스 센싱 정보(241)는 디바이스(1000)에 포함된 적어도 하나의 센서로부터 획득되는 정보를 포함할 수 있다. 디바이스(1000)는 하나 이상의 센서를 포함할 수 있다. 예를 들면, 디바이스(1000)는 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS 센서, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
디바이스 저장 정보(251)는 디바이스(1000)에 포함된 저장 매체에 기저장된 정보 또는 디바이스(1000)의 외부로부터 수신되어 디바이스(1000)에 포함된 저장 매체에 저장된 정보 중 적어도 하나를 포함할 수 있다. 디바이스 생성 정보는 디바이스 통신 정보(231), 디바이스 센싱 정보(241) 및 디바이스 저장 정보(251) 중 적어도 하나를 이용하여 디바이스(1000)가 생성한 정보를 의미할 수 있다. 예를 들면, 디바이스 생성 정보는 디바이스 저장 정보(251)와 디바이스 센싱 정보(241)를 연산하여 획득한 정보를 포함할 수 있다. 예를 들면, 디바이스 생성 정보는 디바이스 저장 정보(251)인 지도 정보와, 디바이스 센싱 정보(241)인 생체 정보를 이용하여 결정된 경유지 정보를 포함할 수 있다.
차량 측 정보(220)는 자율 주행 차량(100)이 획득하는 정보를 의미할 수 있다. 예를 들면, 차량 측 정보는 자율 주행 차량(100)이 통신을 통해 획득하는 정보인 차량 통신 정보(232), 자율 주행 차량(100)에 포함된 센서에 의해 센싱되는 정보인 차량 센싱 정보(242), 자율 주행 차량(100)의 저장 매체에 저장된 정보인 차량 저장 정보(252) 및 자율 주행 차량(100)이 생성한 정보인 차량 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다.
차량 통신 정보(232)는 자율 주행 차량(100)이 서버로부터 통신을 통해 획득하는 정보를 포함할 수 있다. 예를 들면, 차량 통신 정보(232)는 자율 주행 차량(100)이 서버로부터 통신을 통해 획득하는 날씨 정보, 스케줄 정보, 주행 환경 정보(예: 도로 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주의 구간 정보 등), 시설 정보(주유소 정보, 차량 정비소 정보, 주차 정보 등), 뉴스 정보(예: 주변 공연 정보 등) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 정보들의 의미는 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
차량 센싱 정보(242)는 자율 주행 차량(100)에 포함된 적어도 하나의 센서로부터 획득되는 정보를 포함할 수 있다. 자율 주행 차량(100)은 하나 이상의 센서를 포함할 수 있다. 예를 들면, 자율 주행 차량(100)은 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서 및 차량 센서(예: 흡입 공기량 센서(air flow sensor), 흡기 온도 센서(air temperature sensor), 대기압 센서(barometric pressure sensor), 수온 센서(water temperature sensor), 스로틀 포지션 센서(throttle position sensor), 모터 포지션 센서(motor position sensor), 산소 센서(oxygen sonsor), 노크 센서(knock sensor), 오일 센서, 연료 센서, 타이어 센서, 브레이크 센서, 속도 센서, 외부 온도 감지 센서, 외부 조도 감지 센서, 주변 인지 센서 등) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 차량 센서는 차량의 내부 또는 외부의 환경을 감지하거나 운전자의 행동을 검출하는 차량 장치를 포함할 수 있다.
차량 저장 정보(252)는 자율 주행 차량(100)에 포함된 저장 매체에 기저장된 정보 및/또는 자율 주행 차량(100)의 외부로부터 수신되어 차량(100)에 포함된 저장 매체에 저장된 정보를 포함할 수 있다.
차량 생성 정보는 차량 통신 정보(232), 차량 센싱 정보(242) 및 차량 저장 정보(252) 중 적어도 하나를 이용하여 자율 주행 차량(100)이 생성한 정보를 의미할 수 있다. 예를 들면, 차량 생성 정보는 차량 저장 정보(252)와 차량 센싱 정보(242)를 연산하여 획득한 정보를 포함할 수 있다. 예를 들면, 차량 생성 정보는 차량 센싱 정보(242)인 차량 내부 온도 정보와, 차량 센싱 정보(242)인 차량 외부 온도 정보를 이용하여 결정된 설정 온도 정보를 포함할 수 있다.
통신 정보(230)는 디바이스 통신 정보(231) 및 차량 통신 정보(232) 중 적어도 하나를 포함할 수 있고, 센싱 정보(240)는 디바이스 센싱 정보(241) 및 차량 센싱 정보(242) 중 적어도 하나를 포함할 수 있고, 저장 정보(250)는 디바이스 저장 정보(251) 및 차량 저장 정보(252) 중 적어도 하나를 포함할 수 있다.
도 3은 일 실시 예에 따른 자율 주행 차량(100)을 디바이스 측 정보(210)를 이용하여 제어하는 방법의 흐름도이다.
단계 S310에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 수신할 수 있다.
디바이스 측 정보(210)는 디바이스에서 획득할 수 있는 정보를 의미한다. 예를 들면, 디바이스 측 정보(210)는 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보(미도시) 중 적어도 하나를 포함할 수 있다. 즉, 디바이스 측 정보(210)는 생체 정보, 스케줄 정보, 주변 상황 정보, 날씨 정보 등을 포함할 수 있다.
단계 S320에서 자율 주행 차량(100)은 디바이스(1000)에서 획득할 수 있는 디바이스 측 정보(210)와 자율 주행 차량(100)의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 수신된 디바이스 측 정보(210)에 대응되는 차량 제어 정보를 결정할 수 있다.
가이드 라인은 디바이스 측 정보(210) 및/또는 차량 측 정보와 차량 제어 정보가 연계된 일종의 상황 대응 매뉴얼을 의미할 수 있다. 또한, 가이드 라인에 따라 위급 상황을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210)는 병원을 경유지로 추가하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보와 연계될 수 있다. 기능 매트릭스에 포함된 가이드 라인에 따라서 디바이스 측 정보(210)에 포함되는 스케줄 정보에 대응되는 네비게이션 기능이 결정될 수 있다.
가이드 라인은 자율 주행 차량(100)의 출고시에 설정되거나, 사용자의 입력에 기초하여 설정될 수 있다. 또한, 출고시에 설정된 가이드 라인은 사용자의 입력에 기초하여 갱신될 수 있다.
기능 매트릭스는 하나 이상의 가이드라인에 따라 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 연계된 상호 관계를 나타낼 수 있다.
차량 제어 정보는 자율 주행 차량(100)의 적어도 하나의 기능의 제어에 이용되는 정보를 의미할 수 있다. 예를 들면, 차량 제어 정보에 따라서, 자율 주행 차량(100) 내에 포함된 네비게이션, 엑셀러레이터, 브레이크, 핸들, 냉방 장치, 난방 장치, 창문, 환기 장치, 오디오/비디오 장치, 방향 지시등, 내부 조명, 외부 조명, 주행 장치 등이 제어될 수 있으나 이에 한정되는 것은 아니다. 다른 예로, 차량 제어 정보는 엔진에 흡입되는 공기량을 제어하기 위한 엑셀러레티어의 제어 정보, 네비게이션의 경유지를 추가하기 위한 제어 정보, 네비게이션의 경로 설정을 위한 제어 정보 및 차량 내부 온도를 제어하기 위한 냉방 장치, 난방 장치, 환기 장치 등을 제어하기 위한 제어 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른, 자율 주행 차량(100)은 가이드 라인에 기초하여, 자율 주행 차량(100)이 가지는 복수의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 수신된 디바이스 측 정보(210)에 대응하여 설정할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 체온에 대한 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 환기 장치 등의 제어 파라미터를 결정할 수 있다. 또한, 자율 주행 차량(100)은 사용자의 스케줄에 대한 장소 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 네비게이션의 주행 경로를 결정할 수 있다. 나아가서, 자율 주행 차량(100)은 차량 내부 온도에 대한 정보를 포함하는 디바이스 정보에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치의 설정 온도를 결정할 수 있다.
자율 주행 차량이 가이드 라인에 기초하여 차량 제어 정보를 결정하는 구체적인 예들은 도 17a 내지 도 54에서 후술한다.
단계 S330에서 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 제어될 수 있다. 프로세서(120)는 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다.
예를 들어, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로 및/또는 주행 평균 속도를 설정할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 내부 밝기, 설정 온도, 재생 컨텐츠, 운전 모드 등을 결정할 수 있다. 또한, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행 차량의 주행 경로를 우회 경로로 변경할 수 있다. 나아가서, 자율 주행 차량(100)은 단계 S320에서 결정된 차량 제어 정보에 따라 자율 주행을 중지할 수 있다.
본 실시 예들에서, 운전 모드는 차량의 주변 상황 또는 차량 탑승자의 상황에 따라 차량이 제어되는 상태를 의미할 수 있다. 예를 들면, 운전 모드는 통상적인 주행에 적합한 주행 방식에 따라 차량이 제어되는 상태인 표준 모드, 친환경 경제 운전에 적합한 주행 방식에 따라 차량이 제어되는 상태인 에코 모드, 스포티한 주행 방식에 따라 차량이 제어되는 상태인 스포츠 모드, 미끄러운 노면에 적합한 주행 방식에 따라 차량이 제어되는 상태인 미끄럼 방지 모드, 탑승자의 수면 중일 때 적합하도록 차량이 제어되는 수면 모드, 탑승자가 독서 중일 때 적합하도록 차량이 제어되는 독서 모드, 위급 사태 발생 등의 경우에 적합하도록 차량이 제어되는 긴급 모드, 특수 상황 등에 따라 기설정된 속도 이하의 저속 주행으로 주행하도록 차량이 제어되는 상태인 서행 모드, 차량 주변 및/또는 차량 탑승자의 안전에 중점을 둔 차량 제어 상태인 안전 모드, 목적지까지 빠른 도착에 적합한 주행 방식에 따라 차량이 제어되는 상태인 스피드 모드 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 모드의 의미는 그 명칭 및 상술한 설명으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
차량 제어 정보에 따라 자율 주행 차량이 제어되는 구체적인 예들은 도 17a 내지 도 55에서 후술한다.
도 4는 일 실시 예에 따른 자율 주행 차량(100)을 디바이스 측 정보(210) 및 차량 측 정보(220)를 이용하여 제어하는 방법의 흐름도이다.
단계 S410에서 자율 주행 차량(100)은 디바이스(1000)에 통신을 요청한다. 단계 S410은 선택적으로 수행될 수 있다.
자율 주행 차량(100)은 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 거리 내에 위치하는지 여부를 결정하고, 디바이스(1000)가 자율 주행 차량(100)으로부터 소정 거리 내에 위치하는 경우, 통신을 요청할 수 있다. 자율 주행 차량(100)의 통신 요청에 따라 자율 주행 차량(100)과 디바이스(1000)간의 통신 링크가 형성될 수 있다. 예를 들어, 자율 주행 차량(100)은, 디바이스(1000)와 근거리 통신 링크를 형성할 수도 있고, 이동 통신 링크(예컨대, 3G, 4G, 5G 등)를 형성할 수도 있다.
단계 S420에서 자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 수신할 수 있다.
자율 주행 차량(100)은 단계 S410에서 형성된 통신 링크를 통해서 디바이스(1000)로부터 디바이스 측 정보(210)를 수신할 수 있다. 디바이스(1000)는 자율 주행 차량(100)의 통신 요청에 대응하여 디바이스 측 정보(210)를 자율 주행 차량(100)으로 전송할 수 있다.
한편, 단계 S410이 생략되는 경우, 디바이스(1000)는 자율 주행 차량(100)으로부터의 통신 요청 없이, 자율 주행 차량(100)으로 디바이스 측 정보(210)를 전송할 수 있다. 즉, 디바이스(1000)는 자율 주행 차량(100)으로부터의 통신 요청 없이, 자율 주행 차량(100)을 인식하고, 자율 주행 차량으로 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 전송할 수 있다.
단계 S430에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득할 수 있다. 단계 S430은 선택적으로 수행될 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242), 차량 저장 정보(252) 및 차량 생성 정보(미도시) 중 적어도 하나를 획득할 수 있다.
예를 들면, 자율 주행 차량(100)은 서버와 통신을 통해서 빙판 주의 구간 정보, 급경사 주의 구간 정보, 급코너 주의 구간 정보, 정체 상황 정보, 날씨 정보, 스케줄 정보, 주변 상황 정보, 주변 지역 정보, 지도 정보, 지형 정보, 교통 사고 정보, 단속 정보, 주유소 정보, 차량 정비소 정보, 주차 정보, 뉴스 정보, 주변 공연 정보 등을 수신할 수 있고, 이에 한정되는 것은 아니다.
자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 맥박 센서, 혈압 센서, 혈당 센서, 호흡수 센서, 혈중 알코올 농도 센서, GPS, 카메라, 관성 센서, 가속도 센서, 지자기 센서, 온도 센서, 습도 센서, 자이로스코프 센서, 기압 센서, 근접 센서, 적외선 센서, 마이크, 음성 인식 센서, 동공 인식 센서, 생체 서명 센서, 상태 인식 센서, 피로도 인식 센서, 진동 센서, 차량 센서(예: 공기 유량 센서, 흡기 온도 센서, 대기압 센서, 수온 센서, 스로틀 위치 센서, 모터 포지션 센서, 오일 센서, 연료 센서, 타이어 센서, 브레이크 센서, 속도 센서, 외부 온도 감지 센서, 외부 조도 감지 센서, 주변 인지 센서) 등으로부터 센싱된 정보를 획득할 수 있으나 이에 한정되는 것은 아니다.
자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 저장 매체에 기저장된 정보 및/또는 차량(100)의 외부로부터 수신되어 차량(100)에 포함된 저장 매체에 저장된 정보를 획득할 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242) 및 차량 저장 정보(252) 중 적어도 하나를 이용하여 차량 생성 정보를 생성하여 획득할 수 있다.
단계 S440에서 자율 주행 차량(100)은 차량 제어 정보를 결정할 수 있다. 자율 주행 차량(100)은 가이드 라인에 기초하여, 수신된 디바이스 측 정보(210) 및/또는 획득된 차량 측 정보(220)에 대응되는 차량 제어 정보를 결정할 수 있다.
가이드 라인은 디바이스 측 정보(210) 및/또는 차량 측 정보(220)와 차량 제어 정보가 연계된 일종의 상황 대응 매뉴얼을 의미할 수 있다. 또한, 가이드 라인에 따라 수면 중임을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210) 및 기름 잔량 정보를 포함하는 차량 측 정보(220)는 주유소를 경유지로 추가하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보로 연계될 수 있다.
자율 주행 차량(100)은 가이드 라인에 기초하여, 자율 주행 차량(100)이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 수신된 디바이스 측 정보(210)에 대응하여 설정할 수 있다.
예를 들면, 자율 주행 차량(100)은 사용자의 체온에 대한 정보를 포함하는 디바이스 정보 및 차량 외부 온도에 대한 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 환기 장치 등의 제어 파라미터를 결정할 수 있다. 만약, 차량 외부 공기가 선선하고 사용자가 더운 경우, 자율 주행 차량(100)은 창문을 열도록 자율 주행 차량(100)을 제어하는 차량 제어 정보를 획득할 수 있다. 하지만, 차량 외부 공기가 뜨겁고 사용자가 더운 경우, 자율 주행 차량(100)은 에어컨이 작동하도록 자율 주행 차량(100)을 제어하는 차량 제어 정보를 획득할 수 있다.
자율 주행 차량(100)은 사용자가 독서 중임을 나타내는 생체 신호를 포함하는 디바이스 측 정보(210) 및 차량 외부 조도 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 내부 조명의 제어 파라미터를 결정할 수 있다.
자율 주행 차량(100)은 사용자의 스케줄 시간을 나타내는 스케줄 정보를 포함하는 디바이스 측 정보(210) 및 타이어의 공기압에 대한 정보를 포함하는 차량 측 정보(220)에 대응하도록 자율 주행 차량(100)에 포함된 주행 장치의 제어 파라미터를 결정하여 평균 주행 속도를 설정할 수 있다.
단계 S450에서 자율 주행 차량(100) 단계 S440에서 결정된 차량 제어 정보에 따라 제어될 수 있다. 예를 들면, 프로세서(120)는 단계 S440에서 결정된 차량 제어 정보에 따라 자율 주행 차량(100)을 제어할 수 있다. 본 단계는 상술된 단계 S330을 참조할 수 있다.
도 5는 일 실시 예에 따른 자율 주행 차량(100)이 가질 수 있는 기능들을 실행하는 장치를 설명하기 위한 블록도이다.
자율 주행 차량(100)은, 전원 공급 장치(5400), 주행 장치(5100), 센서 장치(5200), 주변 장치(5300), 프로세서(120) 및 메모리(5500)를 포함할 수 있다. 도 5에 도시된 자율 주행 차량(100)은 본 실시 예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 5에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
주행 장치(5100)는 브레이크(5111), 엑셀러레이터(5112), 스티어링(5113), 네비게이션(5130), 에너지원(5140), 엔진/모터(5160), 변속기(5170), 휠(5180), 및 타이어(5190)를 포함할 수 있다.
브레이크(5111)는 자율 주행 차량(100)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크(5111)은 휠(5180) 및/또는 타이어(5190)의 속도를 줄이기 위해 마찰을 사용할 수 있다.
엑셀러레이터(5112)는 엔진/모터(5160)의 동작 속도를 제어하여, 자율 주행 차량(100)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 엑셀러레이터(5112)는 스로틀 개방량을 조절하여 엔진/모터(5160)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
스티어링(5113)은 자율 주행 차량(100)의 방향 조절에 이용되는 장치일 수 있다.
네비게이션(5130)은 자율 주행 차량(100)에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션(5130)은 자율 주행 차량(100)이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 일 실시 예에 따라, 네비게이션(5130)은 자율 주행 차량(100)에 대한 운행 경로를 결정하기 위해, GPS(5210) 및 지도들로부터의 데이터를 이용할 수 있다.
에너지원(5140)은 엔진/모터(5160)에 전체적으로 또는 부분적으로 동력을 제공하는 에너지의 공급원일 수 있다. 즉, 엔진/모터(5160)는 에너지원(5140)을 기계 에너지로 변환하도록 구성될 수 있다. 에너지원(5140)의 예로는 가솔린, 디젤, 프로판, 다른 압축 가스 기반 연료들, 에탄올, 태양광 패널(solar panel), 배터리, 다른 전기 전력원들 등이 될 수 있다. 다른 실시 예에 따라, 에너지원(5140)은 연로 탱크, 배터리, 커패시터, 플라이휠(flywheel) 등이 될 수 있다. 일 실시 예에 따라, 에너지원(5140)은 자율 주행 차량(100)의 시스템 및 장치에 에너지를 제공할 수 있다.
엔진/모터(5160)는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 다른 실시 예에 따라, 자율 주행 차량(100)이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터(5160)는 가솔린 엔진 및 전기 모터가 될 수 있다.
변속기(5170)는 기계적 동력을 엔진/모터(5160)로부터 휠(5180) 및/또는 타이어(5190)에 전달하도록 구성될 수 있다. 일 실시 예에 따라, 변속기(5170)는 기어박스, 클러치, 차동 장치(differential), 구동축 등을 포함할 수 있다. 변속기(5170)가 구동축들을 포함하는 실시 예에서, 구동축들은 휠(5180) 및/또는 타이어(5190)에 결합되도록 구성되는 하나 이상의 차축들을 포함할 수 있다.
휠(5180) 및/또는 타이어(5190)는 외발 자전거, 자전거/오토바이, 삼륜차, 또는 자동차/트럭의 사륜 형식을 포함한 다양한 형식들로 구성될 수 있다. 예를 들어, 6개 이상의 휠을 포함하는 것과 같은 다른 휠/타이어 형식이 가능할 수 있다. 휠(5180) 및/또는 타이어(5190)는 변속기(5170)에 고정되게 부착되어 있는 적어도 하나의 휠, 및 구동면(driving surface)과 접촉할 수 있는 휠의 림(rim)에 결합되어 있는 적어도 하나의 타이어를 포함할 수 있다.
센서 장치(5200)는 자율 주행 차량(100)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 뿐만 아니라 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 센서 장치(5200)는 GPS(Global Positioning System)(5210), 카메라(5220), 관성 센서(5231), 가속도 센서(5232), 지자기 센서(5233), 온도 센서(5241), 습도 센서(5242), 자이로스코프 센서(5250), 기압 센서(5260), 거리 센서(5271), 적외선 센서(5272), 타이어 공기압 센서(5280), 속도 센서(5290), IMU(Inertial Measurement Unit)(미도시), RADAR 유닛(미도시), LIDAR 유닛(미도시), RGB 센서(illuminance sensor) (미도시) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
GPS(5220)는 자율 주행 차량(100)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(5220)는 지구에 대한 자율 주행 차량(100)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU는 관성 가속도에 기초하여 자율 주행 차량(100)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 유닛은 무선 신호를 사용하여 자율 주행 차량(100)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 일 실시 예에서, 물체들을 감지하는 것에 부가하여, RADAR 유닛은, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 유닛은 레이저를 사용하여 자율 주행 차량(100)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 유닛은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 유닛은 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
카메라(5220)는 자율 주행 차량(100)의 내부의 3차원 영상들을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 일 실시 예에 따라, 카메라(5220)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 자율 주행 차량(100)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.
주변 장치(5300)는 지오 펜스(5310), 와이퍼(5320), 조명 장치(5330), 냉난방 장치(5340), 환풍 장치(5350), 입력 장치(5360), 출력 장치(5370) 및 메모리(5500)를 포함할 수 있다.
조명 장치(5330)는 내부 조명(5331) 및 외부 조명(5332)을 포함할 수 있다.
외부 조명(5332)은 라이트(5333) 및 방향 지시등(5334)을 포함할 수 있다.
냉난방 장치(5340)는 히터(5341) 및 에어컨(5342)을 포함할 수 있다.
환풍 장치(5350)는 환풍기(5351) 및 창문 개폐 장치(5352)를 포함할 수 있다.
입력 장치(5360)는 자율 주행 차량(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력 장치(5360)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 스크린(5361)(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력 장치(5360)는 마이크(5362)를 포함할 수 있는 바, 마이크는 자율 주행 차량(100)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력 장치(5370)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(5370)는 스피커(5371) 및 디스플레이(5372)를 포함할 수 있다.
디스플레이(5372)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 출력 장치(5370)의 구현 형태에 따라 출력 장치(5370)는 디스플레이(5372)를 2개 이상 포함할 수도 있다.
스피커(5371)는 통신 장치(110)로부터 수신되거나 메모리(5500)에 저장된 오디오 데이터를 출력한다.
입력 장치(5360) 및 출력 장치(5370)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
프로세서(120)는, 통상적으로 자율 주행 차량(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는, 메모리(5500)에 저장된 프로그램들을 실행함으로써, 주행 장치(5100), 센서 장치(5200), 주변 장치(5300), 통신 장치(110) 등을 전반적으로 제어할 수 있다.
통신 장치(110)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신 장치(110)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(120)에 의해 제어되는 통신 장치(110)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(120)는, 통신 장치(110)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 메모리(5500)에 포함된 프로그램을 실행시킬 수 있다.
전원 공급 장치(5400)는 자율 주행 차량(100)의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급 장치(5400)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.
메모리(5500)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있으며, 일 실시 예에 따라 이동 가능한 USB 데이터 저장 장치가 될 수 있다. 메모리(5500)는 본원과 관련되는 실시 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 실시 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
도 6 및 도 7은 일 실시 예에 따른 디바이스(1000)의 블록도이다.
도 6에 도시된 바와 같이, 디바이스(1000)는, 사용자 입력부(1100), 출력부(1200), 프로세서(1300), 및 통신부(1500)를 포함할 수 있다. 그러나, 도 6에 도시된 구성 요소보다 많은 구성 요소에 의해 디바이스(1000)가 구현될 수도 있고, 도 6에 도시된 구성 요소보다 적은 구성 요소에 의해 디바이스(1000)가 구현될 수도 있다.
예를 들어, 도 7에 도시된 바와 같이, 디바이스(1000)는, 사용자 입력부(1100), 출력부(1200), 프로세서(1300), 및 통신부(1500) 이외에 센싱부(1400), A/V 입력부(1600), 및 메모리(1700)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 디바이스(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(1100)는, 자율 주행 차량(100)의 제어와 관련된 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(1100)는 통상적인 디바이스(1000)의 사용과 관련된 사용자 입력(예: 스케줄 입력)을 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 디바이스(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(1210)는, 자율 주행 차량(100) 제어와 관련된 사용자 인터페이스, 통상적인 디바이스(1000)의 사용과 관련된 사용자 인터페이스를 디스플레이할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(1000)의 구현 형태에 따라 디바이스(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(1210)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 디바이스(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
프로세서(1300)는, 통상적으로 디바이스(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 프로세서(1300)는 자율 주행 차량(100)이 차량 제어 정보의 획득에 이용되는 디바이스 측 정보(210)를 획득할 수 있다. 디바이스 측 정보(210)를 획득하는 방법에 대해서는 도1a 내지 도 4에서 상술하였다.
센싱부(1400)는, 디바이스(1000)의 상태 또는 디바이스(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), RGB 센서(illuminance sensor)(1490) 등을 포함할 수 있고, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 디바이스(1000)와 자율 주행 차량(100) 또는 디바이스(1000)와 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있고, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
또한, 통신부(1500)는, 디바이스 측 정보(210)를 획득하기 위하여 필요한 정보를, HMD 장치(2000), 서버(4000) 및 주변 기기(3000)와 송수신할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 화상 프레임은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다. 카메라(1610)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 디바이스(1000)로 입력되거나 디바이스(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 디바이스(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시 예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 디바이스(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디바이스(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
도 8 내지 도 16은 일 실시 예에 따라, 디바이스(1000)가 웨어러블 디바이스(1001)인 경우, 웨어러블 디바이스(1001)와 통신하는 자율 주행 차량(100)을 제어하는 방법 및 웨어러블 디바이스(1001)에서 획득되는 디바이스 측 정보(210)에 따라 제어되는 자율 주행 차량(100)을 설명한다.
도 8은 일 실시 예에 따른 자율 주행 차량(100) 및 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 나타내는 블록도이다.
도 8에 도시된 바와 같이, 웨어러블 디바이스(1001)는 통신부(1500), 센싱부(1400), 출력부(2100), 프로세서(1300), 전원 공급 장치(810), 추가 구성요소(820) 및 메모리(1700)를 포함할 수 있다. 또한, 자율 주행 차량(100)은 통신 장치(110), 센서 장치(5200), 주행 장치(5100), 주변 장치(5300), 프로세서(120), 전원 공급 장치(5400), 메모리(5500), 모티브 시스템(850) 및 제어 시스템(860)을 포함할 수 있다.
다만, 도 8에 도시된 구성 요소보다 많은 구성 요소에 의해 웨어러블 디바이스(1001) 또는 자율 주행 차량(100)이 구현될 수도 있고, 도 8에 도시된 구성 요소보다 적은 구성 요소에 의해 웨어러블 디바이스(1001) 또는 자율 주행 차량(100)이 구현될 수도 있다.
센서 장치(5200)는 GPS(5210)를 포함할 수 있다. 자율 주행 차량(100)의 위치 결정 시스템은 GPS(5210)외에도 추측 항법(dead reckoning), 갈릴레오(Galileo), 비도우(Bedou), GLOSNASS, LORAN(Long range navigation) 시스템 과 같은 위치 결정 시스템을 포함할 수 있다.
모티브 시스템(850)은 자율 주행 차량(100)의 엔진/모터(5160), 파워 트레인, 휠(5180), 스티어링(5113) 등의 장치에 직접적인 제어를 제공할 수 있다.
제어 시스템(860)은 자율 주행 차량(100)의 움직임을 제어할 수 있다. 제어 시스템(860)은 프로세서(120)에 포함되어 자율 주행 차량(100)의 움직임을 제어하는 신호를 생성할 수 있다. 자율 주행 차량(100)은 자율 주행 차량(100)의 현재 위치 및 주행 경로를 결정하는 소프트웨어를 포함할 수 있다. 제어 시스템(860)은 명령을 모티브 시스템(850) 및/또는 메모리(5500)에 전송할 수 있다.
메모리(5500)는 자율 주행 차량(100)을 동작시키기 위한 자율 주행 차량 소프트웨어(5381)를 저장할 수 있다. 자율 주행 차량 소프트웨어(5381)는 자율 주행 차량(100)의 동작을 제어할 수 있다.
자율 주행 차량 기능 데이터 베이스(5382)는 자율 주행 차량(100)의 기능을 식별하는 데이터를 저장할 수 있고, 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계하는 정보를 저장할 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능에 대한 연계 방식을 나타내는 가이드라인은 자율 주행 차량 기능 데이터 베이스(5382)에 미리 로딩되어(pre-loaded) 있을 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능은 미리 로딩되어(pre-loaded) 있을 수 있다. 웨어러블 디바이스(1001)는 스마트 밴드, 스마트 워치, 스마트 글래스, 모바일 컴퓨팅 디바이스(예: 스마트폰) 등을 포함할 수 있으나 이에 한정되지 않는다.
추가 구성요소(820)는 디스플레이부(1210)를 포함할 수 있다. 디스플레이부(1210)는 사용자에게 정보를 제공할 수 있다. 디스플레이부(1210)가 터치 스크린인 경우, 디스플레이부(1210)는 사용자 입력을 수신할 수 있다.
센싱부(1400)는 GPS를 포함할 수 있다. 웨어러블 디바이스(1001)의 위치 결정 시스템은 GPS외에도 추측 항법(dead reckoning), 갈릴레오(Galileo), 비도우(Bedou), GLOSNASS, LORAN(Long range navigation) 시스템과 같은 위치 결정 시스템을 포함할 수 있다.
웨어러블 디바이스(1001)는 스피커, 진동 장치, 음성 인식 소프트웨어 등을 포함할 수 있으나 이에 한정되지 않는다.
웨어러블 디바이스(1001)의 프로세서(1300)는 본 실시 예 들에서 설명된 기능들을 실행하기 위해 메모리로부터 명령을 수신하여 소프트웨어를 실행할 수 있다.
메모리(1700)는 웨어러블 디바이스 기능 데이터 베이스(1702)를 포함할 수 있다. 웨어러블 디바이스 기능 데이터 베이스(1702)는 웨어러블 디바이스(1001)의 기능을 저장할 수 있다. 웨어러블 디바이스 기능 데이터 베이스(1702)는 웨어러블 디바이스(1001)의 기능을 식별하는 데이터를 저장할 수 있고, 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계하는 정보를 포함하는 가이드 라인을 저장할 수 있다.
자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능에 대한 연계 방식을 나타내는 가이드라인은 웨어러블 디바이스 기능 데이터 베이스(1702)에 미리 로딩되어(pre-loaded) 있을 수 있다.
도 9는 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 자율 주행 차량 소프트웨어(900)를 나타내는 블록도이다.
자율 주행 차량 소프트웨어(900)는 차량 핸드셰이킹 소프트웨어(910), 차량 싱크 및 셋업 소프트웨어(920) 및 차량 모니터 및 동작 소프트웨어(930)를 포함할 수 있으나 이에 제한되지 않는다.
차량 핸드셰이킹 소프트웨어(910)는 자율 주행 차량(100)이 웨어러블 디바이스(1001)와 핸드셰이킹 또는 페어링을 수행할 수 있도록 하는 소프트웨어를 포함할 수 있다.
차량 싱크 및 셋업 소프트웨어(920)는 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능간에 연계를 설정하고, 자율 주행 차량(100)이 웨어러블 디바이스(1001)의 기능과 동기화 할 수 있도록 하는 소프트웨어를 의미할 수 있다.
차량 모니터 및 동작 소프트웨어(930)는 자율 주행 차량(100)의 데이터와 웨어러블 디바이스(1001)로부터 수신된 데이터를 모니터링하고, 연계된 기능이 트리거(trigger) 되면 트리거된 동작이 자율 주행 차량(100)에서 수행되도록 자율 주행 차량(100)을 제어할 수 있다.
도 10은 일 실시 예에 따른 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 통신을 통한 자율 주행 차량(100)의 제어 방법을 나타내는 흐름도이다.
단계 S1010에서 자율 주행 차량(100)은 자율 주행 차량(100)의 액티베이션을 수신한다. 이때, 자율 주행 차량(100)에서 자율 주행 차량 소프트웨어가 활성화될 수 있다.
단계 S1020에서 자율 주행 차량(100)은 통신 범위 내에 웨어러블 디바이스(1001)가 있는지 여부를 결정한다.
자율 주행 차량(100)은 통신 범위 내에 웨어러블 디바이스(1001)로부터 데이터를 수신하면, 통신 범위 내에 웨어러블 디바이스(1001)가 있다고 결정할 수 있다. 이때, 통신 범위는 자율 주행 차량(100) 내부일 수도 있고 자율 주행 차량(100)으로부터 소정 거리 내의 범위일 수도 있다. 만약, 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 수신되는 데이터가 없으면, 현재 통신 범위 내에 웨어러블 디바이스(1001)가 없다고 결정하고, 웨어러블 디바이스(1001)로부터의 신호를 검색(looking for)할 수 있다.
단계 S1030에서 자율 주행 차량(100)은 차량 핸드셰이킹 소프트웨어를 실행한다.
자율 주행 차량(100)은 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 페어링을 위해 차량 핸드셰이킹 소프트웨어를 실행할 수 있다.
단계 S1040에서 자율 주행 차량(100)은 차량 싱크 및 셋업 소프트웨어를 실행한다.
자율 주행 차량(100)은 자율 주행 차량(100)의 하나 이상의 기능과 웨어러블 디바이스간의 동기화(synchronizing)를 수행할 때 차량 싱크 및 셋업 소프트웨어를 실행할 수 있다.
단계 S1050에서 자율 주행 차량(100)은 차량 모니터 및 동작 소프트웨어를 실행한다.
차량 모니터 및 동작 소프트웨어는 자율 주행 차량(100)의 데이터와 웨어러블 디바이스(1001)로부터 수신된 데이터를 모니터링하고, 연계된 기능이 트리거(trigger) 되면 트리거된 동작이 자율 주행 차량(100)에서 수행되도록 자율 주행 차량(100)을 제어할 수 있다.
도 11은 일 실시 예에 따른 자율 주행 차량(100)을 기능 매트릭스를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S1110에서 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 웨어러블 디바이스(1001)의 웨어러블 디바이스 기능 데이터 베이스(1702)의 정보를 수신한다. 차량 싱크 및 셋업 소프트웨어(920)를 통해 자율 주행 차량(100)은 웨어러블 디바이스 기능 데이터 베이스(1702)로부터 기능 정보를 수신할 수 있다.
단계 S1120에서 자율 주행 차량(100)은 자율 주행 차량 기능 데이터 베이스(5382)에 수신한 정보를 저장할 수 있다.
단계 S1130에서 자율 주행 차량(100)은 자율 주행 차량(100)의 디스플레이(5372)에 하나 이상의 문의 화면을 디스플레이할 수 있다.
단계 S1140에서 자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력을 수신한다.자율 주행 차량(100)은 단계 S1130에서 디스플레이된 문의 화면에 대응하는 사용자 입력을 수신할 수 있다.
단계 S1150에서 자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력을 저장한다.
단계 S1160에서 자율 주행 차량(100)은 차량 소프트웨어를 실행한다.자율 주행 차량(100)은 기능 매트릭스에 대한 사용자 입력에 따라 자율 주행 차량(100)의 기능을 실행시키기 위한 차량 소프트웨어를 실행할 수 있다.
도 12는 일 실시 예에 따른 자율 주행 차량(100)을 수신한 데이터에 매칭되는 기능에 따라서 제어하는 방법을 나타내는 흐름도이다.
단계 S1210에서 프로세서(120)는 자율 주행 차량(100) 및 웨어러블 디바이스(1001)로부터 데이터를 수신한다. 예를 들면, 자율 주행 차량(100)으로부터 수신되는 데이터는 엑셀러레이터 또는 브레이크와 관련된 정보를 포함할 수 있고, 웨어러블 디바이스(1001)로부터 수신되는 데이터는 맥박수 또는 호흡수와 관련된 정보를 포함할 수 있다.
단계 S1220에서 프로세서(120)는 단계 S1210에서 수신된 데이터와 기존에 저장되어 있는 기능 매트릭스를 비교한다.
단계 S1230에서 프로세서(120)는 단계 S1220의 비교 결과 자율 주행 차량(100)으로부터 수신한 데이터와 웨어러블 디바이스(1001)로부터 수신한 데이터간에 기능 매트릭스에 따른 매칭이 되는지 여부를 결정할 수 있다. 매칭이 되는 경우, 단계 S1240이 진행되고, 매칭이 되지 않는 경우 단계 S1210이 진행된다.
단계 S1240에서 프로세서(120)는 매칭된 기능이 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능 중 어느 쪽에 매칭되는지 결정할 수 있다.
단계 S1250에서 프로세서(120)는 단계 S1240의 결정 결과, 매칭되는 기능이 자율 주행 차량(100)의 기능인 경우, 매칭되는 자율 주행 차량(100)의 기능을 실행할 수 있다.
단계 S1260에서 프로세서(120)는 단계 S1240의 결정 결과, 매칭되는 기능이 웨어러블 디바이스(1001)의 기능인 경우, 매칭되는 웨어러블 디바이스(1001)의 기능을 실행할 수 있다.
단계 S1270에서 프로세서(120)는 매칭과 관련된 자율 주행 차량(100)의 소프트웨어를 실행시킬 수 있다.
도 13은 일 실시 예에 따른 자율 주행 차량(100)의 제어에 이용되는 웨어러블 디바이스 웨어러블 디바이스 소프트웨어(1701)를 나타내는 블록도이다.
웨어러블 디바이스 소프트웨어(1701)는 웨어러블 디바이스 핸드셰이킹 소프트웨어(13200), 웨어러블 디바이스 실행 소프트웨어(13300)를 포함할 수 있으나 이에 제한되지 않는다.
웨어러블 디바이스 핸드셰이킹 소프트웨어(13200)는 웨어러블 디바이스(1001)가 자율 주행 차량(100)과 핸드셰이킹 또는 페어링을 수행할 수 있도록 하는 소프트웨어를 포함할 수 있다.
웨어러블 디바이스 실행 소프트웨어(13300)는 웨어러블 디바이스(1001)와 연계된 동작을 실행시킬 수 있다.
도 14는 일 실시 예에 따른 자율 주행 차량(100)을 통신 범위 내에 있는 웨어러블 디바이스(1001)와 통신하여 제어하는 방법을 나타내는 흐름도이다.
단계 S1410에서 웨어러블 디바이스(1001)는 차량의 액티베이션을 수신한다. 이때, 웨어러블 디바이스(1001)에서 웨어러블 디바이스 소프트웨어(1701)가 활성화될 수 있다.
단계 S1420에서 웨어러블 디바이스(1001)는 통신 범위 내에 자율 주행 차량(100)이 있는지 여부를 결정한다.
웨어러블 디바이스(1001)는 통신 범위 내의 자율 주행 차량(100)으로부터 데이터를 수신하면, 통신 범위 내에 자율 주행 차량(100)이 있다고 결정할 수 있다. 하지만, 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 수신되는 데이터가 없으면, 현재 통신 범위 내에 자율 주행 차량(100)이 없다고 결정하고, 자율 주행 차량(100)으로부터의 신호를 검색(looking for)할 수 있다.
단계 S1430에서 웨어러블 디바이스(1001)는 차량 핸드셰이킹 소프트웨어를 실행한다.
웨어러블 디바이스(1001)는 자율 주행 차량(100)과 웨어러블 디바이스(1001)간의 페어링을 위해 차량 핸드셰이킹 소프트웨어를 실행할 수 있다.
단계 S1440에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 실행 소프트웨어(13300)를 실행한다.
도 15는 일 실시 예에 따른 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 제어하는 방법을 나타내는 흐름도이다.
단계 S1510에서 웨어러블 디바이스(1001)는 웨어러블 디바이스(1001)에 웨어러블 디바이스 기능 데이터 베이스(1702)에 저장된 정보를 로드한다.
단계 S1520에서 웨어러블 디바이스(1001)는 로드된 웨어러블 디바이스 기능 데이터 베이스(1702)를 자율 주행 차량(100)으로 전송한다.
단계 S1530에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 활성화 신호(activation signal)를 수신했는지 여부를 결정한다.
이때, 자율 주행 차량(100)으로부터 활성화 신호를 수신하지 못한 경우, 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 신호를 계속 검색(looking for)할 수 있다.
웨어러블 디바이스(1001)가 자율 주행 차량(100)으로부터 활성화 신호를 수신한 경우, 단계 S1540이 진행될 수 있다.
단계 S1540에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 활성화 신호가 수신된 경우 지정된 웨어러블 디바이스 기능을 활성화시킨다.
단계 S1550에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 실행시킨다. 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 실행시켜 지정된 웨어러블 디바이스 기능을 실행시킬 수 있다.
도 16은 일 실시 예에 따른 자율 주행 차량(100) 및 웨어러블 디바이스(1001)가 포함하는 데이터 베이스를 나타내는 도면이다.
웨어러블 디바이스 기능 데이터 베이스(1702)는 GPS 관련 정보(16110), 맥박수 관련 정보(16120), 혈압 관련 정보(16130), 호흡수 관련 정보(16140), 혈중 알코올 농도 관련 정보(16150), 진동 관련 정보(16160), 디스플레이 관련 정보(16170), 스피커 관련 정보(16180)를 포함할 수 있다.
자율 주행 차량 기능 데이터 베이스(5382)는 지오 펜스 관련 정보(16210), 브레이크 관련 정보(16220), 엑셀러레이터 관련 정보(16230), 스티어링 관련 정보(16240), 편의시설 관련 정보(16250), 네비게이션 관련 정보(16260), 운전 모드 관련 정보(16270), 통신 장치 관련 정보(16280), 분위기 제어 관련 정보(16290)를 포함할 수 있다.
자율 주행 차량(100)은 가이드 라인에 따라 하나 이상의 웨어러블 디바이스(1001)의 기능을 자율 주행 차량(100)의 기능과 연계시킬 수 있다. 예를 들면, 자율 주행 차량(100)은 가이드 라인에 따라 엑셀러레이터 또는 브레이크의 기능을 맥박수를 모니터링하는 것과 연계시킬 수 있다. 따라서, 브레이크가 작동되면, 자율 주행 차량(100)은 웨어러블 디바이스(1001)에 맥박수를 모니터링 할 것을 요청하는 신호를 전송할 수 있다.
도 17a 내지 도 17c는 일 실시 예에 따라 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능을 연계하는 가이드 라인을 설정하는 화면을 나타낸 도면이다. 도 17a 내지 도 17c에서는 디바이스 측 정보(210)가 스케줄 정보인 경우를 설명한다.
자율 주행 차량(100)은 사용자의 입력을 수신하여 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신할 수 있다. 자율 주행 차량(100)은 기설정된 상호 관계가 없는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 사용자의 입력을 수신하여 가이드 라인을 갱신할 수 있다.
도 17a 내지 도 17c의 표들 내부에 표시된 “X”는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 미리 설정(preset)된 경우를 나타낼 수 있고, 표들 내부에 표시된 “A”는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 사용자에 의해 설정되는 경우를 나타낼 수 있다.
가이드 라인은 사용자 입력에 기초하여 결정될 수 있다. 이하에서는 도 17a를 참조하여 사용자 입력에 기초하여 가이드 라인이 결정되는 일례에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능이고, 자율 주행 차량(100)의 기능이 네비게이션 기능인 경우(2120)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다.
자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 사용자 스케줄 기능 간에 상호 관계는 미리 설정(preset)되어 있지 않을 수 있다. 자율 주행 차량(100)은 기설정된 상호 관계가 없는 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능간의 상호 관계를 사용자의 입력을 수신하여 설정할 수 있다.
미리 설정된 적이 없는 설정 사항은 사용자 입력에 따라 결정될 수 있다. 사용자 입력에 따라, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능이 상호 관계 설정을 위해서 선택될 수 있다. 또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2110)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 중 생방송 스케줄이 1시간 이내에 있는 경우, 목적지를 생방송 스케줄 장소로 결정하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다. 다른 예로, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 중 생방송 스케줄이 30분 이내에 있는 경우, 경유지를 생방송 스케줄 장소로 결정하도록 할 수 있다.
이하에서는 도 17b를 참조하여, 사용자 입력에 기초하여 가이드 라인이 결정되는 다른 예에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능(스케줄 장소)이고, 자율 주행 차량(100)의 기능이 네비게이션 기능인 경우(2220)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다. 도 17b에서는 도 17a에서 기술된 내용을 참조할 수 있다.
또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2210)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 장소가 XXX빌딩인 경우, 목적지를 XXX빌딩으로 결정하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다. 다른 예로, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 스케줄 장소인 XXX빌딩을 경유지로 추가 하도록, 자율 주행 차량(100)의 네비게이션 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다.
이하에서는 도 17c를 참조하여, 사용자 입력에 기초하여 가이드 라인이 결정되는 다른 예에 대해 설명한다.
예를 들어, 디바이스(1000)의 기능이 사용자 스케줄 기능(스케줄 시간)이고, 자율 주행 차량(100)의 기능이 엑셀러레이터 기능인 경우(2320)에 대해서 설명한다. 네비게이션 기능은 자율 주행 차량(100)에 포함된 관련 장치에 의해 구현될 수 있다. 예를 들면, 네비게이션 기능은 자율 주행 차량에 포함된 네비게이션(5130)을 통해 구현될 수 있다. 도 17c에서는 도 17a에서 기술된 내용을 참조할 수 있다.
또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2310)에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 사용자의 입력에 기초하여, 자율 주행 차량(100)은 사용자 스케줄 시간에 따라 주행 평균 속도, 주행 평균 가속도 또는 최대 주행 속도를 결정하도록, 자율 주행 차량(100)의 엑셀러레이터 기능과 디바이스(1000)의 스케줄 기능의 상호 관계를 결정할 수 있다.
도 18은 일 실시 예에 따라 자율 주행 차량의 기능과 디바이스의 기능간의 상호 관계를 나타내는 가이드 라인을 갱신하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 사용자의 입력을 수신하여 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 관계를 설정할 수 있다.
가이드라인에 따라 디바이스(1000)의 혈압 센서 기능이 자율 주행 차량(100)의 네비게이션 기능과 연계될 수 있다. 만약, 디바이스(1000)의 혈압 센서로부터 획득한 혈압이 소정 기준 이상인 경우 자율 주행 차량(100)은 가이드 라인에 따라 네비게이션 기능을 실행하여 주행 경로에 병원을 추가할 수 있다.
또는, 가이드라인에 따라 디바이스(1000)의 마이크 기능이 자율 주행 차량(100)의 에어컨 기능과 연계될 수 있다. 만약, 디바이스(1000)의 마이크로부터 수신한 오디오 입력이 박수 소리에 대응되는 경우, 자율 주행 차량(100)은 가이드 라인에 따라 에어컨 기능을 실행하여 차량 내 온도를 낮출 수 있다.
가이드라인에 따라 디바이스(1000)의 온도 센서 기능이 자율 주행 차량(100)의 창문 개폐 기능과 연계될 수 있다. 일례로, 디바이스(1000)의 온도 센서로부터 수신한 온도 수치가 소정 기준 이상인 경우, 자율 주행 차량(100)은 가이드 라인에 따라 창문 개폐 기능을 실행하여 차량 내 온도를 낮출 수 있다.
즉, 가이드 라인은 사용자 입력에 기초하여 결정될 수 있다. 이하에서는 도 18을 참조하여 사용자 입력에 기초하여 가이드 라인이 결정되는 일례에 대해 설명한다.
예를 들면, 디바이스(1000)의 기능이 스피커이고, 자율 주행 차량(100)의 기능이 지오 펜스(5310)인 경우(2020)에 대해서 설명한다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계가 설정될 수 있다. 지오 펜스 기능은 지리상의 위치나 특정 지역에 대한 가상의 경계를 인식하는 기능을 포함할 수 있다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계는 미리 설정(preset)되어 있을 수 있다. 예를 들면, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 디바이스(1000)에 포함된 스피커에서 위협을 나타내는 경고음을 재생하도록 디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능 간에 상호 관계가 미리 설정(preset)되어 있을 수 있다.
도 18에 도시된 바와 같이, 미리 설정된 설정 사항은 사용자 입력에 따라 변경될 수 있다. 구체적으로 설명하면, 우선, 사용자 입력에 따라 디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 지오 펜스 기능이 상호 관계 설정을 위해서 선택될 수 있다. 그 결과, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역(2010)에 디스플레이될 수 있다.
다음으로, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 예를 들면, 자율 주행 차량(100)이 단속 지역에 해당하는 지리상 영역에 진입한 경우, 디바이스(1000)에 포함된 스피커에서 재생되는 컨텐츠를 사용자의 입력에 기초하여 변경할 수 있다. 구체적인 예로, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 것이 자율 주행 차량(100)의 지오 펜스 기능을 통해 인지된 경우, 자율 주행 차량(100)은 위협.mp3, 운명.mp3 및 행복.mp3 중 사용자의 입력에 따라 결정된 컨텐츠를 디바이스(1000)에 포함된 스피커에서 재생하도록 할 수 있다.
한편, 디바이스(1000)의 기능이 GPS 기능이고, 자율 주행 차량(100)의 기능이 스피커인 경우(2030)에 대해서도 설명한다.
자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 GPS 기능 간에 상호 관계는 미리 설정(preset)되어 있을 수 있다. 예를 들면, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 자율 주행 차량(100)에 포함된 스피커에서 위협을 나타내는 경고음을 재생하도록 자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 GPS 기능 간에 상호 관계가 미리 설정(preset)되어 있을 수 있다.
미리 설정된 설정 사항은 사용자 입력에 따라 변경될 수 있다. 즉, 사용자 입력에 따라, 자율 주행 차량(100)의 스피커 기능과 디바이스(1000)의 지오 펜스 기능이 상호 관계 설정을 위해서 선택될 수 있다.(미도시) 또한, 선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능이 디바이스(1000) 및/또는 자율 주행 차량(100)의 디스플레이의 소정 영역에 디스플레이될 수 있다.
선택된 디바이스(1000)의 기능과 선택된 자율 주행 차량(100)의 기능 간의 상호 관계가 사용자의 입력에 기초하여 결정될 수 있다. 즉, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 경우, 자율 주행 차량(100)에 포함된 스피커에서 재생되는 컨텐츠는 사용자의 입력에 기초하여 변경될 수 있다. 구체적인 예로, 단속 지역에 해당하는 지리상 영역에 자율 주행 차량(100)이 진입한 것이 디바이스(1000)의GPS 기능을 통해 인지된 경우, 자율 주행 차량(100)은 위협.mp3, 운명.mp3 및 행복.mp3 중 사용자의 입력에 따라 결정된 컨텐츠를 자율 주행 차량(100)에 포함된 스피커에서 재생하도록 할 수 있다.
도 17 및 도 18에서는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능을 사용자의 입력에 기초하여 연계하는 가이드 라인을 결정하는 방법에 대해서 개시되었다. 그러나 가이드 라인을 결정하는 실시 예는 도 17 및 도 18로 한정되지 않는다. 본 실시 예들에서 설명되는, 모든 자율 주행 차량(100)의 기능과 모든 디바이스(1000)의 기능이 사용자의 입력에 기초하여 또는 미리 설정된 설정 사항에 따라 연계될 수 있으며, 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능의 연계에 대한 당업자의 여러 변형 및 개량 형태 또한 본 실시 예들에 속한다.
예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)및/또는 차량 측 정보(220)에 포함된 생체 정보, 스케줄 정보, 주변 상황 정보 날씨 정보 등을 자율 주행 차량(100)의 네비게이션(5130), 주행 장치(5100)(예: 엑셀러레이터, 브레이크, 변속기, 조향 장치), 내부 조명(5331)(예: 실내 등), 외부 조명(5332)(예: 라이트(5333)), 오디오/비디오 장치(예: 스피커(5371)), 온도 조절 장치(예: 에어컨(5342), 히터(5341), 환풍기(5351), 창문 개폐 장치(5352), 열선), 지오 펜스, 기타 주변 장치(예: 와이퍼(5320), 방향 지시등(5334), 터치스크린(5361)), 센서 장치(5200) 등과 연계하는 가이드 라인을 사용자 입력에 기초하여 결정할 수 있으나 이에 제한되지 않는다.
도 19는 일 실시 예에 따른 자율 주행 차량(100)의 주행 관련 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
본 도 19의 표 내부에 표시된 “X”는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 미리 설정(preset)된 경우를 나타낼 수 있고, 표 내부에 표시된 “A”는 자율 주행 차량(100)의 기능과 디바이스(1000)의 기능간의 상호 연계가 사용자에 의해 설정되는 경우를 나타낼 수 있다.
디바이스(1000)의 GPS 기능과 자율 주행 차량(100)의 네비게이션 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 GPS 센서로부터 획득한 위치 정보로부터 현재 위치 정보를 획득하고, 획득한 현재 위치 정보에 기초하여 목적지까지의 주행 경로를 설정할 수 있다.
디바이스(1000)의 음성 인식 기능과 자율 주행 차량(100)의 운전 모드 관련 기능이 상호 연계되도록 사용자에 의해 설정될 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 음성 인식 센서로부터 획득한 사용자 음성 정보에 따라 운전 모드를 결정할 수 있다.
디바이스 기능(17200)은 디바이스 수행 가능 기능(17210)으로, 맥박수 센싱 기능, 혈압 센싱 기능, 호흡수 센싱 기능 혈중 알코올 농도 센싱 기능, GPS 정보 획득 기능, 카메라 기능, 관성 센싱 기능, 가속도 센싱 기능 지자기 센싱 기능, 온도 센싱 기능 습도 센싱 기능, 자이로스코프 센싱 기능 기압 센싱 기능, 근접 센싱 기능, 적외선 센싱 기능, 마이크 기능, 진동 기능, 디스플레이 기능, 스피커 기능, 음성 인식 기능, 음성 통신 기능, 데이터 통신 기능, 사용자 스케줄 획득 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
차량 기능(17100)은 주행관련 기능(17110)을 포함할 수 있다. 예를 들면, 주행관련 기능(17110)은 브레이크 기능, 엑셀러레이터 기능, 스티어링 기능, 장애물 회피 기능, 네비게이션 기능, 운전 모드 관련 기능, 엔진/모터 기능, 변속기 기능, 휠 기능, 타이어 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
차량 기능(17100) 중 일부는 자율 주행 차량(100)에 포함된 일부 장치에 의해 수행될 수 있다. 예를 들면 운전 모드 관련 기능은 주행 장치 및/또는 주변 장치에 의해 수행될 수 있다.
도 20은 일 실시 예에 따른 자율 주행 차량(100)의 주변 장치 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
디바이스(1000)의 호흡수 센싱 기능과 자율 주행 차량(100)의 방향 지시등 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 자율 주행 차량(100)은 디바이스(1000)의 호흡수 센서로부터 획득한 호흡수 정보로부터 사용자의 건강 상태가 위급 상태인지 여부를 결정하고, 사용자의 건강 상태가 위급 상태라고 결정된 경우, 비상등이 켜지도록 방향 지시등(5334)을 제어할 수 있다.
디바이스 기능(17200)은 도 19에서 상술된 내용을 참조할 수 있다.
차량 기능(17100)은 주변 장치 기능(18110)을 포함할 수 있다. 예를 들면, 주변 장치 기능(18110)은 네비게이션 기능, 지오 펜스 기능, 라이트 기능, 와이퍼 기능, 스피커 기능, 방향 지시등 기능, 내부 조명 기능, 외부 조명 기능, 통신 기능, 히터 기능(난방기의 일종), 에어컨 기능(냉방기의 일종), 터치 스크린 기능, 마이크 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
도 21은 일 실시 예에 따른 자율 주행 차량(100)의 센서 관련 기능과 디바이스(1000)의 기능간의 상호 관계를 나타내는 도면이다.
디바이스(1000)의 가속도 센서 기능과 자율 주행 차량(100)의 카메라 기능이 상호 연계되도록 미리 설정되어 있을 수 있다. 일례로, 디바이스(1000)의 가속도 센서(5232)가 급 가속이나 급 감속을 센싱한 경우, 자율 주행 차량에 포함된 카메라(5220)의 기능이 실행되어 차량 전방 및/또는 후방을 촬영할 수 있다.
디바이스(1000)의 스피커 기능과 자율 주행 차량(100)의 GPS(5210)의 기능이 상호 연계되도록 사용자에 의해 설정될 수 있다. 일례로, 자율 주행 차량(100)에 포함된 GPS(5210)로부터 획득한 위치 정보에 따라 디바이스(1000)에 포함된 스피커의 기능을 실행하여, 디바이스(1000)의 스피커에서 경고 알림이 재생될 수 있다.
디바이스 기능(17200)은 도 19에서 상술된 내용을 참조할 수 있다.
차량 기능(17100)은 센서 기능(19110)을 포함할 수 있다. 예를 들면, 센서 기능(19110)은 GPS 센서 기능, 카메라 기능, 광성 센서 기능, 가속도 센서 기능, 지자기 센서 기능, 온도 센서 기능, 습도 센서 기능, 자이로스코프 센서 기능, 기압 센서 기능, 거리 센서 기능, 적외선 센서 기능, 타이어 공기압 센서 기능, 속도 센서 기능 등을 포함할 수 있고, 이에 한정되지 않는다.
도 22는 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 위급 상태임을 결정할 수 있다. 자율 주행 차량(100)이 사용자의 건강 상태가 위급 상태임을 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다. 다른 예로, 사용자의 위급 상태를 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
디바이스가 디바이스 사용자의 위급 상태를 나타내는 생체 정보(예: 기준치 이상의 혈압 수치 정보, 기준치 이상의 맥박수 정보 등)를 획득하는 경우, 디바이스(1000)는 사용자가 위급 상태임을 결정하고, 사용자가 위급 상태임을 나타내는 정보를 자율 주행 차량(100)으로 송신할 수 있다. 이 경우, 디바이스 측 정보(210)는 사용자가 위급 상태임을 나타내는 정보를 포함할 수 있다. 또한, 이 경우, 자율 주행 차량(100)은 디바이스(100)로부터 사용자가 위급 상태임을 나타내는 정보를 포함하는 디바이스 측 정보(210)를 수신할 수 있다. 사용자가 위급 상태임을 나타내는 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
주행 경로 상에 경유지로 추가되는 병원은 기설정된 방식에 따라 결정될 수 있다.
예를 들면, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있을 것으로 결정된 복수개의 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 사용자의 위급 상태가 당뇨병에 의한 것인 경우, 자율 주행 차량(100)은 당뇨병을 치료할 수 있는 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
그러나, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있는 병원을 결정할 수 없는 경우, 소정 규모 이상의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 한편, 자율 주행 차량(100) 및/또는 디바이스(1000)의 분석 능력으로는 사용자의 위급 상태가 어떤 병에 의한 것인지 결정할 수 없는 경우, 자율 주행 차량(100)은 대학 병원 이상 규모의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
경유지로 추가된 병원이 소정 거리 범위의 밖에 위치하는 경우, 자율 주행 차량(100)은 주행 도중 비상 통화 기능을 실행할 수 있다. 예를 들면 자율 주행 차량(100)은 119 또는 기설정된 번호로 위치 및 상황을 알리는 문자를 발송할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 약국을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 간단한 약 투여가 필요한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 생체 정보에 대응되는 약을 구입할 수 있는 약국을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 졸음 쉼터 또는 휴게소를 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 피로도 정보를 수신하고, 수신한 피로도 정보를 분석하여 사용자가 피로한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100)은 사용자 눈 깜박임 관련 정보를 수신하여 사용자의 피로도를 결정하고, 임계치 이상의 피로도가 인식된 경우, 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 알코올 농도 정보를 수신하고, 수신한 알코올 농도 정보를 분석하여 사용자가 음주 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 음식점을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
한편, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 음식점을 경유할지 여부를 문의하는 화면을 디스플레이할 수 있다. 디스플레이된 문의 화면에 대응한 사용자 입력에 기초하여 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가까운 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 사용자의 스케줄 정보를 획득할 수 있다. 자율 주행 차량(100)은 음식점에 경유함으로써 예상되는 지연 시간 및 사용자의 스케줄 정보를 고려하여, 음식점을 현재 주행 경로 상에 경유지로 추가할지 여부를 결정할 수 있다.
자율 주행 차량(100)은 차량 측 정보(220) 및 디바이스 측 정보(210)를 획득 할 수 있다. 예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 생체 정보를 포함할 수 있고, 자율 주행 차량(100)이 획득한 차량 측 정보(220)는 주행 가능 거리 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 차량 측 정보(220)를 고려하여 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 위급 상태임을 결정할 수 있다. 자율 주행 차량(100)이 사용자의 건강 상태가 위급 상태임을 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다. 사용자의 위급 상태를 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 병원을 현재 주행 경로 상에 경유지로 추가할 수 있다.
주행 경로 상에 경유지로 추가되는 병원은 기설정된 방식에 따라 결정될 수 있다.
구체적으로, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있을 것으로 결정되고, 현재 주행 가능 거리 범위 내에 위치하는 복수개의 병원 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 사용자의 위급 상태가 당뇨병에 의한 것인 경우, 자율 주행 차량(100)은 당뇨병을 치료할 수 있고, 현재 주행 가능 거리 범위 내에 위치하며 현재 위치에서 소정 거리 내에 위치하는 병원 중 가장 규모가 큰 병원을 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)은 사용자의 위급 상태를 해소할 수 있는 병원을 결정할 수 없는 경우, 현재 주행 가능 거리 범위 내에 위치하는 소정 규모 이상의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100) 및/또는 디바이스(1000)의 분석 능력으로는 사용자의 위급 상태가 어떤 병에 의한 것인지 결정할 수 없는 경우, 자율 주행 차량(100)은 현재 주행 가능 거리 범위 내에 위치하는 대학 병원 이상 규모의 병원들 중 현재 위치에서 가장 가까운 병원을 경유지로 추가할 수 있다.
다른 예로, 현재 주행 가능 거리 범위 내에 병원이 없는 경우, 자율 주행 차량(100)은 비상등을 작동시키고 가장 가까운 허가된 위치에 정차할 수 있다. 또한 현재 주행 가능 거리 범위 내에 병원이 없는 경우, 자율 주행 차량(100)은 비상 통화 기능을 실행 할 수 있다. 예를 들면 자율 주행 차량(100)은 119 또는 기설정된 번호로 위치 및 상황을 알리는 문자를 발송할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보 및 차량 측 정보(220)에 따라 자율 주행 차량(100)의 주행 경로 상에 약국을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈압 정보를 수신하고, 수신한 혈압 정보를 분석하여 사용자의 건강 상태가 간단한 약 투여가 필요한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 생체 정보에 대응되는 약을 구입할 수 있고 주행 가능 거리 범위 내에 위치한 약국을 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 경유지로 추가할 수 있다. 졸음 쉼터나 휴게소가 현재 위치에서 소정 거리 범위 외에 위치하는 경우, 자율 주행 차량(100)은 비상등을 작동시키고 가장 가까운 허가된 위치에 정차할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 피로도 정보를 수신하고, 수신한 피로도 정보를 분석하여 사용자가 피로한 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다. 일례로, 자율 주행 차량(100)은 사용자 눈 깜박임 관련 정보를 수신하여 사용자의 피로도를 결정하고, 임계치 이상의 피로도가 인식된 경우, 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 알코올 농도 정보를 수신하고, 수신한 알코올 농도 정보를 분석하여 사용자가 음주 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 가능 거리 범위 내에 위치한 졸음 쉼터 또는 휴게소를 현재 주행 경로 상에 경유지로 추가할 수 있다.
자율 주행 차량(100)이 디바이스로부터 획득한 디바이스 측 정보(210)가 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 생체 정보에 따라 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 음식점을 경유지로 추가할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가깝고, 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 음식점을 경유할지 여부를 문의하는 화면을 디스플레이할 수 있다. 디스플레이된 문의 화면에 대응한 사용자 입력에 기초하여 자율 주행 차량(100)은 네비게이션 기능을 실행하여, 주행 경로에서 가깝고 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 혈당 정보를 수신하고, 수신한 혈당 정보를 분석하여 사용자가 허기진 상태라고 결정한 경우, 자율 주행 차량(100)은 사용자의 스케줄 정보를 획득할 수 있다. 자율 주행 차량(100)은 음식점을 경유함으로써 예상되는 지연 시간 및 사용자의 스케줄 정보를 고려하여, 주행 가능 거리 범위 내에 위치한 음식점을 현재 주행 경로 상에 경유지로 추가할지 여부를 결정할 수 있다.
도 23은 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2310에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S2320에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S2330에서 자율 주행 차량(100)은 생체 정보에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가한다.
예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 자율 주행 차량(100)의 주행 경로 상에 병원을 경유지로 추가할 수 있다.
단계 S2340에서 자율 주행 차량(100)은 추가된 경유지에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
예를 들면, 자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 갱신된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 예를 들면, 갱신된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 24는 일 실시 예에 따른 자율 주행 차량(100)을 생체 정보 및 차량 측 정보(220)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2410은 상술된 단계 S2310에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S2420에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S2430에서 자율 주행 차량(100)은 자율 주행 차량의 차량 측 정보(220)를 획득한다. 예를 들면, 자율 주행 차량(100)이 획득한 차량 측 정보(220)는 주행 가능 거리 정보를 포함할 수 있다.
단계 S2440에서 자율 주행 차량(100)은 생체 정보 및 차량 측 정보(220)에 따라 결정된 주행 가능 거리에 따라 자율 주행 차량의 주행 경로 상에 경유지를 추가한다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 자율 주행 차량(100)의 주행 경로 상에 주행 가능 거리 범위 내에 위치한 병원을 경유지로 추가할 수 있다.
단계 S2450에서 자율 주행 차량(100)은 추가된 경유지에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 갱신된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이 경우, 갱신된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 25는 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 일례를 나타내는 도면이다. 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 자율 주행 차량의 주행 모드를 결정할 수 있다. 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 자율 주행 차량에 포함된 하나 이상의 주변 장치를 제어할 수 있다.
심신 상태는 사용자의 신체적인 상태 및/또는 심적인 상태를 포함할 수 있다. 예를 들면, 심신 상태는 사용자가 피곤한 정도, 사용자가 긴장한 정도, 사용자의 건강 상태, 사용자가 흥분한 정도, 사용자의 맥박 수치, 사용자가 더운 정도, 사용자의 체온 수치 등을 포함할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 사용자의 심신 상태를 나타내는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치 및/또는 주변 장치를 제어하여, 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
일 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 맥박수 관련 정보를 수신하고, 수신한 정보를 분석하여 사용자의 상태가 안정이 필요한 상태인지 여부를 결정할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 안정이 필요한 상태임을 결정한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 안정이 필요한 상태임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 안전 모드는 가속 및 감속의 빈도가 적고, 최대 속도가 낮은 형태의 운전 모드를 의미할 수 있다.
다른 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 눈 깜박임 관련 정보 또는 사용자의 자세 관련 정보를 수신하고, 수신한 정보를 분석하여 사용자의 상태가 수면 상태인지 여부를 결정할 수 있다. 자율 주행 차량(100)이 사용자의 상태가 수면 상태임을 결정한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 수면 모드로 주행할 수 있다. 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 주변 장치 또는 주행 장치를 실행하여, 수면 모드로 주행할 수 있다. 수면 모드는 차량의 실내가 어둡고, 가속 및 감속의 빈도가 적고, 차량 진동을 감소시키는 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 실내 조명 장치를 제어하여, 차량 실내 밝기를 소정 기준 이하로 유지할 수 있다. 다른 예로, 자율 주행 차량(100)이 사용자가 수면 중임을 나타내는 생체 정보를 디바이스(1000)로부터 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)에 포함된 냉난방 장치를 제어하여, 차량 실내 온도를 소정 온도 범위 내로 유지할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 긴급 모드로 주행할 수 있다. 긴급 모드는 차량 내 탑승자를 보호하고, 병원 등에 빨리 도착하기 위해 최적화된 운전 모드를 의미할 수 있다. 예를 들면, 긴급 모드로 주행할 때 자율 주행 차량(100)은 가속, 감속 및 최대 속도의 허용치를 표준 모드의 경우보다 높게 설정할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 방향 지시등이 지속적으로 동시에 점멸되도록(예: 비상등) 방향 지시등을 제어할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 기분이 활동적임을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 스포츠 모드로 주행할 수 있다. 스포츠 모드는 가속 및 감속의 빈도가 높고, 최고 주행 속도가 높은 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 기분이 활동적임을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오를 제어하여, 오디오 재생 볼륨을 소정 기준 이상으로 설정할 수 있다.
다른 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 긴장하고 있음을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 긴장하고 있음을 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오를 제어하여, 기설정된 또는 기설정된 방식으로 검색된 오디오 컨텐츠를 재생할 수 있다. 예를 들면, 자율 주행 차량(100)은 오디오를 제어하여, 긴장 완화에 도움이 되는 음악을 재생할 수 있다.
또한, 도 25에서 기술된 운전 모드는 본 개시의 일 실시 예이며, 한정되지 않는다.
도 26은 일 실시 예에 따른 자율 주행 차량(100)의 주행 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2610에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S2620에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 생체 정보를 포함하는 경우, 자율 주행 차량의 주행 장치를 제어 한다. 주행 장치는 브레이크(5111), 엑셀러레이터(5112), 조향 장치(예: 스티어링(5113)), 엔진/모터(5160), 변속기(5170) 등을 포함할 수 있으며 이에 제한되지 않는다.
단계 S2430에서 자율 주행 차량(100)은 디바이스의 사용자의 심신 상태를 나타내는 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정한다. 예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 위급 상태를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 긴급 모드로 주행할 수 있다.
다른 예로, 자율 주행 차량(100)은 자율 주행 차량의 주행 장치 기능을 이용하여 결정된 운전 모드로 주행할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)에 대응하도록 엑셀러레이터 기능을 실행하여, 최대 가속도 및 최대 속도를 제어하여 결정된 운전 모드로 주행할 수 있다.
단계 S2440에서 자율 주행 차량(100)은 결정된 운전 모드에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
예를 들면, 자율 주행 차량(100)은 주행 장치를 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 결정된 운전 모드로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 27은 일 실시 예에 따른 자율 주행 차량(100)의 오디오/비디오 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다. 본 도에서는 오디오/비디오 장치의 실시 예에 대해 설명하고 있으나 이에 한정되지 않으며, 오디오/비디오 장치 외의 주변 장치의 제어에 본 도면의 방법이 이용될 수 있다.
단계 S2710은 상술된 단계 S2610에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S2720에서 자율 주행 차량(100)은 단계 S2710에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 오디오/비디오 장치를 실행한다. 오디오/비디오 장치는 오디오 장치 및/또는 비디오 장치를 의미할 수 있다.
또한, 본 단계에서 개시된 오디오/비디오 장치는 자율 주행 차량에 포함된 주변 장치의 일례이고, 오디오/비디오 장치로 제한되지 않는다. 예를 들면, 자율 주행 차량(100)은 단계 S2710에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 생체 정보를 포함하는 경우, 수신한 생체 정보에 따라서, 지오 펜스 기능, 라이트 기능, 와이퍼 기능, 스피커 기능, 방향 지시등 기능, 내부 조명 기능, 외부 조명 기능, 냉난방기 기능, 통신 기능 등을 제어할 수 있다.
단계 S2730에서 자율 주행 차량(100)은 단계 S2720에서 획득한 생체 정보에 따라 결정된 컨텐츠를 재생한다.
컨텐츠는 오디오 컨텐츠 및/또는 오디오 컨텐츠를 포함할 수 있다. 오디오 컨텐츠는 음악, 효과음, 통화 음성, 음성 알림 등을 포함할 수 있다.
자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보로부터 사용자가 피로한 상태임을 결정한 경우에 대해 설명한다. 자율 주행 차량(100)이 자율 주행 중인 경우, 자율 주행 차량(100)은 오디오/비디오 장치를 실행하여, 디바이스 사용자의 편안한 주행을 위한 조용한 음악 또는 뮤직 비디오를 재생할 수 있다. 자율 주행 차량(100)이 수동 주행 중인 경우, 자율 주행 차량(100)은 오디오/비디오 장치를 실행하여, 디바이스 사용자의 졸음을 깨울 수 있는 액티브한 음악 또는 뮤직 비디오를 재생할 수 있다.
도 28은 일 실시 예에 따른 자율 주행 차량(100) 의 주변 장치를 사용자의 심신 상태를 나타내는 생체 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S2810에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 자율 주행 차량(100)이 수신한 사용자의 심신 상태를 나타내는 생체 정보는 사용자가 더운 상태를 나타낼 수 있다.
단계 S2820에서 자율 주행 차량(100)은 수신된 디바이스 측 정보(210)가 디바이스 사용자의 심신 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량의 냉방, 난방, 환기 장치 등을 실행한다. 냉방 장치는 에어컨을 포함할 수 있고, 난방 장치는 히터 또는 열선을 포함할 수 있고, 환기 장치는 창문 또는 환풍기를 포함할 수 있다.
단계 S2830에서 자율 주행 차량(100)은 사용자의 심신 상태를 나타내는 생체 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정한다. 예를 들면 디바이스 측 정보(210)가 사용자가 더운 상태를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 설정 온도를 현재 온도보다 낮게 또는 표준 온도보다 낮게 결정할 수 있다.
단계 S2840에서 자율 주행 차량(100)은 결정된 설정 온도에 기초하여 결정된 차량 제어 정보에 따라 자율 주행 차량을 제어한다.
자율 주행 차량(100)은 차량 내부의 설정 온도로부터 소정 범위 내로 차량 내부 온도를 유지하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 예를 들면, 자율 주행 차량(100)은 설정 온도에 대응되도록 냉방, 난방, 환기 장치 등을 제어할 수 있다. 다른 예로, 디바이스 측 정보(210)가 사용자가 추운 상태를 나타내는 생체 정보를 포함할 때, 자율 주행 차량(100)은 창문을 닫거나, 히터를 켜거나, 열선을 켜도록 창문, 히터, 열선 등을 제어할 수 있다.
차량 측 정보(220)도 자율 주행 차량(100)의 제어에 이용될 수 있다. 예를 들면, 디바이스 측 정보(210)가 사용자가 더운 상태를 나타내는 생체 정보를 포함할 때, 자율 주행 차량(100)은 외부 온도가 낮고 공기가 맑은 경우 창문을 열도록 창문을 제어할 수 있고, 외부 온도가 높거나 공기가 탁한 경우 창문은 닫고 에어컨을 켜도록 창문 및 에어컨을 제어할 수 있다.
도 29는 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 일례를 나타내는 도면이다. 예를 들면, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 이용하여 자율 주행 차량의 주행 모드를 결정할 수 있다. 다른 예로, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 이용하여 자율 주행 차량에 포함된 하나 이상의 주변 장치를 제어할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 사용자의 행위를 나타내는 생체 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 행위를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치 및/또는 주변 장치를 제어하여, 생체 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 사용자의 제스쳐 정보를 수신한 경우, 수신한 제스처 정보에 대응되는 운전 모드로 주행할 수 있다. 다른 실시 예에 따른 자율 주행 차량(100)은 디바이스(1000)로부터 사용자의 제스쳐 정보를 수신한 경우, 수신한 제스처 정보에 대응되는 주변 장치를 제어할 수 있다.
일 예에 따라,자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 독서 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 독서 모드로 주행할 수 있다. 독서 모드는 차량의 실내가 밝고, 가속 및 감속의 빈도가 적고, 차량 내 소음을 감소시키는 형태의 운전 모드를 의미할 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 독서 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 실내 조명 장치를 제어하여, 자율 주행 차량(100) 내의 밝기를 소정 기준 이상으로 유지할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 팔장 낀 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 안전 모드로 주행할 수 있다. 팔장 낀 자세에 대응되는 운전 모드는 안전 모드 외의 다른 운전 모드로 설정될 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 팔장 낀 자세를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 오디오 장치를 제어하여, 기설정된 오디오 컨텐츠를 재생할 수 있다.
다른 예에 따라, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 박수를 한번 치는 행위를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 주행 장치를 제어하여, 에코 모드로 주행할 수 있다. 박수를 한번 치는 행위에 대응되는 운전 모드는 안전 모드 외의 다른 운전 모드로 설정될 수 있다. 다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자의 박수를 한번 치는 행위를 나타내는 생체 정보를 수신한 경우, 자율 주행 차량(100)은 창문을 제어하여, 자율 주행 차량(100)의 창문을 열 수 있다.
도 30은 일 실시 예에 따른 자율 주행 차량(100)을 사용자의 행위를 나타내는 생체 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3010에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 사용자의 행위를 나타내는 생체 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S3020에서 자율 주행 차량(100)은 단계 S2910에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 행위를 나타내는 생체 정보를 포함하는 경우, 자율 주행 차량(100)의 내부 조명 기능을 실행한다.
단계 S3030에서 자율 주행 차량(100)은 디바이스의 사용자의 행위를 나타내는 생체 정보에 따라 자율 주행 차량의 내부 밝기를 결정한다.
단계 S3040에서 자율 주행 차량(100)은 결정된 내부 밝기에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
자율 주행 차량(100)은 결정된 내부 밝기로 차량 내부의 밝기를 제어하기 위한 내부 조명과 관련된 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이 경우, 자율 주행 차량(100)은 결정된 내부 밝기로 차량 내부의 밝기를 유지할 수 있다.
도 31은 일 실시 예에 따른 자율 주행 차량(100)을 스케줄 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 스케줄 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 네비게이션 기능을 실행하여, 스케줄 정보의 장소에 대응되는 주행 경로를 설정하거나 스케줄 정보의 장소에 대응되는 경유지를 추가할 수 있다.
자율 주행 차량(100)이 주행을 시작하기 전에 디바이스(1000)로부터 현재 시간에 대응되는 사용자의 스케줄 장소 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 스케줄 장소를 목적지로 하는 주행 경로를 설정할 수 있다.
자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 현재 시간에 대응되는 사용자의 스케줄 장소 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 스케줄 장소를 경유지로 하는 주행 경로를 설정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치(5100)를 제어하여, 스케줄 정보의 시간 및/또는 장소에 대응되는 운전 모드를 결정할 수 있다.
예를 들면, 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리가 멀고, 현재 시간으로부터 스케줄 시간까지의 시간이 촉박한 경우, 운전 모드를 스피드 모드로 결정할 수 있다. 다른 예로, 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리가 가깝고, 현재 시간으로부터 스케줄 시간까지의 시간이 여유 있는 경우, 운전 모드를 안정 모드로 결정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 기능을 실행하여, 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정할 수 있다. 설정된 주행 평균 속도는 스케줄 정보의 시간에 대응되는 주행 모드에서 설정된 평균속도일 수 있다. 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리 및 현재 시간으로부터 스케줄 시간까지의 시간에 따라 주행 평균 속도를 결정할 수 있다.
수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 및/또는 브레이크 기능을 실행하여, 스케줄 정보의 시간에 대응되는 최대 가속도 및/또는 평균 가속도를 설정할 수 있다. 자율 주행 차량(100)은 현재 위치로부터 스케줄 장소까지의 거리 및 현재 시간으로부터 스케줄 시간까지의 시간에 따라 최대 가속도 및/또는 평균 가속도를 결정할 수 있다.
도 32는 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S3210에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 사용자의 스케줄 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S3220에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량의 네비게이션 기능을 실행한다.
단계 S3230에서 자율 주행 차량(100)은 스케줄 정보의 장소에 대응되는 주행 경로를 설정한다.
예를 들면, 자율 주행 차량(100)은 현지 시간에 대응되는 목적지가 XX타워라는 스케줄 장소 정보를 수신한 경우, 자율 주행 차량의 네비게이션 기능을 실행하여 목적지를 XX타워로 하는 주행 경로를 결정할 수 있다.
단계 S3240에서 자율 주행 차량(100)은 설정된 주행 경로에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
자율 주행 차량(100)은 네비게이션(5130)의 기능에 따라 결정된 주행 경로로 자율 주행 차량(100)을 제어하기 위한 차량 제어 정보를 획득할 수 있다. 획득한 차량 제어 정보에 따라 자율 주행 차량(100)은 제어될 수 있다. 이때, 결정된 주행 경로로 자율 주행 차량(100)이 자율 주행할 수 있다.
도 33은 일 실시 예에 따른 자율 주행 차량(100)의 주행 속도를 스케줄 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S3310은 상술된 단계 S3210에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S3320에서 자율 주행 차량(100)은 단계 S3310에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 스케줄 정보를 포함하는 경우, 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행한다.
단계 S3330에서 자율 주행 차량(100)은 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정한다.
단계 S3340에서 자율 주행 차량(100)은 설정된 주행 평균 속도에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 34는 일 실시 예에 따른 자율 주행 차량(100)의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
본 명세서에서, 주행 환경 정보는 차량의 주행과 관련된 외부적 상황을 나타내는 정보를 포함할 수 있다.
예를 들면, 주행 환경 정보는 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 포함할 수 있다. 지역 정보는 현재 위치에 대응하는 도로의 상황을 나타내는 정보인 도로 상황 정보 및/또는 현재 위치에 대응되는 지역에 대한 정보인 지역 정보를 포함할 수 있다. 도로 상황 정보는 노면 상태 정보, 교통 상황 정보, 사고 발생 정보, 도로 공사 정보, 주변 건물 정보, 주변 시설 정보, 주변 경치 정보 등을 포함할 수 있다.
다른 예로, 주행 환경 정보는 주변 환경 상황에 따라 우회 주행 요구 여부를 나타낼 수 있다. 우회 주행 요구 여부는 지역 정보에 따라 결정될 수 있다.
다른 예로, 주행 환경 정보는 주변 환경 상황에 따라 자율 주행 가부를 나타낼 수 있다. 자율 주행 가부는 지역 정보에 따라 결정될 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다.
자율 주행 차량(100)이 주행을 시작하기 전에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 주행 환경 정보를 반영하여 주행 경로를 설정할 수 있다.
자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 네비게이션 기능을 실행하여 수신한 주행 환경 정보를 반영하여 주행 경로를 갱신할 수 있다.
예를 들면, 수신된 디바이스 측 정보(210)가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어하여, 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경할 수 있다. 일례로, 자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 경로에 통제 지역이 있음을 나타내는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어하여, 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경할 수 있다.우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보는 주행 경로 상에 문제가 있음을 나타내는 정보를 포함할 수 있다. 예를 들면, 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보는 주행 경로 상의 노면 상태가 불량함을 나타내는 정보, 주행 경로 상에서 교통 사고가 발생했음을 나타내는 정보, 주행 경로 상에 공사가 진행 중임을 나타내는 정보, 주행 경로 상에 교통 정체 중임을 나타내는 정보, 주행 경로 상에 서행 구간(예: 어린이 보호구역)이 있음을 나타내는 정보, 주행 경로 상에 운전 불편 지역(예: 급커브)이 있음을 나타내는 정보 등을 포함할 수 있다.
도 35는 일 실시 예에 따른 자율 주행 차량(100)의 네비게이션 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3510에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 우회 주행이 요구되는 상황인지 여부를 나타낼 수 있다.
단계 S3520에서 자율 주행 차량(100)은 단계 S3510에서 수신된 디바이스 측 정보(210)가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 주행 환경 정보에 따라 자율 주행 차량(100)의 네비게이션 기능을 제어한다.
단계 S3530에서 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 경로를 우회 경로로 변경한다.
단계 S3540에서 자율 주행 차량(100)은 변경된 우회 경로에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 36은 일 실시 예에 따른 자율 주행 차량(100)의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 자율 주행 불가를 나타내는 주행 환경 정보를 포함할 수 있다.
자율 주행 차량(100)이 자율 주행 중에 디바이스(1000)로부터 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 기능을 제어하여 수신한 주행 환경 정보를 반영하여 자율 주행 기능을 중지할 수 있다.
예를 들면, 수신된 디바이스 측 정보(210)가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어하여 자율 주행을 중지할 수 있다. 일례로, 자율 주행 차량(100)이 주행 중에 디바이스(1000)로부터 주행 경로에 주의 지역이 있음을 나타내는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어하여, 자율 주행 차량(100)의 자율 주행 기능을 중지할 수 있다.자율 주행 불가를 나타내는 주행 환경 정보는 주행 경로 상에 수동 주행이 요구되는 지역을 나타는 정보를 포함할 수 있다. 예를 들면, 자율 주행 불가를 나타내는 주행 환경 정보는 주행 경로 상의 노면 상태가 빙판길이므로 수동 주행으로 서행 운전이 요구됨을 나타내는 정보, 주행 경로 상에서 교통 사고가 발생함에 따라 수동 주행으로 돌발 상황에 대처하는 운전이 요구됨을 나타내는 정보, 주행 경로 상에 공사가 진행 중임을 나타내는 정보, 주행 경로 상에 교통 정체 중임을 나타내는 정보, 주행 경로 상에 서행 구간(예: 어린이 보호구역)이 있음을 나타내는 정보, 주행 경로 상에 자동 주행 불가 지역(예: 지도 정보가 없는 지역)이 있음을 나타내는 정보 등을 포함할 수 있다.
도 37은 일 실시 예에 따른 자율 주행 차량(100)의 자율 주행 기능을 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3710에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 자율 주행이 불가능함을 나타낼 수 있다.
단계 S3720에서 자율 주행 차량(100)은 단계 S3710에서 수신된 디바이스 측 정보(210)가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 주행 환경 정보에 따라 자율 주행 차량(100)의 자율 주행 기능을 제어한다. 자율 주행 차량(100)은 자율 주행 기능을 제어하여 자율 주행을 중지할 수 있다. 예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210)에 포함된 생체 정보를 이용하여 사용자가 운전할 수 있는 상황인 경우, 자율 주행 기능을 제어하여 자율 주행 기능을 중지할 수 있다.
단계 S3730에서 자율 주행 차량(100)은 자율 주행을 중지하도록 제어된다. 자율 주행 차량(100)은 수동 주행으로 주행됨을 알리는 메시지를 디스플레이할 수 있다. 자율 주행 기능이 중지되는 경우, 자율 주행 차량(100)은 사용자의 수동 조작에 기초하여 주행할 수 있다.
도 38은 일 실시 예에 따른 자율 주행 차량(100)을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 주행 환경 정보를 포함할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 주행 환경 정보는 지역 정보를 포함할 수 있다.
자율 주행 차량(100)이 수신된 디바이스 측 정보(210)가 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 주행 환경 정보에 따라 자율 주행 차량의 운전 모드를 결정할 수 있다.
예를 들면, 자율 주행 차량(100)이 현재 주변 지역이 어린이 보호 구역이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 서행 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주변 지역이 공사 구역이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 안전 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주행 중인 도로가 빙판길이라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 미끄럼 방지 모드로 결정할 수 있다.
다른 예로, 자율 주행 차량(100)이 현재 주변 지역이 관광지라는 주행 환경 정보를 수신한 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 주행 장치를 실행하여, 자율 주행 차량(100)의 운전 모드를 서행 모드로 결정할 수 있다.
수신된 디바이스 측 정보(210)가 지역 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 기능을 실행하여, 지역 정보에 대응되는 주행 평균 속도를 설정할 수 있다. 설정된 주행 평균 속도는 지역 정보에 대응되는 주행 모드에서 설정된 평균속도일 수 있다. 자율 주행 차량(100)은 지역 정보로부터 획득한 지역의 특성에 따라 주행 평균 속도를 결정할 수 있다. 예를 들면 500m 전방에 유명한 건물이나 탑이 있는 경우, 표준 평균 속도보다 낮게 주행 평균 속도를 결정할 수 있다.
수신된 디바이스 측 정보(210)가 지역 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 액셀러레이터(accelerator) 및/또는 브레이크 기능을 실행하여, 지역 정보에 대응되는 최대 가속도 및/또는 평균 가속도를 설정할 수 있다. 예를 들면, 현재 주행 중인 지역의 도로가 미끄럽다는 지역 정보를 수신한 경우, 자율 주행 차량(100)은 표준보다 낮은 최대 가속도 및/또는 평균 가속도로 주행하도록 제어될 수 있다.
도 39는 일 실시 예에 따른 자율 주행 차량(100)을 지역 정보를 나타내는 주행 환경 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S3910에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 주행 환경 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 주행 환경 정보는 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 포함할 수 있다.
단계 S3920에서 자율 주행 차량(100)은 단계 S3910에서 수신된 디바이스 측 정보(210)가 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 자율 주행 차량의 주행 장치를 실행한다.
단계 S3930에서 자율 주행 차량(100)은 주행 환경 정보에 따라 자율 주행 차량의 운전 모드를 결정한다.
단계 S3940에서 자율 주행 차량(100)은 단계 S3930에서 결정된 운전 모드에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 40은 일 실시 예에 따른 자율 주행 차량(100)을 날씨 정보에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 날씨 정보를 포함할 수 있다.
수신된 디바이스 측 정보(210)가 날씨 정보를 포함하는 경우, 자율 주행 차량(100)은 자율 주행 차량(100)의 온도 조절 기능을 실행하여, 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정할 수 있다. 온도 조절 기능은 냉방 장치, 난방 장치, 제습 장치, 환기 장치(예: 환풍기, 창문) 등에 의해 수행될 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 현재 지역의 날씨가 맑다는 날씨 정보를 수신한 경우, 자율 주행 차량(100)은 현재 차량 내부 온도보다 낮은 값을 설정 온도로 결정할 수 있다. 날씨가 맑고 공기가 깨끗하다는 정보가 날씨 정보에 포함되어 있고, 설정 온도가 현재 차량 내부 온도보다 낮은 경우, 자율 주행 차량(100)은 창문을 열도록 창문 장치를 제어할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 현재 지역의 날씨가 춥고 비가 온다는 날씨 정보를 수신한 경우, 자율 주행 차량(100)은 현재 차량 내부 온도보다 높은 값을 설정 온도로 결정할 수 있다. 날씨가 춥고 비가 온다는 정보가 날씨 정보에 포함되어 있고, 설정 온도가 현재 차량 내부 온도보다 높은 경우, 자율 주행 차량(100)은 창문을 닫고, 제습 기능을 실행시키고, 히터 기능을 실행시키도록 제어될 수 있다.
상술한 예에 제한되지 않으며, 자율 주행 차량은 날씨 정보(온도, 습도, 눈 또는 비가 오는지 여부, 미세먼지 정도, 공기 오염 정도 등)에 대응하여 자율 주행 차량(100)에 포함된 냉방 장치, 난방 장치, 제습 장치, 환기 장치(예: 환풍기, 창문) 등을 실행할 수 있다. 예를 들면, 자율 주행 차량은 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 갱신할 수 있다.
도 41은 일 실시 예에 따른 자율 주행 차량(100)을 날씨 정보에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S4110에서 자율 주행 차량(100)은 자율 주행 차량(100)과 통신하는 디바이스(1000)에서 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 날씨 정보를 포함하는 디바이스 측 정보(210)를 디바이스(1000)로부터 수신할 수 있다.
단계 S4120에서 자율 주행 차량(100)은 단계 S2310에서 수신된 디바이스 측 정보(210)가 날씨 정보를 포함하는 경우, 자율 주행 차량의 온도 조절 기능을 실행한다.
단계 S4130에서 자율 주행 차량(100)은 날씨 정보에 따라 자율 주행 차량 내부의 설정 온도를 결정한다.
단계 S4140에서 자율 주행 차량(100)은 단계 S3230에서 결정된 설정 온도에 기초하여 결정된 차량 제어 정보에 따라 제어된다.
도 42는 일 실시 예에 따른 자율 주행 차량(100)을 서버(200)로부터 획득한 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
서버(200)는 디바이스(1000) 및/또는 자율 주행 차량(100)과 통신할 수 있다.
자율 주행 차량(100)은 디바이스(1000)로부터 디바이스 측 정보(210)를 획득할 수 있다. 자율 주행 차량(100)이 디바이스(1000)로부터 수신한 디바이스 측 정보(210)는 디바이스(1000)가 서버(200)로부터 수신한 정보를 포함할 수 있다.
자율 주행 차량(100)은 서버(200)로부터 서버 측 정보를 획득할 수 있다. 예를 들면, 자율 주행 차량(100)이 서버(200)로부터 수신한 서버 측 정보는 디바이스(1000)의 사용자가 디바이스(1000)를 통해 서버(200)에 업로드한 정보를 포함할 수 있다. 자율 주행 차량(100)이 서버(200)로부터 수신한 서버 측 정보는 기존에 서버에 저장된 정보를 포함할 수 있다. 예를 들면 서버 측 정보는 스케줄 정보, 주변 상황 정보 날씨 정보 등을 포함할 수 있다.
자율 주행 차량(100)은 서버(200)로부터 수신한 서버 측 정보 및/또는 디바이스(1000)로부터 수신한 디바이스 측 정보(210)를 이용하여 차량 제어 정보를 획득할 수 있다.
예를 들면, 자율 주행 차량(100)은 서버 측 정보에 포함된 사용자 스케줄 정보와 디바이스 측 정보(210)에 포함된 사용자 생체 정보를 이용하여 자율 주행 차량(100)의 주행 경로를 설정하는 차량 제어 정보를 획득할 수 있다.
다른 예로, 자율 주행 차량(100)은 서버 측 정보에 포함된 주행 환경 정보와 디바이스 측 정보(210)에 포함된 사용자 생체 정보를 이용하여 자율 주행 차량(100)의 운전 모드 및/또는 주행 경로를 결정하는 차량 제어 정보를 획득할 수 있다.
도 43은 일 실시 예에 따른 자율 주행 차량(100)을 서버로부터 획득한 정보를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S4310에서 디바이스(1000)는 서버(200)로부터 디바이스 통신 정보(231)를 수신한다.
단계 S4320에서 디바이스(1000)는 디바이스 센싱 정보(241)를 획득한다.
단계 S4330에서 디바이스(1000)는 디바이스 저장 정보(251)를 획득한다.
단계 S4340에서 자율 주행 차량(100)은 서버(200)로부터 차량 통신 정보(232)를 수신한다.
단계 S4350에서 자율 주행 차량(100)은 차량 센싱 정보(242)를 획득한다.
단계 S4360에서 자율 주행 차량(100)은 차량 저장 정보(252)를 획득한다.
단계S4370에서 자율 주행 차량(100)은 디바이스 통신 정보(231), 디바이스 센싱 정보(241), 디바이스 저장 정보(251) 및 디바이스 생성 정보 중 적어도 하나를 이용하여 획득된 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한다.
단계S4380에서 자율 주행 차량(100)은 자율 주행 차량에서 수행할 수 있는 복수개의 기능 중 적어도 하나를 결정하고, 단계S4390에서 자율 주행 차량(100)은 단계 S80에서 결정된 기능을 제어할 수 있다.
자율 주행 차량(100)은 차량 통신 정보(232), 차량 센싱 정보(242), 차량 저장 정보(252) 및 차량 생성 정보 중 적어도 하나를 이용하여 차량 측 정보(220)를 획득할 수 있다. 자율 주행 차량(100)은 차량 측 정보(220) 및/ 디바이스 측 정보(210)를 이용하여 자율 주행 차량(100)에서 수행할 수 있는 복수개의 기능 중 적어도 하나를 결정할 수 있다. 또한, 자율 주행 차량(100)은 차량 측 정보(220) 및/ 디바이스 측 정보(210)에 따라 결정된 기능을 제어할 수 있다.
예를 들면, 자율 주행 차량(100)은 디바이스 측 정보(210) 및/또는 차량 측 정보(220)에 포함된 생체 정보, 스케줄 정보, 주변 상황 정보, 날씨 정보 등을 이용하여, 자율 주행 차량의 네비게이션(5130), 주행 장치(예: 엑셀러레이터, 브레이크, 변속기, 조향 장치), 내부 조명(예: 실내 등), 외부 조명(예: 라이트), 오디오/비디오 장치(예: 스피커), 온도 조절 장치(예: 에어컨, 히터, 환풍기, 창문, 열선), 지오 펜스, 기타 주변 장치(예: 와이퍼, 방향 지시등, 터치스크린), 센서들 등을 제어할 수 있으나 이에 제한되지 않는다.
또한, 상술된 모든 실시 예가 서버 측 정보에 기초하여 구현될 수 있다.
도 44는 일 실시 예에 따른 자율 주행 차량(100)을 복수의 디바이스(1000-1, 1000-2)로부터 획득되는 정보를 이용하여 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 획득할 수 있다. 예를 들면, 자율 주행 차량(100)은 제1 디바이스(1000-1)로부터 제1 디바이스 측 정보(210)를 수신하고, 제2 디바이스(1000-2)로부터 제2 디바이스 측 정보(210)를 수신할 수 있다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 이용하여 차량 제어 정보를 획득할 수 있다. 도 1 내지 도 43에서 상술된 실시 예에서 기재된 디바이스 측 정보(210)로 제1 디바이스 측 정보 및/또는 제2 디바이스 측 정보가 이용될 수 있다.
자율 주행 차량(100)은 수신한 제1 디바이스 측 정보와 제2 디바이스 측 정보간에 각각 서로 다른 우선 순위를 부여할 수 있다.
예를 들면, 자율 주행 차량(100)은 탑승자의 탑승 위치에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면 운전석에 탑승한 탑승자의 디바이스(1000-2)로부터 획득되는 정보에 가장 높은 우선 순위를 부여할 수 있다.
다른 예로, 자율 주행 차량(100)은 복수의 디바이스 각각에 부여된 고유 식별 번호에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면, 제1 디바이스(1000-1)의 고유 식별 번호에 최우선 순위를 부여하도록 자율 주행 차량(100)의 설정 옵션에서 설정된 경우, 자율 주행 차량(100)은 제1 디바이스 측 정보의 우선순위를 제2 디바이스 측 정보의 우선순위 보다 높게 설정할 수 있다.
다른 예로, 자율 주행 차량(100)은 복수의 디바이스 각각의 로그인 정보에 따라 서로 다른 우선 순위를 부여할 수 있다. 예를 들면, 제1 디바이스(1000-1)에 로그인된 로그인 정보에 최우선 순위를 부여하도록 자율 주행 차량(100)의 설정 옵션에서 설정된 경우, 자율 주행 차량(100)은 제1 디바이스 측 정보의 우선순위를 제2 디바이스 측 정보의 우선순위 보다 높게 설정할 수 있다.
자율 주행 차량(100)은 복수의 디바이스(1000-1, 1000-2)로부터 정보를 획득한 경우, 우선 순위가 더 높은 정보에 기초하여 차량 제어 정보를 생성할 수 있다. 예를 들면, 제1 디바이스 측 정보에 포함된 생체 정보는 사용자가 덥다는 정보를 포함하고, 제2 디바이스 측 정보에 포함된 생체 정보는 사용자가 춥다는 정보를 포함하고, 제1 디바이스 측 정보의 우선 순위가 제2 디바이스 측 정보의 우선 순위보다 높은 경우, 자율 주행 차량(100)은 에어컨을 작동시키는 차량 제어 정보를 생성할 수 있다. 또한, 생성된 차량 제어 정보에 따라 자율 주행 차량(100)은 에어컨을 작동시킬 수 있다.
도 45는 일 실시 예에 따른 자율 주행 차량(100)을 문의 화면을 디스플레이함에 따라 제어하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
다른 실시 예에 따른 자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 문의 화면을 디스플레이할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 피로도가 높은 상태를 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 현재 위치(3310)에서 도착지(3320)까지 가는 주행 경로 상에 졸음 쉼터(3330)를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 어린이 보호 구역에 진입하였음을 나타내는 주행 환경 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 운전 모드를 서행 모드로 변경할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
다른 예로, 자율 주행 차량(100)이 타이어 공기압이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 포함하는 경우, 자율 주행 차량(100)은 주변 정비소를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
본 실시 예에 한정되지 않으며, 상술된 모든 실시 예에 대해서 제어 정보에 따라 자동 주행 차량(100)을 제어하기 전에 문의 화면을 디스플레이하는 동작이 수행될 수 있다.
도 46은 일 실시 예에 따른 자율 주행 차량(100)을 문의 화면을 디스플레이함에 따라 제어하는 방법을 나타내는 흐름도이다.
단계 S4610에서 디바이스(1000)는 디바이스(1000)에 포함된 센서를 이용하여 생체 정보를 획득한다.
단계 S4620에서 자율 주행 차량(100)은 디바이스 센싱 정보(241)를 디바이스(1000)로부터 수신한다. 수신한 디바이스 센싱 정보(241)는 높은 피로도를 나타내는 정보를 포함할 수 있다.
단계 S4630에서 자율 주행 차량(100)은 서버(200)에 졸음 쉼터 관련 정보를 요청할 수 있다.
단계 S4640에서 서버(200)는 현재 자율 주행 차량(100)의 위치 주변의 졸음 쉼터 위치 정보 및 졸음 쉼터까지의 경로 정보를 획득할 수 있다.
단계 S4650에서 자율 주행 차량(100)은 서버(200)로부터 졸음 쉼터 관련 정보를 수신한다. 졸음 쉼터 관련 정보는 현재 자율 주행 차량(100)의 위치 주변의 졸음 쉼터 위치 정보 및 졸음 쉼터까지의 경로 정보를 포함할 수 있다.
단계 S4660에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득한다. 예를 들면 자율 주행 차량(100)은 기름 잔량에 대한 정보를 획득할 수 있다. 차량 측 정보(220)는 단계 S4650에서 획득한 졸음 쉼터 관련 정보를 포함할 수 있다. 졸음 쉼터 관련 정보는 차량 통신 정보(232)에 포함될 수 있다. 또한 자율 주행 차량(100)은 현재 기름 잔량으로 졸음 쉼터까지 주행이 가능한지 여부를 결정할 수 있다.
단계S4670에서 자율 주행 차량(100)은 단계 S4620에서 획득한 디바이스 센싱 정보(241) 및 단계 S4660에서 획득한 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다. 또한, 자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 결정된 기능을 제어하는 동작의 진행 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 피로도가 높은 상태를 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 차량 측 정보(220)는 충분한 기름 잔량을 나타내는 정보를 포함하는 경우, 자율 주행 차량(100)은 졸음 쉼터를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이할 수 있다.
단계S4680에서 자율 주행 차량(100)은 단계 S4670에서 디스플레이한 문의 화면에 대응한 사용자의 응답을 수신할 수 있다. 예를 들면, 자율 주행 차량(100)은 “예”와 “아니오” 각각에 대응되는 두 개의 버튼 중 “예”에 대응되는 버튼에 대한 터치 입력을 수신할 수 있다.
단계S4690에서 자율 주행 차량(100)은 단계 S4680에서 수신한 사용자 입력에 대응하여, 단계 S4670에서 생성된 제어 정보에 따라 제어될 수 있다. 예를 들면, 자율 주행 차량(100)이 졸음 쉼터를 경유지로 추가할지 문의하는 문의 화면을 디스플레이한 후, 사용자로부터 “예”에 대응하는 입력을 수신한 경우, 자율 주행 차량(100)은 주행 경로에 졸음 쉼터를 경유지로 추가할 수 있다.
도 47은 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나의 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
또한, 자율 주행 차량(100)은 디바이스(100)로부터 디바이스 측 정보(210)를 획득하고, 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210) 및 차량 측 정보(220)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
자율 주행 차량(100)은 생성된 제어 정보에 따라 결정된 기능을 제어하기 전에 자율 주행 차량(100)에 포함된 디스플레이에 문의 화면을 디스플레이하는 과정을 생략할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 우선순위가 높은 생방송 스케줄 정보 및 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 현재 위치(3610)에서 도착지(3630)까지 가는 주행 경로 상에 방송국(3620)을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 기름 잔량이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 획득한 경우, 자율 주행 차량(100)은 주유소을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 주유소를 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 타이어 공기압이 소정 기준 이하임을 나타내는 정보를 포함하는 차량 측 정보(220)를 획득한 경우, 자율 주행 차량(100)은 정비소를 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 정비소를 경유지로 추가할 수 있다.
다른 예로, 자율 주행 차량(100)이 디바이스(1000)로부터 사용자가 위급 상태임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신한 경우, 자율 주행 차량(100)은 병원을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 병원을 경유지로 추가할 수 있다.
어떤 경우에 문의 화면을 디스플레이하는 과정이 생략이 생략되는지는 미리 결정되어 있을 수 있다. 예를 들면, 생방송 스케줄과 같은 최우선순위 스케줄이 있는 경우, 주행 가능 거리가 소정 거리 이하인 경우(예: 기름 부족, 차량 이상 등), 사용자의 위급 상태인 경우 등에 대해서 문의 화면을 디스플레이하는 과정이 생략되도록 미리 설정되어 있을 수 있다. 자율 주행 차량(100)은 사용자의 입력에 따라 설정 사항을 갱신할 수 있다.
본 실시 예에 한정되지 않으며, 상술된 모든 실시 예에 대해서, 미리 설정된 경우, 제어 정보에 따라 자동 주행 차량(100)을 제어하기 전에 문의 화면을 디스플레이하는 동작이 생략될 수 있다.
도 48은 일 실시 예에 따른 자율 주행 차량(100)의 주행 경로에 경유지를 문의 화면의 디스플레이 없이 추가하는 일례를 나타내는 도면이다.
단계 S4810에서 디바이스(1000)는 디바이스(1000)에 포함된 저장매체 또는 서버(200)로부터 사용자의 스케줄 정보를 획득한다.
단계 S4820에서 자율 주행 차량(100)은 디바이스 측 정보(210)를 디바이스(1000)로부터 수신한다. 수신한 디바이스 측 정보(210)는 생방송 출연 스케줄 정보를 포함할 수 있다.
단계 S4830에서 자율 주행 차량(100)은 서버(200)에 생방송 출연 스케줄 장소인 방송국 관련 정보를 요청할 수 있다.
단계 S4840에서 서버(200)는 방송국의 위치 정보 및 현재 자율 주행 차량(100)의 위치로부터 방송국까지의 경로 정보를 획득할 수 있다.
단계 S4850에서 자율 주행 차량(100)은 서버(200)로부터 방송국 관련 정보를 수신한다. 방송국 관련 정보는 방송국의 위치 정보 및 현재 자율 주행 차량(100)의 위치로부터 방송국까지의 경로 정보를 포함할 수 있다.
단계 S4860에서 자율 주행 차량(100)은 차량 측 정보(220)를 획득한다. 자율 주행 차량(100)은 기름 잔량에 대한 정보를 획득할 수 있다. 차량 측 정보(220)는 단계 S50에서 획득한 방송국 관련 정보를 포함할 수 있다. 방송국 관련 정보는 차량 통신 정보(232)에 포함될 수 있다. 또한 자율 주행 차량(100)은 현재 기름 잔량으로 방송국까지 주행이 가능한지 여부를 결정할 수 있다.
단계S4870에서 자율 주행 차량(100)은 단계 S4820에서 획득한 디바이스 측 정보(210) 및 단계 S4860에서 획득한 차량 측 정보(220)에 기초하여 자율 주행 차량(100)의 복수의 기능 중 제어하고자 하는 하나를 기능을 결정할 수 있다. 또한, 자율 주행 차량(100)은 획득한 디바이스 측 정보(210)에 따라 결정된 기능을 제어하기 위한 차량 제어 정보를 생성할 수 있다.
예를 들면, 자율 주행 차량(100)이 디바이스(1000)로부터 우선순위가 높은 생방송 스케줄 정보 및 사용자가 수면 중임을 나타내는 생체 정보를 포함한 디바이스 측 정보(210)를 수신하고, 차량 측 정보(220)는 충분한 기름 잔량을 나타내는 정보를 포함하는 경우, 자율 주행 차량(100)은 방송국을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가하기 위한 차량 제어 정보를 생성할 수 있다.
단계S4880에서 자율 주행 차량(100)은 단계 S4870에서 생성된 제어 정보에 따라 제어될 수 있다. 단계 S4870에서 생성된 제어 정보에 따라, 자율 주행 차량(100)은 방송국을 경유지로 추가할지 여부를 문의하는 문의 화면을 디스플레이하는 과정을 생략하고 방송국을 경유지로 추가할 수 있다.
도 49 내지 도 50은 일 실시 예에 따라 디바이스(1000)가 웨어러블 디바이스(1001)인 경우, 웨어러블 디바이스(1001)와 통신하는 자율 주행 차량(100)을 제어하는 방법 및 디바이스 측 정보(210)에 따라 제어되는 자율 주행 차량(100)을 설명한다.
도 49는 일 실시 예에 따른 자율 주행 차량(100)을 자율 주행 차량(100)과 통신하는 웨어러블 디바이스(1001)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S4901에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량이 웨어러블 디바이스(1001)과 통신 범위 내에 있는지 여부를 결정할 수 있다.
단계 S4902에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)가 통신 범위 내에 있는지 여부를 결정할 수 있다.
단계 S4903에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량(100)과 핸드셰이킹할 수 있다.
단계 S4904에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)과 핸드셰이킹 할 수 있다.
단계 S4905에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 웨어러블 디바이스 기능 데이터 베이스(1702)를 로드하여 자율 주행 차량(100)으로 송신할 수 있다.
단계 S4906에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)로부터 웨어러블 디바이스 기능 데이터 베이스(1702)를 수신한다.
단계 S4907에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 자율 주행 차량 기능 데이터 베이스(5382)를 로드한다.
단계 S4908에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 기능 매트릭스를 생성한다.
단계 S4909에서 자율 주행 차량(100)은 디스플레이(5372)를 이용하여 자율 주행 차량(100)의 기능과 웨어러블 디바이스(1001)의 기능간에 연계하는 방법에 대한 사용자 입력을 요청하는 화면을 디스플레이한다.
사용자의 선택이 있는 경우(S4910), 단계 S4911에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 사용자 입력에 대한 정보를 자율 주행 차량(100)으로 전송한다.
단계 S4912에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 웨어러블 디바이스(1001)로부터 사용자 입력에 대한 정보를 수신한다.
단계 S4913에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 사용자 입력에 대한 정보를 기능 매트릭스와 비교를 수행한다.
단계 S4914에서 자율 주행 차량(100)은 자율 주행 차량 소프트웨어(5381)를 이용하여 매칭이 되는지 여부를 결정한다. 자율 주행 차량(100)은 획득되는 디바이스 측 정보(210) 및 차량 측 정보(220)를 이용하여 매칭되는 기능이 있는지 여부를 결정할 수 있다.
사용자 입력이 자율 주행 차량(100)의 냉난방 기능과 웨어러블 디바이스(1001)의 체온 측정 기능을 연계할 것을 나타내는 경우, 자율 주행 차량(100)은 냉난방 기능을 실행할지 여부를 웨어러블 디바이스(1001)로부터 획득된 체온 정보에 기초하여 결정할 수 있다. 일례로, 체온이 소정 수치 이상인 경우 에어컨이 동작하도록 체온 측정 기능과 냉난방 기능이 매칭될 수 있다.
단계 S4915에서 자율 주행 차량(100)은 단계 S4914에서 매칭이 되는 기능이 자율 주행 차량(100)의 기능인 경우, 매칭되는 자율 주행 차량(100)의 기능을 활성화시킨다.
단계 S4916에서 자율 주행 차량(100)은 단계 S4914에서 매칭이 되는 기능이 자율 주행 차량(100)의 기능인 경우, 자율 주행 차량 소프트웨어(5381)를 이용하여 매칭되는 웨어러블 디바이스(1001)의 기능을 활성화시키기 위한 신호를 웨어러블 디바이스(1001)로 송신한다.
단계 S4917에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 자율 주행 차량(100)이 단계 S4916에서 송신한 신호를 수신한다.
단계 S4918에서 웨어러블 디바이스(1001)는 웨어러블 디바이스 소프트웨어(1701)를 이용하여 매칭되는 웨어러블 디바이스(1001)의 기능을 활성화시킨다.
도 50은 일 실시 예에 따른 자율 주행 차량(100)을 자율 주행 차량(100)과 페어링을 통해 통신하는 웨어러블 디바이스(1001)를 이용하여 제어하는 방법을 나타내는 흐름도이다.
단계 S5010에서 통신부(1500), 센싱부(1400), 출력부(1200), 프로세서(1300), 전원 공급 장치(810) 및 메모리(1700) 등을 포함하는 웨어러블 디바이스(1001)가 제공된다. 메모리(1700)는 웨어러블 디바이스 소프트웨어(1701)와 웨어러블 디바이스 기능 데이터 베이스(1702)를 포함할 수 있다.
단계 S5020에서 통신 장치(110), 센서 장치(5200), 주행 장치(5100), 주변 장치(5300), 프로세서(120), 전원 공급 장치(5400) 및 메모리(5500) 등을 포함하는 자율 주행 차량(100)이 제공된다. 메모리(5500)는 자율 주행 차량 소프트웨어(5381) 및 자율 주행 차량 기능 데이터 베이스(5382)를 포함할 수 있다.
단계 S5030에서 웨어러블 디바이스(1001)는 웨어러블 셋팅을 위한 사용자 입력을 허용한다. 웨어러블 디바이스(1001)는 웨어러블 동작 시스템에 대한 셋팅을 사용자 입력에 기초하여 결정할 수 있다..
단계 S5040에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)와 자율 주행 차량(100)간의 페어링을 수행한다.
단계 S5050에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능을 연계한다. 예를 들면 기설정된 방식에 따라 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능이 연계될 수 있다.
단계 S5060에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)의 기능과 자율 주행 차량(100)의 기능 간의 연계를 설정하여 줄 것을 요청하는 화면을 디스플레이한다.
단계 S5070에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 단계 S5060에서 디스플레이된 요청에 대응하는 사용자 입력을 수신한다.
단계 S5080에서 웨어러블 디바이스(1001)는 자율 주행 차량(100)으로부터 또는 자율 주행 차량(100)은 웨어러블 디바이스(1001)로부터 연계된 기능에 대한 데이터를 수신한다.
단계 S5090에서 웨어러블 디바이스(1001) 및/또는 자율 주행 차량(100)은 연계된 기능을 단계 S5080에서 수신한 데이터를 이용하여 활성화시킨다.
상기 살펴 본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (31)

  1. 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 단계;
    상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하는 단계; 및
    상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 단계;
    를 포함하는 자율 주행 차량 제어 방법.
  2. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 스케줄 정보의 장소에 대응되는 주행 경로를 설정하는 자율 주행 차량 제어 방법.
  3. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행하여, 상기 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정하는 자율 주행 차량 제어 방법.
  4. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 생체 정보에 따라 상기 자율 주행 차량의 주행 경로 상에 경유지를 추가하는 자율 주행 차량 제어 방법.
  5. 제 4 항에 있어서,
    상기 자율 주행 차량의 차량 측 정보를 획득하는 단계를 더 포함하고,
    상기 경유지는 상기 생체 정보 및 상기 차량 측 정보에 따라 결정된 주행 가능 거리에 따라 결정되는 자율 주행 차량 제어 방법.
  6. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 제어하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량 제어 방법.
  7. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 내부 조명 기능을 실행하여, 상기 디바이스의 사용자의 행위를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 내부 밝기를 결정하는 자율 주행 차량 제어 방법.
  8. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 냉방, 난방 및 환기 장치 중 적어도 하나를 실행하여, 상기 사용자의 심신 상태를 나타내는 생체 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량 제어 방법.
  9. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 오디오/비디오 장치를 실행하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 결정된 컨텐츠를 재생하는 자율 주행 차량 제어 방법.
  10. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 네비게이션 기능을 제어하여, 상기 자율 주행 차량의 주행 경로를 우회 경로로 변경하는 자율 주행 차량 제어 방법.
  11. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 자율 주행 기능을 제어하여 자율 주행을 중지하는 자율 주행 차량 제어 방법.
  12. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 실행하여, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량 제어 방법.
  13. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 수신된 디바이스 측 정보가 날씨 정보를 포함하는 경우, 상기 자율 주행 차량의 온도 조절 기능을 실행하여, 상기 날씨 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량 제어 방법.
  14. 제 1 항에 있어서,
    상기 수신하는 단계는
    상기 자율 주행 차량으로부터 소정 범위 내에 위치한 상기 디바이스에 통신을 요청하는 단계; 및
    상기 통신 요청에 대한 응답으로 상기 디바이스 측 정보를 수신하는 단계를 포함하는 자율 주행 차량 제어 방법.
  15. 제 1 항에 있어서,
    상기 차량 제어 정보를 결정하는 단계는
    상기 가이드 라인에 기초하여, 상기 자율 주행 차량이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 상기 수신된 디바이스 측 정보에 대응하여 설정하는 단계를 포함하는 자율 주행 차량 제어 방법.
  16. 자율 주행 차량과 통신하는 디바이스에서 획득된 디바이스 측 정보를 상기 디바이스로부터 수신하는 통신 장치; 및
    상기 디바이스에서 획득할 수 있는 디바이스 측 정보와 상기 자율 주행 차량의 적어도 하나의 기능을 제어하는 차량 제어 정보를 연계한 가이드 라인에 기초하여, 상기 수신된 디바이스 측 정보에 대응되는 상기 차량 제어 정보를 결정하고, 상기 결정된 차량 제어 정보에 따라 상기 자율 주행 차량을 제어하는 프로세서;
    를 포함하는 자율 주행 차량.
  17. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 스케줄 정보의 장소에 대응되는 주행 경로를 설정하는 자율 주행 차량.
  18. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 스케줄 정보를 포함하는 경우, 상기 자율 주행 차량의 액셀러레이터(accelerator) 기능을 실행하여, 상기 스케줄 정보의 시간에 대응되는 주행 평균 속도를 설정하는 자율 주행 차량.
  19. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 위급 상태를 나타내는 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 네비게이션 기능을 실행하여, 상기 생체 정보에 따라 상기 자율 주행 차량의 주행 경로 상에 경유지를 추가하는 자율 주행 차량.
  20. 제 19 항에 있어서,
    상기 프로세서는
    상기 자율 주행 차량의 차량 측 정보를 획득하고,
    상기 경유지는 상기 생체 정보 및 상기 차량 측 정보에 따라 결정된 주행 가능 거리에 따라 결정되는 자율 주행 차량.
  21. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 제어하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량.
  22. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 내부 조명 기능을 실행하여, 상기 디바이스의 사용자의 행위를 나타내는 상기 생체 정보에 따라 상기 자율 주행 차량의 내부 밝기를 결정하는 자율 주행 차량.
  23. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 냉방, 난방 및 환기 장치 중 적어도 하나를 실행하여, 상기 사용자의 심신 상태를 나타내는 생체 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량.
  24. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 생체 정보를 포함하는 경우, 상기 자율 주행 차량의 오디오/비디오 장치를 실행하여, 상기 디바이스의 사용자의 심신 상태를 나타내는 상기 생체 정보에 따라 결정된 컨텐츠를 재생하는 자율 주행 차량.
  25. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 우회 주행이 요구되는 상황임을 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 네비게이션 기능을 제어하여, 상기 자율 주행 차량의 주행 경로를 우회 경로로 변경하는 자율 주행 차량.
  26. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 자율 주행 불가를 나타내는 주행 환경 정보를 포함하는 경우, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 자율 주행 기능을 제어하여 자율 주행을 중지하는 자율 주행 차량.
  27. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 상기 디바이스 사용자의 현재 위치에 대응하는 지역 정보를 나타내는 주행 환경 정보를 포함하는 경우, 상기 자율 주행 차량의 주행 장치를 실행하여, 상기 주행 환경 정보에 따라 상기 자율 주행 차량의 운전 모드를 결정하는 자율 주행 차량.
  28. 제 16 항에 있어서,
    상기 프로세서는
    상기 수신된 디바이스 측 정보가 날씨 정보를 포함하는 경우, 상기 자율 주행 차량의 온도 조절 기능을 실행하여, 상기 날씨 정보에 따라 상기 자율 주행 차량 내부의 설정 온도를 결정하는 자율 주행 차량.
  29. 제 16 항에 있어서,
    상기 통신 장치는
    상기 자율 주행 차량으로부터 소정 범위 내에 위치한 상기 디바이스에 통신을 요청하고,
    상기 통신 요청에 대한 응답으로 상기 디바이스 측 정보를 수신하는 자율 주행 차량.
  30. 제 16 항에 있어서,
    상기 프로세서는
    상기 가이드 라인에 기초하여, 상기 자율 주행 차량이 가지는 복수개의 기능을 실행하는 장치들 각각을 제어하는 제어 파라미터들 중 적어도 하나를 상기 수신된 디바이스 측 정보에 대응하여 설정하는 자율 주행 차량.
  31. 제 1 항 내지 제 15 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020160054121A 2015-07-30 2016-05-02 자율 주행 차량 및 자율 주행 차량 제어 방법 KR20170015114A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP16830885.6A EP3330827A4 (en) 2015-07-30 2016-07-29 AUTONOMOUS VEHICLE AND CONTROL PROCEDURE OF AN AUTONOMOUS VEHICLE
PCT/KR2016/008355 WO2017018852A1 (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법
KR1020160096766A KR20170015240A (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법
US15/744,489 US10962378B2 (en) 2015-07-30 2016-07-29 Autonomous vehicle and method of controlling the autonomous vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562199184P 2015-07-30 2015-07-30
US62/199,184 2015-07-30

Publications (1)

Publication Number Publication Date
KR20170015114A true KR20170015114A (ko) 2017-02-08

Family

ID=58155164

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160054121A KR20170015114A (ko) 2015-07-30 2016-05-02 자율 주행 차량 및 자율 주행 차량 제어 방법
KR1020160096766A KR20170015240A (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020160096766A KR20170015240A (ko) 2015-07-30 2016-07-29 자율 주행 차량 및 자율 주행 차량 제어 방법

Country Status (3)

Country Link
US (1) US10962378B2 (ko)
EP (1) EP3330827A4 (ko)
KR (2) KR20170015114A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230864A3 (ko) * 2017-06-14 2019-02-07 엘지전자 주식회사 외부광을 반영하여 객체의 뎁스를 센싱하는 방법 및 이를 구현하는 장치
KR20200056300A (ko) * 2018-11-13 2020-05-22 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 자율주행차량의 경로 검증 실행을 제어하기 위한 방법 및 장치
KR20220019114A (ko) * 2020-08-05 2022-02-16 한양대학교 에리카산학협력단 자율주행 차량의 원격 진료 시스템

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170015115A (ko) 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
US10351000B2 (en) * 2016-08-01 2019-07-16 International Business Machines Corporation Intelligent vehicle fuel gauge
WO2018100619A1 (ja) * 2016-11-29 2018-06-07 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2018104956A1 (en) * 2016-12-06 2018-06-14 Mahesh Gupta A vehicle tracker for monitoring operation of a vehicle and method thereof
DE102016225788A1 (de) * 2016-12-21 2018-06-21 Audi Ag Verfahren zum Konfigurieren eines Fahrzeugs
JP6705373B2 (ja) * 2016-12-27 2020-06-03 トヨタ自動車株式会社 自動運転システム
KR102621410B1 (ko) * 2017-02-17 2024-01-04 경북대학교산학협력단 자율주행차량에서의 IoT 통신 연결 정보 제공 방법
US10108272B1 (en) * 2017-05-30 2018-10-23 Motorola Mobility Llc Wearable device with gesture recognition module
KR102064220B1 (ko) * 2017-07-06 2020-01-09 엘지전자 주식회사 차량용 주행 시스템 및 차량
KR102013590B1 (ko) * 2017-07-18 2019-08-23 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
GB2567855B (en) * 2017-10-27 2020-06-17 Jaguar Land Rover Ltd Wearable monitor for personal thermal control in a vehicle
JP6802778B2 (ja) * 2017-12-01 2020-12-23 本田技研工業株式会社 車両、経路算出装置及び経路算出方法
KR101998703B1 (ko) * 2018-01-17 2019-07-11 (주) 블루테크솔루션 차량 관제 제어 시스템
US20220185113A1 (en) * 2018-02-12 2022-06-16 Uatc, Llc Autonomous Vehicle Interface System With Multiple Interface Devices Featuring Redundant Vehicle Commands
JP2019137314A (ja) * 2018-02-14 2019-08-22 株式会社デンソー 温度調整装置
US11022975B2 (en) * 2018-06-12 2021-06-01 Rivian Ip Holdings, Llc Systems and methods for operating an autonomous vehicle in a presence of hazardous materials
DE102018212902A1 (de) 2018-08-02 2020-02-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bestimmen eines digitalen Assistenten zum Ausführen einer Fahrzeugfunktion aus einer Vielzahl von digitalen Assistenten in einem Fahrzeug, computerlesbares Medium, System, und Fahrzeug
US10789973B2 (en) * 2018-08-28 2020-09-29 Honda Motor Co., Ltd. Management of autonomous vehicle driving features based on driver state
EP3640102A1 (en) * 2018-10-17 2020-04-22 BlackBerry Limited Route-based selections of vehicle parameter sets
US10836234B2 (en) * 2018-11-16 2020-11-17 Ford Global Technologies, Llc Actuation of HVAC systems in anticipation of a user's thermal needs based on remote smart device data
KR102184598B1 (ko) * 2018-11-29 2020-12-03 (주)제인모터스 자율주행차량의 운전자 응급상황발생판단에 기반한 주행예측 및 안전주행시스템
DE102018220646B4 (de) 2018-11-30 2021-07-22 Volkswagen Aktiengesellschaft Verfahren zum Anpassen der Fahrtroute eines autonom fahrenden Kraftfahrzeuges
DE112019006803T5 (de) * 2019-01-31 2021-11-18 Toyota Motor Europe Hilfssystem zur Unterstützung des automatischen Parkens
US11560153B2 (en) 2019-03-07 2023-01-24 6 River Systems, Llc Systems and methods for collision avoidance by autonomous vehicles
KR102219020B1 (ko) * 2019-04-02 2021-02-24 엘지전자 주식회사 차량 제어 방법
DE102019005062A1 (de) * 2019-07-19 2021-01-21 Man Truck & Bus Se Verfahren zum Führen eines Kraftfahrzeugs
JP2021105795A (ja) * 2019-12-26 2021-07-26 パナソニックIpマネジメント株式会社 退避制御装置、車両、および退避制御方法
JP7298497B2 (ja) 2020-01-31 2023-06-27 トヨタ自動車株式会社 車両
US11285780B2 (en) * 2020-05-07 2022-03-29 Samuel Rodriguez Vehicle climate control assembly
CN111586179A (zh) * 2020-05-09 2020-08-25 芜湖宏景电子股份有限公司 一种车载智能红外测温系统及其控制方法
JP2022041245A (ja) * 2020-08-31 2022-03-11 トヨタ自動車株式会社 車両用表示制御装置、方法、プログラムおよび車両用表示システム
JP2022047081A (ja) * 2020-09-11 2022-03-24 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び、情報処理方法
CN112158151A (zh) * 2020-10-08 2021-01-01 南昌智能新能源汽车研究院 一种基于5g网络的自动驾驶汽车手势控制系统及其方法
US11922530B2 (en) * 2020-11-24 2024-03-05 Verizon Connect Development Limited Systems and methods for utilizing models to determine real time estimated times of arrival for scheduled appointments
KR20220081821A (ko) * 2020-12-09 2022-06-16 현대자동차주식회사 차량의 멀티미디어 제어 장치 및 방법
US20220203995A1 (en) * 2020-12-27 2022-06-30 Hyundai Mobis Co., Ltd. Driver management system and method of operating same
US11904855B2 (en) * 2021-02-12 2024-02-20 Toyota Motor Engineering & Manufacturing North America, Inc. Cooperative driving system and method
US11904893B2 (en) 2021-06-30 2024-02-20 Motional Ad Llc Operating a vehicle
US20230052474A1 (en) * 2021-08-11 2023-02-16 Rovi Guides, Inc. Systems and methods for operating a vehicle based on physiological parameters of an occupant
KR20230084876A (ko) * 2021-12-06 2023-06-13 주식회사 인디제이 상황 기반 콘텐츠 제공 방법 및 장치
CN114179828B (zh) * 2021-12-22 2023-09-26 奇瑞汽车股份有限公司 汽车的控制方法、装置及计算机存储介质
CN115665198B (zh) * 2022-10-21 2023-05-26 中国铁道科学研究院集团有限公司 一种基于5g通信的铁路列车运行环境监测方法及系统

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997015033A2 (de) 1995-10-21 1997-04-24 Paetz Joachim Verfahren und vorrichtung zur unterbindung des einschlafens und der reaktionskontrolle von personen
JP2002236993A (ja) 2001-02-09 2002-08-23 Kddi Research & Development Laboratories Inc 走行制御システム
JP2003151084A (ja) * 2001-11-15 2003-05-23 Fujitsu Ten Ltd 車両の動態管理システム
KR20040087870A (ko) 2003-04-09 2004-10-15 (주)에이치쓰리시스템 가정용 의료기를 이용한 온라인 건강 관리 방법 및 시스템
JP2008009913A (ja) 2006-06-30 2008-01-17 Toyota Motor Corp 車両自動運転システム
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8633979B2 (en) 2010-12-29 2014-01-21 GM Global Technology Operations LLC Augmented road scene illustrator system on full windshield head-up display
US8698639B2 (en) 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
KR20130015739A (ko) 2011-08-04 2013-02-14 엘지전자 주식회사 운전자 상태 기반의 자율 이동 방법 및 그 장치
KR20130061901A (ko) 2011-12-02 2013-06-12 현대자동차주식회사 운전자의 생체 신호를 이용한 가변형 운전자-차량 인터페이스 제공방법
KR101294087B1 (ko) * 2011-12-09 2013-08-08 기아자동차주식회사 전기 자동차용 친환경 드라이빙 운전자 지원 시스템 및 지원 방법
US9632666B2 (en) * 2012-02-16 2017-04-25 GM Global Technology Operations LLC Team-oriented HVAC system
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US8880240B2 (en) 2012-11-19 2014-11-04 GM Global Technology Operations LLC Methods of controlling vehicle interfaces using device motion and near field communications
KR101427954B1 (ko) 2012-12-27 2014-08-08 현대자동차 주식회사 반도체 소자 및 그 제조 방법
US10347127B2 (en) 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
KR101736306B1 (ko) 2013-02-27 2017-05-29 한국전자통신연구원 차량과 운전자간 협력형 자율 주행 장치 및 방법
WO2014145018A2 (en) 2013-03-15 2014-09-18 Levant Power Corporation Active vehicle suspension improvements
JP6079415B2 (ja) 2013-05-01 2017-02-15 村田機械株式会社 自律移動体
US8874301B1 (en) 2013-07-09 2014-10-28 Ford Global Technologies, Llc Autonomous vehicle with driver presence and physiological monitoring
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
US9760698B2 (en) 2013-09-17 2017-09-12 Toyota Motor Sales, U.S.A., Inc. Integrated wearable article for interactive vehicle control system
US9536353B2 (en) 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US10088844B2 (en) 2013-11-22 2018-10-02 Ford Global Technologies, Llc Wearable computer in an autonomous vehicle
US10198696B2 (en) * 2014-02-04 2019-02-05 GM Global Technology Operations LLC Apparatus and methods for converting user input accurately to a particular system function
EP3114574A4 (en) * 2014-03-03 2018-03-07 Inrix, Inc. Traffic obstruction detection
MX358325B (es) * 2014-03-26 2018-08-15 Nissan Motor Aparato de presentacion de informacion y metodo de presentacion de informacion.
US9399430B2 (en) * 2014-12-02 2016-07-26 Honda Motor Co., Ltd. System and method for vehicle control integrating health priority alerts of vehicle occupants
US10099608B2 (en) * 2015-01-16 2018-10-16 Ford Global Technologies, Llc Haptic vehicle alert based on wearable device
US20160378112A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Autonomous vehicle safety systems and methods
KR20170015115A (ko) 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 자율 주행 차량 제어 방법
KR20170015113A (ko) 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량을 제어하는 장치 및 방법
KR20170015112A (ko) 2015-07-30 2017-02-08 삼성전자주식회사 자율 주행 차량 및 그의 동작 방법
US10220705B2 (en) * 2015-08-12 2019-03-05 Madhusoodhan Ramanujam Sharing autonomous vehicles
US9896100B2 (en) * 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
US9834224B2 (en) * 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US10300889B2 (en) * 2017-09-08 2019-05-28 Ford Global Technologies, Llc Iris-detection alignment for vehicle feature activation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230864A3 (ko) * 2017-06-14 2019-02-07 엘지전자 주식회사 외부광을 반영하여 객체의 뎁스를 센싱하는 방법 및 이를 구현하는 장치
US11498228B2 (en) 2017-06-14 2022-11-15 Lg Electronics Inc. Method for sensing depth of object by considering external light and device implementing same
KR20200056300A (ko) * 2018-11-13 2020-05-22 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 자율주행차량의 경로 검증 실행을 제어하기 위한 방법 및 장치
KR20220019114A (ko) * 2020-08-05 2022-02-16 한양대학교 에리카산학협력단 자율주행 차량의 원격 진료 시스템

Also Published As

Publication number Publication date
EP3330827A1 (en) 2018-06-06
EP3330827A4 (en) 2019-03-13
US20180266834A1 (en) 2018-09-20
US10962378B2 (en) 2021-03-30
KR20170015240A (ko) 2017-02-08

Similar Documents

Publication Publication Date Title
KR20170015240A (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
KR101930462B1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
CN106293032B (zh) 便携终端设备及其控制方法和装置
KR102637101B1 (ko) 자율 주행 차량 및 그의 동작 방법
CN107776574B (zh) 一种自动驾驶车辆的驾驶模式切换方法和装置
KR102064220B1 (ko) 차량용 주행 시스템 및 차량
US20180203451A1 (en) Apparatus and method of controlling an autonomous vehicle
US20240101024A1 (en) Messaging system
JP6900950B2 (ja) 制振制御装置及び制振制御方法、並びに移動体
RU2682956C2 (ru) Навигация, основанная на бдительности водителя или пассажира
CN104867202B (zh) 基于车辆的移动装置屏幕投影的系统和方法
JP6525300B1 (ja) 自動車及び自動車用プログラム
JP2019131096A (ja) 車両制御支援システムおよび車両制御支援装置
CN110758241A (zh) 乘员保护方法及装置
US11701984B2 (en) Apparatus and method for controlling interior of vehicle
KR101841501B1 (ko) 카 쉐어링을 위한 이동 단말기 및 카 쉐어링 시스템의 동작 방법
KR101850857B1 (ko) 디스플레이 장치 및 이를 포함하는 차량
KR102023995B1 (ko) 차량 제어 방법
KR101892498B1 (ko) 차량용 사용자 인터페이스 장치, 차량과 이동 단말기의 연동 시스템
KR102659196B1 (ko) 자율 주행 차량을 제어하는 장치 및 방법
US11954950B2 (en) Information interaction method and information interaction system
KR102654866B1 (ko) 자율 주행 차량 및 자율 주행 차량 제어 방법
JP7011858B2 (ja) 自動車及び自動車用プログラム
WO2024024470A1 (ja) 空調制御装置、空調制御方法、及び、プログラム
JP2023134517A (ja) 自動車及び自動車用プログラム