KR102625398B1 - 차량 및 그 제어방법 - Google Patents

차량 및 그 제어방법 Download PDF

Info

Publication number
KR102625398B1
KR102625398B1 KR1020180095870A KR20180095870A KR102625398B1 KR 102625398 B1 KR102625398 B1 KR 102625398B1 KR 1020180095870 A KR1020180095870 A KR 1020180095870A KR 20180095870 A KR20180095870 A KR 20180095870A KR 102625398 B1 KR102625398 B1 KR 102625398B1
Authority
KR
South Korea
Prior art keywords
driver
information
current
vehicle
emotion
Prior art date
Application number
KR1020180095870A
Other languages
English (en)
Other versions
KR20200020313A (ko
Inventor
우승현
장동선
안대윤
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180095870A priority Critical patent/KR102625398B1/ko
Priority to US16/213,014 priority patent/US10663312B2/en
Publication of KR20200020313A publication Critical patent/KR20200020313A/ko
Application granted granted Critical
Publication of KR102625398B1 publication Critical patent/KR102625398B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Abstract

개시된 발명의 일 실시예에 따른 차량은, 특정 정황에 대한 운전자 감정 인식의 정확도를 높이기 위해, 운전자의 생체신호, 차량 주행 정보를 수집하는 감지부, 외부 서버와 통신하는 통신부, 상기 통신부를 통해 수신한 정황 정보와 감정 태깅 데이터(Emotion Tagging Data) 및 상기 운전자의 생체신호를 저장하는 저장부 및 상기 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하고, 상기 차량 주행 정보를 기초로 상기 운전자의 성향 정보를 획득하며, 상기 감정 태깅 데이터로부터 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보를 추출하는 제어부를 포함한다.

Description

차량 및 그 제어방법{VEHICLE AND CONTROL METHOD FOR THE SAME}
본 발명은 운전자의 감정을 자동으로 인식함에 있어서, 인식된 운전자의 감정이 차량 주행과 관련된 특정 정황에 의해 발현된 것인지, 그 외의 다른 요인으로 인해 발현된 것인지를 판단하여 운전자의 감정 인식에 대한 정확도를 높이는 차량 및 그 제어방법에 관한 것이다.
최근에 차량에도 인공지능이 탑재되어 운전자의 감정에 반응하여 작동하는 기술이 등장하고 있다. 예를 들면, 운전자의 감정에 따라 차량 내의 환경을 변화시키거나 운전자의 감정을 반영하여 주행 경로를 제공하는 기술들이 등장하고 있다.
그런데 종래 기술은 운전자의 정황(situation)을 구체적으로 고려하지 않고 운전자의 생체신호로부터 획득된 운전자의 감정에만 반응하여 피드백을 제공하였기 때문에 운전자가 어떤 이유로 해당 감정을 갖는지 알 수 없는 문제가 있었다.
본 발명은, 운전자의 감정을 자동으로 인식함에 있어서, 인식된 운전자의 감정이 차량 주행과 관련된 특정 정황에 의해 발현된 것인지, 그 외의 다른 요인으로 인해 발현된 것인지를 판단하여 운전자의 감정 인식에 대한 정확도를 높이는 차량 및 그 제어방법을 제공하는 것을 목적으로 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따른 차량은, 운전자의 생체신호, 차량 주행 정보를 수집하는 감지부, 외부 서버와 통신하는 통신부, 상기 통신부를 통해 수신한 정황 정보와 감정 태깅 데이터(Emotion Tagging Data) 및 상기 운전자의 생체신호를 저장하는 저장부 및 상기 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하고, 상기 차량 주행 정보를 기초로 상기 운전자의 성향 정보를 획득하며, 상기 감정 태깅 데이터로부터 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보를 추출하는 제어부를 포함한다.
또한, 상기 제어부는, 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보로서 상기 운전자의 성향과 동일 성향을 갖는 다른 운전자들의 상기 현재 정황에 대한 감정 정보를 추출하고, 상기 추출된 감정 정보가 상기 운전자의 현재 감정 정보와 일치하는지 여부를 판단할 수 있다.
또한, 상기 제어부는, 상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하지 않는 경우, 상기 운전자의 현재 정황에 대한 감정 정보를 상기 저장부 및 상기 외부 서버에 전송하여 상기 감정 태깅 데이터가 업데이트 되도록 제어할 수 있다.
또한, 상기 제어부는, 상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하는 경우, 상기 감정 태깅 데이터로부터 상기 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출할 수 있다.
또한, 상기 제어부는, 상기 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하고, 상기 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 상기 운전자의 현재 감정 정보는 상기 추출된 감정 정보와 다른 것으로 판단할 수 있다.
또한, 상기 제어부는, 상기 추출된 감정 정보와 다른 것으로 판단된 상기 운전자의 현재 감정 정보 및 현재 정황 정보를 상기 외부 서버에 전송하여 상기 감정 태깅 데이터가 업데이트 되도록 제어할 수 있다.
또한, 상기 제어부는, 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성할 수 있다.
또한, 일 실시예에 따른 차량은, 상기 제어부의 제어에 따라 상기 현재 정황 정보, 상기 추출된 감정 정보 및 상기 주행 경로 중 적어도 하나를 화면에 표시하는 디스플레이;를 더 포함할 수 있다.
또한, 일 실시예에 따른 차량은, 상기 운전자로부터 상기 목표 감정을 입력 받는 입력부;를 더 포함할 수 있다.
또한, 상기 현재 정황 정보는, 현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 차량의 제어방법은, 운전자의 생체신호, 차량 주행 정보를 수집하는 단계, 외부 서버로부터 정황 정보와 감정 태깅 데이터를 수신하는 단계, 상기 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하는 단계, 상기 차량 주행 정보를 기초로 상기 운전자의 성향 정보를 획득하는 단계, 및 상기 감정 태깅 데이터로부터 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보를 추출하는 단계를 포함할 수 있다.
또한, 상기 감정 정보를 추출하는 단계는, 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보로서 상기 운전자의 성향과 동일 성향을 갖는 다른 운전자들의 상기 현재 정황에 대한 감정 정보를 추출하는 단계 및 상기 추출된 감정 정보가 상기 운전자의 현재 감정 정보와 일치하는지 여부를 판단하는 단계를 포함할 수 있다.
또한, 상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하지 않는 경우, 상기 운전자의 현재 정황에 대한 감정 정보를 상기 외부 서버에 전송하는 단계를 더 포함할 수 있다.
또한, 상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하는 경우, 상기 감정 태깅 데이터로부터 상기 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출하는 단계를 더 포함할 수 있다.
또한, 상기 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하는 단계 및 상기 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 상기 운전자의 현재 감정 정보는 상기 추출된 감정 정보와 다른 것으로 판단하는 단계를 더 포함 할 수 있다.
또한, 상기 추출된 감정 정보와 다른 것으로 판단된 상기 운전자의 현재 감정 정보 및 현재 정황 정보를 상기 외부 서버에 전송하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 차량의 제어방법은, 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 차량의 제어방법은, 상기 현재 정황 정보, 상기 추출된 감정 정보 및 상기 주행 경로 중 적어도 하나를 디스플레이 하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 차량의 제어방법은, 상기 운전자로부터 상기 목표 감정을 입력 받는 단계를 더 포함할 수 있다.
상기 현재 정황 정보는, 현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함할 수 있다.
일 측면의 차량 및 그 제어방법에 따르면, 운전자의 감정을 자동으로 인식함에 있어서, 인식된 운전자의 감정이 차량 주행과 관련된 특정 정황에 의해 발현된 것인지, 그 외의 다른 요인으로 인해 발현된 것인지를 판단하여 운전자의 감정 인식에 대한 정확도를 높일 수 있다.
또한, 운전자의 감정을 긍정적 감정으로 개선하기 위한 주행 경로 생성 시, 주행과 관련되지 않은 정황에 의한 운전자의 감정 변화를 반영하지 않을 수 있으므로, 주행에 더 적합한 경로를 생성할 수 있다.
도 1은 일 실시예에 따른 차량의 외관을 나타낸 도면이다.
도 2는 일 실시예에 따른 차량의 내부를 나타낸 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 제어부를 구체적으로 설명하기 위한 도면이다.
도 5는 생체신호와 감정인자 간의 상관관계 정보를 도시한 표이다.
도 6은 감정모델을 도시한 도면이다.
도 7은 감정 태깅 데이터를 설명하기 위한 표이다.
도 8은 주요 정황 인자를 기초로 주행 경로를 생성하는 것을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 차량의 제어방법을 설명하는 순서도이다.
도 10은 다른 실시예에 따른 차량의 제어방법을 설명하는 순서도이다.
도 11은 일 실시예에 따른 차량과 외부 서버 간의 관계를 설명하는 도면이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
또한, 본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 따른 차량의 외관을 나타낸 도면이다.
도 1을 참조하면, 일 실시예에 따른 차량(10)은 차량(10)을 이동시키는 차륜(12,13), 차량(10) 내부를 외부로부터 차폐시키는 도어(15), 운전자에게 차량(10) 전방의 시야를 제공하는 전면 유리(16), 운전자에게 차량(10) 후방의 시야를 제공하는 사이드 미러(14L,14R)를 포함할 수 있다.
차륜(12,13)은 차량의 전방에 마련되는 전륜(12), 차량의 후방에 마련되는 후륜(13)을 포함하며, 차량(10) 내부에 마련되는 구동 장치(미도시)는 차량(10)이 전방 또는 후방으로 이동하도록 전륜(12) 또는 후륜(13)에 회전력을 제공할 수 있다. 이와 같은 구동 장치는 화석 연료를 연소시켜 회전력을 생성하는 엔진 또는 축전기로부터 전원을 공급받아 회전력을 생성하는 모터일 수 있다.
도어(15)는 차량(10)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자 또는 동승자가 차량(10)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(10)의 내부를 외부로부터 차폐시킨다. 또한, 차량(10) 외부에는 도어(15)를 개폐할 수 있는 손잡이(17)가 마련될 수 있다.
전면 유리(16)는 본체의 전방 상측에 마련되어 차량(10) 내부의 운전자가 차량(10) 전방의 시각 정보를 획득할 수 있다. 사이드 미러(14L, 14R)는 차량(10)의 좌측에 마련되는 좌측 사이드 미러(14L) 및 우측에 마련되는 우측 사이드 미러(14R)를 포함하며, 차량(10) 내부의 운전자가 차량(10)의 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.
또한, 차량(10) 전방의 시야를 확보해주는 전조등(11)이 차량의 좌측(11L)과 오른쪽(11R)에 마련될 수 있다.
이외에도 차량(10)은 차량 주변의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서, RPM을 감지하는 RPM 센서, GPS 신호를 수신하여 차량의 현재 위치를 감지하는 위치 센서, 차량의 운동 상태를 감지하는 속도 센서 등의 감지 장치를 포함할 수 있다.
근접 센서는 차량(10)의 측면 또는 후면에 감지 신호를 발신하고, 다른 차량 등의 장애물로부터 반사되는 반사 신호를 수신할 수 있다. 수신된 반사 신호의 파형을 기초로 차량(10) 측면이나 후면의 장애물의 존재 여부를 감지하고, 장애물의 위치를 검출할 수 있다.
도 2는 일 실시예에 따른 차량의 내부를 나타낸 도면이다.
도 2를 참조하면, 대시보드(26)의 중앙 영역에는 차량(10)의 주행 정보와 더불어 각종 영상 또는 이미지를 표시하는 내비게이션 장치(25)가 마련될 수 있다.
내비게이션 장치(25)는 운전자에게 목적지까지의 경로를 제공하거나 특정 위치에 대한 지도 정보를 제공하는 기능을 할 수 있다. 일반적으로 이러한 기능을 하는 장치는 내비게이션 장치라 불리나, 그 밖에 통상의 지식을 가진 자에게 통용되는 다양한 용어로 지칭될 수 있다.
내비게이션 장치(25)는 차량의 주행 정보를 포함한 각종 이미지 및 영상을 표시하기 위해 디스플레이를 포함할 수 있다.
또한, 운전석(22L)과 조수석(22R) 사이에 죠그 셔틀(jog shuttle) 타입의 센터 입력부(33)가 마련될 수도 있다. 운전자는 센터 입력부(33)를 돌리거나 가압하거나 상, 하, 좌 또는 우 방향으로 미는 방식으로 제어 명령을 입력할 수 있다.
차량(10)에는 음향을 출력할 수 있는 스피커(23)가 마련될 수 있다. 스피커(23)는 오디오 기능, 비디오 기능, 내비게이션 기능 및 기타 부가 기능을 수행함에 있어 필요한 음향을 출력할 수 있다. 도 2에 스피커(23)가 운전석(22L) 자리와 조수석(22R) 자리에 각각 하나씩 마련되는 것으로(23L, 23R) 도시되어 있으나, 이에 한정되는 것은 아니고 차량 내부의 다양한 위치에 마련될 수 있다.
운전석(22L) 쪽의 대시보드(26)에는 스티어링 휠(27)이 마련되며, 스티어링 휠(27)과 인접한 영역에 원격 조작 장치(미도시; 일 예로서, 포브(FOB)키를 삽입할 수 있는 키 홈(28)가 형성될 수 있다. 키 홈(28)에 차량(10)의 시동을 온(On)/오프(Off)할 수 있는 원격 조작 장치가 삽입되거나, 무선 통신망을 통해 원격 조작 장치와 차량(10) 간의 인증이 완료되면 외부 단말기와 차량(10)이 연결될 수 있다.
대시보드(26)에는 차량(10)의 시동을 온/오프 제어하는 시동 버튼(29)이 마련될 수 있고, 키 홈(28)에는 차량을 제어할 수 있는 원격 조작 장치가 삽입되거나, 무선 통신망을 통해 외부 단말기(미도시)와 차량(10) 간의 인증이 성공하면 사용자의 시동 버튼(29) 가압에 의해 차량(10)의 시동이 켜질 수 있다.
한편, 차량(10)에는 공조 장치가 구비되어 난방 및 냉방을 모두 수행할 수 있으며, 가열되거나 냉각된 공기를 통풍구(21)를 통해 배출하여 차량(10) 내부의 온도를 제어할 수 있다. 도 2에 통풍구(21)가 운전석(22L) 자리와 조수석(22R) 자리에 각각 하나씩 마련되는 것으로(21L, 21R) 도시되어 있으나, 이에 한정되는 것은 아니고 차량 내부의 다양한 위치에 마련될 수 있다.
차량(10)에는 탑승한 운전자의 감정을 판단하기 위해, 다양한 생체신호 인식 장치가 마련될 수 있고, 생체신호 인식 장치로서, 운전자의 얼굴 또는 손동작 인식을 위한 카메라(35), 심장 박동을 측정하기 위한 전극(37), 음성 인식을 수행하기 위한 마이크(미도시) 등이 포함될 수 있다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 3을 참조하면, 차량(10)은 운전자의 생체신호 및 차량 주행 정보를 수집하는 감지부(100), 외부 서버(50)와 통신하는 통신부(200), 감지부(100)가 수집한 정보 및 통신부(200)를 통해 수신한 정보를 저장하는 저장부(300), 운전자의 입력을 수신하는 입력부(400), 정황 정보, 운전자의 감정 정보 및 주행 경로 중 적어도 하나를 화면에 표시하는 디스플레이(500) 및 감지부(100), 통신부(200), 저장부(300), 입력부(400) 및 디스플레이(500)의 작동을 제어하는 제어부(600)를 포함한다.
제어부(600)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램이 저장된 적어도 하나의 메모리 및 저장된 프로그램을 실행하는 적어도 하나의 프로세서를 포함한다. 제어부(600)에 포함되는 메모리와 프로세서는 하나의 칩에 집적되는 것도 가능하고, 물리적으로 분리되는 것도 가능하다. 이하, 본 발명의 구성요소에 대해 구체적으로 설명한다.
감지부(100)는 사용자의 피부 전기 전도도를 측정하는 전기 피부 반응(GSR, Galvanic Skin Response) 센서, 사용자의 피부 온도를 측정하는 피부 온도(Skin temperature) 센서, 사용자의 심장 박동수를 측정하는 심장 박동(HR, Heart Rate) 센서, 사용자의 뇌파를 측정하는 뇌파(EEG, Electroencephalogram) 센서, 사용자의 음성 신호를 측정하는 음성 인식 센서, 사용자의 얼굴표정을 분석할 수 있는 안면 분석(face analysis) 장치 및 눈동자의 위치를 추적할 수 있는 아이 트랙커(Eye Tracker) 중 적어도 하나를 포함할 수 있다. 감지부(10)에 포함될 수 있는 센서가 위 센서들로 한정되는 것은 아니며, 사람의 생체신호를 측정 또는 수집할 수 있는 센서들이 모두 포함될 수 있다.
또한, 감지부(100)는 차량(10)의 주행 정보를 수집하는 복수의 센서를 포함할 수 있다. 차량 주행 정보에는 운전자가 조작하는 스티어링 휠(27)의 조향 각도 및 토크 정보, 순간 가속도 정보, 액셀레이터를 밟는 횟수 및 강도, 브레이크를 밟는 횟수 및 강도, 차량 운행 중 차선을 넘어가는 횟수 및 범위, 도로 종류(고속 도로 또는 일반 국도)에 따른 차량 속도 정보, 앞차와의 차간 거리 및 차간 거리 유지율 등이 포함될 수 있다.
이러한 차량 주행 정보로부터 파악되는 운전자의 성향은 과격함, 조신함, 급함, 느긋함, 적극적임, 수동적임 등으로 나타날 수 있다.
또한, 감지부(100)는 차량(10)의 내부 정황(situation) 정보를 수집할 수 있다. 내부 정황 정보는 동승자 탑승 여부, 운전자 및 동승자 간의 대화 정보, 멀티미디어 작동 정보, 차량 내부 밝기 정보, 차량 내부 온도 정보 등을 포함할 수 있다.
통신부(200)는 외부 서버(50)와 통신하여 각종 정보를 송수신할 수 있다. 통신부(200)는 외부 서버(50)로부터 외부 정황 정보와 감정 태깅 데이터를 수신할 수 있다.
외부 정황(situation) 정보는 현재 위치, 현재 시간, 날씨, 교통 상황 정보, 도로 정보, 차량(10)이 주행 중인 도로 상에서 발생한 이벤트 정보 중 적어도 하나를 포함하는 정보이다. 교통 상황 정보는 현재 교통 상황이 원활한지, 정체 중인지에 대한 정보를 포함할 수 있고, 도로 정보는 신호등, 횡단보도, 도로 종류 및 형태, 도로 제한 속도에 대한 정보를 포함할 수 있다.
이하, '정황 정보'는 상술한 차량 주행 정보, 내부 정황 정보 및 외부 정황 정보를 포함하는 포괄적인 용어로 사용된다.
감정 태깅 데이터는 복수의 운전자들이 특정 정황에서 표출한 감정 정보를 모아둔 데이터를 의미한다. 감정 태깅 데이터는 이하 도 7에서 자세히 설명된다.
또한, 통신부(200)는 외부 서버(50)로부터 운전자의 생체신호와 감정인자 간 상관관계 정보 및 감정모델을 수신할 수 있다. 운전자의 생체신호와 감정인자 간 상관관계 정보는 이하 도 5에서 설명되고, 감정모델은 이하 도 6에서 설명된다.
통신부(130)는 다양한 통신 방식을 이용하여 데이터를 송수신할 수 있다. 예를 들면, 통신부(130)는 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), 초광대역(UWB, Ultra-Wide Band) 통신, 근거리 무선 통신(NFC, Near Field Communication) 방식을 이용할 수 있다.
저장부(300)는 감지부(100)가 수집한 운전자의 생체신호, 통신부(200)를 통해 수신한 외부 정황 정보, 감정 태깅 데이터, 운전자의 생체신호와 감정인자 간 상관관계 정보, 운전자의 감정 정보, 감정모델을 저장할 수 있다. 저장부(140)에 저장된 정보들은 제어부(160)로 전송될 수 있고, 통신부(200)를 통해 외부 서버(50)로 전송될 수 있다.
입력부(400)는 운전자의 입력을 수신할 수 있다. 입력부(400)는 도 2에서 설명한 내비게이션 장치(25)의 터치패널, 죠그 셔틀 타입의 센터 입력부(33)를 포함하는 것으로서, 운전자의 입력을 수신할 수 있는 장치이면 입력부(400)에 해당할 수 있다. 운전자는 입력부(400)를 통해 자신의 현재 감정 정보, 목표 감정 정보를 입력할 수 있고, 차량(10)의 동작과 관련된 명령을 입력할 수 있다.
디스플레이(500)는 현재 정황 정보, 운전자의 현재 감정 정보, 감정 태깅 데이터로부터 추출된 감정 정보, 주행 경로 등 각종 정보를 표시할 수 있다. 디스플레이(500)에 표시되는 화면은 제어부(600)에 의해 제어된다.
디스플레이(500)는 패널을 포함할 수 있고, 패널은 음극선관(CRT, Cathode Ray Tube) 패널, 액정 디스플레이(LCD, Liquid Crystal Display) 패널, 발광 다이오드(LED, Light Emitting Diode) 패널, 유기 발광 다이오드(OLED, Organic Light Emitting Diode) 패널, 플라즈마 디스플레이 패널(PDP, Plasma Display Panel), 전계 방출 디스플레이(FED, Field Emission Display) 패널 중 어느 하나일 수 있다.
또한, 디스플레이(500)는 터치 입력을 수신하는 터치 패널을 포함하여 운전자의 입력을 터치로 수신할 수도 있다. 디스플레이(500)에 터치 패널이 포함되는 경우, 디스플레이(500)가 입력부(400)의 역할을 수행할 수 있다.
제어부(600)는 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하고, 차량 주행 정보를 기초로 운전자의 성향 정보를 획득하며, 감정 태깅 데이터로부터 운전자의 현재 정황 및 운전자의 성향에 대응하는 감정 정보를 추출하여 운전자의 현재 감정 정보와 비교하고, 비교 결과에 따라 감정 태깅 데이터를 업데이트 할 수 있다.
운전자의 성향 정보는 상술한 바와 같이 감지부(100)에 의해 수집된 차량 주행 정보로부터 획득될 수 있다. 차량 주행 정보로부터 파악되는 운전자의 성향은 과격함, 조신함, 급함, 느긋함, 적극적임, 수동적임 등으로 나타날 수 있다. 운전자의 현재 감정 정보를 획득하는 방법은 이하 도 5 및 도 6에서 설명된다.
제어부(600)는 감정 태깅 데이터로부터 운전자의 성향과 동일 성향을 갖는 다른 운전자들의 현재 정황에 대한 감정 정보를 추출하여 운전자의 현재 감정 정보와 일치하는지 여부를 판단할 수 있다. 운전자의 성향과 동일 성향을 갖는 다른 운전자들의 감정 정보를 추출하여 운전자의 현재 감정 정보와 비교하므로, 현재 정황과 운전자의 현재 감정 간 연관성에 대한 신뢰도를 높일 수 있다.
제어부(600)는 추출된 감정 정보와 운전자의 현재 감정 정보가 일치하지 않는 경우, 운전자의 현재 정황에 대한 감정 정보를 외부 서버(50)에 전송하여 감정 태깅 데이터가 업데이트 되도록 제어할 수 있다. 이는 외부 서버(50)가 특정 정황에 대한 운전자의 감정을 학습할 수 있도록 하기 위한 것이다.
반대로, 추출된 감정 정보와 운전자의 현재 감정 정보가 일치하는 경우, 제어부(600)는 감정 태깅 데이터로부터 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출할 수 있다.
주요 정황 인자는, 운전자와 동일한 성향을 갖는 다른 운전자들이 기준 장소 또는 기준 조건에서 표출한 감정 정보가 동일한 경우, 해당 감정 정보의 원인이 된 정황 인자 중 공통적인 정황 인자들을 의미한다.
또한, 제어부(600)는 정황 정보에 포함된 각각의 정황 인자에 우선순위를 부여하고, 미리 설정된 우선순위 이내에서 공통되는 정황 인자를 주요 정황 인자로 추출할 수도 있다. 주요 정황 인자는 이하 도 7에서 자세히 설명된다.
또한, 제어부(600)는 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하고, 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 운전자의 현재 감정 정보는 감정 태깅 데이터에서 추출된 감정 정보와 다른 것으로 판단할 수 있다.
예를 들면, 운전자의 현재 감정 정보와 감정 태깅 데이터로부터 운전자의 현재 정황에 대응하여 추출된 감정 정보가 모두 화난 감정이더라도, 운전자는 동승자와의 대화 때문에 화난 감정을 표출했을 수 있다. 동승자와의 대화라는 정황 인자에 부여된 가중치가 주요 정황 인자에 부여된 가중치보다 더 큰 경우에는, 운전자의 화난 감정이 주요 정황 인자보다 동승자와의 대화 때문에 발생한 것으로 판단할 수 있다. 따라서 이 경우 운전자의 현재 감정 정보는 감정 태깅 데이터에서 추출된 감정 정보와 동일하다고 할 수 없다.
정황 인자 각각에 부여되는 가중치는 운전자에 의해 미리 설정되거나 운전자의 성향에 따라 미리 설정된 것일 수 있다.
제어부(600)는 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성할 수 있다. 주행 경로 생성은 이하 도 8에서 자세히 설명된다.
이와 같이, 현재 정황 정보에 포함된 정황 인자 각각에 가중치를 부여하고 주요 정황 인자를 기초로 운전자의 감정 정보를 감정 태깅 데이터에서 추출된 감정 정보와 비교함으로써, 특정 정황 정보에 대한 운전자의 현재 감정 정보의 의존성을 보다 정확히 파악할 수 있다. 즉, 인식된 운전자의 현재 감정 변화가 차량 주행과 관련된 정황 때문인 것인지, 그 외의 다른 정황 때문인 것인지가 파악될 수 있다.
차량(10)은 운전자의 감정을 긍정적 감정으로 개선하기 위한 주행 경로 생성 시, 주행과 관련되지 않은 정황에 의한 운전자의 감정 변화를 반영하지 않을 수 있으므로, 주행에 더 적합한 경로를 생성할 수 있다.
도 4는 일 실시예에 따른 제어부를 구체적으로 설명하기 위한 도면이다.
도 4를 참조하면, 제어부(600)는 감정 분석 모듈(610), 운전자 성향 분석 모듈(620), 유효성 분석 모듈(630), 정황 인자 추출 모듈(640) 및 주행 경로 생성 모듈(650)을 포함할 수 있다.
감정 분석 모듈(610)은 감지부(100)에 의해 수집되는 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득할 수 있다. 감정 분석 모듈(610)은 도 5에 도시된 생체신호와 감정인자 간의 상관관계 정보 및 도 6에 도시된 감정모델을 이용하여 운전자의 감정 정보를 획득할 수 있다.
운전자 성향 분석 모듈(620)은 감지부(100)에 의해 수집된 차량 주행 정보를 분석하여 운전자의 성향 정보를 획득할 수 있다. 차량 주행 정보에는 운전자가 조작하는 스티어링 휠(27)의 조향 각도 및 토크 정보, 순간 가속도 정보, 액셀레이터를 밟는 횟수 및 강도, 브레이크를 밟는 횟수 및 강도, 차량 운행 중 차선을 넘어가는 횟수 및 범위, 도로 종류(고속 도로 또는 일반 국도)에 따른 차량 속도 정보, 앞차와의 차간 거리 및 차간 거리 유지율 등이 포함될 수 있다. 이러한 차량 주행 정보로부터 파악되는 운전자의 성향은 과격함, 조신함, 급함, 느긋함, 적극적임, 수동적임 등으로 나타날 수 있다.
유효성 분석 모듈(630)은 감정 태깅 데이터로부터 운전자의 현재 정황 및 운전자의 성향에 대응하는 감정 정보를 추출하여 운전자의 현재 감정 정보와 비교할 수 있다. 구체적으로, 유효성 분석 모듈(630)은 감정 태깅 데이터로부터 운전자의 성향과 동일 성향을 갖는 다른 운전자들의 현재 정황에 대한 감정 정보를 추출하여 운전자의 현재 감정 정보와 일치하는지 여부를 판단할 수 있다.
정황 인자 추출 모듈(640)은 감정 태깅 데이터로부터 추출된 감정 정보와 운전자의 현재 감정 정보가 일치하는 경우, 감정 태깅 데이터로부터 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출할 수 있다. 또한, 정황 인자 추출 모듈(640)은 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여할 수 있다.
유효성 분석 모듈(630)은 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 운전자의 현재 감정 정보가 감정 태깅 데이터에서 추출된 감정 정보와 다른 것으로 판단할 수 있다. 이와 같이, 현재 정황 정보에 포함된 정황 인자 각각에 가중치를 부여하고 주요 정황 인자를 기초로 운전자의 감정 정보를 감정 태깅 데이터에서 추출된 감정 정보와 비교함으로써, 특정 정황 정보에 대한 운전자의 현재 감정 정보의 의존성을 보다 정확히 파악할 수 있다.
주행 경로 생성 모듈(650)은 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성할 수 있다.
도 5는 생체신호와 감정인자 간의 상관관계 정보를 도시한 표이다.
도 5를 참조하면, 제어부(600)는 감지부(100)가 수집한 운전자의 생체신호 및 저장부(300)에 저장되어 있는 운전자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 운전자의 감정 정보를 획득할 수 있다.
도 5에서, GSR(Galvanic Skin Response) 신호는 혐오스러운(Disgust) 감정인자나 화난(Anger) 감정인자와의 상관관계 값이 각각 0.875, 0.775로서, 혐오스러운 감정인자나 화난 감정인자와 높은 관련성을 갖는 것을 알 수 있다. 따라서, GSR 측정기에 의해 수집된 운전자의 생체신호는, 운전자의 감정이 화난 감정 또는 혐오스러운 감정이라고 판단할 수 있는 기초가 된다.
즐거운(Joy) 감정인자의 경우 GSR 신호와의 상관관계 값이 상대적으로 낮은 값(0.353)이므로, 즐거운 감정인자는 GSR 신호와 관련성이 적다고 할 수 있다.
또한, EEG(Electroencephalogram) 신호는, 화난(Anger) 감정인자나 두려운(Fear) 감정인자와의 상관관계 값이 각각 0.864, 0.878으로서, 다른 감정인자보다 화난 감정인자나 두려운 감정인자와 높은 관련성을 가지고 있음을 알 수 있다. 따라서, EEG측정기에 의해 수집된 생체신호는, 운전자의 감정이 화난 감정이나 두려운 감정이라고 판단할 수 있는 기초가 된다.
이와 같이, 제어부(600)는 운전자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 운전자의 감정 정보를 획득할 수 있다. 도 5에 나타나 있는 정보들은 실험에 의해 나타난 결과일 뿐이므로, 실험 환경에 따라 다양하게 나타날 수 있다.
도 6은 감정모델을 도시한 도면이다.
도 6을 참조하면, 감정모델은 운전자의 생체신호에 따라 나타나는 운전자의 감정을 그래프 상에 분류해 놓은 것이다. 감정모델은 미리 설정된 감정축을 기준으로 운전자의 감정을 분류한다. 감정축은 센서에 의해 측정된 감정을 기준으로 정해질 수 있다. 예를 들면, 감정축1은 운전자의 음성이나 안면 분석으로 측정 가능한 긍정도가 될 수 있으며, 감정축2는 GSR이나 EEG로 측정 가능한 흥분도 또는 활성도가 될 수 있다.
운전자의 감정이 높은 긍정도와 높은 흥분도를 갖는 경우, 해당 감정은 감정1 또는 감정2로 분류될 수 있다. 반대로 운전자의 감정이 음(-)의 긍정도 즉, 부정도를 갖고 높은 흥분도를 갖는 경우, 해당 감정은 감정3 또는 감정4로 분류될 수 있다.
이러한 감정모델은 러셀(Russell)의 감정모델일 수 있다. 러셀(Russell)의 감정모델은 x축과 y축 기반의 2차원 그래프로 표시되며, 기쁨(0도), 흥분(45도), 각성(90도), 고통(135도), 불쾌(180), 우울(225도), 졸림(270도), 이완(315도) 위치의 8개 영역으로 감정을 구분한다. 또한, 8개 영역은 총 28개 감정으로 구분되어 있으며 8개 영역에 속하는 유사 감정들로 분류되어 있다.
이러한 감정모델은 통신부(200)를 통해 외부 서버(50)로부터 수신될 수 있다. 제어부(600)는 사용자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 획득한 운전자의 감정 정보를 감정모델에 매핑하고, 감정모델과 매핑된 운전자의 감정 정보가 표시되도록 디스플레이(500)를 제어할 수 있다.
또한, 감정모델은 목표 감정을 설정할 때 이용될 수 있다. 운전자의 생체신호를 분석한 결과 획득된 현재 운전자의 감정 정보가 감정모델 상에서 감정5에 매핑될 수 있다. 감정5에 해당하는 사용자의 감정은 부정적이고 흥분도가 낮은 감정일 수 있다. 따라서 제어부(600)는 운전자의 감정이 긍정적이고 흥분도가 높은 감정으로 변화되도록 목표 감정을 감정모델 상에서 감정2에 해당하는 감정으로 설정할 수 있다. 현재 운전자의 감정이 높은 긍정도를 갖는 경우에는 현재 감정을 유지하도록 할 수도 있다. 즉, 목표 감정은 운전자의 정황 및/또는 운전자의 현재 감정에 따라 다양하게 설정될 수 있다.
또한, 목표 감정은 운전자의 입력에 의해 설정될 수도 있다. 운전자는 입력부(400)를 이용하여 자신이 원하는 목표 감정을 입력할 수 있다.
도 7은 감정 태깅 데이터를 설명하기 위한 표이다.
도 7을 참조하면, 감정 태깅 데이터는 복수의 운전자들이 특정 정황에서 표출한 감정 정보를 모아둔 데이터이다. 구체적으로, 외부 서버(50)는 복수의 운전자들이 차량 주행 중 특정 장소에서 특정 시간에 발현한 감정 정보를 수집하여 저장한다.
예를 들면, 외부 서버(50)는 운전자A가 강남 사거리에서 오후 2시에 심한 교통 정체 상황인 때 발현한 화난 감정, 운전자B가 강남 사거리에서 오후 4시에 심한 교통 정체 상황인 때 발현한 화난 감정, 운전자C가 강남 사거리에서 오후 6시에 심한 교통 정체 상황인 때 발현한 화난 감정, 운전자D가 강남 사거리에서 오전 2시에 원활한 교통 상황인 때 발현한 행복한 감정을 수집하여 저장할 수 있다.
여기서 정황 정보는 장소, 시간, 교통 상황, 가속 정보, 신호등 수, 날씨, AVN 작동 상태 등을 정황 인자로 포함할 수 있다.
도 7에는 강남 사거리라는 장소에서 다양한 시간에 복수의 운전자가 발현한 감정 정보가 표시되어 있으나, 이에 한정되는 것은 아니고, 다양한 정황에서 복수의 운전자가 발현한 다양한 감정 정보가 수집될 수 있다.
도 7에서 운전자A, B, C는 차량(10)의 운전자와 동일 성향을 갖는 운전자들에 해당한다. 즉, 제어부(600)는 외부 서버(50)로부터 수신한 감정 태깅 데이터에서 운전자와 동일한 성향을 갖는 다른 운전자들이 특정 정황에 대해 발현한 감정 정보를 추출할 수 있다. 특정 정황은 운전자의 현재 정황을 의미한다.
주요 정황 인자는 다음과 같은 방법으로 추출될 수 있다.
운전자와 동일한 성향을 갖는 다른 운전자들이 기준 장소 또는 기준 조건에서 표출한 감정 정보가 동일한 경우, 해당 감정 정보의 원인이 된 정황 인자 중 공통적인 정황 인자들이 주요 정황 인자로 추출될 수 있다.
예를 들면, 도 7에 도시된 것과는 다르게, 운전자A는 강남 사거리에서 오후 2시 경 교통 체증, 저속 주행, 많은 신호등 수, 주변 소음이 심한 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수 및 주변 소음이 화난 감정의 원인이 된 정황 인자일 수 있다.
운전자B는 강남 사거리에서 오후 2시 경 교통 체증, 저속 주행, 많은 신호등 수, 높은 습도, 높은 온도 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수, 높은 습도, 높은 온도가 화난 감정의 원인이 된 정황 인자일 수 있다.
운전자C는 강남 사거리에서 오후 2시 경 교통 체증, 저속 주행, 많은 신호등 수, 도로 정비 공사 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수, 도로 정비 공사가 화난 감정의 원인이 된 정황 인자일 수 있다.
즉, 운전자와 동일한 성향을 갖는 운전자A, B, C가 기준 장소인 강남 사거리에서 모두 화난 감정을 표출하였고, 이 때, 화난 감정의 원인이 된 정황 인자 중 공통되는 정황 인자인 교통 체증, 저속 주행, 많은 신호등 수가 주요 정황 인자로 추출될 수 있다.
또한, 정황 정보에 포함된 각각의 정황 인자에는 우선순위가 부여될 수 있고, 미리 설정된 우선순위 이내에서 공통되는 정황 인자가 주요 정황 인자로 추출될 수도 있다. 예를 들면, 교통 상황, 도로 종류, 현재 위치, 현재 시간, 날씨 순으로 우선순위가 부여될 수 있다. 3순위 내에 있는 정황 인자들에서 주요 정황 인자를 추출하는 것으로 설정되어 있고, 복수의 운전자들이 공통적으로 교통 상황, 도로 종류, 현재 위치 순으로 우선 순위를 부여하였다면, 교통 상황, 도로 종류 및 현재 위치가 주요 정황 인자로 추출될 수 있다.
여기서 동일한 성향을 갖는 복수의 운전자들이 정황 인자에 부여하는 우선순위는 서로 동일하거나 유사한 것으로 가정한다.
도 8은 주요 정황 인자를 기초로 주행 경로를 생성하는 것을 설명하기 위한 도면이다.
도 8을 참조하면, 운전자는 현재 강남사거리에서 화난 감정을 느끼고 있으며, 화난 감정이 발생하게 된 원인은 심한 교통 체증인 것을 알 수 있다. 이 경우 주요 정황 인자는 현재 장소, 교통 상황으로 추출될 수 있다. 제어부(600)는 운전자가 느끼는 부정적인 감정을 긍정적인 감정으로 개선시키기 위해 부정적 감정의 원인이 된 주요 정황 인자를 기초로 주행 경로를 생성할 수 있다. 예를 들면, 제어부(600)는 목적지까지의 도달하기 위해 경유하게 되는 장소를 변경하여 주행 경로를 생성할 수 있다. 도 8에서 제어부(600)는 운전자가 교통 상황이 원활한 경부고속도로로 주행하여 즐거운 감정을 느낄 수 있도록 주행 경로를 생성한다.
이와 같이, 차량(10)은 단순히 목적지까지 최단 경로 또는 최단 시간 경로만 제공하는 것이 아니라, 운전자의 감정 상태를 개선할 수 있는 주행 경로를 제공하기 때문에, 운전자는 더 즐거운 주행을 할 수 있다.
도 9는 일 실시예에 따른 차량의 제어방법을 설명하는 순서도이다.
도 9를 참조하면, 차량(10)의 통신부(200)는 외부 서버(50)로부터 외부 정황 정보 및 감정 태깅 데이터를 수신한다(701). 차량(10)의 감지부(100)는 운전자의 생체신호, 차량 주행 정보 및 내부 정황 정보를 수집할 수 있다. 제어부(600)는 운전자의 생체신호로부터 운전자의 현재 감정 정보를 획득하고, 차량 주행 정보로부터 운전자의 성향 정보를 획득하며, 외부 정황 정보, 내부 정황 정보 및 차량 주행 정보를 통합하여 현재 정황 정보를 획득한다(702).
이후 제어부(600)는 감정 태깅 데이터에서 운전자의 성향 및 현재 정황에 대응하는 감정 정보를 추출한다(703). 제어부(600)는 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는지 판단한다(704). 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하지 않는 경우, 제어부(600)는 운전자의 현재 정황에 대한 감정 정보를 저장부(300) 및 외부 서버(50)에 전송하여 감정 태깅 데이터가 업데이트 되도록 한다(705).
감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는 경우, 제어부(600)는 감정 태깅 데이터로부터 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출한다(706). 이후, 제어부(600)는 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하고(707), 현재 정황 정보, 추출된 감정 정보 및 주행 경로 중 적어도 하나가 표시되도록 디스플레이(500)를 제어한다(708).
도 10은 다른 실시예에 따른 차량의 제어방법을 설명하는 순서도이다.
도 10을 참조하면, 차량(10)의 통신부(200)는 외부 서버(50)로부터 외부 정황 정보 및 감정 태깅 데이터를 수신한다(801). 차량(10)의 감지부(100)는 운전자의 생체신호, 차량 주행 정보 및 내부 정황 정보를 수집할 수 있다. 제어부(600)는 운전자의 생체신호로부터 운전자의 현재 감정 정보를 획득하고, 차량 주행 정보로부터 운전자의 성향 정보를 획득하며, 외부 정황 정보, 내부 정황 정보 및 차량 주행 정보를 통합하여 현재 정황 정보를 획득한다(802).
이후 제어부(600)는 감정 태깅 데이터에서 운전자의 성향 및 현재 정황에 대응하는 감정 정보를 추출한다(803). 제어부(600)는 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는지 판단한다(804). 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하지 않는 경우, 제어부(600)는 운전자의 현재 정황에 대한 감정 정보를 저장부(300) 및 외부 서버(50)에 전송하여 감정 태깅 데이터가 업데이트 되도록 한다(812).
감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는 경우, 제어부(600)는 감정 태깅 데이터로부터 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출한다(805). 제어부(600)는 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하고(806), 주요 정황 인자와 그 외의 다른 정황 인자에 부여된 가중치 값을 비교한다(807).
주요 정황 인자의 가중치가 다른 정황 인자의 가중치보다 큰 경우, 제어부(600)는 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하고(808), 현재 정황 정보, 추출된 감정 정보 및 주행 경로 중 적어도 하나가 표시되도록 디스플레이(500)를 제어한다(809).
주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 제어부(600)는 운전자의 현재 감정 정보가 감정 태깅 데이터에서 추출된 감정 정보와 다른 것으로 판단하고(810), 운전자의 현재 정황에 대한 감정 정보를 외부 서버(50)에 전송하여 감정 태깅 데이터가 업데이트 되도록 한다(812).
도 11은 일 실시예에 따른 차량과 외부 서버 간의 관계를 설명하는 도면이다.
도 11을 참조하면, 외부 서버(50)는 외부 정황 정보 및 감정 태깅 데이터를 수집 및 저장하고(901), 차량(10)으로 전송한다(902).
차량(10)은 운전자의 생체신호, 차량 주행 정보 및 내부 정황 정보를 수집할 수 있다. 차량(10)은 운전자의 생체신호로부터 운전자의 현재 감정 정보를 획득하고, 차량 주행 정보로부터 운전자의 성향 정보를 획득하며, 외부 정황 정보, 내부 정황 정보 및 차량 주행 정보를 통합하여 현재 정황 정보를 획득한다(903).
이후 차량(10)은 감정 태깅 데이터에서 운전자의 성향 및 현재 정황에 대응하는 감정 정보를 추출한다(904). 차량(10)은 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는지 판단한다(905). 감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하지 않는 경우, 차량(10)은 운전자의 현재 정황에 대한 감정 정보를 외부 서버(50)에 전송한다(906). 외부 서버(50)는 운전자의 현재 정황에 대한 감정 정보를 수신하여 감정 태깅 데이터를 업데이트 한다(907).
감정 태깅 데이터로부터 추출된 감정 정보가 운전자의 현재 감정 정보와 일치하는 경우, 차량(10)은 감정 태깅 데이터로부터 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출한다(908). 이후, 차량(10)은 적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하고(909), 현재 정황 정보, 추출된 감정 정보 및 주행 경로 중 적어도 하나를 디스플레이(500)상에 표시한다(910).
상술한 차량 및 그 제어방법에 의하면, 운전자의 감정을 자동으로 인식함에 있어서, 인식된 운전자의 감정이 차량 주행과 관련된 특정 정황에 의해 발현된 것인지, 그 외의 다른 요인으로 인해 발현된 것인지를 판단하여 운전자의 감정 인식에 대한 정확도를 높일 수 있다.
또한, 운전자의 감정을 긍정적 감정으로 개선하기 위한 주행 경로 생성 시, 주행과 관련되지 않은 정황에 의한 운전자의 감정 변화를 반영하지 않을 수 있으므로, 주행에 더 적합한 경로를 생성할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
10: 차량
50: 외부 서버
100: 감지부
200: 통신부
300: 저장부
400: 입력부
500: 디스플레이
600: 제어부

Claims (20)

  1. 운전자의 생체신호, 차량 주행 정보를 수집하는 감지부;
    외부 서버와 통신하는 통신부;
    상기 통신부를 통해 수신한 정황 정보와 감정 태깅 데이터(Emotion Tagging Data) 및 상기 운전자의 생체신호를 저장하는 저장부; 및
    상기 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하고, 상기 차량 주행 정보를 기초로 상기 운전자의 성향 정보를 획득하며, 상기 감정 태깅 데이터로부터 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보를 추출하는 제어부;를 포함하되,
    상기 감정 태깅 데이터는 복수의 다른 운전자들이 특정 정황에서 표출한 감정 정보를 포함하고,
    상기 제어부는,
    상기 감정 태깅 데이터로부터 상기 운전자의 성향과 동일 성향을 갖는 상기 복수의 다른 운전자들의 상기 현재 정황에 대한 감정 정보를 추출하고,
    추출된 상기 복수의 다른 운전자들의 감정 정보가 상기 운전자의 현재 감정 정보와 일치하는지 여부를 판단하는 차량.
  2. 삭제
  3. 제1항에 있어서,
    상기 제어부는,
    상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하지 않는 경우, 상기 운전자의 현재 정황에 대한 감정 정보를 상기 저장부 및 상기 외부 서버에 전송하여 상기 감정 태깅 데이터가 업데이트 되도록 제어하는 차량.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하는 경우, 상기 감정 태깅 데이터로부터 상기 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출하는 차량.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하고, 상기 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 상기 운전자의 현재 감정 정보는 상기 추출된 감정 정보와 다른 것으로 판단하는 차량.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 추출된 감정 정보와 다른 것으로 판단된 상기 운전자의 현재 감정 정보 및 현재 정황 정보를 상기 외부 서버에 전송하여 상기 감정 태깅 데이터가 업데이트 되도록 제어하는 차량.
  7. 제4항에 있어서,
    상기 제어부는,
    적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하는 차량.
  8. 제7항에 있어서,
    상기 제어부의 제어에 따라 상기 현재 정황 정보, 상기 추출된 감정 정보 및 상기 주행 경로 중 적어도 하나를 화면에 표시하는 디스플레이;를 더 포함하는 차량.
  9. 제7항에 있어서,
    상기 운전자로부터 상기 목표 감정을 입력 받는 입력부;를 더 포함하는 차량.
  10. 제1항에 있어서,
    상기 현재 정황 정보는,
    현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함하는 차량.
  11. 운전자의 생체신호, 차량 주행 정보를 수집하는 단계;
    외부 서버로부터 정황 정보와 감정 태깅 데이터를 수신하는 단계;
    상기 운전자의 생체신호를 기초로 운전자의 현재 감정 정보를 획득하는 단계;
    상기 차량 주행 정보를 기초로 상기 운전자의 성향 정보를 획득하는 단계; 및
    상기 감정 태깅 데이터로부터 상기 운전자의 현재 정황 및 상기 운전자의 성향에 대응하는 감정 정보를 추출하는 단계;를 포함하되,
    상기 감정 태깅 데이터는 복수의 다른 운전자들이 특정 정황에서 표출한 감정 정보를 포함하고,
    상기 감정 정보를 추출하는 단계는,
    상기 감정 태깅 데이터로부터 상기 운전자의 성향과 동일 성향을 갖는 상기 복수의 다른 운전자들의 상기 현재 정황에 대한 감정 정보를 추출하고,
    추출된 상기 복수의 다른 운전자들의 감정 정보가 상기 운전자의 현재 감정 정보와 일치하는지 여부를 판단하는 단계를 포함하는 차량의 제어방법.
    단계;를 포함하는 차량의 제어방법.
  12. 삭제
  13. 제11항에 있어서,
    상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하지 않는 경우, 상기 운전자의 현재 정황에 대한 감정 정보를 상기 외부 서버에 전송하는 단계;를 더 포함하는 차량의 제어방법.
  14. 제11항에 있어서,
    상기 추출된 감정 정보와 상기 운전자의 현재 감정 정보가 일치하는 경우, 상기 감정 태깅 데이터로부터 상기 운전자의 감정에 영향을 미치는 주요 정황 인자를 추출하는 단계;를 더 포함하는 차량의 제어방법.
  15. 제14항에 있어서,
    상기 현재 정황 정보에 포함된 각각의 정황 인자에 가중치를 부여하는 단계; 및
    상기 주요 정황 인자 이외의 정황 인자에 부여된 가중치가 더 큰 경우, 상기 운전자의 현재 감정 정보는 상기 추출된 감정 정보와 다른 것으로 판단하는 단계;를 더 포함하는 제어방법.
  16. 제15항에 있어서,
    상기 추출된 감정 정보와 다른 것으로 판단된 상기 운전자의 현재 감정 정보 및 현재 정황 정보를 상기 외부 서버에 전송하는 단계;를 더 포함하는 차량의 제어방법.
  17. 제14항에 있어서,
    적어도 하나의 주요 정황 인자를 기초로 상기 운전자의 현재 감정을 목표 감정으로 유도하기 위한 주행 경로를 생성하는 단계;를 더 포함하는 차량의 제어방법.
  18. 제17항에 있어서,
    상기 현재 정황 정보, 상기 추출된 감정 정보 및 상기 주행 경로 중 적어도 하나를 디스플레이 하는 단계;를 더 포함하는 차량의 제어방법.
  19. 제17항에 있어서,
    상기 운전자로부터 상기 목표 감정을 입력 받는 단계;를 더 포함하는 차량의 제어방법.
  20. 제11항에 있어서,
    상기 현재 정황 정보는,
    현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함하는 차량의 제어방법.
KR1020180095870A 2018-08-17 2018-08-17 차량 및 그 제어방법 KR102625398B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180095870A KR102625398B1 (ko) 2018-08-17 2018-08-17 차량 및 그 제어방법
US16/213,014 US10663312B2 (en) 2018-08-17 2018-12-07 Vehicle and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180095870A KR102625398B1 (ko) 2018-08-17 2018-08-17 차량 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20200020313A KR20200020313A (ko) 2020-02-26
KR102625398B1 true KR102625398B1 (ko) 2024-01-17

Family

ID=69523909

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180095870A KR102625398B1 (ko) 2018-08-17 2018-08-17 차량 및 그 제어방법

Country Status (2)

Country Link
US (1) US10663312B2 (ko)
KR (1) KR102625398B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7359092B2 (ja) * 2020-07-17 2023-10-11 トヨタ自動車株式会社 車両ユーザ支援システム、及び車両ユーザ支援装置
US20230056100A1 (en) * 2021-08-17 2023-02-23 Robin H. Stewart Systems and methods for dynamic biometric control of iot devices
CN114132328A (zh) * 2021-12-10 2022-03-04 智己汽车科技有限公司 一种自动调节驾乘环境的辅助驾驶系统及方法、存储介质
CN116849659B (zh) * 2023-09-04 2023-11-17 深圳市昊岳科技有限公司 一种司机状态监测用的智能情绪手环及其监测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075565A1 (en) 2016-09-13 2018-03-15 Ford Global Technologies, Llc Passenger validation systems and methods
WO2018096688A1 (ja) * 2016-11-28 2018-05-31 本田技研工業株式会社 運転支援装置、運転支援システム、プログラム及び運転支援装置の制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269308B1 (en) * 1998-08-20 2001-07-31 Honda Giken Kogyo Kabushiki Kaisha Safety running system for vehicle
JPWO2004055302A1 (ja) * 2002-12-13 2006-04-20 松下電器産業株式会社 車載機器制御システム、車載機器制御装置、及び車載機器制御方法
KR101901417B1 (ko) * 2011-08-29 2018-09-27 한국전자통신연구원 감성기반 안전운전 자동차 서비스 시스템, 안전운전 서비스를 위한 감성인지 처리 장치 및 안전운전 서비스 장치, 감성기반 차량용 안전운전 서비스 방법
WO2015166811A1 (ja) * 2014-04-30 2015-11-05 みこらった株式会社 自動運転車及び自動運転車用プログラム
KR20160036968A (ko) * 2014-09-26 2016-04-05 국민대학교산학협력단 운전자 졸음, 부주의 및 과부하 통합 판단 장치 및 방법
US10007263B1 (en) * 2014-11-13 2018-06-26 State Farm Mutual Automobile Insurance Company Autonomous vehicle accident and emergency response
KR102401607B1 (ko) * 2014-12-04 2022-05-25 현대모비스 주식회사 운전자의 운행 집중도 레벨 분석방법
CN109416873B (zh) * 2016-06-24 2022-02-15 瑞士再保险有限公司 具有自动化风险控制系统的自主或部分自主机动车辆及其相应方法
JP6717723B2 (ja) * 2016-10-12 2020-07-01 矢崎総業株式会社 車両システム
US10192171B2 (en) * 2016-12-16 2019-01-29 Autonomous Fusion, Inc. Method and system using machine learning to determine an automotive driver's emotional state
JP6948559B2 (ja) * 2017-05-09 2021-10-13 オムロン株式会社 運転者監視装置、及び運転者監視方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075565A1 (en) 2016-09-13 2018-03-15 Ford Global Technologies, Llc Passenger validation systems and methods
WO2018096688A1 (ja) * 2016-11-28 2018-05-31 本田技研工業株式会社 運転支援装置、運転支援システム、プログラム及び運転支援装置の制御方法

Also Published As

Publication number Publication date
US10663312B2 (en) 2020-05-26
US20200056902A1 (en) 2020-02-20
KR20200020313A (ko) 2020-02-26

Similar Documents

Publication Publication Date Title
KR102625398B1 (ko) 차량 및 그 제어방법
US11249544B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US11366513B2 (en) Systems and methods for user indication recognition
EP3128462B1 (en) Driver assistance apparatus and control method for the same
CN108137050B (zh) 驾驶控制装置、驾驶控制方法
CN108137052B (zh) 驾驶控制装置、驾驶控制方法和计算机可读介质
KR102574937B1 (ko) 차량 및 그 제어 방법
US11685390B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
KR20200113202A (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
US11235776B2 (en) Systems and methods for controlling a vehicle based on driver engagement
JP2017007652A (ja) 言語制御のための文脈を認識する方法、言語制御のための言語制御信号を決定する方法、および方法を実施するための装置
US20200073478A1 (en) Vehicle and control method thereof
US11260879B2 (en) Vehicle and method for controlling the same
US20180025283A1 (en) Information processing apparatus, information processing method, and program
US20200072630A1 (en) Vehicle and vehicle system
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
US20190354181A1 (en) Emotion mapping method, emotion mapping apparatus and vehicle including the same
CN112837407A (zh) 一种智能座舱全息投影系统及其交互方法
CN110062937B (zh) 信息提供系统
US11203292B2 (en) Vehicle and control method for the same
Rong et al. Artificial intelligence methods in in-cabin use cases: a survey
KR20200093091A (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
EP4042322A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
KR20240013829A (ko) 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량
US20200082590A1 (en) Vehicle and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right