KR20200025483A - 차량 및 그 제어방법 - Google Patents

차량 및 그 제어방법 Download PDF

Info

Publication number
KR20200025483A
KR20200025483A KR1020180102899A KR20180102899A KR20200025483A KR 20200025483 A KR20200025483 A KR 20200025483A KR 1020180102899 A KR1020180102899 A KR 1020180102899A KR 20180102899 A KR20180102899 A KR 20180102899A KR 20200025483 A KR20200025483 A KR 20200025483A
Authority
KR
South Korea
Prior art keywords
information
behavior model
door
user
generating
Prior art date
Application number
KR1020180102899A
Other languages
English (en)
Other versions
KR102625396B1 (ko
Inventor
우승현
장동선
안대윤
Original Assignee
현대자동차주식회사
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180102899A priority Critical patent/KR102625396B1/ko
Publication of KR20200025483A publication Critical patent/KR20200025483A/ko
Application granted granted Critical
Publication of KR102625396B1 publication Critical patent/KR102625396B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

개시된 발명의 일 실시예에 따른 차량은 도어의 움직임에 대한 도어 정보를 검출하는 제1센서; 사용자에 의해 설정 가능한 전자 장치; 도어 정보 및 전자 장치의 설정값에 기초하여 사용자의 예측 행동 모델을 생성하고, 생성된 예측 행동 모델에 기초하여 전자 장치를 제어하는 제어부;를 포함한다.

Description

차량 및 그 제어방법{VEHICLE AND CONTROLLING METHOD THEREOF}
도어의 움직임을 검출할 수 있는 센서를 제공하는 차량 및 그 제어방법에 관한 것이다.
차량은 기본적인 주행 기능 외에도 오디오 기능, 라디오 기능, 비디오 기능, 내비게이션 기능, 공조 기능, 조명 제어, 시트 제어 등 사용자 편의를 위한 부가적인 기능을 더 수행한다.
차량의 기능이 다양해지면서, 이러한 차량의 다양한 기능들을 승,하차시 사용자에게 적합하게 조정하는 기술이 개발되고 있다. 특히, 신체 상태 및 감정 상태 등을 포함하는 사용자의 상태를 고려하여 차량의 기능을 조정하는 기술의 개발이 요구되고 있다.
일 측면은 센서로부터 검출된 도어의 움직임에 따라 사용자에게 적합한 기능을 제공할 수 있는 차량 및 그 제어방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 측면에 따른 차량은, 도어의 움직임에 대한 도어 정보를 검출하는 제1센서; 사용자에 의해 설정 가능한 전자 장치; 상기 도어 정보 및 상기 전자 장치의 설정값에 기초하여 상기 사용자의 예측 행동 모델을 생성하고, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 제어부;를 포함한다.
또한, 상기 제1센서는, 상기 도어의 위치, 각도, 속도 및 상기 도어 손잡이에 가해진 힘의 세기 중 적어도 하나를 포함하는 도어 정보를 검출할 수 있다.
또한, 외부로부터 날씨 정보 및 위치 정보를 포함하는 정황 정보를 수신하는 통신부;를 더 포함하고, 상기 제어부는, 상기 도어 정보가 유효한지 여부를 상기 정황 정보에 기초하여 결정하고, 상기 검출된 도어 정보가 유효한 것으로 결정되면, 상기 검출된 도어 정보 및 상기 사용자에 의해 설정된 상기 전자 장치의 설정값에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 도어 정보에 상기 전자 장치의 설정값를 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 행동 패턴 및 상기 정황 정보에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 생체 신호 및 사용자 표정의 움직임 중 적어도 하나를 검출하는 제2센서;를 더 포함하고, 상기 제어부는, 상기 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단하고, 상기 판단된 감정 정보에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도에 기초하여 상기 판단된 감정 정보가 유효한지 여부를 결정하고, 상기 유효한 것으로 결정된 감정 정보에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도가 미리 정해진 값 이상인 경우, 상기 판단된 감정 정보가 유효한 것으로 결정할 수 있다.
또한, 상기 제어부는, 상기 감정 정보에 상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 생성된 행동 패턴에 상기 도어 정보를 대응시켜 상기 예측 행동 모델을 생성할 수 있다.
또한, 상기 제어부는, 상기 생성된 행동 패턴에 대응되는 정황 정보를 더 포함하는 예측 행동 모델을 생할 수 있다.
또한, 상기 제어부는, 상기 생성된 예측 행동 모델과 미리 저장된 예측 행동 모델의 유사도가 미리 정해진 값 이상인 경우, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어할 수 있다.
또한, 상기 제어부는, 상기 생성된 예측 행동 모델에 포함된 상기 전자 장치의 설정값에 기초하여 상기 전자 장치를 제어할 수 있다.
다른 측면에 따른 차량의 제어방법은 도어의 움직임에 대한 도어 정보를 검출하는 단계; 상기 도어 정보 및 상기 전자 장치의 설정값에 기초하여 상기 사용자의 예측 행동 모델을 생성하는 단계; 및 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 단계;를 포함한다.
또한, 상기 도어 정보를 검출하는 단계는, 상기 도어의 위치, 각도, 속도 및 상기 도어 손잡이에 가해진 힘의 세기 중 적어도 하나를 포함하는 도어 정보를 검출하는 단계를 포함할 수 있다.
또한, 외부로부터 날씨 정보 및 위치 정보를 포함하는 정황 정보를 수신하는 단계;를 더 포함하고, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 도어 정보가 유효한지 여부를 상기 정황 정보에 기초하여 결정하는 단계; 및 상기 검출된 도어 정보가 유효한 것으로 결정되면, 상기 검출된 도어 정보 및 상기 사용자에 의해 설정된 상기 전자 장치의 설정값에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함할 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하는 단계; 및 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함할 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 행동 패턴 및 상기 정황 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계를 포함할 수 있다.
또한, 생체 신호 및 사용자 표정의 움직임 중 적어도 하나를 검출하는 단계; 상기 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단하는 단계;를 더 포함하고, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 판단된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계를 포함할 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도에 기초하여 상기 판단된 감정 정보가 유효한지 여부를 결정하는 단계; 및 상기 유효한 것으로 결정된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함할 수 있다.
또한, 상기 판단된 감정 정보가 유효한지 여부를 결정하는 단계는, 상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도가 미리 정해진 값 이상인 경우, 상기 판단된 감정 정보가 유효한 것으로 결정하는 단계를 포함할 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 감정 정보에 상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함할 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 생성된 행동 패턴에 상기 도어 정보를 대응시켜 상기 예측 행동 모델을 생성하는 단계;를 포함 수 있다.
또한, 상기 사용자의 예측 행동 모델을 생성하는 단계는, 상기 생성된 행동 패턴에 대응되는 정황 정보를 더 포함하는 예측 행동 모델을 생성하는 단계를 포함할 수 있다.
또한, 상기 전자 장치를 제어하는 단계는, 상기 생성된 예측 행동 모델과 미리 저장된 예측 행동 모델의 유사도가 미리 정해진 값 이상인 경우, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 단계;를 포함할 수 있다.
또한, 상기 전자 장치를 제어하는 단계는,상기 생성된 예측 행동 모델에 포함된 상기 전자 장치의 설정값에 기초하여 상기 전자 장치를 제어하는 단계를 포함할 수 있다.
일 측면에 따른 차량 및 그 제어방법에 따르면, 사용자에게 적합한 기능을 제공할 수 있으므로 사용자의 편의를 증진시킬 수 있다.
도 1은 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 차량이 예측 행동 모델을 생성하는 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 6은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 7은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도 1과 같이, 차량의 일 실시예는 차량(1)의 외관을 형성하는 본체(10), 차량(1)을 이동시키는 차륜(21, 22), 차량(1) 내부를 외부로부터 차폐시키는 도어(14), 차량(1) 내부의 운전자에게 차량(1) 전방의 시야를 제공하는 전면 유리(17), 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(18, 19)를 포함한다.
차륜(21, 22)은 차량의 전방에 마련되는 전륜(21), 차량의 후방에 마련되는 후륜(22)을 포함하며, 전륜(21) 또는 후륜(22)은 후술할 구동장치로부터 회전력을 제공받아 본체(10)를 전방 또는 후방으로 이동시킬 수 있다.
도어(14)는 본체(10)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(1)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(1)의 내부를 외부로부터 차폐시킨다.
또한, 도어(14)는 운전자가 차량(1)의 내부에 탑승할 경우에 운전자가 잡을 수 있도록 마련된 손잡이(13)를 포함할 수 있다. 이러한 손잡이(13) 및 도어(14)에는 다양한 센서가 포함될 수도 있다.
전면 유리(17)는 본체(10)의 전방 상측에 마련되어 차량(1) 내부의 운전자가 차량(1) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글라스(Windshield Glass)라고도 한다.
또한, 사이드 미러(18, 19)는 본체(10)의 좌측에 마련되는 좌측 사이드 미러(18) 및 우측에 마련되는 우측 사이드 미러(19)를 포함하며, 차량(1) 내부의 운전자가 차량(1) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.
차량(1) 내부의 운전자가 시각 정보를 용이하게 획득할 수 있도록 사이드 미러(18, 19)는 후술할 사이드 미러 조작 장치(도 3, 243)에 의해 사이드 미러의 위치가 조절될 수 있다.
도 2는 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 2에 도시된 바와 같이, 차량(1)의 내부는 운전자 등이 탑승하는 시트(110)와, 기어 박스(120), 센터페시아(130) 및 스티어링 휠(140) 등이 마련된 대시보드(150)(Dashboard) 를 포함할 수 있다.
또한, 차량(1)의 내부는 대시보드(150) 상에 배치되고 타코미터, 속도계, 냉각수 온도계, 연료계, 방향전환 지시등, 상향등 표시등, 경고등, 안전벨트 경고등, 주행 거리계, 주행 기록계, 자동변속 선택레버 표시등, 도어 열림 경고등, 엔진 오일 경고등, 연료부족 경고등이 배치된 계기판(즉 클러스터, 143)을 더 포함할 수 있다.
클러스터(143)는 디지털 방식으로 구현될 수 있다. 이러한 디지털 방식의 클러스터(143)는 차량 정보 및 주행 정보를 영상으로 표시할 수 있다.
기어 박스(120)에는 차량(1) 변속을 위한 변속 레버(124)와, 차량(1)의 기능 수행을 제어하기 위한 다이얼 조작부(123)가 설치될 수 있다.
다이얼 조작부(123)는 차량(1)의 각종 기능의 동작 명령을 입력 받기 위한 입력부(미도시)로 활용될 수 있으며, 각종 기능의 동작 온 오프 버튼 및 각종 기능의 설정값을 변경하기 위한 버튼 등과 같은 적어도 하나의 물리적인 버튼을 포함할 수 있다.
이러한 입력부(미도시)는 버튼의 조작 신호를 전자 제어 유닛(ECU) 또는 AVN 장치 등에 전송할 수 있다.
또한, 입력부(미도시)는 디스플레이(134)에 일체로 마련된 터치 패널을 포함할 수 있으며, AVN 장치의 표시부에 표시된 커서의 이동 명령 및 선택 명령 등을 입력하기 위한 조그 다이얼(미도시) 또는 터치 패드를 더 포함하는 것도 가능하다. 여기서 조그 다이얼 또는 터치 패드는 센터페시아(130) 등에 마련될 수 있다.
대시보드(150)에 마련된 스티어링 휠(140)은 차량(1)의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량(1)의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다.
실시 예에 따라서 스포크(142)에는 차량(1) 내의 각종 장치, 일례로 오디오 장치 등을 제어하기 위한 조작 장치(142a, 142b)가 형성될 수 있다.
대시보드(150)에 마련된 센터페시아(130)에는 공조 장치(241), 시계(132), 장치(133) 및 디스플레이(134) 등이 설치될 수 있다.
공조 장치(241)는 차량(1) 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량(1)의 내부를 쾌적하게 유지한다. 공조 장치(241)는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구(131a)를 포함할 수 있다. 센터페시아(130)에는 공조 장치(241) 등을 제어하기 위한 버튼이나 다이얼 등이 설치될 수 있다. 운전자 등의 탑승자는 센터페시아(130)에 배치된 버튼을 이용하여 공조 장치(241)를 제어할 수 있다.
시계(132)는 공조 장치(241)를 제어하기 위한 버튼이나 다이얼 주위에 마련될 수 있다.
오디오 장치(242)는 오디오 장치(242)의 기능 수행을 위한 다수의 버튼들이 마련된 조작패널을 포함할 수 있다. 오디오 장치(242)는 라디오 기능을 제공하는 라디오 모드와 오디오 파일이 담긴 다양한 저장매체의 오디오 파일을 재생하는 미디어 모드를 제공할 수 있다. 오디오 장치(242)를 통해 생성되는 소리는 차량(1) 내부에 마련되는 스피커(160)를 통해 출력될 수 있다.
디스플레이(134)는 운전자에게 차량(1)과 관련된 정보를 이미지, 또는 텍스트의 형태로 제공하는 UI(User Interface)를 표시할 수 있다. 이를 위해, 디스플레이(134)는 센터페시아(130)에 매립되어 형성될 수 있다. 다만, 디스플레이의 설치 예가 이에 한정되는 것은 아니며, 디스플레이(134)는 차량(1)의 센터페시아(130)와 분리 가능하도록 마련될 수도 있다.
또한, 디스플레이(134)는 차량(1)에 설치된 장치들의 제어와 관련된 각종 제어 화면을 표시할 수 있다. 예를 들어, 디스플레이(134)는 공조 장치(241), 오디오 장치(242)의 제어와 관련된 각종 제어 화면을 표시할 수 있다.
이 외에도 디스플레이(134)는 내비게이션 장치로도 활용될 수 있으며, 내비게이션 장치는 AVN(Audio Video Navigation) 장치에 대응되어 오디오, 비디오 및 내비게이션 기능을 통합적으로 수행할 수 있다.
차량(1)의 내부에는 음향을 출력할 수 있는 스피커(160)가 마련될 수 있다. 이에 따라, 차량(1)은 스피커(160)를 통해 오디오 기능, 비디오 기능, 내비게이션 기능 및 기타 부가 기능을 수행함에 있어 필요한 음향을 출력할 수 있다. 일 실시예에 따르면, 내비게이션 장치는 스피커(160)를 통해 차량(1) 내의 온도 등과 관련된 정보뿐만 아니라, 공조 장치(244)의 동작 상태 등을 사용자에게 제공할 수도 있다.
또한, 차량(1)은 시트(110)의 위치를 변경할 수 있는 시트 구동부(미도시)를 더 포함할 수 있다. 시트 구동부(미도시)는 기준점으로부터 시트(110)의 거리, 시트(110)의 높이, 각도 등을 조절함으로써 시트(110)의 위치를 변경할 수 있다. 이를 위해, 시트 구동부(미도시)는 적어도 하나의 모터를 포함할 수 있다. 이러한 차량(1)의 다양한 전자 장치(240)가 사용자에게 다양한 기능을 제공하는 데 있어서는 사용자 개개인에 적합한 기능을 제공하는 것이 중요하다.
이 경우, 차량(1)의 사용자에게 적합한 설정값은 사용자의 상태에 따라 달라질 수 있다. 특히, 사용자의 감정 상태에 적합하도록 사용자에게 맞는 기능을 제공하는 것이 중요할 수 있다.
이하, 도 3 및 도 4을 참조하여 이러한 사용자의 감정 상태에 적합한 기능을 제공하는 차량(1)에 대하여 설명한다.
도 3은 일 실시예에 따른 차량의 제어 블록도이고, 도 4 는 일 실시예에 따른 차량이 예측 행동 모델을 생성하는 동작을 설명하기 위한 도면이다.
도 3에 도시된 바와 같이, 일 실시예에 따른 차량(1)은 도어(14)의 움직임을 검출하는 제 1 센서(210), 생체 신호 및 사용자 표정을 검출하는 제 2 센서(220), 차량(1) 외부의 정보를 수집하는 통신부(230), 차량(1)과 관련된 정보를 저장하는 저장부(250), 사용자에게 다양한 기능을 제공하는 전자 장치(240) 및 제어부(260)를 포함할 수 있다.
제 1 센서(210)는 차량(1)의 도어(14)의 움직임에 대한 도어 정보를 검출할 수 있으며, 이 때 도어 정보는 도어(14)의 위치(운전석 좌측, 운전석 우측, 동승석 좌측 및 동승석 우측 중 적어도 하나), 도어(14)의 열린 정도, 도어(14)의 최대 개방 각도, 도어(14)가 닫히는 속도 및 가속도, 도어(14)의 손잡이(13)에 가해진 힘의 세기 및 힘의 변화량 등의 정보를 포함할 수 있다.
이를 위해, 제 1 센서(210)는 도어(14)의 위치, 즉 운전석 좌측 및 우측, 동승석 좌측 및 우측에 위치한 도어의 위치를 구분할 수 있다.
또한, 제 1 센서(210)는 도어(14)의 개방 각도를 측정할 수 있으며, 도어(14)가 닫힐 때의 속도 또는 가속도를 측정할 수 있다.
이 외에도, 제 1 센서(210)는 도어(14)의 손잡이(13)에 가해진 힘의 세기 또는 변화량을 측정할 수도 있다.
이러한 다양한 도어(14)의 움직임에 대한 도어 정보를 검출하기 위해, 제 1 센서(210)는 도어의 개폐 여부 상태를 감지할 수 있는 도어 개폐 센서를 포함한 다양한 센서로 구현될 수 있다.
예를 들어, 제 1 센서(210)는 로터리 인코더(Rotary Encoder)를 포함할 수 있다. 로터리 인코더는 회전각 변위를 측정하는 인코더를 말하며, 동작원리상으로 분류할 경우 광전식 인코더, 자기식 인코더, 전자 유도식 인코더, 용량식 인코더 등이 있다.
제 1 센서(210)에 의해 측정된 도어 정보는 후술할 제어부(260)의 제어 기초로 활용될 수 있다.
제 2 센서(220)는 사용자의 상태 정보를 검출할 수 있으며, 사용자의 상태 정보는 사용자의 감정 상태를 판단하는데 기초가 되는 정보를 의미한다. 이 때 탑승자의 상태 정보에는 생체 신호 및 사용자 표정의 움직임 등이 포함될 수 있다.
제 2 센서(220)에 의해 검출될 수 있는 생체 신호는 피부의 전기적 저항 또는 활동전위의 변화값을 나타내는 피부 저항(Galvanic Skin Reflex, GSR)을 포함할 수 있다. 또한, 생체 신호는 심전도(ECG, electrocardiogram), 피부온도(Skin Temperature, SKT) 및 뇌파(Electroencephalogram, EEG)를 포함할 수도 있다.
또한, 제 2 센서(220)는 사용자의 표정을 인식할 수 있으며, 구체적으로 제 2 센서(220)는 사용자의 이목구비의 기준점을 지정할 수 있으며, 지정된 기준점의 변화를 감지하여 사용자 표정의 움직임을 검출할 수 있다.
제 2 센서(220)에 의해 검출된 사용자의 상태 정보는 후술할 제어부(260)가 감정 정보를 생성, 이러한 감정 정보에 기초하여 사용자의 행동을 예측하는 데 제어 기초로써 이용될 수 있다.
이를 위해, 제 2 센서(220)는 다양한 생체 신호 센서로 구현될 수 있으며, 이러한 생체 신호 센서에는 사용자의 뇌파를 측정할 수 있는 뇌파 감지기가 포함될 수 있다.
또한, 제 2 센서(220)는 사용자의 표정을 인식하기 위한 카메라 센서를 포함하여 구현될 수도 있으며, 이러한 카메라 센서에는 사용자의 신체 온도를 감지할 수 있는 적외선 카메라 센서가 포함될 수 있다.
통신부(230)는 차량(1) 주변의 정황 정보를 수집할 수 있다. 이 때, 정황 정보란 차량(1) 내부의 정보가 아닌 차량(1) 외부에서 전달되는 정보로, 구체적인 사용자의 상황을 나타내는 정보를 의미할 수 있으며, 차량(1) 내부의 구성 또는 외부로부터 전송된 정보일 수 있다.
구체적으로, 정황 정보는 차량(1)의 위치 정보, 날씨 정보, 사용자 정보 및 주차장 정보 등을 포함할 수 있다.
예를 들어, 정황 정보 중 차량(1)의 위치 정보는 차량(1)의 현재 위치 정보를 의미할 수 있으며, 차량(1)의 위치가 주차장인지 여부, 도로인지 여부, 신호등으로부터 미리 정해진 거리 내인지 여부, 관심 지점(POI, Point of Interest)인지 여부 등을 포함할 수 있다. 또한, 정황 정보 중 날씨 정보는 우천시 여부, 흐림 여부, 맑음 여부 등과 함께 기온, 풍속 등을 포함할 수 있다. 정황 정보 중 사용자 정보는 사용자의 스케줄 정보 등을 포함할 수 있으며, 정황 정보 중 주차장 정보는 주차공간이 미리 정해진 넓이 이상인지 여부 및 주차된 차량의 개수 등을 포함할 수 있다. 이러한 정황 정보는 후술할 제어부(260)에 의해 제 1 센서(210)에 의해 검출된 도어 정보가 유효한 정보인지 여부를 결정하는 데 활용될 수 있다.
이러한 정황 정보를 수집하기 위해 통신부(230)는 통신 모듈을 포함할 수 있다. 이 경우 통신 모듈은 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
저장부(250)는 차량(1)과 관련된 다양한 정보들을 저장할 수 있다. 저장부(250)는 제 1 센서(210)가 검출한 도어 정보 및 제 2 센서(220)가 검출한 생체 신호 및 사용자 표정의 움직임에 대한 검출값을 저장할 수 있으며, 이들을 각각 별도의 데이터베이스에 저장할 수도 있다.
또한, 저장부(250)는 통신부(230)에 의해 수집된 정황 정보를 저장할 수 있으며, 후술할 제어부(260)에 의해 생성된 감정 정보, 행동 패턴, 예측 행동 모델 등을 저장할 수도 있다.
이를 위해, 저장부(250)는 다양한 메모리 소자들로 구현될 수 있다. 예를 들어, 저장부(250)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
전자 장치(240)는 차량(1)의 사용자에게 다양한 기능을 제공할 수 있으며, 이러한 기능들은 사용자에 의해 설정 가능하다. 또한, 전자 장치(240)가 제공 가능한 기능은 제어부(260)에 의해 제어될 수 있다.
전자 장치(240)는 차량(1) 내부의 다양한 구성들을 포함할 수 있고, 도 1 및 도 2의 차량(1) 내의 장치들을 포함할 수 있다.
예를 들어, 차량(1)의 전자 장치(240)는 공조 장치(241) 및 오디오 장치(242)를 포함할 수 있다. 또한, 전자 장치(240)는 시트(110)의 위치 조절을 위한 시트 구동부(미도시)를 더 포함할 수 있다. 다만, 전술한 예에 한정되지 않는다.
전자 장치(240)는 사용자로부터 설정 받은 설정값에 기초하여 다양한 기능을 제공할 수 있다. 또한, 전자 장치(240)는 미리 정해진 설정값에 기초하여 다양한 기능을 제공할 수 있다.
예를 들어, 전자 장치(240)가 공조 장치(241)를 포함하는 경우, 전자 장치(240)는 사용자에 의해 설정된 설정값에 기초하여 차량(1)의 내부 온도를 조절할 수 있다. 이 때, 전자 장치(240)의 설정값은 희망 온도, 풍향, 바람 세기 등을 포함할 수 있다.
오디오 장치(242)는 사용자에 의해 설정된 설정값에 기초하여 차량(1) 내부에 오디오 기능을 제공할 수 있다. 이 때, 전자 장치(240)의 설정값은 재생되는 음원 종류, 음량, 음색 등을 포함할 수 있다.
또한, 시트 구동부(미도시)는 사용자에 의해 설정된 설정값에 기초하여 시트(110)에 대한 위치 조절 기능을 제공할 수 있다. 이 때, 전자 장치(240)의 설정값은 시트(110)의 위치, 각도, 높이 등을 포함할 수 있다.
이 외에도 전자 장치(240)의 설정값은 주행 모드를 포함할 수 있다. 주행 모드는 자동 주행 모드, 수동 주행 모드를 포함할 수 있고, 미리 정해진 기준에 따라 구별되는 복수개의 모드를 포함할 수 있다. 예를 들어, 주행 모드는 변속 레버(124)의 위치에 기초하여 구별될 수 있다. 다른 예로, 사용자가 체감하는 주행감에 따라 주행 모드가 구별되는 경우, 주행 모드는 고속 주행을 위한 스포츠 모드, 일반적인 주행을 위한 컴포트 모드로 구별될 수 있다.
이러한 전자 장치(240)의 설정값은 후술할 제어부(260)가 사용자의 탑승 초기에 제공할 수 있는 초기 기능을 설정하는데 제어 기초가 될 수 있다. 또한, 제어부(260)가 사용자에게 필요한 필요 기능을 수행하는데 제어 기초가 될 수 있다.
제어부(260)는 전술한 제 1 센서(210), 제 2 센서(220), 통신부(230) 및 저장부(250)와 함께 차량(1)의 다양한 전자 장치(240)를 제어할 수 있다.
제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보 및 제 2 센서(220)에 의해 검출된 사용자의 상태 정보를 이용하여 사용자의 감정을 판단할 수 있고, 사용자의 감정에 적합한 기능을 제공하도록 전자 장치(240)를 제어할 수 있다.
이를 위해, 제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보 및 제 2 센서(220)에 의해 검출된 사용자의 상태 정보에 기초하여 사용자의 감정 상태를 나타내는 감정 정보를 생성할 수 있다.
제어부(260)는 생성된 감정 정보로부터 사용자의 감정을 판단할 수 있으며, 이로부터 사용자의 행동을 예측할 수 있다. 제어부(260)는 예측된 사용자의 행동에 따라 차량(1)의 다양한 전자 장치(240)를 제어할 수 있다.
이하, 제어부(260)의 감정 정보 생성 및 사용자의 행동 예측과 관련한 구체적인 동작에 관하여 설명한다.
먼저, 제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보를 통해 도어의 움직임을 판단할 수 있다.
제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보를 미리 정해진 기준값과 비교함으로써 도어의 움직임을 판단할 수 있다.
예를 들어, 제어부(260)는 도어의 속도와 미리 정해진 속도를 비교할 수 있고, 검출된 도어의 속도가 미리 정해진 속도보다 빠른 경우 도어가 빠르게 닫혔음을 판단할 수 있다. 또한, 제어부(260)는 도어가 닫힐 때의 세기와 미리 정해진 세기를 비교할 수 있으며. 검출된 도어의 세기가 미리 정해진 세기보다 센 경우 도어가 세게 닫혔음을 판단할 수 있다.
또한, 제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보가 유효한 정보인지 여부를 판단할 수 있다.
구체적으로 제어부(260)는 통신부(230)에 의해 수집된 정황 정보에 기초하여 검출된 도어 정보가 유효한 정보인지 여부를 결정할 수 있다. 제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보가 유효한 정보인 경우 저장부(250)에 도어 정보를 저장할 수 있다.
예를 들어, 제 1 센서(210)가 도어가 최대 개방 각도에서 미리 정해진 속도보다 빠르고 미리 정해진 세기보다 세게 닫혔다는 도어 정보를 검출하는 경우, 통신부(230)가 우천이라는 날씨 정보와 신호등 인근이라는 위치 정보를 포함하는 정황 정보를 수집하면, 제어부(260)는 검출된 도어 정보를 유효한 정보로 결정하지 않을 수 있다.
이는 날씨가 우천시이고, 신호등 인근이면 사용자가 감정 상태보다는 우천시 및 신호등 인근이라는 구체적인 정황에 따라 문을 빠르고 세게 닫았다는 의미로 해석될 수 있으므로, 이러한 경우 제어부(260)는 도어 정보를 유효한 정보로 결정하지 않을 수 있다.
이와 달리, 제 1 센서(210)가 도어가 최대 개방 각도에서 미리 정해진 속도 보다 빠르고 미리 정해진 세기보다 세게 닫혔다는 도어 정보를 검출하는 경우, 통신부(230)가 맑음이라는 날씨 정보와 차량이 주차장에 위치하며, 주차장 간격이 넓다는 정보를 포함하는 정황 정보를 수집하면, 제어부(260)는 검출된 도어 정보를 유효한 정보로 결정할 수 있다.
이는 날씨가 맑음이고, 차량이 주차장에 위치하며, 주차장 간격이 넓으면 사용자가 정황 보다는 감정에 따라 문을 빠르고 세게 닫았다는 의미로 해석될 수 있으므로, 이러한 경우 제어부(260)는 도어 정보를 유효한 정보로 결정할 수 있다.
도어 정보를 유효한 정보로 결정하면, 제어부(260)는 제 1 센서(210)에 의해 검출된 도어 정보를 미리 정해진 기준값에 기초하여 정규화할 수 있으며, 이러한 도어 정보를 기준값에 대한 상대값으로 변환할 수 있다.
또한, 제어부(260)는 이러한 유효한 정보로 결정된 도어 정보를 저장부(250)에 저장할 수 있으며, 이 때 정규화된 도어 정보가 저장될 수 있다.
또한, 제어부(260)는 도어 정보가 유효한 정보이면, 도어 정보에 전자 장치(240)의 설정값 중 적어도 하나를 대응시켜 행동 패턴을 생성하고, 생성된 행동 패턴을 저장부(250)에 저장할 수 있다.
이 때, 행동 패턴은 사용자의 행동을 나타내는 정보로, 사용자가 설정한 전자 장치(240)의 설정값 중 적어도 하나를 포함할 수 있다.
예를 들어, 행동 패턴은 공조 장치(241)의 설정값으로써 냉방 설정, 최저 온도 설정값 등을 포함할 수 있으며, 오디오 장치(242)의 설정값으로써 음원 장르, 볼륨 설정값 등을 포함할 수 있다. 또한, 행동 패턴은 시트 구동부(미도시)의 설정값으로써 시트(110)의 위치값, 각도값, 높이값 등을 포함할 수 있고, 주행 모드값을 더 포함할 수 있다.
제어부(260)는 유효한 정보로 결정된 도어 정보와, 이후 사용자가 설정한 전자 장치(240)의 설정값 중 적어도 하나를 대응시킬 수 있으며, 이를 행동 패턴으로 생성할 수 있다.
예를 들어, 제어부(260)는 '도어가 미리 정해진 기준 세기보다 세게 닫히고, 미리 정해진 기준 속도보다 빠르게 닫힘'이라는 도어 정보(도어 정보1)가 유효한 정보인 것으로 결정되면, 이후 사용자가 설정한 '공조 장치(241)의 최저 온도 설정값 및 오디오 장치(242)의 댄스 장르의 음원 재생, 최대 볼륨 설정값'을 도어 정보1과 대응시킬 수 있으며, 이를 도어 정보1에 대한 행동 패턴으로 생성할 수 있다.
다른 예로, 제어부(260)는 '도어가 미리 정해진 기준 세기보다 약하게 닫히고, 미리 정해진 기준 속도보다 느리게 닫힘'이라는 도어 정보(도어 정보2)가 유효한 정보인 것으로 결정되면, 이후 사용자가 설정한 '오디오 장치의 클래식 장르의 음원 재생, 기준 볼륨값보다 낮은 볼륨 설정값'을 도어 정보2와 대응시킬 수 있으며, 이를 도어 정보2에 대한 행동 패턴으로 생성할 수 있다.
제어부(260)는 공조 장치(241) 및 오디오 장치(242) 외에도 차량(1) 내부의 다양한 전자 장치(240)의 설정값과 유효한 정보로 결정된 도어 정보를 대응 시킴으로써 이를 행동 패턴으로 생성할 수도 있다.
예를 들어, 제어부(260)는 '도어가 미리 정해진 기준 세기보다 세게 닫히고, 미리 정해진 기준 속도보다 빠르게 닫힘'이라는 도어 정보(도어 정보1)가 유효한 정보인 것으로 결정되면, 이후 사용자가 설정한 시트 구동부(미도시)의 최대 높이의 위치 설정값을 도어 정보 1과 대응시킬 수 있고, 스포츠 모드의 주행 모드 설정값을 도어 정보 1과 대응시켜 이를 도어 정보 1에 대한 행동 패턴으로 생성할 수도 있다.
다른 예로, 제어부(260)는 '도어가 미리 정해진 기준 세기보다 약하게 닫히고, 미리 정해진 기준 속도보다 느리게 닫힘'이라는 도어 정보(도어 정보2)가 유효한 정보인 것으로 결정되면, 이후 사용자가 설정한 시트 구동부(미도시)의 최대 각도의 위치 설정값을 도어 정보 2와 대응시킬 수 있고, 컴포트 모드의 주행 모드 설정값을 도어 정보 2와 대응시켜 이를 도어 정보 2에 대한 행동 패턴으로 생성할 수도 있다.
제어부(240)는 생성된 행동 패턴을 저장할 수 있고, 이후, 전자 장치(240)의 설정값이 변경된 경우, 제어부(240)는 저장된 행동 패턴을 업데이트할 수 있다. 예를 들어, 제어부(240)는 공조 장치 및 오디오 장치의 설정값 중 적어도 하나가 변경된 경우, 제어부(260)는 저장된 행동 패턴을 업데이트할 수 있다.
이러한 유효한 도어 정보만을 저장하고, 이에 대한 행동 패턴을 업데이트함으로써 제어부(260)는 유효한 정보를 학습할 수 있으며, 제어의 정확도를 높일 수 있다.
제어부(260)는 제 2 센서(220)에 의해 검출된 생체 신호 및 사용자 표정의 움직임 중 적어도 하나를 포함하는 사용자의 상태 정보를 통해 사용자의 감정 상태를 나타내는 감정 정보를 생성할 수 있다.
이 때, 감정 정보는 사용자의 감정 상태를 나타내는 키워드를 포함할 수 있다. 예를 들어, 사용자의 감정 정보는 Neutral(보통), Happy(즐거움), Sad(우울함), Angry(화남), Surprise(놀람), Disgust(혐오), Contempt(경멸함), Scared(무서움) 및 Exhausted(지침) 등이 있을 수 있다.
또한, 감정 정보는 각 키워드마다 해당 감정의 강도를 나타내는 단계를 포함할 수 있으며, 단계의 개수는 미리 정해진 개수일 수 있다. 예를 들어, 사용자의 감정 정보는 Happy(즐거움)의 5단계 중 3단계일 수 있다.
구체적으로, 제어부(260)는 검출된 생체 신호 및 사용자 표정의 움직임 을 감정 상태를 나타내는 키워드와 매칭함으로써 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 생성할 수 있다.
이 때, 제어부(260)는 생체 신호 및 사용자 표정의 움직임 중 적어도 하나의 검출값을 감정 상태를 분류하기 위한 미리 정해진 기준값과 비교할 수 있고, 비교 결과에 따라 이러한 검출값을 해당 기준값에 대응하는 감정 키워드와 매칭할 수 있다.
제어부(260)는 감정맵을 이용하여 생체 신호 및 사용자 표정의 움직임에 대응하는 사용자의 감정을 판단할 수 있고, 이를 키워드와 매칭하여 감정 정보를 생성할 수 있다. 이 때, 감정맵은 감정 상태를 분류하기 위한 기준값 또는 기준 범위와 이에 대응하는 감정 상태를 2차원 또는 3차원 상으로 나타낸 것일 수 있다.
예를 들어, 제어부(260)는 제 2 센서(220)가 측정한 피부 저항(GSR)값이 0.775이고,감정맵 상에서 이에 대응하는 감정 키워드가 Angry(화남)인 경우 Angry(화남)이라는 감정 정보를 생성할 수 있다. 또한, 제어부(260)는 사용자 표정의 움직임에 대한 수치가 0.011 이고, 이에 대응하는 감정 키워드가 Angry(화남)인 경우 Angry(화남)이라는 감정 정보를 생성할 수 있다. 이 경우, 제어부(260)는 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 Angry(화남)으로 판단할 수 있다.
다른 예로, 제어부(260)는 제 2 센서(220)가 측정한 피부 저항(GSR)값이 0.875이고, 감정맵 상에서 이에 대응하는 감정 키워드가 Disgust(혐오)인 경우, Disgust(혐오)라는 감정 정보를 생성할 수 있다. 또한, 제어부(260)는 사용자 표정의 움직임에 대한 수치가 0.5 이고, 이에 대응하는 감정 키워드가 Disgust(혐오)인 경우 Disgust(혐오)라는 감정 정보를 생성할 수 있다. 이 경우, 제어부(260)는 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 Disgust(혐오)로 판단할 수 있다.
제어부(260)는 이러한 감정 정보가 유효한지 여부를 결정할 수 있다. 구체적으로, 제어부(260)는 판단된 감정 정보와 미리 저장된 유효한 감정 정보를 비교하여, 비교 결과에 따라 감정 정보가 유효한지 여부를 결정할 수 있다.
제어부(260)는 판단된 감정 정보와 미리 저장된 유효한 감정 정보 사이의 유사도가 미리 정해진 값 이상인 경우, 판단된 감정 정보가 유효한 것으로 결정할 수 있다.
예를 들어, 제어부(260)는 피부 저항(GSR)값이 0.775이고 사용자 표정의 움직임에 대한 수치가 0.5일 경우 Angry(화남)으로 판단된 감정 정보와 미리 저장된 유효한 감정 정보에 포함되는 피부 저항(GSR)값 및 사용자 표정의 움직임에 대한 수치를 각각 비교할 수 있다. 이 경우, 제어부(260)는 유사도가 80%이상인 경우 Angry(화남)에 대한 피부 저항(GSR)값 및 사용자 표정의 움직임에 대한 수치를 감정 정보로 저장할 수 있다.
이러한 유효한 감정 정보만을 저장함으로써 제어부(260)는 유효한 정보를 학습할 수 있으며, 제어의 정확도를 높일 수 있다.
제어부(260)는 감정 정보가 유효한 정보이면, 감정 정보에 전자 장치(240)의 설정값 중 적어도 하나를 대응시켜 행동 패턴을 생성하고, 생성된 행동 패턴을 저장부(250)에 저장할 수 있다.
예를 들어, 제어부(260)가 판단한 감정 정보가 Angry(화남)인 경우, 제어부(260)는 Angry(화남)의 감정 정보에 사용자가 설정한 공조 장치의 최저 온도 설정값 및 오디오 장치의 최대 음량 설정값을 대응시켜 행동 패턴을 생성할 수 있다.
다른 예로, 제어부(260)가 판단한 감정 정보가 Angry(화남)인 경우, 제어부(260)는 Angry(화남)의 감정 정보에 사용자가 설정한 시트 구동부(미도시)의 최대 높이의 위치 설정값을 대응시켜 행동 패턴을 생성할 수 있다.
다른 예로, 제어부(260)가 판단한 감정 정보가 Angry(화남)인 경우, 제어부(260)는 Angry(화남)의 감정 정보에 사용자가 설정한 스포츠 모드의 주행 모드 설정값을 대응시켜 행동 패턴을 생성할 수 있다.
이후, 전자 장치(240)의 설정값이 변경된 경우, 제어부(260)는 저장된 행동 패턴을 업데이트할 수 있다. 이를 통해, 제어의 정확도가 높아질 수 있다.
제어부(260)는 제 1 검출부(210) 및 제 2 검출부(220)에 의하여 획득된 정보 중 적어도 하나로부터 사용자의 행동을 예측할 수 있다. 이를 위해, 제어부(260)는 예측 행동 모델을 생성할 수 있고, 구체적으로 제어부(260)는 도어 정보에 따른 행동 패턴과 감정 정보에 따른 행동 패턴을 대응시킴으로써 예측 행동 모델을 생성할 수 있다.
이 때, 예측 행동 모델은 전술한 도어 정보에 따른 행동 패턴 및 감정 정보에 따른 행동 패턴을 포함하는 정보일 수 있으며, 통신부(230)에 의해 수집된 정황 정보를 더 포함하는 정보일 수 있다.
예를 들어, 예측 행동 모델은 도어 정보(도어가 강하고 빠르게 닫힘), 감정 정보(Angry), 정황 정보(맑은 날씨, 주차 간격이 넓은 주차장에 위치) 및 행동 패턴(공조: 최저 온도, 오디오: 댄스음악, 최대 음량)으로 표현되어 생성될 수 있다.
구체적으로, 제어부(260)는 도어 정보에 대응되어 생성된 행동 패턴에 제 2 검출부(220)에 의해 검출된 상태 정보로부터 생성된 감정 정보를 대응시킬 수 있다. 제어부(260)는 도어 정보에 대응되어 생성된 행동 패턴에 감정 정보를 매칭시킬 수 있고, 도어 정보, 감정 정보 및 이에 대응하는 행동 패턴을 포함하는 예측 행동 모델을 생성할 수 있다.
예를 들어, 사용자가 도어를 강하고 빠르게 닫은 경우, 제어부(260)는 도어 정보(도어가 강하고 빠르게 닫힘)에 대응되어 생성된 행동 패턴(오디오: 댄스음악, 최대 음량)에 제 2 검출부(220)에 의해 검출된 상태 정보로부터 생성된 감정 정보를 대응시킬 수 있다. 이 때, 제 2 검출부(220)에 의해 검출된 상태 정보로부터 Angry(화남)라는 감정 정보가 생성되는 경우, 제어부(260)는 도어 정보(도어가 강하고 빠르게 닫힘)에 대응되어 생성된 행동 패턴(오디오: 댄스음악, 최대 음량)에 감정 정보(Angry)를 매칭시켜 이들을 포함하는 예측 행동 모델을 생성할 수 있다.
또한, 제어부(260)는 감정 정보에 대응되어 생성된 행동 패턴에 제 1 검출부(210)에 의해 검출된 도어 정보를 대응시킬 수 있다. 제어부(260)는 감정 정보에 대응되어 생성된 행동 패턴에 도어 정보를 매칭시킬 수 있고, 도어 정보, 감정 정보 및 이에 대응하는 행동 패턴을 포함하는 예측 행동 모델을 생성할 수 있다.또한, 제어부(260)는 이러한 도어 정보, 감정 정보, 행동 패턴에 정황 정보를 더 추가하여 이들을 포함하는 예측 행동 모델을 생성할 수 있다.
예를 들어, 맑은 날씨에 사용자가 도어를 강하고 빠르게 닫은 경우, 제어부(260)는 도어 정보(도어가 강하고 빠르게 닫힘)에 대응되어 생성된 행동 패턴(오디오: 댄스음악, 최대 음량)에 제 2 검출부(220)에 의해 검출된 상태 정보로부터 생성된 감정 정보(Angry)를 대응시킬 수 있다. 이로부터 제어부(260)는 도어 정보(도어가 강하고 빠르게 닫힘), 행동 패턴(오디오: 댄스음악, 최대 음량) 및 감정 정보(Angry)뿐만 아니라 정황 정보(맑은 날씨)를 더 포함하는 예측 행동 모델을 생성할 수 있다. 도 4의 (a)는 구체적인 상황에 따른 예측 행동 모델을 나타낸 도면이며, (b)는 다른 상황에 따른 예측 행동 모델을 나타낸 도면이다.
예를 들어, 도 4의 (a)에 도시된 바와 같이, 제어부(260)는 도어 정보(도어가 강하고 빠르게 닫힘)에 대응되어 생성된 행동 패턴(오디오: 댄스음악, 최대 음량)에 감정 정보(Angry)를 매칭시킬 수 있으며, 여기에 정황 정보(맑은 날씨, 넓은 주차장)를 더 포함시켜 예측 행동 모델을 생성할 수 있다.
예를 들어, 도 4의 (b)에 도시된 바와 같이, 제어부(260)는 감정 정보(Exhausted)와 이에 대응되어 생성된 행동 패턴(클래식 음악, 최소 음량)에 도어 정보(도어가 약하고 느리게 닫힘)를 매칭시킬 수 있으며, 여기에 정황 정보(주말 오후, 집 지하 주차장)를 더 포함하는 예측 행동 모델을 생성할 수 있다.
또한, 제어부(260)는 생성된 예측 행동 모델이 유효한지 여부를 결정할 수 있고, 유효한 예측 행동 모델인 경우 이를 저장부(250)에 저장할 수 있다.
구체적으로, 제어부(260)는 생성된 예측 행동 모델과 미리 저장된 유효한 예측 행동 모델을 비교할 수 있고, 유사도가 미리 정해진 값 이상인 경우 생성된 예측 행동 모델을 유효한 예측 행동 모델로 결정할 수 있다.
이 때, 제어부(260)는 생성된 예측 행동 모델과 미리 저장된 유효한 예측 행동 모델 각각에 포함되는 도어 정보, 감정 정보, 정황 정보 및 행동 패턴 중 적어도 하나의 정보를 서로 비교할 수 있다. 제어부(260)는 각 정보간의 유사도가 미리 정해진 값 이상인 경우 생성된 예측 행동 모델을 유효한 예측 행동 모델로 결정할 수 있다.
제어부(260)는 생성된 예측 행동 모델이 유효한 것으로 결정되면, 생성된 예측 행동 모델에 따라 전자 장치(240)를 제어할 수 있다. 특히 제어부(260)는 생성된 예측 행동 모델에 따라 전자 장치(240)를 제어할 수 있다.
구체적으로, 제어부(260)는 생성된 예측 행동 모델에 포함된 전자 장치(240)의 설정값에 따라 전자 장치(240)를 제어할 수 있다.
제어부(260)는 생성된 예측 행동 모델에 포함된 전자 장치(240)의 설정값에 따라 사용자의 탑승 초기에 제공할 수 있는 초기 기능을 설정할 수 있다.
또는, 제어부(260)는 생성된 예측 행동 모델에 포함된 전자 장치(240)의 설정값에 따라 사용자에게 필요한 필요 기능을 제공할 수 있다.예를 들어, 도 4의 (a)의 경우에 따라 생성된 예측 행동 모델이 유효한 것으로 결정되는 경우, 제어부(260)는 오디오 장치(242)의 설정값을 재생되는 음원의 종류를 댄스 음악으로, 음량의 크기를 최대 음량으로 설정하여 오디오 장치(242)를 제어할 수 있다. 도시되지는 않았지만 도 4의 (a)의 경우의 행동 패턴에 공조 장치(241)의 설정값이 최저 온도 및 최대 풍량인 경우, 제어부(260)는 공조 장치(241)의 설정값을 최저 온도 및 최대 풍량으로 설정하여 공조 장치(241)를 제어할 수 있다.
이 때, 제어부(260)는 사용자의 탑승 초기에 제공할 수 있는 초기 기능을 생성된 예측 행동 모델에 포함된 전자 장치(240)의 설정값에 따라 설정할 수 있다.
또는, 제어부(260)는 사용자의 탑승 중에도, 생성된 예측 행동 모델에 포함된 전자 장치(240)의 설정값에 따라 전자 장치(240)를 제어함으로써 사용자에게 필요한 기능인 것으로 판단되는 필요 기능을 제공할 수 있다.
이를 통해, 제어부(260)는 생성한 예측 행동 모델의 유효 여부를 평가함으로써 유효한 정보를 학습할 수 있으며, 이에 따라 제어의 정확도가 높아질 수 있다.
도 5는 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 5를 참조하면, 일 실시예에 따른 차량(1)은 도어(14)가 닫혔는지 여부를 확인할 수 있다(410). 이 때, 도어(14)가 닫혔는지 여부는 제 1 센서(210)에 의해 확인될 수 있다.
도어(14)가 닫힌 것으로 확인되면(410의 예), 차량(1)은 도어 정보를 검출할 수 있고(420), 정황 정보를 수집할 수 있다(430).
이후, 차량(1)은 정황 정보에 기초하여 도어 정보가 유효한 정보인지 여부를 결정할 수 있고(440, 450), 도어 정보가 유효한 정보인 경우(450의 예), 도어 정보에 전자 장치(240)의 설정값을 대응시켜 행동 패턴을 생성할 수 있다(460).
구체적으로, 차량(1)은 차량(1) 내의 전자 장치(240)에 대한 사용자가 설정한 설정값을 수집하고, 이를 도어 정보에 대응시켜 행동 패턴을 생성할 수 있다.
행동 패턴을 생성한 후, 차량(1)은 도어 정보 및 이에 대응하는 행동 패턴(즉, 생성된 행동 패턴)을 저장할 수 있다(470).
이를 통해, 차량(1)은 구체적인 정황 정보에 기초하여 도어 정보 중 유효한 도어 정보만을 필터링함으로써 사용자의 감정을 판단하는데 유의미한 도어의 움직임만을 활용할 수 있다. 또한, 차량(1)은 이러한 유효한 도어 정보만을 이용하여 행동 패턴을 생성함으로써 제어의 정확성이 증대될 수 있고, 이를 통해 사용자의 편의성이 높아질 수 있다.
도 6은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 6을 참조하면, 다른 실시예에 따른 차량(1)은 사용자가 탑승하였는지 여부를 확인할 수 있다(510).
이 경우, 차량(1)은 별도의 센서를 통해 사용자의 탑승을 감지할 수 있으며, 도어(14)가 닫힌 경우 사용자가 탑승하였다고 확인할 수 있다. 특히, 도어(14)가 손잡이(13)를 통해 개방된 상태에서 닫힌 경우 차량(1)에 사용자가 탑승한 것으로 확인할 수 있다.
사용자가 탑승한 것으로 확인되면(510의 예), 차량(1)은 생체 신호 및 사용자 표정의 움직임을 검출할 수 있으며(520), 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단할 수 있다(530). 이 경우, 감정 정보는 사용자의 감정 상태를 나타내는 키워드를 포함할 수 있다.
이 때, 차량(1)은 생체 신호 및 사용자 표정의 움직임 중 적어도 하나의 검출값을 감정 상태를 분류하기 위한 미리 정해진 기준값과 비교할 수 있고, 비교 결과에 따라 이러한 검출값을 해당 기준값에 대응하는 감정 키워드와 매칭할 수 있다.
이를 위해, 차량(1)은 감정맵을 이용하여 생체 신호 및 사용자 표정의 움직임에 대응하는 사용자의 감정을 판단할 수 있고, 이를 키워드와 매칭하여 감정 정보를 판단할 수 있다.
그 다음, 차량(1)은 판단된 감정 정보가 유효한 정보인지 여부를 결정할 수 있다(540). 구체적으로, 차량(1)은 판단된 감정 정보와 미리 저장된 유효한 감정 정보의 유사도가 미리 정해진 값 이상일 경우에 판단된 감정 정보를 유효한 것으로 결정할 수 있다.
판단된 감정 정보가 유효한 정보인 경우(540의 예), 차량(1)은 감정 정보에 전자 장치(240)의 설정값을 대응시켜 행동 패턴을 생성할 수 있고(550), 판단된 감정 정보 및 이에 대응하는 행동 패턴을 저장할 수 있다(560).
이를 통해, 차량(1)은 사용자의 감정을 판단하기 위한 감정 정보를 구축할 수 있고, 각 감정 정보에 대응되는 전자 장치(240)의 설정값을 포함하는 행동 패턴을 학습할 수 있다. 따라서, 사용자의 감정에 보다 적합한 기능을 제공하기 위한 제어 정보를 생성할 수 있다.
도 7은 일 실시예에 따른 차량의 제어방법의 흐름도이다.
도 7을 참조하면, 다른 실시예에 따른 차량(1)은 도어가 닫혔는지 여부를 판단할 수 있고(601), 도어가 닫힌 경우(601의 예), 도어 정보를 검출하고 정황 정보를 수집할 수 있다(602).
그 다음, 차량(1)은 도어 정보가 유효한 정보인지 여부를 확인할 수 있다(603). 구체적으로, 차량(1)은 수집된 정황 정보에 기초하여 도어 정보가 유효한 정보인지 확인할 수 있다.
도어 정보가 유효한 정보인 경우(603의 예), 도어 정보에 전자 장치(240)의 설정값을 대응시켜 행동 패턴을 생성할 수 있다(604).
이후, 차량(1)은 생체 신호 및 사용자 표정의 움직임을 검출할 수 있고(605), 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단할 수 있다(606).
감정 정보를 판단한 경우, 차량(1)은 판단된 감정 정보가 유효한 정보인지 여부를 결정할 수 있다(607). 구체적으로, 차량(1)은 미리 저장된 감정 정보와의 유사도가 미리 정해진 값 이상인 경우 감정 정보를 유효한 정보로 결정할 수 있다.
판단된 감정 정보가 유효한 정보인 경우, 차량(1)은 생성된 행동 패턴에 감정 정보를 대응시켜 예측 행동 모델을 생성할 수 있다(608). 이 때, 차량(1)은 정황 정보를 더 포함시켜 예측 행동 모델을 생성할 수도 있다.
예측 행동 모델이 생성되면, 차량(1)은 생성된 예측 행동 모델과 저장된 예측 행동 모델을 비교할 수 있고(609), 이 경우 저장된 예측 행동 모델은 유효한 것으로 결정된 예측 행동 모델일 수 있다.
이 때, 차량(1)은 생성된 예측 행동 모델과 미리 저장된 유효한 예측 행동 모델 각각에 포함되는 도어 정보, 감정 정보, 정황 정보 및 행동 패턴 중 적어도 하나의 정보를 서로 비교할 수 있다.
비교 결과, 생성된 예측 행동 모델과 저장된 예측 행동 모델 사이의 유사도가 미리 정해진 값 이상인 경우(610의 예), 차량(1)은 예측 행동 모델에 따라 전자 장치(240)를 제어할 수 있다(611).
이를 통해, 차량(1)은 도어(14)의 움직임 및 사용자의 감정 상태를 고려하여 사용자의 행동을 예측할 수 있는 예측 행동 모델을 생성할 수 있다. 차량(1)은 이러한 예측 행동 모델을 이용하여 사용자의 별도의 입력 없이도 사용자에게 적합한 기능을 제공할 수 있다. 따라서, 사용자의 편의성이 증대될 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 차량
14: 도어
210: 제 1 센서
220: 제 2 센서
230: 통신부
240: 전자 장치
241: 공조 장치
242: 오디오 장치
250: 저장부
260: 제어부

Claims (26)

  1. 도어의 움직임에 대한 도어 정보를 검출하는 제1센서;
    사용자에 의해 설정 가능한 전자 장치;
    상기 도어 정보 및 상기 전자 장치의 설정값에 기초하여 상기 사용자의 예측 행동 모델을 생성하고, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 제어부;를 포함하는 차량.
  2. 제1항에 있어서,
    상기 제1센서는,
    상기 도어의 위치, 각도, 속도 및 상기 도어 손잡이에 가해진 힘의 세기 중 적어도 하나를 포함하는 도어 정보를 검출하는 차량.
  3. 제1항에 있어서,
    외부로부터 날씨 정보 및 위치 정보를 포함하는 정황 정보를 수신하는 통신부;를 더 포함하고,
    상기 제어부는,
    상기 도어 정보가 유효한지 여부를 상기 정황 정보에 기초하여 결정하고, 상기 검출된 도어 정보가 유효한 것으로 결정되면, 상기 검출된 도어 정보 및 상기 사용자에 의해 설정된 상기 전자 장치의 설정값에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 도어 정보에 상기 전자 장치의 설정값를 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 행동 패턴 및 상기 정황 정보에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  6. 제1항에 있어서,
    생체 신호 및 사용자 표정의 움직임 중 적어도 하나를 검출하는 제2센서;를 더 포함하고,
    상기 제어부는,
    상기 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단하고, 상기 판단된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도에 기초하여 상기 판단된 감정 정보가 유효한지 여부를 결정하고, 상기 유효한 것으로 결정된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도가 미리 정해진 값 이상인 경우, 상기 판단된 감정 정보가 유효한 것으로 결정하는 차량.
  9. 제6항에 있어서,
    상기 제어부는,
    상기 감정 정보에 상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 차량.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 생성된 행동 패턴에 상기 도어 정보를 대응시켜 상기 예측 행동 모델을 생성하는 차량.
  11. 제10항에 있어서,상기 제어부는,
    상기 생성된 행동 패턴에 대응되는 정황 정보를 더 포함하는 예측 행동 모델을 생성하는 차량.
  12. 제1항에 있어서,
    상기 제어부는,
    상기 생성된 예측 행동 모델과 미리 저장된 예측 행동 모델의 유사도가 미리 정해진 값 이상인 경우, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 차량.
  13. 제1항에 있어서,
    상기 제어부는,
    상기 생성된 예측 행동 모델에 포함된 상기 전자 장치의 설정값에 기초하여 상기 전자 장치를 제어하는 차량.
  14. 도어의 움직임에 대한 도어 정보를 검출하는 단계;
    상기 도어 정보 및 상기 전자 장치의 설정값에 기초하여 상기 사용자의 예측 행동 모델을 생성하는 단계; 및
    상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 단계;
    를 포함하는 차량의 제어방법.
  15. 제14항에 있어서,
    상기 도어 정보를 검출하는 단계는,
    상기 도어의 위치, 각도, 속도 및 상기 도어 손잡이에 가해진 힘의 세기 중 적어도 하나를 포함하는 도어 정보를 검출하는 단계를 포함하는 차량의 제어방법.
  16. 제14항에 있어서,
    외부로부터 날씨 정보 및 위치 정보를 포함하는 정황 정보를 수신하는 단계;를 더 포함하고,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 도어 정보가 유효한지 여부를 상기 정황 정보에 기초하여 결정하는 단계; 및
    상기 검출된 도어 정보가 유효한 것으로 결정되면, 상기 검출된 도어 정보 및 상기 사용자에 의해 설정된 상기 전자 장치의 설정값에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함하는 차량의 제어방법.
  17. 제16항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하는 단계; 및
    상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함하는 차량의 제어방법.
  18. 제17항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 행동 패턴 및 상기 정황 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계를 포함하는 차량의 제어방법.
  19. 제14항에 있어서,생체 신호 및 사용자 표정의 움직임 중 적어도 하나를 검출하는 단계;
    상기 검출된 생체 신호 및 사용자 표정의 움직임에 대응하는 감정 정보를 판단하는 단계;를 더 포함하고,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 판단된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계를 포함하는 차량의 제어방법.
  20. 제19항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도에 기초하여 상기 판단된 감정 정보가 유효한지 여부를 결정하는 단계; 및
    상기 유효한 것으로 결정된 감정 정보에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함하는 차량의 제어방법.
  21. 제20항에 있어서,
    상기 판단된 감정 정보가 유효한지 여부를 결정하는 단계는,
    상기 판단된 감정 정보와 미리 저장된 감정 정보의 유사도가 미리 정해진 값 이상인 경우, 상기 판단된 감정 정보가 유효한 것으로 결정하는 단계를 포함하는 차량의 제어방법.
  22. 제19항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 감정 정보에 상기 전자 장치의 설정값을 대응시켜 행동 패턴을 생성하고, 상기 생성된 행동 패턴에 기초하여 상기 예측 행동 모델을 생성하는 단계;를 포함하는 차량의 제어방법.
  23. 제22항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 생성된 행동 패턴에 상기 도어 정보를 대응시켜 상기 예측 행동 모델을 생성하는 단계;를 포함하는 차량의 제어방법.
  24. 제23항에 있어서,
    상기 사용자의 예측 행동 모델을 생성하는 단계는,
    상기 생성된 행동 패턴에 대응되는 정황 정보를 더 포함하는 예측 행동 모델을 생성하는 단계를 포함하는 차량의 제어방법.
  25. 제14항에 있어서,
    상기 전자 장치를 제어하는 단계는,
    상기 생성된 예측 행동 모델과 미리 저장된 예측 행동 모델의 유사도가 미리 정해진 값 이상인 경우, 상기 생성된 예측 행동 모델에 기초하여 상기 전자 장치를 제어하는 단계;를 포함하는 차량의 제어방법.
  26. 제14항에 있어서,
    상기 전자 장치를 제어하는 단계는,상기 생성된 예측 행동 모델에 포함된 상기 전자 장치의 설정값에 기초하여 상기 전자 장치를 제어하는 단계를 포함하는 차량의 제어방법.

KR1020180102899A 2018-08-30 2018-08-30 차량 및 그 제어방법 KR102625396B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180102899A KR102625396B1 (ko) 2018-08-30 2018-08-30 차량 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180102899A KR102625396B1 (ko) 2018-08-30 2018-08-30 차량 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20200025483A true KR20200025483A (ko) 2020-03-10
KR102625396B1 KR102625396B1 (ko) 2024-01-17

Family

ID=69800472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180102899A KR102625396B1 (ko) 2018-08-30 2018-08-30 차량 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR102625396B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022011112A (ja) * 2020-06-29 2022-01-17 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、及び車両

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008068665A (ja) * 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
WO2016005289A1 (en) * 2014-07-08 2016-01-14 Jaguar Land Rover Limited System and method for automated device control for vehicles using driver emotion
US20170124859A1 (en) * 2015-11-02 2017-05-04 Hyundai Motor Company Apparatus and method for controlling opening and closing of vehicle door
KR20170109275A (ko) * 2016-03-21 2017-09-29 현대자동차주식회사 차량 및 그 제어 방법
WO2018096688A1 (ja) * 2016-11-28 2018-05-31 本田技研工業株式会社 運転支援装置、運転支援システム、プログラム及び運転支援装置の制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008068665A (ja) * 2006-09-12 2008-03-27 Fujitsu Ten Ltd 車両制御装置および車両制御方法
WO2016005289A1 (en) * 2014-07-08 2016-01-14 Jaguar Land Rover Limited System and method for automated device control for vehicles using driver emotion
US20170124859A1 (en) * 2015-11-02 2017-05-04 Hyundai Motor Company Apparatus and method for controlling opening and closing of vehicle door
KR20170109275A (ko) * 2016-03-21 2017-09-29 현대자동차주식회사 차량 및 그 제어 방법
WO2018096688A1 (ja) * 2016-11-28 2018-05-31 本田技研工業株式会社 運転支援装置、運転支援システム、プログラム及び運転支援装置の制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022011112A (ja) * 2020-06-29 2022-01-17 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、及び車両

Also Published As

Publication number Publication date
KR102625396B1 (ko) 2024-01-17

Similar Documents

Publication Publication Date Title
CN109416733B (zh) 便携式个性化
US10180729B2 (en) Human machine interface apparatus for vehicle and methods of controlling the same
RU2643627C2 (ru) Система и способ установки пользовательских настроек
JP4305289B2 (ja) 車両用制御装置およびその装置を備える車両用制御システム
JP4728839B2 (ja) 車載機器制御装置
EP2857276B1 (en) Driver assistance system
US10864866B2 (en) Vehicle and control method thereof
KR20160036242A (ko) 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
WO2014014862A2 (en) Vehicle climate control
US20160170495A1 (en) Gesture recognition apparatus, vehicle having the same, and method for controlling the vehicle
US10663312B2 (en) Vehicle and control method thereof
KR102686009B1 (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
KR20200027236A (ko) 차량 및 그 제어 방법
CN110920628B (zh) 车辆和车辆系统
CN114684152A (zh) 驾驶体验数据处理的方法、装置、车辆及介质
CN115352385A (zh) 汽车的声场调节方法、装置、电子设备及存储介质
KR102625396B1 (ko) 차량 및 그 제어방법
US11697431B2 (en) Automated driving assistance apparatus
KR20220159646A (ko) 진동 발생 장치 및 그를 가지는 차량
JP6627688B2 (ja) 車載機器制御装置
KR20140044036A (ko) 운전자 감성 및 운전모드 기반 자동차 운행 환경 제공 방법 및 장치
JP2008201146A (ja) 車両用操作案内装置
KR20160061942A (ko) 제스처 인식 장치 및 그 제어 방법
WO2023126856A1 (en) Methods and systems for driver monitoring using in-cabin contextual awareness
US20240157896A1 (en) Vehicle system and method for adjusting interior control settings based on driver emotion and environmental context

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right