KR102487860B1 - 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램 - Google Patents

탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램 Download PDF

Info

Publication number
KR102487860B1
KR102487860B1 KR1020220093831A KR20220093831A KR102487860B1 KR 102487860 B1 KR102487860 B1 KR 102487860B1 KR 1020220093831 A KR1020220093831 A KR 1020220093831A KR 20220093831 A KR20220093831 A KR 20220093831A KR 102487860 B1 KR102487860 B1 KR 102487860B1
Authority
KR
South Korea
Prior art keywords
score
determining
preset
fatigue
mood
Prior art date
Application number
KR1020220093831A
Other languages
English (en)
Inventor
박윤희
Original Assignee
박윤희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박윤희 filed Critical 박윤희
Priority to KR1020220093831A priority Critical patent/KR102487860B1/ko
Application granted granted Critical
Publication of KR102487860B1 publication Critical patent/KR102487860B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/70Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors characterised by the purpose
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/22Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 실시예에 따르면, 차량 제어 서비스를 제공하기 위한 장치를 제공한다. 상기 장치는, 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함한다. 또한, 상기 적어도 하나의 동작은, 사용자의 제1 심박, 제1 음성, 제1 안면이미지 및 제1 도어충격량을 이용해 상기 사용자의 제1 기분점수를 결정하는 동작; 상기 제1 기분점수가 미리 설정된 기준점수보다 작은 경우, 상기 사용자의 나이, 성별, 성격유형 및 상기 제1 기분점수를 이용하여, 미리 설정된 복수의 멘트들 각각의 점수를 결정하고, 미리 설정된 복수의 광패턴들 각각의 점수를 결정하며, 미리 설정된 복수의 안정음들 각각의 점수를 결정하고, 미리 설정된 복수의 음악들 각각의 점수를 결정하며, 미리 설정된 복수의 믹스패턴들 각각의 점수를 결정하는 동작; 및 상기 멘트들, 상기 광패턴들, 상기 안정음들, 상기 음악들 및 상기 믹스패턴들 중 점수가 가장 높은 어느 하나인 재생대상을 재생하는 동작을 포함할 수 있다.

Description

탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램{VEHICLE CONTROL DEVICE, METHOD AND PROGRAM USING PSYCHOLOGICAL STATE OF OCCUPANT}
본 발명은 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램에 관한 것이다.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.
차량은 보유하고 있는 인구의 숫자가 크게 증가하고 있으며, 차량이 증가함에 따라 교통량 역시 증가하고 있다. 또한, 교통량이 증가하는 만큼 차량에 의해 발생하는 사고의 빈도도 증가하고 있다.
감정상태에 따라 운전자의 운전의 안정성이 떨어지기도 하는데, 이는 교통량이 많은 도로에서 사고로 이어질 수 있다.
이에 따라, 운전자의 감정상태를 판단하고 운전이 안정성이 떨어지지 않도록 제어해주는 기술에 대한 필요성이 대두되고 있다.
본 발명은, 사용자의 기분상태를 결정하고, 결정된 기분상태에 따라 사용자에게 멘트, 광패턴, 안정음 및 음악 중 적어도 하나를 제공할 수 있는, 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램을 제공하는 것을 일 목적으로 한다.
본 발명은, 사용자의 피로도를 파악하고, 결정된 피로도에 따라 감쇠력 및 차고를 조절할 수 있는, 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램을 제공하는 것을 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 일 측면은, 차량 제어 서비스를 제공하기 위한 장치를 제공한다.
상기 장치는, 적어도 하나의 프로세서(processor); 및 상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함한다.
또한, 상기 적어도 하나의 동작은, 사용자의 제1 심박, 제1 음성, 제1 안면이미지 및 제1 도어충격량을 이용해 상기 사용자의 제1 기분점수를 결정하는 동작; 상기 제1 기분점수가 미리 설정된 기준점수보다 작은 경우, 상기 사용자의 나이, 성별, 성격유형 및 상기 제1 기분점수를 이용하여, 미리 설정된 복수의 멘트들 각각의 점수를 결정하고, 미리 설정된 복수의 광패턴들 각각의 점수를 결정하며, 미리 설정된 복수의 안정음들 각각의 점수를 결정하고, 미리 설정된 복수의 음악들 각각의 점수를 결정하며, 미리 설정된 복수의 믹스패턴들 각각의 점수를 결정하는 동작; 및 상기 멘트들, 상기 광패턴들, 상기 안정음들, 상기 음악들 및 상기 믹스패턴들 중 점수가 가장 높은 어느 하나인 재생대상을 재생하는 동작을 포함할 수 있다.
또한, 상기 적어도 하나의 동작은, 상기 사용자의 제2 심박, 제2 음성, 제2 안면이미지 및 제2 도어충격량을 이용해 상기 사용자의 제2 기분점수를 결정하는 동작; 및 상기 나이, 상기 성별과 매칭되는 성별 값, 상기 성격유형과 매칭되는 성격유형 값, 상기 제1 기분점수 및 상기 재생대상에 상기 제2 기분점수에서 상기 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성하는 동작을 포함할 수 있다.
또한, 상기 적어도 하나의 동작은, 상기 사용자의 제1 호흡, 제3 심박 및 제3 안면이미지를 이용하여 제1 피로도를 결정하는 동작; 제1 제동거리, 제1 차선거리 및 제1 차선이탈횟수를 이용하여 제2 피로도를 결정하는 동작; 상기 제1 피로도 및 상기 제2 피로도를 이용하여 제1 위험도를 결정하는 동작; 및 상기 제1 위험도가 미리 설정된 기준 위험도보다 큰 경우, 상기 제1 호흡, 상기 제3 심박, 상기 제3 안면이미지, 상기 제1 제동거리, 상기 제1 차선거리 및 상기 제1 차선이탈횟수를 이용해 감쇠력 및 차고를 결정하는 동작; 및 상기 감쇠력 및 상기 차고를 이용해 서스펜션을 제어하는 동작을 더 포함할 수 있다.
또한, 상기 적어도 하나의 동작은, 상기 서스펜션을 제어하는 동작 이후에, 상기 사용자의 제2 호흡, 제4 심박 및 제4 안면이미지를 이용하여 상기 제1 피로도를 다시 결정하는 동작; 제2 제동거리, 제2 차선거리 및 제2 차선이탈횟수를 이용하여 상기 제2 피로도를 다시 결정하는 동작; 다시 결정된 상기 제1 피로도 및 상기 제2 피로도를 이용해 제2 위험도를 결정하는 동작; 및 상기 제1 위험도와 상기 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되지 않는 경우, 상기 제1 위험도, 상기 제2 위험도 및 상기 오차범위를 이용하여 상기 감쇠력 및 상기 차고를 보정하는 동작을 더 포함할 수 있다.
또한, 상기 적어도 하나의 동작은, 상기 제1 위험도와 상기 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되는 경우, 상기 제1 호흡, 상기 제3 심박, 상기 제3 안면이미지, 상기 제1 제동거리, 상기 제1 차선거리 및 상기 제1 차선이탈횟수에 상기 감쇠력 및 상기 차고를 라벨링하여 학습데이터를 생성하는 동작을 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 사용자의 기분상태를 결정하고, 결정된 기분상태에 따라 사용자에게 멘트, 광패턴, 안정음 및 음악 중 적어도 하나를 제공할 수 있다. 이를 통해, 사용자의 기분상태에 따라 운전의 안정성이 저감되는 것을 예방할 수 있다.
본 발명의 다른 실시예에 따르면, 사용자의 피로도를 파악하고, 결정된 피로도에 따라 감쇠력 및 차고를 조절할 수 있다. 감쇠력 및 차고 조절을 통해 사용자의 부주의로 사고가 발생되는 것을 예방할 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량 제어 서비스를 제공하는 시스템에 대한 개요도이다.
도 2는 도 1에 따른 서비스 제공 장치가 사용자의 제1 기분점수에 따라 멘트, 광패턴, 안정음 및 음악 중 적어도 하나를 재생하는 과정을 도시하는 흐름도이다.
도 3은 도 1에 따른 서비스 제공 장치가 위험도에 따라 감쇠력 및 차고를 결정하는 과정을 도시하는 흐름도이다.
도 4는 도 1에 따른 서비스 제공 장치가 위험도에 따라 감쇠력 및 차고를 보정하는 과정을 도시하는 흐름도이다.
도 5는 도 1에 따른 서비스 제공 장치가 감지된 방지턱의 높이 및 길이에 따라 감쇠력 및 차고를 결정하는 과정을 도시하는 흐름도이다.
도 6은 도 1에 따른 서비스 제공 장치의 하드웨어 구성을 예시적으로 나타낸 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른 차량 제어 서비스를 제공하는 시스템에 대한 개요도이다.
도 1을 참조하면, 차량 제어 서비스를 제공하기 위한 시스템은, 서비스 제공 장치(100), 캐빈 카메라(210), 음성 감지 센서(220), 심박 감지 센서(230), 충격 감지 센서(240), 호흡 감지 센서(250), 전방 센서(260), 측면 센서(270), 조명 모듈(310), 스피커 모듈(320) 및 서스펜션(330)을 포함한다.
캐빈 카메라(210)는, 사용자의 얼굴을 촬영할 수 있는 위치에 설치된다. 일 실시예에서, 캐빈 카메라(210)는, 차량의 핸들 또는 차량의 대시보드에 설치될 수 있다. 일 실시예에서, 캐빈 카메라(210)는, 야간에도 사용자의 얼굴을 촬영할 수 있는 적외선 카메라일 수 있다.
음성 감지 센서(220)는, 차량의 내부에 설치되고 사용자의 음성을 감지하도록 구성된다.
심박 감지 센서(230)는, 사용자의 피부와 접촉된 상태에서 사용자의 심박을 감지하도록 구성된다. 일 실시예에서, 심박 감지 센서(230)는, 스마트 와치, 스마트 밴드 등으로 구성될 수 있다.
충격 감지 센서(240)는, 차량의 문에 부착되어 차량의 문이 닫힐 때의 충격량을 감지하도록 구성될 수 있다. 일 실시예에서, 충격량의 단위는 N·s일 수 있다.
호흡 감지 센서(250)는, 차량의 내부에서 사용자의 가슴 또는 복부를 바라보는 위치에 설치되고, 사용자의 호흡당 호흡길이 및 미리 설정된 시간 동안의 호흡횟수를 포함하는 호흡패턴 감지하도록 구성된다.
전방 센서(260)는, 차량 외면의 전방 측을 향하도록 배치되며, 배치된 전방 측의 영상을 감지하도록 구성된다. 또한, 전방 센서(260)는, 전방 측을 향하여 전자파 또는 레이저 형태의 신호를 보내고, 반사되어 되돌아오는 신호를 감지할 수 있도록 구성된다. 전방 센서(260)는, 영상 및 신호를 이용해, 전방 센서(260)와 앞에 위치한 차량 사이의 거리를 감지할 수 있다. 전방 센서(260)는, 영상 및 신호를 이용해, 전방 센서(260)의 전방 측에 위치한 방지턱과 사용자가 탑승한 차량 사이의 거리를 감지할 수 있다. 전방 센서(260)는, 영상 및 신호를 이용해 전방 센서(260)의 전방 측에 위치한 방지턱의 높이 및 길이를 결정할 수 있다. 방지턱의 길이는 차량의 진행하는 방향에 따른 방지턱의 길이를 의미한다.
측면 센서(270)는, 차량 외면의 측면 측을 향하도록 배치되며, 배치된 전방 측의 영상을 감지하도록 구성된다. 또한, 전방 센서(260)는, 측면 측을 향하여 전자파 또는 레이저 형태의 신호를 보내고, 반사되어 되돌아오는 신호를 감지할 수 있도록 구성된다. 측면 센서(270)는, 영상 및 신호를 이용해, 측면 센서(270)와 측면 센서(270)의 앞에 위치한 차선 사이의 거리를 감지할 수 있다. 일 실시예에서, 측면 센서(270)는, 복수 개로 구비되어 차량의 양 측에 배치된다.
조명 모듈(310)은, 출력패턴 제어부(102)에서 제공되는 제어신호에 따라 광패턴을 출력할 수 있도록 구성된다.
스피커 모듈(320)은, 출력패턴 제어부(102)에서 제공되는 제어신호에 따라 안정음 또는 음악을 출력할수 있도록 구성된다.
서스펜션(330)은, 차량의 휠(Wheel)과 연결되어 휠에서 차체로 전달되는 힘에 대한 감쇠력을 조절할 수 있도록 구성된다. 또한, 서스펜션(330)은, 휠과 연결되어 차체와 휠 사이의 거리를 조절하여 차고를 조절할 수 있도록 구성된다. 일 실시예에서, 서스펜션(330)은, 압축된 공기의 탄력을 이용한 공기 스프링으로 차체를 지지하며, 공기가 저장되는 공기탱크 및 기의 압력에 따라 길이가 제어되는 실린더를 포함할 수 있다. 또한, 서스펜션(330)은, 서스펜션 제어부(105)의 제어신호에 따라 공기를 이동시켜 감쇠력과 차고를 조절할 수 있다.
서비스 제공 장치(100)는, 복수의 기능적 모듈들을 포함한다. 도시된 실시예에서, 기분상태 결정부(101), 출력패턴 제어부(102), 학습데이터 생성부(103), 위험도 결정부(104), 서스펜션 제어부(105) 및 방지턱 감지부(106)를 포함한다.
도 2는 도 1에 따른 서비스 제공 장치가 사용자의 제1 기분점수에 따라 멘트, 광패턴, 안정음 및 음악 중 적어도 하나를 재생하는 과정을 도시하는 흐름도이다.
기분상태 결정부(101)는, 캐빈 카메라(210), 음성 감지 센서(220), 심박 감지 센서(230), 충격 감지 센서(240)로부터 심박, 음성, 안면이미지 및 도어충격량을 수신하고, 수신된 심박, 음성, 안면이미지 및 도어충격량을 이용해 사용자의 제1 기분점수를 결정한다(S110).
기분상태 결정부(101)는, 미리 설정된 시간 간격마다 사용자의 기분점수를 결정한다.
기분 상태 결정부(101)는, 미리 설정된 시간 간격동안 캐빈 카메라(210)로부터 수신된 프레임들 중 예비기분점수가 가장 높은 프레임을 선택하고, 선택한 프레임으로부터 추출된 특징 값들을 차원 값들로 갖는 다차원 벡터인 안면 벡터를 획득한다.
일 실시예에서, 기분 상태 결정부(101)는, 프레임들을 미리 학습된 제1 인공신경망에 입력 값으로 입력하고, 제1 인공신경망으로부터 프레임들 각각의 예비기분점수를 획득할 수 있다. 일 실시예에서, 제1 인공신경망은, 학습용 프레임들 각각에 예비기분점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, CNN(Convolutional Neural Network) 및 Random Forest가 제1 인공신경망의 학습에 사용될 수 있다. 일 실시예에서, CNN은 입력 값으로 입력된 프레임으로부터 프레임과 대응하는 안면 벡터를 출력하고, Random Forest는 안면 벡터와 대응하는 예비기분점수를 출력할 수 있다.
기분 상태 결정부(101)는, 미리 설정된 시간 간격동안 음성 감지 센서(220)로부터 수신된 음성으로부터 추출된 특징 값들을 차원 값들로 갖는 다차원 벡터인 음성 벡터를 획득한다. 미리 설정된 시간 간격동안 음성 감지 센서(220)로부터 수신된 음성이 없는 경우, 기분 상태 결정부(101)는, 미리 설정된 기준 음성 벡터를 음성 벡터로 결정한다.
일 실시예에서, 기분 상태 결정부(101)는, 수신된 음성의 파형을 포함하는 이미지를 미리 학습된 CNN(Convolutional Neural Network)에 입력 값으로 입력하고, CNN으로부터 음성과 대응하는 음성 벡터를 획득할 수 있다.
기분 상태 결정부(101)는, 미리 설정된 시간 간격동안 심박 감지 센서(230)로부터 수신된 심박으로부터 추출된 특징 값들을 차원 값들로 갖는 다차원 벡터인 심박 벡터를 획득한다.
일 실시예에서, 기분 상태 결정부(101)는, 수신된 심박의 파형을 포함하는 이미지를 미리 학습된 CNN(Convolutional Neural Network)에 입력 값으로 입력하고, CNN으로부터 음성과 대응하는 심박 벡터를 획득할 수 있다.
기분 상태 결정부(101)는, 미리 설정된 시간 간격동안 충격 감지 센서(240)로부터 수신된 충격량을 차원 값으로 갖는 1차원 벡터인 충격 벡터를 획득한다. 미리 설정된 시간 간격동안 충격 감지 센서(240)로부터 수신된 충격량이 없는 경우, 기분 상태 결정부(101)는, 미리 설정된 기준 충격 벡터를 충격 벡터로 결정한다.
기분상태 결정부(101)는, 안면 벡터, 음성 벡터, 심박 벡터 및 충격 벡터를 미리 학습된 제2 인공신경망에 입력 값으로 입력하고, 제2 인공신경망으로부터 제1 기분점수를 획득한다. 일 실시예에서, 제2 인공신경망은, 학습용 안면 벡터, 학습용 음성 벡터, 학습용 심박 벡터 및 학습용 충격 벡터에 기분점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제2 인공신경망의 생성에 사용될 수 있다.
기분상태 결정부(101)는, 제2 인공신경망으로부터 획득된 기분점수를 제1 기분점수로 결정한다.
기분상태 결정부(101)는, 결정된 제1 기분점수와 미리 설정된 기준점수를 비교한다(S120).
제1 기분점수가 기준점수보다 큰 경우, 출력패턴 제어부(102)는, 사용자의 나이, 성별, 성격유형, 제1 기분점수를 이용해 미리 설정된 복수의 멘트들 각각의 점수를 결정하고, 점수가 가장 높은 멘트를 재생멘트로 결정한다(S131).
일 실시예에서, 남 또는 여와 미리 매칭된 성별 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 성격유형들 각각과 미리 매칭된 성격유형 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 멘트들 각각과 미리 매칭된 멘트 값이 데이터베이스에 저장된다.
출력패턴 제어부(102)는, 나이, 성별과 매칭되는 성별 값, 성격유형과 매칭되는 성별유형 값, 제1 기분점수 및 멘트와 매칭되는 멘트 값을 미리 학습된 제3 인공신경망에 입력 값으로 입력하고, 제3 인공신경망으로부터 멘트와 대응하는 점수를 획득한다.
일 실시예에서, 제3 인공신경망은, 학습용 나이, 학습용 성별 값, 학습용 성격유형 값, 학습용 제1 기분점수 및 학습용 멘트 값에 점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제3 인공신경망의 생성에 사용될 수 있다.
출력패턴 제어부(102)는, 미리 설정된 멘트들 각각에 대한 점수를 획득하고, 점수가 가장 높은 멘트를 재생멘트로 결정한다.
또한, 출력패턴 제어부(102)는, 사용자의 나이, 성별, 성격유형, 제1 기분점수를 이용해 미리 설정된 복수의 광패턴들 각각의 점수를 결정하고, 점수가 가장 높은 광패턴을 재생광패턴으로 결정한다(S132).
일 실시예에서, 남 또는 여와 미리 매칭된 성별 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 성격유형들 각각과 미리 매칭된 성격유형 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 광패턴들 각각과 미리 매칭된 광패턴 값이 데이터베이스에 저장된다.
출력패턴 제어부(102)는, 나이, 성별과 매칭되는 성별 값, 성격유형과 매칭되는 성별유형 값, 제1 기분점수 및 광패턴과 매칭되는 광패턴 값을 미리 학습된 제4 인공신경망에 입력 값으로 입력하고, 제4 인공신경망으로부터 광패턴과 대응하는 점수를 획득한다.
일 실시예에서, 제4 인공신경망은, 학습용 나이, 학습용 성별 값, 학습용 성격유형 값, 학습용 제1 기분점수 및 학습용 광패턴 값에 점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제4 인공신경망의 생성에 사용될 수 있다.
출력패턴 제어부(102)는, 미리 설정된 광패턴들 각각에 대한 점수를 획득하고, 점수가 가장 높은 광패턴을 재생광패턴으로 결정한다.
또한, 출력패턴 제어부(102)는, 사용자의 나이, 성별, 성격유형, 제1 기분점수를 이용해 미리 설정된 복수의 안정음들 각각의 점수를 결정하고, 점수가 가장 높은 안정음을 재생안정음으로 결정한다(S133).
일 실시예에서, 남 또는 여와 미리 매칭된 성별 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 성격유형들 각각과 미리 매칭된 성격유형 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 안정음들 각각과 미리 매칭된 안정음 값이 데이터베이스에 저장된다.
출력패턴 제어부(102)는, 나이, 성별과 매칭되는 성별 값, 성격유형과 매칭되는 성별유형 값, 제1 기분점수 및 안정음과 매칭되는 안정음 값을 미리 학습된 제5 인공신경망에 입력 값으로 입력하고, 제5 인공신경망으로부터 안정음과 대응하는 점수를 획득한다.
일 실시예에서, 제5 인공신경망은, 학습용 나이, 학습용 성별 값, 학습용 성격유형 값, 학습용 제1 기분점수 및 학습용 안정음 값에 점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제5 인공신경망의 생성에 사용될 수 있다.
출력패턴 제어부(102)는, 미리 설정된 안정음들 각각에 대한 점수를 획득하고, 점수가 가장 높은 안정음을 재생안정음으로 결정한다.
또한, 출력패턴 제어부(102)는, 사용자의 나이, 성별, 성격유형 및 제1 기분점수를 이용해 미리 설정된 복수의 음악들 각각의 점수를 결정하고, 점수가 가장 높은 음악을 재생음악으로 결정한다(S134).
일 실시예에서, 남 또는 여와 미리 매칭된 성별 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 성격유형들 각각과 미리 매칭된 성격유형 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 음악들 각각과 미리 매칭된 음악 값이 데이터베이스에 저장된다.
출력패턴 제어부(102)는, 나이, 성별과 매칭되는 성별 값, 성격유형과 매칭되는 성별유형 값, 제1 기분점수 및 음악과 매칭되는 음악 값을 미리 학습된 제6 인공신경망에 입력 값으로 입력하고, 제6 인공신경망으로부터 음악과 대응하는 점수를 획득한다.
일 실시예에서, 제6 인공신경망은, 학습용 나이, 학습용 성별 값, 학습용 성격유형 값, 학습용 제1 기분점수 및 학습용 음악 값에 점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제6 인공신경망의 생성에 사용될 수 있다.
출력패턴 제어부(102)는, 미리 설정된 음악들 각각에 대한 점수를 획득하고, 점수가 가장 높은 음악을 재생음악으로 결정한다.
또한, 출력패턴 제어부(102)는, 사용자의 나이, 성별, 성격유형 및 제1 기분점수를 이용해 미리 설정된 복수의 믹스패턴들 각각의 점수를 결정하고, 점수가 가장 높은 믹스패턴을 재생믹스패턴으로 결정한다(S135).
일 실시예에서, 남 또는 여와 미리 매칭된 성별 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 성격유형들 각각과 미리 매칭된 성격유형 값이 데이터베이스에 저장된다. 일 실시예에서, 미리 설정된 복수의 믹스패턴들 각각과 미리 매칭된 믹스패턴 값이 데이터베이스에 저장된다.
출력패턴 제어부(102)는, 나이, 성별과 매칭되는 성별 값, 성격유형과 매칭되는 성별유형 값, 제1 기분점수 및 믹스패턴과 매칭되는 믹스패턴 값을 미리 학습된 제7 인공신경망에 입력 값으로 입력하고, 제7 인공신경망으로부터 믹스패턴과 대응하는 점수를 획득한다.
일 실시예에서, 제7 인공신경망은, 학습용 나이, 학습용 성별 값, 학습용 성격유형 값, 학습용 제1 기분점수 및 학습용 믹스패턴 값에 점수를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제7 인공신경망의 생성에 사용될 수 있다.
출력패턴 제어부(102)는, 미리 설정된 믹스패턴들 각각에 대한 점수를 획득하고, 점수가 가장 높은 믹스패턴을 재생믹스패턴으로 결정한다.
일 실시예에서, 믹스패턴은, 미리 설정된 멘트들 중 어느 하나, 미리 설정된 광패턴들 중 어느 하나, 미리 설정된 안정음들 및 미리 설정된 음악들 중 어느 하나 중 적어도 두 개를 포함하는 패턴을 의미한다.
출력패턴 제어부(102)는, 재생멘트, 재생광패턴, 재생안정음, 재생음악 및 재생믹스패턴 중 점수가 가장 높은 어느 하나를 재생한다(S136).
일 실시예에서, 재생멘트의 점수가 가장 높은 경우, 출력패턴 제어부(102)는, 재생멘트가 재생되도록 스피커 모듈(320)을 제어한다.
일 실시예에서, 재생광패턴의 점수가 가장 높은 경우, 출력패턴 제어부(102)는, 재생광패턴이 재생되도록 조명 모듈(310)을 제어한다.
일 실시예에서, 재생안정음의 점수가 가장 높은 경우, 출력패턴 제어부(102)는, 재생안정음이 재생되도록 스피커 모듈(320)을 제어한다.
일 실시예에서, 재생음악의 점수가 가장 높은 경우, 출력패턴 제어부(102)는, 재생음악이 재생되도록 스피커 모듈(320)을 제어한다.
일 실시예에서, 재생믹스패턴의 점수가 가장 높은 경우, 출력패턴 제어부(102)는, 재생믹스패턴이 재생되도록 조명 모듈(310) 및 스피커 모듈(320)을 제어한다.
재생멘트, 재생광패턴, 재생안정음, 재생음악 및 재생믹스패턴 중 점수가 가장 높은 어느 하나의 재생이 완료되면, 출력패턴 제어부(102)는, 캐빈 카메라(210), 음성 감지 센서(220), 심박 감지 센서(230) 및 충격 감지 센서(240)로부터 심박, 음성, 안면이미지 및 도어충격량을 수신하고, 수신된 심박, 음성, 안면이미지 및 도어충격량을 이용해 사용자의 제2 기분점수를 결정한다(S140).
출력패턴 제어부(102)는, 미리 설정된 시간 간격으로 기분점수를 결정한다. 출력패턴 제어부(102)는, 재생멘트, 재생광패턴, 재생안정음, 재생음악 및 재생믹스패턴 중 점수가 가장 높은 어느 하나의 재생이 완료된 이후에 결정되는 기분점수를 제2 기분점수로 결정한다.
재생멘트, 재생광패턴, 재생안정음, 재생음악 및 재생믹스패턴 중 점수가 가장 높은 어느 하나의 재생이 완료된 이후에, 출력패턴 제어부(102)는, 미리 설정된 시간 간격동안 수집된 심박, 음성, 안면이미지 및 도어충격량을 이용하여 안면 벡터, 음성 벡터, 심박 벡터 및 충격 벡터를 제2 인공신경망에 입력 값으로 입력하고, 제2 인공신경망으로부터 획득한 기분점수를 제2 기분점수로 결정한다.
학습데이터 생성부(103)는, 사용자의 나이, 성별, 성격유형, 제1 기분점수 및 제2 기분점수를 이용해 학습데이터를 생성한다(S150).
재생멘트가 재생된 경우, 학습데이터 생성부(103)는, 나이, 성별 값, 성격유형 값, 재생멘트에 제2 기분점수에서 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성한다.
재생광패턴이 재생된 경우, 학습데이터 생성부(103)는, 나이, 성별 값, 성격유형 값, 재생광패턴에 제2 기분점수에서 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성한다.
재생안정음이 재생된 경우, 학습데이터 생성부(103)는, 나이, 성별 값, 성격유형 값, 재생안정음에 제2 기분점수에서 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성한다.
재생음악이 재생된 경우, 학습데이터 생성부(103)는, 나이, 성별 값, 성격유형 값, 재생음악에 제2 기분점수에서 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성한다.
재생믹스패턴이 재생된 경우, 학습데이터 생성부(103)는, 나이, 성별 값, 성격유형 값, 재생믹스패턴에 제2 기분점수에서 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성한다.
생성된 학습데이터들은 제2 인공신경망의 재학습에 사용될 수 있다.
도 3은 도 1에 따른 서비스 제공 장치(100)가 위험도에 따라 감쇠력 및 차고를 결정하는 과정을 도시하는 흐름도이다.
위험도 결정부(104)는, 호흡 감지 센서(250), 심박 감지 센서(230) 및 캐빈 카메라(210)로부터 호흡, 심박 및 안면이미지를 수신하고, 수신된 호흡, 심박 및 안면이미지를 이용하여 제1 피로도를 결정한다(S210).
위험도 결정부(104)는, 미리 설정된 시간 간격마다 사용자의 피로도를 결정한다.
위험도 결정부(104)는, 미리 설정된 시간 간격동안 캐빈 카메라(210)로부터 수신된 프레임들 중 예비피로도가 가장 높은 프레임을 선택하고, 선택한 프레임으로부터 추출된 특징 값들을 차원 값들로 갖는 다차원 벡터인 안면 피로도 벡터를 획득한다.
일 실시예에서, 위험도 결정부(104)는, 프레임들을 미리 학습된 제8 인공신경망에 입력 값으로 입력하고, 제8 인공신경망으로부터 프레임들 각각의 예비피로도를 획득할 수 있다. 일 실시예에서, 제8 인공신경망은, 학습용 프레임들 각각에 예비피로도를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, CNN(Convolutional Neural Network) 및 Random Forest가 제8 인공신경망의 학습에 사용될 수 있다. 일 실시예에서, CNN은 입력 값으로 입력된 프레임으로부터 프레임과 대응하는 안면 피로도 벡터를 출력하고, Random Forest는 안면 피로도 벡터와 대응하는 예비피로도를 출력할 수 있다.
위험도 결정부(104)는, 미리 설정된 시간 간격동안 호흡 감지 센서(250)로부터 수신된 호흡패턴을 이용해 호흡 피로도 벡터를 획득한다. 일 실시예에서, 호흡 피로도 벡터는, 미리 설정된 시간 간격동안의 호흡횟수 및 호흡당 호흡길이 평균을 각각의 차원 값으로 갖는 다차원 벡터일 수 있다.
위험도 결정부(104)는, 미리 설정된 시간 간격동안 심박 감지 센서(230)로부터 수신된 심박을 이용해 심박 피로도 벡터를 획득한다. 일 실시예에서, 심박 피로도 벡터는, 미리 설정된 시간동안의 심박수 및 사용자의 기준심박수를 각각의 차원 값으로 갖는 다차원 벡터일 수 있다. 일 실시예에서, 데이터베이스에는 사용자의 기준심박수가 저장된다.
위험도 결정부(104)는, 안면 벡터, 호흡 벡터 및 심박 벡터를 미리 학습된 제9 인공신경망에 입력 값으로 입력하고, 제9 인공신경망으로부터 피로도를 획득한다. 일 실시예에서, 제9 인공신경망은, 학습용 안면 벡터, 학습용 호흡 벡터 및 학습용 심박 벡터에 피로도를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제9 인공신경망의 생성에 사용될 수 있다.
위험도 결정부(104)는, 제9 인공신경망으로부터 획득된 피로도를 제1 피로도로 결정한다.
위험도 결정부(104)는, 전방 센서(260) 및 측면 센서(270)로부터 수신된 정보를 이용하여 제동거리, 차선거리 및 차선이탈횟수를 결정하고, 제동거리, 차선거리 및 차선이탈횟수를 이용하여 제2 피로도를 결정한다(S220).
위험도 결정부(104)는, 미리 설정된 시간 간격으로 피로도를 결정한다.
일 실시예에서, 위험도 결정부(104)는, 사용자가 브레이크를 밟은 시점에 전방 센서(260)가 감지한 앞 차량과의 거리를 제동거리로 결정할 수 있다. 위험도 결정부(104)는, 미리 설정된 시간 간격동안 감지된 제동거리들의 평균 값을 제동거리로 결정할 수 있다.
일 실시예에서, 위험도 결정부(104)는, 미리 설정된 시간 간격동안 감지된 차선거리들의 평균 값을 차선거리로 결정할 수 있다.
일 실시예에서, 위험도 결정부(104)는, 미리 설정된 시간 간격동안 차량이 사용자의 차선변경신호 입력 없이 차선을 이탈한 횟수를 카운팅할 수 있다.
위험도 결정부(104)는, 제동거리, 차선거리 및 차선이탈횟수를 미리 학습된 제10 인공신경망에 입력 값으로 입력하고, 제10 인공신경망으로부터 피로도를 획득한다. 일 실시예에서, 제10 인공신경망은, 학습용 제동거리, 학습용 차선거리 및 학습용 차선이탈횟수에 피로도를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost 및 다중회귀분석 등이 제10 인공신경망의 생성에 사용될 수 있다.
위험도 결정부(104)는, 제10 인공신경망으로부터 획득된 피로도를 제2 피로도로 결정한다.
위험도 결정부(104)는, 제1 피로도 및 제2 피로도를 이용하여 제1 위험도를 결정한다(S230).
일 실시예에서, 위험도 결정부(104)는, 제1 피로도 및 제2 피로도 중 더 큰 값을 제1 위험도로 결정할 수 있다.
위험도 결정부(104)는, 제1 위험도와 미리 설정된 기준 위험도를 비교한다(S240).
제1 위험도가 기준 위험도보다 큰 경우, 위험도 결정부(104)는, 호흡, 심박, 안면이미지, 제동거리, 차선거리 및 차선이탈횟수를 이용해 감쇠력 및 차고를 결정한다(S250).
위험도 결정부(104)는, 제동거리, 차선거리 및 차선이탈횟수를 각각의 차원 값으로 갖는 다차원 벡터인 차량 벡터를 생성한다.
위험도 결정부(104)는, 안면 벡터, 호흡 벡터, 심박 벡터 및 차량 벡터를 미리 학습된 제11 인공신경망에 입력 값으로 입력하고, 제11 인공신경망으로부터 감쇠력 및 차고를 획득한다.
제1 위험도의 결정에 사용된 것과 동일한 안면 벡터, 호흡 벡터, 심박 벡터, 제동거리, 차선거리 및 차선이탈횟수가 감쇠력 및 차고를 결정하는데 사용된다.
일 실시예에서, 제11 인공신경망은, 학습용 안면 벡터, 학습용 호흡 벡터, 학습용 심박 벡터 및 학습용 차량 벡터에 감쇠력 및 차고를 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시예에서, Random Forest, Xgboost, 다중회귀분석 등이 제11 인공신경망의 생성에 사용될 수 있다.
감쇠력 및 차고가 결정되면, 서스펜션 제어부(105)는, 결정된 감쇠력 및 차고를 이용해 서스펜션(330)을 제어한다.
일 실시예에서, 서스펜션 제어부(105)는, 감쇠력 및 차고를 포함하는 제어신호를 서스펜션(330)에 제공하며, 서스펜션(330)은 제어신호에 따라 감쇠력 및 차고를 조정한다.
도 4는 도 1에 따른 서비스 제공 장치(100)가 위험도에 따라 감쇠력 및 차고를 보정하는 과정을 도시하는 흐름도이다.
위험도 결정부(104)는, 감쇠력 및 차고가 보정된 이후에 미리 설정된 시간 간격동안 수집된 정보에 기초해 산출된 제1 피로도 및 제2 피로도 중 더 큰 값을 제2 위험도로 결정한다.
위험도 결정부(104)는, 호흡 감지 센서(250), 심박 감지 센서(230) 및 캐빈 카메라(210)로부터 호흡, 심박 및 안면이미지를 수신하고, 수신된 호흡, 심박 및 안면이미지를 이용하여 제1 피로도를 결정한다(S310).
제1 피로도를 결정하는 과정에 대한 설명은 도 3을 참조하여 상술한 설명에 갈음한다.
위험도 결정부(104)는, 전방 센서(260) 및 측면 센서(270)로부터 수신된 정보를 이용하여 제동거리, 차선거리 및 차선이탈횟수를 결정하고, 제동거리, 차선거리 및 차선이탈횟수를 이용하여 제2 피로도를 결정한다(S320).
제2 피로도를 결정하는 과정에 대한 설명은 도 3을 참조하여 상술한 설명에 갈음한다.
위험도 결정부(104)는, 제1 피로도 및 제2 피로도를 이용하여 제2 위험도를 결정한다(S330).
일 실시예에서, 위험도 결정부(104)는, 감쇠력 및 차고가 보정된 이후에 미리 설정된 시간 간격동안 산출된 제1 피로도 및 제2 피로도 중 더 큰 값을 제2 위험도로 결정한다.
위험도 결정부(104)는, 제1 위험도와 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되는지 판단한다(S340).
제1 위험도와 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되는 경우, 위험도 결정부(104)는, 호흡, 심박, 안면이미지, 제동거리, 차선거리 및 차선이탈횟수에 감쇠력 및 차고를 라벨링하여 학습데이터를 생성한다(S360).
학습데이터 생성부(103)는, 안면 벡터, 호흡 벡터, 심박 벡터, 차량 벡터에 제11 인공신경망에서 획득한 감쇠력 및 차고를 라벨링하여 학습데이터를 생성한다.
생성된 학습데이터는 제11 인공신경망의 재학습에 사용될 수 있다.
제1 위험도와 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되지 않는 경우, 위험도 결정부(104)는, 제1 위험도, 제2 위험도 및 오차범위를 이용하여 감쇠력 및 차고를 보정한다(S350).
일 실시예에서, 위험도 결정부(104)는, 제11 인공신경망에서 획득한 감쇠력에 미리 설정된 감쇠력 보정치를 곱하여 감쇠력을 보정할 수 있다. 일 실시예에서, 제1 위험도와 제2 위험도의 차이 값이 오차범위의 최소 값 보다 작은 경우, 감쇠력 보정치는 1보다 작게 설정된다. 일 실시예에서, 제1 위험도와 제2 위험도의 차이 값이 오차범위의 최대 값 보다 큰 경우, 감쇠력 보정치는 1보다 크게 설정된다.
일 실시예에서, 위험도 결정부(104)는, 제11 인공신경망에서 획득한 차고에 미리 설정된 차고 보정치를 곱하여 차고를 보정할 수 있다. 일 실시예에서, 제1 위험도와 제2 위험도의 차이 값이 오차범위의 최소 값 보다 작은 경우, 차고 보정치는 1보다 작게 설정된다. 일 실시예에서, 제1 위험도와 제2 위험도의 차이 값이 오차범위의 최대 값 보다 큰 경우, 차고 보정치는 1보다 크게 설정된다.
일 실시예에서, 위험도 결정부(104)는, 감쇠력 및 차고 중 적어도 하나를 보정할 수 있다.
도 5는 도 1에 따른 서비스 제공 장치(100)가 감지된 방지턱의 높이 및 길이에 따라 감쇠력 및 차고를 결정하는 과정을 도시하는 흐름도이다.
방지턱 감지부(106)는, 전방 센서(260)로부터 수신되는 정보를 이용해 전방에 위치되는 방지턱을 감지한다(S410).
방지턱 감지부(106)는, 전방 센서(260)가 감지한 영상 및 신호를 이용하여 방지턱을 감지할 수 있다. 일 실시예에서, 방지턱 감지와 관련된 공지된 기술들이 사용될 수 있다.
방지턱이 감지된 경우, 방지턱 감지부(106)는, 전방 센서(260)로부터 수신되는 정보를 이용해 방지턱 높이 및 방지턱 길이를 결정한다(S420).
방지턱 감지부(106)는, 전방 센서(260)가 감지한 영상 및 신호를 이용하여 방지턱 높이 및 방지턱 길이를 결정할 수 있다. 일 실시예에서, 방지턱 높이 및 방지턱 길이 결정과 관련된 공지된 기술들이 사용될 수 있다.
방지턱 감지부(106)는, 차고, 감쇠력, 방지턱 높이 및 방지턱 길이를 이용해 손상가능성을 결정한다(S430).
방지턱 감지부(106)는, 차고, 감쇠력, 방지턱 높이 및 방지턱 길이를 미리 학습된 제12 인공신경망에 입력 값으로 입력하고, 제12 인공신경망으로부터 손상가능성을 획득한다.
일 실시예에서, 제12 인공신경망은, 학습용 차고, 학습용 감쇠력, 학습용 방지턱 높이 및 학습용 방지턱 길이에 손상가능성을 라벨링하여 생성된 학습데이터들을 포함하는 학습데이터셋을 이용한 기계학습을 통해 생성될 수 있다. 일 실시에예서, Random Forest, Xgboost, 다중회귀분석 등이 제12 인공신경망의 기계학습에 사용될 수 있다.
방지턱 감지부(106)는, 손상가능성과 미리 설정된 기준가능성을 비교한다(S440).
손상가능성이 기준가능성보다 큰 경우, 방지턱 감지부(106)는, 방지턱 높이 및 방지턱 길이를 이용해 차고 및 감쇠력을 결정한다(S450).
데이터베이스에는 방지턱 높이 및 방지턱 길이와 차고 및 감쇠력이 매칭되어 저장되며, 방지턱 감지부(106)는, 방지턱 높이 및 방지턱 길이와 매칭되는 차고 및 감쇠력을 데이터베이스에서 검색할 수 있다.
서스펜션 제어부(105)는, 결정된 차고 및 감쇠력에 기초해 서스펜션(330)을 제어한다.
도 6은 도 1에 따른 서비스 제공 장치(100)의 하드웨어 구성을 예시적으로 나타낸 도면이다.
도 6을 참조하면, 서비스 제공 장치(100)는, 적어도 하나의 프로세서(110) 및 상기 적어도 하나의 프로세서(110)가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함할 수 있다.
상기 적어도 하나의 동작은 전술한 서비스 제공 장치(100)의 구성부들(101~106)이나 기타 기능 또는 동작 방법을 포함할 수 있다.
여기서 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다.
예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.
또한, 장치(100)는, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 장치(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 장치(100)에 포함된 각각의 구성 요소들은 버스(bus, 170)에 의해 연결되어 서로 통신을 수행할 수 있다.
장치(100)의 예를 들면, 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), PDA(Personal Digital Assistant) 등일 수 있다.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (5)

  1. 차량 제어 서비스를 제공하기 위한 장치로서,
    상기 장치는,
    적어도 하나의 프로세서(processor); 및
    상기 적어도 하나의 프로세서가 적어도 하나의 동작(operation)을 수행하도록 지시하는 명령어들(instructions)을 저장하는 메모리(memory)를 포함하고,
    상기 적어도 하나의 동작은,
    사용자의 제1 심박, 제1 음성, 제1 안면이미지 및 제1 도어충격량을 이용해 상기 사용자의 제1 기분점수를 결정하는 동작;
    상기 제1 기분점수가 미리 설정된 기준점수보다 작은 경우, 상기 사용자의 나이, 성별, 성격유형 및 상기 제1 기분점수를 이용하여, 미리 설정된 복수의 멘트들 각각의 점수를 결정하고, 미리 설정된 복수의 광패턴들 각각의 점수를 결정하며, 미리 설정된 복수의 안정음들 각각의 점수를 결정하고, 미리 설정된 복수의 음악들 각각의 점수를 결정하며, 미리 설정된 복수의 믹스패턴들 각각의 점수를 결정하는 동작;
    상기 멘트들, 상기 광패턴들, 상기 안정음들, 상기 음악들 및 상기 믹스패턴들 중 점수가 가장 높은 어느 하나인 재생대상을 재생하는 동작;
    상기 사용자의 제2 심박, 제2 음성, 제2 안면이미지 및 제2 도어충격량을 이용해 상기 사용자의 제2 기분점수를 결정하는 동작;
    상기 나이, 상기 성별과 매칭되는 성별 값, 상기 성격유형과 매칭되는 성격유형 값, 상기 제1 기분점수 및 상기 재생대상에 상기 제2 기분점수에서 상기 제1 기분점수를 뺀 값을 라벨링하여 학습데이터를 생성하는 동작;
    상기 사용자의 제1 호흡, 제3 심박 및 제3 안면이미지를 이용하여 제1 피로도를 결정하는 동작;
    제1 제동거리, 제1 차선거리 및 제1 차선이탈횟수를 이용하여 제2 피로도를 결정하는 동작;
    상기 제1 피로도 및 상기 제2 피로도를 이용하여 제1 위험도를 결정하는 동작;
    상기 제1 위험도가 미리 설정된 기준 위험도보다 큰 경우, 상기 제1 호흡, 상기 제3 심박, 상기 제3 안면이미지, 상기 제1 제동거리, 상기 제1 차선거리 및 상기 제1 차선이탈횟수를 이용해 감쇠력 및 차고를 결정하는 동작;
    상기 감쇠력 및 상기 차고를 이용해 서스펜션을 제어하는 동작;
    상기 서스펜션을 제어하는 동작 이후에, 상기 사용자의 제2 호흡, 제4 심박 및 제4 안면이미지를 이용하여 상기 제1 피로도를 다시 결정하는 동작;
    제2 제동거리, 제2 차선거리 및 제2 차선이탈횟수를 이용하여 상기 제2 피로도를 다시 결정하는 동작;
    다시 결정된 상기 제1 피로도 및 상기 제2 피로도를 이용해 제2 위험도를 결정하는 동작; 및
    상기 제1 위험도와 상기 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되지 않는 경우, 상기 제1 위험도, 상기 제2 위험도 및 상기 오차범위를 이용하여 상기 감쇠력 및 상기 차고를 보정하는 동작;
    전방 센서로부터 수신되는 정보를 이용해 전방에 위치되는 방지턱을 감지하는 동작;
    상기 전방 센서로부터 수신되는 정보를 이용해 방지턱 높이 및 방지턱 길이를 결정하는 동작;
    미리 설정된 차고, 상기 감쇠력, 상기 방지턱 높이 및 상기 방지턱 길이를 이용해 손상가능성을 결정하는 동작;
    손상가능성이 기준가능성보다 큰 경우, 상기 방지턱 높이 및 상기 방지턱 길이를 이용해 상기 차고 및 상기 감쇠력을 보정하는 동작을 포함하는,
    장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 적어도 하나의 동작은,
    상기 제1 위험도와 상기 제2 위험도의 차이 값이 미리 설정된 오차범위에 포함되는 경우, 상기 제1 호흡, 상기 제3 심박, 상기 제3 안면이미지, 상기 제1 제동거리, 상기 제1 차선거리 및 상기 제1 차선이탈횟수에 상기 감쇠력 및 상기 차고를 라벨링하여 학습데이터를 생성하는 동작을 더 포함하는,
    장치.
KR1020220093831A 2022-07-28 2022-07-28 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램 KR102487860B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220093831A KR102487860B1 (ko) 2022-07-28 2022-07-28 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220093831A KR102487860B1 (ko) 2022-07-28 2022-07-28 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램

Publications (1)

Publication Number Publication Date
KR102487860B1 true KR102487860B1 (ko) 2023-01-13

Family

ID=84900238

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220093831A KR102487860B1 (ko) 2022-07-28 2022-07-28 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램

Country Status (1)

Country Link
KR (1) KR102487860B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160038158A (ko) * 2014-09-29 2016-04-07 현대모비스 주식회사 운전자 성향 반영 위험 운전 감지 시스템 및 방법
JP2017100039A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、体調推定システム及びプロセッサ
KR20210117229A (ko) * 2017-12-18 2021-09-28 현대모비스 주식회사 안전운전 지원 장치 및 방법
CN114283939A (zh) * 2021-12-02 2022-04-05 吉林大学 一种营运驾驶员心理状况评估方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160038158A (ko) * 2014-09-29 2016-04-07 현대모비스 주식회사 운전자 성향 반영 위험 운전 감지 시스템 및 방법
JP2017100039A (ja) * 2015-12-01 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、体調推定システム及びプロセッサ
KR20210117229A (ko) * 2017-12-18 2021-09-28 현대모비스 주식회사 안전운전 지원 장치 및 방법
CN114283939A (zh) * 2021-12-02 2022-04-05 吉林大学 一种营运驾驶员心理状况评估方法

Similar Documents

Publication Publication Date Title
US11249544B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
EP3432214B1 (en) Method and system for vehicle recognition
Wysoski et al. Evolving spiking neural networks for audiovisual information processing
US20230215160A1 (en) Action recognition using implicit pose representations
US20180182415A1 (en) Augmented multi-tier classifier for multi-modal voice activity detection
Zhang et al. Deep unsupervised multi-modal fusion network for detecting driver distraction
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
US20100150408A1 (en) Identity determination apparatus, identity determination method, and identity determining program
US20210397954A1 (en) Training device and training method
Kashevnik et al. Multimodal corpus design for audio-visual speech recognition in vehicle cabin
JP7303901B2 (ja) 複数の候補からドライバーを選択する提案システム
US20140222425A1 (en) Speech recognition learning method using 3d geometric information and speech recognition method using 3d geometric information
US11706568B2 (en) Devices, systems and processes for providing adaptive audio environments
CN115310122B (zh) 一种多模态数据融合训练中的隐私参数优化方法
EP4042322A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US8660361B2 (en) Image processing device and recording medium storing image processing program
KR102487860B1 (ko) 탑승자의 심리 상태를 이용한 차량 제어 장치, 방법 및 프로그램
CN108710821A (zh) 车辆用户状态识别系统及其识别方法
JP7185072B2 (ja) ビデオチャット中に感情の修正を提供する方法およびシステム
Lee et al. Adaptive decision fusion for audio-visual speech recognition
Xiao et al. Power-spectral analysis of head motion signal for behavioral modeling in human interaction
KR102076807B1 (ko) 공간행동 의미분석 시스템
CN113128399B (zh) 用于情感识别的语音图像关键帧提取方法
KR102212125B1 (ko) 조건부 적대적 생성 신경망을 이용하는 홍채 인식 장치 및 방법
KR20220014674A (ko) 차량용 감정 인식 기반 서비스 제공 장치 및 그 제어 방법

Legal Events

Date Code Title Description
GRNT Written decision to grant