KR102429822B1 - Apparatus and Method for recognizing a driver’s emotional state - Google Patents

Apparatus and Method for recognizing a driver’s emotional state Download PDF

Info

Publication number
KR102429822B1
KR102429822B1 KR1020160016049A KR20160016049A KR102429822B1 KR 102429822 B1 KR102429822 B1 KR 102429822B1 KR 1020160016049 A KR1020160016049 A KR 1020160016049A KR 20160016049 A KR20160016049 A KR 20160016049A KR 102429822 B1 KR102429822 B1 KR 102429822B1
Authority
KR
South Korea
Prior art keywords
driver
emotional state
emotional
feature vector
target driver
Prior art date
Application number
KR1020160016049A
Other languages
Korean (ko)
Other versions
KR20170094836A (en
Inventor
이동진
윤우한
김재홍
박찬규
윤호섭
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160016049A priority Critical patent/KR102429822B1/en
Publication of KR20170094836A publication Critical patent/KR20170094836A/en
Application granted granted Critical
Publication of KR102429822B1 publication Critical patent/KR102429822B1/en

Links

Images

Classifications

    • G06K9/6288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

본 발명은 운전자의 감정상태 인식 장치 및 방법에 관한 것이다. 본 발명의 일예와 관련된 운전자의 감정상태 인식 장치는 대상 운전자의 음성을 획득하는 마이크 및 상기 대상 운전자의 얼굴을 촬영하는 카메라를 포함하는 데이터 수집부, 상기 카메라가 촬영한 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출하고, 상기 마이크가 획득한 음성 데이터로부터 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출하며, 상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합하여 멀티 모달 데이터(Multimodal data)를 생성하는 감정특징 추출부, 운전자별 기 분류된 복수의 감정상태의 빈도수를 저장하는 감정상태 데이터 저장부 및 상기 멀티 모달 데이터 및 상기 기 분류된 복수의 감정상태의 빈도수를 이용하여 상기 대상 운전자의 감정상태를 판단하는 감정상태 판단부를 포함할 수 있다. The present invention relates to an apparatus and method for recognizing a driver's emotional state. An apparatus for recognizing a driver's emotional state according to an embodiment of the present invention includes a data collection unit including a microphone for acquiring a voice of a target driver and a camera for photographing the face of the target driver, and a first preset first from the face image taken by the camera A first feature vector is extracted according to an algorithm, a second feature vector is extracted from the voice data obtained by the microphone according to a preset second algorithm, and the first feature vector and the second feature vector are integrated to form a multi-modal Using the emotional feature extraction unit for generating data (Multimodal data), the emotional state data storage unit for storing the frequency of a plurality of pre-classified emotional states for each driver, and the frequency of the multi-modal data and the plurality of pre-classified emotional states Thus, it may include an emotional state determination unit for determining the emotional state of the target driver.

Description

운전자의 감정상태 인식 장치 및 방법{Apparatus and Method for recognizing a driver’s emotional state}Apparatus and Method for recognizing a driver's emotional state

본 발명은 운전자의 감정상태 인식 장치 및 방법에 관한 것으로, 운전자 개인별 감정 상태를 판단하고 그에 따른 편의 기능을 제공함으로써, 주행 중 운전자의 안전성을 향상 시키는 기술에 관한 것이다.The present invention relates to an apparatus and method for recognizing a driver's emotional state, and to a technology for improving driver safety while driving by determining an individual driver's individual emotional state and providing a convenient function accordingly.

1980년대 마이카 시대 이후 자동차의 등록대수가 급격히 증가하고 있다. 예를 들어, 2005년 1,540만대에서 2014년 2,012만대로 매년 점진적으로 증가하고 있으며, 이와 같이 교통사고의 위험도 또한 증가하고 있다. 이에 따라, 자동차 회사들은 운전자에게 편의를 제공하기 위해 각종 센서를 활용한 안전 기술을 제공하고 있다.Since the mica era in the 1980s, the number of registered automobiles has increased rapidly. For example, from 15.4 million units in 2005 to 20.12 million units in 2014, it is gradually increasing every year, and thus the risk of traffic accidents is also increasing. Accordingly, automobile companies are providing safety technologies using various sensors to provide convenience to drivers.

대표적인 기술로는 차선이탈 경보 시스템과 전방충돌 경고 시스템이 있다. 차선이탈 경보 시스템은 카메라를 이용하여 전방 차선을 인식하고 차량이 차선을 이탈한 경우 운전자에게 경보를 해주는 시스템이며, 전방충돌 경고 시스템은 전방 차량과 운전자 차량과의 거리와 상대속도 값을 기반으로 차량 충돌 위험 시 경고를 발생시키는 시스템이다.Representative technologies include a lane departure warning system and a forward collision warning system. The lane departure warning system uses a camera to recognize the lane ahead and warns the driver when the vehicle deviates from the lane. It is a system that generates a warning in case of danger of collision.

이와 같은 시스템은 악천후나 차선이 끊기거나 구불구불한 길 등의 환경에서 제대로 작동이 되지 않을뿐더러, 운전자의 상태 정보를 고려하지 않기 때문에 경고하는 시점이 최적이 아닌 문제점이 있다.Such a system not only does not work properly in bad weather or environments such as a broken lane or a winding road, but also has a problem that the warning timing is not optimal because the driver's status information is not taken into account.

최근에는 운전자의 집중도 및 감정 상태 정보를 인식한 후 이와 같은 정보를 활용하여 운전자의 안전성을 향상시키기 위한 기술들이 선보이고 있다.Recently, after recognizing the driver's concentration and emotional state information, technologies for improving the driver's safety by using such information have been introduced.

이와 같은 기술은 접촉식 및 비 접촉식 센서를 활용하여 주행 중 운전자의 시선, 생체신호, 머리 움직임, 감정변화 등을 인식하여 운전자의 상태를 파악함으로써, 주행의 안전성을 향상시킬 수 있는 편의 기능 및 경보를 제공한다.This technology utilizes contact and non-contact sensors to recognize the driver's gaze, bio-signals, head movements, and emotional changes while driving to understand the driver's condition, thereby improving driving safety and providing convenience functions and provide an alert.

이와 같은 기술은 한 차량에 대한 운전자가 여러 명 일 경우 주행 중 운전자의 감정 변화 대한 추이나 추적이 어려울뿐더러, 일반적인 집중도나 감성 모델의 경우에는 학습을 할 때 개인의 정보가 포함되어 있지 않았기 때문에 집중도나 감정 상태 분류에 대한 인식률이 떨어지는 문제점을 가지고 있다. This technology makes it difficult to track or track changes in the driver's emotions while driving when there are several drivers for a vehicle, and in the case of general concentration or emotional models, personal information is not included when learning. There is a problem in that the recognition rate for the classification of the emotional state is lowered.

따라서 운전자의 감정 상태를 보다 정확하게 인식할 수 있는 장치 및 방법의 개발이 요구되고 있는 실정이다.Accordingly, there is a demand for the development of an apparatus and method for more accurately recognizing a driver's emotional state.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 운전자의 감정상태를 개인 맞춤형 감정인식 방법을 통해 인식하는 시스템을 사용자에게 제공하는 데 그 목적이 있다. The present invention has been devised to solve the problems described above, and an object of the present invention is to provide a user with a system for recognizing a driver's emotional state through a personalized emotion recognition method.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 운전자의 감정상태 인식 장치는 대상 운전자의 음성을 획득하는 마이크 및 상기 대상 운전자의 얼굴을 촬영하는 카메라를 포함하는 데이터 수집부, 상기 카메라가 촬영한 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출하고, 상기 마이크가 획득한 음성 데이터로부터 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출하며, 상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합하여 멀티 모달 데이터(Multimodal data)를 생성하는 감정특징 추출부, 운전자별 기 분류된 복수의 감정상태의 빈도수를 저장하는 감정상태 데이터 저장부 및 상기 멀티 모달 데이터 및 상기 기 분류된 복수의 감정상태의 빈도수를 이용하여 상기 대상 운전자의 감정상태를 판단하는 감정상태 판단부를 포함할 수 있다.An apparatus for recognizing a driver's emotional state related to an example of the present invention for realizing the above-described problem includes a data collection unit including a microphone for acquiring a voice of a target driver and a camera for photographing the face of the target driver, A first feature vector is extracted from the face image according to a preset first algorithm, and a second feature vector is extracted from the voice data obtained by the microphone according to a preset second algorithm, and the first feature vector and the second An emotional feature extraction unit for generating multimodal data by integrating feature vectors, an emotional state data storage unit for storing the frequency of a plurality of pre-classified emotional states for each driver, and the multi-modal data and the pre-classified plurality It may include an emotional state determination unit for determining the emotional state of the target driver by using the frequency of the emotional state.

또한, 상기 감정상태 판단부는, 상기 멀티 모달 데이터로부터 상기 복수의 감정상태 각각의 정도를 도출하고, 상기 복수의 감정상태 정도 각각에 상기 대상 운전자의 상기 복수의 감정상태 각각의 빈도수를 반영하여 상기 복수의 감정상태 각각에 대한 출력값을 계산하며, 상기 복수의 출력값 중 가장 큰 출력값을 가지는 감정상태를 상기 대상 운전자의 감정상태로 판단할 수 있다.In addition, the emotional state determination unit derives the degree of each of the plurality of emotional states from the multi-modal data, and reflects the frequency of each of the plurality of emotional states of the target driver in each of the plurality of emotional state degrees to the plurality of emotional states. It is possible to calculate an output value for each emotional state of , and determine the emotional state having the largest output value among the plurality of output values as the emotional state of the target driver.

또한, 복수의 운전자 얼굴 데이터를 저장하는 얼굴 데이터 저장부 및 상기 제 1 특징벡터와 상기 운전자 얼굴 데이터 저장부에 저장된 복수의 운전자 얼굴 데이터를 이용하여 상기 대상 운전자를 인식하는 신원 확인부를 더 포함할 수 있다.In addition, the apparatus may further include a face data storage unit configured to store a plurality of driver face data, and an identification unit configured to recognize the target driver using the first feature vector and a plurality of driver face data stored in the driver face data storage unit. have.

또한, 상기 신원 확인부는, 상기 얼굴 이미지로부터 상기 대상 운전자의 얼굴 영역을 검출하고, 검출한 대상 운전자의 얼굴 영역으로부터 상기 제 1 특징벡터를 추출할 수 있다.Also, the identification unit may detect a face region of the target driver from the face image and extract the first feature vector from the detected face region of the target driver.

또한, 상기 신원 확인부는, 상기 대상 운전자가 상기 데이터 저장부에 저장되지 않은 운전자인 경우, 상기 대상 운전자의 얼굴 영역 이미지를 상기 얼굴 데이터 저장부에 저장할 수 있다.Also, when the target driver is a driver not stored in the data storage unit, the identification unit may store the face region image of the target driver in the face data storage unit.

또한, 감정특징 추출부는, 기 설정된 제 3 알고리즘에 따라 상기 제 1 특징벡터 및 상기 제 2 특징벡터의 차원수를 줄인 후, 상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합할 수 있다.In addition, the emotion feature extracting unit may reduce the number of dimensions of the first feature vector and the second feature vector according to a preset third algorithm, and then integrate the first feature vector and the second feature vector.

또한, 상기 감정상태 판단부는, 하기 수학식을 이용하여 상기 복수의 감정상태 각각에 대한 출력값을 계산할 수 있다. Also, the emotional state determining unit may calculate an output value for each of the plurality of emotional states by using the following equation.

[수학식 1][Equation 1]

S = H + H x ωS = H + H x ω

상기 S는 상기 감정상태에 대한 출력값이고, 상기 H는 상기 감정상태의 정도이며, 상기 ω는 상기 대상 운전자의 상기 감정상태의 빈도수에 따른 확률밀도 값이다.S is an output value for the emotional state, H is the degree of the emotional state, and ω is a probability density value according to the frequency of the emotional state of the target driver.

또한, 상기 감정상태의 출력값이 기 설정된 출력값 범위를 벗어나는 경우, 경고음을 출력하는 위험도 판단 및 조치부를 더 포함할 수 있다.In addition, when the output value of the emotional state is out of a preset output value range, it may further include a risk determination and action unit for outputting a warning sound.

본 발명의 일 실시예는 운전자의 감정상태를 개인 맞춤형 감정인식 방법을 통해 인식하는 시스템을 사용자에게 제공할 수 있다.An embodiment of the present invention may provide a user with a system for recognizing a driver's emotional state through a personalized emotion recognition method.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시례를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 장치에 대한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 얼굴 이미지와 음성신호로부터 멀티 모달 데이터로 생성되는 과정을 나타내는 그림이다.
도 3은 본 발명의 일 실시예에 따른 복수의 감정상태 분류를 나타내는 그림이다.
도 4는 본 발명의 일 실시예에 따른 운전자의 감정상태 확률밀도 히스토그램이다.
도 5는 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 방법을 나타내는 순서도이다.
도 6은 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다.
The following drawings attached to the present specification illustrate a preferred embodiment of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in such drawings It should not be construed as being limited.
1 is a block diagram of an apparatus for recognizing a driver's emotional state according to an embodiment of the present invention.
2 is a diagram illustrating a process of generating multi-modal data from a face image and a voice signal according to an embodiment of the present invention.
3 is a diagram illustrating classification of a plurality of emotional states according to an embodiment of the present invention.
4 is a histogram of a driver's emotional state probability density according to an embodiment of the present invention.
5 is a flowchart illustrating a method for recognizing a driver's emotional state according to an embodiment of the present invention.
6 is a block diagram illustrating a computing system for executing a method for recognizing a driver's emotional state according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1은 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 장치에 대한 블록도이다.1 is a block diagram of an apparatus for recognizing a driver's emotional state according to an embodiment of the present invention.

도 1을 참조하면, 운전자의 감정상태 인식 장치는 데이터 수집부(100), 얼굴 데이터 저장부(200), 신원 확인부(300), 감정특징 추출부(400), 감정상태 판단부(500), 감정상태 데이터 저장부(600) 및 위험도 판단 및 조치부(700) 등을 포함할 수 있다.Referring to FIG. 1 , the apparatus for recognizing a driver's emotional state includes a data collection unit 100 , a face data storage unit 200 , an identity verification unit 300 , an emotional feature extraction unit 400 , and an emotional state determination unit 500 . , it may include an emotional state data storage unit 600 and a risk determination and action unit 700 , and the like.

다만, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 운전자의 감정상태 인식 장치가 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, an apparatus for recognizing a driver's emotional state having more or fewer components may be implemented.

데이터 수집부(100)는 대상 운전자의 음성 및 얼굴 이미지를 획득하는 구성으로서, 마이크(110) 및 카메라(120)를 포함할 수 있다.The data collection unit 100 is configured to acquire the voice and face images of the target driver, and may include a microphone 110 and a camera 120 .

즉, 마이크(110)를 이용하여 대상 운전자의 음성을 획득하고, 카메라(120)를 이용하여 대상 운전자의 얼굴을 촬영하여 얼굴 이미지를 획득할 수 있다.That is, the target driver's voice may be acquired using the microphone 110 , and the target driver's face may be photographed using the camera 120 to acquire a face image.

얼굴 데이터 저장부(200)는 복수의 운전자 얼굴 데이터를 저장하는 구성이다.The face data storage unit 200 is configured to store a plurality of driver face data.

복수의 운전자 얼굴 데이터는 후술할 신원 확인부(300)가 대상 운전자를 인식하는 데에 사용된다. 그리고 복수의 운전자 얼굴 데이터는 복수의 운전자 얼굴 이미지 또는 복수의 운전자 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 추출된 특징벡터일 수 있다.The plurality of driver face data is used for the identification unit 300 to be described later to recognize the target driver. In addition, the plurality of driver face data may be a plurality of driver face images or a feature vector extracted from a plurality of driver face images according to a preset first algorithm.

또한, 얼굴 데이터 저장부(200)에는 후술할 신원 확인부(300)에 의해 새로운 운전자 얼굴 데이터가 저장될 수 있으며, 이에 대해서는 아래에서 상세히 설명한다.In addition, new driver's face data may be stored in the face data storage unit 200 by the identification unit 300 to be described later, which will be described in detail below.

신원 확인부(300)는 카메라(120)가 촬영한 얼굴 이미지로부터 대상 운전자를 인식하는 구성이다.The identification unit 300 is configured to recognize the target driver from the face image captured by the camera 120 .

신원 확인부(300)는 대상 운전자를 인식하기 위해 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출한다.The identification unit 300 extracts a first feature vector from the face image according to a preset first algorithm to recognize the target driver.

그리고 신원 확인부(300)는 제 1 알고리즘으로 LBP(Local Binary Patterns), Gabor 등의 알고리즘을 사용할 수 있다.And the identification unit 300 may use an algorithm such as LBP (Local Binary Patterns), Gabor as the first algorithm.

신원 확인부(300)는 추출한 제 1 특징벡터와 얼굴 데이터 저장부(200)에 저장된 복수의 운전자 얼굴 데이터를 비교하여 대상 운전자를 인식한다. 이 때 얼굴 데이터 저장부(200)에 저장된 복수의 운전자 얼굴 데이터가 특징벡터인 경우, SVM(support vector machine)과 같은 분류기를 사용하여 대상 운전자를 인식할 수 있다. 또한, 얼굴 데이터 저장부(200)에 저장된 복수의 운전자 얼굴 데이터가 운전자의 얼굴 이미지인 경우, 복수의 운전자 얼굴 이미지로부터 상기 제 1 알고리즘에 따라 특징벡터를 추출한 후, 대상 운전자를 인식할 수 있다.The identification unit 300 compares the extracted first feature vector with a plurality of driver face data stored in the face data storage unit 200 to recognize the target driver. In this case, when a plurality of driver face data stored in the face data storage unit 200 is a feature vector, a target driver may be recognized using a classifier such as a support vector machine (SVM). In addition, when a plurality of driver face data stored in the face data storage unit 200 is a driver's face image, a target driver may be recognized after a feature vector is extracted from the plurality of driver's face images according to the first algorithm.

한편, 본 발명의 일 실시예에 따라 신원 확인부(300)는 제 1 특징벡터를 추출하기 전, 카메라(120)가 촬영한 얼굴 이미지로부터 얼굴 영역을 검출하는 기능을 더 수행하고 검출한 얼굴 영역에서 제 1 특징벡터를 추출할 수 있다. 카메라(120)가 대상 운전자의 얼굴을 촬영할 때에는 촬영한 이미지에 대상 운전자의 얼굴 이외의 사물이 포함될 수 있기 때문이다.Meanwhile, according to an embodiment of the present invention, the identification unit 300 performs a function of detecting a face region from a face image captured by the camera 120 before extracting the first feature vector and detects the detected face region. A first feature vector can be extracted from . This is because, when the camera 120 captures the face of the target driver, objects other than the face of the target driver may be included in the captured image.

이 때 얼굴 영역을 검출하기 위한 알고리즘으로는 일반적으로 사용되는 Adaboost 기반 알고리즘이 사용될 수 있으나, 이에 한정되지는 않는다.In this case, a commonly used Adaboost-based algorithm may be used as an algorithm for detecting the face region, but is not limited thereto.

또한, 신원 확인부(300)는 본 발명의 일 실시예에 따라 인식하려는 대상 운전자가 얼굴 데이터 저장부(200)에 저장되지 않은 운전자인 경우, 해당 대상 운전자를 미등록 운전자로 판단하고 얼굴 데이터 저장부(200)에 대상 운전자의 얼굴 이미지 및 얼굴 이미지로부터 추출한 제 1 특징벡터를 추가적으로 저장할 수 있다.In addition, when the target driver to be recognized according to an embodiment of the present invention is a driver who is not stored in the face data storage unit 200 , the identification unit 300 determines that the target driver is an unregistered driver, and the face data storage unit In 200 , the face image of the target driver and the first feature vector extracted from the face image may be additionally stored.

감정특징 추출부(400)는 음성 데이터와 얼굴 이미지 데이터를 포함하는 멀티 모달 데이터(Multimodal data)를 생성하는 구성이다.The emotional feature extraction unit 400 is configured to generate multimodal data including voice data and face image data.

감정특징 추출부(400)는 발명의 일 실시예에 따라 신원 확인부(300)와 같이 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출할 수 있다. The emotional feature extraction unit 400 may extract the first feature vector according to a preset first algorithm like the identity verification unit 300 according to an embodiment of the present invention.

그리고 감정특징 추출부(400)는 신원 확인부(300)와 마찬가지로 제 1 알고리즘으로 LBP(Local Binary Patterns), Gabor 등의 알고리즘을 사용할 수 있으며, 제 1 특징벡터를 추출하기 전, 카메라(120)가 촬영한 얼굴 이미지로부터 얼굴 영역을 검출하는 기능을 더 수행하고 검출한 얼굴 영역에서 제 1 특징벡터를 추출할 수 있다.And the emotional feature extraction unit 400 can use an algorithm such as LBP (Local Binary Patterns), Gabor, etc. as the first algorithm, like the identity verification unit 300, before extracting the first feature vector, the camera 120 may further perform a function of detecting a face region from the captured face image and extract a first feature vector from the detected face region.

마이크(110)가 획득한 대상 운전자의 음성 데이터에서 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출한다. 이 때 제 2 알고리즘으로는 MFCC(Mel-frequency cepstral coefficients) 등이 사용될 수 있다.The microphone 110 extracts a second feature vector from the acquired driver's voice data according to a preset second algorithm. In this case, as the second algorithm, MFCC (Mel-frequency cepstral coefficients) or the like may be used.

감정특징 추출부(400)는 제 1 특징벡터와 제 2 특징벡터를 통합하여 멀티 모달 데이터를 생성한다. 이 때, 감정특징 추출부(400)는 제 1 특징벡터와 제 2 특징벡터를 통합하기 위해 딥러닝 방법인 DBN(Deep Belief Network)를 이용할 수 있다.The emotional feature extraction unit 400 generates multi-modal data by integrating the first feature vector and the second feature vector. In this case, the emotional feature extraction unit 400 may use a deep learning method DBN (Deep Belief Network) to integrate the first feature vector and the second feature vector.

감정특징 추출부(400)는 본 발명의 일 실시예에 따라 멀티 모달 데이터를 생성하기 전 PCA(Principle component analysis) 등과 같은 알고리즘을 사용하여 제 1 특징벡터와 제 2 특징벡터의 차원수를 줄인 후 통합할 수도 있다.The emotional feature extraction unit 400 reduces the number of dimensions of the first feature vector and the second feature vector by using an algorithm such as PCA (Principle Component Analysis) before generating multi-modal data according to an embodiment of the present invention. can also be integrated.

이와 같은 멀티 모달 데이터를 생성하는 과정을 도시적으로 설명하기 위해 도 2를 참조하여 서술한다.In order to schematically describe a process of generating such multi-modal data, it will be described with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 얼굴 이미지와 음성신호로부터 멀티 모달 데이터로 생성되는 과정을 나타내는 그림으로서, 도 2를 참조하면 좌측 상단 그림은 카메라(120)가 획득한 대상 운전자의 얼굴 이미지이고, 좌측 하단 그림은 마이크(110)가 획득한 대상 운전자의 음성 신호이다.2 is a diagram illustrating a process of generating multi-modal data from a face image and a voice signal according to an embodiment of the present invention. Referring to FIG. 2 , the upper left picture is a facial image of a target driver acquired by the camera 120 , and the lower left picture is the voice signal of the target driver acquired by the microphone 110 .

전술한 신원 확인부(300) 또는 감정특징 추출부(400)는 얼굴 이미지로부터 제 1 특징벡터를 추출하고, 감정특징 추출부(400)는 음성 신호로부터 제 2 특징벡터를 추출한다.The above-described identity verification unit 300 or emotional feature extracting unit 400 extracts a first feature vector from the face image, and the emotional feature extracting unit 400 extracts a second feature vector from the voice signal.

이러한 제 1 특징벡터와 제 2 특징벡터를 나타낸 그림이 도 2의 우측 최하단에 나타나있다.A figure showing the first feature vector and the second feature vector is shown in the lower right corner of FIG. 2 .

부가적인 단계로써 추출된 제 1 특징벡터 및 제 2 특징벡터의 차원수는 감정특징 추출부(400)에 의해 줄어들 수 있고, 차원수가 줄어든 제 1 특징벡터 및 제 2 특징벡터가 도 2의 우측 중단에 나타나있다.As an additional step, the number of dimensions of the extracted first and second feature vectors may be reduced by the emotional feature extraction unit 400, and the first and second feature vectors with reduced dimensions are shown in the right middle of FIG. 2 . is shown in

그 후, 감정 특징 추출부(400)는 제 1 특징벡터와 제 2 특징벡터를 통합하여 멀티 모달 데이터를 생성할 수 있으며, 이는 도 2의 우측 상단에 나타나있다.Thereafter, the emotional feature extraction unit 400 may generate multi-modal data by integrating the first feature vector and the second feature vector, which is shown in the upper right corner of FIG. 2 .

다시 도 1을 참조하면, 감정상태 판단부(500)는 멀티 모달 데이터를 이용하여 대상 운전자의 감정상태를 판단하는 구성이다.Referring back to FIG. 1 , the emotional state determining unit 500 is configured to determine the emotional state of the target driver using multi-modal data.

감정상태 판단부(500)는 대상 운전자의 감정상태를 판단하기 위해 기 분류된 복수의 감정상태 각각의 정도를 도출한다.The emotional state determination unit 500 derives the degree of each of a plurality of pre-classified emotional states in order to determine the emotional state of the target driver.

도 3은 본 발명의 일 실시예에 따른 복수의 감정상태 분류를 나타내는 그림이다.3 is a diagram illustrating classification of a plurality of emotional states according to an embodiment of the present invention.

감정상태 판단부(500)는, 예를 들어, 도 3에 나타난 것과 같이‘각성-불쾌’, ‘각성’, ‘각성-쾌’, ‘불쾌’, ‘중립’, ‘쾌’, ‘이완-불쾌’, ‘이완’, ‘이완-쾌’의 정도를 도출할 수 있고, 이 때 HMM(Hidden Markov Model) 등과 같은 분류기를 사용할 수 있다.The emotional state determination unit 500, for example, as shown in FIG. 3 , 'awakened-discomfort', 'awakened', 'awakened-pleasant', 'dissatisfied', 'neutral', 'pleasant', 'relaxed- The degree of 'discomfort', 'relaxation', and 'relaxation-pleasant' can be derived, and in this case, a classifier such as HMM (Hidden Markov Model) can be used.

감정상태 데이터 저장부(600)는 운전자별 기 분류된 복수의 감정상태의 빈도수를 저장한다. 그 빈도수는 감정상태의 발생횟수로 저장될 수 있고, 확률밀도로 저장될 수도 있다.The emotional state data storage unit 600 stores the frequency of a plurality of pre-classified emotional states for each driver. The frequency may be stored as the number of occurrences of the emotional state, or may be stored as a probability density.

감정상태 판단부(500)는 도출한 결과 중 가장 높은 정도를 갖는 감정상태를 대상 운전자의 감정상태로 판단할 수 있지만, 획일적인 결과가 아닌 운전자 맞춤형 감정상태 판단을 위해 감정상태 데이터 저장부(600)에 저장된 데이터를 이용할 수 있다.The emotional state determination unit 500 may determine the emotional state having the highest degree among the derived results as the emotional state of the target driver, but the emotional state data storage unit 600 ) stored data.

즉, 감정상태 판단부(500)는 운전자별 맞춤형 감정상태 판단을 위하여 도출한 각 감정상태의 정도에 복수의 감정상태 각각의 빈도수를 반영하여 상기 복수의 감정상태 각각에 대한 출력값을 계산할 수 있다. 그리고 계산한 복수의 출력값 중 가장 큰 출력값을 가지는 감정상태를 대상 운전자의 감정상태로 판단할 수 있다.That is, the emotional state determining unit 500 may calculate an output value for each of the plurality of emotional states by reflecting the frequency of each of the plurality of emotional states in the degree of each emotional state derived for determining the customized emotional state for each driver. In addition, the emotional state having the largest output value among the plurality of calculated output values may be determined as the emotional state of the target driver.

감정상태 판단부(500)는 복수의 감정상태 각각의 빈도수를 반영한 출력값을 계산하기 위해 다음의 수학식을 사용할 수 있다.The emotional state determination unit 500 may use the following equation to calculate an output value reflecting the frequency of each of the plurality of emotional states.

[수학식 1][Equation 1]

S = H + H x ωS = H + H x ω

상기 S는 감정상태의 정도에 빈도수를 반영한 출력값이고, 상기 H는 감정상태의 정도이며, 상기 ω는 대상 운전자의 감정상태의 빈도수에 따른 확률밀도 값이다.Where S is an output value reflecting the frequency in the degree of emotional state, H is the degree of emotional state, and ω is a probability density value according to the frequency of the emotional state of the target driver.

이하에서는 도 4를 참조하여 상기 수학식을 이용하여 감정상태 판단부(500)가 대상 운전자의 감정상태를 판단하는 실시예에 대해 설명한다.Hereinafter, an embodiment in which the emotional state determining unit 500 determines the emotional state of the target driver using the above equation will be described with reference to FIG. 4 .

도 4는 본 발명의 일 실시예에 따른 대상 운전자의 감정상태 확률밀도 히스토그램이다.4 is a histogram of the probability density of an emotional state of a target driver according to an embodiment of the present invention.

먼저, 감정상태 판단부(500)가 도출한 각성-불쾌의 정도가 4, 각성의 정도가 4, 각성-쾌의 정도가 5, 불쾌의 정도가 6, 중립의 정도가 5, 쾌의 정도가 11, 이완-불쾌의 정도가 4, 이완의 정도가 2, 이완-쾌의 정도가 10라고 가정한다.First, the degree of arousal-displeasure derived by the emotional state determination unit 500 is 4, the degree of arousal is 4, the degree of arousal-pleasure is 5, the degree of displeasure is 6, the degree of neutrality is 5, and the degree of pleasure is 11, It is assumed that the degree of relaxation-displeasure is 4, the degree of relaxation is 2, and the degree of relaxation-pleasant is 10.

단순히 감정상태의 정도로써 대상 운전자의 감정상태를 판단한다면 그 정도가 가장 큰 ‘쾌’가 대상 운전자의 감정상태로 판단될 것이다. 그러나 운전자별 맞춤형 감정상태 판단을 위해 도 4의 확률밀도 히스토그램을 이용하면 그 결과가 달라진다.If the emotional state of the target driver is simply judged by the degree of emotional state, the ‘pleasant’ with the greatest degree will be judged as the emotional state of the target driver. However, if the probability density histogram of FIG. 4 is used to determine the customized emotional state for each driver, the result is different.

위의 수학식을 사용하여 출력값을 계산하면 각성-불쾌의 출력값은 약 4.44, 각성의 출력값은 약 4.72, 각성-쾌의 출력값은 6, 불쾌의 출력값은 6.3, 중립의 출력값은 약 5.2, 쾌의 출력값은 약 11.66, 이완-불쾌의 출력값은 약 4.36, 이완의 출력값은 약 2.24, 이완-쾌의 출력값은 약 13.1이다.If the output value is calculated using the above equation, the output value of arousal-discomfort is about 4.44, the output value of arousal is about 4.72, the output value of arousal-pleasure is 6, the output value of displeasure is 6.3, the output value of neutral is about 5.2, and the output value of pleasure is about 5.2. The output value is about 11.66, the output value of relaxation-discomfort is about 4.36, the output value of relaxation is about 2.24, and the output value of relaxation-pleasant is about 13.1.

이 중 가장 높은 출력값을 가지는 감정상태는 ‘이완-쾌’이므로 대상 운전자의 감정상태 빈도수를 반영하여 도출한 대상 운전자의 감정상태는 ‘이완-쾌’로써 단순히 감정상태의 정도만을 고려한 결과와 다르다.Of these, the emotional state with the highest output value is 'relaxation-pleasant', so the emotional state of the target driver derived by reflecting the frequency of emotional states of the target driver is 'relaxed-pleasant', which is different from the result simply considering the degree of emotional state.

이와 같이 운전자별 감정상태 데이터 저장부(600)를 이용함으로써, 개인별 감정상태 인식 성능을 향상 시킬 수 있다.As described above, by using the emotional state data storage unit 600 for each driver, it is possible to improve the individual emotional state recognition performance.

본 발명의 일 실시예에 따라 운전자의 감정상태 인식 장치는 위험 판단 및 조치부(700)를 더 포함할 수 있다.According to an embodiment of the present invention, the apparatus for recognizing the driver's emotional state may further include a risk determination and action unit 700 .

위험 판단 및 조치부(700)는 대상 운전자의 감정상태에 따라 위험을 판단하고 이에 따른 경보 등의 조치를 취하는 구성이다.The risk determination and action unit 700 is configured to determine a risk according to the emotional state of the target driver and take measures such as an alarm accordingly.

위험 판단 및 조치부(700)는 위험을 판단하기 위해 감정상태 판단부(500)가 판단한 감정상태의 정도 또는 출력값이 기준 범위에서 벗어난다면 대상 운전자가 위험한 상태라고 판단할 수 있다.The risk determination and action unit 700 may determine that the target driver is in a dangerous state if the degree or output value of the emotional state determined by the emotional state determination unit 500 to determine the risk is out of the reference range.

예를 들어, 주행 중 대상 운전자의 감정상태가 각성-불쾌로 나타나고, 그 출력값이 기준값을 초과한다면 대상 운전자의 상태를 위험으로 판단한다.For example, if the emotional state of the target driver appears as arousal-discomfort while driving and the output value exceeds a reference value, the state of the target driver is determined as dangerous.

위험 판단 및 조치부(700)는 이와 같이 대상 운전자가 위험한 상태라고 판단하는 경우, 이에 따른 경보 등의 기능을 제공한다.When it is determined that the target driver is in a dangerous state as described above, the risk determination and action unit 700 provides a function such as an alert.

예를 들어, 경고음 출력 등을 통해 대상 운전자에게 위험을 알릴 수 있고, 안마 의자 작동, 온열 시트 작동, 음악 재생 등을 통하여 대상 운전자의 감정 상태를 안정적으로 변화 시킬 수 있는 기능을 제공할 수 있다.For example, it is possible to inform the target driver of danger through the output of a warning sound, etc., and to provide a function for stably changing the emotional state of the target driver through operation of a massage chair, operation of a heated seat, and playback of music.

위험 판단 및 조치부(700)를 더 구비함으로써 운전 주행의 안전성을 향상시킬 수 있다.By further including the risk determination and action unit 700 , the safety of driving can be improved.

이하에서는 도 5를 참조하여 전술한 구성들을 기초로 운전자의 감정상태 인식 방법에 대해 설명한다.Hereinafter, a method for recognizing a driver's emotional state based on the above-described configurations will be described with reference to FIG. 5 .

도 5는 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 방법을 나타내는 순서도이다.5 is a flowchart illustrating a method for recognizing a driver's emotional state according to an embodiment of the present invention.

데이터 수집부가 대상 운전자의 음성 및 얼굴 이미지를 획득한다(S100).The data collection unit acquires the voice and face images of the target driver (S100).

전술한 구성인 마이크가 대상 운전자의 음성을 획득하고, 카메라가 대상 운전자의 얼굴 이미지를 획득한다.The microphone of the above-described configuration acquires the voice of the target driver, and the camera acquires the face image of the target driver.

신원 확인부가 얼굴 이미지로부터 제 1 특징벡터를 추출한다(S200).The identification unit extracts the first feature vector from the face image (S200).

신원 확인부가 기 설정된 제 1 알고리즘에 따라 얼굴 이미지로부터 제 1 특징벡터를 추출하는 것이며, 전술한 것과 같이 LBP(Local Binary Patterns), Gabor 등의 알고리즘이 사용될 수 있다.The identification unit extracts the first feature vector from the face image according to a preset first algorithm, and as described above, an algorithm such as LBP (Local Binary Patterns) or Gabor may be used.

또한, 제 1 특징벡터를 추출하기 전, 얼굴 이미지로부터 얼굴 영역을 검출하고 검출한 얼굴 영역에서 제 1 특징벡터를 추출할 수 있다.Also, before extracting the first feature vector, the face region may be detected from the face image and the first feature vector may be extracted from the detected face region.

신원 확인부가 제 1 특징벡터로부터 대상 운전자를 인식한다(S300).The identification unit recognizes the target driver from the first feature vector (S300).

기 저장된 복수의 운전자 얼굴 데이터와 제 1 특징벡터를 비교하여 대상 운전자가 어떤 사람인지 인식하는 단계이다.This is a step of recognizing a target driver by comparing a plurality of pre-stored driver face data with the first feature vector.

S300단계에서 운전자를 인식하기 위해 SVM(support vector machine)과 같은 분류기가 사용될 수 있다.In step S300 , a classifier such as a support vector machine (SVM) may be used to recognize the driver.

감정특징 추출부가 음성으로부터 제 2 특징벡터를 추출한다(S400).The emotional feature extraction unit extracts a second feature vector from the voice (S400).

마이크가 획득한 음성 데이터에서 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출하는 것이며, MFCC(Mel-frequency cepstral coefficients) 등의 알고리즘이 사용될 수 있다.The second feature vector is extracted from the voice data obtained by the microphone according to a preset second algorithm, and an algorithm such as MFCC (Mel-frequency cepstral coefficients) may be used.

감정 특징 추출부가 제 1 특징벡터 및 제 2 특징벡터 통합하여 멀티 모달 데이터를 생성한다(S500).The emotion feature extraction unit generates multi-modal data by integrating the first feature vector and the second feature vector (S500).

앞서 추출한 제 1 특징벡터와 제 2 특징벡터를 통합하여 멀티 모달 데이터를 생성하는 단계로서, 딥러닝 방법인 DBN(Deep Belief Network)이 사용될 수 있다.As a step of generating multi-modal data by integrating the previously extracted first and second feature vectors, a deep learning method DBN (Deep Belief Network) may be used.

또한, 제 1 특징벡터와 제 2 특징벡터를 통합하기 전 제 1 특징벡터와 제 2 특징벡터의 차원수를 줄인 후, 통합할 수도 있다.In addition, before integrating the first feature vector and the second feature vector, the number of dimensions of the first feature vector and the second feature vector may be reduced and then combined.

감정상태 판단부가 멀티 모달 데이터를 이용하여 대상 운전자의 감정상태를 판단한다(S600).The emotional state determination unit determines the emotional state of the target driver by using the multi-modal data (S600).

S600 단계에서는 운전자 맞춤형 감정상태 판단을 위해 기 분류된 복수의 감정상태 각각의 정도를 도출하고, 기 저장된 대상 운전자의 각 감정상태의 빈도수를 반영하여 출력값을 계산할 수 있다.In step S600 , the degree of each of a plurality of pre-classified emotional states may be derived for determining the emotional state customized to the driver, and an output value may be calculated by reflecting the pre-stored frequency of each emotional state of the target driver.

전술한 바와 같이 운전자의 각 감정상태의 빈도수는 도 4와 같은 확률밀도로 저장될 수 있으며, 각 감정상태의 정도에 빈도수를 반영하기 위해 다음과 같은 수학식을 사용할 수 있다.As described above, the frequency of each emotional state of the driver may be stored as a probability density as shown in FIG. 4 , and the following equation may be used to reflect the frequency in the degree of each emotional state.

[수학식 2][Equation 2]

S = H + H x ωS = H + H x ω

상기 S는 감정상태의 정도에 빈도수를 반영한 출력값이고, 상기 H는 감정상태의 정도이며, 상기 ω는 운전자의 감정상태의 빈도수에 따른 확률밀도 값이다.S is an output value reflecting the frequency of the emotional state, H is the emotional state, and ω is a probability density value according to the frequency of the driver's emotional state.

위의 수학식을 사용하여 각 감정상태에 대한 출력값인 S가 도출될 것이고, 복수의 S 중 가장 큰 값을 가지는 감정상태를 대상 운전자의 감정상태로 판단할 수 있다.S, which is an output value for each emotional state, will be derived using the above equation, and the emotional state having the largest value among the plurality of S may be determined as the emotional state of the target driver.

한편, 본 발명의 일 실시예에 따라 대상 운전자의 감정상태에 따라 경보를 발생하는 단계가 더 수행될 수 있다.Meanwhile, according to an embodiment of the present invention, the step of generating an alarm according to the emotional state of the target driver may be further performed.

S600단계에서 대상 운전자의 감정상태를 판단하기 위해 계산한 출력값이 기 설정된 기준 범위에서 벗어난다면 대상 운전자의 상태가 위험한 것으로 판단될 수 있고, 이에 따라 경고음 출력 등을 통한 경보를 발생시킬 수 있다.If the output value calculated to determine the emotional state of the target driver in step S600 deviates from the preset reference range, it may be determined that the target driver's state is dangerous, and accordingly, an alarm may be generated by outputting a warning sound or the like.

이로써, 대상 운전자의 운전 주행의 안전성을 향상시킬 수 있다.Accordingly, it is possible to improve the safety of the target driver's driving operation.

도 6은 본 발명의 일 실시예에 따른 운전자의 감정상태 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다. 6 is a block diagram illustrating a computing system for executing a method for recognizing a driver's emotional state according to an embodiment of the present invention.

도 6을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. Referring to FIG. 6 , the computing system 1000 includes at least one processor 1100 , a memory 1300 , a user interface input device 1400 , a user interface output device 1500 , and storage connected through a bus 1200 . 1600 , and a network interface 1700 .

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in the memory 1300 and/or the storage 1600 . The memory 1300 and the storage 1600 may include various types of volatile or nonvolatile storage media. For example, the memory 1300 may include read only memory (ROM) and random access memory (RAM).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Accordingly, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by the processor 1100 , or a combination of the two. A software module resides in a storage medium (ie, memory 1300 and/or storage 1600 ) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM. You may. An exemplary storage medium is coupled to the processor 1100 , the processor 1100 capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integrated with the processor 1100 . The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

상기와 같이 설명된 운전자의 감정상태 인식 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The apparatus and method for recognizing the driver's emotional state described above are not limited to the configuration and method of the above-described embodiments, but all or part of each of the embodiments may be modified so that various modifications may be made. They may be selectively combined and configured.

100 : 데이터 수집부
110 : 마이크
120 : 카메라
200 : 얼굴 데이터 저장부
300 : 신원 확인부
400 : 감정 특징 추출부
500 : 감정 상태 판단부
600 : 감정 상태 데이터 저장부
700 : 위험 판단 및 조치부
1000: 컴퓨팅 시스템
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1310: ROM
1320: RAM
1400: 사용자 인터페이스
100: data collection unit
110: microphone
120 : camera
200: face data storage unit
300: identification unit
400: emotional feature extraction unit
500: emotional state determination unit
600: emotional state data storage unit
700: Risk judgment and action unit
1000: computing system
1100: Processor
1200: system bus
1300: memory
1310: ROM
1320: RAM
1400: user interface

Claims (10)

대상 운전자의 음성을 획득하는 마이크 및 상기 대상 운전자의 얼굴을 촬영하는 카메라를 포함하는 데이터 수집부;
상기 카메라가 촬영한 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출하고, 상기 마이크가 획득한 음성 데이터로부터 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출하며, 상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합하여 멀티 모달 데이터(Multimodal data)를 생성하는 감정특징 추출부;
운전자별 기 분류된 복수의 감정상태의 빈도수를 저장하는 감정상태 데이터 저장부; 및
상기 멀티 모달 데이터 및 상기 기 분류된 복수의 감정상태의 빈도수를 이용하여 상기 대상 운전자의 감정상태를 판단하는 감정상태 판단부;를 포함하고,
상기 감정상태 판단부는
상기 멀티 모달 데이터로부터 상기 복수의 감정상태 각각의 정도를 도출하고, 상기 복수의 감정상태 각각의 정도에 상기 대상 운전자의 상기 복수의 감정상태 각각의 빈도수에 따른 확률밀도 값을 곱한 값을 반영하여 상기 복수의 감정상태 각각에 대한 출력값을 계산하고, 복수의 출력값 중 가장 큰 출력값을 가지는 감정상태를 상기 대상 운전자의 감정상태로 판단하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
a data collection unit including a microphone for acquiring the target driver's voice and a camera for photographing the target driver's face;
A first feature vector is extracted from the face image taken by the camera according to a first preset algorithm, and a second feature vector is extracted from the voice data obtained by the microphone according to a preset second algorithm, and the first feature an emotion feature extraction unit for generating multimodal data by integrating the vector and the second feature vector;
an emotional state data storage unit for storing the frequency of a plurality of pre-classified emotional states for each driver; and
An emotional state determination unit that determines the emotional state of the target driver by using the multi-modal data and the frequency of the plurality of pre-classified emotional states;
The emotional state determination unit
The degree of each of the plurality of emotional states is derived from the multi-modal data, and a value obtained by multiplying the degree of each of the plurality of emotional states by a probability density value according to the frequency of each of the plurality of emotional states of the target driver is reflected to reflect the A system for recognizing an emotional state of a driver, comprising calculating an output value for each of a plurality of emotional states, and determining the emotional state having the largest output value among the plurality of output values as the emotional state of the target driver.
삭제delete 청구항 1에 있어서,
복수의 운전자 얼굴 데이터를 저장하는 얼굴 데이터 저장부; 및
상기 제 1 특징벡터와 상기 복수의 운전자 얼굴 데이터를 이용하여 상기 대상 운전자를 인식하는 신원 확인부를 더 포함하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
The method according to claim 1,
a face data storage unit configured to store a plurality of driver face data; and
The driver's emotional state recognition system according to claim 1, further comprising an identification unit for recognizing the target driver by using the first feature vector and the plurality of driver's face data.
청구항 3에 있어서,
상기 신원 확인부는
상기 얼굴 이미지로부터 상기 대상 운전자의 얼굴 영역을 검출하고, 검출한 대상 운전자의 얼굴 영역으로부터 상기 제 1 특징벡터를 추출하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
4. The method of claim 3,
The identification unit
and detecting the face region of the target driver from the face image, and extracting the first feature vector from the detected face region of the target driver.
청구항 4에 있어서,
상기 신원 확인부는
상기 대상 운전자가 상기 데이터 저장부에 저장되지 않은 운전자인 경우, 상기 대상 운전자의 얼굴 영역 이미지를 상기 얼굴 데이터 저장부에 저장하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
5. The method according to claim 4,
The identification unit
When the target driver is a driver not stored in the data storage unit, the facial region image of the target driver is stored in the face data storage unit.
청구항 1에 있어서,
상기 감정특징 추출부는
기 설정된 제 3 알고리즘에 따라 상기 제 1 특징벡터 및 상기 제 2 특징벡터의 차원수를 줄인 후, 상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
The method according to claim 1,
The emotional feature extraction unit
The system for recognizing a driver's emotional state, characterized in that after reducing the number of dimensions of the first feature vector and the second feature vector according to a third preset algorithm, the first feature vector and the second feature vector are integrated.
삭제delete 청구항 1에 있어서,
상기 감정상태에 대한 출력값이 기 설정된 출력값 범위를 벗어나는 경우, 경고음을 출력하는 위험도 판단 및 조치부를 더 포함하는 것을 특징으로 하는 운전자의 감정상태 인식 시스템.
The method according to claim 1,
The driver's emotional state recognition system, characterized in that it further comprises a risk determination and action unit for outputting a warning sound when the output value for the emotional state is out of a preset output value range.
대상 운전자의 얼굴을 촬영하는 카메라가 촬영한 얼굴 이미지로부터 기 설정된 제 1 알고리즘에 따라 제 1 특징벡터를 추출하는 단계;
상기 대상 운전자의 음성을 획득하는 마이크가 획득한 음성 데이터로부터 기 설정된 제 2 알고리즘에 따라 제 2 특징벡터를 추출하는 단계;
상기 제 1 특징벡터 및 상기 제 2 특징벡터를 통합하여 멀티 모달 데이터(Multimodal data)를 생성하는 단계; 및
상기 멀티 모달 데이터 및 운전자별 기 분류된 복수의 감정상태의 빈도수를 이용하여 상기 대상 운전자의 감정상태를 판단하는 단계
를 포함하고,
상기 판단하는 단계는
상기 멀티 모달 데이터로부터 상기 복수의 감정상태 각각의 정도를 도출하고, 상기 복수의 감정상태 각각의 정도에 상기 대상 운전자의 상기 복수의 감정상태 각각의 빈도수에 따른 확률밀도 값을 곱한 값을 반영하여 상기 복수의 감정상태 각각에 대한 출력값을 계산하고, 복수의 출력값 중 가장 큰 출력값을 가지는 감정상태를 상기 대상 운전자의 감정상태로 판단하는 것을 특징으로 하는 운전자의 감정상태 인식 방법.
extracting a first feature vector from a face image photographed by a camera photographing the target driver's face according to a preset first algorithm;
extracting a second feature vector from the voice data acquired by the microphone acquiring the target driver's voice according to a preset second algorithm;
generating multimodal data by integrating the first feature vector and the second feature vector; and
determining the emotional state of the target driver using the multi-modal data and the frequency of a plurality of emotional states pre-classified for each driver
including,
The judging step
The degree of each of the plurality of emotional states is derived from the multi-modal data, and a value obtained by multiplying the degree of each of the plurality of emotional states by a probability density value according to the frequency of each of the plurality of emotional states of the target driver is reflected to reflect the A method for recognizing an emotional state of a driver, comprising calculating an output value for each of a plurality of emotional states, and determining the emotional state having the largest output value among the plurality of output values as the emotional state of the target driver.
삭제delete
KR1020160016049A 2016-02-12 2016-02-12 Apparatus and Method for recognizing a driver’s emotional state KR102429822B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160016049A KR102429822B1 (en) 2016-02-12 2016-02-12 Apparatus and Method for recognizing a driver’s emotional state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160016049A KR102429822B1 (en) 2016-02-12 2016-02-12 Apparatus and Method for recognizing a driver’s emotional state

Publications (2)

Publication Number Publication Date
KR20170094836A KR20170094836A (en) 2017-08-22
KR102429822B1 true KR102429822B1 (en) 2022-08-08

Family

ID=59757895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160016049A KR102429822B1 (en) 2016-02-12 2016-02-12 Apparatus and Method for recognizing a driver’s emotional state

Country Status (1)

Country Link
KR (1) KR102429822B1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102570279B1 (en) 2018-01-05 2023-08-24 삼성전자주식회사 Learning method of emotion recognition, method and apparatus of recognizing emotion
KR102533789B1 (en) * 2018-04-24 2023-05-19 현대자동차주식회사 Data classifying apparatus, vehicle comprising the same, and controlling method of the data classifying apparatus
CN108764169A (en) * 2018-05-31 2018-11-06 厦门大学 A kind of driver's Emotion identification based on machine learning and display device and method
CN109522945B (en) * 2018-10-31 2020-09-25 中国科学院深圳先进技术研究院 Group emotion recognition method and device, intelligent device and storage medium
CN109858738A (en) * 2018-12-19 2019-06-07 青岛科技大学 A kind of vehicle follow gallop state driver emotion behavioral characteristics extract and discrimination method
KR102183280B1 (en) * 2019-03-22 2020-11-26 한국과학기술원 Electronic apparatus based on recurrent neural network of attention using multimodal data and operating method thereof
CN110755092B (en) * 2019-09-02 2022-04-12 中国航天员科研训练中心 Non-contact emotion monitoring method with cross-media information fusion function
CN113128284A (en) * 2019-12-31 2021-07-16 上海汽车集团股份有限公司 Multi-mode emotion recognition method and device
EP3895949B1 (en) 2020-04-17 2023-08-16 Toyota Jidosha Kabushiki Kaisha Method and device for evaluating user discomfort
KR102428916B1 (en) 2020-11-20 2022-08-03 오로라월드 주식회사 Method And Apparatus for Classifying Emotion Based on Multi-Modal
CN112541425A (en) * 2020-12-10 2021-03-23 深圳地平线机器人科技有限公司 Emotion detection method, device, medium and electronic equipment
CN112418172A (en) * 2020-12-11 2021-02-26 苏州元启创人工智能科技有限公司 Multimode information fusion emotion analysis method based on multimode information intelligent processing unit
KR20230124839A (en) 2022-02-18 2023-08-28 경북대학교 산학협력단 Autonomous driving management server, driver's condition-sensitive self-driving car and method for driving autonomously

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015451A (en) * 2008-07-04 2010-01-21 Toyota Motor Corp Driver's state recording apparatus
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100903348B1 (en) * 2007-11-28 2009-06-23 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR20100001928A (en) * 2008-06-27 2010-01-06 중앙대학교 산학협력단 Service apparatus and method based on emotional recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015451A (en) * 2008-07-04 2010-01-21 Toyota Motor Corp Driver's state recording apparatus
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program

Also Published As

Publication number Publication date
KR20170094836A (en) 2017-08-22

Similar Documents

Publication Publication Date Title
KR102429822B1 (en) Apparatus and Method for recognizing a driver’s emotional state
US8837786B2 (en) Face recognition apparatus and method
CN106557726B (en) Face identity authentication system with silent type living body detection and method thereof
JP4286860B2 (en) Operation content determination device
CN106557723B (en) Face identity authentication system with interactive living body detection and method thereof
Kim et al. Person authentication using face, teeth and voice modalities for mobile device security
Zhou et al. Towards a practical lipreading system
Kim et al. Multimodal biometric authentication using teeth image and voice in mobile environment
Erzin et al. Multimodal person recognition for human-vehicle interaction
Tayab Khan et al. Smart real-time video surveillance platform for drowsiness detection based on eyelid closure
KR101165106B1 (en) Driver certification device and method that do fetters in face realization
KR20010039771A (en) Methods and apparatus for audio-visual speaker recognition and utterance verification
KR101139963B1 (en) Method and apparatus for preventing driver from driving while drowsy based on detection of driver's pupils
Lip et al. Comparative study on feature, score and decision level fusion schemes for robust multibiometric systems
JP4730812B2 (en) Personal authentication device, personal authentication processing method, program therefor, and recording medium
Paleari et al. Evidence theory-based multimodal emotion recognition
Faraj et al. Synergy of lip-motion and acoustic features in biometric speech and speaker recognition
JP2008004050A (en) Personal information authentication system, personal information authentication method, program, and recording medium
KR102063745B1 (en) Apparatus and method for user identifying based on face profiling
Rekik et al. Unified system for visual speech recognition and speaker identification
Shen et al. Secure mobile services by face and speech based personal authentication
Goswami et al. Local ordinal contrast pattern histograms for spatiotemporal, lip-based speaker authentication
Akrouf et al. A multi-modal recognition system using face and speech
Park et al. Multimodal priority verification of face and speech using momentum back-propagation neural network
KR20170028631A (en) Method and Apparatus for Detecting Carelessness of Driver Using Restoration of Front Face Image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant