KR102596957B1 - Multi sensor fusion-based driver monitoring device and method - Google Patents

Multi sensor fusion-based driver monitoring device and method Download PDF

Info

Publication number
KR102596957B1
KR102596957B1 KR1020220045818A KR20220045818A KR102596957B1 KR 102596957 B1 KR102596957 B1 KR 102596957B1 KR 1020220045818 A KR1020220045818 A KR 1020220045818A KR 20220045818 A KR20220045818 A KR 20220045818A KR 102596957 B1 KR102596957 B1 KR 102596957B1
Authority
KR
South Korea
Prior art keywords
information
driver
heart rate
vector
front image
Prior art date
Application number
KR1020220045818A
Other languages
Korean (ko)
Other versions
KR20230124837A (en
Inventor
한동석
알윈폴로즈
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to PCT/KR2022/017955 priority Critical patent/WO2023158060A1/en
Publication of KR20230124837A publication Critical patent/KR20230124837A/en
Application granted granted Critical
Publication of KR102596957B1 publication Critical patent/KR102596957B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 다중 센서 융합기반 운전자 모니터링 장치 및 방법에 관한 것으로, 본 발명에 따른 다중 센서 융합기반 운전자 모니터링 장치는 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집부; 상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리부; 상기 전처리부에서 전처리된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성부; 상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단부; 및 상기 운전자의 감정 및 행동을 출력하는 출력부;를 포함하여 자율주행 차량의 효율성이 증대될 수 있도록 운전자의 감정 및 행동을 모니터링하여 출력한다.The present invention relates to a driver monitoring device and method based on multi-sensor fusion. The driver monitoring device based on multi-sensor fusion according to the present invention includes an information collection unit that collects front image information and biometric information of the driver; a preprocessing unit that preprocesses the front image information and biometric information; a shape vector generator that extracts each feature vector based on the front image information and biometric information preprocessed in the preprocessor and combines the feature vectors to generate a shape vector; a determination unit that determines the driver's emotions and actions based on the shape vector; and an output unit that outputs the driver's emotions and actions. It monitors and outputs the driver's emotions and actions so that the efficiency of the autonomous vehicle can be increased.

Description

다중 센서 융합기반 운전자 모니터링 장치 및 방법{MULTI SENSOR FUSION-BASED DRIVER MONITORING DEVICE AND METHOD}Multi-sensor fusion-based driver monitoring device and method {MULTI SENSOR FUSION-BASED DRIVER MONITORING DEVICE AND METHOD}

본 발명은 다중 센서 융합기반 운전자 모니터링 장치 및 방법에 관한 것으로, 더욱 상세하게는 운전자의 전면 영상과 생체 신호를 통해 운전자의 감정과 활동을 판단하는 다중 센서 융합기반 운전자 모니터링 장치 및 방법에 관한 것이다.The present invention relates to a driver monitoring device and method based on multi-sensor fusion, and more specifically, to a driver monitoring device and method based on multi-sensor fusion that determines the driver's emotions and activities through the driver's front image and biological signals.

종래의 운전자 주의 모니터라고 알려진 운전자 모니터링 시스템(DMS)은 자율 주행 차량에서 매우 중요한 역할을 한다.Driver Monitoring Systems (DMS), conventionally known as driver attention monitors, play a very important role in autonomous vehicles.

운전자 모니터링 시스템은 차량 내부에 마련된 카메라, 생체 인식 장치 등 하드웨어 장치를 통해 운전자의 영상을 획득하여 얼굴 인식, 피로도 감지, 전방 주시 감지 및 제스처 감지 등 운전자가 수행하는 행동을 판단하며, 운전자의 영상을 기초하여 운전자의 감정을 판단한다.The driver monitoring system acquires images of the driver through hardware devices such as cameras and biometric recognition devices installed inside the vehicle, and determines the driver's actions such as facial recognition, fatigue detection, forward looking detection, and gesture detection. Based on this, the driver's emotions are judged.

운전자의 감정 또는 행동은 자율 주행 차량에서 안전한 주행과 차량 자율 주행 효율 향상에 많은 도움이 되는 정보로서 사용되며, 운전자 모니터링 시스템은 자율주행을 효율적으로 구현하기 위해 실시간으로 운전자의 감정 또는 행동을 정보 처리 지연없이 수행할 수 있는 기술이 필요하다.The driver's emotions or behavior are used as information that is very helpful in driving safely in autonomous vehicles and improving the efficiency of autonomous vehicle driving, and the driver monitoring system processes the driver's emotions or behavior in real time to efficiently implement autonomous driving. Technology that can be performed without delay is required.

하지만, 운전자의 감정 또는 행동을 정보 처리 없이 수행하는 기술은 운전자의 행동 또는 감정을 판단하는 과정에서 발생하는 오류로부터 자유롭지 않은 문제점과 실시간으로 구현되는 자율주행 시스템에서의 오류가 번번히 발생하는 문제점이 발생한다.However, technology that performs the driver's emotions or actions without information processing is not free from errors that occur in the process of judging the driver's actions or emotions, and errors occur frequently in the autonomous driving system implemented in real time. do.

따라서, 분류 오류 및 구현 오류에서 자유롭고 실시간으로 운전자의 감정 또는 행동을 판단하는 기술에 대한 연구개발이 필요한 실정이다.Therefore, there is a need for research and development on technology that is free from classification and implementation errors and determines the driver's emotions or behavior in real time.

(대한민국) 등록특허공보 제10-1241841호(Republic of Korea) Registered Patent Publication No. 10-1241841

본 발명은 상기와 같은 문제를 해결하기 위해, 안출된 것으로, 본 발명의 목적은, 분류 오류 감소와 동시에 운전자의 감정과 행동을 동시에 예측하는 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공하는 것이다.The present invention was created to solve the above problems, and the purpose of the present invention is to provide a driver monitoring device and method based on multi-sensor fusion that reduces classification errors and simultaneously predicts the driver's emotions and behavior.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치는, 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집부; 상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리부; 상기 전처리부에서 전처리된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성부; 상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단부; 및 상기 운전자의 감정 및 행동을 출력하는 출력부;를 포함한다.In order to achieve the above object, a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention includes an information collection unit that collects front image information and biometric information of the driver; a preprocessing unit that preprocesses the front image information and biometric information; a shape vector generator that extracts each feature vector based on the front image information and biometric information preprocessed in the preprocessor and combines the feature vectors to generate a shape vector; a determination unit that determines the driver's emotions and actions based on the shape vector; and an output unit that outputs the driver's emotions and actions.

여기서, 상기 정보 수집부는, 상기 운전자의 전면 영상 정보를 수집하는 영상 수집부; 및 상기 운전자의 심박 정보를 수집하는 심박 수집 부와 상기 운전자의 음성 정보를 수집하는 음성 수집부를 포함하여 상기 운전자의 생체 정보를 수집하는 생체 수집부;를 포함할 수 있다.Here, the information collection unit includes an image collection unit that collects front image information of the driver; and a biometric collection unit that collects the driver's biometric information, including a heart rate collection unit that collects the driver's heart rate information and a voice collection unit that collects the driver's voice information.

이에, 상기 전처리부는, 상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하되, 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하고, 상기 심박 정보에 존재하는 잡음 신호를 제거하는 심박 필터링을 수행하며, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 음성 필터링을 수행할 수 있다.Accordingly, the preprocessor sets the driver's area of interest in the front image information, and converts the front image information set as the area of interest into foreground extraction information, front feature point information, and front heat map information, which are present in the heart rate information. Heart rate filtering can be performed to remove noise signals present in the voice information, and voice filtering can be performed to remove noise signals present in the voice information.

이에 따라, 상기 특성 벡터 생성부는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전면 영상 정보에서 변환된 상기 전경 추출 정보, 상기 전면 특징점 정보 및 전면 히트맵 정보와 상기 생체 정보에서 잡음 신호가 제거된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하고 상기 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성할 수 있다.Accordingly, the feature vector generator removes noise signals from the foreground extraction information, the front feature point information, the front heatmap information, and the biometric information converted from the front image information using a feature vector extractor that performs vector combining. Based on the heart rate information and the voice information, each feature vector may be extracted and each feature vector may be combined to generate one shape vector.

본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은, 다중 센서 융합기반 운전자 모니터링 장치를 통해 수행되며, 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계; 상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계; 전처리가 수행된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계; 상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단 단계; 및 상기 운전자의 감정 및 행동을 출력하는 출력 단계;를 포함한다.A multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention is performed using a multi-sensor fusion-based driver monitoring device, and includes an information collection step of collecting front image information and biometric information of the driver; A preprocessing step of preprocessing the front image information and biometric information; A shape vector generation step of extracting each feature vector based on the preprocessed front image information and biometric information and combining the feature vectors to generate a shape vector; a determination step of determining the driver's emotions and actions based on the shape vector; and an output step of outputting the driver's emotions and actions.

여기서, 상기 정보 수집 단계는, 상기 운전자의 전면 영상 정보를 수집하는 단계; 및 상기 운전자의 심박 정보 및 상기 운전자의 음성 정보를 포함하는 상기 생체 정보를 수집하는 단계;를 포함할 수 있다.Here, the information collection step includes collecting front image information of the driver; and collecting the biometric information including the driver's heart rate information and the driver's voice information.

이에, 상기 전처리 단계는, 상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하는 단계; 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계; 및 상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계;를 포함할 수 있다.Accordingly, the preprocessing step includes setting the driver's area of interest in the front image information; Converting the front image information set as the region of interest into foreground extraction information, front feature point information, and front heat map information; and performing filtering to remove noise signals present in the heart rate information and the voice information included in the biometric information.

이에 따라, 상기 형상 벡터 생성 단계는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전경 추출 정보, 상기 전면 특징정 정보 및 상기 전면 히트맵 정보와 상기 생체 정보에 포함된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하는 단계; 및 상기 각각의 특성 벡터를 결합하여 하나의 상기 형상 벡터로 생성하는 단계를 포함할 수 있다.Accordingly, the shape vector generation step uses a feature vector extractor that performs vector combining to extract the foreground extraction information, the front feature information, the front heat map information, and the heart rate information and the voice included in the biometric information. extracting each feature vector based on information; and combining the respective feature vectors to generate one shape vector.

상술한 본 발명의 일측면에 따르면, 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공함으로써, 서로 다른 장치에서 측정된 운전자의 정보를 결합하는 과정에서 발생하는 결합 오류 문제와 운전자의 감정 및 행동 인식에서 발생하는 인식 오류 문제가 해결할 수 있다.According to one aspect of the present invention described above, by providing a driver monitoring device and method based on multi-sensor fusion, it is possible to solve the problems of combining errors that occur in the process of combining driver information measured by different devices and to recognize the driver's emotions and behavior. Recognition error problems that occur can be resolved.

또한, 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공함으로써, 자율주행 시 운전자의 편의성과 자율주행에 대한 효율성이 증가될 수 있다.In addition, by providing a driver monitoring device and method based on multi-sensor fusion, driver convenience and efficiency of autonomous driving can be increased.

도 1은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치의 블록 도면이다.
도 2는 도 1의 정보 수집부의 블록 도면이다.
도 3은 도 1의 다중 센서 융합기반 운전자 모니터링 장치의 도면이다.
도 4는 도 1의 전처리부에서 전면 영상 정보를 전경 추출 정보로 변환하는 전처리를 설명하기 위한 도면이다.
도 5는 도 1의 전처리부에서 전면 영상 정보를 전면 특징정 정보로 변환하는 전처리를 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법의 흐름 도면이다.
도 7은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 정보 수집 단계의 흐름 도면이다.
도8은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 전처리 단계의 흐름 도면이다.
Figure 1 is a block diagram of a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention.
FIG. 2 is a block diagram of the information collection unit of FIG. 1.
FIG. 3 is a diagram of the multi-sensor fusion-based driver monitoring device of FIG. 1.
FIG. 4 is a diagram illustrating preprocessing for converting front image information into foreground extraction information in the preprocessor of FIG. 1 .
FIG. 5 is a diagram illustrating preprocessing for converting front image information into front feature information in the pre-processing unit of FIG. 1.
Figure 6 is a flow diagram of a driver monitoring method based on multi-sensor fusion according to another embodiment of the present invention.
FIG. 7 is a flow diagram of the information collection step of the multi-sensor fusion-based driver monitoring method of FIG. 6.
Figure 8 is a flow diagram of the preprocessing step of the multi-sensor fusion-based driver monitoring method of Figure 6.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein may be implemented in one embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제헌하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다, 비록"제1", 제2"등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for descriptive purposes only and is not intended to constitute the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and “comprising” do not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Throughout the specification, like reference numerals refer to like elements, and “and/or” includes each and every combination of one or more of the referenced elements, although “first”, “second”, etc. may refer to various elements. It is used to describe the components, but of course, these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, the first components mentioned below Of course, the component may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

먼저, 도 1 내지 도 5를 통해 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치에 대하여 설명한다.First, a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention will be described through FIGS. 1 to 5.

도 1은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)의 블록 도면이다.Figure 1 is a block diagram of a multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 정보 수집부(110), 전처리부(130), 형상 벡터 생성부(150), 판단부(170) 및 출력부(190)를 포함한다.Referring to FIG. 1, the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention includes an information collection unit 110, a preprocessing unit 130, a shape vector generation unit 150, and a determination unit 170. ) and an output unit 190.

본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 차량 옵션 기능으로 구현되도록 차량 제어 시스템의 일부 모듈이거나 별도의 단말일 수 있다. 또한, 정보 수집부(110), 전처리부(130), 형상 벡터 생성부(150), 판단부(170) 및 출력부(190)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어 질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention may be a part of a module of the vehicle control system or a separate terminal to be implemented as a vehicle option function. In addition, the information collection unit 110, preprocessing unit 130, shape vector generation unit 150, determination unit 170, and output unit 190 may be formed as an integrated module or may be composed of one or more modules. there is. However, on the contrary, each component may be comprised of a separate module.

또한, 다중 센서 융합기반 운전자 모니터링 장치(100)는 이동성을 갖거나 고정될 수 있다. 예를 들어 다중 센서 융합기반 운전자 모니터링 장치(100)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.Additionally, the multi-sensor fusion-based driver monitoring device 100 may be mobile or fixed. For example, the multi-sensor fusion-based driver monitoring device 100 may be in the form of a server or engine, and may include a device, apparatus, terminal, user equipment (UE), It may be called by other terms such as MS (mobile station), wireless device, or handheld device.

또한, 다중 센서 융합기반 운전자 모니터링 장치(100)는 운영체제(Operation System: OS) 즉, 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 여기서 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베러 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.In addition, the multi-sensor fusion-based driver monitoring device 100 can run or produce various software based on an operating system (OS), that is, a system. Here, the operating system is a system program that allows software to use the hardware of the device, and includes mobile computer operating systems such as Android OS, Windows Mobile OS, Bada OS, Symbian OS, and Blackbeard OS, as well as Windows series, Linux series, Unix series, MAC, It can include all computer operating systems such as AIX and HP-UX.

도 2는 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)에 포함되는 정보 수집부(110)의 블록 도면이다.Figure 2 is a block diagram of the information collection unit 110 included in the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention.

먼저, 정보 수집부(110)는 운전자의 전면 영상 정보 및 생체 정보를 수집한다.First, the information collection unit 110 collects the driver's front image information and biometric information.

이때, 정보 수집부(110)는 차량 내 구비되는 카메라, 비젼 센서 및 모션 인식 센서 중 어느 하나의 촬영 수단에서 촬영된 운전자의 얼굴 영상을 운전자의 전면 영상 정보로서 수집할 수 있다. 이를 위해, 정보 수집부(110)는 운전자의 전면 영상 정보를 수집하는 영상 수집부(111)를 포함할 수 있다.At this time, the information collection unit 110 may collect the driver's face image captured by any one of the camera, vision sensor, and motion recognition sensor provided in the vehicle as the driver's front image information. To this end, the information collection unit 110 may include an image collection unit 111 that collects front image information of the driver.

또한, 정보 수집부(110)는 사용자의 생체 정보를 수집하는 생체 수집부(113)를 더 포함할 수 있다. 이때, 생체 수집부(113)는 사용자의 심박 정보를 수집하는 심박 수집부(11a)와 사용자의 음성 정보를 수집하는 음성 수집부(113b)를 포함할 수 있다.Additionally, the information collection unit 110 may further include a biometric collection unit 113 that collects the user's biometric information. At this time, the biometric collection unit 113 may include a heart rate collection unit 11a that collects the user's heart rate information and a voice collection unit 113b that collects the user's voice information.

이러한, 생체 수집부(113)에 포함된 심박 수집부(113a)는 운전자가 착용한 스마트 워치(smart watch) 또는 운전자의 심박수를 측정할 수 있는 심박 측정 장치 중 어느 하나의 심박 측정 수단에서 측정된 운전자의 심박을 심박 정보로서 수집하고, 음성 수집부(113b)는 차량 내 구비되는 마이크, 음성 입출력 장치 및 음성 인식 센서 중 어느 하나의 음성 인식 수단에서 측정된 운전자의 음성을 음성 정보로서 수집할 수 있다. 여기서, 운전자의 심박수를 측정하는 스마트 워치는 스마트 워치 시장에 존재하는 갤럭시 워치 시리즈, 애플 워치 시리즈 등 운전자의 심박을 측정할 수 있는 시계 형태로 마련된 장치로 사용되는 것이 바람직하나, 이에 한정하지 않는다.The heart rate collection unit 113a included in the biometric collection unit 113 is measured by a heart rate measuring means, either a smart watch worn by the driver or a heart rate measuring device capable of measuring the driver's heart rate. The driver's heart rate is collected as heart rate information, and the voice collection unit 113b can collect the driver's voice measured by any one voice recognition means among the microphone, voice input/output device, and voice recognition sensor provided in the vehicle as voice information. there is. Here, the smart watch that measures the driver's heart rate is preferably used as a watch-type device that can measure the driver's heart rate, such as the Galaxy Watch series or Apple Watch series that exist in the smart watch market, but is not limited to this.

도 3은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치의 도면이다.Figure 3 is a diagram of a driver monitoring device based on multi-sensor fusion according to an embodiment of the present invention.

도 3을 참조하면, 전처리부(130)는 정보 수집부(110)에서 운전자의 전면 영상 정보와 생체 정보를 수집하면, 수집된 운전자의 전면 영상 정보 및 생체 정보를 전처리한다.Referring to FIG. 3, when the information collection unit 110 collects the driver's front image information and biometric information, the preprocessing unit 130 preprocesses the collected driver's front image information and biometric information.

먼저, 전처리부(130)는 정보 수집부(110)에서 수집된 전면 영상 정보에서 관심 영역(region of interest, ROI)을 설정할 수 있다.First, the pre-processing unit 130 may set a region of interest (ROI) in the front image information collected by the information collection unit 110.

이에, 전처리부(130)는 정보 수집부(110)에서 수집된 전면 영상 정보에 따라 전면 영상 정보에 포함된 일부 영역을 선택하고, 선택된 일부 영역을 관심 영역으로 설정할 수 있다.Accordingly, the pre-processing unit 130 may select some areas included in the front image information according to the front image information collected by the information collection unit 110 and set the selected areas as areas of interest.

이러한, 전처리부(130)는 하나의 모듈로 마련되어 운전자의 전면 영상 정보와 생체 정보의 전처리를 동시에 수행하거나, 복수의 전처리 모듈로 마련되어 각각의 전처리 모듈에서 전면 영상 정보와 생체 정보에 대한 전처리를 동시에 수행하여 서로 다른 정보로 변환할 수 있다. 이에 따라, 본 발명의 명세서에서는 용이한 설명을 위해 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)에 포함된 전처리부(130)를 복수의 전처리 모듈로 마련되는 것으로 기재하나, 이에 한정하지 않는다.The pre-processing unit 130 is provided as a single module and simultaneously performs pre-processing of the driver's front image information and biometric information, or is provided as a plurality of pre-processing modules and simultaneously performs pre-processing of the front image information and biometric information in each pre-processing module. It can be converted into different information. Accordingly, in the specification of the present invention, for ease of explanation, the preprocessing unit 130 included in the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention is described as being provided as a plurality of preprocessing modules. , but is not limited to this.

이에 따라, 전처리부(130)는 도 3에 도시되지는 않았지만, 전면 영상 정보를 전처리하는 제1 전처리 모듈, 운전자의 생체 정보를 전처리하는 제2 전처리 모듈을 포함할 수 있다.Accordingly, although not shown in FIG. 3, the preprocessing unit 130 may include a first preprocessing module for preprocessing front image information and a second preprocessing module for preprocessing the driver's biometric information.

먼저, 제1 전처리 모듈이 정보 수집부(110)에서 수집하고, 관심 영역이 설정된 운전자의 전면 영상 정보를 전처리하는 과정을 도 4 및 도 5를 참조하여 설명한다.First, the process in which the first pre-processing module pre-processes the driver's front image information collected by the information collection unit 110 and in which the area of interest is set will be described with reference to FIGS. 4 and 5.

도 4는 도 1의 전처리부(130)에서 전면 영상 정보를 전경 추출 정보로 변환하는 전처리를 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating preprocessing for converting front image information into foreground extraction information in the preprocessor 130 of FIG. 1 .

도 4를 참조하면, 전처리부(130)에 포함된 제1 전처리 모듈은 정보 수집부(110)에서 수집되어 관심 영역이 설정된 운전자의 전면 영상 정보를 전처리하여 전경 추출 정보로 변환할 수 있다.Referring to FIG. 4, the first pre-processing module included in the pre-processing unit 130 may pre-process the driver's front image information collected in the information collection unit 110 and set as a region of interest and convert it into foreground extraction information.

이와 관련하여, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 기초하여 데이터 세트를 생성할 수 있다.In this regard, the first preprocessing module may generate a data set based on the driver's front image information in which the area of interest is set.

이때, 제1 전처리 모듈은 생성된 데이터 세트에서 관심 영역으로 설정된 영역을 운전자의 얼굴 영역으로 설정할 수 있다.At this time, the first preprocessing module may set the area set as the area of interest in the generated data set as the driver's face area.

또한, 제1 전처리 모듈은 생성된 데이터 세트에서 관심 영역으로 설정되지 않은 영역으로 전면 영상 정보의 전경 영역으로 설정할 수 있다.Additionally, the first preprocessing module may set a region that is not set as a region of interest in the generated data set as a foreground region of the front image information.

이에 따라, 제1 전처리 모듈은 데이터 세트에 포함되어 관심 영역으로 설정되지 않은 전경 영역을 전경 추출 알고리즘을 사용하여 추출할 수 있다. 여기서, 제1 전처리 모듈은 전경 추출 알고리즘으로서 GrabCut 알고리즘 사용하여 운전자의 전면 영상 정보에서 전경을 추출할 수 있고, 이를 위해, 제1 전처리 모듈에는 GrabCut 알고리즘이 마련될 수 있다. 여기서, 본 발명을 용이하게 설명하기 위해 전경 추출 알고리즘으로서 Grabcut 알고리즘을 사용하지만, 이미지에서 전경을 추출 또는 삭제하기 위해 공지된 알고리즘 또는 전경 추출 방법이 사용될 수 있어 이에 한정하지 않는다.Accordingly, the first preprocessing module may extract the foreground area included in the data set and not set as the area of interest using a foreground extraction algorithm. Here, the first pre-processing module can extract the foreground from the driver's front image information using the GrabCut algorithm as a foreground extraction algorithm, and for this purpose, the first pre-processing module may be provided with the GrabCut algorithm. Here, the Grabcut algorithm is used as a foreground extraction algorithm to easily explain the present invention, but any known algorithm or foreground extraction method may be used to extract or delete the foreground from an image, so the present invention is not limited thereto.

이를 통해, 제1 전처리 모듈은, 전경 영역이 추출된 데이터 세트에 기초하여 전면 영상 정보를 운전자의 전면 영상 얼굴만 존재하는 전경 추출 정보로 변환할 수 있다. 또한, 제1 전처리 모듈은 이후에 설명하는 딥러닝 모델에서 수행되는 계산의 복잡성을 줄이기 위해, 운전자의 전면 영상 얼굴만 존재하는 전경 추출 정보를 회색으로 이루어진 전경 추출 정보로 더 변환할 수 있다.Through this, the first preprocessing module can convert the front image information into foreground extraction information containing only the driver's front image face based on the data set from which the foreground area is extracted. Additionally, in order to reduce the complexity of calculations performed in the deep learning model described later, the first preprocessing module may further convert foreground extraction information containing only the driver's front image face into gray foreground extraction information.

한편, 도 5는 도 1의 전처리부에서 전면 영상 정보를 전면 특징점 정보로 변환하는 전처리를 설명하기 위한 도면이다.Meanwhile, FIG. 5 is a diagram for explaining pre-processing for converting front image information into front feature point information in the pre-processing unit of FIG. 1.

도 5를 참조하면, 제1 전처리 모듈은, 정보 수집부(110)에서 수집되어 관심 영역이 설정된 운전자의 전면 영상 정보를 변환한 전경 추출 정보에서 운전자의 특징점을 추출하여 전면 특징점 정보로 더 변환할 수 있다.Referring to FIG. 5, the first preprocessing module extracts the driver's feature points from the foreground extraction information obtained by converting the driver's front image information for which the area of interest is collected by the information collection unit 110 and further converts it into front feature point information. You can.

이에, 제1 전처리 모듈은 관심 영역이 설정된 전면 영상 정보에 Grabcut 알고리즘을 사용하여 전경을 추출하여 회색으로 변환한 전경 추출 정보에 얼굴 이미지 쓰레싱 기법(Facial Image Threshing, FIT)을 사용하여 얼굴 영역을 제외한 영역을 삭제하여 전경 추출 정보의 크기를 조절할 수 있다. 여기서 얼굴 이미지 쓰레싱 기법은 누락된 감정 또는 행동 데이터의 수정, 부적절한 데이터의 제거, 대규모 데이터의 병합, 이미지의 크기 변경 및 자르기에 사용되며, 얼굴 이미지 쓰레싱 기법으로 입력된 감정 및 행동 비디오 시퀸스를 이미지 편집 및 분리가 적용된 출력 이미지로 변환할 수 있다. 이러한, 얼굴 이미지 쓰레싱 기법은, 얼굴 이미지 쓰레싱 머신으로부터 수행되며, 얼굴 이미지 쓰레싱 머신은 데이터 수신기, MTCNN(Multi-Task Cascaded Convolutional Network), 이미지 크기 조정기 및 사전에 훈련된 Xception 알고리즘 모델인 데이터 분리기를 포함할 수 있다. 이와 같이, 얼굴 이미지 쓰레싱 머신은, 데이터 수신기로 감정 및 행동 비디오 시퀸스를 이미지로 변환하고, MTCNN을 이용하여 변환된 이미지에서 사람의 얼굴을 식별하며, 이미지 크기 조정기를 통해 이미지의 크기를 감소시킨다. 따라서, 최종적으로 데이터 분리기를 이용하여 감정 및 행동 이미지를 적절하게 레이블된 디렉토리로 분리할 수 있다.Accordingly, the first preprocessing module extracts the foreground using the Grabcut algorithm from the front image information with the region of interest set, and uses facial image threshing (FIT) on the foreground extraction information converted to gray to create the face area. You can adjust the size of the foreground extraction information by deleting the excluded area. Here, the facial image thrashing technique is used to correct missing emotional or behavioral data, remove inappropriate data, merge large-scale data, resize and crop images, and combine the emotional and behavioral video sequences input with the facial image thrashing technique. It can be converted to an output image with image editing and separation applied. This face image thrashing technique is performed from a face image thrashing machine, which includes a data receiver, a Multi-Task Cascaded Convolutional Network (MTCNN), an image resizer, and a pre-trained Xception algorithm model. May include a separator. In this way, the facial image thrashing machine converts emotional and behavioral video sequences into images with a data receiver, identifies human faces in the converted images using MTCNN, and reduces the size of the images with an image resizer. . Therefore, finally, the data separator can be used to separate emotional and behavioral images into appropriately labeled directories.

이어서, 제1 전처리 모듈은 얼굴 영역만 존재하는 전경 추출 정보에서 특징점 추적 알고리즘을 사용하여 운전자의 얼굴에서 특징점을 식별할 수 있다. 이러한 특징점 추적 알고리즘은, SURF(Speeded UP Robust Features) 알고리즘이 사용될 수 있다, 이에, 본 명세서에서는 본 발명을 용이하게 설명하기 위해 공지된 SURF 알고리즘을 사용하지만, 이미지에 존재하는 얼굴의 특징점을 감지 또는 추출하기 위해 공지된 알고리즘 또는 얼굴 특징점 방법이 사용될 수 있어 이에 한정하지 않는다. 또한, 제1 전처리 모듈은 전경 추출 정보에서 운전자의 얼굴 특징점을 추출하여 전면 특징점 정보로 변환하기 위해, 얼굴 이미지 쓰레싱 기법 및 SURF 알고리즘을 수행할 수 있는 장치 또는 모듈이 더 마련될 수 있다.Subsequently, the first preprocessing module can identify feature points on the driver's face using a feature point tracking algorithm in foreground extraction information in which only the face area exists. This feature point tracking algorithm may use the SURF (Speeded UP Robust Features) algorithm. Accordingly, in this specification, the known SURF algorithm is used to easily explain the present invention, but the feature points of the face present in the image are detected or Known algorithms or facial feature point methods may be used to extract the information, but are not limited thereto. In addition, the first preprocessing module may further include a device or module capable of performing a facial image thrashing technique and a SURF algorithm to extract the driver's facial feature points from the foreground extraction information and convert them into front feature point information.

이에 따라, 제1 전처리 모듈은 크기가 조절된 전경 추출 정보에서 관심 영역의 픽셀 값을 추출하여 식별한 특징점과 결합하여 전면 특징점 정보로 더 변환할 수 있다. 이러한, 전면 특징점 정보는 운전자의 감정 및 행동을 추출하는 딥러닝 모델의 학습 또는 분류에 사용될 수 있다.Accordingly, the first preprocessing module may extract pixel values of the region of interest from the resized foreground extraction information and combine them with the identified feature points to further convert them into front feature point information. This front feature point information can be used for learning or classifying a deep learning model that extracts the driver's emotions and behavior.

한편, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 전면 히트맵 정보로 더 변환할 수 있다. 이에, 제1 전처리 모듈은 관심 영역으로 설정된 영역에서 객체를 확인하고 해당 객체의 위치를 추적할 수 있다. 여기서, 객체는 운전자의 표정이 변화하였을 경우, 눈, 눈썹, 입 등 표정 변화에 사용되는 얼굴의 신체기관으로 특정될 수 있다.Meanwhile, the first preprocessing module may further convert the front image information of the driver with the area of interest set into front heat map information. Accordingly, the first preprocessing module can check the object in the area set as the area of interest and track the location of the object. Here, when the driver's expression changes, the object may be specified as a body organ of the face used for expression change, such as eyes, eyebrows, and mouth.

이러한, 제1 전처리 모듈은 영상 내 픽셀 값의 변화에 따라 객체의 움직임을 파악할 수 있고, 픽셀 값이 변화하는 픽셀 위치가 관심 영역에 존재하는 픽셀과 접하는 것에 따라 객체가 관심 영역에 접지하는지 확인할 수 있다.This first preprocessing module can determine the movement of the object according to the change in pixel value in the image, and can check whether the object is grounded in the area of interest according to the pixel position where the pixel value changes is in contact with the pixel present in the area of interest. there is.

또한, 제1 전처리 모듈은 객체의 움직임에 따라 변화하는 객체의 픽셀 값을 확인하여 픽셀 값이 변화하는 위치에 따라 객체의 위치를 추적할 수 있다.Additionally, the first preprocessing module can check the pixel value of the object that changes according to the movement of the object and track the location of the object according to the position where the pixel value changes.

이 경우, 제1 전처리 모듈은 관심 영역과 접지하는 객체들 중 일정 크기 이상인 객체를 선택적으로 더 추적할 수 있다. 이를 통해, 제1 전처리 모듈은 운전자의 얼굴에 존재하는 신체기관이 아닌 손가락, 손, 팔 등 다른 신체기관을 더 추적할 수 있다.In this case, the first preprocessing module may selectively further track objects that are larger than a certain size among objects that touch the region of interest. Through this, the first preprocessing module can further track other body organs, such as fingers, hands, and arms, other than the body organs present on the driver's face.

이에 따라, 제1 전처리 모듈은 관심 영역에 접지한 객체 즉, 운전자 얼굴의 눈, 눈썹, 입 등과 운전자의 손가락, 손 등을 추적하여 추척된 객체의 위치에 존재하는 픽셀의 좌표 값을 확인하고, 픽셀의 좌표값을 누적하여 운전자 전면 영상 정보에 대한 히트맵을 생성할 수 있다. 이를 통해, 제1 전처리 모듈은 관심 영역이 설정된 전면 영상 정보에 기초하여 운전자 얼굴에 대한 히트맵을 생성하여 전면 히트맵 정보로 더 변환할 수 있다.Accordingly, the first preprocessing module tracks objects grounded in the area of interest, that is, the eyes, eyebrows, mouth, etc. of the driver's face, and the driver's fingers and hands, and confirms the coordinate value of the pixel present at the location of the tracked object, By accumulating the coordinate values of pixels, a heat map of the image information in front of the driver can be created. Through this, the first preprocessing module can generate a heatmap for the driver's face based on the front image information in which the region of interest is set and further convert it into front heatmap information.

이에 따라, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환할 수 있다.Accordingly, the first preprocessing module can convert the driver's front image information for which the area of interest is set into foreground extraction information, front feature point information, and front heat map information.

한편, 전처리부(130)에 포함된 제2 전처리 모듈은 정보 수집부(110)에서 수집한 생체 정보에서 잡음 신호를 제거하는 필터링을 수행할 수 있다. 이에, 제2 전처리 모듈은 정보 수집부(110)에 포함된 심박 수집부(113a)에서 수집된 운전자의 심박 정보에서 잠음 신호를 제거하는 필터링을 수행할 수 있다. 여기서 심박 정보는 심장의 박동에 따라 심근에서 발생하는 활동 전류를 표준 12 유도법에 의해 계측된 1차원 아날로그 신호로서, 측정된 신호는 실시간으로 측정된 심박의 진폭 크기 변화를 포함할 수 있다.Meanwhile, the second preprocessing module included in the preprocessing unit 130 may perform filtering to remove noise signals from the biometric information collected by the information collection unit 110. Accordingly, the second preprocessing module may perform filtering to remove the sleep signal from the driver's heart rate information collected by the heart rate collection unit 113a included in the information collection unit 110. Here, the heart rate information is a one-dimensional analog signal that measures the action current generated in the myocardium according to the heartbeat using the standard 12 induction method, and the measured signal may include changes in the amplitude and size of the heart rate measured in real time.

이에, 제2 전처리 모듈은 심박 정보에 포함된 심박 신호로부터 기저선 변동 잡음을 제거할 수 있다. 기저선 변동 잡은 사람의 호흡 등에 의해 발생하는 1Hz 미만의 저주파 성분으로, 대역 통과 필터를 이용하여 제거할 수 있다. 이에 따라, 제2 전처리 모듈은 심박 정보에 포함된 잡음 신호를 제거할 수 있다.Accordingly, the second preprocessing module may remove baseline fluctuation noise from the heart rate signal included in the heart rate information. Baseline fluctuation is a low-frequency component of less than 1Hz caused by human breathing, etc., and can be removed using a band-pass filter. Accordingly, the second preprocessing module can remove noise signals included in heart rate information.

한편, 제2 전처리 모듈은 음성 수집부(113b)에서 수집된 운전자의 음성 정보에서 잡음 신호를 제거하는 필터링을 수행할 수 있다. 여기서, 음성 정보에 포함된 음성 신호는 사람이 성대를 진동하여 발생하는 신호로써, 인접한 신호 사이의 주파수 상호간 상관관계가 매우 높아 주변 배경 잡음을 구별할 수 있다.Meanwhile, the second preprocessing module may perform filtering to remove noise signals from the driver's voice information collected by the voice collection unit 113b. Here, the voice signal included in the voice information is a signal generated by a person vibrating the vocal cords, and the inter-frequency correlation between adjacent signals is very high, making it possible to distinguish surrounding background noise.

이에, 제2 전처리 모듈은 운전자의 음성 정보에서 주파수 상호간 상관관계가 임계 값 이하인 신호를 배경 잡음으로 설정하여 배경 잡음을 판단할 수 있다. 여기서, 배경 잡음은 차량의 배기음, 주뱐 차량의 클라션 소리 등 운전자의 음성을 제외한 음성 신호가 배경 잡음일 수 있다.Accordingly, the second preprocessing module may determine the background noise by setting a signal with an inter-frequency correlation below the threshold in the driver's voice information as background noise. Here, the background noise may be an audio signal other than the driver's voice, such as a vehicle's exhaust sound or a vehicle's clunk sound.

이에 따라, 제2 전처리 모듈은 음성 정보에서 배경 잡음으로 판단된 음성 신호를 분리 및 삭제하여 음성 정보에 포함된 잡음 신호를 삭제할 수 있다.Accordingly, the second preprocessing module can separate and delete the voice signal determined to be background noise from the voice information and delete the noise signal included in the voice information.

이처럼, 전처리부(130)는 제2 전처리 모듈을 통해 정보 수집부(110)에서 수집된 심박 정보 및 음성 정보를 필터링하여 잡음 신호를 제거할 수 있다.In this way, the pre-processing unit 130 can remove noise signals by filtering the heart rate information and voice information collected by the information collection unit 110 through the second pre-processing module.

한편, 형상 벡터 생성부(150)는 전처리부(130)에서 전처리된 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고 각각의 특성 벡터를 결합하여 형상 벡터를 생성한다.Meanwhile, the shape vector generator 150 extracts each feature vector based on the front image information and biometric information preprocessed in the preprocessor 130 and combines the feature vectors to generate a shape vector.

여기서, 형상 벡터 생성부(150)는 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 운전자의 전면 영상 정보에서 변환된 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보와 생체 정보에서 잡음 신호가 제거된 심박 정보 및 음성 정보에 기초하여 각각의 특성 벡터를 추출할 수 있다.Here, the shape vector generator 150 uses a feature vector extractor that performs vector combining to remove noise signals from the foreground extraction information, front feature point information, front heatmap information, and biometric information converted from the driver's front image information. Each feature vector can be extracted based on heart rate information and voice information.

또한, 형상 벡터 생성부(150)는 특성 벡터 추출기를 이용하여 각각의 특성 벡터를 추출하고, 추출된 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성할 수 있다.Additionally, the shape vector generator 150 may extract each feature vector using a feature vector extractor and combine the extracted feature vectors to generate one shape vector.

이러한, 형상 벡터 생성부(150)는 제1 전처리 모듈에서 변환된 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보에 포함된 얼굴 이미지의 픽셀 값, 전면 특징점 및 전면 히트맵을 추출할 수 있다. The shape vector generator 150 may extract the pixel value, front feature point, and front heatmap of the face image included in the foreground extraction information, front feature point information, and front heatmap information converted in the first preprocessing module.

이때, 형상 벡터 생성부(150)는 특성 벡터 추출기를 이용하여 얼굴 이미지의 픽셀 값, 전면 특징점 및 전면 히트맵에 기초한 얼굴 특성 벡터를 추출할 수 있다. 여기서, 특성 벡터 추출기는, 공지된 웨이블릿 변환 기법을 이용하여 얼굴 특성 벡터를 추출할 수 있다.At this time, the shape vector generator 150 may extract a facial feature vector based on the pixel value, front feature point, and front heat map of the face image using a feature vector extractor. Here, the feature vector extractor can extract the facial feature vector using a known wavelet transform technique.

한편, 형상 벡터 생성부(150)는 필터링이 수행된 심박 정보에서 특성 벡터를 추출하기 위해, 심박 정보에 포함된 심박 신호로부터 파형을 검출할 수 있다. 여기서, 심박 신호는 한 주기에 P파, Q파, R파, S파 및 T파를 포함하는 파형으로 이루어진 신호로써, 공지된 다양한 기술에 의해 검출될 수 있다. 또한, 심박 신호는 한 주기 또는 복수 개의 주기를 갖는 심박 신호일 수 있다.Meanwhile, the shape vector generator 150 may detect a waveform from the heart rate signal included in the heart rate information in order to extract a characteristic vector from the filtered heart rate information. Here, the heart rate signal is a signal consisting of a waveform including P wave, Q wave, R wave, S wave, and T wave in one cycle, and can be detected by various known technologies. Additionally, the heart rate signal may be a heart rate signal having one cycle or multiple cycles.

이에, 한 주기의 심박 신호일 경우, P파, Q파, R파, S파 및 T파를 포함하는 5개의 파형이 검출될 수 있으며, 복수 개의 주기를 갖는 심박 신호의 경우 주기의 개수에 따라 한 주기의 심전도 신호에 포함된 파형의 배가 검출될 수 있다.Accordingly, in the case of a heart rate signal with one cycle, five waveforms including the P wave, Q wave, R wave, S wave, and T wave can be detected, and in the case of a heart rate signal with multiple cycles, one waveform can be detected depending on the number of cycles. A double of the waveform included in the ECG signal of the cycle can be detected.

이에, 형상 벡터 생성부(150)는 검출된 각 파형들로부터 특정 좌표를 추출할 수 있다. 여기서 특정 좌표는, 5개의 파형을 통해 특정되는 좌표로써 P파의 피크 지점인 PP, Q파의 피크 지점인 QP, R파의 피크 지점인 RP, S파의 피크 지점인 SP 및 T파의 피크 지점인 TP를 포함한다.Accordingly, the shape vector generator 150 can extract specific coordinates from each detected waveform. Here, the specific coordinates are those specified through five waveforms: PP, the peak point of the P wave, QP, the peak point of the Q wave, RP, the peak point of the R wave, SP, the peak point of the S wave, and the peak of the T wave. Includes branch TP.

또한, 형상 벡터 생성부(150)는 P파, R파 및 T파를 가장 높은 진폭 값을 갖는 지점을 피크 지점을 설정하고, Q파, S파는 가장 낮은 진폭 값을 갖는 지점을 피크 지점으로 설정할 수 있다.In addition, the shape vector generator 150 sets the point with the highest amplitude value for the P-wave, R-wave, and T-wave as the peak point, and sets the point with the lowest amplitude value for the Q-wave and S-wave as the peak point. You can.

이를 통해, 형상 벡터 생성부(150)는 한 주기 또는 복수 개의 주기를 갖는 심박 신호에 포함된 두 개 이상의 특정 좌표에 기초하여 특성 벡터를 추출할 수 있다. 여기서, 특성 벡터는 특정 좌표의 x축에 해당하는 시간과 y축에 해당되는 진폭을 이용하여 계산될 수 있다.Through this, the shape vector generator 150 can extract a feature vector based on two or more specific coordinates included in a heart rate signal having one cycle or multiple cycles. Here, the characteristic vector can be calculated using the time corresponding to the x-axis and the amplitude corresponding to the y-axis of specific coordinates.

이와 관련하여, 형상 벡터 생성부(150)는 한 주기로 이루어진 심박 신호에서 두 개 이상의 특정 좌표를 이용하여 특성 벡터를 추출할 경우, P파의 피크 지점인 PP와 R파의 피크 지점인 RP 간의 거리 또는 기울기, R파의 피크 지점인 RP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, S파의 피크 지점인 SP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 S파의 피크 지점인 SP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 Q파의 피크 지점인 QP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 R파의 피크 지점인 RP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 S파의 피크 지점인 SP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, R파의 피크 지점인 RP와 S파의 피크 지점인 SP 간의 거리 또는 기울기로 총 10개의 피크 지점들 간에 대한 거리 또는 기울기를 계산할 수 있다.In this regard, when the shape vector generator 150 extracts a feature vector using two or more specific coordinates from a heart rate signal consisting of one cycle, the distance between PP, the peak point of the P wave, and RP, the peak point of the R wave or slope, the distance or slope between RP, the peak point of the R wave, and TP, the peak point of the T wave, the distance or slope between SP, the peak point of the S wave, and TP, the peak point of the T wave, and PP, the peak point of the P wave. The distance or slope between SP, the peak point of the S wave, the distance or slope between PP, the peak point of the P wave, and TP, the peak point of the T wave, the distance between PP, the peak point of the P wave, and QP, the peak point of the Q wave. or slope, the distance or slope between QP, the peak point of the Q wave, and RP, the peak point of the R wave; the distance or slope between QP, the peak point of the Q wave, and SP, the peak point of the S wave; and QP, the peak point of the Q wave. The distance or slope between TP, the peak point of the T wave, and the distance or slope between RP, the peak point of the R wave, and SP, the peak point of the S wave, can be used to calculate the distance or slope between a total of 10 peak points.

또한, 형상 벡터 생성부(150)는 모든 파형의 피크 지점을 이용하여 피크 지점들 간의 거리 및 기울기가 계산되지 않은 경우, 심박 신호의 외형적 특성이 뚜렷하게 나타내는 R파의 피크지점인 RP, S파의 피크 지점인 SP, T파의 피크 지점인 TP만을 이용하여 거리 및 기울기를 계산할 수 있다.In addition, when the distance and slope between the peak points are not calculated using the peak points of all waveforms, the shape vector generator 150 generates the RP and S waves, which are the peak points of the R wave, which clearly show the external characteristics of the heart rate signal. The distance and slope can be calculated using only SP, which is the peak point of , and TP, which is the peak point of the T wave.

이에, 형상 벡터 생성부(150)는 피크 지점 간의 거리는 맨하탄 거리(Manhattan Distance), 유클리디안 거리(Euclidean Distance), 민코프스키 거리(Minkowski Distance) 등 공지된 방법에 의해 계산할 수 있다.Accordingly, the shape vector generator 150 may calculate the distance between peak points using known methods such as Manhattan Distance, Euclidean Distance, and Minkowski Distance.

또한, 형상 벡터 생성부(150)는 피크 지점 간의 기울기는 공지된 두 좌표 지점 간의 기울기 공식을 이용하여 계산할 수 있다.Additionally, the shape vector generator 150 may calculate the slope between peak points using a known slope formula between two coordinate points.

이를 통해, 형상 벡터 생성부(150)는 심박 신호에 포함된 5개의 파형 중 두개 이상의 파형의 특정 좌표를 계산하여 특성 벡터로 추출할 수 있다.Through this, the shape vector generator 150 can calculate specific coordinates of two or more waveforms among the five waveforms included in the heart rate signal and extract them as characteristic vectors.

또한, 형상 벡터 생성부(150)는 심박 신호가 복수 개의 주기를 갖는 경우, 현재 주기(n)에 해당하는 심박 신호와 이전 주기(n-1)에 해당하는 심박 신호에서 추출된 각 파형들의 특정 좌표를 각 주기에서 하나 이상 선택하여 특성 벡터를 추출할 수 있다.In addition, when the heart rate signal has a plurality of cycles, the shape vector generator 150 specifies each waveform extracted from the heart rate signal corresponding to the current cycle (n) and the heart rate signal corresponding to the previous cycle (n-1). A feature vector can be extracted by selecting one or more coordinates from each cycle.

이와 관련하여, 형상 벡터 생성부(150)는 심박 신호가 복수 개의 주기를 포함하고, 두 개 이상의 파형의 특정 좌표를 사용할 경우, 이전 주기(n-1)의 심박 신호에 해당되는 P파(P(n-1))의 피크 지점인 PP(n-1)과 현재 주기(n)의 심박 신호에 해당되는 R파(R(n))의 피크 지점인 RP(n) 간(R(n)-P(n-1))의 거리 또는 기울기, 이전 주기(n-1)의 심박 신호에 해당되는 P파(P(n-1))의 피크 지점인 PP(n-1)와 현재 주기(n)의 심박 신호에 해당되는 T파(T(n))의 피크 지점인 TP(n) 간(T(n)-P(n-1))의 거리 또는 기울기를 계산하여 특성 벡터로 추출할 수 있다. 이처럼, 형상 벡터 생성부(150)는 필터링이 수행된 심박 정보를 심박 정보에 대한 심박 특성 벡터를 추출할 수 있다.In this regard, when the heart rate signal includes a plurality of cycles and uses specific coordinates of two or more waveforms, the shape vector generator 150 generates a P wave (P) corresponding to the heart rate signal of the previous cycle (n-1). Between PP(n-1), the peak point of (n-1)), and RP(n), the peak point of the R wave (R(n)) corresponding to the heart rate signal of the current cycle (n) (R(n)) -The distance or slope of P(n-1)), the peak point of the P wave (P(n-1)) corresponding to the heart rate signal of the previous cycle (n-1), and PP(n-1) of the current cycle ( The distance or slope between TP(n) (T(n)-P(n-1)), which is the peak point of the T wave (T(n)) corresponding to the heart rate signal of n), can be calculated and extracted as a feature vector. You can. In this way, the shape vector generator 150 can extract a heart rate characteristic vector for the heart rate information from the filtered heart rate information.

한편, 형상 벡터 생성부(150)는 필터링이 수행된 음성 정보에서 특성 벡터를 추출하기 위해, MFCC(Mel Frequency Cepstral Cofficent) 방법을 이용하여 음성 정보에 포함된 음성 신호에 대한 특징 값을 계산할 수 있다. 이러한 MFCC 방법은 인간의 귀가 가지는 비선형적인 주파수 특성을 이용하여 스펙트럼 기반의 유효한 특징 값을 검출하는 방법이다. 이에, 형상 벡터 생성부(150)는 음성 신호의 특징 값을 MFCC 방법만을 사용하여 계산하는 것이 아닌, 공지된 다양한 방법에 의해 계산할 수 있으므로 이에 한정하지 않는다.Meanwhile, the shape vector generator 150 may calculate feature values for the voice signal included in the voice information using the MFCC (Mel Frequency Cepstral Cofficent) method in order to extract feature vectors from the filtered voice information. . This MFCC method is a method of detecting effective spectrum-based feature values using the nonlinear frequency characteristics of the human ear. Accordingly, the shape vector generator 150 can calculate the feature value of the voice signal not only using the MFCC method, but by various known methods, and is not limited to this.

이어서, 형상 벡터 생성부(150)는 MFCC 방법을 이용하여 계산한 음성 신호의 특정 값에 기초하여 음성 신호에 대한 특징 벡터를 추출할 수 있다. 이와 관련하여, 형상 벡터 생성부(150)는 MFCC 방법을 이용하여 음성 신호에 대한 특징 값 즉, 특징 시퀸스를 검출할 수 있다.Next, the shape vector generator 150 may extract a feature vector for the voice signal based on a specific value of the voice signal calculated using the MFCC method. In this regard, the shape vector generator 150 may detect a feature value, that is, a feature sequence, for the voice signal using the MFCC method.

또한, 형상 벡터 생성부(150)는 음성 신호의 특징 값에 바음-웰치 통계를 이용하여 결합 요인 분석 방법에 의한 i-벡터를 계산할 수 있다. 여기서, 바음- 웰치 통계는 공지된 기술로서 본 명세서에서는 설명을 생략하기로 한다.Additionally, the shape vector generator 150 may calculate the i-vector using the combined factor analysis method using Baum-Welch statistics for the feature values of the speech signal. Here, Baum-Welch statistics is a known technique, and description thereof will be omitted in this specification.

따라서, 형상 벡터 생성부(150)는 음성 신호의 특징 값을 통해 계산된 i-벡터를 음성 정보에 대한 음성 특성 벡터로 추출할 수 있다.Accordingly, the shape vector generator 150 can extract the i-vector calculated through the feature values of the voice signal as a voice feature vector for voice information.

한편, 형상 벡터 생성부(150)는 벡터 결합을 수행하는 특성 벡터 추출기를 더 이용하여 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보를 기초하여 추출한 얼굴 특성 벡터와 심박 신호에서 추출한 심박 특성 벡터와 음성 신호에서 추출한 음성 특성 벡터를 결합할 수 있다.Meanwhile, the shape vector generator 150 further uses a feature vector extractor that performs vector combining to extract a facial feature vector based on foreground extraction information, front feature point information, and front heat map information and a heart rate feature vector extracted from a heart rate signal. Voice feature vectors extracted from voice signals can be combined.

이때, 형상 벡터 생성부(150)는 추출한 각각의 특성 벡터를 입력으로 하여 각각의 특성 벡터가 결합된 형태로 출력하여 하나의 형상 벡터를 생성할 수 있다.At this time, the shape vector generator 150 may generate one shape vector by using each extracted feature vector as an input and outputting the feature vectors in a combined form.

한편, 판단부(170)는 형상 벡터 생성부(150)에서 생성된 형상 벡터에 기초하여 운전자의 감정 및 행동을 판단한다. 이때, 판단부(170)는 형상 벡터를 기 학습된 딥러닝 모델에 입력하여 운전자의 감정 및 행동을 판단할 수 있다. 이에 따른, 운전자의 감정은 정상, 놀라움, 슬픔, 행복, 두려움, 역겨움, 분노, 지루함 중 하나의 감정으로 판단하고, 운전자의 행동은 정상 운전, 하품, 눈의 깜박임, 거울 확인, 흡연, 휴대전화 사용 및 운전자의 시야 확인 중 하나의 행동으로 판단할 수 있다.Meanwhile, the determination unit 170 determines the driver's emotions and actions based on the shape vector generated by the shape vector generator 150. At this time, the determination unit 170 may determine the driver's emotions and behavior by inputting the shape vector into a previously learned deep learning model. Accordingly, the driver's emotions are judged as one of normal, surprise, sadness, happiness, fear, disgust, anger, and boredom, and the driver's behavior is normal driving, yawning, blinking, checking the mirror, smoking, and using a cell phone. It can be judged by one of the following actions: use and checking the driver's field of vision.

여기서, 딥러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집함으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 학습시키는 기계학습의 한 분야이다.Here, deep learning is defined as a collection of machine learning algorithms that attempt a high level of abstraction through a combination of several non-linear transformation techniques, and is a field of machine learning that teaches computers how to think in a large scale.

이에, 본 발명에서 운전자의 감정 및 행동을 추출하기 위해 사용되는 딥러닝 모델로는 신경망(Deep Neural networks)모델, CNN(Convolution Neural Networks)모델, DBN(Deep Believe networks)모델 및 잔차 신경망(Deep Residual Learning for image Recognition, ResNet)모델 중 하나의 모델이 사용될 수 있다. 이에, 본 발명에서는 공지된 잔차 신경망 모델의 구조를 변형한 34개 층의 잔차 신경망 모델을 사용하나 이에 한정하지 않는다.Accordingly, the deep learning models used to extract driver's emotions and behavior in the present invention include deep neural networks (Deep Neural networks) model, CNN (Convolution Neural Networks) model, DBN (Deep Believe networks) model, and Deep Residual Neural Network (DBN) model. One of the Learning for image Recognition (ResNet) models can be used. Accordingly, the present invention uses a 34-layer residual neural network model that modifies the structure of a known residual neural network model, but is not limited to this.

이에 따른, 34개 층의 잔차 신경망 모델은 이미지 분류 알고리즘 모델으로서, 알고리즘 모델의 깊은 계층을 사용할 때 정확도가 떨어지는 것을 방지하기 위한 지름길(Shortcut)이 추가되어 있다. 이러한, 잔차 신경망 모델은 34개 층으로 이루어진 구조로 사용되는 것이 가장 바람직하여 34개 층의 잔차 신경망 모델로 지칭하였으나 18개, 34개, 50개, 101개 및 152개 층 구조로 사용될 수 있으며 혹은 그보다 더 큰 층수의 구조로 이루어질 수 있다. Accordingly, the 34-layer residual neural network model is an image classification algorithm model, and a shortcut is added to prevent accuracy from decreasing when using deep layers of the algorithm model. This residual neural network model is most preferably used with a structure of 34 layers, so it is referred to as a 34-layer residual neural network model, but it can be used with a structure of 18, 34, 50, 101, and 152 layers. It can be composed of a structure with a larger number of floors.

이어서, 34개 층의 잔차 신경망 모델은 64개의 출력 채널과 3x3의 최대 풀링 레이어를 포함하는 7x7의 컨볼루션 레이어 및 각 컨볼루션 레이어 이후에 배치 정규화 레이어가 마련되고, 동일한 수의 출력 채널로 형성되는 복수의 잔차 블록으로 마련되는 4개의 모듈로 구성될 수 있다. 이때, 첫번째 모듈은 입력 채널 번호와 동일한 채널 수를 사용할 수 있다. Subsequently, the 34-layer residual neural network model has 64 output channels and a 7x7 convolutional layer including a 3x3 max pooling layer, and a batch normalization layer is provided after each convolutional layer, which is formed with the same number of output channels. It may be composed of four modules provided with a plurality of residual blocks. At this time, the first module can use the same number of channels as the input channel number.

이를 통해, 34개 층의 잔차 신경망 모델은 Inception 아키텍처 모델과 비교하여 후속 모듈의 첫 번째 잔차 블록의 채널 수는 이전 모듈(여기서, 첫번째 모듈)에 비해 2배, 높이와 너비는 절반으로 줄어들어 Inception 아키텍처 모델보다 더 간단하게 수정이 가능하여 최적화가 간단하고, 더 큰 층수의 구조로 마련되어 네트워크의 깊이가 증가하는 경우, 최적화가 간단하여 더 높은 정확도를 달성할 수 있다.Through this, compared to the Inception architecture model, the 34-layer residual neural network model has the number of channels of the first residual block of the subsequent module doubled compared to the previous module (here, the first module), and its height and width are reduced by half, resulting in the Inception architecture. Optimization is simple because it can be modified more simply than the model, and when the depth of the network increases by providing a structure with a larger number of layers, optimization is simpler and higher accuracy can be achieved.

따라서, 판단부(170)는 네트워크의 깊이가 증가할수록 더 높은 정확도를 제공하는 잔차 신경망 모델을 이용하여 운전자의 감정 및 행동 인식에서 발생하는 인식 오류 문제를 해결할 수 있으며, 판단부(170)는 수집된 영상 및 신호의 특성 벡터에 기초하여 더 높은 정확도로 운전자의 감정 및 행동을 판단할 수 있다.Therefore, the decision unit 170 can solve the problem of recognition errors occurring in recognition of the driver's emotions and actions by using a residual neural network model that provides higher accuracy as the depth of the network increases, and the decision unit 170 collects Based on the characteristic vectors of the images and signals, the driver's emotions and behavior can be judged with higher accuracy.

마지막으로, 출력부(190)는 판단부(170)에서 판단한 운전자의 감정 및 행동을 출력한다. 이와 관련하여, 자율주행 차량은 출력부(190)에서 출력한 운전자의 감정, 행동에 기초하여 차량의 기능을 제어할 수 있다. 예를 들어, 판단부(170)는 딥러닝 모델을 이용하여 운전자의 감정을 지루함으로 판단하고, 운전자의 행동을 하품으로 판단하며, 이에 따라, 출력부(190)는 운전자의 감정 및 행동을 지루함과 하품으로 출력한다. 이때, 자율주행 차량은 출력부(190)가 출력한 지루함과 하품을 기초하여 운전자가 피곤한 상태인 것으로 판단하여 차량의 창문으로 개방하거나, 신나는 노래를 재생하여 운전자의 상태가 변화하도록 차량의 기능을 제어할 수 있다. 또 다른 예를 들어, 판단부(170)는 딥러닝 모델을 이용하여 운전자의 감정을 분노로 판단하고, 운전자의 행동을 휴대전화 사용으로 판단하며, 이에 따라, 출력부는 분노와 휴대전화 사용으로 출력한다. 이때, 자율주행 차량은 출력부(190)가 출력한 분노와 휴대전화 사용을 기초하여 운전자가 휴대전화 사용 중 교통사고가 발생할 수 있는 상황이 이루어진 것으로 판단하여 차량의 속도를 제어하거나, 경고음을 발생하여 운전자가 운전에 집중하도록 차량의 기능을 제어할 수 있다.Finally, the output unit 190 outputs the driver's emotions and actions determined by the determination unit 170. In this regard, the autonomous vehicle can control vehicle functions based on the driver's emotions and actions output from the output unit 190. For example, the determination unit 170 determines the driver's emotion as bored and the driver's behavior as yawning using a deep learning model, and accordingly, the output unit 190 determines the driver's emotion and behavior as bored. and yawns. At this time, the autonomous vehicle determines that the driver is tired based on the boredom and yawning output from the output unit 190 and opens the vehicle window or plays an exciting song to change the driver's condition. You can control it. For another example, the determination unit 170 uses a deep learning model to determine the driver's emotion as anger and determines the driver's behavior as mobile phone use, and accordingly, the output unit outputs anger and mobile phone use. do. At this time, based on the anger output by the output unit 190 and the use of the mobile phone, the autonomous vehicle determines that a situation in which a traffic accident may occur while the driver is using the mobile phone has occurred and controls the speed of the vehicle or generates a warning sound. This allows the driver to control vehicle functions so that he or she can concentrate on driving.

이처럼, 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 상술한 구성을 통해 자율주행 차량의 효율성이 증대될 수 있도록, 운전자의 감정 및 행동을 모니터링하여 출력할 수 있다.In this way, the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention can monitor and output the driver's emotions and behavior so that the efficiency of the autonomous vehicle can be increased through the above-described configuration.

도 6은 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법의 흐름 도면이다.Figure 6 is a flow diagram of a driver monitoring method based on multi-sensor fusion according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은, 도 1의 다중 센서 융합기반 운전자 모니터링 장치(100)를 통해 수행되는 방법으로서, 다중 센서 융합기반 운전자 모니터링 장치(100)에서 수행되는 구성과 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 다중 센서 융합기반 운전자 모니터링 장치(100)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략하고자 한다.The multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention is a method performed through the multi-sensor fusion-based driver monitoring device 100 of FIG. 1, and is performed by the multi-sensor fusion-based driver monitoring device 100. It may be carried out in a configuration that is substantially the same as the configuration. Therefore, the same components as those of the multi-sensor fusion-based driver monitoring device 100 of FIG. 1 will be assigned the same reference numerals, and repeated descriptions will be omitted.

도 6을 참조하면, 본 발명의 다른 실시예에 따른 다중 센서 융합기반 모니터링 방법은 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계(610), 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계(630), 전처리가 수행된 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계(650), 형상 벡터에 기초하여 운전자의 감정 및 행동을 판단하는 판단 단계(670) 및 운전자의 감정 및 행동을 출력하는 출력 단계(690)를 포함한다.Referring to FIG. 6, the multi-sensor fusion-based monitoring method according to another embodiment of the present invention includes an information collection step 610 of collecting the driver's front image information and biometric information, and a preprocessing step of preprocessing the front image information and biometric information. (630), a shape vector generation step (650) of extracting each feature vector based on the preprocessed front image information and biometric information and combining each feature vector to generate a shape vector, the driver based on the shape vector It includes a judgment step 670 for determining the driver's emotions and actions and an output step 690 for outputting the driver's emotions and actions.

도 7은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 정보 수집 단계의 흐름 도면이다.FIG. 7 is a flow diagram of the information collection step of the multi-sensor fusion-based driver monitoring method of FIG. 6.

도 7를 참조하면, 정보 수집 단계(610)는 운전자의 전면 영상 정보를 수집하는 단계(611) 및 운전자의 심박 정보 및 운전자의 음성 정보를 포함하는 생체 정보를 수집하는 단계(613)를 포함할 수 있다. 이때, 정보 수집 단계(610)는 운전자의 전면 영상 정보를 수집하는 단계(611)와 운전자의 생체 정보를 수집하는 단계(613)를 동시에 수행할 수 있다.Referring to FIG. 7, the information collection step 610 may include a step 611 of collecting the driver's front image information and a step 613 of collecting biometric information including the driver's heart rate information and the driver's voice information. You can. At this time, the information collection step 610 may simultaneously perform the step 611 of collecting the driver's front image information and the step 613 of collecting the driver's biometric information.

한편, 도 8은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 전처리 단계의 흐름 도면이다.Meanwhile, FIG. 8 is a flow diagram of the preprocessing step of the multi-sensor fusion-based driver monitoring method of FIG. 6.

도 8을 참조하면, 전처리 단계(630)는 전면 영상 정보에서 운전자의 관심 영역을 설정하는 단계(631), 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계(633) 및 생체 정보에 포함된 심박 정보, 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계(635)를 포함할 수 있다.Referring to FIG. 8, the preprocessing step 630 is a step of setting the driver's area of interest in the front image information (631), and converting the front image information set as the area of interest into foreground extraction information, front feature point information, and front heat map information. It may include a step 633 of performing filtering to remove noise signals present in heart rate information and voice information included in biometric information (635).

이에, 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계(633)는 전면 영상 정보에서 전경 추출 정보로 변환하는 단계(633a), 전면 영상 정보에서 전면 특징점 정보로 변환하는 단계(633b), 전면 영상 정보에서 전면 히트맵 정보로 변환하는 단계(633c)를 포함하며, 각각의 단계는 동시에 수행되거나, 도 8에 도시되지는 않았지만, 전경 추출 정보로 변환하는 단계(633a), 전면 특징점 정보로 변환하는 단계(633b), 전면 히트맵 정보로 변환하는 단계(633c) 순서로 수행될 수 있다.Accordingly, the step 633 of converting the foreground extraction information, the front feature point information, and the front heatmap information includes the step of converting the front image information into the foreground extraction information (633a), and the step of converting the front image information into the front feature point information (633b). ), including a step 633c of converting front image information into front heat map information, and each step may be performed simultaneously, or, although not shown in FIG. 8, a step 633a of converting into foreground extraction information, front feature point The step of converting to information (633b) and the step of converting to front heatmap information (633c) may be performed in this order.

한편, 전처리 단계(630)는, 운전자의 관심 영역을 설정하는 단계(631)와 필터링을 수행하는 단계(635)를 동시에 수행할 수 있다.Meanwhile, the preprocessing step 630 may simultaneously perform the step 631 of setting the driver's area of interest and the step 635 of performing filtering.

이와 관련하여, 필터링을 수행하는 단계(635)는, 심박 정보에서 잡음 신호를 제거하는 필터링을 수행하는 단계(635a) 및 음성 신호에서 잡음 신호를 제거하는 필터링을 수행하는 단계(635b)를 포함하며, 각각의 단계는 동시에 수행되거나, 도 8에 도시되지 않았지만, 심박 정보에서 필터링을 수행하는 단계(635a), 음성 신호에서 필터링을 수행하는 단계(635b) 순서로 수행될 수 있다.In this regard, the step of performing filtering (635) includes performing filtering to remove noise signals from heart rate information (635a) and performing filtering to remove noise signals from voice signals (635b), , each step may be performed simultaneously, or, although not shown in FIG. 8, may be performed in the order of step 635a of performing filtering on the heart rate information and step 635b of performing filtering on the voice signal.

이를 통해, 형상 벡터 생성 단계(650)는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 전경 추출 정보, 전면 특징 정보 및 전면 히트맵 정보와 생체 정보에 포함된 심박 정보 및 음성 정보에 기초하여 각각의 특성 벡터를 추출하는 단계 및 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성하는 단계를 포함할 수 있다.Through this, the shape vector generation step 650 uses a feature vector extractor that performs vector combining based on foreground extraction information, front feature information, front heat map information, and heart rate information and voice information included in biometric information, respectively. It may include extracting feature vectors and combining each feature vector to create one shape vector.

이처럼, 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은 상술한 단계를 통해 자율주행 차량의 효율성이 증대될 수 있도록, 운전자의 감정 및 행동을 모니터링하여 출력할 수 있다.As such, the multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention can monitor and output the driver's emotions and behavior so that the efficiency of the autonomous vehicle can be increased through the above-described steps.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the following patent claims. You will be able to.

100 : 다중 센서 융합기반 운전자 모니터링 장치
110 : 정보 수집부
111 : 영상 수집부
113 : 생체 수집부, 113a : 심박 수집부, 113b : 음성 수집부
130 : 전처리부
150 : 형상 벡터 생성부
170 : 판단부
190 : 출력부
100: Multi-sensor fusion-based driver monitoring device
110: Information collection department
111: Video collection unit
113: biometric collection unit, 113a: heart rate collection unit, 113b: voice collection unit
130: preprocessing unit
150: Shape vector generation unit
170: Judgment unit
190: output unit

Claims (8)

운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집부;
상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리부;
상기 전처리부에서 전처리된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성부;
상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단부; 및
상기 운전자의 감정 및 행동을 출력하는 출력부;를 포함하는 것을 특징으로 하고,
상기 형상 벡터 생성부는,
벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 생체 정보에 포함된 심박 정보의 특성 벡터를 추출하고,
상기 심박 정보의 특성 벡터를 추출하는 것은,
상기 심박 정보에 포함된 심박 신호로부터 파형을 검출하고 검출된 각 파형들로부터 특정 좌표를 추출하며,
상기 심박 신호가 복수 개의 주기를 갖는 경우, 현재 주기에 해당하는 심박 신호와 이전 주기에 해당하는 심박 신호에서 추출된 각 파형들의 특정 좌표를 각 주기에서 하나 이상 선택하여 특성 벡터를 추출하되,
상기 심박 신호가 복수 개의 주기를 포함하고 두 개 이상의 파형의 특정 좌표를 사용할 경우, 이전 주기에 해당하는 심박 신호의 피크 지점과 현재 주기에 해당하는 심박 신호의 피크 지점의 거리 또는 기울기를 계산하여 상기 특성 벡터를 추출하는 것인, 다중 센서 융합기반 운전자 모니터링 장치.
An information collection unit that collects the driver's front image information and biometric information;
a preprocessing unit that preprocesses the front image information and biometric information;
a shape vector generator that extracts each feature vector based on the front image information and biometric information preprocessed in the preprocessor and combines the feature vectors to generate a shape vector;
a determination unit that determines the driver's emotions and actions based on the shape vector; and
Characterized in that it includes an output unit that outputs the driver's emotions and actions,
The shape vector generator,
Extracting a feature vector of heart rate information included in the biometric information using a feature vector extractor that performs vector combining,
Extracting the feature vector of the heart rate information includes:
Detecting a waveform from the heart rate signal included in the heart rate information and extracting specific coordinates from each detected waveform,
When the heart rate signal has a plurality of cycles, a feature vector is extracted by selecting one or more specific coordinates of each waveform extracted from the heart rate signal corresponding to the current cycle and the heart rate signal corresponding to the previous cycle in each cycle,
When the heart rate signal includes a plurality of cycles and uses specific coordinates of two or more waveforms, the distance or slope between the peak point of the heart rate signal corresponding to the previous cycle and the peak point of the heart rate signal corresponding to the current cycle is calculated. A driver monitoring device based on multi-sensor fusion that extracts characteristic vectors.
제1항에 있어서,
상기 정보 수집부는,
상기 운전자의 전면 영상 정보를 수집하는 영상 수집부; 및
상기 운전자의 심박 정보를 수집하는 심박 수집부와 상기 운전자의 음성 정보를 수집하는 음성 수집부를 포함하여 상기 운전자의 생체 정보를 수집하는 생체 수집부;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.
According to paragraph 1,
The information collection department,
an image collection unit that collects front image information of the driver; and
A biometric collection unit that collects the driver's biometric information, including a heart rate collection unit that collects the driver's heart rate information and a voice collection unit that collects the driver's voice information; a multi-sensor fusion-based driver comprising a. Monitoring device.
제2항에 있어서,
상기 전처리부는,
상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하되, 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하고, 상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.
According to paragraph 2,
The preprocessor,
The driver's area of interest is set in the front image information, and the front image information set as the area of interest is converted into foreground extraction information, front feature point information, and front heat map information, and the heart rate information included in the biometric information, A driver monitoring device based on multi-sensor fusion, characterized in that it performs filtering to remove noise signals present in voice information.
제3항에 있어서,
상기 형상 벡터 생성부는,
상기 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전면 영상 정보에서 변환된 상기 전경 추출 정보, 상기 전면 특징점 정보 및 전면 히트맵 정보와 상기 생체 정보에서 잡음 신호가 제거된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하고 상기 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.
According to paragraph 3,
The shape vector generator,
The foreground extraction information, the front feature point information and front heat map information converted from the front image information using the feature vector extractor that performs the vector combination, and the heart rate information and the voice information from which noise signals are removed from the biometric information. A driver monitoring device based on multi-sensor fusion, characterized in that extracting each feature vector based on and combining each feature vector to generate one shape vector.
다중 센서 융합기반 운전자 모니터링 장치를 통해 수행되는 운전자 모니터링 방법에 있어서,
운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계;
상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계;
전처리가 수행된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계;
상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단 단계; 및
상기 운전자의 감정 및 행동을 출력하는 출력 단계;를 포함하는 것을 특징으로 하고,
상기 형상 벡터 생성 단계는,
벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 생체 정보에 포함된 심박 정보의 특성 벡터를 추출하는 것이고,
상기 심박 정보의 특성 벡터를 추출하는 것은,
상기 심박 정보에 포함된 심박 신호로부터 파형을 검출하고 검출된 각 파형들로부터 특정 좌표를 추출하며,
상기 심박 신호가 복수 개의 주기를 갖는 경우, 현재 주기에 해당하는 심박 신호와 이전 주기에 해당하는 심박 신호에서 추출된 각 파형들의 특정 좌표를 각 주기에서 하나 이상 선택하여 특성 벡터를 추출하되,
상기 심박 신호가 복수 개의 주기를 포함하고 두 개 이상의 파형의 특정 좌표를 사용할 경우, 이전 주기에 해당하는 심박 신호의 피크 지점과 현재 주기에 해당하는 심박 신호의 피크 지점의 거리 또는 기울기를 계산하여 상기 특성 벡터를 추출하는 것인, 다중 센서 융합기반 운전자 모니터링 방법.
In a driver monitoring method performed through a multi-sensor fusion-based driver monitoring device,
An information collection step of collecting the driver's front image information and biometric information;
A preprocessing step of preprocessing the front image information and biometric information;
A shape vector generation step of extracting each feature vector based on the preprocessed front image information and biometric information and combining the feature vectors to generate a shape vector;
a determination step of determining the driver's emotions and actions based on the shape vector; and
Characterized in that it includes an output step of outputting the driver's emotions and actions,
The shape vector generation step is,
Extracting the feature vector of heart rate information included in the biometric information using a feature vector extractor that performs vector combining,
Extracting the feature vector of the heart rate information includes:
Detecting a waveform from the heart rate signal included in the heart rate information and extracting specific coordinates from each detected waveform,
When the heart rate signal has a plurality of cycles, a characteristic vector is extracted by selecting one or more specific coordinates of each waveform extracted from the heart rate signal corresponding to the current cycle and the heart rate signal corresponding to the previous cycle in each cycle,
When the heart rate signal includes a plurality of cycles and uses specific coordinates of two or more waveforms, the distance or slope between the peak point of the heart rate signal corresponding to the previous cycle and the peak point of the heart rate signal corresponding to the current cycle is calculated and A multi-sensor fusion-based driver monitoring method that extracts feature vectors.
제5항에 있어서,
상기 정보 수집 단계는,
상기 운전자의 전면 영상 정보를 수집하는 단계; 및
상기 운전자의 심박 정보 및 상기 운전자의 음성 정보를 포함하는 상기 생체 정보를 수집하는 단계;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 방법.
According to clause 5,
The information collection step is,
collecting front image information of the driver; and
A multi-sensor fusion-based driver monitoring method comprising: collecting the biometric information including the driver's heart rate information and the driver's voice information.
제6항에 있어서,
상기 전처리 단계는,
상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하는 단계;
상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계; 및
상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계;를 포함하는, 다중 센서 융합기반 운전자 모니터링 방법.
According to clause 6,
The preprocessing step is,
setting a region of interest for the driver in the front image information;
Converting the front image information set as the region of interest into foreground extraction information, front feature point information, and front heat map information; and
A driver monitoring method based on multi-sensor fusion, comprising: performing filtering to remove noise signals present in the heart rate information and the voice information included in the biometric information.
제7항에 있어서,
상기 형상 벡터 생성 단계는,
상기 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전경 추출 정보, 상기 전면 특징점 정보 및 상기 전면 히트맵 정보와 상기 생체 정보에 포함된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하는 단계; 및
상기 각각의 특성 벡터를 결합하여 하나의 상기 형상 벡터로 생성하는 단계를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 방법.
In clause 7,
The shape vector generation step is,
Using a feature vector extractor that performs the vector combination, each feature vector is generated based on the heart rate information and the voice information included in the foreground extraction information, the front feature point information, the front heat map information, and the biometric information. Extracting step; and
A driver monitoring method based on multi-sensor fusion, comprising combining the respective feature vectors to generate one shape vector.
KR1020220045818A 2022-02-18 2022-04-13 Multi sensor fusion-based driver monitoring device and method KR102596957B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/017955 WO2023158060A1 (en) 2022-02-18 2022-11-15 Multi-sensor fusion-based driver monitoring apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220021286 2022-02-18
KR20220021286 2022-02-18

Publications (2)

Publication Number Publication Date
KR20230124837A KR20230124837A (en) 2023-08-28
KR102596957B1 true KR102596957B1 (en) 2023-11-03

Family

ID=87806390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220045818A KR102596957B1 (en) 2022-02-18 2022-04-13 Multi sensor fusion-based driver monitoring device and method

Country Status (1)

Country Link
KR (1) KR102596957B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124642A (en) * 2020-02-06 2021-08-30 本田技研工業株式会社 Information processing device, vehicle, program, and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101241841B1 (en) 2010-12-15 2013-03-11 전북대학교산학협력단 Soybean paste having dioscorea japonica and manufacturing method for the same
KR20140080727A (en) * 2012-12-14 2014-07-01 한국전자통신연구원 System and method for controlling sensibility of driver

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124642A (en) * 2020-02-06 2021-08-30 本田技研工業株式会社 Information processing device, vehicle, program, and information processing method

Also Published As

Publication number Publication date
KR20230124837A (en) 2023-08-28

Similar Documents

Publication Publication Date Title
KR100847143B1 (en) System and Method for analyzing of human motion based silhouettes of real-time video stream
KR102451795B1 (en) ECG signal detection method
KR100958030B1 (en) Emotion recognition mothod and system based on decision fusion
CN110555468A (en) Electroencephalogram signal identification method and system combining recursion graph and CNN
CN111089604B (en) Body-building exercise identification method based on wearable sensor
CN110638430B (en) Method for building cascade neural network ECG signal arrhythmia classification model
JP2010257140A (en) Apparatus and method for processing information
Abtahi et al. Emotion analysis using audio/video, emg and eeg: A dataset and comparison study
CN108921010B (en) Pupil detection method and detection device
CN113920568A (en) Face and human body posture emotion recognition method based on video image
CN111079465A (en) Emotional state comprehensive judgment method based on three-dimensional imaging analysis
CN116129405A (en) Method for identifying anger emotion of driver based on multi-mode hybrid fusion
CN114081513B (en) Electromyographic signal-based abnormal driving behavior detection method and system
CN110728993A (en) Voice change identification method and electronic equipment
Tong et al. Automatic assessment of dysarthric severity level using audio-video cross-modal approach in deep learning
KR102596957B1 (en) Multi sensor fusion-based driver monitoring device and method
Yu et al. Drowsydet: A mobile application for real-time driver drowsiness detection
CN113342166B (en) Cervical vertebra movement identification method and system based on protection of privacy of earphone
Zhang et al. A posture recognition system for rat cyborg automated navigation
WO2023158060A1 (en) Multi-sensor fusion-based driver monitoring apparatus and method
CN111899713A (en) Method, device, equipment and storage medium for silencing communication
CN114767112A (en) Emotion recognition method and device and electronic equipment
KR102540057B1 (en) Emotion recognition system using image and electrocardiogram
Mahmood et al. Contextual Anomaly Detection Based Video Surveillance System
KR102593035B1 (en) Method and apparatus for diagnosing epilepsy based on deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right