WO2023158060A1 - Multi-sensor fusion-based driver monitoring apparatus and method - Google Patents

Multi-sensor fusion-based driver monitoring apparatus and method Download PDF

Info

Publication number
WO2023158060A1
WO2023158060A1 PCT/KR2022/017955 KR2022017955W WO2023158060A1 WO 2023158060 A1 WO2023158060 A1 WO 2023158060A1 KR 2022017955 W KR2022017955 W KR 2022017955W WO 2023158060 A1 WO2023158060 A1 WO 2023158060A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
driver
front image
image information
vector
Prior art date
Application number
PCT/KR2022/017955
Other languages
French (fr)
Korean (ko)
Inventor
한동석
알윈폴로즈
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220045818A external-priority patent/KR102596957B1/en
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Publication of WO2023158060A1 publication Critical patent/WO2023158060A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a multi-sensor fusion-based driver monitoring apparatus and method, and the multi-sensor fusion-based driver monitoring apparatus according to the present invention monitors and outputs emotions and actions of a driver such that efficiency of an autonomous vehicle is increased, by comprising: an information collecting unit for collecting biometric information and front image information of the driver; a preprocessing unit for preprocessing the biometric information and the front image information; a shape vector generating unit that extracts respective feature vectors on the basis of the biometric information and front image information, which are preprocessed by the preprocessing unit, and generates a shape vector by combining the respective feature vectors; a determining unit for determining emotions and actions of the driver on the basis of the shape vector; and an output unit for outputting the emotions and actions of the driver.

Description

다중 센서 융합기반 운전자 모니터링 장치 및 방법Multi-sensor fusion-based driver monitoring device and method
본 발명은 다중 센서 융합기반 운전자 모니터링 장치 및 방법에 관한 것으로, 더욱 상세하게는 운전자의 전면 영상과 생체 신호를 통해 운전자의 감정과 활동을 판단하는 다중 센서 융합기반 운전자 모니터링 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for driver monitoring based on multi-sensor convergence, and more particularly, to an apparatus and method for driver monitoring based on multi-sensor convergence that determines the driver's emotions and activities through an image of the driver's front and bio signals.
종래의 운전자 주의 모니터라고 알려진 운전자 모니터링 시스템(DMS)은 자율 주행 차량에서 매우 중요한 역할을 한다.A driver monitoring system (DMS), conventionally known as a driver attention monitor, plays a very important role in autonomous vehicles.
운전자 모니터링 시스템은 차량 내부에 마련된 카메라, 생체 인식 장치 등 하드웨어 장치를 통해 운전자의 영상을 획득하여 얼굴 인식, 피로도 감지, 전방 주시 감지 및 제스처 감지 등 운전자가 수행하는 행동을 판단하며, 운전자의 영상을 기초하여 운전자의 감정을 판단한다.The driver monitoring system acquires the driver's image through hardware devices such as cameras and biometric devices installed inside the vehicle, judges the driver's actions such as face recognition, fatigue detection, forward gaze detection and gesture detection, and monitors the driver's image. based on the driver's emotions.
운전자의 감정 또는 행동은 자율 주행 차량에서 안전한 주행과 차량 자율 주행 효율 향상에 많은 도움이 되는 정보로서 사용되며, 운전자 모니터링 시스템은 자율주행을 효율적으로 구현하기 위해 실시간으로 운전자의 감정 또는 행동을 정보 처리 지연없이 수행할 수 있는 기술이 필요하다.The driver's emotions or behaviors are used as information that is very helpful in safe driving and improving the efficiency of vehicle autonomous driving in autonomous vehicles, and the driver monitoring system processes the driver's emotions or behaviors in real time to efficiently implement autonomous driving. You need a skill that can be done without delay.
하지만, 운전자의 감정 또는 행동을 정보 처리 없이 수행하는 기술은 운전자의 행동 또는 감정을 판단하는 과정에서 발생하는 오류로부터 자유롭지 않은 문제점과 실시간으로 구현되는 자율주행 시스템에서의 오류가 번번히 발생하는 문제점이 발생한다.However, the technology that performs the driver's emotion or behavior without information processing has problems that are not free from errors that occur in the process of judging the driver's behavior or emotion, and that errors frequently occur in real-time autonomous driving systems. do.
따라서, 분류 오류 및 구현 오류에서 자유롭고 실시간으로 운전자의 감정 또는 행동을 판단하는 기술에 대한 연구개발이 필요한 실정이다.Therefore, there is a need for research and development on a technology for determining a driver's emotion or behavior in real time free from classification errors and implementation errors.
[선행기술문헌][Prior art literature]
[특허문헌][Patent Literature]
(특허문헌 1) (대한민국)등록특허공보 제10-1241841호(Patent Document 1) (Republic of Korea) Patent Registration No. 10-1241841
본 발명은 상기와 같은 문제를 해결하기 위해, 안출된 것으로, 본 발명의 목적은, 분류 오류 감소와 동시에 운전자의 감정과 행동을 동시에 예측하는 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공하는 것이다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a multi-sensor fusion-based driver monitoring apparatus and method that simultaneously predicts driver's emotions and behaviors while reducing classification errors.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치는, 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집부; 상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리부; 상기 전처리부에서 전처리된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성부; 상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단부; 및 상기 운전자의 감정 및 행동을 출력하는 출력부;를 포함한다.To achieve the above object, a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention includes an information collection unit that collects driver's front image information and biometric information; a pre-processing unit pre-processing the front image information and biometric information; a shape vector generating unit extracting each feature vector based on the front image information and biometric information preprocessed by the pre-processing unit and generating a shape vector by combining the respective feature vectors; a determination unit determining the driver's emotion and behavior based on the shape vector; and an output unit outputting the driver's emotions and behaviors.
여기서, 상기 정보 수집부는, 상기 운전자의 전면 영상 정보를 수집하는 영상 수집부; 및 상기 운전자의 심박 정보를 수집하는 심박 수집 부와 상기 운전자의 음성 정보를 수집하는 음성 수집부를 포함하여 상기 운전자의 생체 정보를 수집하는 생체 수집부;를 포함할 수 있다.Here, the information collection unit may include: an image collection unit collecting front image information of the driver; and a biometric collection unit that collects biometric information of the driver, including a heart rate collection unit that collects the driver's heart rate information and a voice collection unit that collects the driver's voice information.
이에, 상기 전처리부는, 상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하되, 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하고, 상기 심박 정보에 존재하는 잡음 신호를 제거하는 심박 필터링을 수행하며, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 음성 필터링을 수행할 수 있다.Accordingly, the pre-processing unit sets the driver's region of interest from the front image information, converts the front image information set as the region of interest into foreground extraction information, front feature point information, and front heat map information, and presents them in the heartbeat information. Heartbeat filtering may be performed to remove a noise signal of the voice information, and voice filtering may be performed to remove a noise signal present in the voice information.
이에 따라, 상기 특성 벡터 생성부는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전면 영상 정보에서 변환된 상기 전경 추출 정보, 상기 전면 특징점 정보 및 전면 히트맵 정보와 상기 생체 정보에서 잡음 신호가 제거된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하고 상기 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성할 수 있다.Accordingly, the feature vector generation unit removes noise signals from the foreground extraction information converted from the front image information, the front feature point information, the front heat map information, and the biometric information by using a feature vector extractor that performs vector combining. Each feature vector may be extracted based on the heartbeat information and the voice information, and a single shape vector may be generated by combining the feature vectors.
본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은, 다중 센서 융합기반 운전자 모니터링 장치를 통해 수행되며, 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계; 상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계; 전처리가 수행된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계; 상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단 단계; 및 상기 운전자의 감정 및 행동을 출력하는 출력 단계;를 포함한다.A multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention is performed through a multi-sensor fusion-based driver monitoring device, and includes an information collection step of collecting driver's front image information and biometric information; a preprocessing step of preprocessing the front image information and biometric information; a shape vector generation step of extracting each feature vector based on the preprocessed front image information and biometric information, and generating a shape vector by combining the respective feature vectors; a determination step of determining the driver's emotion and behavior based on the shape vector; and an output step of outputting the driver's emotions and behaviors.
여기서, 상기 정보 수집 단계는, 상기 운전자의 전면 영상 정보를 수집하는 단계; 및 상기 운전자의 심박 정보 및 상기 운전자의 음성 정보를 포함하는 상기 생체 정보를 수집하는 단계;를 포함할 수 있다.Here, the information collection step may include collecting front image information of the driver; and collecting the biometric information including the driver's heartbeat information and the driver's voice information.
이에, 상기 전처리 단계는, 상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하는 단계; 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계; 및 상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계;를 포함할 수 있다.Accordingly, the preprocessing step may include setting a region of interest of the driver in the front image information; converting front image information set as the region of interest into foreground extraction information, front feature point information, and front heat map information; and performing filtering to remove a noise signal present in the heartbeat information and the voice information included in the biometric information.
이에 따라, 상기 형상 벡터 생성 단계는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전경 추출 정보, 상기 전면 특징정 정보 및 상기 전면 히트맵 정보와 상기 생체 정보에 포함된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하는 단계; 및 상기 각각의 특성 벡터를 결합하여 하나의 상기 형상 벡터로 생성하는 단계를 포함할 수 있다.Accordingly, in the shape vector generating step, the foreground extraction information, the front surface feature information, the front heat map information, and the heartbeat information and the voice included in the biometric information are performed by using a feature vector extractor that performs vector combining. extracting each feature vector based on the information; and generating a single shape vector by combining the respective feature vectors.
상술한 본 발명의 일측면에 따르면, 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공함으로써, 서로 다른 장치에서 측정된 운전자의 정보를 결합하는 과정에서 발생하는 결합 오류 문제와 운전자의 감정 및 행동 인식에서 발생하는 인식 오류 문제가 해결할 수 있다.According to one aspect of the present invention described above, by providing a multi-sensor convergence-based driver monitoring device and method, the combination error problem occurring in the process of combining driver information measured by different devices and the driver's emotion and behavior recognition Recognition error problems that occur can be solved.
또한, 다중 센서 융합기반 운전자 모니터링 장치 및 방법을 제공함으로써, 자율주행 시 운전자의 편의성과 자율주행에 대한 효율성이 증가될 수 있다.In addition, by providing a driver monitoring device and method based on multi-sensor convergence, the driver's convenience and efficiency of autonomous driving can be increased.
도 1은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치의 블록 도면이다.1 is a block diagram of a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention.
도 2는 도 1의 정보 수집부의 블록 도면이다.FIG. 2 is a block diagram of an information collection unit of FIG. 1 .
도 3은 도 1의 다중 센서 융합기반 운전자 모니터링 장치의 도면이다.FIG. 3 is a diagram of the multi-sensor fusion-based driver monitoring device of FIG. 1 .
도 4는 도 1의 전처리부에서 전면 영상 정보를 전경 추출 정보로 변환하는 전처리를 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining pre-processing of converting front image information into foreground extraction information in the pre-processing unit of FIG. 1 .
도 5는 도 1의 전처리부에서 전면 영상 정보를 전면 특징정 정보로 변환하는 전처리를 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining pre-processing of converting front image information into front feature information in the pre-processing unit of FIG. 1 .
도 6은 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법의 흐름 도면이다.6 is a flowchart of a multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention.
도 7은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 정보 수집 단계의 흐름 도면이다.FIG. 7 is a flowchart of an information collection step of the multi-sensor fusion-based driver monitoring method of FIG. 6 .
도8은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 전처리 단계의 흐름 도면이다.8 is a flowchart of a preprocessing step of the multi-sensor fusion-based driver monitoring method of FIG. 6 .
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention which follows refers to the accompanying drawings which illustrate, by way of illustration, specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable one skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different from each other but are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in another embodiment without departing from the spirit and scope of the invention in connection with one embodiment. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description set forth below is not to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all equivalents as claimed by those claims. Like reference numbers in the drawings indicate the same or similar function throughout the various aspects.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제헌하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다, 비록"제1", 제2"등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and "comprising" do not exclude the presence or addition of one or more other elements other than the recited elements. Throughout the specification, like reference numerals refer to like elements, and “and/or” includes each and all combinations of one or more of the recited elements, even though “first”, “second”, etc. are various elements. However, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another component. Therefore, the first mentioned below Of course, the component may be the second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used herein may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
먼저, 도 1 내지 도 5를 통해 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치에 대하여 설명한다.First, a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5 .
도 1은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)의 블록 도면이다.1 is a block diagram of a multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 정보 수집부(110), 전처리부(130), 형상 벡터 생성부(150), 판단부(170) 및 출력부(190)를 포함한다.Referring to FIG. 1 , a multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention includes an information collection unit 110, a pre-processing unit 130, a shape vector generator 150, and a determination unit 170. ) and an output unit 190.
본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 차량 옵션 기능으로 구현되도록 차량 제어 시스템의 일부 모듈이거나 별도의 단말일 수 있다. 또한, 정보 수집부(110), 전처리부(130), 형상 벡터 생성부(150), 판단부(170) 및 출력부(190)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어 질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention may be a part of a vehicle control system or a separate terminal to be implemented as a vehicle option function. In addition, the configuration of the information collection unit 110, the pre-processing unit 130, the shape vector generation unit 150, the determination unit 170, and the output unit 190 may be formed as an integrated module or composed of one or more modules. there is. However, on the contrary, each component may be composed of a separate module.
또한, 다중 센서 융합기반 운전자 모니터링 장치(100)는 이동성을 갖거나 고정될 수 있다. 예를 들어 다중 센서 융합기반 운전자 모니터링 장치(100)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.In addition, the multi-sensor fusion-based driver monitoring device 100 may be mobile or fixed. For example, the multi-sensor fusion-based driver monitoring apparatus 100 may be in the form of a server or an engine, and may include a device, an apparatus, a terminal, a user equipment (UE), It may be called by other terms such as mobile station (MS), wireless device, handheld device, etc.
또한, 다중 센서 융합기반 운전자 모니터링 장치(100)는 운영체제(Operation System: OS) 즉, 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 여기서 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베러 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.In addition, the multi-sensor fusion-based driver monitoring device 100 may execute or manufacture various software based on an operating system (OS), that is, a system. Here, the operating system is a system program for enabling software to use the hardware of the device, and includes mobile computer operating systems such as Android OS, Windows mobile OS, Bada OS, Symbian OS, Blackberry OS, and Windows-based, Linux-based, Unix-based, MAC, It can include all computer operating systems such as AIX and HP-UX.
도 2는 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)에 포함되는 정보 수집부(110)의 블록 도면이다.2 is a block diagram of the information collection unit 110 included in the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention.
먼저, 정보 수집부(110)는 운전자의 전면 영상 정보 및 생체 정보를 수집한다.First, the information collection unit 110 collects driver's front image information and biometric information.
이때, 정보 수집부(110)는 차량 내 구비되는 카메라, 비젼 센서 및 모션 인식 센서 중 어느 하나의 촬영 수단에서 촬영된 운전자의 얼굴 영상을 운전자의 전면 영상 정보로서 수집할 수 있다. 이를 위해, 정보 수집부(110)는 운전자의 전면 영상 정보를 수집하는 영상 수집부(111)를 포함할 수 있다.At this time, the information collection unit 110 may collect the driver's face image captured by any one of a camera, a vision sensor, and a motion recognition sensor provided in the vehicle as the driver's front image information. To this end, the information collection unit 110 may include an image collection unit 111 that collects front image information of the driver.
또한, 정보 수집부(110)는 사용자의 생체 정보를 수집하는 생체 수집부(113)를 더 포함할 수 있다. 이때, 생체 수집부(113)는 사용자의 심박 정보를 수집하는 심박 수집부(11a)와 사용자의 음성 정보를 수집하는 음성 수집부(113b)를 포함할 수 있다.In addition, the information collection unit 110 may further include a biometric collection unit 113 that collects user's biometric information. In this case, the biometric collection unit 113 may include a heartbeat collection unit 11a that collects heartbeat information of the user and a voice collection unit 113b that collects voice information of the user.
이러한, 생체 수집부(113)에 포함된 심박 수집부(113a)는 운전자가 착용한 스마트 워치(smart watch) 또는 운전자의 심박수를 측정할 수 있는 심박 측정 장치 중 어느 하나의 심박 측정 수단에서 측정된 운전자의 심박을 심박 정보로서 수집하고, 음성 수집부(113b)는 차량 내 구비되는 마이크, 음성 입출력 장치 및 음성 인식 센서 중 어느 하나의 음성 인식 수단에서 측정된 운전자의 음성을 음성 정보로서 수집할 수 있다. 여기서, 운전자의 심박수를 측정하는 스마트 워치는 스마트 워치 시장에 존재하는 갤럭시 워치 시리즈, 애플 워치 시리즈 등 운전자의 심박을 측정할 수 있는 시계 형태로 마련된 장치로 사용되는 것이 바람직하나, 이에 한정하지 않는다.The heart rate collection unit 113a included in the biometric collection unit 113 is a smart watch worn by the driver or a heart rate measuring device capable of measuring the driver's heart rate. The driver's heartbeat may be collected as heartbeat information, and the voice collection unit 113b may collect the driver's voice measured by a voice recognition means of any one of a microphone, a voice input/output device, and a voice recognition sensor provided in the vehicle as voice information. there is. Here, the smart watch that measures the driver's heart rate is preferably used as a watch-type device that can measure the driver's heart rate, such as the Galaxy Watch series and Apple Watch series that exist in the smart watch market, but is not limited thereto.
도 3은 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치의 도면이다.3 is a diagram of a multi-sensor fusion-based driver monitoring device according to an embodiment of the present invention.
도 3을 참조하면, 전처리부(130)는 정보 수집부(110)에서 운전자의 전면 영상 정보와 생체 정보를 수집하면, 수집된 운전자의 전면 영상 정보 및 생체 정보를 전처리한다.Referring to FIG. 3 , the pre-processing unit 130 preprocesses the collected driver's front image information and biometric information when the information collection unit 110 collects driver's front image information and biometric information.
먼저, 전처리부(130)는 정보 수집부(110)에서 수집된 전면 영상 정보에서 관심 영역(region of interest, ROI)을 설정할 수 있다.First, the pre-processing unit 130 may set a region of interest (ROI) in front image information collected by the information collecting unit 110 .
이에, 전처리부(130)는 정보 수집부(110)에서 수집된 전면 영상 정보에 따라 전면 영상 정보에 포함된 일부 영역을 선택하고, 선택된 일부 영역을 관심 영역으로 설정할 수 있다.Accordingly, the pre-processing unit 130 may select a partial region included in the front image information according to the front image information collected by the information collection unit 110 and set the selected partial region as a region of interest.
이러한, 전처리부(130)는 하나의 모듈로 마련되어 운전자의 전면 영상 정보와 생체 정보의 전처리를 동시에 수행하거나, 복수의 전처리 모듈로 마련되어 각각의 전처리 모듈에서 전면 영상 정보와 생체 정보에 대한 전처리를 동시에 수행하여 서로 다른 정보로 변환할 수 있다. 이에 따라, 본 발명의 명세서에서는 용이한 설명을 위해 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)에 포함된 전처리부(130)를 복수의 전처리 모듈로 마련되는 것으로 기재하나, 이에 한정하지 않는다.The pre-processing unit 130 is provided as a single module to perform pre-processing of the driver's front image information and biometric information at the same time, or is provided as a plurality of pre-processing modules and pre-processes the front image information and biometric information simultaneously in each pre-processing module. It can be converted into different information by performing Accordingly, in the specification of the present invention, for easy description, the pre-processing unit 130 included in the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention is described as being provided with a plurality of pre-processing modules. , but not limited to
이에 따라, 전처리부(130)는 도 3에 도시되지는 않았지만, 전면 영상 정보를 전처리하는 제1 전처리 모듈, 운전자의 생체 정보를 전처리하는 제2 전처리 모듈을 포함할 수 있다.Accordingly, although not shown in FIG. 3 , the pre-processing unit 130 may include a first pre-processing module for pre-processing the front image information and a second pre-processing module for pre-processing the driver's biometric information.
먼저, 제1 전처리 모듈이 정보 수집부(110)에서 수집하고, 관심 영역이 설정된 운전자의 전면 영상 정보를 전처리하는 과정을 도 4 및 도 5를 참조하여 설명한다.First, a process in which the first pre-processing module pre-processes the front image information of the driver, which is collected by the information collection unit 110 and has a region of interest set, will be described with reference to FIGS. 4 and 5 .
도 4는 도 1의 전처리부(130)에서 전면 영상 정보를 전경 추출 정보로 변환하는 전처리를 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining pre-processing of converting front image information into foreground extraction information in the pre-processing unit 130 of FIG. 1 .
도 4를 참조하면, 전처리부(130)에 포함된 제1 전처리 모듈은 정보 수집부(110)에서 수집되어 관심 영역이 설정된 운전자의 전면 영상 정보를 전처리하여 전경 추출 정보로 변환할 수 있다.Referring to FIG. 4 , the first pre-processing module included in the pre-processing unit 130 may pre-process the driver's front image information, which is collected by the information collection unit 110 and set the region of interest, and convert it into foreground extraction information.
이와 관련하여, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 기초하여 데이터 세트를 생성할 수 있다.In this regard, the first preprocessing module may generate a data set based on front image information of the driver for which the region of interest is set.
이때, 제1 전처리 모듈은 생성된 데이터 세트에서 관심 영역으로 설정된 영역을 운전자의 얼굴 영역으로 설정할 수 있다.In this case, the first pre-processing module may set the region set as the region of interest in the generated data set as the driver's face region.
또한, 제1 전처리 모듈은 생성된 데이터 세트에서 관심 영역으로 설정되지 않은 영역으로 전면 영상 정보의 전경 영역으로 설정할 수 있다.Also, the first pre-processing module may set an area not set as an ROI in the generated data set as a foreground area of the front image information.
이에 따라, 제1 전처리 모듈은 데이터 세트에 포함되어 관심 영역으로 설정되지 않은 전경 영역을 전경 추출 알고리즘을 사용하여 추출할 수 있다. 여기서, 제1 전처리 모듈은 전경 추출 알고리즘으로서 GrabCut 알고리즘 사용하여 운전자의 전면 영상 정보에서 전경을 추출할 수 있고, 이를 위해, 제1 전처리 모듈에는 GrabCut 알고리즘이 마련될 수 있다. 여기서, 본 발명을 용이하게 설명하기 위해 전경 추출 알고리즘으로서 Grabcut 알고리즘을 사용하지만, 이미지에서 전경을 추출 또는 삭제하기 위해 공지된 알고리즘 또는 전경 추출 방법이 사용될 수 있어 이에 한정하지 않는다.Accordingly, the first preprocessing module may extract a foreground region included in the data set and not set as a region of interest by using a foreground extraction algorithm. Here, the first pre-processing module may extract the foreground from the front image information of the driver using the GrabCut algorithm as a foreground extraction algorithm. To this end, the first pre-processing module may be provided with the GrabCut algorithm. Here, the Grabcut algorithm is used as a foreground extraction algorithm to easily describe the present invention, but a known algorithm or foreground extraction method can be used to extract or delete a foreground from an image, so it is not limited thereto.
이를 통해, 제1 전처리 모듈은, 전경 영역이 추출된 데이터 세트에 기초하여 전면 영상 정보를 운전자의 전면 영상 얼굴만 존재하는 전경 추출 정보로 변환할 수 있다. 또한, 제1 전처리 모듈은 이후에 설명하는 딥러닝 모델에서 수행되는 계산의 복잡성을 줄이기 위해, 운전자의 전면 영상 얼굴만 존재하는 전경 추출 정보를 회색으로 이루어진 전경 추출 정보로 더 변환할 수 있다.Through this, the first pre-processing module may convert the front image information into foreground extraction information including only the driver's front image face based on the data set from which the foreground region is extracted. In addition, the first preprocessing module may further convert foreground extraction information in which only the driver's front image face exists to gray foreground extraction information in order to reduce complexity of calculation performed in a deep learning model described later.
한편, 도 5는 도 1의 전처리부에서 전면 영상 정보를 전면 특징점 정보로 변환하는 전처리를 설명하기 위한 도면이다.Meanwhile, FIG. 5 is a diagram for explaining pre-processing of converting front image information into front feature point information in the pre-processing unit of FIG. 1 .
도 5를 참조하면, 제1 전처리 모듈은, 정보 수집부(110)에서 수집되어 관심 영역이 설정된 운전자의 전면 영상 정보를 변환한 전경 추출 정보에서 운전자의 특징점을 추출하여 전면 특징점 정보로 더 변환할 수 있다.Referring to FIG. 5 , the first pre-processing module extracts the driver's feature points from the foreground extraction information obtained by converting the driver's front image information, which is collected by the information collection unit 110 and sets the region of interest, and further converts the driver's feature points into front feature point information. can
이에, 제1 전처리 모듈은 관심 영역이 설정된 전면 영상 정보에 Grabcut 알고리즘을 사용하여 전경을 추출하여 회색으로 변환한 전경 추출 정보에 얼굴 이미지 쓰레싱 기법(Facial Image Threshing, FIT)을 사용하여 얼굴 영역을 제외한 영역을 삭제하여 전경 추출 정보의 크기를 조절할 수 있다. 여기서 얼굴 이미지 쓰레싱 기법은 누락된 감정 또는 행동 데이터의 수정, 부적절한 데이터의 제거, 대규모 데이터의 병합, 이미지의 크기 변경 및 자르기에 사용되며, 얼굴 이미지 쓰레싱 기법으로 입력된 감정 및 행동 비디오 시퀸스를 이미지 편집 및 분리가 적용된 출력 이미지로 변환할 수 있다. 이러한, 얼굴 이미지 쓰레싱 기법은, 얼굴 이미지 쓰레싱 머신으로부터 수행되며, 얼굴 이미지 쓰레싱 머신은 데이터 수신기, MTCNN(Multi-Task Cascaded Convolutional Network), 이미지 크기 조정기 및 사전에 훈련된 Xception 알고리즘 모델인 데이터 분리기를 포함할 수 있다. 이와 같이, 얼굴 이미지 쓰레싱 머신은, 데이터 수신기로 감정 및 행동 비디오 시퀸스를 이미지로 변환하고, MTCNN을 이용하여 변환된 이미지에서 사람의 얼굴을 식별하며, 이미지 크기 조정기를 통해 이미지의 크기를 감소시킨다. 따라서, 최종적으로 데이터 분리기를 이용하여 감정 및 행동 이미지를 적절하게 레이블된 디렉토리로 분리할 수 있다.Accordingly, the first pre-processing module extracts the foreground using the Grabcut algorithm for the front image information in which the region of interest is set, and uses the Facial Image Threshing (FIT) method to extract the foreground from the foreground extraction information converted to gray. The size of the foreground extraction information can be adjusted by deleting the excluded area. Here, the facial image thrashing technique is used to correct missing emotion or behavioral data, remove inappropriate data, merge large-scale data, resize and crop images, and use emotion and behavioral video sequences input by facial image thrashing It can be converted to an output image with image editing and separation applied. This facial image thrashing technique is performed from a facial image thrashing machine, which includes a data receiver, a multi-task cascaded convolutional network (MTCNN), an image resizer, and data that is a pre-trained Xception algorithm model. Separators may be included. In this way, the facial image thrashing machine converts the emotional and behavioral video sequences into images with a data receiver, identifies a person's face in the converted image using MTCNN, and reduces the size of the image through an image size adjuster. . Thus, finally, the emotional and behavioral images can be separated into appropriately labeled directories using a data separator.
이어서, 제1 전처리 모듈은 얼굴 영역만 존재하는 전경 추출 정보에서 특징점 추적 알고리즘을 사용하여 운전자의 얼굴에서 특징점을 식별할 수 있다. 이러한 특징점 추적 알고리즘은, SURF(Speeded UP Robust Features) 알고리즘이 사용될 수 있다, 이에, 본 명세서에서는 본 발명을 용이하게 설명하기 위해 공지된 SURF 알고리즘을 사용하지만, 이미지에 존재하는 얼굴의 특징점을 감지 또는 추출하기 위해 공지된 알고리즘 또는 얼굴 특징점 방법이 사용될 수 있어 이에 한정하지 않는다. 또한, 제1 전처리 모듈은 전경 추출 정보에서 운전자의 얼굴 특징점을 추출하여 전면 특징점 정보로 변환하기 위해, 얼굴 이미지 쓰레싱 기법 및 SURF 알고리즘을 수행할 수 있는 장치 또는 모듈이 더 마련될 수 있다.Subsequently, the first preprocessing module may identify feature points on the driver's face by using a feature point tracking algorithm in foreground extraction information in which only the face region exists. As such a feature point tracking algorithm, a SURF (Speeded UP Robust Features) algorithm may be used. Therefore, in the present specification, a known SURF algorithm is used to easily explain the present invention, but detects or detects facial feature points present in an image. For extraction, a known algorithm or facial feature point method may be used and is not limited thereto. In addition, the first preprocessing module may further include a device or module capable of performing a face image thrashing technique and a SURF algorithm to extract facial feature points of the driver from foreground extraction information and convert the facial feature points of the driver into front feature point information.
이에 따라, 제1 전처리 모듈은 크기가 조절된 전경 추출 정보에서 관심 영역의 픽셀 값을 추출하여 식별한 특징점과 결합하여 전면 특징점 정보로 더 변환할 수 있다. 이러한, 전면 특징점 정보는 운전자의 감정 및 행동을 추출하는 딥러닝 모델의 학습 또는 분류에 사용될 수 있다.Accordingly, the first pre-processing module may extract a pixel value of the region of interest from the foreground extraction information whose size has been adjusted, combine it with the identified feature point, and further convert the pixel value into front feature point information. Such front feature point information may be used for learning or classification of a deep learning model that extracts driver's emotions and behaviors.
한편, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 전면 히트맵 정보로 더 변환할 수 있다. 이에, 제1 전처리 모듈은 관심 영역으로 설정된 영역에서 객체를 확인하고 해당 객체의 위치를 추적할 수 있다. 여기서, 객체는 운전자의 표정이 변화하였을 경우, 눈, 눈썹, 입 등 표정 변화에 사용되는 얼굴의 신체기관으로 특정될 수 있다.Meanwhile, the first pre-processing module may further convert the front image information of the driver in which the region of interest is set into front heat map information. Accordingly, the first preprocessing module may identify an object in the region set as the region of interest and track the location of the object. Here, when the driver's facial expression changes, the object may be specified as a facial body organ used for facial expression change, such as eyes, eyebrows, and mouth.
이러한, 제1 전처리 모듈은 영상 내 픽셀 값의 변화에 따라 객체의 움직임을 파악할 수 있고, 픽셀 값이 변화하는 픽셀 위치가 관심 영역에 존재하는 픽셀과 접하는 것에 따라 객체가 관심 영역에 접지하는지 확인할 수 있다.The first pre-processing module may determine the movement of the object according to the change in pixel value in the image, and determine whether the object is grounded in the region of interest according to the position of the pixel where the pixel value changes is in contact with the pixel existing in the region of interest. there is.
또한, 제1 전처리 모듈은 객체의 움직임에 따라 변화하는 객체의 픽셀 값을 확인하여 픽셀 값이 변화하는 위치에 따라 객체의 위치를 추적할 수 있다.In addition, the first pre-processing module may check a pixel value of an object that changes according to the movement of the object and track the location of the object according to the location where the pixel value changes.
이 경우, 제1 전처리 모듈은 관심 영역과 접지하는 객체들 중 일정 크기 이상인 객체를 선택적으로 더 추적할 수 있다. 이를 통해, 제1 전처리 모듈은 운전자의 얼굴에 존재하는 신체기관이 아닌 손가락, 손, 팔 등 다른 신체기관을 더 추적할 수 있다.In this case, the first pre-processing module may selectively further track an object having a predetermined size or more among objects that come into contact with the region of interest. Through this, the first preprocessing module may further track other body organs such as fingers, hands, arms, etc., other than body organs present on the driver's face.
이에 따라, 제1 전처리 모듈은 관심 영역에 접지한 객체 즉, 운전자 얼굴의 눈, 눈썹, 입 등과 운전자의 손가락, 손 등을 추적하여 추척된 객체의 위치에 존재하는 픽셀의 좌표 값을 확인하고, 픽셀의 좌표값을 누적하여 운전자 전면 영상 정보에 대한 히트맵을 생성할 수 있다. 이를 통해, 제1 전처리 모듈은 관심 영역이 설정된 전면 영상 정보에 기초하여 운전자 얼굴에 대한 히트맵을 생성하여 전면 히트맵 정보로 더 변환할 수 있다.Accordingly, the first pre-processing module tracks objects that are grounded in the ROI, that is, the eyes, eyebrows, mouth, etc. of the driver's face, and the driver's fingers, hands, etc., and checks the coordinate values of pixels existing at the location of the tracked object, A heat map of driver's front image information may be generated by accumulating pixel coordinate values. Through this, the first preprocessing module may generate a heat map for the driver's face based on the front image information in which the region of interest is set, and further convert the heat map into front heat map information.
이에 따라, 제1 전처리 모듈은 관심 영역이 설정된 운전자의 전면 영상 정보를 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환할 수 있다.Accordingly, the first pre-processing module may convert front image information of the driver for which the region of interest is set into foreground extraction information, front feature point information, and front heat map information.
한편, 전처리부(130)에 포함된 제2 전처리 모듈은 정보 수집부(110)에서 수집한 생체 정보에서 잡음 신호를 제거하는 필터링을 수행할 수 있다. 이에, 제2 전처리 모듈은 정보 수집부(110)에 포함된 심박 수집부(113a)에서 수집된 운전자의 심박 정보에서 잠음 신호를 제거하는 필터링을 수행할 수 있다. 여기서 심박 정보는 심장의 박동에 따라 심근에서 발생하는 활동 전류를 표준 12 유도법에 의해 계측된 1차원 아날로그 신호로서, 측정된 신호는 실시간으로 측정된 심박의 진폭 크기 변화를 포함할 수 있다.Meanwhile, the second pre-processing module included in the pre-processing unit 130 may perform filtering to remove noise signals from biometric information collected by the information collection unit 110 . Accordingly, the second pre-processing module may perform filtering to remove the sleeping signal from the driver's heartbeat information collected by the heartbeat collection unit 113a included in the information collection unit 110 . Here, the heartbeat information is a one-dimensional analog signal obtained by measuring an action current generated in the myocardium according to the heartbeat by a standard 12 derivation method, and the measured signal may include a change in amplitude of the heartbeat measured in real time.
이에, 제2 전처리 모듈은 심박 정보에 포함된 심박 신호로부터 기저선 변동 잡음을 제거할 수 있다. 기저선 변동 잡은 사람의 호흡 등에 의해 발생하는 1Hz 미만의 저주파 성분으로, 대역 통과 필터를 이용하여 제거할 수 있다. 이에 따라, 제2 전처리 모듈은 심박 정보에 포함된 잡음 신호를 제거할 수 있다.Accordingly, the second preprocessing module may remove baseline variation noise from the heartbeat signal included in the heartbeat information. It is a low-frequency component of less than 1 Hz generated by breathing of a person who catches the baseline fluctuation, and can be removed using a band pass filter. Accordingly, the second preprocessing module may remove the noise signal included in the heartbeat information.
한편, 제2 전처리 모듈은 음성 수집부(113b)에서 수집된 운전자의 음성 정보에서 잡음 신호를 제거하는 필터링을 수행할 수 있다. 여기서, 음성 정보에 포함된 음성 신호는 사람이 성대를 진동하여 발생하는 신호로써, 인접한 신호 사이의 주파수 상호간 상관관계가 매우 높아 주변 배경 잡음을 구별할 수 있다.Meanwhile, the second pre-processing module may perform filtering to remove a noise signal from the driver's voice information collected by the voice collection unit 113b. Here, the voice signal included in the voice information is a signal generated by a person vibrating the vocal cords, and the frequency correlation between adjacent signals is very high, so that ambient background noise can be distinguished.
이에, 제2 전처리 모듈은 운전자의 음성 정보에서 주파수 상호간 상관관계가 임계 값 이하인 신호를 배경 잡음으로 설정하여 배경 잡음을 판단할 수 있다. 여기서, 배경 잡음은 차량의 배기음, 주뱐 차량의 클라션 소리 등 운전자의 음성을 제외한 음성 신호가 배경 잡음일 수 있다.Accordingly, the second pre-processing module may determine the background noise by setting, as the background noise, a signal having a frequency correlation less than a threshold value in the driver's voice information. Here, the background noise may be a voice signal excluding the driver's voice, such as a vehicle's exhaust sound and a parking sound of a parked vehicle, as the background noise.
이에 따라, 제2 전처리 모듈은 음성 정보에서 배경 잡음으로 판단된 음성 신호를 분리 및 삭제하여 음성 정보에 포함된 잡음 신호를 삭제할 수 있다.Accordingly, the second pre-processing module may remove the noise signal included in the voice information by separating and deleting the voice signal determined as background noise from the voice information.
이처럼, 전처리부(130)는 제2 전처리 모듈을 통해 정보 수집부(110)에서 수집된 심박 정보 및 음성 정보를 필터링하여 잡음 신호를 제거할 수 있다.As such, the pre-processing unit 130 may filter the heartbeat information and voice information collected by the information collecting unit 110 through the second pre-processing module to remove noise signals.
한편, 형상 벡터 생성부(150)는 전처리부(130)에서 전처리된 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고 각각의 특성 벡터를 결합하여 형상 벡터를 생성한다.Meanwhile, the shape vector generator 150 extracts each feature vector based on the front image information and biometric information preprocessed by the preprocessor 130 and generates a shape vector by combining each feature vector.
여기서, 형상 벡터 생성부(150)는 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 운전자의 전면 영상 정보에서 변환된 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보와 생체 정보에서 잡음 신호가 제거된 심박 정보 및 음성 정보에 기초하여 각각의 특성 벡터를 추출할 수 있다.Here, the shape vector generator 150 uses a feature vector extractor that performs vector combining to extract foreground information converted from front image information of the driver, front feature point information, front heat map information, and noise signals are removed from biometric information. Each feature vector may be extracted based on heartbeat information and voice information.
또한, 형상 벡터 생성부(150)는 특성 벡터 추출기를 이용하여 각각의 특성 벡터를 추출하고, 추출된 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성할 수 있다.In addition, the shape vector generator 150 may extract each feature vector using a feature vector extractor, and combine the extracted feature vectors to generate a single shape vector.
이러한, 형상 벡터 생성부(150)는 제1 전처리 모듈에서 변환된 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보에 포함된 얼굴 이미지의 픽셀 값, 전면 특징점 및 전면 히트맵을 추출할 수 있다. The shape vector generator 150 may extract pixel values, front feature points, and a front heat map of the face image included in the foreground extraction information, front feature point information, and front heat map information converted in the first preprocessing module.
이때, 형상 벡터 생성부(150)는 특성 벡터 추출기를 이용하여 얼굴 이미지의 픽셀 값, 전면 특징점 및 전면 히트맵에 기초한 얼굴 특성 벡터를 추출할 수 있다. 여기서, 특성 벡터 추출기는, 공지된 웨이블릿 변환 기법을 이용하여 얼굴 특성 벡터를 추출할 수 있다.In this case, the shape vector generator 150 may extract a face feature vector based on the pixel values of the face image, the front feature points, and the front heat map using a feature vector extractor. Here, the feature vector extractor may extract the face feature vector using a known wavelet transform technique.
한편, 형상 벡터 생성부(150)는 필터링이 수행된 심박 정보에서 특성 벡터를 추출하기 위해, 심박 정보에 포함된 심박 신호로부터 파형을 검출할 수 있다. 여기서, 심박 신호는 한 주기에 P파, Q파, R파, S파 및 T파를 포함하는 파형으로 이루어진 신호로써, 공지된 다양한 기술에 의해 검출될 수 있다. 또한, 심박 신호는 한 주기 또는 복수 개의 주기를 갖는 심박 신호일 수 있다.Meanwhile, the shape vector generator 150 may detect a waveform from a heartbeat signal included in the heartbeat information in order to extract a feature vector from the heartbeat information on which filtering has been performed. Here, the heartbeat signal is a signal composed of a waveform including a P wave, Q wave, R wave, S wave, and T wave in one cycle, and can be detected by various known techniques. Also, the heartbeat signal may be a heartbeat signal having one cycle or a plurality of cycles.
이에, 한 주기의 심박 신호일 경우, P파, Q파, R파, S파 및 T파를 포함하는 5개의 파형이 검출될 수 있으며, 복수 개의 주기를 갖는 심박 신호의 경우 주기의 개수에 따라 한 주기의 심전도 신호에 포함된 파형의 배가 검출될 수 있다.Accordingly, in the case of a heartbeat signal of one cycle, five waveforms including P wave, Q wave, R wave, S wave, and T wave may be detected, and in the case of a heartbeat signal having a plurality of cycles, one A doubling of the waveform included in the ECG signal of the period may be detected.
이에, 형상 벡터 생성부(150)는 검출된 각 파형들로부터 특정 좌표를 추출할 수 있다. 여기서 특정 좌표는, 5개의 파형을 통해 특정되는 좌표로써 P파의 피크 지점인 PP, Q파의 피크 지점인 QP, R파의 피크 지점인 RP, S파의 피크 지점인 SP 및 T파의 피크 지점인 TP를 포함한다.Accordingly, the shape vector generator 150 may extract specific coordinates from each of the detected waveforms. Here, the specific coordinates are coordinates specified through five waveforms, PP, which is the peak point of the P wave, QP, which is the peak point of the Q wave, RP, which is the peak point of the R wave, SP, which is the peak point of the S wave, and the peak of the T wave. Includes branch TP.
또한, 형상 벡터 생성부(150)는 P파, R파 및 T파를 가장 높은 진폭 값을 갖는 지점을 피크 지점을 설정하고, Q파, S파는 가장 낮은 진폭 값을 갖는 지점을 피크 지점으로 설정할 수 있다.In addition, the shape vector generation unit 150 sets the point having the highest amplitude value of the P wave, R wave and T wave as the peak point, and sets the point having the lowest amplitude value as the peak point of the Q wave and S wave. can
이를 통해, 형상 벡터 생성부(150)는 한 주기 또는 복수 개의 주기를 갖는 심박 신호에 포함된 두 개 이상의 특정 좌표에 기초하여 특성 벡터를 추출할 수 있다. 여기서, 특성 벡터는 특정 좌표의 x축에 해당하는 시간과 y축에 해당되는 진폭을 이용하여 계산될 수 있다.Through this, the shape vector generator 150 may extract a feature vector based on two or more specific coordinates included in a heartbeat signal having one cycle or a plurality of cycles. Here, the feature vector may be calculated using time corresponding to the x-axis and amplitude corresponding to the y-axis of specific coordinates.
이와 관련하여, 형상 벡터 생성부(150)는 한 주기로 이루어진 심박 신호에서 두 개 이상의 특정 좌표를 이용하여 특성 벡터를 추출할 경우, P파의 피크 지점인 PP와 R파의 피크 지점인 RP 간의 거리 또는 기울기, R파의 피크 지점인 RP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, S파의 피크 지점인 SP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 S파의 피크 지점인 SP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, P파의 피크 지점인 PP와 Q파의 피크 지점인 QP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 R파의 피크 지점인 RP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 S파의 피크 지점인 SP 간의 거리 또는 기울기, Q파의 피크 지점인 QP와 T파의 피크 지점인 TP 간의 거리 또는 기울기, R파의 피크 지점인 RP와 S파의 피크 지점인 SP 간의 거리 또는 기울기로 총 10개의 피크 지점들 간에 대한 거리 또는 기울기를 계산할 수 있다.In this regard, when the shape vector generator 150 extracts a feature vector using two or more specific coordinates from a heartbeat signal consisting of one cycle, the distance between PP, the peak point of the P wave, and RP, the peak point of the R wave Or the slope, the distance or slope between RP, the peak point of the R wave and TP, the peak point of the T wave, the distance or slope between SP, the peak point of the S wave and TP, the peak point of the T wave, PP, the peak point of the P wave The distance or slope between SP and the peak point of the S wave, the distance or slope between PP, the peak point of the P wave and TP, the peak point of the T wave, and the distance between PP, the peak point of the P wave and QP, the peak point of the Q wave Alternatively, the slope, the distance or slope between QP, the peak point of the Q wave, and RP, the peak point of the R wave, the distance or slope between QP, the peak point of the Q wave and SP, the peak point of the S wave, QP, the peak point of the Q wave The distance or slope between TP, the peak point of the T wave, and the distance or slope between RP, the peak point of the R wave, and SP, the peak point of the S wave, can calculate the distance or slope between a total of 10 peak points.
또한, 형상 벡터 생성부(150)는 모든 파형의 피크 지점을 이용하여 피크 지점들 간의 거리 및 기울기가 계산되지 않은 경우, 심박 신호의 외형적 특성이 뚜렷하게 나타내는 R파의 피크지점인 RP, S파의 피크 지점인 SP, T파의 피크 지점인 TP만을 이용하여 거리 및 기울기를 계산할 수 있다.In addition, the shape vector generation unit 150 uses the peak points of all waveforms to calculate the RP and S waves, which are the peak points of the R wave, which clearly represent the external characteristics of the heartbeat signal, when the distance and slope between the peak points are not calculated. The distance and slope can be calculated using only SP, the peak point of the T wave, and TP, the peak point of the T wave.
이에, 형상 벡터 생성부(150)는 피크 지점 간의 거리는 맨하탄 거리(Manhattan Distance), 유클리디안 거리(Euclidean Distance), 민코프스키 거리(Minkowski Distance) 등 공지된 방법에 의해 계산할 수 있다.Accordingly, the shape vector generator 150 may calculate the distance between the peak points using a known method such as a Manhattan distance, a Euclidean distance, or a Minkowski distance.
또한, 형상 벡터 생성부(150)는 피크 지점 간의 기울기는 공지된 두 좌표 지점 간의 기울기 공식을 이용하여 계산할 수 있다.Also, the shape vector generator 150 may calculate the slope between peak points using a known slope formula between two coordinate points.
이를 통해, 형상 벡터 생성부(150)는 심박 신호에 포함된 5개의 파형 중 두개 이상의 파형의 특정 좌표를 계산하여 특성 벡터로 추출할 수 있다.Through this, the shape vector generator 150 may calculate specific coordinates of two or more waveforms among five waveforms included in the heartbeat signal and extract them as feature vectors.
또한, 형상 벡터 생성부(150)는 심박 신호가 복수 개의 주기를 갖는 경우, 현재 주기(n)에 해당하는 심박 신호와 이전 주기(n-1)에 해당하는 심박 신호에서 추출된 각 파형들의 특정 좌표를 각 주기에서 하나 이상 선택하여 특성 벡터를 추출할 수 있다.In addition, when the heartbeat signal has a plurality of cycles, the shape vector generator 150 determines each waveform extracted from the heartbeat signal corresponding to the current cycle (n) and the heartbeat signal corresponding to the previous cycle (n-1). A feature vector can be extracted by selecting one or more coordinates in each period.
이와 관련하여, 형상 벡터 생성부(150)는 심박 신호가 복수 개의 주기를 포함하고, 두 개 이상의 파형의 특정 좌표를 사용할 경우, 이전 주기(n-1)의 심박 신호에 해당되는 P파(P(n-1))의 피크 지점인 PP(n-1)과 현재 주기(n)의 심박 신호에 해당되는 R파(R(n))의 피크 지점인 RP(n) 간(R(n)-P(n-1))의 거리 또는 기울기, 이전 주기(n-1)의 심박 신호에 해당되는 P파(P(n-1))의 피크 지점인 PP(n-1)와 현재 주기(n)의 심박 신호에 해당되는 T파(T(n))의 피크 지점인 TP(n) 간(T(n)-P(n-1))의 거리 또는 기울기를 계산하여 특성 벡터로 추출할 수 있다. 이처럼, 형상 벡터 생성부(150)는 필터링이 수행된 심박 정보를 심박 정보에 대한 심박 특성 벡터를 추출할 수 있다.In this regard, when the heartbeat signal includes a plurality of cycles and uses specific coordinates of two or more waveforms, the shape vector generator 150 may use the P wave (P wave P corresponding to the heartbeat signal of the previous cycle (n−1)). (n-1)) between PP(n-1), the peak point, and RP(n), the peak point of the R wave (R(n)) corresponding to the heart rate signal of the current cycle (n) (R(n) The distance or slope of -P(n-1), PP(n-1), which is the peak point of the P wave (P(n-1)) corresponding to the heart rate signal of the previous cycle (n-1), and the current cycle ( The distance or slope between TP(n) (T(n)-P(n-1)), which is the peak point of the T wave (T(n)) corresponding to the heartbeat signal of n), is calculated and extracted as a feature vector. can As such, the shape vector generator 150 may extract a heartbeat feature vector for heartbeat information from the heartbeat information on which filtering is performed.
한편, 형상 벡터 생성부(150)는 필터링이 수행된 음성 정보에서 특성 벡터를 추출하기 위해, MFCC(Mel Frequency Cepstral Cofficent) 방법을 이용하여 음성 정보에 포함된 음성 신호에 대한 특징 값을 계산할 수 있다. 이러한 MFCC 방법은 인간의 귀가 가지는 비선형적인 주파수 특성을 이용하여 스펙트럼 기반의 유효한 특징 값을 검출하는 방법이다. 이에, 형상 벡터 생성부(150)는 음성 신호의 특징 값을 MFCC 방법만을 사용하여 계산하는 것이 아닌, 공지된 다양한 방법에 의해 계산할 수 있으므로 이에 한정하지 않는다.Meanwhile, the shape vector generator 150 may calculate a feature value of a voice signal included in the voice information by using a Mel Frequency Cepstral Cofficent (MFCC) method in order to extract a feature vector from the filtered voice information. . This MFCC method is a method of detecting a spectrum-based effective feature value using nonlinear frequency characteristics of the human ear. Accordingly, the shape vector generation unit 150 may calculate the feature values of the voice signal not only by using the MFCC method, but by various methods known in the art, so it is not limited thereto.
이어서, 형상 벡터 생성부(150)는 MFCC 방법을 이용하여 계산한 음성 신호의 특정 값에 기초하여 음성 신호에 대한 특징 벡터를 추출할 수 있다. 이와 관련하여, 형상 벡터 생성부(150)는 MFCC 방법을 이용하여 음성 신호에 대한 특징 값 즉, 특징 시퀸스를 검출할 수 있다.Subsequently, the shape vector generator 150 may extract a feature vector of the speech signal based on the specific value of the speech signal calculated using the MFCC method. In this regard, the shape vector generator 150 may detect a feature value, that is, a feature sequence, of the voice signal using the MFCC method.
또한, 형상 벡터 생성부(150)는 음성 신호의 특징 값에 바음-웰치 통계를 이용하여 결합 요인 분석 방법에 의한 i-벡터를 계산할 수 있다. 여기서, 바음- 웰치 통계는 공지된 기술로서 본 명세서에서는 설명을 생략하기로 한다.In addition, the shape vector generator 150 may calculate the i-vector by the coupling factor analysis method using the Baum-Welch statistics on the feature values of the speech signal. Here, Baum-Welch statistics is a well-known technique, and description thereof will be omitted in this specification.
따라서, 형상 벡터 생성부(150)는 음성 신호의 특징 값을 통해 계산된 i-벡터를 음성 정보에 대한 음성 특성 벡터로 추출할 수 있다.Accordingly, the shape vector generator 150 may extract the i-vector calculated through the feature values of the voice signal as the voice feature vector for the voice information.
한편, 형상 벡터 생성부(150)는 벡터 결합을 수행하는 특성 벡터 추출기를 더 이용하여 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보를 기초하여 추출한 얼굴 특성 벡터와 심박 신호에서 추출한 심박 특성 벡터와 음성 신호에서 추출한 음성 특성 벡터를 결합할 수 있다.On the other hand, the shape vector generator 150 further uses a feature vector extractor that performs vector combination to extract the face feature vector based on the foreground extraction information, the front feature point information, and the front heat map information, and the heartbeat feature vector extracted from the heartbeat signal. Voice feature vectors extracted from voice signals can be combined.
이때, 형상 벡터 생성부(150)는 추출한 각각의 특성 벡터를 입력으로 하여 각각의 특성 벡터가 결합된 형태로 출력하여 하나의 형상 벡터를 생성할 수 있다.At this time, the shape vector generator 150 may generate one shape vector by taking each of the extracted feature vectors as an input and outputting the extracted feature vectors in a combined form.
한편, 판단부(170)는 형상 벡터 생성부(150)에서 생성된 형상 벡터에 기초하여 운전자의 감정 및 행동을 판단한다. 이때, 판단부(170)는 형상 벡터를 기 학습된 딥러닝 모델에 입력하여 운전자의 감정 및 행동을 판단할 수 있다. 이에 따른, 운전자의 감정은 정상, 놀라움, 슬픔, 행복, 두려움, 역겨움, 분노, 지루함 중 하나의 감정으로 판단하고, 운전자의 행동은 정상 운전, 하품, 눈의 깜박임, 거울 확인, 흡연, 휴대전화 사용 및 운전자의 시야 확인 중 하나의 행동으로 판단할 수 있다.Meanwhile, the determination unit 170 determines the driver's emotion and behavior based on the shape vector generated by the shape vector generator 150 . In this case, the determination unit 170 may determine the driver's emotion and behavior by inputting the shape vector to the pre-learned deep learning model. Accordingly, the driver's emotion is judged as one of normal, surprise, sadness, happiness, fear, disgust, anger, and boredom, and the driver's behavior is normal driving, yawning, blinking, checking the mirror, smoking, and using a mobile phone. It can be judged by one of the actions of using and checking the driver's vision.
여기서, 딥러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집함으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 학습시키는 기계학습의 한 분야이다.Here, deep learning is defined as a collection of machine learning algorithms that attempt a high level of abstraction through a combination of several nonlinear transformation methods, and is a field of machine learning that learns human ways of thinking from a large frame.
이에, 본 발명에서 운전자의 감정 및 행동을 추출하기 위해 사용되는 딥러닝 모델로는 신경망(Deep Neural networks)모델, CNN(Convolution Neural Networks)모델, DBN(Deep Believe networks)모델 및 잔차 신경망(Deep Residual Learning for image Recognition, ResNet)모델 중 하나의 모델이 사용될 수 있다. 이에, 본 발명에서는 공지된 잔차 신경망 모델의 구조를 변형한 34개 층의 잔차 신경망 모델을 사용하나 이에 한정하지 않는다.Accordingly, the deep learning models used to extract the driver's emotions and behaviors in the present invention include a deep neural networks model, a convolution neural networks (CNN) model, a deep believe networks (DBN) model, and a deep residual neural network (Deep Residual Networks) model. One of the Learning for Image Recognition (ResNet) models can be used. Accordingly, in the present invention, a 34-layer residual neural network model obtained by modifying the structure of a known residual neural network model is used, but is not limited thereto.
이에 따른, 34개 층의 잔차 신경망 모델은 이미지 분류 알고리즘 모델으로서, 알고리즘 모델의 깊은 계층을 사용할 때 정확도가 떨어지는 것을 방지하기 위한 지름길(Shortcut)이 추가되어 있다. 이러한, 잔차 신경망 모델은 34개 층으로 이루어진 구조로 사용되는 것이 가장 바람직하여 34개 층의 잔차 신경망 모델로 지칭하였으나 18개, 34개, 50개, 101개 및 152개 층 구조로 사용될 수 있으며 혹은 그보다 더 큰 층수의 구조로 이루어질 수 있다. Accordingly, the 34-layer residual neural network model is an image classification algorithm model, and a shortcut is added to prevent accuracy from deteriorating when using a deep layer of the algorithm model. This residual neural network model is most preferably used in a structure consisting of 34 layers, so it is referred to as a 34-layer residual neural network model, but may be used in a structure of 18, 34, 50, 101, and 152 layers, or It may be made of a structure with a larger number of layers than that.
이어서, 34개 층의 잔차 신경망 모델은 64개의 출력 채널과 3x3의 최대 풀링 레이어를 포함하는 7x7의 컨볼루션 레이어 및 각 컨볼루션 레이어 이후에 배치 정규화 레이어가 마련되고, 동일한 수의 출력 채널로 형성되는 복수의 잔차 블록으로 마련되는 4개의 모듈로 구성될 수 있다. 이때, 첫번째 모듈은 입력 채널 번호와 동일한 채널 수를 사용할 수 있다. Subsequently, the 34-layer residual neural network model is formed with a 7x7 convolution layer including 64 output channels and a 3x3 maximum pooling layer, a batch normalization layer after each convolution layer, and the same number of output channels. It can be composed of four modules provided with a plurality of residual blocks. At this time, the first module may use the same number of channels as the input channel number.
이를 통해, 34개 층의 잔차 신경망 모델은 Inception 아키텍처 모델과 비교하여 후속 모듈의 첫 번째 잔차 블록의 채널 수는 이전 모듈(여기서, 첫번째 모듈)에 비해 2배, 높이와 너비는 절반으로 줄어들어 Inception 아키텍처 모델보다 더 간단하게 수정이 가능하여 최적화가 간단하고, 더 큰 층수의 구조로 마련되어 네트워크의 깊이가 증가하는 경우, 최적화가 간단하여 더 높은 정확도를 달성할 수 있다.Through this, the 34-layer residual neural network model compared to the Inception architecture model, the number of channels in the first residual block of the subsequent module is doubled compared to the previous module (here, the first module), and the height and width are reduced by half, resulting in an Inception architecture Optimization is simple because it can be modified more simply than the model, and when the depth of the network is increased by providing a structure with a larger number of layers, optimization is simple and higher accuracy can be achieved.
따라서, 판단부(170)는 네트워크의 깊이가 증가할수록 더 높은 정확도를 제공하는 잔차 신경망 모델을 이용하여 운전자의 감정 및 행동 인식에서 발생하는 인식 오류 문제를 해결할 수 있으며, 판단부(170)는 수집된 영상 및 신호의 특성 벡터에 기초하여 더 높은 정확도로 운전자의 감정 및 행동을 판단할 수 있다.Therefore, the determination unit 170 can solve the problem of recognition errors occurring in recognizing the driver's emotion and behavior by using a residual neural network model that provides higher accuracy as the depth of the network increases, and the determination unit 170 collects It is possible to determine the driver's emotion and behavior with higher accuracy based on the characteristic vector of the image and signal.
마지막으로, 출력부(190)는 판단부(170)에서 판단한 운전자의 감정 및 행동을 출력한다. 이와 관련하여, 자율주행 차량은 출력부(190)에서 출력한 운전자의 감정, 행동에 기초하여 차량의 기능을 제어할 수 있다. 예를 들어, 판단부(170)는 딥러닝 모델을 이용하여 운전자의 감정을 지루함으로 판단하고, 운전자의 행동을 하품으로 판단하며, 이에 따라, 출력부(190)는 운전자의 감정 및 행동을 지루함과 하품으로 출력한다. 이때, 자율주행 차량은 출력부(190)가 출력한 지루함과 하품을 기초하여 운전자가 피곤한 상태인 것으로 판단하여 차량의 창문으로 개방하거나, 신나는 노래를 재생하여 운전자의 상태가 변화하도록 차량의 기능을 제어할 수 있다. 또 다른 예를 들어, 판단부(170)는 딥러닝 모델을 이용하여 운전자의 감정을 분노로 판단하고, 운전자의 행동을 휴대전화 사용으로 판단하며, 이에 따라, 출력부는 분노와 휴대전화 사용으로 출력한다. 이때, 자율주행 차량은 출력부(190)가 출력한 분노와 휴대전화 사용을 기초하여 운전자가 휴대전화 사용 중 교통사고가 발생할 수 있는 상황이 이루어진 것으로 판단하여 차량의 속도를 제어하거나, 경고음을 발생하여 운전자가 운전에 집중하도록 차량의 기능을 제어할 수 있다.Finally, the output unit 190 outputs the driver's emotions and behavior determined by the determination unit 170 . In this regard, the self-driving vehicle may control vehicle functions based on the driver's emotions and behaviors output from the output unit 190 . For example, the determination unit 170 determines the driver's emotion as boredom and the driver's behavior as yawn by using a deep learning model, and accordingly, the output unit 190 determines the driver's emotion and behavior as boredom. and output with yawns. At this time, the self-driving vehicle determines that the driver is in a tired state based on the boredom and yawn output from the output unit 190 and opens the vehicle window or plays an exciting song to change the driver's condition. You can control it. For another example, the determination unit 170 determines the driver's emotion as anger and the driver's behavior as mobile phone use using a deep learning model, and accordingly, the output unit outputs anger and mobile phone use. do. At this time, the self-driving vehicle determines that a situation in which a traffic accident may occur while the driver is using the mobile phone has occurred based on the anger output by the output unit 190 and the use of the mobile phone, and controls the speed of the vehicle or generates a warning sound. Thus, vehicle functions can be controlled so that the driver can concentrate on driving.
이처럼, 본 발명의 일 실시예에 따른 다중 센서 융합기반 운전자 모니터링 장치(100)는 상술한 구성을 통해 자율주행 차량의 효율성이 증대될 수 있도록, 운전자의 감정 및 행동을 모니터링하여 출력할 수 있다.As such, the multi-sensor fusion-based driver monitoring device 100 according to an embodiment of the present invention can monitor and output the driver's emotions and behaviors so that the efficiency of the autonomous vehicle can be increased through the above-described configuration.
도 6은 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법의 흐름 도면이다.6 is a flowchart of a multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention.
본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은, 도 1의 다중 센서 융합기반 운전자 모니터링 장치(100)를 통해 수행되는 방법으로서, 다중 센서 융합기반 운전자 모니터링 장치(100)에서 수행되는 구성과 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 다중 센서 융합기반 운전자 모니터링 장치(100)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략하고자 한다.A multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention is a method performed through the multi-sensor fusion-based driver monitoring device 100 of FIG. It may be performed in substantially the same configuration as the configuration. Accordingly, the same reference numerals are given to the same components as those of the multi-sensor fusion-based driver monitoring apparatus 100 of FIG. 1, and repeated descriptions are omitted.
도 6을 참조하면, 본 발명의 다른 실시예에 따른 다중 센서 융합기반 모니터링 방법은 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계(610), 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계(630), 전처리가 수행된 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계(650), 형상 벡터에 기초하여 운전자의 감정 및 행동을 판단하는 판단 단계(670) 및 운전자의 감정 및 행동을 출력하는 출력 단계(690)를 포함한다.Referring to FIG. 6 , in a multi-sensor fusion-based monitoring method according to another embodiment of the present invention, an information collection step 610 of collecting driver's front image information and biometric information, and a preprocessing step of preprocessing the front image information and biometric information 630, a shape vector generation step 650 of extracting each feature vector based on the preprocessed front image information and biometric information and combining each feature vector to generate a shape vector (650), a driver based on the shape vector A decision step 670 for determining the driver's emotions and actions and an output step 690 for outputting the driver's emotions and actions are included.
도 7은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 정보 수집 단계의 흐름 도면이다.FIG. 7 is a flowchart of an information collection step of the multi-sensor fusion-based driver monitoring method of FIG. 6 .
도 7를 참조하면, 정보 수집 단계(610)는 운전자의 전면 영상 정보를 수집하는 단계(611) 및 운전자의 심박 정보 및 운전자의 음성 정보를 포함하는 생체 정보를 수집하는 단계(613)를 포함할 수 있다. 이때, 정보 수집 단계(610)는 운전자의 전면 영상 정보를 수집하는 단계(611)와 운전자의 생체 정보를 수집하는 단계(613)를 동시에 수행할 수 있다.Referring to FIG. 7 , the information collection step 610 may include collecting driver's front image information (611) and collecting biometric information including driver's heartbeat information and driver's voice information (613). can In this case, in the information collection step 610, the driver's front image information collection step 611 and the driver's biometric information collection step 613 may be simultaneously performed.
한편, 도 8은 도 6의 다중 센서 융합기반 운전자 모니터링 방법의 전처리 단계의 흐름 도면이다.Meanwhile, FIG. 8 is a flowchart of a preprocessing step of the multi-sensor fusion-based driver monitoring method of FIG. 6 .
도 8을 참조하면, 전처리 단계(630)는 전면 영상 정보에서 운전자의 관심 영역을 설정하는 단계(631), 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계(633) 및 생체 정보에 포함된 심박 정보, 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계(635)를 포함할 수 있다.Referring to FIG. 8 , in the pre-processing step 630, a step 631 of setting a driver's region of interest from front image information is performed, and the front image information set as the region of interest is converted into foreground extraction information, front feature point information, and front heat map information. It may include step 633 and step 635 of performing filtering to remove noise signals present in heartbeat information and voice information included in biometric information.
이에, 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계(633)는 전면 영상 정보에서 전경 추출 정보로 변환하는 단계(633a), 전면 영상 정보에서 전면 특징점 정보로 변환하는 단계(633b), 전면 영상 정보에서 전면 히트맵 정보로 변환하는 단계(633c)를 포함하며, 각각의 단계는 동시에 수행되거나, 도 8에 도시되지는 않았지만, 전경 추출 정보로 변환하는 단계(633a), 전면 특징점 정보로 변환하는 단계(633b), 전면 히트맵 정보로 변환하는 단계(633c) 순서로 수행될 수 있다.Accordingly, converting the foreground extraction information, the front feature point information, and the front heat map information (step 633) includes converting the front image information into foreground extraction information (633a) and converting the front image information into front feature point information (633b). ), converting from front image information to front heat map information (633c), each step being performed simultaneously or, although not shown in FIG. 8, converting to foreground extraction information (633a), front feature points Converting to information (633b) and converting to front heat map information (633c) may be performed in order.
한편, 전처리 단계(630)는, 운전자의 관심 영역을 설정하는 단계(631)와 필터링을 수행하는 단계(635)를 동시에 수행할 수 있다.Meanwhile, in the preprocessing step 630, the step 631 of setting the region of interest of the driver and the step 635 of performing filtering may be simultaneously performed.
이와 관련하여, 필터링을 수행하는 단계(635)는, 심박 정보에서 잡음 신호를 제거하는 필터링을 수행하는 단계(635a) 및 음성 신호에서 잡음 신호를 제거하는 필터링을 수행하는 단계(635b)를 포함하며, 각각의 단계는 동시에 수행되거나, 도 8에 도시되지 않았지만, 심박 정보에서 필터링을 수행하는 단계(635a), 음성 신호에서 필터링을 수행하는 단계(635b) 순서로 수행될 수 있다.In this regard, performing filtering (635) includes performing filtering to remove noise signals from heart rate information (635a) and performing filtering to remove noise signals from voice signals (635b); .
이를 통해, 형상 벡터 생성 단계(650)는, 벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 전경 추출 정보, 전면 특징 정보 및 전면 히트맵 정보와 생체 정보에 포함된 심박 정보 및 음성 정보에 기초하여 각각의 특성 벡터를 추출하는 단계 및 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성하는 단계를 포함할 수 있다.Through this, the shape vector generation step 650 is based on the foreground extraction information, the front feature information, the front heat map information, and the heartbeat information and voice information included in the biometric information using a feature vector extractor that performs vector combining, respectively. It may include extracting a feature vector of and generating a single shape vector by combining each feature vector.
이처럼, 본 발명의 다른 실시예에 따른 다중 센서 융합기반 운전자 모니터링 방법은 상술한 단계를 통해 자율주행 차량의 효율성이 증대될 수 있도록, 운전자의 감정 및 행동을 모니터링하여 출력할 수 있다.As such, the multi-sensor fusion-based driver monitoring method according to another embodiment of the present invention can monitor and output the driver's emotions and behaviors so that the efficiency of the autonomous vehicle can be increased through the above-described steps.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments, it will be understood that those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will be able to.
[부호의 설명][Description of code]
100 : 다중 센서 융합기반 운전자 모니터링 장치100: multi-sensor fusion-based driver monitoring device
110 : 정보 수집부110: information collection unit
111 : 영상 수집부111: image collection unit
113 : 생체 수집부, 113a : 심박 수집부, 113b : 음성 수집부113: living body collection unit, 113a: heartbeat collection unit, 113b: voice collection unit
130 : 전처리부130: pre-processing unit
150 : 형상 벡터 생성부150: shape vector generation unit
170 : 판단부170: judgment unit
190 : 출력부190: output unit

Claims (8)

  1. 운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집부;an information collection unit that collects driver's front image information and biometric information;
    상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리부;a pre-processing unit pre-processing the front image information and biometric information;
    상기 전처리부에서 전처리된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성부;a shape vector generating unit extracting each feature vector based on the front image information and biometric information preprocessed by the pre-processing unit and generating a shape vector by combining the respective feature vectors;
    상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단부; 및a determination unit determining the driver's emotion and behavior based on the shape vector; and
    상기 운전자의 감정 및 행동을 출력하는 출력부;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.A multi-sensor fusion-based driver monitoring device comprising an output unit outputting the driver's emotions and behaviors.
  2. 제1항에 있어서,According to claim 1,
    상기 정보 수집부는,The information collection unit,
    상기 운전자의 전면 영상 정보를 수집하는 영상 수집부; 및an image collection unit that collects front image information of the driver; and
    상기 운전자의 심박 정보를 수집하는 심박 수집부와 상기 운전자의 음성 정보를 수집하는 음성 수집부를 포함하여 상기 운전자의 생체 정보를 수집하는 생체 수집부;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.a biometric collection unit that collects the driver's biometric information including a heartbeat collection unit that collects the driver's heartbeat information and a voice collection unit that collects the driver's voice information; a driver based on multi-sensor fusion monitoring device.
  3. 제2항에 있어서,According to claim 2,
    상기 전처리부는,The pre-processing unit,
    상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하되, 상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하고, 상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.The driver's region of interest is set from the front image information, the front image information set as the region of interest is converted into foreground extraction information, front feature point information, and front heat map information, and the heartbeat information included in the biometric information, the A driver monitoring device based on multi-sensor fusion, characterized in that filtering is performed to remove noise signals present in voice information.
  4. 제3항에 있어서,According to claim 3,
    상기 형상 벡터 생성부는,The shape vector generator,
    벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전면 영상 정보에서 변환된 상기 전경 추출 정보, 상기 전면 특징점 정보 및 전면 히트맵 정보와 상기 생체 정보에서 잡음 신호가 제거된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하고 상기 각각의 특성 벡터를 결합하여 하나의 형상 벡터로 생성하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 장치.The foreground extraction information converted from the front image information, the front feature point information, and the front heat map information converted from the front image information using a feature vector extractor performing vector combining, and the heart rate information and the voice information from which noise signals are removed from the biometric information A driver monitoring device based on multi-sensor fusion, characterized in that each feature vector is extracted based on the basis and combined to generate a single shape vector.
  5. 다중 센서 융합기반 운전자 모니터링 장치를 통해 수행되는 운전자 모니터링 방법에 있어서,A driver monitoring method performed through a multi-sensor fusion-based driver monitoring device,
    운전자의 전면 영상 정보 및 생체 정보를 수집하는 정보 수집 단계;an information collection step of collecting driver's front image information and biometric information;
    상기 전면 영상 정보 및 생체 정보를 전처리하는 전처리 단계;a preprocessing step of preprocessing the front image information and biometric information;
    전처리가 수행된 상기 전면 영상 정보 및 생체 정보에 기초하여 각각의 특성 벡터를 추출하고, 상기 각각의 특성 벡터를 결합하여 형상 벡터를 생성하는 형상 벡터 생성 단계;a shape vector generation step of extracting each feature vector based on the preprocessed front image information and biometric information, and generating a shape vector by combining the respective feature vectors;
    상기 형상 벡터에 기초하여 상기 운전자의 감정 및 행동을 판단하는 판단 단계; 및a determination step of determining the driver's emotion and behavior based on the shape vector; and
    상기 운전자의 감정 및 행동을 출력하는 출력 단계;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 방법.A multi-sensor fusion-based driver monitoring method comprising an output step of outputting the driver's emotions and behaviors.
  6. 제5항에 있어서,According to claim 5,
    상기 정보 수집 단계는,In the information gathering step,
    상기 운전자의 전면 영상 정보를 수집하는 단계; 및collecting front image information of the driver; and
    상기 운전자의 심박 정보 및 상기 운전자의 음성 정보를 포함하는 상기 생체 정보를 수집하는 단계;를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 방법.and collecting the biometric information including the driver's heart rate information and the driver's voice information.
  7. 제6항에 있어서,According to claim 6,
    상기 전처리 단계는,In the preprocessing step,
    상기 전면 영상 정보에서 상기 운전자의 관심 영역을 설정하는 단계;setting a region of interest of the driver from the front image information;
    상기 관심 영역으로 설정된 전면 영상 정보에서 전경 추출 정보, 전면 특징점 정보 및 전면 히트맵 정보로 변환하는 단계; 및converting front image information set as the region of interest into foreground extraction information, front feature point information, and front heat map information; and
    상기 생체 정보에 포함된 상기 심박 정보, 상기 음성 정보에 존재하는 잡음 신호를 제거하는 필터링을 수행하는 단계;를 포함하는, 다중 센서 융합기반 운전자 모니터링 방법.and performing filtering to remove noise signals present in the heartbeat information and the voice information included in the biometric information.
  8. 제7항에 있어서,According to claim 7,
    상기 형상 벡터 생성 단계는, The shape vector generation step,
    벡터 결합을 수행하는 특성 벡터 추출기를 이용하여 상기 전경 추출 정보, 상기 전면 특징정 정보 및 상기 전면 히트맵 정보와 상기 생체 정보에 포함된 상기 심박 정보 및 상기 음성 정보에 기초하여 상기 각각의 특성 벡터를 추출하는 단계; 및Using a feature vector extractor that performs vector combining, each feature vector is obtained based on the foreground extraction information, the front face feature information, the front heat map information, the heart rate information included in the biometric information, and the voice information. extracting; and
    상기 각각의 특성 벡터를 결합하여 하나의 상기 형상 벡터로 생성하는 단계를 포함하는 것을 특징으로 하는, 다중 센서 융합기반 운전자 모니터링 방법.The multi-sensor fusion-based driver monitoring method comprising the step of generating a single shape vector by combining the respective feature vectors.
PCT/KR2022/017955 2022-02-18 2022-11-15 Multi-sensor fusion-based driver monitoring apparatus and method WO2023158060A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220021286 2022-02-18
KR10-2022-0021286 2022-02-18
KR1020220045818A KR102596957B1 (en) 2022-02-18 2022-04-13 Multi sensor fusion-based driver monitoring device and method
KR10-2022-0045818 2022-04-13

Publications (1)

Publication Number Publication Date
WO2023158060A1 true WO2023158060A1 (en) 2023-08-24

Family

ID=87578787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017955 WO2023158060A1 (en) 2022-02-18 2022-11-15 Multi-sensor fusion-based driver monitoring apparatus and method

Country Status (1)

Country Link
WO (1) WO2023158060A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140080727A (en) * 2012-12-14 2014-07-01 한국전자통신연구원 System and method for controlling sensibility of driver
JP2016123852A (en) * 2014-12-31 2016-07-11 現代自動車株式会社Hyundai Motor Company Semi-contact type ecg measurement system and measuring method for the same
KR102110153B1 (en) * 2019-09-30 2020-06-09 주식회사 신양테크 Sleepiness Suppression System And Method
US20210065712A1 (en) * 2019-08-31 2021-03-04 Soundhound, Inc. Automotive visual speech recognition
JP2021124642A (en) * 2020-02-06 2021-08-30 本田技研工業株式会社 Information processing device, vehicle, program, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140080727A (en) * 2012-12-14 2014-07-01 한국전자통신연구원 System and method for controlling sensibility of driver
JP2016123852A (en) * 2014-12-31 2016-07-11 現代自動車株式会社Hyundai Motor Company Semi-contact type ecg measurement system and measuring method for the same
US20210065712A1 (en) * 2019-08-31 2021-03-04 Soundhound, Inc. Automotive visual speech recognition
KR102110153B1 (en) * 2019-09-30 2020-06-09 주식회사 신양테크 Sleepiness Suppression System And Method
JP2021124642A (en) * 2020-02-06 2021-08-30 本田技研工業株式会社 Information processing device, vehicle, program, and information processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
POULOSE ALWIN; KIM JUNG HWAN; HAN DONG SEOG: "Feature Vector Extraction Technique for Facial Emotion Recognition Using Facial Landmarks", 2021 INTERNATIONAL CONFERENCE ON INFORMATION AND COMMUNICATION TECHNOLOGY CONVERGENCE (ICTC), IEEE, 20 October 2021 (2021-10-20), pages 1072 - 1076, XP034039140, DOI: 10.1109/ICTC52510.2021.9620798 *
POULOSE ALWIN; REDDY CHINTHALA SREYA; KIM JUNG HWAN; HAN DONG SEOG: "Foreground Extraction Based Facial Emotion Recognition Using Deep Learning Xception Model", 2021 TWELFTH INTERNATIONAL CONFERENCE ON UBIQUITOUS AND FUTURE NETWORKS (ICUFN), IEEE, 17 August 2021 (2021-08-17), pages 356 - 360, XP033971195, DOI: 10.1109/ICUFN49451.2021.9528706 *

Similar Documents

Publication Publication Date Title
KR100847143B1 (en) System and Method for analyzing of human motion based silhouettes of real-time video stream
CN111563480B (en) Conflict behavior detection method, device, computer equipment and storage medium
US20090051787A1 (en) Apparatus and method for photographing image using digital camera capable of providing preview images
CN111089604B (en) Body-building exercise identification method based on wearable sensor
WO2022039559A1 (en) Method and system for breathing measurement and management using an electronic device
CN110269587B (en) Infant motion analysis system and infant vision analysis system based on motion
WO2020196985A1 (en) Apparatus and method for video action recognition and action section detection
CN114399818A (en) Multi-mode face emotion recognition method and device
CN108958482B (en) Similarity action recognition device and method based on convolutional neural network
WO2016126147A1 (en) Apparatus and method for detecting snoring
WO2023059116A1 (en) Method and device for determining visual fatigue occurrence section
WO2019035544A1 (en) Face recognition apparatus and method using learning
CN111079465A (en) Emotional state comprehensive judgment method based on three-dimensional imaging analysis
CN111904441A (en) Emotion analysis system and method based on multi-modal characteristics
WO2023158060A1 (en) Multi-sensor fusion-based driver monitoring apparatus and method
CN114081513B (en) Electromyographic signal-based abnormal driving behavior detection method and system
WO2019088333A1 (en) Method for recognizing human body activity on basis of depth map information and apparatus therefor
CN115691762A (en) Autism child safety monitoring system and method based on image recognition
CN116129405A (en) Method for identifying anger emotion of driver based on multi-mode hybrid fusion
WO2016148322A1 (en) Method and device for detecting voice activity based on image information
CN110163142B (en) Real-time gesture recognition method and system
KR102596957B1 (en) Multi sensor fusion-based driver monitoring device and method
WO2022182096A1 (en) Real-time limb motion tracking
WO2023075042A1 (en) Fall risk prevention method and device for carrying out same
CN114938958A (en) Driver emotion recognition method and system based on smart bracelet and thermal infrared camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22927456

Country of ref document: EP

Kind code of ref document: A1