KR20190023555A - Apparatus and method of determining driver state - Google Patents

Apparatus and method of determining driver state Download PDF

Info

Publication number
KR20190023555A
KR20190023555A KR1020170109477A KR20170109477A KR20190023555A KR 20190023555 A KR20190023555 A KR 20190023555A KR 1020170109477 A KR1020170109477 A KR 1020170109477A KR 20170109477 A KR20170109477 A KR 20170109477A KR 20190023555 A KR20190023555 A KR 20190023555A
Authority
KR
South Korea
Prior art keywords
driver
state
information
personalized
vehicle
Prior art date
Application number
KR1020170109477A
Other languages
Korean (ko)
Inventor
양지현
임세준
한지혁
Original Assignee
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국민대학교산학협력단 filed Critical 국민대학교산학협력단
Priority to KR1020170109477A priority Critical patent/KR20190023555A/en
Publication of KR20190023555A publication Critical patent/KR20190023555A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G06K9/00845
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • B60W2540/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style

Abstract

An apparatus for determining a driver state includes: a driving environment sensing unit including a peripheral distraction measuring sensor for receiving a driver image during driving of a vehicle to measure peripheral distraction information, a biometric sensor for measuring driver biometric information, and a vehicle measuring sensor for measuring vehicle state information; a driver recognizing unit for recognizing the driver based on the driver image; a personalized driver model selecting unit for selecting a personalized driver model when the driver is recognized; a driver running state estimating unit for estimating a driver state by reflecting a state probability value and a state reference value, which are acquired on the basis of perimeters on the peripheral distraction information, the driver biometric information, or the vehicle state information, to the personalized driver model; and a personalized driver model updating unit for updating a state probability table and state reference table including the state probability value and the state reference value, respectively, through reinforced learning on the driver state estimation.

Description

운전자 상태 판단 장치 및 방법{APPARATUS AND METHOD OF DETERMINING DRIVER STATE}[0001] APPARATUS AND METHOD OF DETERMINING DRIVER STATE [0002]

본 발명은 운전자 상태 판단 기술에 관한 것으로, 보다 상세하게는 개인화 운전자 모델을 제공함으로써 운전자의 상태를 효과적으로 판단할 수 있는 운전자 상태 판단 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a driver state determination technique, and more particularly, to a driver state determination device and method capable of effectively determining a driver's state by providing a personalized driver model.

교통사고의 높은 비율을 차지하는 원인 중 하나는 인간 오류이다. 안전한 운전에 필요한 주의문제는 운전자의 판단 실수, 정보 처리 지연 등으로 이어지고 교통사고가 발생할 가능성이 커진다. 이에 따라 다양한 연구기관과 상용 자동차 업체에서는 운전자 상황에 따라 경고를 주는 시스템을 개발하고 있다.One of the reasons for the high proportion of traffic accidents is human error. Careful attention to safe driving leads to mistakes by the driver, delays in information processing, and increases the possibility of traffic accidents. Accordingly, various research institutes and commercial vehicle companies are developing a warning system according to the driver's situation.

한국등록특허 제10-1711027호는 차량용 운전자 맞춤형 서비스 제공 방법 및 장치에 관한 것으로, 차량에 구비된 센서들을 통하여 획득되는 정보, 기상 정보와 같은 환경정보 및 운전자의 의료정보를 통하여 운전자 맞춤형 서비스를 제공하는 기술을 개시한다.Korean Patent No. 10-1711027 relates to a method and apparatus for providing a driver-customized service for a vehicle, and provides driver-customized services through environmental information such as information obtained through sensors provided in the vehicle, weather information, and driver's medical information .

한국등록특허 제10-1449326호는 운전 집중도 산출 장치 및 방법과 이를 이용한 차량 충돌 경고 시스템 및 그 방법에 관한 것으로, 자기차량의 가속도를 획득하는 네트워크 통신부, 선행차량과의 상대속도를 측정하는 상대정보 측정부, 네트워크 통신부가 획득한 자기차량의 가속도에서 노이즈를 제거하고, 상대정보 측정부가 측정한 선행차량과의 상대속도에서 노이즈를 제거하는 노이즈 제거부, 노이즈 제거부에 의해 노이즈가 제거된 자기차량의 가속도와 선행차량과의 상대속도를 기반으로 상관값을 산출하는 상관값 산출부 및 상관값 산출부에 의해 산출된 상관값들 중에서 최대 상관값이 산출된 시점을 운전 집중도로서 검출하는 운전 집중도 검출부를 포함하는 것을 특징으로 하는 기술을 개시한다.Korean Patent No. 10-1449326 relates to an apparatus and method for calculating driving concentration and a vehicle collision warning system and method using the apparatus and method. The network communication unit obtains the acceleration of the own vehicle, the relative information A noise removing unit that removes noise from the acceleration of the own vehicle acquired by the measuring unit and the network communication unit and removes noise at a relative speed with the preceding vehicle measured by the relative information measuring unit, A correlation value calculating unit for calculating a correlation value on the basis of the acceleration of the preceding vehicle and a relative speed with respect to the preceding vehicle, and a driving concentration detector for detecting, as a driving concentration, a time point at which the maximum correlation value is calculated from the correlation values calculated by the correlation value calculating unit. Which is a feature of the present invention.

한국등록특허 제10-1711027호 (2017.02.22)Korean Patent No. 10-1711027 (Feb. 22, 2017) 한국등록특허 제10-1449326호 (2014.10.01)Korean Patent No. 10-1449326 (Oct. 1, 2014)

본 발명의 일 실시예는 개인화 운전자 모델을 제공함으로써 운전자의 상태를 효과적으로 판단할 수 있는 운전자 상태 판단 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide an apparatus and method for determining a driver state that can effectively determine a driver's state by providing a personalized driver model.

본 발명의 일 실시예는 운전자 비정상상태를 운전자 정상상태로 판단하는 것을 방지할 수 있는 운전자 상태 판단 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide an apparatus and method for determining a driver state that can prevent a driver's abnormal state from being determined as a driver's normal state.

본 발명의 일 실시예는 운전자 상태 추정에 관한 학습을 통해 상태 확률 테이블과 상태 기준 테이블을 갱신함으로써 운전자에 적합한 개인화 운전자 모델을 제공할 수 있는 운전자 상태 판단 장치 및 방법을 제공하고자 한다.An embodiment of the present invention provides an apparatus and method for determining a driver state that can provide a personalized driver model suitable for a driver by updating a state probability table and a state reference table through learning about driver state estimation.

실시예들 중에서, 운전자 상태 판단 장치는 차량의 주행 과정에서 운전자 이미지를 수신하여 운전자 주위분산정보를 측정하는 주위분산 측정센서, 운전자 생체정보를 측정하는 생체 측정센서 및 차량 상태정보를 측정하는 차량 측정센서를 포함하는 주행환경 센싱부, 상기 운전자 이미지를 기초로 운전자를 인식하는 운전자 인식부, 상기 운전자가 인식된 경우에는 개인화 운전자 모델을 선택하는 개인화 운전자 모델 선택부 및 상기 개인화 운전자 모델에 상기 운전자 주위분산정보, 상기 운전자 생체정보 또는 상기 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행하는 운전자 주행상태 추정부를 포함한다.Among the embodiments, the driver's condition determining device includes a peripheral dispersion measuring sensor that receives the driver's image in the running process of the vehicle and measures the driver's peripheral dispersion information, a biometric sensor that measures the driver's biometric information, A personalized driver model selection unit for selecting a personalized driver model when the driver is recognized, and a personalized driver model selection unit for selecting the personalized driver model based on the driver's perimeter And a driver driving state estimation unit for performing driver state estimation by reflecting a state probability value and a state reference value obtained based on the dispersion information, the driver's biometric information, or the index related to the vehicle state information.

일 실시예에서, 운전자 상태 판단 장치는 상기 운전자 상태 추정에 관한 강화 학습을 통해 상기 상태 확률값과 상기 상태 기준값을 각각 포함하는 상태 확률 테이블과 상태 기준 테이블을 갱신하는 개인화 운전자 모델 갱신부를 더 포함할 수 있다.In one embodiment, the driver state determination apparatus may further include a state probability table including the state probability value and the state reference value, respectively, through a reinforcement learning on the driver state estimation, and a personalized driver model update unit for updating the state reference table have.

일 실시예에서, 상기 주위분산 측정센서는 PERCLOS(Percentage Closure of Eyes)의 평균 크기, 얼굴방향 또는 눈 깜빡임 횟수 중 적어도 하나를 기초로 상기 운전자 주위분산정보를 측정할 수 있다.In one embodiment, the ambient variance measurement sensor may measure the perimeter dispersion information of the driver based on at least one of an average size of a Percentage Closure of Eyes (PERCLOS), a face direction, or an eye blinking frequency.

일 실시예에서, 상기 생체 측정센서는 호흡수, 심박수, 피부전기반응 또는 피부온도 중 적어도 하나를 기초로 상기 운전자 생체정보를 측정할 수 있다.In one embodiment, the biometric sensor may measure the driver's biometric information based on at least one of breathing rate, heart rate, skin electrical response, or skin temperature.

일 실시예에서, 상기 개인화 운전자 모델 선택부는 복수의 개인화 운전자 모델들 중에서 상기 운전자 이미지에 대응되는 특정 개인화 운전자 모델을 선택할 수 있다.In one embodiment, the personalized driver model selection unit may select a specific personalized driver model corresponding to the driver image from among a plurality of personalized driver models.

일 실시예에서, 상기 운전자 주행상태 추정부는 상기 운전자 상태 추정을 수행하기 위하여 상기 상태 확률값을 기초로 정규 분포를 생성할 수 있다.In one embodiment, the driver driving state estimator may generate a normal distribution based on the state probability value to perform the driver state estimation.

일 실시예에서, 상기 운전자 주행상태 추정부는 상기 생성된 정규 분포에서 상기 상태 기준값을 기초로 상기 운전자 정상상태와 상기 운전자 비정상상태를 구분할 수 있다.In one embodiment, the driver driving state estimating unit may distinguish the driver normal state from the driver abnormal state based on the state reference value in the generated normal distribution.

일 실시예에서, 상기 운전자 주행상태 추정부는 상기 정규 분포의 운전자 정상상태에서 정상상태 확률 또는 비정상상태 확률을 산출하고, 상기 정규 분포의 운전자 비정상상태에서 정상상태 확률 또는 비정상상태 확률을 산출할 수 있다.In one embodiment, the driver's driving state estimator may calculate a steady state probability or an abnormal state probability in the driver's steady state of the normal distribution, and calculate a steady state probability or an abnormal state probability in the driver's abnormal state of the normal distribution .

실시예들 중에서, 운전자 상태 판단 방법은 운전자 상태 판단 장치에서 수행된다. 상기 방법은 (a) 차량의 주행 과정에서 운전자 이미지를 수신하여 운전자 주위분산정보를 측정하는 주위분산 측정센서, 운전자 생체정보를 측정하는 생체 측정센서 및 차량 상태정보를 측정하는 차량 측정센서를 포함하는 주행환경 센싱 단계, (b) 상기 운전자 이미지를 기초로 운전자를 인식하는 운전자 인식 단계, (c) 상기 운전자가 인식된 경우에는 개인화 운전자 모델을 선택하는 개인화 운전자 모델 선택 단계, (d) 상기 개인화 운전자 모델에 상기 운전자 주위분산정보, 상기 운전자 생체정보 또는 상기 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행하는 운전자 주행상태 추정 단계 및 (e) 상기 운전자 상태 추정에 관한 강화 학습을 통해 상기 상태 확률값과 상기 상태 기준값을 각각 포함하는 상태 확률 테이블과 상태 기준 테이블을 갱신하는 개인화 운전자 모델 갱신 단계를 포함한다.Among the embodiments, the driver state determination method is performed in the driver state determination apparatus. The method includes the steps of: (a) a peripheral dispersion measuring sensor for receiving the driver image in the running process of the vehicle and measuring the driver's peripheral dispersion information, a biometric sensor for measuring driver's biometric information, and a vehicle measurement sensor for measuring vehicle status information (B) a driver recognizing step of recognizing a driver based on the driver image; (c) a personalized driver model selecting step of selecting a personalized driver model when the driver is recognized; (d) A driver's driving state estimation step of performing driver's state estimation by reflecting a state probability value and a state reference value obtained on the basis of the driver's peripheral dispersion information, the driver's biomedical information, or the vehicle state information on the model, and (e) Wherein the state probability value and the state reference value are stored in the storage unit That includes personalized driver model updating step of updating the probability state table and state standards table.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다 거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It should be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it does not imply that a particular embodiment should include all of the following effects or merely include the following effects.

본 발명의 일 실시예에 따른 운전자 상태 판단 장치 및 방법은 개인화 운전자 모델을 제공함으로써 운전자의 상태를 효과적으로 판단할 수 있다.The apparatus and method for determining a driver state according to an embodiment of the present invention can effectively determine the state of a driver by providing a personalized driver model.

본 발명의 일 실시예에 따른 운전자 상태 판단 장치 및 방법은 운전자 비정상상태를 운전자 정상상태로 판단하는 것을 방지할 수 있다.The apparatus and method for determining driver's condition according to an embodiment of the present invention can prevent the driver's abnormal state from being determined as the driver's normal state.

본 발명의 일 실시예에 따른 운전자 상태 판단 장치 및 방법은 운전자 상태 추정에 관한 학습을 통해 상태 확률 테이블과 상태 기준 테이블을 갱신함으로써 운전자에 적합한 개인화 운전자 모델을 제공할 수 있다.The apparatus and method for determining a driver state according to an embodiment of the present invention can provide a personalized driver model suitable for a driver by updating the state probability table and the state reference table through learning about driver state estimation.

도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치를 설명하는 도면이다.
도 2는 도 1에 있는 운전자 상태 판단 장치에서 수행되는 운전자 상태 판단 방법을 설명하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 상태 확률값과 상태 기준값을 기초로 생성된 정규 분포의 예시를 설명하는 도면이다.
1 is a view for explaining an apparatus for determining a driver state according to an embodiment of the present invention.
FIG. 2 is a view for explaining a driver state determination method performed by the driver state determination apparatus shown in FIG. 1. FIG.
3 is a diagram illustrating an example of a normal distribution generated based on a status probability value and a status reference value according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다 거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The description of the present invention is merely an example for structural or functional explanation, and the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effects.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in the present application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.The terms "first "," second ", and the like are intended to distinguish one element from another, and the scope of the right should not be limited by these terms. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에" 와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected to the other element, but there may be other elements in between. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that there are no other elements in between. On the other hand, other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It is to be understood that the singular " include " or "have" are to be construed as including the stated feature, number, step, operation, It is to be understood that the combination is intended to specify that it does not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (e.g., a, b, c, etc.) is used for convenience of explanation, the identification code does not describe the order of each step, Unless otherwise stated, it may occur differently from the stated order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all kinds of recording devices for storing data that can be read by a computer system . Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the related art and can not be interpreted as having ideal or overly formal meaning unless explicitly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치를 설명하는 도면이다.1 is a view for explaining an apparatus for determining a driver state according to an embodiment of the present invention.

도 1을 참조하면, 운전자 상태 판단 장치(100)는 주행환경 센싱부(110), 운전자 인식부(120), 개인화 운전자 모델 선택부(130), 운전자 주행상태 추정부(140), 개인화 운전자 모델 갱신부(150) 및 제어부(160)를 포함하고, 이들 간에 전기적 신호를 송수신할 수 있도록 설계될 수 있다.1, the driver state determination apparatus 100 includes a driving environment sensing unit 110, a driver recognition unit 120, a personalized driver model selection unit 130, a driver driving state estimation unit 140, An update unit 150, and a control unit 160, and can be designed to transmit and receive electrical signals therebetween.

운전자 상태 판단 장치(100)는 운전자의 주행상태를 실시간으로 학습하고, 개인화 운전자 모델을 동적으로 갱신하여 운전자 상태에 반영함으로써 개인화된 운전자 모델을 제공할 수 있는 컴퓨팅 장치에 해당할 수 있다. 일 실시예에서, 운전자 상태 판단 장치(100)는 차량과 전기적으로 연결되거나 네트워크를 통해 연결될 수 있고, 차량의 내부에 포함되는 차량의 제어 유닛으로 구현될 수도 있다.The driver's condition determining apparatus 100 may correspond to a computing apparatus that can learn a driving state of a driver in real time, dynamically update a personalized driver model, and reflect the driver's state in a driver's state, thereby providing a personalized driver's model. In one embodiment, the driver's condition determining apparatus 100 may be electrically connected to a vehicle or connected via a network, and may be implemented as a control unit of a vehicle included in the interior of the vehicle.

주행환경 센싱부(110)는 차량의 주행 과정에서 운전자 이미지를 수신하여 운전자 주위분산정보를 측정하는 주위분산 측정센서(112), 운전자 생체정보를 측정하는 생체 측정센서(114), 차량 상태정보를 측정하는 차량 측정센서(116)를 포함할 수 있고, 그 밖의 다양한 센서들을 더 포함할 수 있다.The traveling environment sensing unit 110 includes an ambient dispersion measuring sensor 112 for receiving the driver image in the running process of the vehicle and measuring the dispersion information about the driver, a living body measurement sensor 114 for measuring driver living body information, And may include a variety of other sensors. ≪ RTI ID = 0.0 >

주위분산 측정센서(112)는 렌즈를 통해 피사체의 형상이 들어와 이미지 센서에 닿게 되면 빛이 전기신호로 바뀌어 메모리에 저장되는 구조를 가지는 이미지 센서에 해당할 수 있다. 생체 측정센서(114)는 차량의 핸들에 부착될 수 있는 GSR(Galvanic Skin Response) 센서, PPG(Photo-Plethysmography) 센서, ECG(Electrocardiography) 센서 등을 포함하거나 운전자가 착용가능한 웨어러블 장치로 구현될 수 있다.The ambient dispersion measuring sensor 112 may correspond to an image sensor having a structure in which a shape of a subject comes in through a lens and the light is converted into an electric signal and stored in a memory when the image is sensed by the image sensor. The biometric sensor 114 may be embodied as a wearable device that includes a Galvanic Skin Response (GSR) sensor, a Photo-Plethysmography (PPG) sensor, an Electrocardiography (ECG) have.

또한, 차량 측정센서(116)는 차량의 내부 정보와 외부 정보를 감지할 수 있는 센서로서 차량 내 액츄에이터들의 구동을 감지할 수 있는 센서에 해당할 수 있고, 차량의 전자제어유닛(ECU, Electronic Control Unit)으로부터 차량 주행과 관련된 정보를 수신할 수 있는 모듈에 해당할 수도 있다.The vehicle measurement sensor 116 may be a sensor capable of sensing internal information and external information of the vehicle and may be a sensor capable of sensing the driving of the actuators in the vehicle, Unit) to receive information related to driving the vehicle.

주행환경 센싱부(110)는 주위분산 측정센서(112)로부터 운전자 영상 또는 운전자 이미지를 수신하여 운전자에 관한 운전자 주위분산정보를 측정할 수 있다. 주행환경 센싱부(110)는 운전자 영상 또는 운전자 이미지를 기초로 운전자의 눈 깜빡임 횟수, 얼굴방향 또는 PERCLOS(Percentage Closure of Eyes)의 평균 크기 중 적어도 하나의 지표를 기초로 운전자 주위분산정보를 측정할 수 있고, 운전자에 관한 운전자 주위분산정보를 측정하기 위해 사용되는 지표(Index)는 그 밖의 다양한 지표들을 더 포함할 수 있다.The travel environment sensing unit 110 can receive the driver image or the driver image from the ambient dispersion measurement sensor 112 and measure the driver's ambient dispersion information about the driver. The travel environment sensing unit 110 measures the driver peripheral dispersion information based on at least one of the number of blinking times of the driver's eyes, the face direction, and the average size of PERCLOS (Percentage Closure of Eyes) based on the driver's image or the driver's image And the index used to measure driver perimeter dispersion information about the driver may further include various other indicators.

주행환경 센싱부(110)는 생체 측정센서(114)로부터 생체신호를 수신하여 운전자 생체정보를 측정할 수 있다. 주행환경 센싱부(110)는 호흡수, 심박수, 피부전기반응 또는 피부온도 중 적어도 하나의 지표를 기초로 운전자 생체정보를 측정할 수 있고, 운전자 생체정보를 측정하기 위해 사용되는 지표(Index)는 그 밖의 다양한 지표들을 더 포함할 수 있다.The traveling environment sensing unit 110 can receive the living body signal from the living body measurement sensor 114 and measure the driver living body information. The traveling environment sensing unit 110 can measure driver's living body information based on at least one index of respiratory rate, heart rate, skin electric reaction, or skin temperature, and the index used to measure driver's living body information is And may further include various other indicators.

주행환경 센싱부(110)는 차량 측정센서(116)로부터 차량내외부 정보들을 수신하여 차량 상태정보를 측정할 수 있다. 주행환경 센싱부(110)는 주행속도, 가속도, 조향각, 가속페달 중 적어도 하나의 지표를 기초로 차량 상태정보를 측정할 수 있고, 차량 상태정보를 측정하기 위해 사용되는 지표(Index)는 그 밖의 다양한 지표들을 더 포함할 수 있다.The traveling environment sensing unit 110 can receive vehicle interior / exterior information from the vehicle measurement sensor 116 and measure vehicle state information. The traveling environment sensing unit 110 can measure the vehicle state information based on at least one of the traveling speed, the acceleration, the steering angle, and the accelerator pedal, and the index (Index) And may further include various indicators.

운전자 인식부(120)는 운전자 이미지를 기초로 운전자를 인식할 수 있다. 여기에서, 운전자 이미지는 주위분산 측정센서(112)를 통해 생성될 수 있고 특정 운전자와 대응되는 운전자 얼굴 이미지를 포함할 수 있다.The driver recognition unit 120 can recognize the driver based on the driver image. Here, the driver image may be generated through the ambient variance measurement sensor 112 and may include a driver face image corresponding to a particular driver.

운전자 인식부(120)는 운전자 이미지를 기초로 운전자에 관한 운전자 등록을 수행할 수 있다. 보다 구체적으로, 운전자 인식부(120)는 운전자 등록을 수행하기 위해 운전자 이미지를 운전자 식별자(ID)로서 획득할 수 있고, 운전자 인식부(120)는 운전자에 대한 운전자 이미지가 처음으로 생성되면 해당 운전자 이미지를 기초로 해당 운전자의 운전자 등록을 수행할 수 있다. 일 실시예에서, 운전자 인식부(120)는 운전자에 관한 운전자 등록이 완료된 경우 해당 운전자가 추후 차량을 탑승할 때 운전자 등록 과정을 수행하지 않는다.The driver recognition unit 120 can perform driver registration on the driver based on the driver image. More specifically, the driver recognition unit 120 may acquire the driver image as the driver identifier (ID) in order to perform driver registration, and when the driver image for the driver is generated for the first time, The driver's registration of the driver can be performed based on the image. In one embodiment, when the driver registration for the driver is completed, the driver recognition unit 120 does not perform the driver registration process when the driver boarded the vehicle in the future.

운전자 인식부(110)는 운전자 등록정보를 차량 내부에 포함되는 메모리에 저장할 수 있다. 여기에서, 운전자 등록정보는 운전자 이미지를 기초로 운전자 등록을 수행한 후에 생성되는 적어도 하나의 운전자 등록정보를 포함할 수 있고, 예를 들어, 운전자 등록정보는 차량 모델명, 운전자에 의하여 등록된 행정적인 차량번호, 운전자 이미지 등을 포함할 수 있다.The driver recognition unit 110 may store the driver registration information in a memory included in the vehicle. Here, the driver registration information may include at least one driver registration information generated after performing driver registration based on the driver image. For example, the driver registration information may include a vehicle model name, an administrative A vehicle number, a driver image, and the like.

개인화 운전자 모델 선택부(130)는 운전자 인식부(110)를 통해 운전자가 인식된 경우에는 특정 개인화 운전자 모델을 선택할 수 있다. 보다 구체적으로, 개인화 운전자 모델 선택부(130)는 복수의 개인화 운전자 모델들 중에서 운전자 이미지에 대응되는 특정 개인화 운전자 모델을 선택할 수 있다. 일 실시예에서, 개인화 운전자 모델 선택부(130)는 {개인화 운전자 모델1, 개인화 운전자 모델2, 개인화 운전자 모델3 ... 개인화 운전자 모델n} 중에서 특정 운전자의 운전자 이미지에 대응되는 특정 개인화 운전자 모델을 선택할 수 있다.The personalized driver model selection unit 130 can select a specific personalized driver model when the driver is recognized through the driver recognition unit 110. [ More specifically, the personalized driver model selection unit 130 can select a specific personalized driver model corresponding to the driver image from among the plurality of personalized driver models. In one embodiment, the personalized driver model selection unit 130 selects a personalized driver model corresponding to a driver image of a specific driver from {personalized driver model 1, personalized driver model 2, personalized driver model 3 ... personalized driver model n} Can be selected.

운전자1Driver 1 운전자 이미지1Driver image 1 개인화 운전자 모델1Personalized Driver Model 1 운전자2Driver 2 운전자 이미지2Driver image 2 개인화 운전자 모델2Personalized Driver Model 2 운전자3Driver 3 운전자 이미지3Driver image 3 개인화 운전자 모델3Personalized Driver Model 3 운전자nDriver n 운전자 이미지nDriver image n 개인화 운전자 모델nPersonalized Driver Model n

예를 들어, 개인화 운전자 모델 선택부(130)는 주행환경 센싱부(110)를 통해 수신된 운전자 이미지가 운전자 이미지3에 해당하면 해당 운전자 이미지에 대응되는 개인화 운전자 모델3을 선택할 수 있다.For example, if the driver image received through the travel environment sensing unit 110 corresponds to the driver image 3, the personalized driver model selection unit 130 can select the personalized driver model 3 corresponding to the driver image.

운전자 주행상태 추정부(140)는 운전자 상태 추정을 수행할 수 있다. 보다 구체적으로, 운전자 주행상태 추정부(140)는 개인화 운전자 모델에 운전자 주위분산정보, 운전자 생체정보 또는 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행할 수 있다. 예를 들어, 운전자 주위분산정보, 운전자 생체정보 또는 차량 상태정보에 관한 지표는 아래의 변수들을 포함할 수 있고, 반드시 이에 한정하지 않는다.The driver driving state estimating unit 140 can perform driver state estimation. More specifically, the driver's driving state estimating unit 140 reflects the state probability value and the state reference value obtained based on the driver's perimeter dispersion information, driver's biometric information, or vehicle state information on the personalized driver model to perform driver state estimation can do. For example, the indicators about the driver's perimeter dispersion information, the driver's biometric information, or the vehicle state information may include, but are not necessarily limited to, the following variables.

<차량 상태정보에 관한 지표 예시>&Lt; Example of indicator about vehicle status information >

VD: 종방향 속도 변화량VD: longitudinal velocity variation

AxD: 종방향 가속도 변화량AxD: longitudinal acceleration variation

GM: 가속페달 평균 크기GM: Average size of accelerator pedal

GC: 가속페달 평균 횟수GC: Average number of acceleration pedals

GD: 가속페달 변화량GD: Acceleration pedal change

StD: 조향각 변화량StD: Steering angle variation

StRR: 조향각 reversal rateStRR: steering angle reversal rate

AyD: 횡방향 가속도 변화량AyD: transverse acceleration variation

<운전자 주위분산정보에 관한 지표 예시>&Lt; Example of index concerning dispersion information about driver &apos;

HCP: 얼굴 방향이 정면인 비율HCP: Percent facial orientation is frontal

BlC: 눈 깜빡임 평균 횟수BlC: Average number of eye blinks

PM: perclos 평균 크기PM: perclos average size

C3P: 대화 정도가 3이상인 비율C3P: Percentage of conversations are 3 or more

<운전자 생체정보에 관한 지표 예시>&Lt; Example of indicator about driver &apos; s biometric information &

HrHP: 심박수가 높음인 비율HrHP: High heart rate

HrvIP: 심박수 변화량이 증가인 비율HrvIP: Rate of increase in heart rate change

RrHP: 호흡수가 높음인 비율RrHP: Rate of breathing is high

RrvIP: 호흡수 변화량이 증가인 비율RrvIP: Rate of increase in respiratory rate change

GSRHP: 피부전기반응이 높음인 비율GSRHP: rate of high skin electrical response

GSRvIP: 피부전기반응 변화량이 증가인 비율GSRvIP: rate of increase in skin electrical response change

BtHP: 피부 온도가 높음인 비율BtHP: rate of skin temperature is high

BtvIP: 피부 온도 변화량이 증가인 비율BtvIP: Rate of increase in skin temperature change

운전자 주행상태 추정부(140)는 개인화 운전자 모델에 운전자 주위분산정보, 운전자 생체정보 또는 차량 상태정보에 관한 지표를 기초로 상태 확률값과 상태 기준값을 획득할 수 있다. 상태 확률값과 상태 기준값은 복수의 운전자별로 상이하게 설정될 수 있고, 차량의 주행 과정에서 주위분산정보, 운전자 생체정보 또는 차량 상태정보를 학습하여 각각의 값들이 변경될 수 있다. The driver driving state estimating unit 140 can acquire the state probability value and the state reference value on the basis of the indicator relating to the driver perimeter dispersion information, driver's biometric information, or vehicle state information in the personalized driver model. The state probability value and the state reference value may be set differently for a plurality of drivers, and each value may be changed by learning the ambient dispersion information, the driver's biometric information, or the vehicle state information in the driving process of the vehicle.

예를 들어, 운전자 주행 상태 추정부(140)는 상태 확률값을 포함하는 상태 확률 테이블과 상태 기준값을 포함하는 상태 기준 테이블을 획득할 수 있다. 일 실시예에서, 상태 확률 테이블 및 상태 기준 테이블 각각은 신호탐지이론을 기반으로 설계될 수 있다.For example, the driver driving state estimating unit 140 may obtain a state reference table including a state probability table and a state reference value including a state probability value. In one embodiment, each of the state probability table and state reference table may be designed based on signal detection theory.

<표2> 상태 확률 테이블Table 2 Status probability table

Figure pat00001
Figure pat00001

<표3> 상태 기준 테이블<Table 3> Status reference table

Figure pat00002
Figure pat00002

운전자 주행상태 추정부(140)는 운전자의 운전자 상태 추정을 수행하기 위하여 상태 확률값을 기초로 정규 분포를 생성할 수 있다. 운전자 주행상태 추정부(140)는 생성된 정규 분포에서 상태 기준 값을 기초로 운전자 정상상태와 운전자 비정상상태를 구분할 수 있다. 운전자 비정상상태는 운전자 졸음(Driver Drowsiness), 운전자 주의분산(Driver Distraction) 또는 운전자 주행 과부하 등을 포함할 수 있고, 이에 한정하지는 않는다. 여기에서, 운전자 졸음은 운전자의 의도적이지 않은 운전자의 생리적 현상으로 인해 운전자가 1차 주행에 필요한 주의를 빼앗긴 상태를 말하고, 운전자 주의분산은 운전자의 의도로 운전자가 '시각적', '수동적', '인지적' 2차 과제를 수행함으로써 1차 주행에 필요한 주의가 분산된 상태를 말하며 운전자 주행 과부하는 운전자의 의도적이지 않은 '차량 외부환경', '차량 내부와의 상호작용'에 의해 운전자가 의도적으로 1차 주행에 필요한 주의를 빼앗긴 상태를 말한다.The driver driving state estimating unit 140 may generate a normal distribution based on the state probability value to perform driver's driver state estimation. The driver's driving state estimating unit 140 can distinguish the driver's normal state from the driver's abnormal state based on the state reference value in the generated normal distribution. The driver abnormal condition may include, but is not limited to, driver drowsiness, driver distraction, or driver overload. Here, the driver's sleepiness refers to a state in which the driver has been deprived of the attention necessary for the first driving due to the physiological phenomenon of the driver who is not the intention of the driver, and the dispersion of the driver is the driver's intention, The driver's intentional overloading of the driver is caused by intentional 'outside environment of the vehicle' or 'interaction with the inside of the vehicle'. It refers to a state that has lost the attention necessary for the first run.

이하, 본 발명의 일 실시예에 따른 상태 확률값과 상태 기준값을 기초로 생성된 정규 분포는 도 3의 도면 예시를 참조하여 설명한다.Hereinafter, a normal distribution generated on the basis of the status probability value and the status reference value according to an embodiment of the present invention will be described with reference to the drawing of FIG.

도 3을 참조하면, 운전자 주행상태 추정부(140)는 상태 확률값을 기초로 정규 분포(300)를 생성할 수 있고, 정규 분포(300)는 상태 기준값(330)을 기초로 운전자 정상상태(310) 및 운전자 비정상상태(320)로 구분될 수 있다.3, the driver driving state estimating unit 140 may generate a normal distribution 300 based on the state probability value and the normal distribution 300 may generate the driver normal state 310 And an operator abnormal state 320. [0050]

보다 구체적으로, 운전자 주행상태 추정부(140)는 운전자 상태 추정 알고리즘(Driver State Estimation Algorithm)을 통해 운전자 상태를 판단할 수 있다. 도 3에서 나타내는 각각 변수들의 의미는 아래와 같다.More specifically, the driver driving state estimating unit 140 can determine the driver state through a driver state estimation algorithm (Driver State Estimation Algorithm). The meanings of the variables shown in FIG. 3 are as follows.

Noise: 운전자 정상상태 데이터 분포Noise: Operator steady state data distribution

Signal + Noise: 운전자 비정상상태 데이터 분포Signal + Noise: Operator abnormal condition data distribution

Criterion: 상태 기준값Criterion: status reference value

"no" region: 상태 기준값을 기준으로 운전자 정상상태로 판단하는 영역"no" region: an area judged to be the driver's normal state based on the reference value

"yes" region: 상태 기준값을 기준으로 운전자 비정상상태로 판단하는 영역"yes" region: an area that judges the driver to be in an abnormal state based on the reference value

붉은색 영역(322): 운전자 상태 추정 알고리즘이 운전자 비정상상태로 판단했을 경우 비정상상태일 확률Red area 322: If the driver state estimation algorithm determines that the driver is in an abnormal state,

푸른색 영역(324): 운전자 상태 추정 알고리즘이 운전자 비정상상태로 판단했을 경우 정상상태일 확률Blue color area (324): When the driver state estimation algorithm judges that the driver is in an abnormal state,

일 실시예에서, 운전자 주행상태 추정부(140)는 정규 분포(300)의 운전자 정상상태 영역(310)에서 운전자 상태가 정상상태일 확률(312)과 비정상상태일 확률(314)을 산출할 수 있다. 예를 들어, 운전자 주행상태 추정부(140)는 산출된 4개의 상태 확률들을 상태 확률 테이블에 반영할 수 있다. 따라서, 운전자 주행상태 추정부(140)는 운전자 정상상태 영역(310)과 운전자 비정상상태 영역(320)으로 구분된 정규 분포에서 해당 확률을 선택하여 운전자에 관한 운전자 상태 추정을 수행할 수 있다.In one embodiment, the driver driving state estimator 140 may calculate the probability 312 that the driver state is normal and the probability 314 that the driver state is abnormal in the driver steady state region 310 of the normal distribution 300 have. For example, the driver driving state estimating unit 140 may reflect the calculated four state probabilities in the state probability table. Accordingly, the driver's driving state estimating unit 140 can perform the driver's state estimation on the driver by selecting the corresponding probability from the normal distribution divided into the driver's normal state region 310 and the driver's abnormal state region 320.

다시 도 1에 관하여 설명한다.1 will be described again.

운전자 주행상태 추정부(140)는 정규 분포에서 4개의 확률들을 산출할 수 있다. 보다 구체적으로, 운전자 주행상태 추정부(140)는 정규 분포의 운전자 정상상태에서 정상상태일 확률, 정규 분포의 운전자 정상상태에서 비정상상태일 확률, 정규 분포의 운전자 비정상상태에서 정상상태일 확률 또는 정규 분포의 운전자 비정상상태에서 비정상상태일 확률을 산출할 수 있다. The driver's running state estimation unit 140 can calculate four probabilities in the normal distribution. More specifically, the driver's running condition estimating unit 140 estimates the probability of a steady state in a driver's normal state of a normal distribution, a probability that an abnormal state occurs in a driver's normal state of a normal distribution, a normal state probability in a driver's abnormal state of a normal distribution, It is possible to calculate the probability of the abnormal state in the driver abnormal state of the distribution.

개인화 운전자 모델 갱신부(150)는 운전자 상태 추정에 관한 강화 학습을 통해 상태 확률값과 상태 기준값을 각각 포함하는 상태 확률 테이블(Probability Table)과 상태 기준 테이블(Threshold Table)을 갱신할 수 있다. 여기에서, 강화 학습(Reinforcement learning)은 어떤 환경 안에서 정의된 에이전트가 현재의 상태를 인식하여 선택 가능한 행동들 중 보상을 최대화하는 행동 또는 행동 순서를 선택하는 학습을 의미한다.The personalized driver model updating unit 150 may update the state probability table and the state table including the state probability value and the state reference value through reinforcement learning about the driver state estimation. Here, reinforcement learning refers to learning in which an agent defined in an environment selects an action or sequence of actions that maximizes compensation among selectable behaviors by recognizing the current state.

일 실시예에서, 개인화 운전자 모델 갱신부(150)는 차량의 주행 과정에서 운전자 상태 추정에 관한 강화 학습을 수행할 수 있다. 예를 들어, 개인화 운전자 모델 갱신부(150)는 강화 학습을 통해 운전자 상태가 '운전자 졸음'에 해당하는 운전자 비정상상태인 것으로 인식할 수 있고, 인식된 운전자 상태 결과를 개인화 운전자 모델에 반영하여 이전 개인화 운전자 모델을 갱신할 수 있다.In one embodiment, the personalized driver model update unit 150 may perform reinforcement learning on the driver state estimation in the driving process of the vehicle. For example, the personalized driver model updating unit 150 can recognize that the driver state is the driver abnormal state corresponding to 'driver sleepiness' through reinforcement learning, and reflects the recognized driver state result to the personalized driver model The personalized driver model can be updated.

운전자 상태 결정부(미도시)는 운전자 주행상태 추정부(140)에 의하여 수행된 운전자 상태 추정 결과를 기초로 운전자에 관한 상태를 판단할 수 있다. 일 실시예에서, 운전자 상태 결정부는 복수의 센서들을 통해 측정된 정보들을 정규 분포 상에서 상태 확률값과 상태 기준값을 기초로 분석할 수 있고, 이에 따라 정규 분포 상에서 어느 영역에 해당하는지 확인함으로써 운전자에 관한 현재 상태를 결정할 수 있다.The driver state determination unit (not shown) can determine the driver's state based on the driver state estimation result performed by the driver state estimation unit 140. In one embodiment, the driver state determiner can analyze the information measured through the plurality of sensors on the basis of the state probability value and the state reference value on the normal distribution, thereby determining which region corresponds to the normal distribution, The state can be determined.

제어부(160)는 운전자 상태 판단 장치(100)의 전반적인 동작을 제어할 수 있고, 주행환경 센싱부(110), 운전자 인식부(120), 개인화 운전자 모델 선택부(130), 운전자 주행상태 추정부(140) 및 개인화 운전자 모델 갱신부(150) 간의 제어흐름 또는 데이터 흐름을 제어할 수 있다.The control unit 160 can control the overall operation of the driver condition determining apparatus 100 and includes a driving environment sensing unit 110, a driver recognition unit 120, a personalized driver model selection unit 130, (140) and the personalized driver model update unit (150).

도 2는 도 1에 있는 운전자 상태 판단 장치에서 수행되는 운전자 상태 판단 방법을 설명하는 도면이다.FIG. 2 is a view for explaining a driver state determination method performed by the driver state determination apparatus shown in FIG. 1. FIG.

여기에서, 도 2는 설명 편의를 위해 운전자의 운전자 등록이 완료되고, 해당 운전자별로 개인화 운전자 모델이 제공된 것으로 가정하여 설명한다.Here, FIG. 2 assumes that the driver's registration of the driver is completed for the convenience of explanation, and the personalized driver model is provided for each driver.

운전자 인식부(120)는 운전자가 차량에 탑승하게 되면 운전자를 촬영하는 주위분산 측정센서(112)로부터 수신된 운전자 이미지를 기초로 운전자를 인식할 수 있다(단계 S210). 일 실시예에서, 운전자 인식부(120)는 운전자의 인식이 성공된 경우에는 개인화 운전자 모델 선택부(130)를 통해 해당 운전자 이미지에 대응되는 개인화 운전자 모델을 선택할 수 있도록 할 수 있다.The driver recognizing unit 120 recognizes the driver based on the driver image received from the ambient dispersion measuring sensor 112 that photographs the driver when the driver boarded the vehicle (step S210). In one embodiment, the driver recognition unit 120 can select a personalized driver model corresponding to the driver image through the personalized driver model selection unit 130 when the driver's recognition is successful.

개인화 운전자 모델 선택부(130)는 운전자가 인식된 경우 개인화 운전자 모델을 선택할 수 있다(단계 S220). 보다 구체적으로, 개인화 운전자 모델 선택부(130)는 복수의 개인화 운전자 모델들 중에서 운전자 이미지에 대응되는 특정 개인화 운전자 모델을 선택할 수 있다.The personalized driver model selection unit 130 can select the personalized driver model when the driver is recognized (step S220). More specifically, the personalized driver model selection unit 130 can select a specific personalized driver model corresponding to the driver image from among the plurality of personalized driver models.

주행환경 센싱부(110)는 차량의 주행 과정에서 주위분산 측정센서(112)로부터 운전자 이미지를 수신하여 운전자 주위분산정보를 측정할 수 있고, 생체 측정센서(114)를 통해 운전자 생체정보를 측정할 수 있으며 차량 측정센서(116)를 통해 차량 상태정보를 측정할 수 있다(단계 S230). 일 실시예에서, 주행환경 센싱부(110)는 차량의 주행 과정에서 복수의 센서들에 의해 측정된 정보들을 운전자 상태 추정 알고리즘에 반영할 수 있다.The traveling environment sensing unit 110 may receive the driver image from the ambient dispersion measuring sensor 112 in the traveling process of the vehicle and measure the driver's environment dispersion information and measure the driver's living body information through the living body measurement sensor 114 And can measure the vehicle status information through the vehicle measurement sensor 116 (step S230). In one embodiment, the travel environment sensing unit 110 may reflect the information measured by the plurality of sensors in the driving process of the vehicle to the driver state estimation algorithm.

운전자 주행상태 추정부(140)는 선택된 개인화 운전자 모델에 운전자 주위분산정보, 운전자 생체정보 또는 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행할 수 있다(단계 S240). 개인화 운전자 모델 갱신부(150)는 운전자 상태 추정에 관한 강화 학습을 통해 상태 확률값과 상태 기준값을 각각 포함하는 상태 확률 테이블과 상태 기준 테이블을 갱신할 수 있다(단계 S250).The driver driving state estimating unit 140 may perform driver state estimation on the selected personalized driver model by reflecting the state probability value and the state reference value acquired based on the driver perimeter dispersion information, the driver's living body information, or the vehicle state information (Step S240). The personalized driver model updating unit 150 may update the state probability table and the state reference table each including the state probability value and the state reference value through reinforcement learning about the driver state estimation (step S250).

상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as set forth in the following claims And changes may be made without departing from the spirit and scope of the invention.

100: 운전자 상태 판단 장치
110: 주행환경 센싱부 112: 주위분산 측정센서
114: 생체 측정센서 116: 차량 측정센서
120: 운전자 인식부 130: 개인화 운전자 모델 선택부
140: 운전자 주행상태 추정부 150: 개인화 운전자 모델 갱신부
160: 제어부
100: Driver status judging device
110: traveling environment sensing unit 112: ambient dispersion measuring sensor
114: Biometric sensor 116: Vehicle measurement sensor
120: driver recognition unit 130: personalized driver model selection unit
140: driver driving state estimating unit 150: personalized driver model updating unit
160:

Claims (9)

차량의 주행 과정에서 운전자 이미지를 수신하여 운전자 주위분산정보를 측정하는 주위분산 측정센서, 운전자 생체정보를 측정하는 생체 측정센서 및 차량 상태정보를 측정하는 차량 측정센서를 포함하는 주행환경 센싱부;
상기 운전자 이미지를 기초로 운전자를 인식하는 운전자 인식부;
상기 운전자가 인식된 경우에는 개인화 운전자 모델을 선택하는 개인화 운전자 모델 선택부; 및
상기 개인화 운전자 모델에 상기 운전자 주위분산정보, 상기 운전자 생체정보 또는 상기 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행하는 운전자 주행상태 추정부를 포함하는 운전자 상태 판단 장치.
A traveling environment sensing unit including a peripheral dispersion measuring sensor for receiving the driver image in the traveling process of the vehicle and measuring dispersion information about the driver, a living body measuring sensor for measuring driver's living body information, and a vehicle measuring sensor for measuring vehicle state information;
A driver recognition unit for recognizing a driver based on the driver image;
A personalized driver model selection unit for selecting a personalized driver model when the driver is recognized; And
A driver driving state estimating unit for estimating driver state by reflecting a state probability value and a state reference value obtained on the basis of the driver perimeter dispersion information, the driver's biometric information, or the vehicle state information on the personalized driver model, State determination device.
제1항에 있어서,
상기 운전자 상태 추정에 관한 강화 학습을 통해 상기 상태 확률값과 상기 상태 기준값을 각각 포함하는 상태 확률 테이블과 상태 기준 테이블을 갱신하는 개인화 운전자 모델 갱신부를 더 포함하는 운전자 상태 판단 장치.
The method according to claim 1,
Further comprising a personalization driver model updating unit for updating a state probability table and a state reference table each including the state probability value and the state reference value through reinforcement learning regarding the driver state estimation.
제1항에 있어서, 상기 주위분산 측정센서는
PERCLOS(Percentage Closure of Eyes)의 평균 크기, 얼굴방향 또는 눈 깜빡임 횟수 중 적어도 하나를 기초로 상기 운전자 주위분산정보를 측정하는 것을 특징으로 하는 운전자 상태 판단 장치.
The apparatus as claimed in claim 1, wherein the ambient dispersion measuring sensor
Wherein the driver perimeter dispersion information is measured based on at least one of an average size, a face direction, and an eye blinking frequency of PERCLOS (Percentage Closure of Eyes).
제1항에 있어서, 상기 생체 측정센서는
호흡수, 심박수, 피부전기반응 또는 피부온도 중 적어도 하나를 기초로 상기 운전자 생체정보를 측정하는 것을 특징으로 하는 운전자 상태 판단 장치.
The biometric sensor according to claim 1, wherein the biometric sensor
Wherein the driver's biometric information is measured based on at least one of respiratory rate, heart rate, skin electrical response, or skin temperature.
제1항에 있어서, 상기 개인화 운전자 모델 선택부는
복수의 개인화 운전자 모델들 중에서 상기 운전자 이미지에 대응되는 특정 개인화 운전자 모델을 선택하는 것을 특징으로 하는 운전자 상태 판단 장치.
The method of claim 1, wherein the personalized driver model selection unit
And selects a specific personalized driver model corresponding to the driver image from among the plurality of personalized driver models.
제1항에 있어서, 상기 운전자 주행상태 추정부는
상기 운전자 상태 추정을 수행하기 위하여 상기 상태 확률값을 기초로 정규 분포를 생성하는 것을 특징으로 하는 운전자 상태 판단 장치.
The driving force control apparatus according to claim 1,
And generates a normal distribution based on the status probability value to perform the driver state estimation.
제6항에 있어서, 상기 운전자 주행상태 추정부는
상기 생성된 정규 분포에서 상기 상태 기준값을 기초로 상기 운전자 정상상태와 상기 운전자 비정상상태를 구분하는 것을 특징으로 하는 운전자 상태 판단 장치.
7. The apparatus of claim 6, wherein the driver's driving state estimating unit
And discriminates the driver's normal state from the driver's abnormal state based on the state reference value in the generated normal distribution.
제7항에 있어서, 상기 운전자 주행상태 추정부는
상기 정규 분포의 운전자 정상상태에서 정상상태 확률 또는 비정상상태 확률을 산출하고, 상기 정규 분포의 운전자 비정상상태에서 정상상태 확률 또는 비정상상태 확률을 산출하는 것을 특징으로 하는 운전자 상태 판단 장치.
8. The apparatus of claim 7, wherein the driver's driving state estimating unit
And calculates a steady state probability or an abnormal state probability in the driver normal state of the normal distribution and calculates a steady state probability or an abnormal state probability in the driver abnormal state of the normal distribution.
운전자 상태 판단 장치에서 수행되는 운전자 상태 판단 방법에 있어서,
(a) 차량의 주행 과정에서 운전자 이미지를 수신하여 운전자 주위분산정보를 측정하는 주위분산 측정센서, 운전자 생체정보를 측정하는 생체 측정센서 및 차량 상태정보를 측정하는 차량 측정센서를 포함하는 주행환경 센싱 단계;
(b) 상기 운전자 이미지를 기초로 운전자를 인식하는 운전자 인식 단계;
(c) 상기 운전자가 인식된 경우에는 개인화 운전자 모델을 선택하는 개인화 운전자 모델 선택 단계;
(d) 상기 개인화 운전자 모델에 상기 운전자 주위분산정보, 상기 운전자 생체정보 또는 상기 차량 상태정보에 관한 지표를 기초로 획득된 상태 확률값과 상태 기준값을 반영하여 운전자 상태 추정을 수행하는 운전자 주행상태 추정 단계; 및
(e) 상기 운전자 상태 추정에 관한 강화 학습을 통해 상기 상태 확률값과 상기 상태 기준값을 각각 포함하는 상태 확률 테이블과 상태 기준 테이블을 갱신하는 개인화 운전자 모델 갱신 단계를 포함하는 운전자 상태 판단 방법.
In a driver state judging method performed by a driver state judging device,
(a) a traveling environment sensor including a peripheral dispersion measuring sensor for receiving the driver's image in the traveling process of the vehicle and measuring the dispersion information about the driver, a living body measuring sensor for measuring driver's living body information, and a vehicle measuring sensor for measuring the vehicle condition information step;
(b) a driver recognizing step of recognizing a driver based on the driver image;
(c) a personalized driver model selection step of selecting a personalized driver model when the driver is recognized;
(d) a driver driving state estimating step of performing driver state estimation by reflecting the state probability value and the state reference value obtained on the basis of the driver perimeter dispersion information, the driver's biometric information, or the vehicle state information on the personalized driver model, ; And
(e) a personalized driver model updating step of updating a state probability table and a state reference table each including the state probability value and the state reference value through reinforcement learning on the driver state estimation.
KR1020170109477A 2017-08-29 2017-08-29 Apparatus and method of determining driver state KR20190023555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170109477A KR20190023555A (en) 2017-08-29 2017-08-29 Apparatus and method of determining driver state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170109477A KR20190023555A (en) 2017-08-29 2017-08-29 Apparatus and method of determining driver state

Publications (1)

Publication Number Publication Date
KR20190023555A true KR20190023555A (en) 2019-03-08

Family

ID=65800412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109477A KR20190023555A (en) 2017-08-29 2017-08-29 Apparatus and method of determining driver state

Country Status (1)

Country Link
KR (1) KR20190023555A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11218837B2 (en) 2019-08-05 2022-01-04 Samsung Electronics Co., Ltd. Method for determining position in vehicle using vehicle movement and apparatus therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449326B1 (en) 2013-09-03 2014-10-08 현대자동차주식회사 Apparatus and method for calculating concentration grade of driver, vehicle collision warning system using the same
KR101711027B1 (en) 2012-04-25 2017-03-13 한국전자통신연구원 Method and apparatus for providing personalized vehicle service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101711027B1 (en) 2012-04-25 2017-03-13 한국전자통신연구원 Method and apparatus for providing personalized vehicle service
KR101449326B1 (en) 2013-09-03 2014-10-08 현대자동차주식회사 Apparatus and method for calculating concentration grade of driver, vehicle collision warning system using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11218837B2 (en) 2019-08-05 2022-01-04 Samsung Electronics Co., Ltd. Method for determining position in vehicle using vehicle movement and apparatus therefor

Similar Documents

Publication Publication Date Title
US11834052B2 (en) Estimator generation apparatus, monitoring apparatus, estimator generation method, and computer-readable storage medium storing estimator generation program
CN106965674B (en) Method and system for operating a vehicle when an occupant experiences a potential disorder
EP3033999B1 (en) Apparatus and method for determining the state of a driver
CN107554528B (en) Fatigue grade detection method and device for driver and passenger, storage medium and terminal
CN111166357A (en) Fatigue monitoring device system with multi-sensor fusion and monitoring method thereof
JP5423872B2 (en) Biological condition determination device
JP2020114377A (en) System and method detecting problematic health situation
JP2019507443A (en) Personalization apparatus and method for monitoring motor vehicle drivers
US11810373B2 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
CN109716411A (en) Method and apparatus to monitor the activity level of driver
JP2009301367A (en) Driver state estimation device
CN110641468A (en) Controlling autonomous vehicles based on passenger behavior
US20210188322A1 (en) Vehicle device and drive assist program product
CN113491519A (en) Digital assistant based on emotion-cognitive load
WO2018211966A1 (en) Driver monitoring device, driver monitoring method and program for monitoring driver
KR20190023555A (en) Apparatus and method of determining driver state
US11260874B2 (en) Driver assistance device that can be mounted on a vehicle
CN113598773A (en) Data processing device and method for evaluating user discomfort
JP4915123B2 (en) Driving adaptive state estimation device, automobile and driving adaptive state estimation method
JP6772775B2 (en) Driving support device and driving support method
CN113307192B (en) Processing device, processing method, notification system, and storage medium
CN114084145A (en) Vehicle and control method thereof
CN113239798A (en) Three-dimensional head posture estimation method based on twin neural network, storage medium and terminal
JP2020194206A (en) Learning method, driving support method, learning program, driving support program, learning device, driving support system, and learning system
CN111783550B (en) Monitoring and adjusting method and system for emotion of driver