KR102479049B1 - The apparatus and method for Driver Status Recognition based on Driving Status Decision Information - Google Patents

The apparatus and method for Driver Status Recognition based on Driving Status Decision Information Download PDF

Info

Publication number
KR102479049B1
KR102479049B1 KR1020180053895A KR20180053895A KR102479049B1 KR 102479049 B1 KR102479049 B1 KR 102479049B1 KR 1020180053895 A KR1020180053895 A KR 1020180053895A KR 20180053895 A KR20180053895 A KR 20180053895A KR 102479049 B1 KR102479049 B1 KR 102479049B1
Authority
KR
South Korea
Prior art keywords
driver
information
driving
face
pupil
Prior art date
Application number
KR1020180053895A
Other languages
Korean (ko)
Other versions
KR20190134909A (en
Inventor
김진우
김기태
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180053895A priority Critical patent/KR102479049B1/en
Priority to JP2018209047A priority patent/JP7154959B2/en
Publication of KR20190134909A publication Critical patent/KR20190134909A/en
Application granted granted Critical
Publication of KR102479049B1 publication Critical patent/KR102479049B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identity check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 주행상황 판단 정보 기반 운전자 상태 인식 장치에 관한 것으로, 영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 영상 획득부; 차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 주행 상황 인식부; 상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 주행 집중도 결정부; 및 상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 주행 지도 결정부;를 포함한다. The present invention relates to an apparatus for recognizing a driver's condition based on driving situation determination information, comprising: an image acquisition unit that obtains driver's face condition information from an image capture device and driving behavior information of a driver from a driver's driving information acquisition device; a driving situation recognition unit that obtains driving situation recognition information of a surrounding vehicle from an external interference recognizing device; a driving concentration determining unit that determines a driver's driving concentration by comparing obtained information such as the driver's face state information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned face vector information; and a driving map determination unit configured to determine a driver driving map corresponding to the determined driver driving concentration.

Description

주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법{The apparatus and method for Driver Status Recognition based on Driving Status Decision Information}The apparatus and method for Driver Status Recognition based on Driving Status Decision Information}

본 발명은 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 주행 보조 시스템 또는 자율주행 시스템에서 활용 가능한 융합 정보 기반으로 운전자의 상태를 인식하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for recognizing a driver's state based on driving situation determination information, and more particularly, to an apparatus and method for recognizing a driver's state based on fusion information usable in a driving assistance system or an autonomous driving system.

최근 자율주행시스템의 완전한 성장 이전에는 안전운전을 위해 운전자의 상태인식 기술을 적용한 안전 운전 유도 기술이 적용되고 있다. Recently, before the complete growth of autonomous driving systems, safe driving induction technology that applies driver's state recognition technology is being applied for safe driving.

특히, 운전자의 졸음, 주의분산, 무반응에 대한 기술과 표정, 패턴 등으로 운전자의 심리를 예측하여 주행 상 경고나 피드백을 제공함으로써 안전운전을 유도하는 기술이 발전하고 있다. In particular, technology for driving drowsiness, distraction, and unresponsiveness, as well as technology for inducing safe driving by predicting the driver's psychology with facial expressions and patterns and providing warnings or feedback while driving, are developing.

또한, 자율주행시스템과 연계되어 차량이 주행하기 어려울 때나 운전자가 운전이 불가능한 상태를 파악하여 차량에 대한 행동을 판단하는 기술 또한 연구되고 있다. In addition, a technology for determining the behavior of the vehicle by identifying when the vehicle is difficult to drive or when the driver is unable to drive in connection with the autonomous driving system is also being studied.

다만, 시스템이 판단하여 자율로 구동하는 기술의 상용화를 위해서는 고도화된 인식률과 안전장치가 필요한데 현재 시점에서는 양산에 있어서는 비용 및 다양한 상황에 따른 문제 때문에 기술 적용이 어렵다. However, for the commercialization of autonomously driven technology based on the judgment of the system, an advanced recognition rate and safety devices are required. However, at this point in mass production, it is difficult to apply the technology due to problems related to cost and various situations.

그리고, 종래 상용화된 운전자 보조시스템은 운전자가 장시간 정차하지 않고 주행하는 경우 운전 부하로 판단하고, BSD(Blind Spot Detection)과 같이 측후방의 차량이 사각지대에 있는 상황에서 운전자가 방향 지시등을 켜지 않고 진입하려는 경우 경고음을 발생시키는 수준이다. In addition, a conventionally commercialized driver assistance system judges a driver driving without stopping for a long time as a driving load, and, like BSD (Blind Spot Detection), the driver does not turn on the turn signal in a situation where the vehicle on the side and rear is in a blind spot. It is a level that generates a warning sound if you try to enter.

이와 같이, 종래 상용화된 운전자 보조시스템은 졸음인식, 표정인식, 주의 분산인식과 같은 운전자 상태인식에 대한 기능이 개발되었으나 어디까지나 보조수단으로 이용되고 있어서, 광범위한 신뢰도를 제공하기는 어려운 상황이다.In this way, conventionally commercialized driver assistance systems have developed driver state recognition functions such as drowsiness recognition, facial expression recognition, and distraction recognition, but are used only as auxiliary means, making it difficult to provide wide reliability.

이와 같이, 완전 자율주행이 상용화되기 이전에 운전자 상태를 모니터링하는 방법은 안전 주행에 필요한 보조 시스템 수준에서 고도화될 것이 요구되고, 완전자율주행과 가까워지는 시점에서는 상호작용을 중심으로, 완전자율주행 있어서는 차량과 운전자, 콘텐츠가 능동적 커뮤니케이션이 이루어지는 시기가 될 전망이다. In this way, the method of monitoring the driver's condition before fully autonomous driving is commercialized is required to be advanced at the level of the auxiliary system required for safe driving, focusing on interaction at the point of approaching complete autonomous driving. It is expected that this will be a time when active communication between vehicles, drivers and content takes place.

기존의 운전자 상태 인식 방식은 눈을 감는 정도, 시선의 분산, 주행 중 브레이크, 가속, 방향 지시등, 조향 유무 정보를 기존에 정의한 범주 내에서 판단 가능하도록 한다. Existing driver state recognition methods allow the determination of the degree of eyes closed, gaze dispersion, braking while driving, acceleration, direction indicators, and steering presence/absence information within previously defined categories.

이는 상황에 대해 사전에 정의된 몇 가지 경우 이외의 판단에 대한 인식률 혹은 판단하기 위한 범위의 한계성과 오류 발생에 대한 문제점을 포함하고 있다. This includes problems with the recognition rate for judgment other than a few cases defined in advance for the situation or the limitation of the scope for judgment and the occurrence of errors.

본 발명은 종래 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 운전자가 전방을 주시하지 않거나 눈의 감긴 상태만을 기반으로 판단되었던 운전자 상태인식 기술을 고도화한 것으로, 전방을 주시하고 있는 상태, 눈이 감겨지는 패턴, 차량의 정보, 주행환경에 대한 판단정보를 기반으로 운전자의 상태를 인식하고 판단하는 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법을 제공하고자 한다. The present invention has been made to solve the conventional problems, and an object of the present invention is to advance the driver state recognition technology, which was determined based on only the closed state of the driver's eyes or when the driver did not look forward. An apparatus and method for recognizing a driver's state based on driving situation determination information that recognizes and determines the driver's state based on eye-closing patterns, vehicle information, and driving environment determination information are provided.

본 발명의 다른 목적은 운전자의 졸음, 주의 분산 정보를 차량 정보 및 주위 차량 정보와 융합하여 실시간으로 분석하고 이를 판단할 수 있는 주행상황 판단 정보 기반 운전자 상태 인식 장치 및 방법을 제공하고자 한다. Another object of the present invention is to provide an apparatus and method for recognizing a driver's state based on driving situation determination information that can analyze and determine driver's drowsiness and distraction information in real time by fusing vehicle information and surrounding vehicle information.

그리고 본 발명의 또 다른 목적은 주행 중 운전자의 행동 및 얼굴에 대한 정보를 실시간 분석, 주변환경 및 외부 빛에 대한 영향, 주변 차량을 포함한 이동 혹은 정적 장애물 위치 및 움직임 패턴, 위험 요인들을 분석한 정보를 기반으로 현재 차량이 주행 시 운전자에게 요구하는 집중도를 분석하여 안전 운행 혹은 자율주행에 대한 운전자-차량 간 판단 정보를 제공하고자 한다. Another object of the present invention is information obtained by analyzing real-time information on the driver's behavior and face while driving, the influence of the surrounding environment and external light, the location and movement patterns of moving or static obstacles including surrounding vehicles, and risk factors. Based on this, we intend to provide driver-vehicle decision information on safe driving or autonomous driving by analyzing the degree of concentration required of the driver when the current vehicle is driving.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식 장치는 영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 영상 획득부; 차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 주행 상황 인식부; 상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 주행 집중도 결정부; 및 상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 주행 지도 결정부;를 포함한다. In order to achieve the above object, an apparatus for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention acquires driver's face condition information from an image capture device and driver's driving behavior information from a driver's driving information acquisition device. acquisition unit; a driving situation recognition unit that obtains driving situation recognition information of a surrounding vehicle from an external interference recognizing device; a driving concentration determining unit that determines a driver's driving concentration by comparing obtained information such as the driver's face state information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned facial vector information; and a driving map determination unit configured to determine a driver driving map corresponding to the determined driver driving concentration.

여기서, 상기 주행 집중도 결정부는, 상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단하여 상기 운전자가 정면을 응시한다고 판단되면, 위험 정도와 조작레벨에 따른 상황을 판단하는 것이 바람직하다. Here, the driving concentration determination unit determines whether the driver is drowsy or stares straight ahead through the information on the driver's facial condition, and if it is determined that the driver gazes straight ahead, it is preferable to determine a situation according to the degree of danger and the manipulation level. .

그리고 카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역을 설정하기 위한 두 개의 기준 포인트를 선택하는 포인트 선택부; 및 상기 선택된 기준 포인트의 좌표와 두 기준 포인트 간의 거리와 비율을 이용하여 사각형의 기준 영역을 설정하는 정규화부를 포함한다. and a point selection unit selecting two reference points for setting a reference area in the face image in order to normalize the face image acquired through the camera; and a normalizer for setting a rectangular reference area using the coordinates of the selected reference point and the distance and ratio between the two reference points.

또한, 상기 포인트 선택부는, 얼굴 이미지에서 동공 기준 영역을 선택하기 위해, 동공 중심에 동공 기준 포인트가 선택되었는지를 판단하여 기준 포인트가 동공 중심에 위치함을 확인하면, 상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원을 사용자에게 제공하고, 설정 선택이 완료되면 해당 상기 기준 가이드 원을 동공 기준 영역으로 설정한다. In addition, the point selector determines whether a pupil reference point is selected at the center of the pupil in order to select a pupil reference region in the face image, and when confirming that the reference point is located at the center of the pupil, the size is adjusted from the pupil reference point. A reference guide circle is provided to the user, and when setting selection is completed, the corresponding reference guide circle is set as a pupil reference area.

그리고 상기 포인트 선택부는, 선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리하는 것이 바람직하다. Further, the point selection unit preferably processes pixels of the remaining region except for the selected pupil reference region as a '0' value.

한편, 본 발명의 일 실시예에 따르면, 설정된 사각형의 기준 영역간의 벡터 정보들을 이용하여 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득하는 벡터 정보 획득부; 및 운전자의 부가 기능 조작 상태를 포함하는 운전자 연결 상태 정보를 획득하고 상기 획득한 운전자의 얼굴 벡터 정보를 기준으로 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정하는 얼굴 상태 정보 결정부를 포함한다. Meanwhile, according to an embodiment of the present invention, a vector information acquisition unit for acquiring face vector information of a driver including face direction reference gaze information, whether eyes are closed, and a gaze state using vector information between set rectangular reference regions; and a facial state information determining unit that obtains driver connection state information including a driver's operation state of an additional function and determines driver's face state information using the driver connection state information based on the obtained driver's face vector information. .

본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식 방법은 영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 단계; 차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 단계; 상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 단계; 및 상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 단계;를 포함한다. A method for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention includes obtaining driver's face condition information from an image capture device and driver's driving behavior information from a driver's driving information acquisition device; obtaining driving situation recognition information of surrounding vehicles from an external interference detection device; determining a driver's driving concentration by comparing obtained information such as the driver's face condition information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned face vector information; and determining a driver driving map to correspond to the determined driver driving concentration.

본 발명의 일 실시예에 채용된 상기 운전자 주행 집중도를 결정하는 단계는, 상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단하는 단계; 및 상기 운전자가 정면을 응시한 것으로 판단하면, 위험 정도와 조작레벨에 따른 상황을 판단하는 단계;를 포함한다. The determining of the driver's driving concentration employed in an embodiment of the present invention may include determining whether the driver is drowsy and looking straight ahead through information on the driver's facial condition; and determining a situation according to a degree of danger and an operation level when it is determined that the driver is looking straight ahead.

한편, 본 발명의 일 실시예에서는 카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역을 설정하기 위한 두 개의 기준 포인트를 선택하는 기준 포인트 선택 단계; 및 상기 선택된 기준 포인트의 좌표와 두 기준 포인트 간의 거리와 비율을 이용하여 사각형의 기준 영역을 설정하는 워핑 및 정규화 단계;를 포함한다. Meanwhile, in an embodiment of the present invention, in order to normalize a face image acquired through a camera, a reference point selection step of selecting two reference points for setting a reference region in a face image; and a warping and normalization step of setting a rectangular reference area using the coordinates of the selected reference point and the distance and ratio between the two reference points.

그리고, 상기 기준 포인트 선택 단계는, 얼굴 이미지에서 동공 기준 영역을 선택하기 위해, 동공 중심에 동공 기준 포인트가 선택되는 단계; 상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원이 제공되는 단계; 및 상기 기준 가이드 원을 통해 동공 기준 영역을 선택하여 정규화하는 단계;를 포함한다. The reference point selection step may include selecting a pupil reference point at the center of the pupil to select a pupil reference region in the face image; providing a reference guide circle sized from the pupil reference point; and selecting and normalizing a pupil reference region through the reference guide circle.

여기서, 상기 동공 기준 영역을 선택하여 정규화하는 단계는, 선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리한다. Here, in the step of selecting and normalizing the pupil reference region, pixels in the remaining region except for the selected pupil reference region are treated as '0' values.

더하여, 본 발명의 일 실시예에서는 설정된 사각형의 기준 영역간의 벡터 정보들을 이용하여 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득하는 단계; 운전자의 부가 기능 조작 상태를 포함하는 운전자 연결 상태 정보를 획득하는 단계; 및 상기 획득한 운전자의 얼굴 벡터 정보를 기준으로 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정하는 단계를 포함한다. In addition, according to an embodiment of the present invention, obtaining face vector information of a driver including face direction reference gaze information, whether eyes are closed, and a gaze state using vector information between set rectangular reference regions; obtaining driver connection state information including a driver's operation state of an additional function; and determining facial state information of the driver using driver connection state information based on the obtained driver's face vector information.

본 발명의 일 실시예에 따르면, 사용자가 단순히 얼굴 이미지에서 필요로하는 부분에 포인트를 찍는 것만으로 기준 영역의 자동 설정이 가능해 짐으로써, 추후 운전자의 정상/비정상 판단을 분석을 위한 데이터로 이용 시, 기준 영역이 정규화되어 수집될 수 있는 장점이 있다. According to an embodiment of the present invention, the reference area can be automatically set simply by simply marking a required part of the face image, so that when the driver's normal/abnormal judgment is used as data for analysis in the future, , there is an advantage that the reference area can be normalized and collected.

도 1은 본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식 장치를 설명하기 위한 기능블럭도.
도 2 내지 도 3는 본 발명의 일 실시예에서 얼굴 부분 영역을 검출하기 위해 기준 포인트를 선택하는 모습을 나타낸 참고도.
도 4는 본 발명의 일 실시예에서 동공 영역을 선택하기 위한 과정을 설명하기 위한 참고도.
도 5는 본 발명의 일 실시예에서 얼굴 부분의 영역을 선택하기 위한 과정을 설명하기 위한 참고도.
도 6a 내지 도 6d는 본 발명의 일 실시예에서 운전자의 정면 인식 기준을 설명하기 위한 참고도.
도 7a 내지 도 7d는 운전자의 눈 상태에 따른 인식 기준을 설명하기 위한 참고도.
도 8은 본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식을 위한 인식 데이터 제공 방법을 설명하기 위한 순서도.
도 9는 본 발명의 일 실시예에서 주행상황 판단 정보 기반 운전자 상태 인식 방법을 설명하기 위한 순서도이다.
1 is a functional block diagram illustrating an apparatus for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention.
2 and 3 are reference views illustrating selection of a reference point to detect a facial area in one embodiment of the present invention.
4 is a reference diagram for explaining a process for selecting a pupil area in one embodiment of the present invention;
5 is a reference diagram for explaining a process for selecting a region of a face part in one embodiment of the present invention;
6A to 6D are reference diagrams for explaining a driver's frontal recognition criterion according to an embodiment of the present invention.
7A to 7D are reference diagrams for explaining recognition criteria according to driver's eye conditions;
8 is a flowchart illustrating a method of providing recognition data for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention.
9 is a flowchart illustrating a method for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs. It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

이하, 본 발명의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도 1은 본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식 장치는 얼굴 벡터 데이터 정보를 등록할 수 있도록, 포인트 선택부(110), 정규화부(120), 벡터 정보 획득부(130), 얼굴 상태 정보 결정부(140) 및 학습 정보 저장부(150)를 포함한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 shows an apparatus for recognizing a driver's condition based on driving situation determination information according to an embodiment of the present invention, which includes a point selection unit 110, a normalization unit 120, and a vector information acquisition unit 130 to register face vector data information. ), a face state information determination unit 140 and a learning information storage unit 150.

포인트 선택부(110)는 카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역(을 선택하기 위한 두 개의 기준 포인트가 사용자로부터 입력되면, 해당 위치를 기준 포인트로 선택한다. 예를 들면, 기준 포인트는 도 2에 도시된 바와 같이, 눈은 눈꼬리 양측, 입꼬리 양측 및 코방울 양측에 위치하는 것이 바람직하나 이를 한정하는 것은 아니다. In order to normalize the face image acquired through the camera, the point selector 110 selects the corresponding position as a reference point when two reference points for selecting a reference area (area) are input from the user. For example, As shown in FIG. 2, the reference point is preferably positioned on both sides of the tail of the eye, both sides of the tail of the mouth, and both sides of the nose, but is not limited thereto.

이어서, 정규화부(120)는 도 3에 도시된 바와 같이, 하기의 [수학식 1]을 통해, 상기 선택된 기준 포인트(SP)의 좌표와 두 기준 포인트 간의 거리(D)와 비율을 이용하여 사각형상으로 이루어진 얼굴의 각 부분에 대한 기준 영역(SA)을 설정한다. Subsequently, as shown in FIG. 3, the normalization unit 120 uses the coordinates of the selected reference point SP and the distance D between the two reference points and the ratio through [Equation 1] below to determine the square angle. A reference area SA is set for each part of the shaped face.

이후, 정규화부(120)는 정규화된 눈, 눈꼬리, 동공, 감은 눈, 입, 입꼬리, 코의 정규화된 데이터에 대하여 학습하여 학습 정보 저장부(150)에 업데이트하는 과정을 거치게 된다. Thereafter, the normalization unit 120 goes through a process of learning the normalized data of the eyes, the tail of the eyes, the pupil, the closed eyes, the mouth, the tail of the mouth, and the nose and updating the learning information storage unit 150 .

예를 들어, 정규화부(120)는 얼굴 데이터, 눈 데이터, 감은 눈 데이터, 동공 데이터, 코 데이터, 입 데이터를 전방 9방향에서 정규화한 후 얼굴, 눈(좌, 우 구분), 코, 동공(좌, 우 구분), 감은 눈(좌, 우 구분), 양안 눈꼬리, 입꼬리를 학습하여 학습 정보 저장부(150)에 저장한다.For example, the normalization unit 120 normalizes face data, eye data, closed eye data, pupil data, nose data, and mouth data in the forward 9 directions, and then the face, eyes (left and right divisions), nose, and pupils ( Classification of left and right), closed eyes (classification of left and right), both eye tails and mouth corners are learned and stored in the learning information storage unit 150 .

Figure 112018046140165-pat00001
Figure 112018046140165-pat00001

여기서, Imagenormailize는 기준 영역이고, D는 포인트와의 거리이고, x, y는 기준 포인트 좌표값이며, W는 기준 영역의 넓이값이고, H는 기준 영역의 높이값이다. Here, Imagenormailize is the reference area, D is the distance to the point, x and y are the coordinate values of the reference point, W is the width of the reference area, and H is the height of the reference area.

이러한 본 발명의 일 실시예에 따르면, 사용자가 단순히 얼굴 이미지에서 필요한 부분에 기준 포인트(SP)를 찍는 것만으로 기준 영역(SA)의 자동 설정이 가능해 짐으로써, 추후 운전자의 정상/비정상 판단을 분석을 위한 데이터로 이용 시, 기준 영역이 정규화되어 수집될 수 있는 장점이 있다. According to such an embodiment of the present invention, the user can automatically set the reference area (SA) by simply taking a reference point (SP) at a necessary part of the face image, so that the driver's normal/abnormal judgment is analyzed later. When used as data for , there is an advantage in that the reference area can be normalized and collected.

한편, 본 발명의 일 실시예에 채용된 포인트 선택부(110)는 도 4에 도시된 바와 같이, 동공 중심에 동공 기준 포인트(CP)가 선택되었는지를 판단하고, 동공 중심에 동공 기준 포인트가 선택되면, 얼굴 이미지에서 동공 기준 영역을 선택하기 위한 것으로 판단하여 상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원(GC)을 사용자에게 제공한다. 여기서, 기준 가이드 원은 사용자가 마우스의 휠이나 방향 버튼 등으로 원의 크기를 조절하는 것이 바람직하다. Meanwhile, as shown in FIG. 4 , the point selection unit 110 employed in an embodiment of the present invention determines whether a pupil reference point CP is selected at the center of the pupil, and the pupil reference point is selected at the center of the pupil. , it is determined that the pupil reference region is selected from the face image, and a reference guide circle GC whose size is adjusted from the pupil reference point is provided to the user. Here, it is preferable that the user adjusts the size of the reference guide circle using a mouse wheel or direction buttons.

이후, 사용자가 선택을 완료하면, 포인트 선택부(110)는 상기 기준 가이드 원(GC)을 통해 동공 기준 영역(SA)을 선택하여 정규화한다. 여기서, 포인트 선택부(110)는 선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리하는 것이 바람직하다. Then, when the user completes the selection, the point selector 110 selects and normalizes the pupil reference area SA through the reference guide circle GC. Here, it is preferable that the point selection unit 110 processes pixels of the remaining area except for the selected pupil reference area as a '0' value.

따라서, 본 발명의 일 실시예에 채용된 포인트 선택부는 얼굴 이미지에서 동공을 용이하게 정규화할 수 있는 장점이 있다. Therefore, the point selector employed in one embodiment of the present invention has the advantage of easily normalizing the pupil in the face image.

본 발명의 일 실시예에 채용된 포인트 선택부(110)는 얼굴 영역 내에서 눈, 코 입 관련 부위를 보다 정확하고 빠르게 검출하기 위해서, 도 5a에 도시된 바와 같이, 얼굴 이미지에서 눈 후보 영역, 코 후보 영역 및 입 후보 영역을 먼저 검출한 이후, 눈 영역을 검출한다. 이후, 도 5c에 도시된 바와 같이 눈은 홍채 검출 후보 영역을 지정하고, 도 5d에 도시된 바와 같이 감은 눈을 얼굴의 부분을 검출한다. In order to more accurately and quickly detect eye, nose, and mouth-related parts within the face region, the point selection unit 110 employed in an embodiment of the present invention, as shown in FIG. The nose candidate region and the mouth candidate region are first detected, and then the eye region is detected. Then, as shown in FIG. 5C, the eye designates an iris detection candidate region, and as shown in FIG. 5D, the part of the face is detected with closed eyes.

그리고, 얼굴 벡터 정보 획득부(130)는 얼굴 이미지에서 설정된 사각형의 기준 영역(SA)간의 벡터 정보들을 이용하여 얼굴 방향, 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득한다. In addition, the face vector information acquisition unit 130 uses the vector information between the rectangular reference areas SA set in the face image to determine the driver's face vector including the face direction, face direction reference gaze information, whether the eyes are closed, and the gaze state. Acquire information.

예를 들어, 얼굴 벡터 정보 획득부(130)는 정면을 응시하는 운전자의 얼굴 벡터 정보가 학습 정보 저장부(150)에 저장된다. 이때, 저장되는 운전자의 얼굴 벡터 정보는 얼굴 부분 간의 관계성 기반 분포 및 확률에 의해 계산된다. 여기서 관계성이란 양쪽 눈, 코, 눈의 크기 및 상대위치에 대한 관계이다. For example, in the face vector information acquisition unit 130 , face vector information of a driver gazing forward is stored in the learning information storage unit 150 . At this time, the stored face vector information of the driver is calculated based on distribution and probability between face parts. Here, the relationship refers to the relationship between the size and relative position of both eyes, nose, and eyes.

또한, 얼굴 벡터 정보 획득부(130)는 도 6a 내지 6d에 도시된 바와 같이, 양쪽 눈꼬리에 선택된 기준 포인트를 기준으로 동공의 위치, 눈, 코, 입이 이루는 상대 위치와 크기에 대한 정규화 정보를 바탕으로 한 확률분포를 계산하여 학습 정보 저장부(150)에 저장한다. In addition, as shown in FIGS. 6A to 6D , the face vector information acquisition unit 130 obtains normalization information about the position of the pupil and the relative position and size of the eyes, nose, and mouth based on the reference points selected at the tails of both eyes. A probability distribution based on this is calculated and stored in the learning information storage unit 150 .

예를 들어, 얼굴 벡터 정보 획득부(130)는 도 6a에 도시된 바와 같이, 눈의 기준 영역들과 코 및 입의 기준 영역(SA)들을 통해 얼굴이 정면을 응시하고 있지 않음에 따라 정면을 응시하고 있다고 볼 수 없으나, 동공(CP)이 정면을 응시하고 있음에 따라 운전자가 정면을 응시하고 있다고 판단하여 저장하고, 도 6b과 도 6c는 눈, 코 및 입의 기준 포인트(SP)와 동공(CP)이 모두 정면을 응시하고 있지 않음에 따라 정면 미 응시 상태로 판단하여 저장하고, 도 6d는 눈, 코 및 입의 기준 포인트(SP)와 동공(CP)이 모두 정면을 응시하고 있음에 따라 정면 응시함을 기준으로 저장하고 학습한다. For example, as shown in FIG. 6A , the face vector information acquisition unit 130 detects the front through the eye reference areas and the nose and mouth reference areas SA when the face is not gazing at the front. Although it cannot be regarded as gazing, it is determined that the driver is gazing at the front as the pupil (CP) is gazing at the front and stored, and FIGS. 6B and 6C show reference points (SP) of the eyes, nose and mouth and Since (CP) is not all gazing at the front, it is determined and stored as a non-frontal gazing state, and FIG. It is stored and learned based on frontal gaze.

그리고, 운전자가 눈을 감은 상태인지를 판단하는 방법은 얼굴 벡터 정보 획득부(130)가 도 7a 내지 도 7c에 도시된 바와 같이, 얼굴 이미지에서 기준 포인트(SP)는 나타나 있으나 동공(CP)을 검출할 수 없음에 따라 모두 눈을 감은 상태로 판단하고, 도 7d는 기준 포인트(SP)와 동공(CP)이 모두 검출됨에 따라 운전자가 눈을 뜨고 있는 상태로 판단하여 저장한다. And, in the method of determining whether the driver's eyes are closed, the face vector information acquisition unit 130, as shown in FIGS. If it cannot be detected, it is determined that all eyes are closed, and FIG. 7D determines that the driver's eyes are open when both the reference point (SP) and pupil (CP) are detected and stored.

이에 더하여, 얼굴 벡터 정보 획득부(130)는 도 7a에 도시된 바와 같이 눈의 기준 영역(SA)들과 코 및 입의 기준 영역(SA)들을 통해 얼굴이 정면을 응시하고 있으나 동공(CP)을 검출할 수 없는 상태(Lv1), 눈의 기준 영역(SA)들과 코 및 입의 기준 영역(SA)들을 통해 고개가 약간 떨궈진 상태임을 확인한 상태에서 동공(CP)을 검출할 수 없는 상태(Lv2), 눈의 기준 영역(SA)들과 코 및 입의 기준 영역(SA)들을 통해 고개가 떨궈진 상태임을 확인한 상태에서 동공(CP)을 검출할 수 없는 상태(Lv3)를 기준으로 얼굴 상태 벡터를 학습 정보 저장부(150)에 저장하고 학습한다. In addition, the face vector information acquisition unit 130, as shown in FIG. 7A , uses the reference areas SA of the eyes and the reference areas SA of the nose and mouth, even though the face is gazing at the front, the pupil CP (Lv1), a state in which the pupil (CP) cannot be detected in a state in which the head is slightly tilted through the reference areas (SA) of the eyes and the reference areas (SA) of the nose and mouth. (Lv2), the face based on the state (Lv3) in which the pupil (CP) cannot be detected in a state in which the head is lowered through the reference regions (SA) of the eyes and the reference regions (SA) of the nose and mouth. The state vector is stored in the learning information storage unit 150 and learned.

한편, 얼굴 벡터 정보 획득부(130)는 얼글 벡터 정보를 구성하는 졸음 상태 레벨과 주의 분산 상태 레벨을 분석하여 얼굴의 정보를 기반으로 얼굴의 상태를 [수학식 2]를 참조하여 인식할 수 있다. Meanwhile, the face vector information acquisition unit 130 analyzes the drowsiness state level and the attentional state level constituting the face vector information to recognize the face state based on the face information by referring to [Equation 2]. .

Figure 112018046140165-pat00002
Figure 112018046140165-pat00002

여기서, Statusdefinition(S)는 눈 감은 상태 판단 함수이고, Statuseyeclosed(W)는 눈 감은 상태 정규화 파라미터 가중치(W)이며, fps(t)는 실행 속도에 따른 눈 감은 상태 시간 가중치 파라미터이다. Here, Statusdefinition(S) is an eyes-closed state determination function, Statuseyeclosed(W) is an eyes-closed state normalization parameter weight (W), and fps(t) is an eyes-closed state time weight parameter according to execution speed.

한편, 눈을 감은 상태 레벨 결정 함수(Fn(Lv))는 하기의 [수학식 3]을 통해 얻을 수 있다. Meanwhile, the function Fn(Lv) for determining the level of the closed eyes state can be obtained through [Equation 3] below.

Figure 112018046140165-pat00003
Figure 112018046140165-pat00003

여기서, Fn(Lv)는 눈을 감은 상태 레벨 결정 함수이고,

Figure 112018046140165-pat00004
는 얼굴 부분 정보의 절대 위치, 크기, 상대 위치 및 거리 정보를 정규화한 벡터 값이다. Here, Fn(Lv) is a function for determining the state level with eyes closed,
Figure 112018046140165-pat00004
is a vector value obtained by normalizing the absolute position, size, relative position, and distance information of face part information.

한편, 얼굴 벡터 정보 획득부(130)는 운전자의 얼굴 벡터 정보를 획득하기 전에 초기 얼굴 정보를 보정하거나 정규화하는 작업을 먼저 수행할 수 있다. 그 예로, 동공(양면) 높이/너비 차이를 정규화하거나 코를 중심으로 정규화하거나, 정상상태의 눈 깜빡임 주기를 정규화하거나 안경 착용 유무를 판단하여 정규화할 수 있다. Meanwhile, the face vector information acquisition unit 130 may first perform a correction or normalization operation on the initial face information before acquiring the driver's face vector information. For example, the pupil (double-sided) height/width difference may be normalized, the nose may be normalized, the eye blink cycle in a normal state may be normalized, or the normalization may be performed by determining whether or not glasses are worn.

그리고, 얼굴 벡터 정보 획득부(130)는 눈꼬리 너비 정규화 비율(A), 입꼬리 너비 정규화 비율(B) 및 코, A와 B간의 위치 비율을 정규화할 수도 있다. Also, the face vector information acquisition unit 130 may normalize the eye-tail width normalization ratio (A), the mouth-tail width normalization ratio (B), and the position ratio between the nose and A and B.

한편, 얼굴 상태 정보 결정부(140)는 차량 외부 간섭 인식 장치(160)로부터 운전자의 부가 기능 조작조작 상태를 포함하는 주행 중 운전자 조작 정보와 주변 차량으로부터 제공되는 경고 정보인 주행 중 외부 간섭 상황 정보를 획득한다. On the other hand, the facial state information determining unit 140 includes driver manipulation information while driving including the driver's operation status of additional functions from the vehicle external interference recognition device 160 and external interference situation information while driving, which is warning information provided from surrounding vehicles. Acquire

여기서, 주행 중 운전자 조작 정보는 스마트폰 작동 여부, 네비게이션 작동 여부, 차량 내부 디바이스 사용 여부 등을 판단할 수 있는 정보이고, 주행 중 외부 간섭 상황 정보는 주변 차량으로부터 제공되는 정보 예를 들어, 주위 차량의 방향 지시등 정보, 상향등 정보, 측면 차량의 주행 패턴 정보, 앞 차와의 거리 정보, 주변 차량의 차선 유지 정보, BSD(Blind Spot Detection) 정보, 신호 대기 및 진입 정보 및 차량 속도 정보이다. Here, driver manipulation information while driving is information capable of determining whether a smartphone is operated, navigation is operated, or a device inside the vehicle is used, and external interference situation information while driving is information provided from surrounding vehicles, for example, surrounding vehicles. These include turn signal information, high beam information, side vehicle driving pattern information, distance information from the vehicle in front, lane keeping information of surrounding vehicles, BSD (Blind Spot Detection) information, signal waiting and entry information, and vehicle speed information.

이어서, 얼굴 상태 정보 결정부(140)는 상기 획득한 운전자의 얼굴 벡터 정보를 기준으로 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정하는 역할을 한다. Subsequently, the facial condition information determination unit 140 serves to determine the driver's face condition information using the driver connection state information based on the obtained driver's face vector information.

즉, 얼굴 상태 정보 결정부(140)는 운전자의 얼굴 상태 정보가 정상이더라도 운전자가 사용하고 있는 주행 중 운전자 조작 정보와 차량 외부 간섭 상황을 인식하는 주행 중 외부 간섭 상황 정보가 수신되는 경우에 대해 "운전자의 운행이 정상이거나 비정상"임을 라벨링하여 분류함으로써 운전자 패턴을 학습할 수 있는 장점이 있다. That is, the facial state information determining unit 140 determines the case where driver manipulation information while driving and external interference situation information while driving recognizing an external interference situation are received even if the driver's face condition information is normal. There is an advantage in that the driver's pattern can be learned by labeling and classifying the driver's driving as "normal or abnormal".

한편, 차량 외부 간섭 인식 장치는 카메라가 이용되는 것이 바람직하나 이를 한정하지 않고, 주변 차량의 경적 소리를 인식할 수 있는 마이크 등이 추가로 이용될 수 있다. Meanwhile, the apparatus for detecting external interference in a vehicle preferably uses a camera, but is not limited thereto, and a microphone capable of recognizing the sound of a horn of a nearby vehicle may be additionally used.

이러한, 본 발명의 일 실시예에 따르면, 운전자의 주행 조작과 타 차량에서 전하는 경고 메시지를 인식하여 주행의 정상/비정상을 학습할 수 있는 효과가 있고, 주행 지도가 가능하고 실시간으로 업데이트하여 운전자의 정상/비정상으로 구분하여 자율주행 상황 판단 알고리즘으로 대처도 가능한 장점이 있다. According to such an embodiment of the present invention, there is an effect of learning normal/abnormal driving by recognizing the driver's driving manipulation and warning messages from other vehicles, and driving guidance is possible and updated in real time to improve the driver's It has the advantage of being able to cope with the autonomous driving situation judgment algorithm by dividing it into normal / abnormal.

본 발명의 일 실시에에 따른 주행상황 판단 정보 기반 운전자 상태 인식 장치는 영상 획득부(210), 주행 상황 인식부(220), 주행 집중도 결정부(230) 및 주행 지도 결정부(240)를 포함하여 이루어진다. An apparatus for recognizing a driver's state based on driving situation determination information according to an embodiment of the present invention includes an image acquiring unit 210, a driving situation recognizing unit 220, a driving concentration determining unit 230, and a driving map determining unit 240. It is done by

영상 획득부(210)는 카메라와 같은 영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 역할을 한다. The image acquisition unit 210 serves to acquire driver's face condition information from an image capture device such as a camera and driver's driving behavior information from a driver's driving information acquisition device.

그리고 주행 상황 인식부(220)는 차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 역할을 한다. Also, the driving situation recognition unit 220 serves to obtain driving situation recognition information of surrounding vehicles from an apparatus for recognizing external vehicle interference.

또한 주행 집중도 결정부(230)는 상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 역할을 한다. In addition, the driving concentration determining unit 230 compares acquired information such as the driver's face condition information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with the learned face vector information to determine the driver's driving concentration. do.

그리고, 주행 지도 결정부(240)는 상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 역할을 한다. And, the driving map determining unit 240 serves to determine a driver driving map to correspond to the determined driver driving concentration.

본 발명의 일 실시예에 따르면, 단순히 운전자가 눈을 감고 있는지 아니면 시선이 분산되어 있는 상태인지만을 판단하여 안전 운전 방법을 제공하지 않고 주위 차량의 정보조작 상태를 포함하는 운전자 연결 상태 정보를 이용하여 운전자가 정면을 바라보고 있지 않은 상태 중 운전자가 정상적으로 운전 중인 상태를 검출할 수 있고, 운전자가 정면을 바라보고 있는 상태에서 운전자가 비정상적으로 운전중인 상태를 검출할 수 있는 효과가 있다. According to an embodiment of the present invention, a safe driving method is not provided by simply determining whether the driver's eyes are closed or whether the driver's gaze is in a dispersed state, but by using driver connection state information including the information manipulation state of surrounding vehicles. Among the states in which the driver is not looking at the front, a state in which the driver is normally driving can be detected, and in a state in which the driver is looking at the front, a state in which the driver is driving abnormally can be detected.

한편, 본 발명의 일 실시예에 채용된 주행 집중도 결정부(230)는 상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단한 후 상기 운전자가 정면을 응시한 것으로 판단되면, 위험 정도와 조작 레벨에 따른 상황을 판단한다. Meanwhile, the driving concentration determining unit 230 employed in an embodiment of the present invention determines whether the driver is drowsy and gazes forward through the driver's face condition information, and if it is determined that the driver gazes forward, the degree of danger and judge the situation according to the operation level.

이하, 하기에서는 본 발명의 주행상황 판단 정보 기반 운전자 상태 인식 방법에서 비교대상 데이터를 획득하여 학습하고 저장하는 방법에 대하여 도 8을 참조하여 설명하기로 한다. Hereinafter, a method of obtaining, learning, and storing data to be compared in the method for recognizing a driver's state based on driving situation determination information according to the present invention will be described with reference to FIG. 8 .

먼저, 운전자 상태 인식 장치는 카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역을 설정하기 위한 두 개의 기준 포인트를 선택한다(S110). 여기서, 눈은 눈 영역 좌/우 눈꼬리 끝부분을 기준으로 눈꼬리 영역 검출에 대한 후보를 지정하고, 코는 얼굴의 중심 부분에 후보 영역을 두며, 입은 얼굴 하단부에서 검출 후보 영역을 지정하여 검출하고, 입 꼬리 영역은 눈 꼬리 후보영역과 마찬가지로 검출된 입의 양쪽 가운데 끝을 기준으로 입 꼬리를 검출하는 것이 바람직하다. First, the driver state recognition apparatus selects two reference points for setting a reference region in the face image in order to normalize the face image acquired through the camera (S110). Here, the eye designates a candidate for detection of the tail area based on the left/right tail end of the eye area, the nose places a candidate area in the center of the face, and the mouth designates and detects a candidate area for detection at the lower part of the face, As for the mouth tail region, it is preferable to detect the mouth tail based on the central ends of both sides of the detected mouth, similar to the eye tail candidate region.

이어서, 운전자 상태 인식 장치는 상기 선택된 기준 포인트의 좌표와 두 기준 포인트 간의 거리와 비율을 이용하여 사각형의 기준 영역을 설정하는 워핑 및 정규화한다(S120). Subsequently, the driver state recognition apparatus performs warping and normalization to set a rectangular reference area using the coordinates of the selected reference point and the distance and ratio between the two reference points (S120).

하기에서는 본 발명의 일 실시예에 채용된 데이터 가공 방법 중 동공 데이터를 가공하는 방법에 대하여 설명하기로 한다. Hereinafter, a method of processing pupil data among data processing methods employed in an embodiment of the present invention will be described.

먼저, 운전자 상태 인식 장치는 얼굴 이미지에서 동공 기준 영역을 선택하기 위해, 동공 중심에 동공 기준 포인트가 선택되면, 상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원이 제공된다. First, when a pupil reference point is selected at the center of the pupil in order to select a pupil reference region in the face image, the driver state recognition apparatus provides a reference guide circle whose size is adjusted from the pupil reference point.

이후, 사용자가 선택을 완료하면, 운전자 상태 인식 장치는 상기 기준 가이드 원을 통해 동공 기준 영역을 선택하여 정규화한다. 여기서, 포인트 선택부(110)는 선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리하는 것이 바람직하다. Then, when the user completes the selection, the driver state recognition apparatus selects and normalizes the pupil reference area through the reference guide circle. Here, it is preferable that the point selection unit 110 processes pixels of the remaining area except for the selected pupil reference area as a '0' value.

이후, 운전자 상태 인식 장치는 설정된 사각형의 기준 영역간의 벡터 정보들을 이용하여 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득한다(S130). Thereafter, the driver's condition recognition apparatus obtains the driver's face vector information including face direction reference gaze information, whether eyes are closed, and gaze state by using the vector information between the set rectangular reference regions (S130).

이어서, 운전자 상태 인식 장치는 운전자의 부가 기능 조작 상태를 포함하는 주행 중 운전자 조작 정보를 획득한다(S140). Next, the driver state recognition device acquires driver manipulation information while driving including the driver's manipulation states of the additional functions (S140).

그러면, 운전자 상태 인식 장치는 조작 상태를 포함하는 운전자 연결 상태 정보를 획득하고, 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정한다(S150). Then, the driver state recognition apparatus obtains the driver connection state information including the manipulation state, and determines the driver's face state information using the driver connection state information (S150).

한편, 얼굴 상태 정보를 결정하는 단계(S150)는 차량 외부 간섭 인식 장치(160)로부터 운전자의 부가 기능 조작조작 상태를 포함하는 주행 중 운전자 조작 정보와 주변 차량으로부터 제공되는 경고 정보인 주행 중 외부 간섭 상황 정보를 획득한다. 여기서, 주행 중 운전자 조작 정보는 스마트폰 작동 여부, 네비게이션 작동 여부, 차량 내부 디바이스 사용 여부 등을 판단할 수 있는 정보이고, 주행 중 외부 간섭 상황 정보는 주변 차량으로부터 제공되는 정보 예를 들어, 주위 차량의 방향 지시등 정보, 상향등 정보, 측면 차량의 주행 패턴 정보, 앞 차와의 거리 정보, 주변 차량의 차선 유지 정보, BSD(Blind Spot Detection) 정보, 신호 대기 및 진입 정보 및 차량 속도 정보이다. On the other hand, the step of determining face state information (S150) includes driver manipulation information while driving including the driver's operation state of additional functions from the vehicle external interference recognition device 160 and external interference while driving, which is warning information provided from surrounding vehicles. Get situational information. Here, driver manipulation information while driving is information capable of determining whether a smartphone is operated, navigation is operated, or a device inside the vehicle is used, and external interference situation information while driving is information provided from surrounding vehicles, for example, surrounding vehicles. These include turn signal information, high beam information, side vehicle driving pattern information, distance information from the vehicle in front, lane keeping information of surrounding vehicles, BSD (Blind Spot Detection) information, signal waiting and entry information, and vehicle speed information.

이하, 하기에서는 본 발명의 일 실시예에 따른 주행상황 판단 정보 기반 운전자 상태 인식 방법에 대하여 도 9를 참조하여 설명하기로 한다. Hereinafter, a driver state recognition method based on driving situation determination information according to an embodiment of the present invention will be described with reference to FIG. 9 .

먼저, 본 발명의 일 실시예에 따른 주행상황 판단 정보를 기반으로 하는 운전자 상태 인식 방법은 운전자 상태 인식 장치에 의해 수행하는 것이 바람직하다. First, the method for recognizing a driver's state based on driving situation determination information according to an embodiment of the present invention is preferably performed by a driver's state recognition device.

먼저, 운전자 상태 인식 장치는 영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득한다(S210). First, the driver state recognition device acquires the driver's face state information from the image acquisition device and the driver's driving behavior information from the driver's driving information acquisition device (S210).

이어서, 운전자 상태 인식 장치는 차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득한다(S220). Subsequently, the driver state recognition device acquires driving situation recognition information of surrounding vehicles from the vehicle external interference recognition device (S220).

이후, 운전자 상태 인식 장치는 상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정한다(S230). Thereafter, the driver state recognition device compares acquired information such as the driver's face state information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with the learned face vector information to determine the driver's driving concentration (S230).

이어서, 운전자 상태 인식 장치는 상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정한다(S240). Subsequently, the driver state recognition apparatus determines a driver driving map to correspond to the determined driver driving concentration (S240).

한편, 상기 운전자 주행 집중도를 결정하는 단계(S230)는 상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단한다(S231). Meanwhile, in the step of determining the driver's driving concentration (S230), it is determined whether the driver is drowsy or stares straight ahead through information on the driver's facial condition (S231).

상기 판단단계(S231)에서 상기 운전자가 정면을 응시한 것으로 판단하면(YES), 운전자 상태 인식 장치는 위험 정도와 조작레벨에 따른 상황을 판단한다(S232). If it is determined in the determination step (S231) that the driver is looking straight ahead (YES), the driver condition recognition device determines the situation according to the degree of danger and the manipulation level (S232).

이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니 되며 이하의 특허청구범위의 기재에 의하여 정해져야 할 것이다.In the above, the configuration of the present invention has been described in detail with reference to the accompanying drawings, but this is only an example, and various modifications and changes within the scope of the technical idea of the present invention to those skilled in the art to which the present invention belongs Of course this is possible. Therefore, the scope of protection of the present invention should not be limited to the above-described embodiments, but should be defined by the description of the claims below.

110 : 포인트 선택부 120 : 정규화부
130 : 벡터 정보 획득부 140 : 얼굴 상태 정보 결정부
150 : 학습 정보 저장부
210 : 영상 획득부 220 : 주행 상황 인식부
230 : 주행 집중도 결정부 240 : 주행 지도 결정부
110: point selection unit 120: normalization unit
130: vector information acquisition unit 140: face state information determination unit
150: learning information storage unit
210: image acquisition unit 220: driving situation recognition unit
230: driving concentration determining unit 240: driving guidance determining unit

Claims (16)

영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 영상 획득부;
차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 주행 상황 인식부;
상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 주행 집중도 결정부; 및
상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 주행 지도 결정부;를 포함하되,
카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역을 설정하기 위한 두 개의 기준 포인트를 선택하는 포인트 선택부; 및
상기 선택된 기준 포인트의 좌표와 두 기준 포인트 간의 거리와 비율을 이용하여 사각형의 기준 영역을 설정하는 정규화부;를 포함하고,
상기 포인트 선택부는,
얼굴 이미지에서 동공 기준 영역을 선택하기 위해, 동공 중심에 동공 기준 포인트가 선택되었는지를 판단하여 기준 포인트가 동공 중심에 위치함을 확인하면, 상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원을 사용자에게 제공하고, 설정 선택이 완료되면 해당 상기 기준 가이드 원을 동공 기준 영역으로 설정하는 것을 특징으로 하는 주행상황 판단 정보 기반 운전자 상태 인식 장치.
an image acquisition unit that acquires driver's face condition information from the image acquisition device and driver's driving behavior information from the driver's driving information acquisition device;
a driving situation recognition unit that obtains driving situation recognition information of a surrounding vehicle from an external interference recognizing device;
a driving concentration determining unit that determines a driver's driving concentration by comparing obtained information such as the driver's face state information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned face vector information; and
A driving map determination unit configured to determine a driver driving map to correspond to the determined driver driving concentration;
a point selector for selecting two reference points for setting a reference area in the face image in order to normalize the face image acquired through the camera; and
A normalization unit for setting a rectangular reference area using the coordinates of the selected reference point and the distance and ratio between the two reference points;
The point selector,
In order to select the pupil reference area in the face image, if it is determined whether a pupil reference point is selected at the center of the pupil and it is confirmed that the reference point is located at the center of the pupil, a reference guide circle whose size is adjusted from the pupil reference point is provided to the user. and setting the corresponding reference guide circle as a pupil reference area when setting selection is completed.
제 1항에 있어서,
상기 주행 집중도 결정부는,
상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단하여 상기 운전자가 정면을 응시한 것으로 판단되면, 위험 정도와 조작레벨에 따른 상황을 판단하는 것인 주행상황 판단 정보 기반 운전자 상태 인식 장치.
According to claim 1,
The driving concentration determining unit,
Driver state recognition based on driving situation determination information to determine whether the driver is drowsy and gazes forward through the driver's facial state information, and if it is determined that the driver gazes forward, the situation is determined according to the degree of danger and operation level. Device.
삭제delete 삭제delete 제 1항에 있어서,
상기 포인트 선택부는,
선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리하는 것을 특징으로 하는 주행상황 판단 정보 기반 운전자 상태 인식 장치.
According to claim 1,
The point selector,
An apparatus for recognizing a driver's condition based on driving situation determination information, characterized in that pixels in an area other than the selected pupil reference area are treated as '0' values.
제 1항에 있어서,
설정된 사각형의 기준 영역간의 벡터 정보들을 이용하여 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득하는 벡터 정보 획득부; 및
운전자의 부가 기능 조작 상태를 포함하는 주행 중 운전자 조작 정보를 획득하고 상기 획득한 운전자의 얼굴 벡터 정보를 기준으로 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정하는 얼굴 상태 정보 결정부를 포함하는 주행상황 판단 정보 기반 운전자 상태 인식 장치.
According to claim 1,
a vector information acquisition unit that obtains face vector information of a driver including face direction reference eye gaze information, whether eyes are closed, and a gaze state by using vector information between set rectangular reference regions; and
A face condition information determining unit that obtains driver manipulation information during driving including the driver's operation state of the additional function and determines the driver's face condition information using the driver connection state information based on the acquired driver's face vector information. Driver condition recognition device based on driving situation judgment information.
제 6항에 있어서,
상기 얼굴 벡터 정보는,
얼굴 부분 간의 관계성 기반 분포 및 확률에 의해 계산된 것인 주행상황 판단 정보 기반 운전자 상태 인식 장치.
According to claim 6,
The face vector information,
A device for recognizing a driver's condition based on driving situation determination information calculated by a relationship-based distribution and probability between face parts.
제 7항에 있어서,
상기 관계성은
양쪽 눈, 코, 눈의 크기 및 상대위치에 대한 관계인 주행상황 판단 정보 기반 운전자 상태 인식 장치.
According to claim 7,
The above relationship
A driver's condition recognition device based on driving situation judgment information, which is the relationship between the size and relative position of both eyes, nose and eyes.
영상 획득 장치로부터 운전자의 얼굴 상태 정보와 운전자의 주행 정보 획득 장치로부터 운전자의 주행 행위 정보를 획득하는 단계;
차량 외부 간섭 인식 장치로부터 주변 차량의 주행 상황 인식 정보를 획득하는 단계;
상기 운전자의 얼굴 상태 정보, 주변 차량의 주행 상황 인식 정보 및 운전자의 주행 행위 정보 등의 획득 정보와 학습된 얼굴 벡터 정보를 비교하여 운전자 주행 집중도를 결정하는 단계; 및
상기 결정된 운전자 주행 집중도에 대응되도록 운전자 주행 지도를 결정하는 단계;를 포함하되,
카메라를 통해 취득한 얼굴 이미지를 정규화하기 위해, 얼굴 이미지에서 기준 영역을 설정하기 위한 두 개의 기준 포인트를 선택하는 기준 포인트 선택 단계; 및
상기 선택된 기준 포인트의 좌표와 두 기준 포인트 간의 거리와 비율을 이용하여 사각형의 기준 영역을 설정하는 워핑 및 정규화 단계;를 포함하고,
얼굴 이미지에서 동공 기준 영역을 선택하기 위해, 동공 중심에 동공 기준 포인트가 선택되는 단계;
상기 동공 기준 포인트로부터 크기가 조절되는 기준 가이드 원이 제공되는 단계; 및
상기 기준 가이드 원을 통해 동공 기준 영역을 선택하여 정규화하는 단계를 포함하는 것을 특징으로 하는 주행상황 판단 정보 기반 운전자 상태 인식 방법.
obtaining driver's face condition information from an image capture device and driver's driving behavior information from a driver's driving information acquisition device;
obtaining driving situation recognition information of surrounding vehicles from an external interference detection device;
determining a driver's driving concentration by comparing obtained information such as the driver's face condition information, driving situation recognition information of surrounding vehicles, and driver's driving behavior information with learned face vector information; and
Determining a driver driving map to correspond to the determined driver driving concentration;
A reference point selection step of selecting two reference points for setting a reference area in the face image to normalize the face image acquired through the camera; and
A warping and normalization step of setting a rectangular reference area using the coordinates of the selected reference point and the distance and ratio between the two reference points;
selecting a pupil reference point at the center of the pupil to select a pupil reference region in the face image;
providing a reference guide circle sized from the pupil reference point; and
and selecting and normalizing a pupil reference area through the reference guide circle.
제 9항에 있어서,
상기 운전자 주행 집중도를 결정하는 단계는,
상기 운전자의 얼굴 상태 정보를 통해 운전자가 졸음 및 정면 응시 여부를 판단하는 단계; 및
상기 운전자가 정면을 응시한 것으로 판단하면, 위험 정도와 조작레벨에 따른 상황을 판단하는 단계;를 포함하는 주행상황 판단 정보 기반 운전자 상태 인식 방법.
According to claim 9,
The step of determining the driver's driving concentration,
determining whether the driver is drowsy and looking straight ahead through the facial condition information of the driver; and
A method for recognizing a driver's condition based on driving situation determination information comprising: determining a situation according to a degree of danger and an operation level when it is determined that the driver is looking straight ahead.
삭제delete 삭제delete 제 9항에 있어서,
상기 동공 기준 영역을 선택하여 정규화하는 단계는,
선택된 동공 기준 영역을 제외한 나머지 영역의 픽셀을 '0' 값으로 처리하는 것을 특징으로 하는 주행상황 판단 정보 기반 운전자 상태 인식 방법.
According to claim 9,
The step of selecting and normalizing the pupil reference region,
A method for recognizing a driver's state based on driving situation determination information, characterized in that pixels in an area other than the selected pupil reference area are treated as a '0' value.
제 9항에 있어서,
설정된 사각형의 기준 영역간의 벡터 정보들을 이용하여 얼굴 방향 기준 시선 정보, 눈 감은 여부 및 시선 상태를 포함하는 운전자의 얼굴 벡터 정보를 획득하는 단계;
운전자의 부가 기능 조작 상태를 포함하는 주행 중 운전자 조작 정보를 획득하는 단계; 및
상기 획득한 운전자의 얼굴 벡터 정보를 기준으로 운전자 연결 상태 정보를 이용하여 운전자의 얼굴 상태 정보를 결정하는 단계를 포함하는 주행상황 판단 정보 기반 운전자 상태 인식 방법.
According to claim 9,
obtaining face vector information of a driver including face direction reference gaze information, whether eyes are closed, and a gaze state by using vector information between set rectangular reference regions;
obtaining driver manipulation information while driving including a driver's manipulation state of an additional function; and
and determining facial state information of the driver using driver connection state information based on the obtained driver's face vector information.
제 14항에 있어서,
상기 얼굴 벡터 정보는,
얼굴 부분 간의 관계성 기반 분포 및 확률에 의해 계산된 것인 주행상황 판단 정보 기반 운전자 상태 인식 방법.
According to claim 14,
The face vector information,
A method for recognizing a driver's condition based on driving situation determination information, which is calculated by distribution and probability based on relationships between face parts.
제 15항에 있어서,
상기 관계성은
양쪽 눈, 코, 눈의 크기 및 상대위치에 대한 관계인 주행상황 판단 정보 기반 운전자 상태 인식 방법.



According to claim 15,
The above relationship
Driver state recognition method based on driving situation judgment information, which is the relationship between the size and relative position of both eyes, nose and eyes.



KR1020180053895A 2018-05-10 2018-05-10 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information KR102479049B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180053895A KR102479049B1 (en) 2018-05-10 2018-05-10 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
JP2018209047A JP7154959B2 (en) 2018-05-10 2018-11-06 Apparatus and method for recognizing driver's state based on driving situation judgment information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180053895A KR102479049B1 (en) 2018-05-10 2018-05-10 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information

Publications (2)

Publication Number Publication Date
KR20190134909A KR20190134909A (en) 2019-12-05
KR102479049B1 true KR102479049B1 (en) 2022-12-20

Family

ID=68538442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180053895A KR102479049B1 (en) 2018-05-10 2018-05-10 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information

Country Status (2)

Country Link
JP (1) JP7154959B2 (en)
KR (1) KR102479049B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112188288B (en) * 2020-09-04 2023-03-14 青岛海尔科技有限公司 Method, system, device and equipment for controlling television
CN112622892B (en) * 2020-12-14 2023-03-24 深圳技术大学 Emergency braking method and system based on face and limb posture recognition
CN113569674A (en) * 2021-07-16 2021-10-29 深圳昌恩智能股份有限公司 Driving behavior identification method based on intelligent vehicle-mounted terminal
KR102411864B1 (en) * 2021-08-31 2022-06-22 (주)에이아이매틱스 System and method for managing driving information of shared vehicle to guarantee driver's anonymity

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257043A (en) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd Occupant state estimating device and occupant state estimating method
JP2010097379A (en) 2008-10-16 2010-04-30 Denso Corp Driver monitoring device and program for driver monitoring device
JP2011128966A (en) 2009-12-18 2011-06-30 Denso Corp Face feature point detection device and sleepiness detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265377A (en) 2006-03-01 2007-10-11 Toyota Central Res & Dev Lab Inc Driver state determining device and driving support device
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
KR101327007B1 (en) 2011-10-17 2013-11-13 현대자동차주식회사 A system and method for detection of concentration grade wherein car driving
KR20190020779A (en) * 2016-06-23 2019-03-04 가부시키가이샤 가이아 시스템 솔루션 Ingestion Value Processing System and Ingestion Value Processing Device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257043A (en) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd Occupant state estimating device and occupant state estimating method
JP2010097379A (en) 2008-10-16 2010-04-30 Denso Corp Driver monitoring device and program for driver monitoring device
JP2011128966A (en) 2009-12-18 2011-06-30 Denso Corp Face feature point detection device and sleepiness detection device

Also Published As

Publication number Publication date
JP2019197522A (en) 2019-11-14
JP7154959B2 (en) 2022-10-18
KR20190134909A (en) 2019-12-05

Similar Documents

Publication Publication Date Title
KR102479049B1 (en) The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
US11977675B2 (en) Primary preview region and gaze based driver distraction detection
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
EP2860664B1 (en) Face detection apparatus
US10417512B2 (en) Driver abnormality detection device and driver abnormality detection method
KR101276770B1 (en) Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection
US10430677B2 (en) Method for classifying driver movements
EP3588372A1 (en) Controlling an autonomous vehicle based on passenger behavior
KR102161908B1 (en) Driver status monitor method and apparatus
US11572071B2 (en) Method and system for determining awareness data
JP2017151694A (en) Safety confirmation diagnostic system and safety confirmation diagnostic method
JP2020123339A (en) Cooperative blind spot alarm method and apparatus of vehicle-to-vehicle communication infrastructure with fault tolerance and fluctuation robustness under extreme situation
CN111434553A (en) Brake system, method and device, and fatigue driving model training method and device
JPH0796768A (en) Forward watching degree detector
KR20190056520A (en) Analysis Method for Forward Concentration using a Facial Expression Recognition Technology
CN111267865B (en) Vision-based safe driving early warning method and system and storage medium
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
RU2703341C1 (en) Method for determining hazardous conditions on public roads based on monitoring the situation in the cabin of a vehicle
KR20120071220A (en) Apparatus and method for supporting safe driving based on drivers'scan pattern and fixation
Nair et al. Smart System for Drowsiness and Accident Detection
KR102331937B1 (en) Apparatus for vehicle emergency rescue based on the analysis of the driving state risk and the driver state and method thereof
WO2023285149A1 (en) Guiding a vehicle based on gaze tracking data
US20240144703A1 (en) Method for detecting that a driver of a vehicle is using a handheld electronic device, method for controlling a leading vehicle, data processing apparatus, computer program, computer-readable storage medium, and system for detecting that a driver of a following vehicle is using a handheld electronic device
KR102038371B1 (en) Driver eye detecting device and method thereof
CN115158325A (en) Method and vehicle for determining a gaze area of a person

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant