KR101360412B1 - A system for monitoring loose/droway driver using head moving information - Google Patents

A system for monitoring loose/droway driver using head moving information Download PDF

Info

Publication number
KR101360412B1
KR101360412B1 KR1020080090002A KR20080090002A KR101360412B1 KR 101360412 B1 KR101360412 B1 KR 101360412B1 KR 1020080090002 A KR1020080090002 A KR 1020080090002A KR 20080090002 A KR20080090002 A KR 20080090002A KR 101360412 B1 KR101360412 B1 KR 101360412B1
Authority
KR
South Korea
Prior art keywords
face
head
distraction
angle
information
Prior art date
Application number
KR1020080090002A
Other languages
Korean (ko)
Other versions
KR20100030991A (en
Inventor
김대진
김정태
전봉진
이형수
이주영
제홍모
이진
Original Assignee
포항공과대학교 산학협력단
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단, 현대자동차주식회사 filed Critical 포항공과대학교 산학협력단
Priority to KR1020080090002A priority Critical patent/KR101360412B1/en
Publication of KR20100030991A publication Critical patent/KR20100030991A/en
Application granted granted Critical
Publication of KR101360412B1 publication Critical patent/KR101360412B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 문서는 적외선 카메라를 이용하여 영상을 얻고 운전자의 고개 움직임을 분석하여 운전자의 산만 운전이나 졸음 운전을 판별하고 이를 운전자에게 알림으로써 안전 운전에 도움을 주는 시스템이다. 특히 선글라스나 안경을 쓴 운전자의 경우와 같이 눈이 검출되지 않는 경우에는 눈이 아닌 입과 코의 위치 정보를 이용하여 운전자의 머리 움직임 정보를 파악하기 때문에, 기존의 산만/졸음 운전 감시 시스템들보다 폭넓은 운전자층을 대상으로 적용할 수 있는 자동차 안전 운전 시스템이다. This document is a system that helps to drive safely by obtaining images using infrared cameras and analyzing driver's head movements to determine the driver's distraction or drowsiness and notify the driver. In particular, when the eyes are not detected, such as a driver wearing sunglasses or glasses, the driver's head movement information is obtained using the position information of the mouth and nose rather than the eyes, which is why the existing distraction / drowsiness driving monitoring systems are not used. It is a safe driving system that can be applied to a wide range of drivers.

머리 움직임, 산만/졸음 운전 판단, AAM Head Movement, Distraction / Drowsiness Judgment, AAM

Description

머리 움직임 정보를 이용하는 산만/졸음 운전 감시 시스템{A SYSTEM FOR MONITORING LOOSE/DROWAY DRIVER USING HEAD MOVING INFORMATION}Distraction / drowsiness driving monitoring system using head movement information {A SYSTEM FOR MONITORING LOOSE / DROWAY DRIVER USING HEAD MOVING INFORMATION}

본 문서는 산만/졸음 운전 감시 시스템에 관한 것으로 보다 구체적으로, 머리 움직임 정보를 이용하는 산만/졸음 운전 감시 시스템에 관한 것이다.This document relates to a distraction / drowsiness driving monitoring system, and more particularly, to a distraction / drowsiness driving monitoring system using head movement information.

차량의 안전 운행을 위하여, 자동차 사고의 주요 원인인 산만 운전이나 졸음 운전을 대처하기 위한 방법들은 여러 가지가 제시되었다. 졸음 운전 여부를 판단하는 대부분의 방법들이 운전자의 눈 모양을 통해 졸음 여부를 판단하는 방법이다(특허 1, 2, 3). 하지만, 기존의 졸음 운전 감지 기술은 눈 영상에 크게 의존하고 있기 때문에, 눈을 검출할 수 없는 경우 예를 들어, 안경이나 옅은 선글라스를 착용한 운전자에 대해서는 적용할 수 없다는 단점이 있다. For safe driving of vehicles, various methods for coping with distracted driving or drowsy driving, which are the main causes of car accidents, have been proposed. Most methods of determining whether drowsy driving is a method of determining whether drowsiness is based on the shape of a driver's eyes (Patents 1, 2, 3). However, since the existing drowsy driving detection technology relies heavily on the eye image, it cannot be applied to a driver wearing glasses or light sunglasses, for example, when the eyes cannot be detected.

예를 들어, 안경이나 옅은 선글라스를 착용할 경우 다음과 같은 문제점이 발생한다. 첫째, 기존의 눈 검출 방법들이 눈 부위의 영상 정보에 크게 의존하는데, 안경이나 선글라스와 같은 시각 보조물을 착용할 경우, 눈을 포함한 눈 주위의 영상을 변경시키기 때문에, 기존의 눈 검출 방법에 심각한 오판을 발생시킨다. 상기의 문제를 해결하기 위해서는 눈 검출 시에 시각 보조물에 대한 고려가 필요하지 만, 다양한 색깔, 모양, 크기를 가진 시각 보조물에 대한 검출 및 처리 기술은 아직 전무한 상태이다. For example, the following problems occur when wearing glasses or light sunglasses. First, the existing eye detection methods rely heavily on the image information of the eye area. When wearing visual aids such as glasses or sunglasses, the image around the eye including the eye is changed, which is a serious mistake in the conventional eye detection method. Generates. In order to solve the above problem, it is necessary to consider visual aids in eye detection, but there is no technique for detecting and processing visual aids having various colors, shapes, and sizes.

둘째, 안경이나 선글라스와 같은 시각 보조물을 착용할 경우, 렌즈 재질상의 특성으로 인해 시작 보조물에 외부의 반사 이미지가 그려진다. 야간에는 전방에서 오는 자동차의 헤드라이트나 도로의 조명등으로 인한 광원이 그대로 시각 보조물 위에 비치는 문제가 발생한다. 또한, 주간에는 태양으로부터 오는 빛이 건물이나, 도로, 산 등 주위 사물에 반사되어 오기 때문에, 시작 보조물에 차 밖의 모습이 그대로 나타나게 된다. 이럴 경우에는 눈 부위의 영상에서 눈꺼풀이나 동공 등을 찾는 것은 불가능하게 된다. 따라서, 상당수 운전자들이 안경이나 옅은 선글라스를 끼고 있는 상황에서 눈 영상을 통한 졸음 감지 기술은 대중적으로 널리 쓰이기에 한계를 가지고 있다.Second, when wearing a visual aid such as glasses or sunglasses, the external reflection image is drawn on the starting aid due to the characteristics of the lens material. At night, there is a problem that the light source from the headlights of the car coming from the front or the road lighting is reflected on the visual aid. In addition, during the day, the light from the sun is reflected by surrounding objects such as buildings, roads, and mountains, and thus the appearance of the outside of the car is displayed on the starting aid. In this case, it is impossible to find eyelids or pupils in the image of the eye area. Therefore, the drowsiness detection technology through eye image has a limitation that is widely used in the situation where many drivers are wearing glasses or light sunglasses.

운전자의 산만 운전 역시 자동차를 사고를 줄이기 위해서는 중요한 문제이다. 하지만, 현재로서는 직접적으로 운전자의 산만 운전을 파악하는 방법보다는, 운전자에게 정신 산만을 일으키는 장애요소를 사전에 줄이거나 제거하는 간접적인 방법들이 많이 제시되었다(특허 4, 5). 상기의 방법들은 산만 운전을 줄이기 위한 예방 차원의 조치는 될 수 있지만, 실제 운전 중에 운전자가 산만하게 운전을 하더라도 어떠한 대응이나 효과를 발휘할 수 없다는 문제가 있다.Distracted driving of drivers is also important to reduce accidents. However, at present, many indirect methods have been proposed to reduce or eliminate obstacles causing mental distraction in advance, rather than directly detecting distracted driving of drivers (Patents 4 and 5). Although the above methods can be preventive measures to reduce distracted driving, there is a problem that even if the driver distracts during actual driving, no response or effect can be exerted.

특허 1) 공개번호 10-2006-0022935 (눈 영상 기반의 졸음 감지방법 및 장치)Patent 1) Publication No. 10-2006-0022935 (eye image based drowsiness detection method and apparatus)

특허 2) 등록번호 20-0392762-0000 (근적외선 영상 기반 졸음 감지 장치)Patent 2) Registration No. 20-0392762-0000 (Near infrared image based drowsiness detection device)

특허 3) 등록번호 10-0766592-0000 (홍채 반사 영상 기반 졸음 감지 장치 및 방법)Patent 3) Registration No. 10-0766592-0000 (Iris reflection image based drowsiness detection device and method)

특허 4) 공개번호 10-1999-027440 (장시간 운전 경고장치)Patent 4) Publication No. 10-1999-027440 (Long time driving warning device)

특허 5) 공개번호 10-1999-0041852 (실내압 보상형 선 루프 시스템)Patent 5) Publication No. 10-1999-0041852 (room pressure compensation sunroof system)

본 문서는 자동차 안전 운전 시스템의 하나로, 자동차 사고의 주요 원인인 운전자의 산만 운전과 졸음 운전을 운전자 머리 움직임을 통해 감지하고, 이를 운전자에게 경고함으로써 자동차 사고를 줄이고자 하는 시스템을 제공하고자 한다.This document aims to provide a system to reduce car accidents by detecting driver distractions and drowsy driving, which are the main causes of car accidents, through driver's head movements and alerting the driver.

상술한 과제를 해결하기 위한 일 수단으로서의 산만/졸음 운전 감시 시스템은 입력 영상으로부터 얼굴 영역을 얼굴 영상으로 추출하는 얼굴 검출부, 상기 얼굴 영상으로부터 눈을 찾을 수 있는지 판단하는 눈 검출 판별부를 포함한다.The distraction / drowsiness driving monitoring system as one means for solving the above-described problems includes a face detection unit extracting a face region from a input image as a face image, and an eye detection determination unit determining whether eyes can be found from the face image.

그리고, 상기 얼굴 영상에서 얼굴을 구성하는 부위 간의 상대적인 위치를 고려하되, 눈 검출 여부에 따라, 눈이 검출되는 경우에는 제1 측정 방법으로 고개 각도 및 위치를 추출하고, 검출되지 않는 경우에는 제2 측정 방법으로 고개 각도 및 위치를 추출하는 고개 각도 및 위치 측정부를 포함한다.In addition, in consideration of the relative position between the parts constituting the face in the face image, depending on whether the eye is detected, if the eye is detected, the head angle and the position is extracted by the first measuring method, and if not detected, the second position It includes a head angle and position measuring unit for extracting the head angle and position as a measuring method.

또한, 상기 추출된 고개 각도 및 위치 정보를 기초로 설정되는 실린더 및 타원 모델을 이용하여 머리의 움직임을 추적한 후 머리 움직임 정보를 생성하는 머리 움직임 추적부와, 상기 머리 움직임 정보를 이용하여 산만/졸음 운전 여부를 판단하는 산만/졸음 운전 판별부를 포함한다.In addition, the head motion tracking unit for tracking the head movement using the cylinder and ellipse model set based on the extracted head angle and position information, and generates the head movement information, and the distraction / using the head movement information It includes a distraction / drowsy driving determination unit for determining whether or not drowsy driving.

상기 제1 측정 방법에 따르면, AAM(Active Appearance Model) 기반 얼굴 정밀 검출부를 통하여 고개 각도 및 위치 정보를 구하고, 상기 AAM 기반 얼굴 정밀 검출부는, 미리 만들어 놓은 얼굴 모델을 바탕으로 AAM 알고리즘을 이용하여 상기 얼굴 영역에서 실제 얼굴에 부합하는 모습으로 얼굴 모델을 변환하여 얼굴을 피팅하고, 피팅된 얼굴 모형 정보를 통해 머리의 고개 각도와 위치 정보를 구할 수 있다.According to the first measurement method, the head angle and position information is obtained through an AAM (Active Appearance Model) -based face precision detection unit, and the AAM-based face precision detection unit is configured using the AAM algorithm based on a face model prepared in advance. In the face region, the face model is transformed into a shape that matches the actual face, and the head angle and position information of the head can be obtained using the fitted face model information.

상기 제2 측정 방법에 따르면, 상기 얼굴 영상을 이용하는 좌우 기울기 각도 측정부, 상기 얼굴 영상의 입과 코를 기준으로 얼굴을 정규화시키는 얼굴 정규화 모듈 및 상기 좌우 기울기 각도 정보와 상기 얼굴 정규화 정보를 기초로 하는 얼굴 포즈 측정을 통한 좌우 회전 각도 측정부를 통해 고개 각도 및 위치 정보를 구할 수 있다.According to the second measurement method, a left and right tilt angle measuring unit using the face image, a face normalization module for normalizing a face based on the mouth and nose of the face image, and based on the left and right tilt angle information and the face normalization information The angle and position information of the head can be obtained through the left and right rotation angle measuring unit using the face pose measurement.

상기 좌우 기울기 각도 측정부 및 상기 좌우 회전 각도 측정부는, 소정의 각도를 기초로 하는 선형 모델을 이용하여 머리의 좌우 회전 각도를 구할 수 있다.The left and right tilt angle measuring unit and the left and right rotation angle measuring unit may obtain a left and right rotation angle of the head using a linear model based on a predetermined angle.

상기 머리 움직임 추적부는, 상기 고개 각도 및 위치 정보를 이용하여 실린더 및 타원 모델의 초기값을 설정하고, 얼굴 영상을 통해 얼굴을 추적하면서 고개의 움직임 정보를 실시간으로 제공할 수 있다.The head motion tracking unit may set initial values of a cylinder and an ellipse model using the head angle and position information, and provide head motion information in real time while tracking a face through a face image.

상기 산만/졸음 운전 판별부는, 산만 운전 판단과 졸음 운전 판단을 동시에 실시할 수 있다.The distraction / drowsy driving determination unit may simultaneously perform distraction driving determination and drowsy driving determination.

상기 산만 운전 판단은, 좌우 회전 각도 정보가 기 설정된 허용치를 초과하고 그 시간이 기 설정된 허용 시간을 초과하는 경우 산만 운전이라 판단할 수 있다.The distraction driving determination may be determined as distraction driving when the left and right rotation angle information exceeds a preset allowable value and the time exceeds the preset allowable time.

상기 졸음 운전 판단은, 상하 회전 각도 정보가 기 설정된 허용치를 초과하고 그 시간이 기 설정된 허용 시간을 초과하거나 그 횟수가 기 설정된 허용 횟수를 초과하는 경우 졸음 운전이라 판단할 수 있다.The drowsy driving determination may be determined to be drowsy driving when the vertical rotation angle information exceeds a preset allowable value and the time exceeds the preset allowable time or the number of times exceeds the preset allowable number.

본 발명에 따르면, 운전자의 산만 운전 및 졸음 운전 여부를 파악하여 이를 운전자에게 알려서 자동차 사고를 줄이는 효과가 있다.According to the present invention, it is possible to determine whether the driver is distracted driving and drowsy driving to inform the driver of this, thereby reducing an automobile accident.

특히, 눈 검출이 어려운 안경이나 옅은 선글라스 등의 시각 보조물의 착용 여부에 관계없이 모든 운전자에 대해 산만/졸음 운전 여부를 판단한 할 수 있게 해준다는 효과가 있다. In particular, it is possible to determine whether distracted or drowsy driving is performed for all drivers regardless of whether they wear visual aids such as glasses or pale sunglasses that are difficult to detect.

또한, 운전자의 졸음 운전 판단과 산만 운전 여부를 함께 판단하기 때문에, 졸음 운전 판단을 위한 장치와 산만 운전 판단을 위한 장치를 별개로 설치할 필요 없이, 한 시스템만으로 운전자의 산만/졸음 운전 여부를 판단하게 해 주는 효과가 있다.In addition, since the driver determines the drowsy driving judgment and distracted driving together, there is no need to separately install the device for determining the drowsy driving and the device for determining the distracted driving, and to determine whether the driver is distracted or drowsy with only one system. It is effective.

또한, 안전 운전을 위하여 운전자의 모습이나 행동 패턴을 파악하는 기술은, 비단 산만/졸음 운전을 감지하기 위하여 쓰일 수 있을 뿐만 아니라, 자동차 내에서 운전자의 제스처를 파악하여 운전자와 자동차의 명령 전달 인터페이스 기술로서 사용할 수 있다는 효과가 있다.In addition, the technology for identifying the driver's appearance or behavior pattern for safe driving can be used to detect distracted / drowsy driving, as well as to identify the driver's gesture in the vehicle and to communicate the command between the driver and the vehicle. There is an effect that can be used as.

이하, 첨부된 도면을 참조하여 머리 움직임 정보를 이용하여 운전자의 산만 운전, 졸음 운전 상태를 감지하는 산만/졸음 운전 감지 시스템에 대한 본 발명의 바람직한 실시 예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with respect to a distracted / drowsy driving detection system for detecting a distracted driving and a drowsy driving state of a driver using head movement information with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 운전자의 산만/졸음 운전 감지 시스템 의 블록도를 나타내고, 도 2는 본 실시예에 따라 운전자의 머리 움직임 정보를 이용하는 산만/졸음 운전 감지 시스템의 동작을 나타낸다.1 illustrates a block diagram of a driver's distraction / drowsiness driving detection system according to an embodiment of the present invention, and FIG. 2 illustrates an operation of a distraction / drowsiness driving detection system using driver's head movement information according to the present embodiment. .

본 실시예의 산만/졸음 운전 감지 시스템에 따르면, 입력되는 영상을 통해 얼굴 영상에서 얼굴을 구성하는 부위 간의 상대적인 위치를 고려하되, 운전자의 눈을 검출할 수 있는 경우와 눈을 검출할 수 없는 경우에 대해 각각 별도의 방법으로 고개 각도 및 위치를 측정함을 특징으로 한다. 그리고, 이렇게 측정되는 고개 각도 및 위치를 기초로 실린터 및 타원 모델의 초기값을 설정하고, 이를 이용하여 운전자 머리의 움직임을 추적하여 머리 움직임 정보를 생성하며, 이 머리 움직임 정보를 기초로 운전자의 산만/졸음 여부를 판별함을 특징으로 한다.According to the distraction / drowsiness driving detection system of the present embodiment, in consideration of the relative position between the parts constituting the face in the face image through the input image, when the driver's eyes can be detected and the eyes cannot be detected. It is characterized by measuring the angle and position of the head in a separate method for each. Then, the initial values of the cylinder and the ellipse model are set based on the measured head angles and positions, and the head movement information is generated by tracking the movement of the driver's head using the head angle information and the head movement information. Distinguish / drowsiness is discriminated.

이러한 본 실시예의 운전자 산만/졸음 감지 시스템은 영상 획득부(10), 얼굴 검출부(20), 눈 검출 판별부(30), 고개 각도 및 위치 측정부(40), 머리 움직임 추적부(50) 및 산만/졸음 운전 판별부(60)를 포함하여 이루어진다.The driver distraction / drowsiness detection system of the present embodiment includes an image acquisition unit 10, a face detection unit 20, an eye detection determination unit 30, a head angle and position measurement unit 40, a head motion tracking unit 50, and Distraction / drowsiness operation determination unit 60 is included.

이러한 운전자 산만/졸음 감지 시스템에서의 동작은 먼저, 단계 S110에서 영상 획득부(10)는 외부로부터 입력 영상을 획득한다. 영상 획득부(10)는 영상 입력 센서에 의하여 입력 영상을 획득하거나 또는 외부로부터 유선 또는 무선 연결에 의하여 전송되는 입력 영상을 획득할 수 있다.In operation of the driver distraction / drowsiness detection system, first, in step S110, the image acquisition unit 10 acquires an input image from the outside. The image acquisition unit 10 may acquire an input image by an image input sensor or an input image transmitted by a wired or wireless connection from the outside.

예를 들어, 영상 입력 센서에 의하여 입력 영상을 획득하는 경우에는 소정의 렌즈를 통하여 입사되는 피사체의 영상 신호를 전기적 신호로 변환하여 입력 영상을 획득할 수 있다. 여기서, 영상 입력 센서는 CCD(Charge Coupled Device, CCD), CMOS, 기타 당업계에 알려진 영상 획득 수단을 포함할 수 있다. 이와 함께, 영상 입력 센서에 의해 획득된 전기적인 신호를 디지털 신호로 변환하는 아날로그/디지털 변환기 및 아날로그/디지털 변환기에 의해 변환된 디지털 신호를 입력받아 영상 신호를 처리하는 DSP(Digital Signal Processor, DSP) 등에 의하여 소정의 입력 영상을 획득할 수 있다. For example, when an input image is acquired by an image input sensor, an input image may be obtained by converting an image signal of a subject incident through a predetermined lens into an electrical signal. Here, the image input sensor may include a charge coupled device (CCD), a CMOS, and other image acquisition means known in the art. In addition, an analog / digital converter for converting the electrical signal obtained by the image input sensor into a digital signal and a digital signal processor (DSP) for receiving a digital signal converted by the analog / digital converter and processing the image signal It is possible to obtain a predetermined input image by, for example.

또 다른 예로서, 입력 영상은 저장매체에 저장되어 있거나 또는 유무선을 통하여 전송되어 본 발명의 일 실시 예에 따른 운전자의 산만/졸음 운전 감지 시스템에 제공될 수 있다. 한편, 영상 획득부(10)는 획득된 입력 영상을 단일 채널의 영상으로 변환할 수 있다. 예를 들어, 입력 영상을 그레이(Gray) 스케일로 변경할 수 있다. 또는 입력 영상이 'RGB' 채널의 다채널 영상인 경우에 이를 하나의 채널 값으로 변경할 수도 있다. 따라서, 입력 영상에 대하여 하나의 채널에서의 인텐서티(Intensity) 값으로 변환함으로써, 입력 영상에 대한 밝기 분포를 용이하게 나타낼 수 있다. As another example, the input image may be stored in a storage medium or transmitted through a wired or wireless network to be provided to a driver's distraction / drowsiness driving detection system according to an embodiment of the present invention. The image acquisition unit 10 may convert the obtained input image into a single channel image. For example, the input image may be changed to a gray scale. Alternatively, when the input image is a multi-channel image of the 'RGB' channel, it may be changed to one channel value. Therefore, by converting the input image into an intensity value in one channel, the brightness distribution of the input image can be easily represented.

단계 S120에서 얼굴 검출부(20)를 통해 입력 영상으로부터 얼굴 영역을 얼굴 영상으로 검출한다. 얼굴 검출부(20)는 입력 영상으로부터 대략적인 얼굴을 검출 후에 얼굴 내의 특정 구성요소인 눈, 코, 입 등을 추출하고, 이를 바탕으로 얼굴 영역을 추출할 수 있다. In operation S120, the face detection unit 20 detects a face region as a face image from the input image. The face detector 20 may extract an eye, a nose, a mouth, etc. which are specific components in the face after detecting the approximate face from the input image, and extract the face region based on the face image.

예를 들어, 두 눈의 위치가 검출되었다면, 두 눈의 거리를 구할 수 있다. 얼굴 검출부(20)는 두 눈 사이의 거리에 기초하여 입력 영상에서 얼굴 영역을 얼굴 영상으로 추출할 수도 있으며, 이로써 입력 영상의 배경 혹은 사람의 머리 스타일의 변화 등에 대한 영향을 줄일 수 있다. For example, if the position of two eyes is detected, the distance between the two eyes can be obtained. The face detector 20 may extract a face region from the input image as a face image based on the distance between the two eyes, thereby reducing the influence of the background of the input image or the change of the human hair style.

이와 함께, 얼굴 검출부(20)는 추출된 얼굴 영역 정보를 이용하여 얼굴 영역의 크기를 정규화시킬 수 있다. 얼굴 영역의 크기를 정규화시킴으로써 얼굴 영역에서의 두 눈과의 거리, 눈과 코 사이의 거리 등의 고유한 특징을 동일한 스케일 레벨로 산출할 수 있다.In addition, the face detector 20 may normalize the size of the face region using the extracted face region information. By normalizing the size of the face region, unique features such as distance between two eyes and distance between eyes and nose in the face region can be calculated at the same scale level.

그리고, 단계 S130에서 본 실시예에 따라 눈 검출 판별부(30)에서 얼굴의 눈 영역에서 눈이 검출되는지를 판별한다. 얼굴 영역에서 예상 눈 영역을 중심으로 미리 준비된 눈 모델을 비교해 가며 가장 잘 부합하는 부위와의 유사성을 비교하는 방법으로 눈 검출 여부를 판단할 수 있다. In operation S130, the eye detection determiner 30 determines whether the eye is detected in the eye region of the face. In the face area, eye detection can be determined by comparing a previously prepared eye model centering on the expected eye area and comparing the similarity with the best matching area.

비록 눈으로 추정되는 부위가 검출되었더라도 유사성 정도가 매우 낮다면 검출된 영역에서 눈이 아닌 다른 부분으로 눈으로 검출된 것으로 보고, 눈을 찾을 수 없는 것으로 판별한다. 반면, 상기의 유사성 정도가 미리 정해진 기준치 이상으로 나왔을 경우 눈이 검출된 것으로 판별한다.Although the area estimated as the eye is detected, if the degree of similarity is very low, the eye is detected as a part other than the eye in the detected area, and the eye is not found. On the other hand, when the degree of similarity is above a predetermined reference value, it is determined that the eye is detected.

고개 각도 및 위치 측정부(40)는 고개 각도 및 위치 측정에 있어서, 얼굴의 각 구성 요소 즉, 두 눈, 코, 입 등을 각각 판단 요소로서 고려하기보다는, 두 눈, 코, 입 등 간의 관계 즉, 상대적인 위치까지 고려하여 고개 각도 및 위치 측정함에 특징이 있다.In the head angle and position measurement unit 40, the relationship between the two eyes, the nose, the mouth, and the like, in consideration of each component of the face, that is, the two eyes, the nose, the mouth, and the like as the judgment elements, is measured. That is, it is characterized by measuring the head angle and position in consideration of the relative position.

특히, 본 실시예에 따르면, 얼굴 영상에서 눈 검출 여부에 따라, 눈이 검출되는 경우에는 단계 S140의 제1 측정 방법으로 고개 각도 및 위치를 추출하고, 검출되지 않는 경우에는 단계 S150, 단계 S160 및 단계 S170의 제2 측정 방법으로 운전자의 고개 각도 및 위치를 측정한다.In particular, according to the present embodiment, when the eyes are detected in the face image, when the eyes are detected, the head angle and the position are extracted by the first measuring method of step S140, and when the eyes are not detected, the steps S150, S160 and The angle and position of the driver's head are measured by the second measuring method of step S170.

여기서, 제1 측정 방법으로는 AAM 기반 얼굴 정밀 검출 방법을 사용할 수 있다. 이 경우 본 실시예에 따른 산만/졸음 감지 시스템은 AAM 기반 얼굴 정밀 검출부를 더 포함하여 이루어진다.Here, the AAM-based face precision detection method may be used as the first measurement method. In this case, the distraction / drowsiness detection system according to the present embodiment further includes an AAM-based face precision detection unit.

단계 S140에서 AAM 기반 얼굴 정밀 검출부를 통해 AAM 기반의 얼굴 모델을 이용하여 영상에서 얼굴 검출기(20)를 통해 검출한 얼굴 영역에 대해, 정확한 얼굴 영역을 다시 찾고 머리의 기울어진 고개 각도 정보 및 각 부위의 위치 정보를 구한다.In step S140, the face region detected by the face detector 20 in the image using the AAM-based face model through the AAM-based face precision detection unit, reconstructs the correct face region, and the tilted head angle information of the head and each part Obtain the location information of.

AAM 알고리즘은 얼굴 피팅 작업(가장 근사한 위치에 점이나 선을 매칭시키는 작업)에 많이 쓰이는 기술로, 얼굴의 각 지점의 위치 정보를 담은 모형(shape) 모델과 각 얼굴 부위 간의 영상 정보를 담은 표면(texture) 모델을 이용하여, 영상에서 가장 유사한 얼굴 영역을 찾아내기 때문에 정밀한 얼굴 피팅 작업이 가능하다. 얼굴 피팅 작업이 이루어지면, 매칭된 위치 정보를 이용하여 사람 머리의 기울기, 회전 각도, 및 주요 부위의 위치 정보를 제공한다.The AAM algorithm is a technique commonly used for face fitting operations (matching points or lines at the closest positions), and includes a shape model containing position information of each point of the face and a surface containing image information between each face portion ( By using the texture model, the most similar face areas are found in the image, so precise face fitting is possible. When the face fitting operation is performed, the matched position information is used to provide the tilt, rotation angle, and position information of the main part of the human head.

한편, 제2 측정 방법으로는 일단 얼굴 검출을 통해 대략적인 좌우 고개 기울기 각도를 측정한다. 그리고, 이 경우 눈 검출 정보를 이용할 수 없으므로, 코와 입을 기준으로 해서 얼굴을 정규화하여 정규화 정보를 생성하여, 좌우 고개 기울기 각도와 정규화 정보를 기초로 얼굴 포즈 측정을 통해 좌우 고개 회전 각도 측정하여 보다 세부적인 각도를 유추하는 방법을 사용할 수 있다. 이 경우 본 실시예에 따른 산만/졸음 감지 시스템은 좌우 고개 기울기 각도 측정부, 얼굴 정규화 모듈 및 좌우 고개 회전 각도 측정부를 더 포함하여 이루어진다. On the other hand, in the second measurement method, the rough left and right head tilt angles are measured through face detection. In this case, since eye detection information is not available, normalization information is generated by normalizing the face based on the nose and mouth, and the left and right head rotation angles are measured through face pose measurement based on the left and right head tilt angle and normalization information. You can use the method of inferring the detailed angles. In this case, the distraction / drowsiness detection system according to the present embodiment further includes a left and right hill tilt angle measuring unit, a face normalization module, and a left and right hill rotation angle measuring unit.

단계 S150에서 좌우 고개 기울기 각도 측정부를 통해 상기의 얼굴 검출부(20) 작업에서 얻어지는 머리의 대략적인 좌우 기울기 각도 정보와 예를 들어, 0도, 30도, 60도를 기초로 하는 선형 모델을 이용하여 세부적인 각도를 유추해 내는 작업을 한다.In step S150, the left and right tilt angle information of the head obtained by the face detection unit 20 through the left and right hill tilt angle measuring unit and a linear model based on, for example, 0 degrees, 30 degrees, and 60 degrees are used. We work to infer the detailed angles.

그리고, 단계 S160에서 얼굴 정규화 모듈을 통해 코와 입을 기준으로 얼굴 을 정규화한다. 기존의 눈을 기준으로 하는 정규화에서 두 눈을 검출할 수 없는 경우 정규화를 위한 좌표를 코끝과 입의 양끝점을 이용하여 정규화를 수행한다. 이때 정규화 방법은 두 눈을 기준으로 하는 방법과 같이 어파인 변환(affine transform)을 이용하여 정규화를 수행한다. In operation S160, the face is normalized based on the nose and the mouth through the face normalization module. If both eyes cannot be detected in the normalization based on the existing eyes, the normalization is performed by using the tip of the nose and the ends of the mouth for coordinates for normalization. In this case, the normalization method performs normalization using an affine transform as in the case of the two eyes.

그리고, 단계 S170에서 좌우 고개 회전 각도 측정부를 통해 얼굴 포즈 측정을 이용하여 생성되는 머리의 대략적인 좌우 회전 각도 정보와 예를 들어, 0도, 25도를 기초로 하는 선형 모델을 이용하여 세부적인 각도를 유추해 내는 작업을 한다. Then, the detailed left and right rotation angle information of the head generated by using the face pose measurement through the left and right hill rotation angle measurement unit in step S170 and the detailed angle using a linear model based on, for example, 0 degrees and 25 degrees. Inferring the work.

단계 S180에서 머리 움직임 추적부(50)는 고개 각도 및 위치 측정부(40)에서 얻은 머리 각도 정보, 위치 정보를 이용하여, 실린더 및 타원 모델을 초기화한 후, 초기화된 실린더 및 타원 모델과 움직임으로 인한 변화된 영상을 비교하여 움직임을 감지하고 추적하는 작업을 한다.In step S180, the head movement tracking unit 50 initializes the cylinder and ellipse model using the head angle information and the position information obtained from the head angle and the position measuring unit 40, and then moves to the initialized cylinder and ellipse model. It compares the changed image and detects and tracks the movement.

여기서, 고개 각도 및 위치 측정부(40)에서 얻은 머리 각도 정보에는 좌우 기울기 각도, 상하 이동 각도, 좌우 회전 각도 등이 포함될 수 있다. 제1, 제2 측정 방법으로 통해서 이 각도들이 모두 측정될 수 없는 경우에는 그 값을 '0'으로 즉, 정면인 것으로 설정하여 실린더 및 타원 모델을 초기화할 수 있다.Here, the head angle information obtained from the head angle and the position measuring unit 40 may include left and right tilt angles, vertical movement angles, left and right rotation angles, and the like. When the angles cannot be measured through the first and second measurement methods, the cylinder and the ellipse model can be initialized by setting the value to '0', that is, the front side.

즉, 본 실시예에 따른 산만/졸음 감지 시스템은 영상 입력 획득부(10)에서 사람의 얼굴 영상에서 눈을 찾을 수 있을 경우에는 AAM 기반 얼굴 정밀 검출부에서, 눈을 찾을 수 없을 경우에는 좌우 고개 각도 측정부와 얼굴 정규화 모듈에서 얻은 사람의 머리 움직임을 추정한다.That is, in the distraction / drowsiness detection system according to the present embodiment, when the eye can be found in the face image of the person in the image input acquisition unit 10, the AAM-based face precision detection unit, and the left and right hill angles when the eye cannot be found. Estimate the human head movement obtained from the measurement unit and the face normalization module.

그리고, 단계 S190에서 산만/졸음 운전 판별부(60)를 통해 상기의 실린더 및 타원 모델을 이용한 머리 움직임 추적부(50)에서 얻어지는 머리 움직임 패턴을 분석하여, 운전자의 산만 운전 및 졸음 운전 여부를 판단한 후 이를 운전자에게 알려준다. 산만/졸음 운전 판별부(60)는 산만 운전 판단 부분과 졸음 운전 판단 부분으로 이루어진다.Then, in step S190 through the distraction / drowsy driving determination unit 60 by analyzing the head movement pattern obtained from the head movement tracking unit 50 using the cylinder and the elliptic model, it is determined whether the driver distracted driving and drowsy driving Notify the driver later. The distraction / drowsy driving determination unit 60 includes a distraction driving determination portion and a drowsy driving determination portion.

도 3은 본 발명의 일실시예에 따라 생성되는 운전자의 머리 움직임 정보를 이용하여 운전자의 산만 운전을 감지하는 동작을 설명하기 위한 도면이다.3 is a view for explaining an operation of detecting a distracted driving of a driver using the head movement information of the driver generated according to an embodiment of the present invention.

도 3에 도시되는 운전자의 산만 운전 감지 시스템에 따르면, 단계 S210에서 사람의 머리 움직임을 지속적으로 추적하는 머리 움직임 추적부(50)를 통해, 시간별 머리의 좌우 이동 각도와 상하 이동 각도 정보를 제공한다. According to the driver's distraction driving detection system shown in FIG. 3, the head movement tracking unit 50 continuously tracks the head movement of a person in step S210, and provides left and right movement angles and up and down movement angle information of the head for each hour. .

그리고, 단계 S220에서 상기의 머리 움직임 추적부(50)에서 제공하는 좌우 각도 정보를 이용하여 현재 머리의 좌우 이동 각도 특히, 좌우 회전 각도가 미리 정해진 허용치를 초과하는지를 판단한다. In operation S220, it is determined whether the current left and right moving angle, in particular, the left and right rotation angle, exceeds a predetermined allowable value using the left and right angle information provided by the head motion tracking unit 50.

단계 S220의 판단 결과, 현재 머리의 좌우 이동 각도가 미리 정해진 허용치 초과하는 경우에는 단계 S230으로 진행하여 좌우 각도 허용치 초과 판별부에서 좌 우 각도 허용치 초과 상태가 일정 시간 이상 지속되고 있는지를 판단한다. 이는 운전자가 정면이 아닌 곳을 일정 시간 이상 지속적으로 바라보고 있는지를 판단하는 것으로 볼 수 있다.As a result of the determination in step S220, when the left and right movement angle of the current head exceeds a predetermined allowable value, the process proceeds to step S230 to determine whether the left and right angle allowable value exceeding state is maintained for a predetermined time or more. This can be seen as determining whether the driver is continuously looking at a place that is not in front for a predetermined time.

단계 S230의 판단 결과, 좌우 각도 허용치 초과 상태가 일정 시간 이상 지속되는 경우에는 단계 S240으로 진행하여 운전자가 산만 운전 중인 것으로 판단하고, 이에 대한 조치를 취할 수 있다. 예를 들어, 음성이나 화면 등 운전자에게 경고를 할 수 있으며 그 방법은 경고등 깜빡임, 음성 경고, 디스플레이 표시 등의 여러 가지로 생각해 볼 수 있다.As a result of the determination in step S230, when the left and right angle allowance exceeding state continues for a predetermined time or more, the process proceeds to step S240 to determine that the driver is distracted driving, and may take action. For example, a warning can be given to the driver, such as a voice or a screen, which can be thought of as flashing a warning light, a voice warning, or a display indication.

하지만, 단계 S220과 단계 S230의 판단 결과 머리의 좌우 이동 각도가 미리 정해진 허용치 초과하지 않거나, 좌우 각도 허용치 초과 상태가 일정 시간 이상 지속되지 않는 경우에는 별도의 조치 없이 다시 단계 S210으로 진행하여 상술한 과정을 반복적으로 수행할 수 있다.However, when the determination result of the step S220 and the step S230 does not exceed the predetermined allowable angle of the head or the left and right angle allowance exceeded for a predetermined time or more, proceeds to step S210 again without any further action and the above-described process Can be performed repeatedly.

도 4는 본 발명의 일실시예에 따라 생성되는 운전자의 머리 움직임 정보를 이용하여 운전자의 졸음 운전을 감지하는 동작을 설명하기 위한 도면이다.4 is a diagram for describing an operation of detecting a drowsy driving of a driver by using head movement information of a driver generated according to an exemplary embodiment of the present invention.

도 4에 도시되는 운전자의 졸음 운전 감지 시스템에 따르면, 단계 S310에서 사람의 머리 움직임을 지속적으로 추적하는 머리 움직임 추적부(50)를 통해, 시간별 머리의 좌우 이동 각도와 상하 이동 각도 정보를 제공한다.According to the driver's drowsy driving detection system shown in FIG. 4, the head movement tracking unit 50 continuously tracks the head movement of the person in step S310, and provides information about the left and right movement angles and the up and down movement angles of the head for each hour. .

그리고, 단계 S320에서 머리 움직임 추적부(50)에서 제공하는 상하 각도 정보를 이용하여 현재 머리의 상하 이동 각도가 미리 정해진 허용치를 초과하는지를 판단한다. In operation S320, it is determined whether the current vertical movement angle of the head exceeds a predetermined allowable value by using the vertical angle information provided by the head motion tracking unit 50.

단계 S320의 판단 결과, 현재 머리의 상하 이동 각도가 미리 정해진 허용치 초과하는 경우에는 단계 S330으로 진행하여 상하 각도 허용치 초과 판별부에서 상하 각도 허용치 초과 상태가 일정 시간 이상 지속되고 있는지를 판단한다. 이는 운전자가 정면이 아닌 곳을 일정 시간 이상 지속적으로 바라보고 있는지를 판단하는 것으로 볼 수 있다. 또는 단계 S330에서 일정 시간 동안 머리의 상하 움직임 특히 상하 각도 허용치 초과하는 머리 움직임의 횟수를 측정하여 기 설정된 허용 횟수를 초과하는지를 판단할 수 있다.As a result of the determination in step S320, if the current vertical movement angle of the head exceeds a predetermined allowable value, the process proceeds to step S330 to determine whether the upper and lower angle allowable value exceeding state continues for a predetermined time or more. This can be seen as determining whether the driver is continuously looking at a place that is not in front for a predetermined time. Alternatively, in step S330, the number of head movements of the head exceeding the allowable upper and lower angles, in particular, the upper and lower angle allowances, may be measured for a predetermined time to determine whether the preset allowable number is exceeded.

단계 S330의 판단 결과, 상하 각도 허용치 초과 상태가 일정 시간 이상 지속되거나 상하 움직임 횟수가 허용 횟수를 초과하는 경우에는 단계 S340으로 진행하여 운전자가 졸음 운전 중인 것으로 판단하고, 이에 대한 조치를 취할 수 있다. 예를 들어, 음성이나 화면 등 운전자에게 경고를 할 수 있으며 그 방법은 경고등 깜빡임, 음성 경고, 디스플레이 표시 등의 여러 가지로 생각해 볼 수 있다.As a result of the determination in step S330, when the state in which the upper and lower angle allowable value exceeds the predetermined time or the number of the upper and lower movements exceeds the allowable number, the process proceeds to step S340 and determines that the driver is drowsy driving, and may take action. For example, a warning can be given to the driver, such as a voice or a screen, which can be thought of as flashing a warning light, a voice warning, or a display indication.

하지만, 단계 S320과 단계 S330의 판단 결과 리의 상하 이동 각도가 미리 정해진 허용치 초과하지 않거나 상하 각도 허용치 초과 상태가 일정 시간 이상 지속되지 않는 경우에는 별도의 조치 없이 다시 단계 S310으로 진행하여 상술한 과정을 반복적으로 수행할 수 있다.However, as a result of the determination of steps S320 and S330, if the vertical movement angle of the li does not exceed the predetermined allowable value or the state of exceeding the upper and lower angle allowable value does not last for a predetermined time, the process described above is repeated again without further action and the above-described process is repeated. It can be done with

상술한 머리의 움직임을 판단하는 것과 같이 안전 운전을 위하여 운전자의 모습이나 행동 패턴을 파악하는 기술은, 비단 산만/졸음 운전을 감지하기 위하여 쓰일 수 있을 뿐만 아니라, 자동차 내에서 운전자의 제스처를 파악하여 운전자와 자동차의 명령 전달 인터페이스 기술로서 사용할 수도 있을 것이다.The technique of identifying the driver's appearance or behavior pattern for safe driving, such as judging the movement of the head described above, can be used to detect distracted / drowsy driving as well as to grasp the gesture of the driver in the vehicle. It could also be used as a command delivery interface technology between the driver and the car.

이상에서, 본 발명의 실시 예들에 의하여 얼굴 인식 시스템 및 방법을 설명하기 위한 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명에 대해 설명하였다. 이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.  In the above, the present invention has been described with reference to the drawings for a block diagram or a processing flowchart for explaining a face recognition system and method according to embodiments of the present invention. It will be appreciated that the combinations of blocks and flowchart illustrations in the process flow diagrams may be performed by computer program instructions. Since these computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, those instructions executed through the processor of the computer or other programmable data processing equipment may be described in flow chart block (s). It creates a means to perform the functions.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory The instructions stored in the block diagram (s) are also capable of producing manufacturing items containing instruction means for performing the functions described in the flowchart block (s).

컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in the flowchart block (s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative implementations, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may actually be executed substantially concurrently, or the blocks may sometimes be performed in reverse order according to the corresponding function.

본 실시 예에서 사용되는 '~부' 또는 '~모듈'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부' 또는 '~모듈'은 어떤 역할들을 수행한다. 그렇지만 '~부' 또는 '~모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부' 또는 '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 도 있다. The term '~' or '~' as used in this embodiment refers to software or a hardware component such as an FPGA or an ASIC, and the '~' or '~ module' performs certain roles. However, '~' or '~' is not meant to be limited to software or hardware. The '~' or '~' module may be configured to reside in an addressable storage medium or may be configured to play one or more processors.

따라서, 일 예로서 '~부' 또는 '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부' 또는 '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부' 또는 '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부' 또는 '~모듈'들로 더 분리될 수 있다. Thus, as an example, 'part' or '~ module' means components such as software components, object-oriented software components, class components, and task components, processes, functions, attributes, and the like. , Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and 'parts' or 'modules' may be combined into a smaller number of components and '~ parts' or '~ modules', or additional components and '~ parts' or It can be further separated into 'modules'.

상기에서는 도면 및 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 기술적 사상으로부터 벗어나지 않는 범위 내에서 본 발명은 다양하게 수정 및 변경시킬 수 있음은 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention as defined by the appended claims. You will understand.

도 1은 본 발명의 일 실시 예에 따른 운전자의 산만/졸음 운전 감지 시스템의 블록도를 나타낸다.1 is a block diagram of a driver's distraction / drowsiness driving detection system according to an embodiment of the present invention.

도 2는 본 실시예에 따라 운전자의 머리 움직임 정보를 이용하는 산만/졸음 운전 감지 시스템의 동작을 나타내는 흐름도이다.2 is a flowchart illustrating the operation of the distraction / drowsiness driving detection system using the head movement information of the driver according to the present embodiment.

도 3은 본 발명의 일실시예에 따라 생성되는 운전자의 머리 움직임 정보를 이용하여 운전자의 산만 운전을 감지하는 동작을 설명하기 위한 흐름도이다.3 is a flowchart illustrating an operation of detecting a distracted driving of a driver by using head movement information of a driver generated according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따라 생성되는 운전자의 머리 움직임 정보를 이용하여 운전자의 졸음 운전을 감지하는 동작을 설명하기 위한 흐름도이다.4 is a flowchart illustrating an operation of detecting a drowsy driving of a driver by using head movement information of a driver generated according to an embodiment of the present invention.

<도면의 주요 부분에 관한 부호의 설명>DESCRIPTION OF THE REFERENCE NUMERALS

10: 영상 획득부, 20: 얼굴 검출부10: image acquisition unit, 20: face detection unit

30: 검출 판별부, 40: 고개 각도 및 위치 측정부 30: detection discrimination unit, 40: head angle and position measuring unit

50: 머리 움직임 추적부 60: 산만/졸음 운전 판별부50: head movement tracking unit 60: distraction / drowsiness driving determination unit

Claims (8)

입력 영상으로부터 얼굴 영역을 얼굴 영상으로 추출하는 얼굴 검출부;A face detector extracting a face region from the input image as a face image; 상기 얼굴 영상으로부터 눈을 찾을 수 있는지 판단하는 눈 검출 판별부;An eye detection determiner that determines whether eyes can be found from the face image; 상기 얼굴 영상에서 얼굴을 구성하는 부위 간의 상대적인 위치를 고려하되, 눈 검출 여부에 따라, 눈이 검출되는 경우에는 제1 측정 방법으로 고개 각도 및 위치를 추출하고, 검출되지 않는 경우에는 제2 측정 방법으로 고개 각도 및 위치를 추출하는 고개 각도 및 위치 측정부;Considering the relative position between the parts constituting the face in the face image, depending on whether the eye is detected, if the eye is detected by extracting the head angle and position by the first measuring method, if not detected the second measuring method A head angle and position measuring unit for extracting the head angle and position; 상기 추출된 고개 각도 및 위치 정보를 기초로 설정되는 실린더 및 타원 모델을 이용하여 머리의 움직임을 추적한 후 머리 움직임 정보를 생성하는 머리 움직임 추적부; 및A head movement tracking unit for generating head movement information after tracking head movements using a cylinder and an ellipse model set based on the extracted head angle and position information; And 상기 머리 움직임 정보를 이용하여 산만/졸음 운전 여부를 판단하는 산만/졸음 운전 판별부Distraction / drowsiness driving determination unit for determining whether distraction / drowsiness driving using the head movement information 을 포함하는, 산만/졸음 운전 감시 시스템.Including, distraction / drowsiness driving monitoring system. 청구항 1에 있어서, The method according to claim 1, 상기 제1 측정 방법에 따르면, AAM(Active Appearance Model) 기반 얼굴 정밀 검출부를 통하여 고개 각도 및 위치 정보를 구하고, 상기 AAM 기반 얼굴 정밀 검출부는, 미리 만들어 놓은 얼굴 모델을 바탕으로 AAM 알고리즘을 이용하여 상기 얼굴 영역에서 실제 얼굴에 부합하는 모습으로 얼굴 모델을 변환하여 얼굴을 피팅 하고, 피팅된 얼굴 모형 정보를 통해 머리의 고개 각도와 위치 정보를 구하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.According to the first measurement method, the head angle and position information is obtained through an AAM (Active Appearance Model) -based face precision detection unit, and the AAM-based face precision detection unit is configured using the AAM algorithm based on a face model prepared in advance. Distracting / drowsiness driving monitoring system, characterized in that by fitting the face by transforming the face model in the face area to match the actual face, and obtaining the head angle and position information of the head through the fitted face model information. 청구항 1에 있어서, The method according to claim 1, 상기 제2 측정 방법에 따르면, 상기 얼굴 영상을 이용하는 좌우 기울기 각도 측정부, 상기 얼굴 영상의 입과 코를 기준으로 얼굴을 정규화시키는 얼굴 정규화 모듈 및 상기 좌우 기울기 각도 정보와 상기 얼굴 정규화 정보를 기초로 하는 얼굴 포즈 측정을 통한 좌우 회전 각도 측정부를 통해 고개 각도 및 위치 정보를 구하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.According to the second measurement method, a left and right tilt angle measuring unit using the face image, a face normalization module for normalizing a face based on the mouth and nose of the face image, and based on the left and right tilt angle information and the face normalization information Distraction / drowsiness driving monitoring system, characterized in that to obtain the head angle and position information through the left and right angle measurement through the face pose measurement. 청구항 3에 있어서, The method of claim 3, 상기 좌우 기울기 각도 측정부 및 상기 좌우 회전 각도 측정부는, 소정의 각도를 기초로 하는 선형 모델을 이용하여 머리의 좌우 회전 각도를 구하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.And the left and right tilt angle measuring unit and the left and right rotation angle measuring unit obtain a left and right rotation angle of the head using a linear model based on a predetermined angle. 청구항 1에 있어서, The method according to claim 1, 상기 머리 움직임 추적부는, 상기 고개 각도 및 위치 정보를 이용하여 실린더 및 타원 모델의 초기값을 설정하고, 얼굴 영상을 통해 얼굴을 추적하면서 고개의 움직임 정보를 실시간으로 제공하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.The head motion tracking unit sets initial values of a cylinder and an ellipse model using the head angle and position information, and provides head motion information in real time while tracking a face through a face image. Drowsiness driving surveillance system. 청구항 1에 있어서, The method according to claim 1, 상기 산만/졸음 운전 판별부는, 산만 운전 판단과 졸음 운전 판단을 동시에 실시하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.The distraction / drowsiness driving determination unit performs distraction / drowsiness driving determination at the same time. 청구항 1에 있어서, The method according to claim 1, 상기 산만 운전 판단은, 좌우 회전 각도 정보가 기 설정된 허용치를 초과하고 그 시간이 기 설정된 허용 시간을 초과하는 경우 산만 운전이라 판단하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.The distraction driving determination system, the distraction / drowsiness driving monitoring system, characterized in that it is determined that the distraction operation when the left and right rotation angle information exceeds a preset allowable value and the time exceeds the preset allowable time. 청구항 1에 있어서, The method according to claim 1, 상기 졸음 운전 판단은, 상하 회전 각도 정보가 기 설정된 허용치를 초과하고 그 시간이 기 설정된 허용 시간을 초과하거나 그 횟수가 기 설정된 허용 횟수를 초과하는 경우 졸음 운전이라 판단하는 것을 특징으로 하는, 산만/졸음 운전 감시 시스템.The drowsiness operation determination, when the up-and-down rotation angle information exceeds a preset allowable value and the time exceeds the preset allowable time or the number of times exceeds the preset allowable number, distraction / Drowsiness driving surveillance system.
KR1020080090002A 2008-09-11 2008-09-11 A system for monitoring loose/droway driver using head moving information KR101360412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080090002A KR101360412B1 (en) 2008-09-11 2008-09-11 A system for monitoring loose/droway driver using head moving information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080090002A KR101360412B1 (en) 2008-09-11 2008-09-11 A system for monitoring loose/droway driver using head moving information

Publications (2)

Publication Number Publication Date
KR20100030991A KR20100030991A (en) 2010-03-19
KR101360412B1 true KR101360412B1 (en) 2014-02-27

Family

ID=42180796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080090002A KR101360412B1 (en) 2008-09-11 2008-09-11 A system for monitoring loose/droway driver using head moving information

Country Status (1)

Country Link
KR (1) KR101360412B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765770B1 (en) * 2016-02-29 2017-08-07 손부경 Cheating detection system of online test using image processing and method thereof and recording medium storing program for executing the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170002330A (en) 2015-06-29 2017-01-06 주식회사 와이즈오토모티브 Driver-customized display variable apparatus and method for controlling the same
KR102038371B1 (en) * 2017-09-25 2019-11-26 엠텍비젼 주식회사 Driver eye detecting device and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242787A (en) * 1999-02-22 2000-09-08 Toyota Motor Corp Object detector
JP2001138767A (en) * 1999-11-17 2001-05-22 Nissan Motor Co Ltd Alarm device for vehicle
JP2002352400A (en) * 2001-05-25 2002-12-06 Toyota Central Res & Dev Lab Inc Face image processor
JP2004504684A (en) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド Face image processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242787A (en) * 1999-02-22 2000-09-08 Toyota Motor Corp Object detector
JP2001138767A (en) * 1999-11-17 2001-05-22 Nissan Motor Co Ltd Alarm device for vehicle
JP2004504684A (en) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド Face image processing system
JP2002352400A (en) * 2001-05-25 2002-12-06 Toyota Central Res & Dev Lab Inc Face image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765770B1 (en) * 2016-02-29 2017-08-07 손부경 Cheating detection system of online test using image processing and method thereof and recording medium storing program for executing the same

Also Published As

Publication number Publication date
KR20100030991A (en) 2010-03-19

Similar Documents

Publication Publication Date Title
JP5406328B2 (en) VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM
EP2338416B1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP4780088B2 (en) Face image capturing apparatus, face image capturing method, and program thereof
JP4872245B2 (en) Pedestrian recognition device
JP4452833B2 (en) Gaze movement detection method and gaze movement detection apparatus
EP1700567A1 (en) System and method for determining eye closure state
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
KR101914362B1 (en) Warning system and method based on analysis integrating internal and external situation in vehicle
JP2016057839A (en) Facial direction detection device and warning system for vehicle
TWI522257B (en) Vehicle safety system and operating method thereof
JP2007323578A (en) Vehicle periphery monitoring device
JP2010191793A (en) Alarm display and alarm display method
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
WO2020148697A2 (en) Method and system for monitoring a person using infrared and visible light
JP6832506B2 (en) Pulse wave measuring device and pulse wave measuring method
CN107640160B (en) Vehicle safe driving auxiliary system and control method thereof
JP2018038553A (en) On-vehicle display device, control method of on-vehicle display device, and program
KR101360412B1 (en) A system for monitoring loose/droway driver using head moving information
JP2005296382A (en) Visual line detector
JP4701961B2 (en) Pedestrian detection device
JP2008183933A (en) Noctovision equipment
KR102288753B1 (en) Apparatus for monitoring driver and method thereof
KR102072910B1 (en) A drowsiness detection method using the drowsiness detection apparatus
KR101806710B1 (en) System and Method for Detecting Pupil which is strong Intensity Change of Illumination

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee