KR20200116825A - Apparatus and method for driver condition recognition - Google Patents

Apparatus and method for driver condition recognition Download PDF

Info

Publication number
KR20200116825A
KR20200116825A KR1020190038748A KR20190038748A KR20200116825A KR 20200116825 A KR20200116825 A KR 20200116825A KR 1020190038748 A KR1020190038748 A KR 1020190038748A KR 20190038748 A KR20190038748 A KR 20190038748A KR 20200116825 A KR20200116825 A KR 20200116825A
Authority
KR
South Korea
Prior art keywords
driver
face image
state
image
face
Prior art date
Application number
KR1020190038748A
Other languages
Korean (ko)
Inventor
이경희
권영진
김경호
김도현
김휘
윤창락
장병태
전주일
최진규
최현균
황윤숙
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020190038748A priority Critical patent/KR20200116825A/en
Publication of KR20200116825A publication Critical patent/KR20200116825A/en

Links

Images

Classifications

    • G06K9/00845
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • G06K9/00268
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

The present invention provides an apparatus and a method for recognizing the state of a driver by using a face image photographed under the face of the driver. In addition, the present invention provides a driver-wearable image collection device for collecting a face image to be used for driver state recognition. According to the present invention, the apparatus for recognizing the state of the driver comprises: a storage for recognizing the state of the driver based on a face image of the driver, which is captured by at least one camera, and storing the face image; and a processor.

Description

운전자 상태 인식 장치 및 방법{APPARATUS AND METHOD FOR DRIVER CONDITION RECOGNITION}Driver condition recognition device and method {APPARATUS AND METHOD FOR DRIVER CONDITION RECOGNITION}

본 발명은 운전자 상태 인식 장치 및 방법에 관한 것으로, 상세하게는 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing a driver's condition, and more particularly, to an apparatus and method for recognizing a driver's condition based on a driver's face image.

운전자의 졸음 운전으로 인한 사고를 막고 개인화된 차별적인 서비스를 제공하기 위해, 운전자의 졸음 감지 장치 개발과 같은 연구들이 이루어지고 있다.In order to prevent accidents caused by drivers' drowsy driving and provide personalized and differentiated services, studies such as the development of a driver's drowsiness detection device are being conducted.

종래 기술은 운전자의 피로도를 분석하기 위해 눈 깜빡이는 속도가 저하되거나 눈을 오래 감고 있는 모습을 카메라를 통해 모니터링한다. 또한, 이미지 처리 프로세서의 발달로 이미지 처리 속도가 개선되고 딥러닝 연구가 함께 접목되어 임베디드 시스템에 적용가능한 다양한 이미지 처리 기술들이 소개되고 있다. In the prior art, in order to analyze the driver's fatigue, the blinking speed is decreased or the eyes are closed for a long time through a camera. In addition, with the development of image processing processors, image processing speed is improved, and deep learning research is grafted together to introduce various image processing technologies applicable to embedded systems.

한편, 운전자의 상태를 파악하기 위해, 운전자 얼굴의 표정 및 목소리를 분석하고 있으며, 이를 위해 카메라와 마이크, 생체신호 측정 센서를 활용하기도 한다.Meanwhile, in order to grasp the driver's condition, the facial expression and voice of the driver's face are analyzed, and for this, a camera, a microphone, and a sensor for measuring biometric signals are also used.

얼굴 표정을 통한 운전자의 상태 및 감정을 확인하기 위하여 외부에 장치를 부착하는 방법이 이용되고 있으나, 선글라스를 착용하거나 얼굴을 숙이거나 한쪽으로 고개를 돌릴 경우에는 눈, 코, 입의 검출이 어려운 문제가 있다. 특히, 그늘이나 빛의 반사로 인해 얼굴 검출이 어렵고, 손으로 얼굴을 만지거나 얼굴을 가리는 행동들로 인해 이미지만으로 얼굴 검출이 어려울 수 있다.In order to check the driver's condition and emotion through facial expressions, a method of attaching a device to the outside is used, but when wearing sunglasses, bowing his face, or turning his head to one side, it is difficult to detect eyes, nose, and mouth. There is. In particular, it is difficult to detect a face due to reflection of shade or light, and it may be difficult to detect a face with only an image due to actions of touching the face with a hand or covering the face.

운전자의 정면 얼굴을 촬영하여 상태를 예측하는 경우, 얼굴 화면이 직접적으로 촬영되고 있다는 부담감으로 인해 운전자에게 거리낌을 줄 수 있고 운전자가 운전에 집중하기 어렵게 만든다.When predicting the condition by photographing the driver's front face, the burden that the face screen is being directly photographed may give the driver a feeling of hesitation and make it difficult for the driver to concentrate on driving.

전술한 문제를 해소하기 위해, 본 발명은 운전자의 얼굴 하부에서 촬영한 얼굴 영상을 이용하여 운전자 상태를 인식하는 장치 및 방법을 제공한다.In order to solve the above-described problem, the present invention provides an apparatus and method for recognizing a driver's state by using a face image photographed under the driver's face.

또한 본 발명은 운전자 상태 인식에 활용될 얼굴 영상을 수집하기 위한 운전자가 착용가능한 형태의 영상 수집 장치를 제공한다.In addition, the present invention provides a driver wearable image collection device for collecting face images to be used for driver state recognition.

본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.The above-described objects and other objects, advantages, and features of the present invention, and methods of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings.

본 발명에 일 측면에 따른 운전자 상태 인식 장치는, 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 장치로서, 얼굴 영상을 저장하는 저장소 및 프로세서를 포함하고, 프로세서는, 운전자의 얼굴 영상을 획득하고, 얼굴 영상으로부터 기준 영역을 추출하고, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하고, 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하도록 설정될 수 있다.An apparatus for recognizing a driver's state according to an aspect of the present invention is an apparatus for recognizing a driver's state based on a face image of a driver photographed with at least one camera, and includes a storage and a processor for storing the face image, and the processor, It may be set to acquire a driver's face image, extract a reference region from the face image, extract a feature boundary from the face image based on the reference region, and determine the driver's state based on a change in the feature boundary.

일 예에서 프로세서는, 운전자의 상태에 기반한 반응 지시를 결정하도록 더 설정된다.In one example, the processor is further configured to determine a response indication based on the driver's condition.

본 발명의 다른 측면에 따른 영상 수집 장치는 사용자가 착용가능한 몸체 및 상기 사용자의 얼굴 영상을 촬영하도록 상기 몸체에 배치된 적어도 하나의 LED 카메라 셀을 포함한다.An image collection device according to another aspect of the present invention includes a body wearable by a user and at least one LED camera cell disposed on the body to capture a face image of the user.

일 예에서 몸체는 넥밴드(neck band)형으로 형성될 수 있다.In one example, the body may be formed in a neck band type.

일 예에서 적어도 하나의 LED 카메라 셀은 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영할 수 있다.In an example, at least one LED camera cell may photograph a user's face in a direction looking up from the bottom to the top.

일 예에서 적어도 하나의 LED 카메라 셀은 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영할 수 있다.In an example, at least one LED camera cell may capture a face image of a user's first view and a face image of a second view.

일 예에서 영상 수집 장치는, 얼굴 영상을 송신하고, 얼굴 영상에 기반하여 결정된 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈을 더 포함한다.In an example, the image collection device further includes a communication module that transmits a face image and receives a response instruction for a user's state information determined based on the face image.

일 예에서 영상 수집 장치는, 반응 지시에 기반하여 사용자에게 반응을 출력하는 출력부를 더 포함한다.In an example, the image collection device further includes an output unit that outputs a response to the user based on the response instruction.

본 발명의 또 다른 측면에 따른 운전자 상태 인식 방법은, 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 방법으로서, 운전자의 얼굴 영상을 획득하는 단계, 얼굴 영상으로부터 기준 영역을 추출하는 단계, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하는 단계 및 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하는 단계를 포함한다.A driver state recognition method according to another aspect of the present invention is a method of recognizing a driver's state based on a driver's face image captured by at least one camera, comprising: acquiring a driver's face image, a reference region from the face image And extracting, extracting a feature boundary from the face image based on the reference region, and determining a driver's state based on a change in the feature boundary.

일 예에서 얼굴 영상은 운전자의 얼굴을 하부에서 상부를 올려다보는 방향으로 촬영한 영상일 수 있다.In an example, the face image may be an image taken of a driver's face in a direction looking up from the bottom to the top.

일 예에서 기준 영역을 추출하는 단계는, 운전자의 코 영역에 대응하는 얼굴 영상의 영역을 기준 영역으로 추출할 수 있다.In an example, in the step of extracting the reference region, a region of the face image corresponding to the driver's nose region may be extracted as the reference region.

일 예에서 기준 영역은 삼각형 형상일 수 있다.In an example, the reference area may have a triangular shape.

일 예에서 특징 바운더리를 추출하는 단계는, 운전자의 눈과 입을 포함하는 영역에 대응하는 얼굴 영상의 관심 영역을 추출하는 단계 및 기준 영역과 관심 영역의 위치 관계에 기반하여 관심 영역을 특징 바운더리로 결정하는 단계를 포함한다.In one example, extracting the feature boundary includes extracting an ROI of a face image corresponding to an area including the driver's eyes and mouth, and determining the ROI as a feature boundary based on the positional relationship between the reference region and the ROI. It includes the step of.

일 예에서 특징 바운더리는 역사다리꼴 형상일 수 있다.In one example, the feature boundary may have a historical trapezoidal shape.

일 예에서 얼굴 영상을 획득하는 단계는, 제 1 시점의 제 1 얼굴 영상을 획득하는 단계 및 제 2 시점의 제 2 얼굴 영상을 획득하는 단계를 포함한다.In an example, acquiring the face image includes acquiring a first face image of a first view and acquiring a second face image of a second view.

일 예에서 운전자의 상태를 판단하는 단계는, 제 1 얼굴 영상 및 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단할 수 있다.In an example, in determining the driver's state, the driver's state may be determined based on a change in a feature boundary between the first face image and the second face image.

일 예에서 특징 바운더리는 역사다리꼴 형상이고, 특징 바운더리의 변화는 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나일 수 있다.In an example, the characteristic boundary is an inverse trapezoidal shape, and the change in the characteristic boundary may be at least one of a height change, a length change of a lower side, and an area change of the inverse trapezoidal shape.

본 발명에 의하면 얼굴 정면 영상이 아닌 왜곡된 얼굴 영상에서도 운전자 상태의 인식 및 예측이 가능하다.According to the present invention, it is possible to recognize and predict the driver's state even in a distorted face image other than a front face image.

또한, 본 발명에 의하면 차량에 별도로 카메라를 장착할 필요가 없고, 왜곡된 얼굴 영상의 특징점이 얼굴 정면 영상의 특징점에 비해 수가 적어 처리속도가 빠른 장점이 있다.In addition, according to the present invention, it is not necessary to separately mount a camera on the vehicle, and the number of feature points of the distorted face image is smaller than that of the front face image, so that the processing speed is high.

더불어, 본 발명에 따른 영상 수집 장치는 다양한 각도에서 얼굴 영상을 획득할 수 있다.In addition, the image collection device according to the present invention may acquire face images from various angles.

도 1은 실시예에 따른 운전자 상태 인식 시스템을 도시한다.
도 2는 얼굴 영상에 기반하여 인식가능한 예시적인 운전자 상태 정보를 보여준다.
도 3은 실시예에 따른 영상 수집 장치를 도시한다.
도 4는 실시예에 따른 운전자 상태 인식 장치의 블록도이다.
도 5는 실시예에 따른 운전자 상태 인식 과정을 나타내는 순서도이다.
도 6은 실시예에 따른 운전자 상태 인식 과정을 보여준다.
도 7은 실시예에 따른 운전자 상태 인식 과정을 보여준다.
도 8은 일 예에 따른 운전자 상태 판단 과정을 보여주는 순서도이다.
1 shows a driver state recognition system according to an embodiment.
2 shows exemplary driver state information that can be recognized based on a face image.
3 shows an image collection device according to an embodiment.
4 is a block diagram of an apparatus for recognizing a driver's state according to an embodiment.
5 is a flowchart illustrating a driver state recognition process according to an embodiment.
6 shows a process of recognizing a driver's state according to an embodiment.
7 shows a process of recognizing a driver's state according to an embodiment.
8 is a flowchart illustrating a process of determining a driver's state according to an example.

본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each of the following preferred embodiments. It is obvious that the present invention is not limited to the embodiments disclosed below, but can be implemented in other various forms within the scope of the technical idea of the present invention. The terms used in the present specification are also intended to describe embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, "comprise" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the stated component, step, action and/or element is Or does not preclude addition.

도 1은 실시예에 따른 운전자 상태 인식 시스템을 도시한다.1 shows a driver state recognition system according to an embodiment.

운전자 상태 인식 시스템은 차량에 탑승한 운전자의 현재 상태를 분석하고 예측하는 시스템으로서 영상 수집 장치(150) 및 운전자 상태 인식 장치(100)를 포함한다.The driver state recognition system is a system that analyzes and predicts a current state of a driver in a vehicle, and includes an image collection device 150 and a driver state recognition device 100.

영상 수집 장치(150)는 적어도 하나의 카메라를 이용하여 운전자의 얼굴 영상을 획득하고 획득된 얼굴 영상을 운전자 상태 인식 장치(100)에게 전달한다. 여기서 영상 수집 장치(150)는 운전자의 정면 얼굴 영상이 아닌 왜곡된 얼굴 영상을 획득할 수 있다. 예를 들어, 영상 수집 장치(150)는 운전자의 얼굴의 하부에서 상부를 향하는 방향으로 촬영한 영상을 획득하여 운전자 상태 인식 장치(100)에게 전달한다. 운전자의 얼굴의 하부에서 상부를 향하는 방향으로 촬영한 얼굴 영상을 이하에서 왜곡된 얼굴 영상이라고 칭한다.The image collection device 150 acquires a driver's face image using at least one camera and transmits the acquired face image to the driver state recognition device 100. Here, the image collection device 150 may acquire a distorted face image rather than a front face image of the driver. For example, the image collection device 150 acquires an image photographed in a direction from the lower portion of the driver's face toward the upper portion and transmits the acquired image to the driver state recognition apparatus 100. A face image photographed in a direction from the lower portion of the driver's face toward the upper portion is referred to as a distorted face image hereinafter.

운전자 상태 인식 장치(100)는 영상 수집 장치(150)로부터 획득한 얼굴 영상을 분석하여 운전자의 현재 상태를 판단한다.The driver state recognition device 100 determines a current state of the driver by analyzing the face image acquired from the image collection device 150.

운전자 상태 인식 장치(100)는 운전자의 현재 상태에 기반한 응답을 생성하여 영상 수집 장치(150)에게 전달할 수 있다. 예를 들어, 응답은 반응 지시일 수 있다.The driver state recognition device 100 may generate a response based on the driver's current state and transmit it to the image collection device 150. For example, the response can be a response indication.

영상 수집 장치(150)는 수신한 응답에 기반하여 적절한 출력을 생성할 수 있다. 예를 들어 영상 수집 장치(150)는 청각 신호, 시각 신호 및 진동 신호 중 적어도 하나를 출력으로 생성하여 운전자에게 전달할 수 있다.The image collection device 150 may generate an appropriate output based on the received response. For example, the image collection device 150 may generate at least one of an auditory signal, a visual signal, and a vibration signal as an output and transmit it to the driver.

일 예에서 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 물리적으로 분리된 장치일 수 있다. 이 경우 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 유무선 통신 수단을 구비하여 서로 통신할 수 있다. 예를 들어, 운전자 상태 인식 장치(100)는 차량 내부 또는 외부에 위치한 서버로서 구현되어 적어도 하나의 영상 수집 장치(150)와 연동할 수 있다.In an example, the image collection device 150 and the driver state recognition device 100 may be physically separated devices. In this case, the image collection device 150 and the driver state recognition device 100 may communicate with each other by providing a wired or wireless communication means. For example, the driver state recognition device 100 may be implemented as a server located inside or outside the vehicle and may interwork with at least one image collection device 150.

다른 예에서 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 일체형으로 구현될 수 있다. 예를 들어, 영상 수집 장치(150)는 도 4를 참조하여 후술할 운전자 상태 인식 장치(100)를 구현한 하드웨어 모듈을 내장형으로 탑재할 수 있다.In another example, the image collection device 150 and the driver state recognition device 100 may be implemented integrally. For example, the image collection device 150 may be embedded with a hardware module implementing the driver state recognition apparatus 100 to be described later with reference to FIG. 4.

도 2는 얼굴 영상에 기반하여 인식가능한 예시적인 운전자 상태 정보를 보여준다.2 shows exemplary driver state information that can be recognized based on a face image.

종래에는 운전자의 현재 상태를 판단하기 위하여 운전자의 정면 얼굴을 검출하여 얼굴 내 특징을 활용하였다. 기존의 방식은 얼굴 특징점을 찾기 위해 눈, 코, 입, 얼굴추출, 각 부분의 가장자리 모양 추출 및 눈을 뜬 각도 추출 등을 수행한다. 특징점을 찾는 이미지 전처리 과정을 수행하지 않고, CNN (Convolutional neural network)에 입력하여 Network에서 특징을 찾는 방법을 이용할 수도 있으며 이 두 방법을 결합하여 활용하기도 한다.Conventionally, in order to determine the driver's current state, the driver's front face was detected and features within the face were utilized. Existing methods perform eye, nose, mouth and face extraction, edge shape extraction of each part, and eye opening angle extraction to find facial feature points. Instead of performing the image preprocessing process for finding feature points, a method for finding features in the network by inputting them into a convolutional neural network (CNN) can be used, and the two methods are also used in combination.

도 2에서 다양한 감정 상태를 구분하기 위해 얼굴 이미지 한 컷에 대해 7가지 이상의 감정(중립, 분노, 슬픔, 놀람, 역겨움, 불안, 행복)을 분류할 수 있다.In FIG. 2, seven or more emotions (neutral, anger, sadness, surprise, disgust, anxiety, and happiness) may be classified for one face image in order to distinguish various emotional states.

실시예에 따른 운전자 상태 인식 장치 및 방법에 의하면 왜곡된 얼굴 영상을 획득하여 운전자의 감정이나 피로 및 졸음 상태를 알 수 있다.According to an apparatus and method for recognizing a driver's state according to an embodiment, a distorted face image may be obtained to recognize a driver's emotions, fatigue, and drowsiness.

도 3은 실시예에 따른 영상 수집 장치를 도시한다.3 shows an image collection device according to an embodiment.

영상 수집 장치(150)는 사용자가 착용가능한 몸체(310) 및 사용자의 얼굴 영상을 촬영하도록 몸체(310)에 배치된 적어도 하나의 LED 카메라 셀(320)을 포함한다.The image collection device 150 includes a body 310 wearable by the user and at least one LED camera cell 320 disposed on the body 310 to capture a face image of the user.

일 예에서 영상 수집 장치(150)의 몸체(310)는 사용자가 착용가능하도록 웨어러블 형태로 형성될 수 있다. 일 예에서 영상 수집 장치(150)의 몸체(310)는 도 3(a) 및 도 3(c)에 예시적으로 도시된 것처럼 넥밴드(neck band)형으로 형성될 수 있다. 예를 들어 넥밴드의 형상은 ∩형, ∪형, ㄷ형, ㅁ형 및 O형 등 목에 착용가능한 다양한 형태로 변형되어 구현가능하다. 다른 예에서 영상 수집 장치(150)는 사용자가 착용가능한 팔찌, 브로찌, 헤드셋 또는 벨트로 구현될 수 있다.In one example, the body 310 of the image collection device 150 may be formed in a wearable shape so that the user can wear it. In one example, the body 310 of the image collection device 150 may be formed in a neck band type as exemplarily shown in FIGS. 3(a) and 3(c). For example, the shape of the neckband can be transformed into various forms that can be worn on the neck such as ∩, ∪, c, ㅁ, and O-shaped. In another example, the image collection device 150 may be implemented as a bracelet, brooch, headset, or belt wearable by the user.

한편, 도 3(a) 및 도 3(c)에서 적어도 하나의 LED 카메라 셀(320)은 몸체(310)에 일정한 간격으로 일렬로 배열되어 있지만 이와 다른 형태의 다양한 배열도 가능하다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 여러 줄로 배열될 수 있다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 지그재그로 배열될 수 있다. 이를테면, 적어도 하나의 LED 카메라 셀(320)은 소형 카메라의 어레이를 구성한다.On the other hand, in FIGS. 3(a) and 3(c), at least one LED camera cell 320 is arranged in a line on the body 310 at regular intervals, but various arrangements of other forms are possible. For example, at least one LED camera cell 320 may be arranged in several rows. For example, at least one LED camera cell 320 may be arranged in a zigzag. For example, at least one LED camera cell 320 constitutes an array of small cameras.

영상 수집 장치(150)는 적어도 하나의 LED 카메라 셀(320)을 구동하여 다양한 각도에서 사용자의 얼굴 영상을 촬영할 수 있다. 이는 차량에 카메라를 장착하는 경우에 제한된 각도에서만 얼굴 영상을 촬영할 수 있는 것에 비하여 다양한 각도에서 촬영된 얼굴 영상에 기반하여 영상 분석이 가능해지므로 인식된 운전자 상태의 정확도가 제고될 수 있다.The image collection device 150 may capture a face image of a user from various angles by driving at least one LED camera cell 320. In contrast, when a camera is mounted on a vehicle, a face image can be photographed only from a limited angle, whereas an image analysis can be performed based on a face image photographed from various angles, thereby improving the accuracy of the recognized driver's state.

도 3(b)는 예시적인 LED 카메라 셀(320)을 보여준다. LED 카메라 셀(320)은 카메라(322) 및 카메라(322)의 주변에 배치된 여러 개의 LED(324)를 포함할 수 있다. 영상 인식 장치(150)의 LED 카메라 셀(320)은 적어도 하나의 LED(324)가 장착되어 있으므로 LED(324)를 가동하여 어두운 곳에서도 카메라(322)로 촬영이 가능하다.3(b) shows an exemplary LED camera cell 320. The LED camera cell 320 may include a camera 322 and a plurality of LEDs 324 disposed around the camera 322. Since the LED camera cell 320 of the image recognition apparatus 150 is equipped with at least one LED 324, the LED 324 can be operated to take a picture with the camera 322 even in a dark place.

도 3(c)는 영상 수집 장치(150)를 사용자가 장착한 모습을 예시적으로 보여준다. 사용자는 적어도 하나의LED(324)와 카메라(322)를 포함하는 LED 카메라 셀(320)을 적어도 하나 포함하는 영상 수집 장치(150)를 착용하고 있다. 3(c) shows an example in which the image collection device 150 is mounted by a user. The user is wearing an image collection device 150 including at least one LED camera cell 320 including at least one LED 324 and a camera 322.

도 3(c)에 예시적으로 도시된 것처럼 영상 인식 장치(150)는 사용자가 착용 시에 얼굴 하부에서 상부를 향하는 방향으로 얼굴 표면을 촬영할 수 있다. 즉, 적어도 하나의 LED 카메라 셀(320)은 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영할 수 있다.As illustrated by way of example in FIG. 3C, the image recognition apparatus 150 may photograph a face surface in a direction from a lower face to an upper face when the user wears it. That is, at least one LED camera cell 320 may photograph the user's face in a direction looking up from the bottom to the top.

영상 인식 장치(150)는 적어도 하나의 LED 카메라 셀(320)을 구동하여 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영한다. 제 1 시점과 제2 시점은 연속한 시간 상에서 상이한 두 개의 시점일 수 있다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 사전설정된 시간 간격에 따라 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 주기적으로 촬영한다. 여기서 시간 간격은 현재 운전자 상태에 따라 조정될 수 있다.The image recognition device 150 drives at least one LED camera cell 320 to capture a face image of a user's first viewpoint and a face image of a second viewpoint. The first time point and the second time point may be two different time points in a continuous time. For example, at least one LED camera cell 320 periodically captures a face image of a first view and a face image of a second view according to a preset time interval. Here, the time interval may be adjusted according to the current driver condition.

일 예에서 영상 인식 장치(150)는 생체 센서를 더 포함할 수 있다. 예를 들어, 영상 인식 장치(150)는 심장 박동 센서, 혈압 센서, 혈당 센서 및/또는 온도 센서를 포함할 수 있다. 여기서, 영상 인식 장치(150)는 생체 센서에서 수신한 생체 신호에 기반하여 적어도 하나의 LED 카메라 셀(320)을 구동하여 얼굴 영상을 획득하는 시간 주기를 조정할 수 있다. 이를테면, 영상 인식 장치(150)는 생체 센서에서 수신한 사용자의 심장 박동수가 평소보다 낮아진 경우 얼굴 영상을 더 자주 획득할 수 있다.In an example, the image recognition apparatus 150 may further include a biometric sensor. For example, the image recognition apparatus 150 may include a heart rate sensor, a blood pressure sensor, a blood glucose sensor, and/or a temperature sensor. Here, the image recognition apparatus 150 may adjust a time period for acquiring a face image by driving at least one LED camera cell 320 based on a biosignal received from the biometric sensor. For example, the image recognition apparatus 150 may acquire a face image more often when the user's heart rate received from the biometric sensor is lower than usual.

영상 수집 장치(150)는 촬영한 얼굴 영상을 상태 인식 장치(100)에게 전달하고, 해당 얼굴 영상에 기반하여 상태 인식 장치(100)가 결정한 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈을 더 포함할 수 있다.The image collection device 150 transmits the photographed face image to the state recognition device 100, and receives a response instruction for the user's state information determined by the state recognition device 100 based on the corresponding face image. It may contain more.

또한 영상 수집 장치(150)는 상태 인식 장치(100)로부터 수신한 반응 지시에 기반하여 사용자에게 반응을 출력하는 출력부를 더 포함할 수 있다. 예를 들어 반응은 청각 신호, 시각 신호 및 진동 신호 중 적어도 하나를 포함할 수 있다.In addition, the image collection device 150 may further include an output unit that outputs a response to a user based on a response instruction received from the state recognition device 100. For example, the response may include at least one of an auditory signal, a visual signal, and a vibration signal.

다른 예에서, 영상 수집 장치(150)는 차량에 장착될 수도 있다. 예를 들어, 영상 수집 장치(150)는 차량의 핸들(wheel)에 장착될 수 있다. 이 경우 핸들이 영상 수집 장치(150)의 몸체(310)에 대응한다.In another example, the image collection device 150 may be mounted on a vehicle. For example, the image collection device 150 may be mounted on a wheel of a vehicle. In this case, the handle corresponds to the body 310 of the image collection device 150.

도 4는 실시예에 따른 운전자 상태 인식 장치의 블록도이다.4 is a block diagram of an apparatus for recognizing a driver's state according to an embodiment.

운전자 상태 인식 장치(100)는 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식한다. 예를 들어, 운전자 상태 인식 장치(100)는 영상 수집 장치(150)에 포함된 적어도 하나의 LED 카메라 셀로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식할 수 있다.The driver state recognition apparatus 100 recognizes the driver state based on the driver's face image captured with at least one camera. For example, the driver's state recognition device 100 may recognize the driver's state based on a driver's face image captured by at least one LED camera cell included in the image collection device 150.

도 4의 기능 블록도에 도시된대로, 운전자 상태 인식 장치(100)는 획득한 얼굴 영상을 저장하는 저장부(420), 적어도 하나의 카메라를 포함하는 영상 수집 장치(150)와 통신하는 통신부(430) 및 획득한 얼굴 영상에 기반하여 운전자 상태를 판단하는 제어부(410)를 포함한다.As shown in the functional block diagram of FIG. 4, the driver state recognition device 100 includes a storage unit 420 that stores an acquired face image, and a communication unit that communicates with the image collection device 150 including at least one camera ( 430) and a controller 410 that determines the driver's state based on the acquired face image.

운전자 상태 인식 장치(100)는 획득한 얼굴 영상을 저장하는 저장부(420)에 대응하는 저장소 및 제어부(410)를 구동하는 프로세서를 포함한다.The driver state recognition apparatus 100 includes a storage unit corresponding to the storage unit 420 for storing the acquired face image and a processor for driving the control unit 410.

추가적으로 운전자 상태 인식 장치(100)는 통신부(430)에 대응하는 유무선 통신 모듈을 포함할 수 있다.Additionally, the driver state recognition apparatus 100 may include a wired/wireless communication module corresponding to the communication unit 430.

운전자 상태 인식 장치(100)의 프로세서는, 운전자의 얼굴 영상을 획득하고, 얼굴 영상으로부터 기준 영역을 추출하고, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하고, 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하는 제어부(410)를 구동하도록 설정된다. 또한, 운전자 상태 인식 장치(100)의 프로세서는, 운전자의 상태에 기반한 반응 지시를 결정하는 제어부(410)를 구동하도록 더 설정될 수 있다. 제어부(410)의 구체적인 동작에 대하여는 도 5를 참조하여 후술한다.The processor of the driver state recognition apparatus 100 acquires a driver's face image, extracts a reference region from the face image, extracts a feature boundary from the face image based on the reference region, and provides the driver based on the change in the feature boundary. It is set to drive the control unit 410 that determines the state of. In addition, the processor of the driver state recognition apparatus 100 may be further configured to drive the controller 410 that determines a response instruction based on the driver's state. A detailed operation of the control unit 410 will be described later with reference to FIG. 5.

도 5는 실시예에 따른 운전자 상태 인식 과정을 나타내는 순서도이다.5 is a flowchart illustrating a driver state recognition process according to an embodiment.

운전자 상태 인식 방법은 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식한다. 전술한대로, 예를 들어, 운전자 상태 인식 방법은 영상 수집 장치(150)에 포함된 적어도 하나의 LED 카메라 셀로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식할 수 있다.The driver's state recognition method recognizes the driver's state based on a driver's face image captured by at least one camera. As described above, for example, the driver state recognition method may recognize the driver state based on the driver's face image captured by at least one LED camera cell included in the image collection device 150.

단계(510)에서 도 4를 참조하여 제어부(410)는 운전자의 얼굴 영상을 획득한다. 예를 들어, 제어부(410)는 영상 수집 장치(150)가 운전자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영한 얼굴 영상을 통신부(430)를 통하여 획득한다. 예를 들어, 제어부(410)는 제 1 시점의 제 1 얼굴 영상을 획득하고 후속하여 제 2 시점의 제 2 얼굴 영상을 획득한다. 이를테면, 제어부(410)는 사전설정된 시간 간격에 따라 주기적으로 얼굴 영상을 획득한다.In step 510, with reference to FIG. 4, the controller 410 acquires a face image of the driver. For example, the control unit 410 acquires a face image captured by the image collection device 150 in a direction in which the driver's face is looking up from the bottom to the top through the communication unit 430. For example, the controller 410 acquires a first face image of a first view and subsequently acquires a second face image of a second view. For example, the controller 410 periodically acquires a face image according to a preset time interval.

단계(520)에서 제어부(410)는 단계(510)에서 획득한 얼굴 영상으로부터 기준 영역을 추출한다.In step 520, the controller 410 extracts a reference region from the face image acquired in step 510.

기준 영역은 왜곡된 얼굴 형상에서 특징 바운더리를 찾기 위한 기준이 되는 영역이다.The reference area is a reference area for finding a feature boundary in a distorted face shape.

일 예에서, 제어부(410)는 운전자의 코 영역에 대응하는 얼굴 영상의 영역을 기준 영역으로 추출한다. 단계(510)에서 제어부(410)는 획득한 얼굴 영상을 특징점 추출 기법을 사용하여 특징점을 추출하고 이로부터 운전자의 코 영역에 대응하는 영역을 기준 영역으로 추출할 수 있다. 예를 들어, 제어부(410)는 기준 영역을 삼각형 형상으로 추출할 수 있다. 일 예에서, 제어부(410)는 사전구축된 랜드마크 데이터베이스에 기반하여 얼굴 영상을 분석하여 기준 영역을 추출할 수 있다.In an example, the controller 410 extracts a region of a face image corresponding to the driver's nose region as a reference region. In step 510, the controller 410 may extract a feature point from the acquired face image using a feature point extraction technique, and extract a region corresponding to the driver's nose region as a reference region therefrom. For example, the control unit 410 may extract the reference region in a triangular shape. In an example, the controller 410 may extract a reference region by analyzing a face image based on a landmark database that has been pre-built.

일 예에서, 제어부(410)는 영상 인식 장치(150)의 적어도 하나의 LED 카메라 셀에서 촬영한 영상 중에서 기준 영역이 명확하게 추출되는 영상을 선택하여 사용할 수 있다.In one example, the control unit 410 may select and use an image from which a reference region is clearly extracted from images captured by at least one LED camera cell of the image recognition device 150.

단계(530)에서 제어부(410)는 단계(520)에서 추출한 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출한다.In step 530, the controller 410 extracts a feature boundary from the face image based on the reference region extracted in step 520.

특징 바운더리는 왜곡된 얼굴 형상에서 운전자의 현재 상태를 결정하는 데에 사용되는 타겟 영역이다. 특징 바운더리는 운전자의 현재 상태에 따라 바운더리의 길이 또는 면적이 변화한다.The feature boundary is a target area used to determine the driver's current state in the distorted face shape. The characteristic boundary changes in length or area according to the driver's current state.

일 예에서, 제어부(410)는 운전자의 눈과 입을 포함하는 영역에 대응하는 얼굴 영상의 관심 영역을 추출한다. 예를 들어, 제어부(410)는 획득한 얼굴 영상을 특징점 추출 기법을 사용하여 특징점을 추출하고 이로부터 운전자의 눈과 입을 포함하는 최대 영역에 대응하는 영역을 관심 영역으로 추출할 수 있다. 예를 들어 관심 영역은 역사다리꼴 형상으로 추출된다. 일 예에서, 제어부(410)는 사전구축된 랜드마크 데이터베이스에 기반하여 얼굴 영상을 분석하여 관심 영역을 추출할 수 있다.In one example, the controller 410 extracts an ROI of a face image corresponding to a region including the driver's eyes and mouth. For example, the controller 410 may extract a feature point from the acquired face image using a feature point extraction technique, and extract a region corresponding to the maximum region including the driver's eyes and mouth as the ROI. For example, the region of interest is extracted as a historical trapezoid. In an example, the controller 410 may extract a region of interest by analyzing a face image based on a landmark database that has been pre-built.

후속하여 단계(530)에서 제어부(410)는 단계(520)에서 추출한 기준 영역과 앞서 추출한 관심 영역의 위치 관계에 기반하여 관심 영역을 특징 바운더리로 결정한다. 예를 들어, 제어부(410)는 기준 영역의 절반 이상이 관심 영역과 오버랩 되는 경우에 해당 관심 영역을 유효한 특징 바운더리로 결정한다. 예를 들어, 제어부(410)는 기준 영역이 삼각형 형상인 경우에 해당 삼각형의 적어도 두 개의 꼭지점이 관심 영역 내에 위치하는 경우에 해당 관심 영역을 유효한 특징 바운더리로 결정한다.Subsequently, in step 530, the controller 410 determines the region of interest as a feature boundary based on the positional relationship between the reference region extracted in step 520 and the previously extracted region of interest. For example, when more than half of the reference region overlaps the region of interest, the controller 410 determines the region of interest as an effective feature boundary. For example, when the reference area has a triangular shape, when at least two vertices of the corresponding triangle are located within the ROI, the controller 410 determines the ROI as an effective feature boundary.

일 예에서, 제어부(410)는 특징 바운더리를 역사다리꼴 형상으로 추출한다. 일 예에서, 제어부(410)는 영상 인식 장치(150)의 적어도 하나의 LED 카메라 셀에서 촬영한 영상 중에서 특징 바운더리가 명확하게 추출되는 영상을 선택하여 사용할 수 있다.In one example, the control unit 410 extracts the feature boundary into an inverse trapezoid shape. In an example, the controller 410 may select and use an image from which a feature boundary is clearly extracted from images captured by at least one LED camera cell of the image recognition device 150.

단계(540)에서 제어부(410)는 단계(530)에서 추출한 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단한다.In step 540, the control unit 410 determines the driver's state based on the change in the feature boundary extracted in step 530.

예를 들어, 제어부(410)는 단계(510)에서 획득한 제 1 시점의 제 1 얼굴 영상 및 제 2 시점의 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단할 수 있다. 여기서, 특징 바운더리의 변화는 특징 바운더리의 형상 변화, 일 측의 길이 변화 및 면적 변화 중 적어도 하나를 포함한다. 예를 들어, 특징 바운더리는 역사다리꼴 형상이고, 제어부(410)는 특징 바운더리의 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나에 기반하여 운전자의 상태를 판단한다.For example, the controller 410 may determine the driver's state based on a change in a feature boundary between a first face image of a first view and a second face image of a second view acquired in operation 510. Here, the change of the feature boundary includes at least one of a change in the shape of the feature boundary, a change in length of one side, and a change in area. For example, the characteristic boundary has an inverse trapezoid shape, and the controller 410 determines the driver's state based on at least one of a change in height, a change in length of the lower side, and a change in area of the inverse trapezoid shape of the characteristic boundary.

도 6은 실시예에 따른 운전자 상태 인식 과정을 보여준다.6 shows a process of recognizing a driver's state according to an embodiment.

구체적으로 도 6은 도 5를 참조하여 단계(510)에서 획득한 왜곡된 영상(610)과 단계(520)에서 추출한 기준 영역(620) 및 단계(530)에서 추출한 특징 바운더리(630)를 단계(540)에서 인식한 운전자 상태별로 도시한다. 예시적으로 기준 영역(620)은 삼각형 형상으로 추출하였고 특징 바운더리(630)는 역사다리꼴 형상으로 추출하였다.Specifically, FIG. 6 shows a distorted image 610 obtained in step 510 with reference to FIG. 5, a reference region 620 extracted in step 520, and a feature boundary 630 extracted in step 530. It is shown for each driver state recognized at (540). For example, the reference region 620 was extracted as a triangular shape, and the feature boundary 630 was extracted as an inverse trapezoidal shape.

도 6(a)는 운전자의 상태가 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(b)는 운전자의 상태가 하품 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(c)는 운전자의 상태가 눈을 감고 있는 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(d)는 운전자의 상태가 입을 꽉 다문 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다.6(a) shows a reference area 620 and a characteristic boundary 630 when the driver's state is a normal state. 6(b) shows a reference area 620 and a characteristic boundary 630 when the driver's state is a yawning state. 6(c) shows a reference area 620 and a characteristic boundary 630 when the driver's eyes are closed. 6(d) shows a reference area 620 and a characteristic boundary 630 when the driver's mouth is tightly closed.

도 4를 참조하여 단계(540)에서 제어부(410)는 도 6(a)의 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)와 도 6(b), 도 6(c) 및 도 6(d)의 기준 영역(620) 및 특징 바운더리(630)를 각각 비교하고, 특징 바운더리(630)의 변화에 기반하여 운전자의 현재 상태를 결정하게 된다.Referring to FIG. 4, in step 540, the controller 410 includes a reference region 620 and a characteristic boundary 630 in the normal state of FIG. 6(a), and FIGS. 6(b), 6(c), and The reference area 620 and the characteristic boundary 630 of FIG. 6D are compared, and a current state of the driver is determined based on the change of the characteristic boundary 630.

도 7은 실시예에 따른 운전자 상태 인식 과정을 보여준다.7 shows a process of recognizing a driver's state according to an embodiment.

도 7은 운전자의 상태에 따른 기준 영역(620)과 특징 바운더리(630)의 배치 관계를 개략적으로 도시한다. 예시적으로 기준 영역(620)은 삼각형 형상으로, 특징 바운더리(630)는 역사다리꼴 형상으로 추출하였다.7 schematically illustrates an arrangement relationship between the reference region 620 and the feature boundary 630 according to the driver's state. Exemplarily, the reference region 620 has a triangular shape, and the feature boundary 630 has an inverse trapezoid shape.

도 7(a)는 도 7(a)에 대응하여 운전자의 상태가 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(b)는 도 6(b)에 대응하여 운전자의 상태가 하품 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(c)는 도 6(c)에 대응하여 운전자의 상태가 눈을 감고 있는 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(d)는 도 6(d)에 대응하여 운전자의 상태가 입을 꽉 다문 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다.7(a) shows a reference area 620 and a characteristic boundary 630 when the driver's state is a normal state corresponding to FIG. 7(a). 7(b) shows a reference area 620 and a characteristic boundary 630 when the driver's state is a yawning state, corresponding to FIG. 6(b). 7(c) shows the reference area 620 and the feature boundary 630 when the driver's eyes are closed in correspondence with FIG. 6(c). 7(d) shows a reference area 620 and a characteristic boundary 630 when the driver's mouth is tightly closed in correspondence with FIG. 6(d).

일 예에서, 제어부(410)는 특징 바운더리(630)에 대하여 윗변(a1, a2, a3, a4), 아랫변(b1, b2, b3, b4) 및 높이(h1, h2, h3, h4)를 결정한다.In one example, the control unit 410 sets the upper side (a1, a2, a3, a4), the lower side (b1, b2, b3, b4) and the height (h1, h2, h3, h4) with respect to the feature boundary 630. Decide.

도 5를 참조하여 단계(540)에서 제어부(410)는 예를 들어, 높이(h1, h2, h3, h4)의 변화, 아랫변(b1, b2, b3, b4)의 길이 변화 및 특징 바운더리(630)의 면적의 변화, 아랫변(b1, b2, b3, b4)의 길이 대 높이(h1, h2, h3, h4)의 비율 변화 중 적어도 하나에 기반하여 운전자의 현재 상태를 결정할 수 있다.Referring to FIG. 5, in step 540, the control unit 410, for example, changes in heights (h1, h2, h3, h4), changes in lengths of the lower sides (b1, b2, b3, b4), and feature boundaries ( The current state of the driver may be determined based on at least one of a change in the area of 630 and a change in a ratio of the length to height h1, h2, h3, and h4 of the lower sides b1, b2, b3, and b4.

도 8은 일 예에 따른 운전자 상태 판단 과정을 보여주는 순서도이다.8 is a flowchart illustrating a process of determining a driver's state according to an example.

즉, 도 8은 도 5를 참조하여 단계(540)의 운전자 상태 판단 과정을 예시적으로 도시한다.That is, FIG. 8 exemplarily shows a process of determining the driver's state in step 540 with reference to FIG. 5.

예를 들어, 단계(810)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 높이(h2)가 정상 상태의 높이(h1)보다 증가하면 단계(815)에서 하품 상태로 판단할 수 있다. 이는 도 7(b)의 하품 상태에 대응한다.For example, in step 810, if the height h2 in the characteristic boundary 630 obtained in step 530 increases from the height h1 in the normal state, the control unit 410 returns to the yawning state in step 815. I can judge. This corresponds to the yawning state of Fig. 7(b).

예를 들어, 단계(820)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 높이(h3)가 정상 상태의 높이(h1)보다 감소하면 단계(825)에서 눈을 감고 있는 상태로 판단할 수 있다. 이는 도 7(c)의 눈을 감고 있는 상태에 대응한다.For example, in step 820, the control unit 410 closes the eyes in step 825 when the height h3 in the feature boundary 630 obtained in step 530 decreases from the height h1 in the normal state. It can be judged as being present. This corresponds to the state in which the eyes are closed in Fig. 7(c).

예를 들어, 단계(830)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 아랫변(b4)의 길이가 정상 상태의 아랫변(b1)의 길이보다 증가하면 단계(835)에서 입을 꽉 다문 상태로 판단할 수 있다. 이는 도 7(d)의 입을 꽉 다문 상태에 대응한다.For example, in step 830, if the length of the lower side b4 in the characteristic boundary 630 obtained in step 530 increases than the length of the lower side b1 in the normal state, the step ( 835) can be judged as the state of the mouth tight. This corresponds to the state in which the mouth is tightly closed in Fig. 7(d).

본 발명의 운전자 상태 인식 장치 및 방법에 의하면 얼굴 정면 영상이 아닌 왜곡된 얼굴 영상에서도 운전자의 상태에 대한 구분이 가능하다. 특히, 왜곡된 얼굴 영상에서는 얼굴 특징이 상대적으로 몰려 있으므로 운전자 상태 인식을 위하여 처리할 이미지 크기가 작고, 실제 처리해야 할 픽셀의 수가 적기 때문에 처리 속도가 빠른 장점이 있다.According to the driver's state recognition apparatus and method of the present invention, it is possible to distinguish the driver's state even from a distorted face image other than a front face image. In particular, since facial features are relatively concentrated in a distorted face image, the size of an image to be processed for driver state recognition is small, and since the number of pixels to be actually processed is small, processing speed is high.

본 발명의 실시예에 따른 운전자 상태 인식 장치 및 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.The apparatus and method for recognizing driver status according to an embodiment of the present invention may be implemented in a computer system or recorded on a recording medium. The computer system may include at least one processor, memory, user input device, data communication bus, user output device, and storage. Each of the above-described components communicates data through a data communication bus.

컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.

메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or nonvolatile storage media. For example, the memory may include ROM and RAM.

본 발명의 실시예에 따른 운전자 상태 인식 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 운전자 상태 인식 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 운전자 상태 인식 방법을 수행할 수 있다.The method for recognizing driver status according to an embodiment of the present invention may be implemented in a computer-executable method. When the method for recognizing a driver's state according to an embodiment of the present invention is performed in a computer device, commands readable by a computer may perform the method for recognizing a driver's state according to the present invention.

상술한 본 발명에 따른 운전자 상태 인식 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.The driver state recognition method according to the present invention described above can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media in which data that can be decoded by a computer system is stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like. In addition, the computer-readable recording medium can be distributed to a computer system connected through a computer communication network, and stored and executed as code that can be read in a distributed manner.

이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at based on examples. Those of ordinary skill in the art to which the present invention pertains will appreciate that the present invention may be implemented in variously modified or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an exemplary point of view for description and not a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

100: 운전자 상태 인식 장치
150: 영상 수집 장치
100: driver status recognition device
150: video acquisition device

Claims (15)

적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 장치에 있어서,
상기 얼굴 영상을 저장하는 저장소 및
프로세서를 포함하고, 상기 프로세서는,
운전자의 얼굴 영상을 획득하고,
상기 얼굴 영상으로부터 기준 영역을 추출하고,
상기 기준 영역에 기반하여 상기 얼굴 영상으로부터 특징 바운더리를 추출하고,
상기 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하도록 설정되는 운전자 상태 인식 장치.
In the device for recognizing a driver's state based on a driver's face image taken with at least one camera,
A storage for storing the face image, and
Including a processor, the processor,
Acquire the driver's face image,
Extracting a reference region from the face image,
Extracting a feature boundary from the face image based on the reference region,
Driver state recognition device configured to determine the state of the driver based on a change in the characteristic boundary.
제 1 항에 있어서.
상기 프로세서는,
상기 운전자의 상태에 기반한 반응 지시를 결정하도록 더 설정되는 운전자 상태 인식 장치.
The method of claim 1.
The processor,
Driver condition recognition device further configured to determine a response instruction based on the driver's condition.
영상 수집 장치에 있어서,
사용자가 착용가능한 몸체; 및
상기 사용자의 얼굴 영상을 촬영하도록 상기 몸체에 배치된 적어도 하나의 LED 카메라 셀
을 포함하는 영상 수집 장치.
In the image collection device,
A user-wearable body; And
At least one LED camera cell disposed on the body to capture the user's face image
Image collection device comprising a.
제 3 항에 있어서,
상기 몸체는 넥밴드형으로 형성되는 영상 수집 장치.
The method of claim 3,
The body is an image collection device formed in a neckband type.
제 3 항에 있어서,
상기 적어도 하나의 LED 카메라 셀은 상기 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영하는 영상 수집 장치.
The method of claim 3,
The at least one LED camera cell is an image collection device for photographing the user's face in a direction looking up from the bottom to the top.
제 3 항에 있어서,
상기 적어도 하나의 LED 카메라 셀은 상기 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영하는 영상 수집 장치.
The method of claim 3,
The at least one LED camera cell is an image collection device for capturing a face image of a first viewpoint and a face image of a second viewpoint of the user.
제 3 항에 있어서,
상기 얼굴 영상을 송신하고, 상기 얼굴 영상에 기반하여 결정된 상기 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈; 및
상기 반응 지시에 기반하여 상기 사용자에게 반응을 출력하는 출력부
를 더 포함하는 영상 수집 장치.
The method of claim 3,
A communication module for transmitting the face image and receiving a response instruction for the user's state information determined based on the face image; And
An output unit that outputs a response to the user based on the response instruction
An image collection device further comprising a.
적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 방법에 있어서,
운전자의 얼굴 영상을 획득하는 단계;
상기 얼굴 영상으로부터 기준 영역을 추출하는 단계;
상기 기준 영역에 기반하여 상기 얼굴 영상으로부터 특징 바운더리를 추출하는 단계 및
상기 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하는 단계
를 포함하는 운전자 상태 인식 방법.
In a method of recognizing a driver's state based on a driver's face image taken with at least one camera,
Acquiring a driver's face image;
Extracting a reference region from the face image;
Extracting a feature boundary from the face image based on the reference region, and
Determining the state of the driver based on the change in the characteristic boundary
Driver state recognition method comprising a.
제 8 항에 있어서,
상기 얼굴 영상은 상기 운전자의 얼굴을 하부에서 상부를 올려다보는 방향으로 촬영한 영상인 운전자 상태 인식 방법.
The method of claim 8,
The face image is an image of the driver's face in a direction looking up from the bottom to the top.
제 8 항에 있어서,
상기 기준 영역을 추출하는 단계는,
상기 운전자의 코 영역에 대응하는 상기 얼굴 영상의 영역을 상기 기준 영역으로 추출하는 운전자 상태 인식 방법.
The method of claim 8,
The step of extracting the reference region,
A driver state recognition method for extracting an area of the face image corresponding to the driver's nose area as the reference area.
제 10 항에 있어서,
상기 기준 영역은 삼각형 형상인 운전자 상태 인식 방법.
The method of claim 10,
The reference area is a driver state recognition method of a triangular shape.
제 8 항에 있어서,
상기 특징 바운더리를 추출하는 단계는,
상기 운전자의 눈과 입을 포함하는 영역에 대응하는 상기 얼굴 영상의 관심 영역을 추출하는 단계 및
상기 기준 영역과 상기 관심 영역의 위치 관계에 기반하여 상기 관심 영역을 상기 특징 바운더리로 결정하는 단계
를 포함하는 운전자 상태 인식 방법.
The method of claim 8,
The step of extracting the feature boundary,
Extracting an ROI of the face image corresponding to an area including the driver's eyes and mouth, and
Determining the region of interest as the feature boundary based on a positional relationship between the reference region and the region of interest
Driver state recognition method comprising a.
제 12 항에 있어서,
상기 특징 바운더리는 역사다리꼴 형상인 운전자 상태 인식 방법.
The method of claim 12,
The characteristic boundary is a driver state recognition method having a reverse trapezoid shape.
제 8 항에 있어서,
상기 얼굴 영상을 획득하는 단계는,
제 1 시점의 제 1 얼굴 영상을 획득하는 단계 및
제 2 시점의 제 2 얼굴 영상을 획득하는 단계
를 포함하고,
상기 운전자의 상태를 판단하는 단계는,
상기 제 1 얼굴 영상 및 상기 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하는 운전자 상태 인식 방법.
The method of claim 8,
Acquiring the face image,
Acquiring a first face image of a first viewpoint, and
Acquiring a second face image of a second viewpoint
Including,
The step of determining the state of the driver,
A driver state recognition method for determining a state of the driver based on a change in a feature boundary between the first and second face images.
제 8 항에 있어서,
상기 특징 바운더리는 역사다리꼴 형상이고,
상기 특징 바운더리의 변화는 상기 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나인 운전자 상태 인식 방법.
The method of claim 8,
The characteristic boundary is a historical trapezoidal shape,
The change of the characteristic boundary is at least one of a change in height of the inverse trapezoid shape, a change in length of a lower side, and a change in area.
KR1020190038748A 2019-04-02 2019-04-02 Apparatus and method for driver condition recognition KR20200116825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190038748A KR20200116825A (en) 2019-04-02 2019-04-02 Apparatus and method for driver condition recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190038748A KR20200116825A (en) 2019-04-02 2019-04-02 Apparatus and method for driver condition recognition

Publications (1)

Publication Number Publication Date
KR20200116825A true KR20200116825A (en) 2020-10-13

Family

ID=72884951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190038748A KR20200116825A (en) 2019-04-02 2019-04-02 Apparatus and method for driver condition recognition

Country Status (1)

Country Link
KR (1) KR20200116825A (en)

Similar Documents

Publication Publication Date Title
US8435188B2 (en) Eye opening detection system and method of detecting eye opening
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
KR102339607B1 (en) Apparatuses and Methods for Iris Based Biometric Recognition
US8180106B2 (en) Image capturing apparatus and image capturing method
WO2016038784A1 (en) Driver state determination apparatus
US20050084137A1 (en) System and method for iris identification using stereoscopic face recognition
JP6234762B2 (en) Eye detection device, method, and program
US20070291983A1 (en) Method of tracking a human eye in a video image
TWI603270B (en) Method and apparatus for detecting person to use handheld device
JP6647474B2 (en) Facial expression recognition device
EP3772016B1 (en) Method and apparatus for entering human face information into database
CN103379279A (en) Subject area detection apparatus and method therefor, as well as image pickup apparatus and display apparatus
WO2017098265A1 (en) Method and apparatus for monitoring
CN109002774A (en) A kind of fatigue monitoring device and method based on convolutional neural networks
JP2019159518A (en) Visual state detection apparatus, visual state detection method, and visual state detection program
KR20200056660A (en) Pain monitoring method and apparatus using tiny motion in facial image
TWI520076B (en) Method and apparatus for detecting person to use handheld device
JP2019083019A (en) Driver state determination device
JP2004192552A (en) Eye opening/closing determining apparatus
KR102258332B1 (en) System for Warning Sleepiness Protection and Connecting Automatic Call of Driver
KR20200116825A (en) Apparatus and method for driver condition recognition
US20230077010A1 (en) Wearable facial movement tracking devices
US20230290185A1 (en) Anti-Spoofing System
JP5493676B2 (en) Eye position recognition device
Horak et al. Eyes detection and tracking for monitoring driver vigilance