KR20200116825A - Apparatus and method for driver condition recognition - Google Patents
Apparatus and method for driver condition recognition Download PDFInfo
- Publication number
- KR20200116825A KR20200116825A KR1020190038748A KR20190038748A KR20200116825A KR 20200116825 A KR20200116825 A KR 20200116825A KR 1020190038748 A KR1020190038748 A KR 1020190038748A KR 20190038748 A KR20190038748 A KR 20190038748A KR 20200116825 A KR20200116825 A KR 20200116825A
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- face image
- state
- image
- face
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000008859 change Effects 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 241001282135 Poromitra oscitans Species 0.000 description 4
- 206010048232 Yawning Diseases 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 206010013781 dry mouth Diseases 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G06K9/00845—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G06K9/00268—
-
- G06K9/3233—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H04N5/225—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Abstract
Description
본 발명은 운전자 상태 인식 장치 및 방법에 관한 것으로, 상세하게는 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing a driver's condition, and more particularly, to an apparatus and method for recognizing a driver's condition based on a driver's face image.
운전자의 졸음 운전으로 인한 사고를 막고 개인화된 차별적인 서비스를 제공하기 위해, 운전자의 졸음 감지 장치 개발과 같은 연구들이 이루어지고 있다.In order to prevent accidents caused by drivers' drowsy driving and provide personalized and differentiated services, studies such as the development of a driver's drowsiness detection device are being conducted.
종래 기술은 운전자의 피로도를 분석하기 위해 눈 깜빡이는 속도가 저하되거나 눈을 오래 감고 있는 모습을 카메라를 통해 모니터링한다. 또한, 이미지 처리 프로세서의 발달로 이미지 처리 속도가 개선되고 딥러닝 연구가 함께 접목되어 임베디드 시스템에 적용가능한 다양한 이미지 처리 기술들이 소개되고 있다. In the prior art, in order to analyze the driver's fatigue, the blinking speed is decreased or the eyes are closed for a long time through a camera. In addition, with the development of image processing processors, image processing speed is improved, and deep learning research is grafted together to introduce various image processing technologies applicable to embedded systems.
한편, 운전자의 상태를 파악하기 위해, 운전자 얼굴의 표정 및 목소리를 분석하고 있으며, 이를 위해 카메라와 마이크, 생체신호 측정 센서를 활용하기도 한다.Meanwhile, in order to grasp the driver's condition, the facial expression and voice of the driver's face are analyzed, and for this, a camera, a microphone, and a sensor for measuring biometric signals are also used.
얼굴 표정을 통한 운전자의 상태 및 감정을 확인하기 위하여 외부에 장치를 부착하는 방법이 이용되고 있으나, 선글라스를 착용하거나 얼굴을 숙이거나 한쪽으로 고개를 돌릴 경우에는 눈, 코, 입의 검출이 어려운 문제가 있다. 특히, 그늘이나 빛의 반사로 인해 얼굴 검출이 어렵고, 손으로 얼굴을 만지거나 얼굴을 가리는 행동들로 인해 이미지만으로 얼굴 검출이 어려울 수 있다.In order to check the driver's condition and emotion through facial expressions, a method of attaching a device to the outside is used, but when wearing sunglasses, bowing his face, or turning his head to one side, it is difficult to detect eyes, nose, and mouth. There is. In particular, it is difficult to detect a face due to reflection of shade or light, and it may be difficult to detect a face with only an image due to actions of touching the face with a hand or covering the face.
운전자의 정면 얼굴을 촬영하여 상태를 예측하는 경우, 얼굴 화면이 직접적으로 촬영되고 있다는 부담감으로 인해 운전자에게 거리낌을 줄 수 있고 운전자가 운전에 집중하기 어렵게 만든다.When predicting the condition by photographing the driver's front face, the burden that the face screen is being directly photographed may give the driver a feeling of hesitation and make it difficult for the driver to concentrate on driving.
전술한 문제를 해소하기 위해, 본 발명은 운전자의 얼굴 하부에서 촬영한 얼굴 영상을 이용하여 운전자 상태를 인식하는 장치 및 방법을 제공한다.In order to solve the above-described problem, the present invention provides an apparatus and method for recognizing a driver's state by using a face image photographed under the driver's face.
또한 본 발명은 운전자 상태 인식에 활용될 얼굴 영상을 수집하기 위한 운전자가 착용가능한 형태의 영상 수집 장치를 제공한다.In addition, the present invention provides a driver wearable image collection device for collecting face images to be used for driver state recognition.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부된 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.The above-described objects and other objects, advantages, and features of the present invention, and methods of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings.
본 발명에 일 측면에 따른 운전자 상태 인식 장치는, 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 장치로서, 얼굴 영상을 저장하는 저장소 및 프로세서를 포함하고, 프로세서는, 운전자의 얼굴 영상을 획득하고, 얼굴 영상으로부터 기준 영역을 추출하고, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하고, 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하도록 설정될 수 있다.An apparatus for recognizing a driver's state according to an aspect of the present invention is an apparatus for recognizing a driver's state based on a face image of a driver photographed with at least one camera, and includes a storage and a processor for storing the face image, and the processor, It may be set to acquire a driver's face image, extract a reference region from the face image, extract a feature boundary from the face image based on the reference region, and determine the driver's state based on a change in the feature boundary.
일 예에서 프로세서는, 운전자의 상태에 기반한 반응 지시를 결정하도록 더 설정된다.In one example, the processor is further configured to determine a response indication based on the driver's condition.
본 발명의 다른 측면에 따른 영상 수집 장치는 사용자가 착용가능한 몸체 및 상기 사용자의 얼굴 영상을 촬영하도록 상기 몸체에 배치된 적어도 하나의 LED 카메라 셀을 포함한다.An image collection device according to another aspect of the present invention includes a body wearable by a user and at least one LED camera cell disposed on the body to capture a face image of the user.
일 예에서 몸체는 넥밴드(neck band)형으로 형성될 수 있다.In one example, the body may be formed in a neck band type.
일 예에서 적어도 하나의 LED 카메라 셀은 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영할 수 있다.In an example, at least one LED camera cell may photograph a user's face in a direction looking up from the bottom to the top.
일 예에서 적어도 하나의 LED 카메라 셀은 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영할 수 있다.In an example, at least one LED camera cell may capture a face image of a user's first view and a face image of a second view.
일 예에서 영상 수집 장치는, 얼굴 영상을 송신하고, 얼굴 영상에 기반하여 결정된 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈을 더 포함한다.In an example, the image collection device further includes a communication module that transmits a face image and receives a response instruction for a user's state information determined based on the face image.
일 예에서 영상 수집 장치는, 반응 지시에 기반하여 사용자에게 반응을 출력하는 출력부를 더 포함한다.In an example, the image collection device further includes an output unit that outputs a response to the user based on the response instruction.
본 발명의 또 다른 측면에 따른 운전자 상태 인식 방법은, 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식하는 방법으로서, 운전자의 얼굴 영상을 획득하는 단계, 얼굴 영상으로부터 기준 영역을 추출하는 단계, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하는 단계 및 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하는 단계를 포함한다.A driver state recognition method according to another aspect of the present invention is a method of recognizing a driver's state based on a driver's face image captured by at least one camera, comprising: acquiring a driver's face image, a reference region from the face image And extracting, extracting a feature boundary from the face image based on the reference region, and determining a driver's state based on a change in the feature boundary.
일 예에서 얼굴 영상은 운전자의 얼굴을 하부에서 상부를 올려다보는 방향으로 촬영한 영상일 수 있다.In an example, the face image may be an image taken of a driver's face in a direction looking up from the bottom to the top.
일 예에서 기준 영역을 추출하는 단계는, 운전자의 코 영역에 대응하는 얼굴 영상의 영역을 기준 영역으로 추출할 수 있다.In an example, in the step of extracting the reference region, a region of the face image corresponding to the driver's nose region may be extracted as the reference region.
일 예에서 기준 영역은 삼각형 형상일 수 있다.In an example, the reference area may have a triangular shape.
일 예에서 특징 바운더리를 추출하는 단계는, 운전자의 눈과 입을 포함하는 영역에 대응하는 얼굴 영상의 관심 영역을 추출하는 단계 및 기준 영역과 관심 영역의 위치 관계에 기반하여 관심 영역을 특징 바운더리로 결정하는 단계를 포함한다.In one example, extracting the feature boundary includes extracting an ROI of a face image corresponding to an area including the driver's eyes and mouth, and determining the ROI as a feature boundary based on the positional relationship between the reference region and the ROI. It includes the step of.
일 예에서 특징 바운더리는 역사다리꼴 형상일 수 있다.In one example, the feature boundary may have a historical trapezoidal shape.
일 예에서 얼굴 영상을 획득하는 단계는, 제 1 시점의 제 1 얼굴 영상을 획득하는 단계 및 제 2 시점의 제 2 얼굴 영상을 획득하는 단계를 포함한다.In an example, acquiring the face image includes acquiring a first face image of a first view and acquiring a second face image of a second view.
일 예에서 운전자의 상태를 판단하는 단계는, 제 1 얼굴 영상 및 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단할 수 있다.In an example, in determining the driver's state, the driver's state may be determined based on a change in a feature boundary between the first face image and the second face image.
일 예에서 특징 바운더리는 역사다리꼴 형상이고, 특징 바운더리의 변화는 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나일 수 있다.In an example, the characteristic boundary is an inverse trapezoidal shape, and the change in the characteristic boundary may be at least one of a height change, a length change of a lower side, and an area change of the inverse trapezoidal shape.
본 발명에 의하면 얼굴 정면 영상이 아닌 왜곡된 얼굴 영상에서도 운전자 상태의 인식 및 예측이 가능하다.According to the present invention, it is possible to recognize and predict the driver's state even in a distorted face image other than a front face image.
또한, 본 발명에 의하면 차량에 별도로 카메라를 장착할 필요가 없고, 왜곡된 얼굴 영상의 특징점이 얼굴 정면 영상의 특징점에 비해 수가 적어 처리속도가 빠른 장점이 있다.In addition, according to the present invention, it is not necessary to separately mount a camera on the vehicle, and the number of feature points of the distorted face image is smaller than that of the front face image, so that the processing speed is high.
더불어, 본 발명에 따른 영상 수집 장치는 다양한 각도에서 얼굴 영상을 획득할 수 있다.In addition, the image collection device according to the present invention may acquire face images from various angles.
도 1은 실시예에 따른 운전자 상태 인식 시스템을 도시한다.
도 2는 얼굴 영상에 기반하여 인식가능한 예시적인 운전자 상태 정보를 보여준다.
도 3은 실시예에 따른 영상 수집 장치를 도시한다.
도 4는 실시예에 따른 운전자 상태 인식 장치의 블록도이다.
도 5는 실시예에 따른 운전자 상태 인식 과정을 나타내는 순서도이다.
도 6은 실시예에 따른 운전자 상태 인식 과정을 보여준다.
도 7은 실시예에 따른 운전자 상태 인식 과정을 보여준다.
도 8은 일 예에 따른 운전자 상태 판단 과정을 보여주는 순서도이다.1 shows a driver state recognition system according to an embodiment.
2 shows exemplary driver state information that can be recognized based on a face image.
3 shows an image collection device according to an embodiment.
4 is a block diagram of an apparatus for recognizing a driver's state according to an embodiment.
5 is a flowchart illustrating a driver state recognition process according to an embodiment.
6 shows a process of recognizing a driver's state according to an embodiment.
7 shows a process of recognizing a driver's state according to an embodiment.
8 is a flowchart illustrating a process of determining a driver's state according to an example.
본 발명이 구현되는 양상을 이하의 바람직한 각 실시예를 들어 설명한다. 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 본 발명의 기술적 사상의 범주 내에서 그 외의 다른 다양한 형태로 구현될 수 있음은 자명하다. 본 명세서에서 사용된 용어 역시 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 요소가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 요소의 존재 또는 추가됨을 배제하지 않는다.The aspect in which the present invention is implemented will be described with reference to each of the following preferred embodiments. It is obvious that the present invention is not limited to the embodiments disclosed below, but can be implemented in other various forms within the scope of the technical idea of the present invention. The terms used in the present specification are also intended to describe embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, "comprise" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the stated component, step, action and/or element is Or does not preclude addition.
도 1은 실시예에 따른 운전자 상태 인식 시스템을 도시한다.1 shows a driver state recognition system according to an embodiment.
운전자 상태 인식 시스템은 차량에 탑승한 운전자의 현재 상태를 분석하고 예측하는 시스템으로서 영상 수집 장치(150) 및 운전자 상태 인식 장치(100)를 포함한다.The driver state recognition system is a system that analyzes and predicts a current state of a driver in a vehicle, and includes an
영상 수집 장치(150)는 적어도 하나의 카메라를 이용하여 운전자의 얼굴 영상을 획득하고 획득된 얼굴 영상을 운전자 상태 인식 장치(100)에게 전달한다. 여기서 영상 수집 장치(150)는 운전자의 정면 얼굴 영상이 아닌 왜곡된 얼굴 영상을 획득할 수 있다. 예를 들어, 영상 수집 장치(150)는 운전자의 얼굴의 하부에서 상부를 향하는 방향으로 촬영한 영상을 획득하여 운전자 상태 인식 장치(100)에게 전달한다. 운전자의 얼굴의 하부에서 상부를 향하는 방향으로 촬영한 얼굴 영상을 이하에서 왜곡된 얼굴 영상이라고 칭한다.The
운전자 상태 인식 장치(100)는 영상 수집 장치(150)로부터 획득한 얼굴 영상을 분석하여 운전자의 현재 상태를 판단한다.The driver
운전자 상태 인식 장치(100)는 운전자의 현재 상태에 기반한 응답을 생성하여 영상 수집 장치(150)에게 전달할 수 있다. 예를 들어, 응답은 반응 지시일 수 있다.The driver
영상 수집 장치(150)는 수신한 응답에 기반하여 적절한 출력을 생성할 수 있다. 예를 들어 영상 수집 장치(150)는 청각 신호, 시각 신호 및 진동 신호 중 적어도 하나를 출력으로 생성하여 운전자에게 전달할 수 있다.The
일 예에서 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 물리적으로 분리된 장치일 수 있다. 이 경우 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 유무선 통신 수단을 구비하여 서로 통신할 수 있다. 예를 들어, 운전자 상태 인식 장치(100)는 차량 내부 또는 외부에 위치한 서버로서 구현되어 적어도 하나의 영상 수집 장치(150)와 연동할 수 있다.In an example, the
다른 예에서 영상 수집 장치(150)와 운전자 상태 인식 장치(100)는 일체형으로 구현될 수 있다. 예를 들어, 영상 수집 장치(150)는 도 4를 참조하여 후술할 운전자 상태 인식 장치(100)를 구현한 하드웨어 모듈을 내장형으로 탑재할 수 있다.In another example, the
도 2는 얼굴 영상에 기반하여 인식가능한 예시적인 운전자 상태 정보를 보여준다.2 shows exemplary driver state information that can be recognized based on a face image.
종래에는 운전자의 현재 상태를 판단하기 위하여 운전자의 정면 얼굴을 검출하여 얼굴 내 특징을 활용하였다. 기존의 방식은 얼굴 특징점을 찾기 위해 눈, 코, 입, 얼굴추출, 각 부분의 가장자리 모양 추출 및 눈을 뜬 각도 추출 등을 수행한다. 특징점을 찾는 이미지 전처리 과정을 수행하지 않고, CNN (Convolutional neural network)에 입력하여 Network에서 특징을 찾는 방법을 이용할 수도 있으며 이 두 방법을 결합하여 활용하기도 한다.Conventionally, in order to determine the driver's current state, the driver's front face was detected and features within the face were utilized. Existing methods perform eye, nose, mouth and face extraction, edge shape extraction of each part, and eye opening angle extraction to find facial feature points. Instead of performing the image preprocessing process for finding feature points, a method for finding features in the network by inputting them into a convolutional neural network (CNN) can be used, and the two methods are also used in combination.
도 2에서 다양한 감정 상태를 구분하기 위해 얼굴 이미지 한 컷에 대해 7가지 이상의 감정(중립, 분노, 슬픔, 놀람, 역겨움, 불안, 행복)을 분류할 수 있다.In FIG. 2, seven or more emotions (neutral, anger, sadness, surprise, disgust, anxiety, and happiness) may be classified for one face image in order to distinguish various emotional states.
실시예에 따른 운전자 상태 인식 장치 및 방법에 의하면 왜곡된 얼굴 영상을 획득하여 운전자의 감정이나 피로 및 졸음 상태를 알 수 있다.According to an apparatus and method for recognizing a driver's state according to an embodiment, a distorted face image may be obtained to recognize a driver's emotions, fatigue, and drowsiness.
도 3은 실시예에 따른 영상 수집 장치를 도시한다.3 shows an image collection device according to an embodiment.
영상 수집 장치(150)는 사용자가 착용가능한 몸체(310) 및 사용자의 얼굴 영상을 촬영하도록 몸체(310)에 배치된 적어도 하나의 LED 카메라 셀(320)을 포함한다.The
일 예에서 영상 수집 장치(150)의 몸체(310)는 사용자가 착용가능하도록 웨어러블 형태로 형성될 수 있다. 일 예에서 영상 수집 장치(150)의 몸체(310)는 도 3(a) 및 도 3(c)에 예시적으로 도시된 것처럼 넥밴드(neck band)형으로 형성될 수 있다. 예를 들어 넥밴드의 형상은 ∩형, ∪형, ㄷ형, ㅁ형 및 O형 등 목에 착용가능한 다양한 형태로 변형되어 구현가능하다. 다른 예에서 영상 수집 장치(150)는 사용자가 착용가능한 팔찌, 브로찌, 헤드셋 또는 벨트로 구현될 수 있다.In one example, the
한편, 도 3(a) 및 도 3(c)에서 적어도 하나의 LED 카메라 셀(320)은 몸체(310)에 일정한 간격으로 일렬로 배열되어 있지만 이와 다른 형태의 다양한 배열도 가능하다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 여러 줄로 배열될 수 있다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 지그재그로 배열될 수 있다. 이를테면, 적어도 하나의 LED 카메라 셀(320)은 소형 카메라의 어레이를 구성한다.On the other hand, in FIGS. 3(a) and 3(c), at least one
영상 수집 장치(150)는 적어도 하나의 LED 카메라 셀(320)을 구동하여 다양한 각도에서 사용자의 얼굴 영상을 촬영할 수 있다. 이는 차량에 카메라를 장착하는 경우에 제한된 각도에서만 얼굴 영상을 촬영할 수 있는 것에 비하여 다양한 각도에서 촬영된 얼굴 영상에 기반하여 영상 분석이 가능해지므로 인식된 운전자 상태의 정확도가 제고될 수 있다.The
도 3(b)는 예시적인 LED 카메라 셀(320)을 보여준다. LED 카메라 셀(320)은 카메라(322) 및 카메라(322)의 주변에 배치된 여러 개의 LED(324)를 포함할 수 있다. 영상 인식 장치(150)의 LED 카메라 셀(320)은 적어도 하나의 LED(324)가 장착되어 있으므로 LED(324)를 가동하여 어두운 곳에서도 카메라(322)로 촬영이 가능하다.3(b) shows an exemplary
도 3(c)는 영상 수집 장치(150)를 사용자가 장착한 모습을 예시적으로 보여준다. 사용자는 적어도 하나의LED(324)와 카메라(322)를 포함하는 LED 카메라 셀(320)을 적어도 하나 포함하는 영상 수집 장치(150)를 착용하고 있다. 3(c) shows an example in which the
도 3(c)에 예시적으로 도시된 것처럼 영상 인식 장치(150)는 사용자가 착용 시에 얼굴 하부에서 상부를 향하는 방향으로 얼굴 표면을 촬영할 수 있다. 즉, 적어도 하나의 LED 카메라 셀(320)은 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영할 수 있다.As illustrated by way of example in FIG. 3C, the
영상 인식 장치(150)는 적어도 하나의 LED 카메라 셀(320)을 구동하여 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영한다. 제 1 시점과 제2 시점은 연속한 시간 상에서 상이한 두 개의 시점일 수 있다. 예를 들어, 적어도 하나의 LED 카메라 셀(320)은 사전설정된 시간 간격에 따라 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 주기적으로 촬영한다. 여기서 시간 간격은 현재 운전자 상태에 따라 조정될 수 있다.The
일 예에서 영상 인식 장치(150)는 생체 센서를 더 포함할 수 있다. 예를 들어, 영상 인식 장치(150)는 심장 박동 센서, 혈압 센서, 혈당 센서 및/또는 온도 센서를 포함할 수 있다. 여기서, 영상 인식 장치(150)는 생체 센서에서 수신한 생체 신호에 기반하여 적어도 하나의 LED 카메라 셀(320)을 구동하여 얼굴 영상을 획득하는 시간 주기를 조정할 수 있다. 이를테면, 영상 인식 장치(150)는 생체 센서에서 수신한 사용자의 심장 박동수가 평소보다 낮아진 경우 얼굴 영상을 더 자주 획득할 수 있다.In an example, the
영상 수집 장치(150)는 촬영한 얼굴 영상을 상태 인식 장치(100)에게 전달하고, 해당 얼굴 영상에 기반하여 상태 인식 장치(100)가 결정한 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈을 더 포함할 수 있다.The
또한 영상 수집 장치(150)는 상태 인식 장치(100)로부터 수신한 반응 지시에 기반하여 사용자에게 반응을 출력하는 출력부를 더 포함할 수 있다. 예를 들어 반응은 청각 신호, 시각 신호 및 진동 신호 중 적어도 하나를 포함할 수 있다.In addition, the
다른 예에서, 영상 수집 장치(150)는 차량에 장착될 수도 있다. 예를 들어, 영상 수집 장치(150)는 차량의 핸들(wheel)에 장착될 수 있다. 이 경우 핸들이 영상 수집 장치(150)의 몸체(310)에 대응한다.In another example, the
도 4는 실시예에 따른 운전자 상태 인식 장치의 블록도이다.4 is a block diagram of an apparatus for recognizing a driver's state according to an embodiment.
운전자 상태 인식 장치(100)는 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식한다. 예를 들어, 운전자 상태 인식 장치(100)는 영상 수집 장치(150)에 포함된 적어도 하나의 LED 카메라 셀로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식할 수 있다.The driver
도 4의 기능 블록도에 도시된대로, 운전자 상태 인식 장치(100)는 획득한 얼굴 영상을 저장하는 저장부(420), 적어도 하나의 카메라를 포함하는 영상 수집 장치(150)와 통신하는 통신부(430) 및 획득한 얼굴 영상에 기반하여 운전자 상태를 판단하는 제어부(410)를 포함한다.As shown in the functional block diagram of FIG. 4, the driver
운전자 상태 인식 장치(100)는 획득한 얼굴 영상을 저장하는 저장부(420)에 대응하는 저장소 및 제어부(410)를 구동하는 프로세서를 포함한다.The driver
추가적으로 운전자 상태 인식 장치(100)는 통신부(430)에 대응하는 유무선 통신 모듈을 포함할 수 있다.Additionally, the driver
운전자 상태 인식 장치(100)의 프로세서는, 운전자의 얼굴 영상을 획득하고, 얼굴 영상으로부터 기준 영역을 추출하고, 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출하고, 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단하는 제어부(410)를 구동하도록 설정된다. 또한, 운전자 상태 인식 장치(100)의 프로세서는, 운전자의 상태에 기반한 반응 지시를 결정하는 제어부(410)를 구동하도록 더 설정될 수 있다. 제어부(410)의 구체적인 동작에 대하여는 도 5를 참조하여 후술한다.The processor of the driver
도 5는 실시예에 따른 운전자 상태 인식 과정을 나타내는 순서도이다.5 is a flowchart illustrating a driver state recognition process according to an embodiment.
운전자 상태 인식 방법은 적어도 하나의 카메라로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식한다. 전술한대로, 예를 들어, 운전자 상태 인식 방법은 영상 수집 장치(150)에 포함된 적어도 하나의 LED 카메라 셀로 촬영한 운전자의 얼굴 영상에 기반하여 운전자 상태를 인식할 수 있다.The driver's state recognition method recognizes the driver's state based on a driver's face image captured by at least one camera. As described above, for example, the driver state recognition method may recognize the driver state based on the driver's face image captured by at least one LED camera cell included in the
단계(510)에서 도 4를 참조하여 제어부(410)는 운전자의 얼굴 영상을 획득한다. 예를 들어, 제어부(410)는 영상 수집 장치(150)가 운전자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영한 얼굴 영상을 통신부(430)를 통하여 획득한다. 예를 들어, 제어부(410)는 제 1 시점의 제 1 얼굴 영상을 획득하고 후속하여 제 2 시점의 제 2 얼굴 영상을 획득한다. 이를테면, 제어부(410)는 사전설정된 시간 간격에 따라 주기적으로 얼굴 영상을 획득한다.In
단계(520)에서 제어부(410)는 단계(510)에서 획득한 얼굴 영상으로부터 기준 영역을 추출한다.In
기준 영역은 왜곡된 얼굴 형상에서 특징 바운더리를 찾기 위한 기준이 되는 영역이다.The reference area is a reference area for finding a feature boundary in a distorted face shape.
일 예에서, 제어부(410)는 운전자의 코 영역에 대응하는 얼굴 영상의 영역을 기준 영역으로 추출한다. 단계(510)에서 제어부(410)는 획득한 얼굴 영상을 특징점 추출 기법을 사용하여 특징점을 추출하고 이로부터 운전자의 코 영역에 대응하는 영역을 기준 영역으로 추출할 수 있다. 예를 들어, 제어부(410)는 기준 영역을 삼각형 형상으로 추출할 수 있다. 일 예에서, 제어부(410)는 사전구축된 랜드마크 데이터베이스에 기반하여 얼굴 영상을 분석하여 기준 영역을 추출할 수 있다.In an example, the
일 예에서, 제어부(410)는 영상 인식 장치(150)의 적어도 하나의 LED 카메라 셀에서 촬영한 영상 중에서 기준 영역이 명확하게 추출되는 영상을 선택하여 사용할 수 있다.In one example, the
단계(530)에서 제어부(410)는 단계(520)에서 추출한 기준 영역에 기반하여 얼굴 영상으로부터 특징 바운더리를 추출한다.In
특징 바운더리는 왜곡된 얼굴 형상에서 운전자의 현재 상태를 결정하는 데에 사용되는 타겟 영역이다. 특징 바운더리는 운전자의 현재 상태에 따라 바운더리의 길이 또는 면적이 변화한다.The feature boundary is a target area used to determine the driver's current state in the distorted face shape. The characteristic boundary changes in length or area according to the driver's current state.
일 예에서, 제어부(410)는 운전자의 눈과 입을 포함하는 영역에 대응하는 얼굴 영상의 관심 영역을 추출한다. 예를 들어, 제어부(410)는 획득한 얼굴 영상을 특징점 추출 기법을 사용하여 특징점을 추출하고 이로부터 운전자의 눈과 입을 포함하는 최대 영역에 대응하는 영역을 관심 영역으로 추출할 수 있다. 예를 들어 관심 영역은 역사다리꼴 형상으로 추출된다. 일 예에서, 제어부(410)는 사전구축된 랜드마크 데이터베이스에 기반하여 얼굴 영상을 분석하여 관심 영역을 추출할 수 있다.In one example, the
후속하여 단계(530)에서 제어부(410)는 단계(520)에서 추출한 기준 영역과 앞서 추출한 관심 영역의 위치 관계에 기반하여 관심 영역을 특징 바운더리로 결정한다. 예를 들어, 제어부(410)는 기준 영역의 절반 이상이 관심 영역과 오버랩 되는 경우에 해당 관심 영역을 유효한 특징 바운더리로 결정한다. 예를 들어, 제어부(410)는 기준 영역이 삼각형 형상인 경우에 해당 삼각형의 적어도 두 개의 꼭지점이 관심 영역 내에 위치하는 경우에 해당 관심 영역을 유효한 특징 바운더리로 결정한다.Subsequently, in
일 예에서, 제어부(410)는 특징 바운더리를 역사다리꼴 형상으로 추출한다. 일 예에서, 제어부(410)는 영상 인식 장치(150)의 적어도 하나의 LED 카메라 셀에서 촬영한 영상 중에서 특징 바운더리가 명확하게 추출되는 영상을 선택하여 사용할 수 있다.In one example, the
단계(540)에서 제어부(410)는 단계(530)에서 추출한 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단한다.In
예를 들어, 제어부(410)는 단계(510)에서 획득한 제 1 시점의 제 1 얼굴 영상 및 제 2 시점의 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 운전자의 상태를 판단할 수 있다. 여기서, 특징 바운더리의 변화는 특징 바운더리의 형상 변화, 일 측의 길이 변화 및 면적 변화 중 적어도 하나를 포함한다. 예를 들어, 특징 바운더리는 역사다리꼴 형상이고, 제어부(410)는 특징 바운더리의 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나에 기반하여 운전자의 상태를 판단한다.For example, the
도 6은 실시예에 따른 운전자 상태 인식 과정을 보여준다.6 shows a process of recognizing a driver's state according to an embodiment.
구체적으로 도 6은 도 5를 참조하여 단계(510)에서 획득한 왜곡된 영상(610)과 단계(520)에서 추출한 기준 영역(620) 및 단계(530)에서 추출한 특징 바운더리(630)를 단계(540)에서 인식한 운전자 상태별로 도시한다. 예시적으로 기준 영역(620)은 삼각형 형상으로 추출하였고 특징 바운더리(630)는 역사다리꼴 형상으로 추출하였다.Specifically, FIG. 6 shows a
도 6(a)는 운전자의 상태가 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(b)는 운전자의 상태가 하품 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(c)는 운전자의 상태가 눈을 감고 있는 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 6(d)는 운전자의 상태가 입을 꽉 다문 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다.6(a) shows a
도 4를 참조하여 단계(540)에서 제어부(410)는 도 6(a)의 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)와 도 6(b), 도 6(c) 및 도 6(d)의 기준 영역(620) 및 특징 바운더리(630)를 각각 비교하고, 특징 바운더리(630)의 변화에 기반하여 운전자의 현재 상태를 결정하게 된다.Referring to FIG. 4, in
도 7은 실시예에 따른 운전자 상태 인식 과정을 보여준다.7 shows a process of recognizing a driver's state according to an embodiment.
도 7은 운전자의 상태에 따른 기준 영역(620)과 특징 바운더리(630)의 배치 관계를 개략적으로 도시한다. 예시적으로 기준 영역(620)은 삼각형 형상으로, 특징 바운더리(630)는 역사다리꼴 형상으로 추출하였다.7 schematically illustrates an arrangement relationship between the
도 7(a)는 도 7(a)에 대응하여 운전자의 상태가 정상 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(b)는 도 6(b)에 대응하여 운전자의 상태가 하품 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(c)는 도 6(c)에 대응하여 운전자의 상태가 눈을 감고 있는 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다. 도 7(d)는 도 6(d)에 대응하여 운전자의 상태가 입을 꽉 다문 상태인 경우의 기준 영역(620) 및 특징 바운더리(630)를 도시한다.7(a) shows a
일 예에서, 제어부(410)는 특징 바운더리(630)에 대하여 윗변(a1, a2, a3, a4), 아랫변(b1, b2, b3, b4) 및 높이(h1, h2, h3, h4)를 결정한다.In one example, the
도 5를 참조하여 단계(540)에서 제어부(410)는 예를 들어, 높이(h1, h2, h3, h4)의 변화, 아랫변(b1, b2, b3, b4)의 길이 변화 및 특징 바운더리(630)의 면적의 변화, 아랫변(b1, b2, b3, b4)의 길이 대 높이(h1, h2, h3, h4)의 비율 변화 중 적어도 하나에 기반하여 운전자의 현재 상태를 결정할 수 있다.Referring to FIG. 5, in
도 8은 일 예에 따른 운전자 상태 판단 과정을 보여주는 순서도이다.8 is a flowchart illustrating a process of determining a driver's state according to an example.
즉, 도 8은 도 5를 참조하여 단계(540)의 운전자 상태 판단 과정을 예시적으로 도시한다.That is, FIG. 8 exemplarily shows a process of determining the driver's state in
예를 들어, 단계(810)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 높이(h2)가 정상 상태의 높이(h1)보다 증가하면 단계(815)에서 하품 상태로 판단할 수 있다. 이는 도 7(b)의 하품 상태에 대응한다.For example, in
예를 들어, 단계(820)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 높이(h3)가 정상 상태의 높이(h1)보다 감소하면 단계(825)에서 눈을 감고 있는 상태로 판단할 수 있다. 이는 도 7(c)의 눈을 감고 있는 상태에 대응한다.For example, in
예를 들어, 단계(830)에서 제어부(410)는 단계(530)에서 획득한 특징 바운더리(630)에서 아랫변(b4)의 길이가 정상 상태의 아랫변(b1)의 길이보다 증가하면 단계(835)에서 입을 꽉 다문 상태로 판단할 수 있다. 이는 도 7(d)의 입을 꽉 다문 상태에 대응한다.For example, in
본 발명의 운전자 상태 인식 장치 및 방법에 의하면 얼굴 정면 영상이 아닌 왜곡된 얼굴 영상에서도 운전자의 상태에 대한 구분이 가능하다. 특히, 왜곡된 얼굴 영상에서는 얼굴 특징이 상대적으로 몰려 있으므로 운전자 상태 인식을 위하여 처리할 이미지 크기가 작고, 실제 처리해야 할 픽셀의 수가 적기 때문에 처리 속도가 빠른 장점이 있다.According to the driver's state recognition apparatus and method of the present invention, it is possible to distinguish the driver's state even from a distorted face image other than a front face image. In particular, since facial features are relatively concentrated in a distorted face image, the size of an image to be processed for driver state recognition is small, and since the number of pixels to be actually processed is small, processing speed is high.
본 발명의 실시예에 따른 운전자 상태 인식 장치 및 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나 이상의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.The apparatus and method for recognizing driver status according to an embodiment of the present invention may be implemented in a computer system or recorded on a recording medium. The computer system may include at least one processor, memory, user input device, data communication bus, user output device, and storage. Each of the above-described components communicates data through a data communication bus.
컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 프로세서는 중앙처리 장치(central processing unit (CPU))이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다. The computer system may further include a network interface coupled to the network. The processor may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in a memory and/or storage.
메모리 및 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and storage may include various types of volatile or nonvolatile storage media. For example, the memory may include ROM and RAM.
본 발명의 실시예에 따른 운전자 상태 인식 방법은 컴퓨터에서 실행 가능한 방법으로 구현될 수 있다. 본 발명의 실시예에 따른 운전자 상태 인식 방법이 컴퓨터 장치에서 수행될 때, 컴퓨터로 판독 가능한 명령어들이 본 발명에 따른 운전자 상태 인식 방법을 수행할 수 있다.The method for recognizing driver status according to an embodiment of the present invention may be implemented in a computer-executable method. When the method for recognizing a driver's state according to an embodiment of the present invention is performed in a computer device, commands readable by a computer may perform the method for recognizing a driver's state according to the present invention.
상술한 본 발명에 따른 운전자 상태 인식 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.The driver state recognition method according to the present invention described above can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media in which data that can be decoded by a computer system is stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like. In addition, the computer-readable recording medium can be distributed to a computer system connected through a computer communication network, and stored and executed as code that can be read in a distributed manner.
이제까지 본 발명을 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양하게 변경 또는 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명을 위한 예시적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at based on examples. Those of ordinary skill in the art to which the present invention pertains will appreciate that the present invention may be implemented in variously modified or modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an exemplary point of view for description and not a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
100:
운전자 상태 인식 장치
150:
영상 수집 장치100: driver status recognition device
150: video acquisition device
Claims (15)
상기 얼굴 영상을 저장하는 저장소 및
프로세서를 포함하고, 상기 프로세서는,
운전자의 얼굴 영상을 획득하고,
상기 얼굴 영상으로부터 기준 영역을 추출하고,
상기 기준 영역에 기반하여 상기 얼굴 영상으로부터 특징 바운더리를 추출하고,
상기 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하도록 설정되는 운전자 상태 인식 장치.
In the device for recognizing a driver's state based on a driver's face image taken with at least one camera,
A storage for storing the face image, and
Including a processor, the processor,
Acquire the driver's face image,
Extracting a reference region from the face image,
Extracting a feature boundary from the face image based on the reference region,
Driver state recognition device configured to determine the state of the driver based on a change in the characteristic boundary.
상기 프로세서는,
상기 운전자의 상태에 기반한 반응 지시를 결정하도록 더 설정되는 운전자 상태 인식 장치.
The method of claim 1.
The processor,
Driver condition recognition device further configured to determine a response instruction based on the driver's condition.
사용자가 착용가능한 몸체; 및
상기 사용자의 얼굴 영상을 촬영하도록 상기 몸체에 배치된 적어도 하나의 LED 카메라 셀
을 포함하는 영상 수집 장치.
In the image collection device,
A user-wearable body; And
At least one LED camera cell disposed on the body to capture the user's face image
Image collection device comprising a.
상기 몸체는 넥밴드형으로 형성되는 영상 수집 장치.
The method of claim 3,
The body is an image collection device formed in a neckband type.
상기 적어도 하나의 LED 카메라 셀은 상기 사용자의 얼굴을 하부에서 상부로 올려다보는 방향으로 촬영하는 영상 수집 장치.
The method of claim 3,
The at least one LED camera cell is an image collection device for photographing the user's face in a direction looking up from the bottom to the top.
상기 적어도 하나의 LED 카메라 셀은 상기 사용자의 제 1 시점의 얼굴 영상 및 제 2 시점의 얼굴 영상을 촬영하는 영상 수집 장치.
The method of claim 3,
The at least one LED camera cell is an image collection device for capturing a face image of a first viewpoint and a face image of a second viewpoint of the user.
상기 얼굴 영상을 송신하고, 상기 얼굴 영상에 기반하여 결정된 상기 사용자의 상태 정보에 대한 반응 지시를 수신하는 통신 모듈; 및
상기 반응 지시에 기반하여 상기 사용자에게 반응을 출력하는 출력부
를 더 포함하는 영상 수집 장치.
The method of claim 3,
A communication module for transmitting the face image and receiving a response instruction for the user's state information determined based on the face image; And
An output unit that outputs a response to the user based on the response instruction
An image collection device further comprising a.
운전자의 얼굴 영상을 획득하는 단계;
상기 얼굴 영상으로부터 기준 영역을 추출하는 단계;
상기 기준 영역에 기반하여 상기 얼굴 영상으로부터 특징 바운더리를 추출하는 단계 및
상기 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하는 단계
를 포함하는 운전자 상태 인식 방법.
In a method of recognizing a driver's state based on a driver's face image taken with at least one camera,
Acquiring a driver's face image;
Extracting a reference region from the face image;
Extracting a feature boundary from the face image based on the reference region, and
Determining the state of the driver based on the change in the characteristic boundary
Driver state recognition method comprising a.
상기 얼굴 영상은 상기 운전자의 얼굴을 하부에서 상부를 올려다보는 방향으로 촬영한 영상인 운전자 상태 인식 방법.
The method of claim 8,
The face image is an image of the driver's face in a direction looking up from the bottom to the top.
상기 기준 영역을 추출하는 단계는,
상기 운전자의 코 영역에 대응하는 상기 얼굴 영상의 영역을 상기 기준 영역으로 추출하는 운전자 상태 인식 방법.
The method of claim 8,
The step of extracting the reference region,
A driver state recognition method for extracting an area of the face image corresponding to the driver's nose area as the reference area.
상기 기준 영역은 삼각형 형상인 운전자 상태 인식 방법.
The method of claim 10,
The reference area is a driver state recognition method of a triangular shape.
상기 특징 바운더리를 추출하는 단계는,
상기 운전자의 눈과 입을 포함하는 영역에 대응하는 상기 얼굴 영상의 관심 영역을 추출하는 단계 및
상기 기준 영역과 상기 관심 영역의 위치 관계에 기반하여 상기 관심 영역을 상기 특징 바운더리로 결정하는 단계
를 포함하는 운전자 상태 인식 방법.
The method of claim 8,
The step of extracting the feature boundary,
Extracting an ROI of the face image corresponding to an area including the driver's eyes and mouth, and
Determining the region of interest as the feature boundary based on a positional relationship between the reference region and the region of interest
Driver state recognition method comprising a.
상기 특징 바운더리는 역사다리꼴 형상인 운전자 상태 인식 방법.
The method of claim 12,
The characteristic boundary is a driver state recognition method having a reverse trapezoid shape.
상기 얼굴 영상을 획득하는 단계는,
제 1 시점의 제 1 얼굴 영상을 획득하는 단계 및
제 2 시점의 제 2 얼굴 영상을 획득하는 단계
를 포함하고,
상기 운전자의 상태를 판단하는 단계는,
상기 제 1 얼굴 영상 및 상기 제 2 얼굴 영상 간의 특징 바운더리의 변화에 기반하여 상기 운전자의 상태를 판단하는 운전자 상태 인식 방법.
The method of claim 8,
Acquiring the face image,
Acquiring a first face image of a first viewpoint, and
Acquiring a second face image of a second viewpoint
Including,
The step of determining the state of the driver,
A driver state recognition method for determining a state of the driver based on a change in a feature boundary between the first and second face images.
상기 특징 바운더리는 역사다리꼴 형상이고,
상기 특징 바운더리의 변화는 상기 역사다리꼴 형상의 높이 변화, 아랫변의 길이 변화 및 면적 변화 중 적어도 하나인 운전자 상태 인식 방법.The method of claim 8,
The characteristic boundary is a historical trapezoidal shape,
The change of the characteristic boundary is at least one of a change in height of the inverse trapezoid shape, a change in length of a lower side, and a change in area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190038748A KR20200116825A (en) | 2019-04-02 | 2019-04-02 | Apparatus and method for driver condition recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190038748A KR20200116825A (en) | 2019-04-02 | 2019-04-02 | Apparatus and method for driver condition recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200116825A true KR20200116825A (en) | 2020-10-13 |
Family
ID=72884951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190038748A KR20200116825A (en) | 2019-04-02 | 2019-04-02 | Apparatus and method for driver condition recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200116825A (en) |
-
2019
- 2019-04-02 KR KR1020190038748A patent/KR20200116825A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8435188B2 (en) | Eye opening detection system and method of detecting eye opening | |
US8314854B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
KR102339607B1 (en) | Apparatuses and Methods for Iris Based Biometric Recognition | |
US8180106B2 (en) | Image capturing apparatus and image capturing method | |
WO2016038784A1 (en) | Driver state determination apparatus | |
US20050084137A1 (en) | System and method for iris identification using stereoscopic face recognition | |
JP6234762B2 (en) | Eye detection device, method, and program | |
US20070291983A1 (en) | Method of tracking a human eye in a video image | |
TWI603270B (en) | Method and apparatus for detecting person to use handheld device | |
JP6647474B2 (en) | Facial expression recognition device | |
EP3772016B1 (en) | Method and apparatus for entering human face information into database | |
CN103379279A (en) | Subject area detection apparatus and method therefor, as well as image pickup apparatus and display apparatus | |
WO2017098265A1 (en) | Method and apparatus for monitoring | |
CN109002774A (en) | A kind of fatigue monitoring device and method based on convolutional neural networks | |
JP2019159518A (en) | Visual state detection apparatus, visual state detection method, and visual state detection program | |
KR20200056660A (en) | Pain monitoring method and apparatus using tiny motion in facial image | |
TWI520076B (en) | Method and apparatus for detecting person to use handheld device | |
JP2019083019A (en) | Driver state determination device | |
JP2004192552A (en) | Eye opening/closing determining apparatus | |
KR102258332B1 (en) | System for Warning Sleepiness Protection and Connecting Automatic Call of Driver | |
KR20200116825A (en) | Apparatus and method for driver condition recognition | |
US20230077010A1 (en) | Wearable facial movement tracking devices | |
US20230290185A1 (en) | Anti-Spoofing System | |
JP5493676B2 (en) | Eye position recognition device | |
Horak et al. | Eyes detection and tracking for monitoring driver vigilance |