KR20170088315A - Integrated Control method for Vehicle Drive using Depth Information based Face Recognition - Google Patents

Integrated Control method for Vehicle Drive using Depth Information based Face Recognition Download PDF

Info

Publication number
KR20170088315A
KR20170088315A KR1020170087017A KR20170087017A KR20170088315A KR 20170088315 A KR20170088315 A KR 20170088315A KR 1020170087017 A KR1020170087017 A KR 1020170087017A KR 20170087017 A KR20170087017 A KR 20170087017A KR 20170088315 A KR20170088315 A KR 20170088315A
Authority
KR
South Korea
Prior art keywords
unit
depth
image
face
facial
Prior art date
Application number
KR1020170087017A
Other languages
Korean (ko)
Other versions
KR101775874B1 (en
Inventor
권순각
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020170087017A priority Critical patent/KR101775874B1/en
Publication of KR20170088315A publication Critical patent/KR20170088315A/en
Application granted granted Critical
Publication of KR101775874B1 publication Critical patent/KR101775874B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06K9/32
    • G06K9/78
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a vehicle control method for face recognition based on depth information and, more specifically, to a vehicle control technique which recognizes a face of a vehicle driver by a vehicle control system for face recognition having an algorithm and an apparatus therein to use depth information to perform face recognition, regards as a similar situation when a change in a depth value for a normal face feature of the driver recognized by the vehicle control system for face recognition occurs to propagate a warning or automatically set a vehicle environment such as a seat position suitable for the recognized driver, an angle of a room mirror and a side mirror, preferred music play, and a preferred radio frequency. According to the present invention, the vehicle control system for face recognition based on depth information comprises: a vehicle environment setting unit to set a vehicle driving environment; a driving-while-drowsy sensing unit having an algorithm therein to determine a similar situation when a change in a depth value for a normal face feature of a previously recognized driver occurs; and a depth information-based face recognition unit.

Description

깊이정보 기반의 안면인식 자동차제어방법{Integrated Control method for Vehicle Drive using Depth Information based Face Recognition} [0001] The present invention relates to a depth information-based face recognition vehicle control method,

본 발명은 깊이정보 기반의 안면인식 자동차제어방법에 관한 것으로서, 더욱 상세하게는 깊이정보를 이용하여 안면인식을 수행하는 장치와 알고리즘이 내재된 안면인식 자동차제어시스템으로 자동차 운전자의 안면을 인식하고 상기 안면인식 자동차제어시스템에서 인식된 운전자의 평상 시 안면 특징에 대한 깊이 값 변화 발생 시 유사 상황으로 간주하여 경보를 전파하거나 기 인식된 운전자에 적합한 시트 포지션, 룸 미러 및 사이드 미러 각도 설정, 선호 음악 재생 및 선호 라디오 주파수 설정 등의 자동차 환경을 자동으로 설정하는 자동차제어 구현 기술에 관한 것이다. The present invention relates to a depth information-based facial recognition automobile control method, and more particularly, to a depth information-based face recognition automobile control method for recognizing a face of a driver using a facial recognition automobile control system including an apparatus for performing facial recognition using depth information, Facial Recognition Automatically recognizes the driver's normal facial features recognized by the facial recognition automobile control system as a similar situation when a change occurs in depth, propagates the alarm or sets seat position, room mirror and side mirror angle suitable for recognized driver, And a preference radio frequency setting, and the like.

얼굴인식(Face Recognition) 기술이란 생체인식(Boimetrics) 분야 중의 하나로 사람마다 얼굴에 담겨있는 고유한 특징 정보를 이용하여 기계가 자동으로 사람을 식별하고 인증하는 기술이다. 각종 영상매체로부터 비교적 쉽고 자연스럽게 입력 받을 수 있는 얼굴이미지는 복잡한 배경으로부터 얼굴을 분리한 다음 눈, 코, 입 등의 위치들을 찾아서 정렬 및 사이즈 정규화를 하고, 인식에 필요한 특징 정보를 추출하여 수학적 계산과 통계적인 방법 등으로 템플릿을 만들어 데이터베이스로 저장함으로써, 얼굴의 등록, 인식 및 인증에 사용한다. 생체인식 시스템 분야로는 지문(fingerprint), 정맥(vein), 홍체(iris) 인식 분야가 많이 사용되고 있고 상업화 및 제품화가 이루어져 있다. 하지만, 이러한 생체인식 시스템은 사람이 인위적으로 접촉해야 하고 데이터 수집이 어려우며 직관적이지 못하다는 단점이 있다. 이러한 측면에서 볼 때 안면인식 기술은 이미지를 촬영하는 비접촉식이라는 장점과 여기서 기록되고 사용되는 데이터가 얼굴사진이라는 측면에서 매우 직관적이라는 장점을 갖고 있다. Face Recognition technology is one of the fields of biometric recognition (Boimetrics), where the machine automatically identifies and authenticates people using unique feature information contained in each face. The facial image, which is relatively easy and naturally input from various image media, is used to separate faces from complex backgrounds and then search for positions such as eyes, nose, and mouth, sort and normalize size, extract feature information necessary for recognition, It is used for registration, recognition and authentication of faces by storing the template in a database by statistical methods. In the field of biometric systems, fingerprint, vein, and iris recognition fields are widely used and commercialized and commercialized. However, these biometrics systems have the disadvantage that human beings must be in touch with human beings, data collection is difficult, and intuitive. In this respect, facial recognition technology has the advantage that it is a non-contact type that takes an image and that the data recorded and used here is very intuitive in terms of face photographs.

이러한 안면인식 기술은 영상처리기법을 이용하여 기 저장된 기준영상과 비교하여 패턴을 인식하는 기술이 보편적으로 사용되고 있다. 이는 인쇄회로기판(PCB) 제조라인에서 광학식 검사시스템을 이용하여 PCB 불량유무 판정 부문, 지능형 교통시스템을 위한 차량 번호판 자동인식 부문, 사물인터넷 기술 중 패턴 매칭 기술 부문이 대표적인 적용 및 실시 예이다. 이러한 패턴인식을 수행하기 위하여 종래의 카메라로 영상을 촬영할 때 영상이 카메라 위치에 따라 원근에 기인한 기하학적 왜곡 영상이 촬영되어 패턴의 검출 및 인식이 원활히 이루어지지 않게 하는 요인으로 작용한다. 상기 원근에 기인한 기하학적 왜곡 영상을 보정하기 위해서 보정 물체를 이용한 왜곡 계수 산출 기법, 다방향 패턴 영상 사용 기법, 선 또는 소실점의 기하학적 특징 이용 기법 등이 제안된 바 있으나 전술한 방법은 실시간으로 적용할 수 없다는 문제점이 있다. 또한 색정보를 통해 영상정보를 획득하는 방식은 색 영상에 영향을 미치는 환경 하에서는 취약하다는 문제점이 있다. This facial recognition technology is commonly used to compare patterns with previously stored reference images using image processing techniques. This is a typical application and example of using the optical inspection system in the printed circuit board (PCB) manufacturing line to determine the presence or absence of the PCB defect, the automatic license plate recognition for the intelligent traffic system, and the pattern matching technology in the object Internet technology. In order to perform such pattern recognition, when a conventional camera captures an image, a geometrically distorted image due to the perspective of the image depending on the camera position is photographed, which prevents the detection and recognition of the pattern from being performed smoothly. In order to correct the geometric distortion image due to the perspective, there has been proposed a distortion coefficient calculation method using a corrected object, a multi-directional pattern image using technique, and a geometric feature utilization technique of a line or a vanishing point. However, There is a problem that it can not be done. Also, there is a problem that the method of acquiring image information through color information is weak in an environment that affects color images.

카메라를 이용한 영상촬영의 경우, 동영상 부호화 표준으로 최근에 HEVC 표준이 완성되었다. 동영상 부호화에서 움직임 추정 및 보상 방법은 시간방향의 중복성을 제거하기 위해 필수적으로 사용된다. H.264, HEVC 등에서는 움직임 추정을 위해서 현재 화면 내의 공간방향으로 이웃한 화소들의 묶음인 블록과 시간방향으로 이웃한 참조 화면 내에서 가장 가까운 블록을 찾는 블록정합 방법을 사용하고 있다. 블록정합 움직임 추정 과정에는 블록을 찾는 평가척도, 참조 화면내 탐색영역의 크기, 현재 블록의 크기 등이 고려되어야 한다. 움직임 추정은 동영상 부호화에서 구현 복잡도의 70% 이상을 차지하고 있으므로, 동영상 부호화 초창기부터 복잡도를 줄이는 고속 움직임 추정방법에 대한 연구가 진행되어 왔다. 이러한 블록정합 움직임 추정은 카메라의 좌우 이동 및 영상 속 객체의 공간 이동 등에는 추정의 정확도가 높지만, 영상 신축에는 정확도가 떨어질 수밖에 없다. 영상의 신축 움직임은 현재 화면이 참조 화면에서 확대 또는 축소되는 것을 의미하며, 확대 및 축소에 해당되는 신축 비율을 정확하게 추출하기 위해서는 가능한 모든 신축비율을 적용할 수밖에 없다. 또한, 가능한 신축비율의 수가 너무 많기 때문에 모든 경우를 적용하기에는 불가능하다. 따라서, 구현의 복잡도를 줄이기 위한 방법에 대한 기술 개발이 진행되어 왔다. 신축 움직임 추정에서 첫 번째 단계에는 선택된 몇 개의 화소들에 대하여 간략하게 움직임을 추정하고, 두 번째 단계에서 모든 화소에 대하여 정확도를 높이는 방법, 계산 효율, 정확도 등을 고려한 반복적 최소-자승 추정에 대한 다양한 개선방법, 보간된 참조 화면을 이용하는 방법, 3-D 다이어몬드 탐색 패턴을 사용하여 움직임 추정을 단순화하는 방법 등이 제안된 바 있다. 그러나, 종래의 기술은 카메라의 색상정보만을 사용하기 때문에 정확한 신축 움직임 벡터를 추정하는 것에 어려움에 있고, 추정의 복잡도를 줄이는 데에도 한계가 있다는 문제점이 있다. In the case of imaging using a camera, the HEVC standard has recently been completed as a video encoding standard. The motion estimation and compensation method in video coding is essential for eliminating redundancy in the temporal direction. In H.264, HEVC, and so on, a block matching method is used to find a block that is a bundle of neighboring pixels in the spatial direction of the current screen and a closest block in the neighboring reference picture in the time direction for motion estimation. In the block matching motion estimation process, the evaluation scale for finding the block, the size of the search area in the reference screen, and the size of the current block should be considered. Since motion estimation accounts for more than 70% of implementation complexity in video coding, fast motion estimation methods that reduce complexity from the beginning of video coding have been studied. In this block matching motion estimation, the accuracy of estimation is high in the left and right movement of the camera and the spatial movement of the object in the image, but the accuracy of the image expansion and contraction is low. The expansion / contraction motion of the image means that the current screen is enlarged or reduced on the reference screen. In order to accurately extract the expansion / contraction ratio corresponding to enlargement / reduction, all possible expansion / contraction ratios must be applied. Furthermore, since the number of possible stretch ratios is too large, it is impossible to apply all cases. Therefore, techniques for reducing the complexity of implementation have been developed. In the first stage of the stretching motion estimation, a simple motion estimation is performed on several selected pixels. In the second step, a variety of iterative least-squares estimation is performed in consideration of a method of increasing the accuracy of all the pixels, calculation efficiency, A method of using an interpolated reference picture, and a method of simplifying motion estimation using a 3-D diamond search pattern have been proposed. However, since the conventional art uses only color information of the camera, it is difficult to estimate an accurate stretching motion vector, and there is also a problem that there is a limit in reducing the complexity of estimation.

본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템을 개시하려는 유사 선행기술에는 대한민국 등록특허공보 제10-0778059호 '얼굴인식기술을 이용한 졸음운전 방지장치 및 이를 이용한 졸음운전 방지시스템'이 있다. 상기 유사 선행기술은 운전자 얼굴을 촬영하는 카메라; 운전자얼굴의 벡터템플리트를 저장하고 관리하는 사용자등록부; 아날로그 얼굴영상을 디지털영상스트림으로 변환시킨 후에 메모리에 저장하는 얼굴영상획득부; 디지털영상스트림에서 운전자 얼굴 벡터템플리트를 생성하는 얼굴영상 판독부; 운전자얼굴 벡터템플리트와 기 저장된 운전자 벡터템플리트와 비교·분석하여 졸음상태를 확인하는 졸음운전 해석부; 졸음운전 해석부로부터 운전자의 운전얼굴이 졸음운전얼굴로 판독되면 졸음퇴치 컨텐츠를 표현하는 졸음운전 퇴치부;로 구성되는 기술을 개시하는 특징이 있다. A similar prior art to disclose a depth information based face recognition automobile control system according to the present invention is Korean Patent Registration No. 10-0778059 entitled " Drowsiness driving prevention device using face recognition technology and drowsiness driving prevention system using the same. The prior art includes a camera for photographing a driver's face; A user registration unit for storing and managing vector templates of the driver's face; A facial image acquiring unit for converting the analog facial image into a digital image stream and storing the digital facial image in a memory; A face image reading unit for generating a driver face vector template in the digital image stream; A drowsiness operation analyzing unit for comparing the driver face vector template with the pre-stored driver vector template to check the drowsiness state; And a drowsiness driving suppression unit for expressing the drowsiness suppression contents when the driving face of the driver is read from the drowsiness driving analysis unit to the drowsiness driving face.

다른 유사 선행기술에는 대한민국 등록특허공보 제10-0961906호 '안면인식을 이용한 자동차 백미러의 자동 제어 방법 및 장치'가 있다. 상기 유사 선행기술은 자동차 내부의 깊이카메라로 백미러에 비친 운전자 안면을 촬영하는 영상입력단계; 촬영된 영상왜곡을 보정하는 영상왜곡 보정단계; 보정된 영상에서 운전자 입술위치를 파악하는 입술위치 파악단계; 파악된 운전자 입술위치를 통하여 운전자 공간위치를 파악하는 운전자 공간위치 파악단계; 파악된 운전자 공간위치에서 백미러를 통하여 차량 정후방을 관측할 수 있는 백미러 최적각도를 산출하고, 백미러 초기각도차이로서 백미러 보정각도를 계산하는 백미러 보정각도계산단계;로 구성되는 기술을 개시하는 특징이 있다. Another prior art is the Korean Patent Registration No. 10-0961906 entitled " Method and Apparatus for Automatic Control of a Rearview Mirror Using Facial Recognition. &Quot; The similar prior art includes an image input step of photographing a driver's face reflected by a rearview mirror using a depth camera inside a car; An image distortion correction step of correcting the photographed image distortion; A lip position grasping step of grasping a driver's lip position in the corrected image; A driver space position grasping step of grasping a driver's space position through the grasped driver's lips position; And a rearview mirror correction angle calculation step of calculating a rearview mirror optimum angle for observing the vehicle rearview through the rearview mirror at the identified driver's location and calculating a rearview mirror correction angle as an initial angle difference of the rearview mirror, have.

또 다른 유사 선행기술에는 대한민국 등록특허공보 제10-1444537호 '운전자 얼굴 상태 알림 장치'이 있다. 상기 유사 선행기술은 운전자의 얼굴을 촬영하는 카메라(촬영 수단)와, 카메라에 의해 촬영된 운전자의 얼굴 화상에 의거하여 상기 운전자의 얼굴 상태를 검출하는 화상 처리부(얼굴 상태 검출 수단)와, 화상 처리부에 의해 검출된 운전자의 얼굴 상태에 의거하여 상기 얼굴 상태의 변화를 반영시킨 알림 정보를 작성하는 제어부 및 화상 변환부(알림 정보 작성 수단)와, 제어부 및 화상 변환부에 의해 작성된 알림 정보를 차 밖의 사람을 향해서 알리는 디스플레이 및 좌우측 램프(알림 수단)로 구성되는 기술을 개시하는 특징이 있다. Another similar prior art is Korean Patent Registration No. 10-1444537 entitled " Driver's face status notification device ". The similar prior art includes a camera (photographing means) for photographing the face of the driver, an image processing section (face state detecting section) for detecting the face state of the driver based on the face image of the driver photographed by the camera, And an image conversion unit (notification information creation means) that creates notification information that reflects the change of the face state based on the face state of the driver detected by the face detection unit A display for informing a person and a left and right lamp (notifying means).

그러나 전술한 종래의 유사 선행 기술은 데이터베이스에 인물의 얼굴 깊이 값을 미리 저장시켜두고 깊이카메라를 통해 인물을 촬영할 때 인물이 촬영된 깊이영상을 깊이 값을 통해 보정하여 각각의 인물의 얼굴 깊이 값을 저장하고 있는 데이터베이스와 상기 촬영된 영상의 깊이 값에서 얼굴의 특징점을 추출하고 상기 추출된 얼굴 특징의 깊이 값을 상기 데이터베이스에 저장된 인물의 얼굴 데이터와 비교하여 상기 특징점이 일치할 때 해당 인물로 인식하는 깊이정보 기반의 안면인식 알고리즘으로 구동되는 자동차제어시스템의 구현 기술을 제공하지 못하였다. However, in the related art prior art described above, the face depth value of a person is stored in advance in a database. When a person is photographed through a depth camera, the depth image of the person is corrected through the depth value, Extracting the feature points of the face from the stored database and the depth value of the captured image, comparing the depth value of the extracted face feature with the face data of the person stored in the database, and recognizing the depth value of the extracted face feature as the corresponding character It does not provide the implementation technology of the automobile control system driven by the depth information based face recognition algorithm.

KR 10-0778059(B1)KR 10-0778059 (B1) KR 10-0961906(B1)KR 10-0961906 (B1) KR 10-1444537(B1)KR 10-1444537 (B1)

본 발명은 상기한 발명의 배경으로부터 요구되는 기술적 필요성을 충족하는 것을 목적으로 한다. 구체적으로, 본 발명의 목적은 종래의 안면인식 자동차제어시스템에서 안면인식 영상의 원근 왜곡이 발생하는 현상을 보정할 수 있는 깊이영상 회전 모듈 및 알고리즘이 내재된 안면인식 자동차제어시스템을 구현하는 것에 그 목적이 있다. 또한, 종래의 안면인식 자동차제어시스템에서 신축 움직임 벡터 추정이 어려운 문제점을 해결하고자 깊이정보 변환 모듈 및 알고리즘이 내재된 안면인식 자동차제어시스템을 제공함으로써 고신뢰성 안면인식 자동차제어시스템 구현 기술을 제공하는 것에 그 목적이 있다. The present invention aims to satisfy the technical needs required from the background of the above-mentioned invention. Specifically, it is an object of the present invention to provide a face recognition automobile control system having a depth image rotation module and an algorithm capable of correcting a phenomenon in which a perspective distortion of a face recognition image is generated in a conventional face recognition automobile control system There is a purpose. In order to solve the problem of difficulty in estimating the stretching motion vector in the conventional facial recognition automobile control system, there is a need to provide a technology for realizing a highly reliable facial recognition automobile control system by providing a face recognition automobile control system in which a depth information conversion module and an algorithm are embedded It has its purpose.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical objects to be achieved by the present invention are not limited to the above-mentioned problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description. There will be.

이러한 목적을 달성하기 위한 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템은 자동차 운전 환경 설정을 수행하는 자동차환경 설정부; 기 인식된 운전자의 평상 시 안면 특징에 대한 깊이 값 변화 발생 시 유사 상황으로 판단하는 알고리즘이 내재된 졸음운전 감지부; 깊이정보 기반의 안면 인식부;로 구성되는 것을 특징으로 한다. To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, a depth information-based face recognition automobile control system includes: a vehicle environment setting unit for setting a vehicle operation environment; A drowsy operation detecting unit having an algorithm for determining a similar situation when a depth value change of a recognized facial feature of a driver is detected; And a depth information-based face recognition unit.

이상과 같이 본 발명은 깊이카메라를 통해 하나의 평면 영역을 촬영하여 깊이정보를 획득하고 대응되는 색영상에 발생하는 원근 왜곡을 깊이정보로 보정하여 처리속도와 정확도가 향상된 깊이정보 회전 모듈을 구비하게 되므로 인물 촬영이 정면에서 수행되지 않고 측면에서 촬영되어도 이를 자체적으로 원근 보정할 수 있어서 안면인식 자동차제어시스템 성능이 증대되는 효과가 있다. 또한, 현재 촬영된 안면과 본인인증부에 저장된 안면 사이의 비교의 정확도를 높이기 위하여 보정을 수행하는 깊이영상 변환부를 구비하게 되므로 영상 촬영 거리에 따른 오차를 자체적으로 신축 보정이 가능하여 안면인식 자동차제어시스템의 성능이 증대되는 효과가 있다. As described above, the present invention has a depth information rotation module with improved processing speed and accuracy by correcting the perspective distortion generated in the corresponding color image by photographing one plane area through the depth camera and correcting the perspective distortion generated in the corresponding color image with depth information Therefore, even if a portrait is photographed on the side and not photographed on the front side, it is possible to calibrate the photographed person's own perspective, thereby enhancing the performance of the facial recognition automobile control system. In addition, since the depth image converting unit is provided to perform the correction to improve the accuracy of the comparison between the face currently photographed and the facial image stored in the authentication unit, the error according to the image capturing distance can be corrected by self- The performance of the system is increased.

본 발명의 기술적 효과들은 이상에서 언급한 기술적 효과들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 효과들은 청구범위의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. It is to be understood that the technical advantages of the present invention are not limited to the technical effects mentioned above and that other technical effects not mentioned can be clearly understood by those skilled in the art from the description of the claims There will be.

도 1은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 주요 모듈 구성도;
도 2는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 설치 위치에 대한 예시도;
도 3은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템이 적용되는 부분에 대한 예시도;
도 4는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 깊이영상 촬영부를 이용한 깊이영상 촬영 예시도;
도 5는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 깊이영상 보정부를 이용한 오차 발생 픽셀의 보정 예시도;
도 6은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 깊이영상 보정부를 이용한 안경 착용자의 안경테에 대한 보간 예시도;
도 7은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 깊이영상 변환부의 세부모듈에 대한 구성도;
도 8은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 깊이영상 변환부에서 안면 정렬이 수행되는 실시 흐름도;
도 9는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 안면 검출부에서 깊이 값을 이용하여 안면을 추출하는 과정의 예시도;
도 10은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 안면특징 추출부로 추출된 주요 특징별 깊이 값 차이에 대한 예시도;
도 11은 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템의 안면특징 추출부로 추출된 안면 부위의 예시도;
도 12는 안면이 기울어진 상태를 보정하기 위하여 두 눈의 위치를 수평선에 평행하게 보정하는 과정의 예시도;
도 13은 안면에서 코와 코 주변의 깊이 차를 계산하여 상대적 깊이 크기를 측정하는 방법의 예시도;
도 14는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템을 이용한 턱 부위 추출에 대한 예시도;
도 15는 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템을 이용한 안면 폭 측정에 대한 예시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a main part of a depth-based face recognition automobile control system according to the present invention; FIG.
FIG. 2 is an exemplary view showing an installation position of a depth information-based face recognition automobile control system according to the present invention; FIG.
FIG. 3 illustrates an example of a portion of a depth information-based face recognition vehicle control system according to the present invention.
4 is a view illustrating an example of a depth image capturing using a depth image capturing unit of a depth information based face recognition automobile control system according to the present invention;
5 is a diagram illustrating a correction of an error generating pixel using a depth image correcting unit of a depth information-based facial recognition automobile control system according to the present invention;
6 is an illustration of interpolation of a spectacle frame of a spectacle wearer using a depth image correction unit of a depth information based face recognition automobile control system according to the present invention;
FIG. 7 is a block diagram of a detailed module of a depth image converting unit of a depth information-based face recognition automobile control system according to the present invention;
FIG. 8 is a flowchart illustrating a face-to-face alignment in a depth image converting unit of a depth-information-based face recognition automobile control system according to the present invention;
9 is a diagram illustrating a process of extracting a face using a depth value in a face detection unit of a depth information-based face recognition automobile control system according to the present invention;
10 is an exemplary view showing differences in depth values of main features extracted by the facial feature extraction unit of the depth information-based facial recognition automobile control system according to the present invention;
11 is an illustration of a facial region extracted by the facial feature extraction unit of the depth information-based facial recognition automobile control system according to the present invention;
FIG. 12 is an exemplary view showing a process of correcting the positions of two eyes in parallel to a horizontal line in order to correct the inclined state of the face; FIG.
FIG. 13 is a diagram illustrating a method of measuring a relative depth magnitude by calculating a depth difference between a nose and a nose in a face; FIG.
14 is an exemplary view for extracting jaw area using a depth information-based facial recognition automobile control system according to the present invention;
15 is an exemplary view of facial width measurement using a depth information-based facial recognition automobile control system according to the present invention.

이하에서는, 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명하지만, 이는 본 발명의 더욱 용이한 이해를 위한 것으로, 본 발명의 범주가 그것에 의해 한정되는 것은 아니다. 또한 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, It is not. In the following description of the present embodiment, the same components are denoted by the same reference numerals and symbols, and further description thereof will be omitted.

본 발명의 각 구성 단계에 대한 상세한 설명에 앞서, 본 명세서 및 청구 범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위하여 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과하며 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of each step of the invention, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary meanings, and the inventor shall design his own invention in the best manner It should be interpreted in the meaning and concept consistent with the technical idea of the present invention based on the principle that the concept of the term can be properly defined. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 1 내지 도3을 참조하면 본 발명에 따른 깊이정보 기반의 안면인식 자동차제어시스템은 기 인식된 운전자에 적합한 시트 포지션, 룸 미러 및 사이드 미러 각도 설정, 선호 음악 재생 및 선호 라디오 주파수 재생 등의 자동차 운전 환경 설정을 수행하는 자동차환경 설정부(100); 기 인식된 운전자의 평상 시 안면 특징에 대한 깊이 값 변화 발생 시 유사 상황으로 판단하는 알고리즘이 내재된 졸음운전 감지부(200); 깊이정보 기반의 안면 인식부(300);로 구성되는 것을 특징으로 한다. 1 to 3, the depth information-based facial recognition automobile control system according to the present invention includes a seat position, a room mirror, a side mirror angle setting, a preferred music reproduction, and a preferred radio frequency reproduction A vehicle environment setting unit (100) for performing an operation environment setting; A drowsy operation sensing unit 200 having an algorithm for determining a similar situation when a depth value change of a recognized facial feature of a driver is detected; And a depth information-based facial recognition unit (300).

상기 졸음운전 감지부(200)는 졸음운전 감지 시 알람음과 같은 위험 경보를 전파하기 위한 알람 경보부(210)를 더 포함하는 것을 특징으로 하며 상기 졸음운전에 대한 판단 요소에는 안면이 불규칙하게 움직이는 동작, 눈꺼풀의 닫힘, 하품을 하는 입에 대한 깊이 값 변화가 되는 것이 바람직하다. The drowsiness operation sensing unit 200 may further include an alarm unit 210 for transmitting a danger alarm such as an alarm sound when the drowsy operation is sensed. , The closing of the eyelid, and the change in the depth value with respect to the mouth to be shed.

상기 안면 인식부(300)는 안면특징 깊이정보 저장용 안면 저장부(310); 안면깊이영상 촬영용 깊이영상 촬영부(320); 깊이값 오차보정용 깊이영상 보정부(330); 깊이영상 안면부분 추출용 안면검출부(340); 영상회전 신축 변환 및 영상촬영거리에 따른 안면영상 신축 및 안면 정렬용 깊이영상 변환부(350); 깊이영상 안면특징 추출용 안면특징 추출부(360); 상기 안면 저장부(310)에 저장된 데이터와 비교하는 안면특징 비교부(370); 저장된 데이터와의 비교결과에서 인물 일치도를 판정하는 인물 일치 판정부(380);로 구성되는 것을 특징으로 한다. The face recognition unit 300 includes a face storage unit 310 for storing face feature depth information; Depth image capturing unit 320 for depth-of-field image capturing; A depth image correction unit 330 for depth value error correction; A facial image detector 340 for extracting a facial image portion; A depth image converting unit 350 for facial image stretching and face matching according to the image rotation / contraction transformation and the image capturing distance; A facial feature extraction unit 360 for extracting a depth image facial feature; A facial feature comparing unit 370 for comparing the data stored in the facial storing unit 310 with data stored in the facial storing unit 310; And a personality matching determination unit (380) for determining a person matching degree in a result of comparison with the stored data.

상기 안면 저장부(310)에는 자동차를 제어할 운전자의 안면에 대한 깊이정보를 저장하고 있어서 이를 토대로 상기 안면 인식부(300)에서 상기 운전자의 인식이 가능한 것을 특징으로 한다. 상기 안면 저장부(310)에는 기 인식된 다수의 운전자에 대한 좌석 설정, 선호 음악 선곡/재생 정보와 시트 포지션, 룸 미러 및 사이드 미러 각도에 대한 정보를 저장하고 있는 것을 특징으로 한다. 상기 깊이영상 촬영부(320)는 도 2와 같이 자동차의 대쉬보드에 위치하는 것이 바람직하며 상기 깊이영상 촬영부(320)를 통해 운전자 안면을 촬영하여 깊이영상을 획득하면 상기 안면특징 추출부(360)와 상기 안면특징 비교부(370)를 통해 운전자를 최종 인식하는 것을 특징으로 한다. 만약 상기 안면 인식부(300)에서 운전자 안면을 인식하는데 실패한다면 상기 알람 경고부(210)에서 재촬영을 요구하는 알람음이 1차 송출되고 상기 안면 저장부(310)에 기 저장된 운전자가 아닌 것으로 확인되면 자동차 도난 상황으로 간주하여 상기 알람 경고부(210)에서 알람음이 2차 송출되는 동시에 기 설정된 연락처로 경고 메시지를 발송하는 것을 특징으로 한다. The face storage unit 310 stores depth information on the face of the driver to control the automobile so that the face recognition unit 300 recognizes the driver based on the depth information. The face storage unit 310 stores information on seating settings, preference music selection / playback information, seat position, room mirror, and side mirror angle for a plurality of recognized drivers. As shown in FIG. 2, the depth image radiographing section 320 is preferably located on a dashboard of a car. When the driver's face is photographed through the depth image radiographing section 320 to obtain a depth image, the facial feature extracting section 360 And the facial feature comparing unit 370. The facial feature comparing unit 370 may be a facial feature comparing unit. If the facial recognition unit 300 fails to recognize the driver's face, an alarm sound requesting re-photographing is firstly transmitted from the alarm alerting unit 210 and is not a driver previously stored in the face storage unit 310 If it is determined that the vehicle is stolen, the alarm alarm unit 210 transmits the alarm sound to the second alarm and sends a warning message to the predetermined contact.

일반적으로 졸음 운전을 하는 징후로는 운전자의 고개가 끄덕이고, 눈꺼풀이 닫히며, 하품을 하게 되어 입이 평상 시 보다 크게 개방되고, 신체의 움직임이 없어지게 된다. 따라서 상기 깊이영상 촬영부(320)에서 전술한 특이 징후를 포착하여 운전자의 졸음을 판별할 수 있다. 상기 졸음운전 감지부(200)에서 전술한 징후가 하나라도 포착되는 경우에는 상기 알람 경보부(210)에서 알람음을 지속적으로 송출시키는 것을 특징으로 한다. In general, signs of drowsy driving are the driver's head nodding, the eyelid closing, yawning, the mouth opening larger than usual, and the movement of the body disappearing. Therefore, the depth image capturing unit 320 captures the above-described specific symptoms and can determine the drowsiness of the driver. When the drowsy operation sensing unit 200 detects any one of the above-mentioned indications, the alarm alarm unit 210 continuously transmits an alarm sound.

상기 안면 저장부(310)에는 식별할 인물의 안면 특징들이 깊이 값 형태로 저장되어 있는 것을 특징으로 한다. 이 때 저장될 신체적 특징은 안면의 깊이정보 외에도 눈, 코, 입의 위치와 모양, 얼굴의 너비, 코의 높이, 턱의 외곽정보인 것이 바람직하다. 또한 상기 안면 저장부(310)는 깊이 영상 내 깊이 값이 제일 작은 값이 기준 깊이 값 Dreference를 가지도록 상기 깊이영상 변환부(350)을 이용하여 변환을 적용하여 저장되는 것을 특징으로 한다.The facial features of the person to be identified are stored in the face storage unit 310 in a depth value form. In addition to the depth information of the face, the physical feature to be stored at this time is preferably the position and shape of the eyes, nose, and mouth, the width of the face, the height of the nose, and the outline information of the jaw. Also, the face storage unit 310 may be applied with a transformation using the depth image transform unit 350 so that the smallest depth value in the depth image has a reference depth value D reference .

상기 깊이영상 촬영부(320)를 인물 촬영이 가능한 곳에 설치한 후 인물 촬영을 시작하게 되면 인물의 안면이 도 4와 같이 촬영된다. 이 때 획득된 깊이영상의 특징으로는 코 부위가 상기 깊이영상 촬영부(320)와 제일 지근거리에 위치하므로 깊이 값이 가장 작게 나오게 된다. 또한 안면과 다른 영역의 깊이 값은 큰 차이가 나게 되어 안면부분을 상기 안면 검출부(340)를 이용해 깊이영상 안면부분을 추출할 수 있다. 상기 깊이영상 촬영부(320)를 통해 깊이영상을 촬영 및 획득 시 촬영영상에서 오차가 발생하는 픽셀이 발생할 수도 있다. 이 때 상기 깊이영상 보정부(330)를 이용하여 도 5와 같이 보간을 수행하면 오차가 발생한 픽셀을 보정하게 된다. When the depth image radiographing unit 320 is installed at a position where a person can be photographed and a person is photographed, the face of the person is photographed as shown in FIG. At this time, since the nose portion is located nearest to the depth image radiographing unit 320 as a feature of the obtained depth image, the depth value is the smallest. Also, the depth values of the face and other regions are greatly different, so that the facial portion can be extracted using the face detector 340. A pixel in which an error occurs in the photographed image may be generated when the depth image is photographed and acquired through the depth image radiographing unit 320. [ At this time, interpolation is performed using the depth image correcting unit 330 as shown in FIG. 5 to correct the pixel where the error occurs.

안면인식 과정에서 안경 착용자가 안면인식의 대상이 될 수도 있다. 상기 안경 착용자가 깊이영상 촬영 대상일 경우에 안경렌즈는 유리이기 때문에 깊이 값의 측정에 영향을 미치지 않지만 안경테의 경우에는 깊이 값이 있는 것으로 측정되어 안면 인식 과정에 오차를 유발할 수 있다. 따라서 안경테의 특성은 안면의 평균 깊이보다 그 깊이 값이 작다는 점을 이용하여 안경테를 안면의 영역과 구분할 수 있다. 또한, 안경테의 영역을 도 6과 같이 주변 깊이 값으로 보간함으로써 깊이영상에서 안경테 영역을 제거한 영상을 획득할 수 있다. In the facial recognition process, the wearer of the glasses may be subject to face recognition. In the case where the wearer of the eyeglass is a subject of depth image taking, the eyeglass lens is glass, so it does not affect the measurement of the depth value, but in the case of the eyeglass frame, it is measured that there is depth value, which may cause an error in the face recognition process. Therefore, the spectacle frame can be distinguished from the face area by using the fact that the characteristic of the spectacle frame is smaller than the average depth of the face. Also, by interpolating the area of the spectacle frame with the peripheral depth value as shown in FIG. 6, it is possible to acquire an image in which the spectacle area is removed from the depth image.

상기 안면 검출부(340)에서 깊이 값을 이용하여 안면을 추출하는 과정은 다음과 같다. 상기 깊이영상 촬영부(320)에서 인물을 촬영하고 깊이 값에 따른 라벨링을 통해 영역을 분리하게 된다. 이 때 안면은 상기 깊이영상 촬영부(320)와 지근거리에 있기 때문에 안면 영역의 평균 깊이 값이 가장 작게 나타나게 된다. 이를 이용하여 안면을 다른 신체 부위와도 분리할 수 있고 깊이 값이 낮을수록 밝게 나타나는 깊이영상을 확인할 수 있다. 이 때 안면 부위는 타 부위와 비교하여 깊이 값이 낮은 것을 확인할 수 있으며 이를 통해 안면 부위를 타 영역과 분리 가능하게 된다. The process of extracting the face using the depth value in the face detector 340 is as follows. The person is photographed by the depth image photographing unit 320 and the area is separated through labeling according to the depth value. At this time, since the face is located close to the depth image radiographing unit 320, the average depth value of the face region is the smallest. This can be used to separate the face from other parts of the body, and a depth image that appears brighter as the depth value is lowered. In this case, the depth of the facial region is lower than that of the other region, so that the facial region can be separated from other regions.

상기 깊이영상 촬영부(320)를 통해 인물 촬영 시 항상 정면으로 촬영되지 않을 수도 있으므로 이에 대한 보정이 필요하며 이는 상기 깊이영상 변환부(350)에서 변환을 적용하여 안면을 정렬할 수 있다. Since the depth image radiographing section 320 may not always photograph the person in front of the radiographer, the depth image radiographing section 350 may apply the transform to align the face.

이에 대한 원리를 보다 상세하게 설명하기 위하여 도 7을 참조하면 상기 깊이영상 변환부(350)는 상기 깊이영상 촬영부(320)에서 촬영된 평면에 대한 영상에서 깊이정보를 산출하는 깊이정보 산출부(341); 상기 깊이정보 산출부(341)에서 산출된 깊이정보를 이용하여 각 화소의 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 계산하는 좌표 변환부(342); 상기 좌표 변환부(342)에서 계산된 각 화소의 주변정보를 이용하여 상기 화소의 국소적 법선벡터를 계산하는 국소법선벡터 산출부(343); 상기 국소법선벡터 산출부(343)에서 얻어진 국소적 법선벡터를 이용하여 전체 평면의 법선벡터를 구하는 평면법선벡터 산출부(344); 영상의 회전축과 사이 각을 계산하여 회전행렬을 구하고, 촬영 영상의 깊이 값과 상기 안면 저장부(310)에서의 기준 깊이 값을 이용하여 평행이동 행렬을 구하여 이를 조합하여 변환 행렬을 구하는 변환행렬 계산부(345); 상기 변환 행렬을 이용하여 변환을 적용하여 영상 내의 안면을 상기 안면 저장부(310)와 비교할 수 있게 정렬하는 변환 적용부(346);로 구성되는 것을 특징으로 한다. 7, the depth image transform unit 350 includes a depth information calculator 330 for calculating depth information of an image of a plane photographed by the depth image radiographing unit 320, 341); A coordinate transforming unit 342 for calculating the position of each pixel in the coordinate system of the depth image radiographing unit 320 using the depth information calculated by the depth information calculating unit 341; A local normal vector calculating unit 343 for calculating a local normal vector of the pixel using the peripheral information of each pixel calculated by the coordinate transforming unit 342; A plane normal vector calculating unit 344 for obtaining a normal vector of the entire plane by using the local normal vector obtained by the local normal vector calculating unit 343; A transformation matrix calculation is performed to obtain a translation matrix by obtaining a translation matrix by calculating the rotation axis and an angle between the image and obtaining a translation matrix using the depth value of the image and the reference depth value in the face storage unit 310, A portion 345; And a transformation applying unit (346) applying transformation using the transformation matrix to align the facial image in the image so as to be comparable to the facial expression storage unit (310).

상기 좌표 변환부(342)는 상기 깊이영상 촬영부(320)를 통해 평면을 촬영하여 깊이영상에서의 화소의 위치 P(x, y)와 그 화소에서의 깊이 값인 상기 깊이영상 촬영부(320)를 중심으로 하는 xy평면으로부터의 거리 D(x, y)를 얻고 상기 D(x, y)와 상기 깊이영상 촬영부(320)의 인자를 이용하여 상기 깊이영상 촬영부(320)의 초점을 원점으로 하고 상기 깊이영상 촬영부(320)의 정면 광학축 방향을 z축으로 하는 상기 깊이영상 촬영부(320) 좌표계로 변환하는 것을 특징으로 한다. The coordinate transforming unit 342 photographs a plane through the depth image capturing unit 320 and obtains the position P (x, y) of the pixel in the depth image and the depth image capturing unit 320, (X, y) from the xy plane centered on the depth image radiographing unit 320 and using the factors of the depth image radiographing unit 320 and the D (x, y) And the depth optical image capturing unit 320 has a front optical axis direction as a z-axis.

여기서, 상기 깊이영상 촬영부(320) 좌표계로의 변환은 상기 화소의 위치 P(x, y)는 영상의 왼쪽 상단 모서리를 원점으로 하는 깊이영상 좌표계에서의 위치정보이고 상기 깊이정보 D(x, y)는 상기 깊이영상 촬영부(320) 좌표계 내에서 z축의 거리 zc가 되고 영상 좌표계 내에서의 상기 화소의 위치 P(x, y)를 영상 중앙이 원점이 되는 좌표계 상의 위치정보 Pv(xv, yv)로 변환하는 것을 특징으로 한다. Here, the transformation into the coordinate system of the depth image pickup unit 320 is performed by the position information P (x, y) of the pixel in the depth image coordinate system having the upper left corner of the image as the origin, y) is the position on the coordinate system which the image center is the origin where P (x, y) of the pixels in said depth image taking unit 320, the distance z axis in the coordinate system, z c is the image coordinate system information P v ( x v , y v ).

그리고 상기 좌표 변환부(342)는 각 화소의 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 계산하기 위하여 상기 깊이영상 촬영부(320)의 내부 정보인 시야각과 해상도를 사용하여 영상이 투영되는 뷰포트까지의 거리 f를 상기 깊이영상 촬영부(320)의 수직 시야각 foVv와 상기 깊이영상 촬영부(320)의 수직 해상도 h를 통해 상기 뷰포트까지의 거리 f를 구하거나 수평 시야각 foVh과 상기 깊이영상 촬영부(320)의 수평 해상도 w를 통하여 구하고, 이렇게 구해진 상기 뷰포트까지의 거리 f를 이용하여 상기 깊이영상 촬영부(320) 좌표계에서의 위치 Pc(x, y)=(xc, yc, zc)로 변환하여 상기 깊이영상 촬영부(320) 좌표계에서의 위치정보를 구하는 것을 특징으로 한다.In order to calculate the position of each pixel in the coordinate system of the depth image radiographing section 320, the coordinate transforming section 342 transforms the image using the viewing angle and resolution, which are internal information of the depth image radiographing section 320 The distance f to the viewport is obtained by obtaining the distance f to the viewport through the vertical viewing angle f oVv of the depth image radiographing section 320 and the vertical resolution h of the depth image radiographing section 320 or by calculating the horizontal viewing angle f oVh and the depth imaging obtained by the horizontal resolution w of the unit 320, a position in the thus obtained wherein the depth of the image taking unit 320, using the distance f of the viewport to the coordinate system P c (x, y) = (x c, y c , z c ), and obtains the position information in the coordinate system of the depth image photographing unit 320.

상기 국소법선벡터 산출부(343)는 영상 좌표계에서의 위치 P(x, y)에서의 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 Pc(x, y)라고 한다면 화소의 상하에 위치한 점들의 상기 깊이영상 촬영부(320) 좌표계에서의 위치정보 Pc(x, y+1), Pc(x, y-1)와 좌우에 위치한 점들의 상기 깊이영상 촬영부(320) 좌표계에서의 위치정보 Pc(x+1, y), Pc(x-1, y)를 토대로 두 개의 벡터 v1= Pc(x+1, y)- Pc(x-1, y), v2= Pc(x, y+1)- Pc(x, y-1)를 생성하고 Nxy=v1×v2를 통해 두 벡터의 외적을 구하여 화소 P(x, y)에서의 국소적인 법선벡터 Nxy를 구하는 것을 특징으로 한다.If the position in the coordinate system of the depth image pickup unit 320 at the position P (x, y) in the image coordinate system is P c (x, y), the local normal vector calculator 343 calculates location information in the depth image taking unit 320, the coordinate system of the point P c (x, y + 1 ), P c (x, y-1) and said of a point located on the left and right depth image taking unit 320 in the coordinate system the position information P c (x + 1, y ), P c (x-1, y) two vectors v 1 = P c (x + 1, y) on the basis of - P c (x-1, y), in P c (x, y-1 ) produced and N xy = the v 1 × v pixel P (x, y) is obtained the cross product of two vectors with a 2 - v 2 = P c ( x, y + 1) And a local normal vector N xy is obtained.

상기 평면법선벡터 산출부(344)는 상기 국소법선벡터 산출부(343)에서 구해진 각 화소의 국소적 법선벡터를 더하여 평면영역에서의 법선벡터 N을 구하고 상기 변환 적용부(346)에서 상기 깊이영상 촬영부(320)로 촬영한 영상을 회전변환을 통해 평면의 법선벡터 N을 z축에 평행하게 하여 평면영상을 xy평면에 평행한 영상으로 보정하여 원근왜곡을 제거하는 것을 특징으로 한다. 그리고 회전변환을 거친 후의 평면법선벡터의 단위벡터는 N'(0, 0, 1)이 되는 것을 특징으로 한다. The plane normal vector calculating unit 344 obtains the normal vector N in the plane region by adding the local normal vector of each pixel obtained by the local normal vector calculating unit 343, The image taken by the photographing unit 320 is transformed into a plane parallel to the z-axis by a normal vector N of the plane through rotation transformation, and the plane image is corrected to an image parallel to the xy plane to remove perspective distortion. And the unit vector of the plane normal vector after the rotation transformation is N '(0, 0, 1).

상기 변환행렬 계산부(345)는 평면영역에서의 법선벡터를 N, 회전변환을 거친 후의 평면법선벡터의 단위벡터를 N'이라 하면 회전변환의 축이 되는 단위벡터는 u=(N×N')/(|N×N'|)을 통해 변환 전후의 각각의 법선벡터를 외적하여 정규화한 벡터 u(ux, uy, uz)이고 회전각 θ는 θ=cos-1((NㆍN')/(|N||N'|))를 통하여 구한 두 벡터의 사이각인 것을 특징으로 한다. 그리고 상기 변환행렬 계산부(345)에서 회전변환 행렬 R은 If the unit vector of the plane normal vector after the rotation transformation is N ', the unit vector which is the axis of the rotation transformation is u = (N x N' ) / (| N × N ' |) conversion vector u (u x, u y, u z) to a normalized cross product of each of the normal vectors of the forward and backward through a rotation angle θ is θ = cos -1 ((N and N ') / (| N || N' |)). In the transformation matrix calculator 345, the rotation transformation matrix R

R=cosθI+sinθ[u]+(1-cosθ)uⓧu, R = cos? I + sin? [U] + (1-cos?) U? U,

uⓧu=

Figure pat00001
uⓧu =
Figure pat00001

[u]x=

Figure pat00002
을 통하여 구하고 검출된 안면 영역 내 깊이 값이 제일 작은 값을 Dmin로 두고, 상기 안면 저장부(100)의 Dreference를 이용하여 평행이동 행렬 T1, T2를 [u] x =
Figure pat00002
D min and the parallel movement matrices T 1 and T 2 are calculated using the D reference of the face storage unit 100

T1=

Figure pat00003
, T2=
Figure pat00004
로 두어, 각 화소의 상기 깊이영상 촬영부(200) 좌표계에서의 Pc(i, j)를,T 1 =
Figure pat00003
, T 2 =
Figure pat00004
And P c (i, j) in the coordinate system of the depth image capturing unit 200 of each pixel,

Figure pat00005
=R
Figure pat00006
를 통해 변환을 하여 변환 후의 위치 P'c(i, j)=(x'c, y'c, z'c)를 구하는 것을 특징으로 한다.
Figure pat00005
= R
Figure pat00006
By the conversion through characterized in that to obtain a position P 'c (i, j) = (x' c, y 'c, z' c) after the conversion.

상기 변환 적용부(346)는 영상이 투영되는 뷰포트까지의 거리 f, 회전변환을 하여 구해진 변환 후의 위치 P'c(i, j)=(x'c, y'c, z'c)라 하면, P'은 상기 깊이영상 촬영부(320) 좌표계 상의 좌표이므로 이를 다시 영상좌표로 변환하기 위하여 x'v=(x'cf)/ z'c, y'v=(y'cf)/ z'c를 이용하여 원점이 화면 중심에 존재하는 영상 좌표계에서의 위치 P'v(x'v, y'v)로 변환한 다음 원점을 다시 원래대로 설정하여 보정변환 시 화소 P(x, y)에 사상되는 화소 P'(x', y')를 구하는 것과, 깊이 영상에서의 화소값인 깊이 값을 P'(x', y') 을 z'c 로 변경하여 영상 내의 안면을 상기 안면 저장부(310)와 비교할 수 있게 정렬하는 것을 특징으로 한다.Assuming that distance f, the position after the obtained converted to a rotational transformation P 'c (i, j) = (x' c, y 'c, z' c) of the conversion application unit 346 to the viewport in which an image is projected , P 'is x to convert them because the coordinates on the depth of the image taking unit 320, the coordinate system to image coordinates back' v = (x 'c f ) / z' c, y 'v = (y' c f) / 'position in the image coordinate system by using the c origin is present in the center of the screen P' z v (x, v, y, v) is converted to the next set to the origin, as again the original pixel P (x, interp converted to y ) pixel P '(x' mapped to, y ') to obtain that, the pixel value of the depth value in the depth image P' (x ', y') to z 'to change to c the face to face in the image And is arranged so as to be comparable to the storage unit (310).

도 8을 참조하면 상기 깊이영상 변환부(350)에서 안면 정렬이 되는 실시 흐름은 상기 깊이영상 촬영부(320)에서 촬영된 평면에 대한 영상에서 깊이정보를 산출하는 단계(s341); 산출된 깊이정보를 이용하여 각 화소의 상기 깊이영상 촬영부(200) 좌표계에서의 위치를 계산하는 단계(s342); 계산된 각 화소의 주변 정보를 이용하여 그 화소의 국소적 법선 벡터를 계산하는 단계(s343); 국소적 법선 벡터를 이용하여 전체 평면의 법선 벡터를 구하는 단계(s344); 영상의 회전축과 사이 각을 계산하고, 영상 중앙의 깊이정보와 상기 안면 저장부(310)에서의 기준 깊이 값을 이용하여 변환 행렬을 구하는 단계(s345); 상기 변환 행렬을 이용하여 변환을 적용하는 단계(s346);를 포함하는 것을 특징으로 한다. Referring to FIG. 8, the operation of performing facial image alignment in the depth image transform unit 350 includes calculating depth information in an image of a plane photographed by the depth image photographing unit 320 (S341); Calculating (s342) a position of each pixel in the coordinate system of the depth image capturing unit 200 using the calculated depth information; Calculating (S343) a local normal vector of the pixel using the calculated peripheral information of each pixel; Obtaining a normal vector of the entire plane using a local normal vector (s344); Calculating a rotation axis and an angle between the image and obtaining a transformation matrix using the depth information of the center of the image and the reference depth value in the face storage unit (S345); And applying a transform using the transform matrix (s346).

상기 안면 검출부(340)로 안면을 검출한 후에 상기 안면 저장부(310)에 저장된 안면의 특징의 비교를 하기 위하여 안면의 특징을 상기 안면특징 추출부(360);로 추출하게 된다. 여기서 추출되는 안면의 특징은 안면 윤곽선, 눈/코/입/의 깊이 값과 위치, 턱의 모양, 광대뼈의 높이, 눈썹뼈의 높이, 코의 높이, 얼굴 폭 등이 되는 것이 바람직하다. 먼저 안면의 윤곽선을 추출한 후 눈/코/입을 추출한다. 안면의 깊이 값은 코 부위가 가장 낮고 눈 부위가 상대적으로 크기 때문에 이러한 특징을 이용하여 눈 위치와 코 위치를 검출할 수 있다. 또한 입의 깊이 값은 코의 깊이 값보다 크지만 입이 다른 안면 부위보다는 돌출되어 있기 때문에 상대적으로 깊이 값이 작게 나타날 수 있으므로 이러한 점을 이용하면 눈/코/입에 대한 특징 추출이 가능하다(도 10; 도 11). 전술한 과정에서 검출된 눈/코/입에 대한 윤곽선을 검출하고 상기 눈/코/입 위치의 상대적인 위치를 검출한다. 이 때 안면이 기울어진 상태에서 촬영되면 상기 눈/코/입 위치 변동이 발생할 수 있기 때문에 두 눈의 위치가 수평선에 평행하게 깊이영상을 회전시킨다. 그 후 두 눈의 위치에 대한 중앙점을 기준으로 두 눈의 위치, 코의 위치, 입의 위치를 측정한다(도 12). 또한 코의 높이를 추출할 수 있으며 상기 깊이영상 촬영부(320)를 통해 안면에서 코와 상대적 깊이 크기를 상기 코와 상기 코 주변의 깊이 차를 계산하여 측정할 수도 있다(도 13). 전술한 방법으로 눈 아래의 광대뼈 높이, 눈 위의 눈썹뼈의 높이를 측정하여 안면의 특징으로 활용한다. 그 후에는 턱 부위의 모양을 추출(도 14)하는데 턱은 입술 아래 부위부터 안면 최하부까지의 영역으로 간주하며 이를 통해 외곽선의 모양을 추출한다. 그리고 안면 폭을 측정하는데 상기 안면 폭은 깊이값과 깊이영상에서의 상대적 위치, 상기 깊이영상 촬영부(320) 내부 인자를 통해서 실제 거리를 구할 수가 있으며 이를 통해 실제 안면 폭을 구하여 상기 안면특징 비교부(380)에서 활용할 수 있다(도 15). The facial feature extraction unit 360 extracts features of the facial features in order to compare facial features stored in the facial feature storage unit 310 after the facial feature detection unit 340 detects the facial features. The feature of the face extracted here is preferably the face contour, the depth and position of the eye / nose / mouth /, the shape of the jaw, the height of the cheekbone, the height of the eyebrow bone, the height of the nose, and the face width. First extract the contours of the face and then extract the eyes / nose / mouth. The depth value of the face can be detected by using this feature because the nose region is the lowest and the eye region is relatively large. In addition, although the depth value of the mouth is larger than the depth value of the nose, since the mouth is protruded rather than the other facial parts, the depth value may be relatively small, so that feature extraction for eyes / nose / mouth is possible using this point 10; Fig. 11). Detects the detected eye / nose / mouth contour in the above process and detects the relative position of the eye / nose / mouth position. At this time, if the face is tilted, the eye / nose / mouth position fluctuation may occur, so that the position of the two eyes rotates the depth image parallel to the horizontal line. Then, the position of the two eyes, the position of the nose, and the position of the mouth are measured based on the center point of the positions of the two eyes (FIG. 12). Also, the height of the nose can be extracted, and the depth difference between the nose and the nose can be measured by measuring the nose and relative depth from the face through the depth image capturing unit 320 (FIG. 13). The height of the cheekbone below the eye and the height of the eyebrow bone above the eye are measured in the manner described above, and utilized as a feature of the face. After that, the shape of the jaw area is extracted (FIG. 14), and the jaw is regarded as the area from the area below the lip to the bottom of the face, thereby extracting the shape of the outline. The face width is measured by measuring the face width, the actual distance can be obtained through the depth value, the relative position in the depth image, and the internal factor of the depth image photographing unit 320, (FIG. 15).

이렇게 인물을 특정할 수 있는 안면 특징을 추출하면 상기 안면 저장부(310)에 저장된 각 인물의 특징 데이터를 상기 안면특징 비교부(370)에서 비교 작업을 수행하여 비교 결과가 일정 유사도 이하일 경우에는 상기 인물 일치 판정부(380)에서 특정 인물이 아닌 것으로 판단하는 것을 특징으로 한다. 또한 상기 안면특징 비교부(370)에서 비교 작업을 수행하여 모든 특징이 일치하는 것으로 확인되면 상기 인물일치 판정부(380)에서 특정 인물이라고 판단하는 것을 특징으로 한다. If facial features that can specify a person are extracted, the facial feature comparing unit 370 performs a comparison operation on the feature data of the respective persons stored in the facial storing unit 310. If the comparison result is less than or equal to a certain degree of similarity, The personality coincidence judgment unit 380 judges that the person is not a specific person. Also, when the facial feature comparing unit 370 performs a comparison operation to confirm that all the features coincide with each other, the facial feature comparing unit 380 determines that the user is a specific person.

이상 본 발명의 실시예에 따른 도면을 참조하여 설명하였지만, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면 상기 내용을 바탕으로 본 발명의 범주 내에서 다양한 응용, 변형 및 개작을 행하는 것이 가능할 것이다. 이에, 본 발명의 진정한 보호 범위는 첨부된 청구 범위에 의해서만 정해져야 할 것이다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, will be. Accordingly, the true scope of the present invention should be determined only by the appended claims.

Claims (4)

자동차 운전 환경 설정을 수행하는 자동차환경 설정부(100); 기 인식된 운전자의 평상 시 안면 특징에 대한 깊이 값 변화 발생 시 유사 상황으로 판단하는 알고리즘이 내재된 졸음운전 감지부(200); 깊이정보 기반의 안면 인식부(300);로 구성되고,
상기 안면 인식부(300)는 안면특징 깊이정보 저장용 안면 저장부(310); 안면깊이영상 촬영용 깊이영상 촬영부(320); 깊이값 오차보정용 깊이영상 보정부(330); 깊이영상 안면부분 추출용 안면검출부(340); 영상회전 신축 변환 및 영상촬영거리에 따른 안면영상 신축 및 안면 정렬용 깊이영상 변환부(350); 깊이영상 안면특징 추출용 안면특징 추출부(360); 상기 안면 저장부(310)에 저장된 데이터와 비교하는 안면특징 비교부(370); 저장된 데이터와의 비교결과에서 인물 일치도를 판정하는 인물 일치 판정부(380);로 구성되며,
상기 깊이영상 변환부(350)는 상기 깊이영상 촬영부(320)에서 촬영된 평면에 대한 영상에서 깊이정보를 산출하는 깊이정보 산출부(341); 상기 깊이정보 산출부(341)에서 산출된 깊이정보를 이용하여 각 화소의 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 계산하는 좌표 변환부(342); 상기 좌표 변환부(342)에서 계산된 각 화소의 주변정보를 이용하여 상기 화소의 국소적 법선벡터를 계산하는 국소법선벡터 산출부(343); 상기 국소법선벡터 산출부(343)에서 얻어진 국소적 법선벡터를 이용하여 전체 평면의 법선벡터를 구하는 평면법선벡터 산출부(344); 영상의 회전축과 사이 각을 계산하여 회전행렬을 구하고, 촬영 영상의 깊이 값과 상기 안면 저장부(310)에서의 기준 깊이 값을 이용하여 평행이동 행렬을 구하여 이를 조합하여 변환 행렬을 구하는 변환행렬 계산부(345); 상기 변환 행렬을 이용하여 변환을 적용하여 영상 내의 안면을 상기 안면 저장부(310)와 비교할 수 있게 정렬하는 변환 적용부(346);로 구성되는 것을 특징으로 하는 영상의 깊이정보를 이용하는 자동차제어시스템의 제어방법에 있어서,
자동차 운전환경을 설정하는 자동차 환경설정 단계;
영상의 깊이정보를 이용하여 운전자의 안면을 인식하는 단계;
상기 운전자의 안면에 대한 이전 영상과 현재 운전자의 안면 영상의 깊이 값이 변화할 경우 졸음운전으로 판단하는 단계;
상기 졸음운전으로 판단하는 경우, 알람음과 같은 위험 경보를 전파하기 위한 알람 경보부(210)를 포함하고 상기 졸음운전에 대한 판단 요소에는 안면이 불규칙하게 움직이는 동작, 눈꺼풀의 닫힘, 하품을 하는 입에 대한 깊이 값이 변화되는 것을 감지하며,
상기 안면을 인식하는 단계는
안면깊이영상 촬영용 깊이영상 촬영하는 단계;
깊이값 오차보정용 깊이영상 보정하는 단계;
깊이영상 안면부분 추출용 안면을 검출하는 단계;
영상회전 신축 변환 및 영상촬영거리에 따른 안면영상 신축 및 안면 정렬용 깊이영상을 변환하는 단계;
깊이영상 안면특징 추출용 안면특징을 추출하는 단계;
상기 안면 저장부(310)에 저장된 데이터와 비교하는 안면특징을 비교하는 단계;
저장된 데이터와의 비교결과에서 인물 일치도를 판정하는 인물 일치여부를 판정하는 단계로 구성되며,
상기 깊이영상을 변환하는 단계는
상기 깊이영상 촬영단계에서 촬영된 평면에 대한 영상에서 깊이정보를 산출하는 깊이정보 산출하는 단계; 상기 깊이정보 산출 단계에서 산출된 깊이정보를 이용하여 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 계산하는 좌표 변환단계;
상기 좌표 변환단계에서 계산된 각 화소의 주변정보를 이용하여 상기 화소의 국소적 법선벡터를 계산하는 국소법선벡터를 산출하는 단계;
상기 국소법선벡터 산출단계에서 얻어진 국소적 법선벡터를 이용하여 전체 평면의 법선벡터를 구하는 평면법선벡터 산출단계; 깊이영상의 회전축과 사이 각을 계산하여 회전행렬을 구하는 변환행렬을 계산하는 단계; 상기 변환행렬을 이용하여 변환을 적용하는 변환 적용하는 단계로 구성되고,
상기 안면 인식부(300)에서 운전자 안면을 인식하는데 실패했을 때에는 상기 알람 경고부(210)에서 재촬영을 요구하는 알람음이 1차 송출되고 상기 안면 저장부(310)에 기 저장된 운전자가 아닌 것으로 확인되었을 때에는 자동차 도난 상황으로 간주하여 상기 알람 경고부(210)에서 알람음이 2차 송출되는 동시에 기 설정된 연락처로 경고 메시지를 발송하며,
안경 착용자가 깊이영상 촬영 대상일 경우에 안경테의 특성은 안면의 평균 깊이보다 그 깊이 값이 작다는 점을 이용하여 안경테를 안면의 영역과 구분할 수 있고, 또한, 안경테의 영역을 주변 깊이 값으로 보간함으로써 깊이영상에서 안경테 영역을 제거한 영상을 획득할 수 있는 것을 특징으로 하는 영상의 깊이정보를 이용하는 자동차제어시스템의 제어방법.
A car environment setting unit (100) for performing a car driving environment setting; A drowsy operation sensing unit 200 having an algorithm for determining a similar situation when a depth value change of a recognized facial feature of a driver is detected; And a depth information-based facial recognition unit 300,
The face recognition unit 300 includes a face storage unit 310 for storing face feature depth information; Depth image capturing unit 320 for depth-of-field image capturing; A depth image correction unit 330 for depth value error correction; A facial image detector 340 for extracting a facial image portion; A depth image converting unit 350 for facial image stretching and face matching according to the image rotation / contraction transformation and the image capturing distance; A facial feature extraction unit 360 for extracting a depth image facial feature; A facial feature comparing unit 370 for comparing the data stored in the facial storing unit 310 with data stored in the facial storing unit 310; And a person match determining unit (380) for determining a person match degree in a result of comparison with the stored data,
The depth image converting unit 350 includes a depth information calculating unit 341 for calculating depth information on an image of a plane photographed by the depth image photographing unit 320; A coordinate transforming unit 342 for calculating the position of each pixel in the coordinate system of the depth image radiographing unit 320 using the depth information calculated by the depth information calculating unit 341; A local normal vector calculating unit 343 for calculating a local normal vector of the pixel using the peripheral information of each pixel calculated by the coordinate transforming unit 342; A plane normal vector calculating unit 344 for obtaining a normal vector of the entire plane by using the local normal vector obtained by the local normal vector calculating unit 343; A transformation matrix calculation is performed to obtain a translation matrix by obtaining a translation matrix by calculating the rotation axis and an angle between the image and obtaining a translation matrix using the depth value of the image and the reference depth value in the face storage unit 310, A portion 345; And a transformation applying unit (346) applying transformation using the transformation matrix to align the face in the image so as to be comparable to the face storage unit (310). The control method comprising:
A car environment setting step of setting a car driving environment;
Recognizing the driver's face using depth information of the image;
Determining a drowsy operation when a depth value of a previous image of the driver's face and a face image of the current driver are changed;
And an alarm alarm unit 210 for transmitting a danger alarm such as an alarm sound when it is determined that the drowsy driving operation is performed. The determining element for the drowsy operation includes an irregular movement of the face, an eyelid closure, And detects a change in the depth value of the object,
The step of recognizing the face
A step of photographing a depth image for depth-of-field imaging;
Correcting the depth value for the depth value error correction;
Detecting a face for extracting a depth image face portion;
Converting a depth image for facial image stretching and facial alignment according to image rotation stretching conversion and image capturing distance;
Extracting facial features for facial feature extraction;
Comparing facial features to be compared with data stored in the facial storage 310;
And judging whether or not the person matches with the stored data in order to determine the person's degree of consistency,
The step of transforming the depth image
Calculating depth information for calculating depth information on an image of a plane photographed in the depth image photographing step; A coordinate transforming step of calculating a position in the coordinate system of the depth image photographing unit 320 using the depth information calculated in the depth information calculating step;
Calculating a local normal vector for calculating a local normal vector of the pixel using the peripheral information of each pixel calculated in the coordinate transformation step;
A plane normal vector calculating step of obtaining a normal vector of the entire plane by using the local normal vector obtained in the local normal vector calculating step; Calculating a transformation matrix for calculating a rotation matrix by calculating an angle between the rotation axis and the depth of the depth image; Applying a transformation to apply a transform using the transform matrix,
When the facial recognition unit 300 fails to recognize the driver's face, an alarm sound requesting re-photographing is firstly transmitted from the alarm alerting unit 210 and is not a driver previously stored in the face storage unit 310 If it is determined that the vehicle is stolen, the alarm alarm unit 210 transmits the alarm sound to the second alarm alarm unit 210,
The spectacle frame can be distinguished from the face area by using the fact that the spectacle wearer has a depth value smaller than the average depth of the face in the case of the depth image taking subject, Wherein the depth information is obtained by removing an eyeglass area from the depth image.
제 1 항에 있어서,
상기 좌표 변환하는 단계는 상기 깊이영상 촬영부(320)를 통해 평면을 촬영하여 깊이영상에서의 화소 위치 P(x, y)와 상기 P(x, y)에서의 깊이 값인 D(x, y)를 얻고 상기 깊이영상 촬영부(320)의 초점을 원점으로 하여 상기 깊이영상 촬영부(320)의 정면 광학축 방향을 z축으로 하는 상기 깊이영상 촬영부(320) 좌표계로 변환하고,
상기 국소법선벡터 산출부(343)는 상기 깊이영상 촬영부(320) 좌표계에서의 위치정보 Pc(x, y+1), Pc(x, y-1)와 좌우에 위치한 점들의 상기 깊이영상 촬영부(320) 좌표계에서의 위치정보 Pc(x+1, y), Pc(x-1, y)를 토대로 두 개의 벡터 v1= Pc(x+1, y)- Pc(x-1, y), v2= Pc(x, y+1)- Pc(x, y-1)를 생성하고 Nxy=v1×v2의 관계를 통해 두 벡터의 외적을 구하여 상기 P(x, y)에서의 국소적인 법선벡터 Nxy를 구하며,
상기 평면법선벡터 산출부(344)는 상기 국소법선벡터 산출부(343)에서 구해진 각 화소의 국소적 법선벡터를 더하여 평면영역에서의 법선벡터 N을 구하고 상기 변환 적용부(346)에서 상기 깊이영상 촬영부(320)로 촬영한 영상을 회전변환을 통해 평면의 상기 법선벡터 N을 z축에 평행하게 하고 평면영상을 xy평면에 평행한 영상으로 보정하여 원근왜곡을 제거하는 것을 특징으로 하는 영상의 깊이정보를 이용하는 자동차제어시스템의 제어방법.
The method according to claim 1,
(X, y) in the depth image and a depth value D (x, y) in the depth P (x, y) by photographing a plane through the depth image photographing unit 320. [ And converts the depth image radiographing unit 320 into a coordinate system of the depth image radiographing unit 320 with the focus of the depth image radiographing unit 320 as the origin and the direction of the front optical axis of the depth image radiographing unit 320 as the z axis,
The local normal vector calculating unit 343 calculates the local normal vector of each of the depth information P c (x, y + 1) and P c (x, y-1) in the coordinate system of the depth image photographing unit 320, image taking unit 320, position information of the coordinate system P c (x + 1, y ), P c (x-1, y) for, based on two vectors v 1 = P c (x + 1, y) - P c (x-1, y), v 2 = P c (x, y + 1) - a P c (x, y-1 ) generate and N xy = v cross product of two vectors by the relationship 1 × v 2 To obtain a local normal vector N xy at P (x, y)
The plane normal vector calculating unit 344 obtains the normal vector N in the plane region by adding the local normal vector of each pixel obtained by the local normal vector calculating unit 343, The image captured by the photographing unit 320 is subjected to rotational transformation to make the normal vector N of the plane parallel to the z axis and the plane image to be parallel to the xy plane to remove the perspective distortion. A method for controlling a vehicle control system using depth information.
제 1 항에 있어서,
깊이영상 변환부(350)에서 안면 정렬 방법은,
깊이영상 촬영부(320)에서 촬영된 평면에 대한 영상에서 깊이정보를 산출하는 단계(s341);
산출된 깊이정보를 이용하여 각 화소의 상기 깊이영상 촬영부(320) 좌표계에서의 위치를 계산하는 단계(s342);
계산된 각 화소의 주변 정보를 이용하여 그 화소의 국소적 법선 벡터를 계산하는 단계(s343);
국소적 법선 벡터를 이용하여 전체 평면의 법선 벡터를 구하는 단계(s344);
영상의 회전축과 사이 각을 계산하여 회전 행렬을 구하는 단계(s345);
회전 변환을 적용하여 상기 깊이영상 촬영부(320)의 위치에 따른 영상의 왜곡을 보정하는 단계(s346);를 포함하는 것을 특징으로 하는 영상의 깊이정보를 이용하는 자동차제어시스템의 제어방법.
The method according to claim 1,
In the depth image converting unit 350,
Calculating depth information from the image of the plane photographed by the depth image photographing unit 320 (s341);
Calculating (s342) a position of each pixel in the coordinate system of the depth image photographing unit 320 using the calculated depth information;
Calculating (S343) a local normal vector of the pixel using the calculated peripheral information of each pixel;
Obtaining a normal vector of the entire plane using a local normal vector (s344);
Calculating a rotation matrix by calculating an angle between the rotation axis of the image and the angle (s345);
And correcting the distortion of the image according to the position of the depth image radiographing section (320) by applying rotation transformation (S346).
제 1 항에 있어서,
상기 안면을 검출하는 단계는 깊이 값을 이용한 안면 검출 시 깊이영상 촬영부(320)에서 인물을 촬영하고 깊이 값에 따른 라벨링을 통해 영역을 분리하게 되며 상기 안면은 상기 깊이영상 촬영부(320)와 지근거리에 위치한 것에 기인한 평균 깊이 값 차이로 인하여 상기 안면에 대해서만 분리 가능하고,
안면 검출부(340)로 안면 검출 후 안면 저장부(310)에 저장된 안면의 특징을 비교하기 위하여 안면특징 추출부(360);로 추출하고 여기서 추출되는 안면의 특징은 안면 윤곽선, 눈/코/입의 깊이 값과 위치, 턱의 모양, 광대뼈의 높이, 눈썹뼈의 높이, 코의 높이, 얼굴 폭이 되는 것을 특징으로 하며,
상기 안면 저장부(310)에 저장된 각 인물의 특징 데이터를 안면특징 비교부(370)에서 비교 작업을 수행하여 비교 결과가 일정 유사도 이하일 경우에는 인물 일치 판정부(380)에서 특정 인물이 아닌 것으로 판단하고, 상기 안면특징 비교부(370)에서 비교 작업을 수행하여 모든 특징이 일치하는 것으로 확인되면 상기 인물일치 판정부(380)에서 특정 인물이라고 판단하는 것을 특징으로 하는 영상의 깊이정보를 이용하는 자동차제어시스템의 제어방법.
The method according to claim 1,
In the detecting the face, the person is photographed by the depth image photographing unit 320 in the face detection using the depth value, and the area is separated by labeling according to the depth value. The face is detected by the depth image photographing unit 320 Because of the difference in the average depth value due to the close proximity to the face,
The facial feature extraction unit 360 extracts facial features extracted from the facial features stored in the facial storage unit 310 after facial detection by the facial detection unit 340. The characteristics of the extracted facial features include a facial contour, The shape of the jaw, the height of the cheekbone, the height of the eyebrow bone, the height of the nose, and the face width,
The feature data of each person stored in the face storage unit 310 is compared in the facial feature comparison unit 370. If the comparison result is less than or equal to a certain degree of similarity, the personality matching determination unit 380 determines that the person is not a specific person And the facial feature comparing unit 370 performs a comparison operation. If it is determined that all features match, the personality determining unit 380 determines that the person is a specific person. Method of controlling the system.
KR1020170087017A 2017-07-10 2017-07-10 Integrated Control method for Vehicle Drive using Depth Information based Face Recognition KR101775874B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170087017A KR101775874B1 (en) 2017-07-10 2017-07-10 Integrated Control method for Vehicle Drive using Depth Information based Face Recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170087017A KR101775874B1 (en) 2017-07-10 2017-07-10 Integrated Control method for Vehicle Drive using Depth Information based Face Recognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150191370 Division 2015-12-31

Publications (2)

Publication Number Publication Date
KR20170088315A true KR20170088315A (en) 2017-08-01
KR101775874B1 KR101775874B1 (en) 2017-09-19

Family

ID=59650388

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170087017A KR101775874B1 (en) 2017-07-10 2017-07-10 Integrated Control method for Vehicle Drive using Depth Information based Face Recognition

Country Status (1)

Country Link
KR (1) KR101775874B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102074519B1 (en) * 2018-10-05 2020-02-06 엔컴주식회사 METHOD AND DEVICE OF DETECTING DROWSINESS USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR20210090012A (en) * 2020-01-09 2021-07-19 엘지전자 주식회사 Display device for vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463143B1 (en) * 2020-06-15 2022-11-04 세종대학교산학협력단 Drowsy driver detection method and apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336139B1 (en) * 2012-06-11 2013-12-05 동의대학교 산학협력단 System and method for motion estimating using depth camera
KR101386823B1 (en) * 2013-10-29 2014-04-17 김재철 2 level drowsy driving prevention apparatus through motion, face, eye,and mouth recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102074519B1 (en) * 2018-10-05 2020-02-06 엔컴주식회사 METHOD AND DEVICE OF DETECTING DROWSINESS USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
KR20210090012A (en) * 2020-01-09 2021-07-19 엘지전자 주식회사 Display device for vehicle

Also Published As

Publication number Publication date
KR101775874B1 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
US6714665B1 (en) Fully automated iris recognition system utilizing wide and narrow fields of view
KR101821144B1 (en) Access Control System using Depth Information based Face Recognition
KR101818984B1 (en) Face Recognition System using Depth Information
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP3488382A1 (en) Method and system for monitoring the status of the driver of a vehicle
EP1650711A1 (en) Image processing device, imaging device, image processing method
JP4774818B2 (en) Image processing apparatus and image processing method
EP1703480B1 (en) System and method to determine awareness
EP0865637A1 (en) Wide field of view/narrow field of view recognition system and method
JP2006260583A (en) Automated, non-invasive iris recognition system and method
JP2003015816A (en) Face/visual line recognizing device using stereo camera
JP2003150942A (en) Eye position tracing method
KR101775874B1 (en) Integrated Control method for Vehicle Drive using Depth Information based Face Recognition
US11544966B2 (en) Image acquisition system for off-axis eye images
Tsalakanidou et al. Real-time acquisition of depth and color images using structured light and its application to 3D face recognition
KR20170092533A (en) A face pose rectification method and apparatus
JP4507679B2 (en) Image recognition apparatus, image extraction apparatus, image extraction method, and program
US20090213241A1 (en) Image processing apparatus, image processing method, and recording medium
KR101053253B1 (en) Apparatus and method for face recognition using 3D information
JP2002366958A (en) Method and device for recognizing image
Hanna et al. A System for Non-Intrusive Human Iris Acquisition and Identification.
WO2020263277A1 (en) Landmark temporal smoothing
KR101711307B1 (en) Portable and Computer Equipment Unlock System using Depth Face Recognition
KR101818992B1 (en) COSMETIC SURGERY method USING DEPTH FACE RECOGNITION

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right