KR101875966B1 - A missing point restoration method in face recognition for vehicle occupant - Google Patents

A missing point restoration method in face recognition for vehicle occupant Download PDF

Info

Publication number
KR101875966B1
KR101875966B1 KR1020120136880A KR20120136880A KR101875966B1 KR 101875966 B1 KR101875966 B1 KR 101875966B1 KR 1020120136880 A KR1020120136880 A KR 1020120136880A KR 20120136880 A KR20120136880 A KR 20120136880A KR 101875966 B1 KR101875966 B1 KR 101875966B1
Authority
KR
South Korea
Prior art keywords
information
feature point
lost
points
feature
Prior art date
Application number
KR1020120136880A
Other languages
Korean (ko)
Other versions
KR20140069529A (en
Inventor
석동희
노희진
이석범
박성민
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020120136880A priority Critical patent/KR101875966B1/en
Publication of KR20140069529A publication Critical patent/KR20140069529A/en
Application granted granted Critical
Publication of KR101875966B1 publication Critical patent/KR101875966B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량 탑승자의 얼굴을 인식하는 과정에서 일부 특징점이 유실된 경우, 유실된 특징점을 복원하는 방법에 관한 것으로, 카메라에 의해 촬영된 영상신호로부터 탑승자 얼굴에 대한 하나 이상의 특징점을 추출해내는 특징점 추출단계와; 추출된 특징점들 간의 거리 비율을 산출하는 거리비율 정보 산출단계; 이 거리비율 정보 산출단계에서 산출된 정보 가운데 유효한 정보를 메모리에 지속적으로 업데이트시켜 저장 관리하는 특징점 정보 저장관리 단계; 상기 거리비율 정보 산출단계에서 산출된 정보를 상기 메모리에 저장된 정보와 비교하여, 그 비교결과를 근거로 상기 특징점 추출단계에서 추출된 특징점 정보에 일부 유실된(missing) 오류가 있는지를 확인하는 유실된 특징점 확인단계; 확인 결과, 유실된 특징점 정보가 확인되면, 상기 메모리로부터 유실된 특징점과 그 연계된 특징점(linked point)간의 거리비율 정보를 독출하여, 이 독출된 정보를 근거로 상기 연계된 특징점들의 위치로부터 유실된 특징점의 위치 정보를 산출해내는 유실된 특징점 추정단계; 및 산출된 특징점 위치 정보를 근거로 유실된 특징점을 포함한 일련의 특징점 정보를 복원하는 특징점 복원단계를 포함하여 구성된 프로세스를 수행하는 것을 특징으로 한다.
상기한 구성으로 된 본 발명에 의하면, 유실된 특징점의 복원에 소요되는 시간을 단축하고 연산량을 줄여 프로세서의 로드(load)를 낮출 수 있는 효과가 있다.
The present invention relates to a method for restoring missing feature points in the case where some feature points are lost in the process of recognizing a face of a vehicle occupant, and more particularly, to a feature point extraction method for extracting one or more feature points for an occupant's face from an image signal captured by a camera ; A distance ratio information calculation step of calculating a distance ratio between the extracted minutiae points; A minutia information storing and managing step of continuously storing and managing valid information among the information calculated in the distance ratio information calculating step in a memory; Comparing the information calculated in the distance ratio information calculation step with the information stored in the memory and checking whether there is a missing error in the minutia information extracted in the minutiae point extraction step based on the comparison result, Minutiae identification step; As a result of checking, if the lost feature point information is confirmed, the distance ratio information between the lost feature points and the associated linked points is read from the memory, and based on the read out information, A lost feature point estimation step of calculating position information of feature points; And a feature point reconstruction step of reconstructing a set of feature point information including feature points lost based on the calculated feature point position information.
According to the present invention configured as described above, it is possible to shorten the time required for reconstructing lost minutia points, reduce the amount of computation, and reduce the load of the processor.

Description

차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법{A MISSING POINT RESTORATION METHOD IN FACE RECOGNITION FOR VEHICLE OCCUPANT}TECHNICAL FIELD [0001] The present invention relates to a method for restoring missing feature points in a vehicle occupant's face tracking process,

본 발명은 차량 내 탑승자의 안면 인식에 관한 것으로, 특히 탑승자 안면 인식을 위한 특징점 추출 과정에서 탑승자의 얼굴이 장애물에 가려지는 등의 이유로 특징점의 일부가 추출되지 않거나 오차가 발생하는 경우, 오류가 발생된 특징점과 연계된 관련 특징점(linked point)간의 거리 비율을 근거로 상기 추출되지 않은 특징점 정보를 복원해 내는 기술에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to face recognition of an occupant in a vehicle, and in particular, when a part of a minutiae is not extracted or an error occurs due to an obstacle such as a passenger's face being obstructed And extracting the extracted minutia information based on a ratio of distance between related minutiae and linked minutiae points.

최근 개발된 차량 기술 가운데는 차량의 시스템이 운전자의 얼굴을 자동으로 인식하여 운전자가 자주 운행하는 경로로 네비게이션의 목적지를 안내하거나 운전석의 시트를 운전자의 신체 조건에 맞게 자동 조절하는 등, 운전자의 안면 인식에 따른 운행 보조 기능 또는 편의기능이 여러 형태로 제공되고 있다. 또한, 그 밖의 다양한 안전 보조 기능 또는 편의기능을 위해, 차량은 운전자의 시선이 운전중에 어디를 주시하고 있는지를 지속적으로 모니터링 할 필요도 있는데, 이를 위해 차량의 시스템은 카메라에 의해 촬상된 이미지로부터 운전자의 얼굴로부터 눈, 코, 입 등 다수의 특징점을 추출하고 추출된 특징점을 통해 운전자의 안면을 지속적으로 추적하는 프로세스를 수행하게 된다.Among the recently developed vehicle technologies, the vehicle system automatically recognizes the driver's face, guides the destination of the navigation to the route frequently operated by the driver, automatically adjusts the seat of the driver's seat to the driver's physical condition, There are various forms of assistant functions or convenience functions according to recognition. In addition, for various other safety assist functions or convenience functions, the vehicle also needs to constantly monitor where the driver's gaze is watching during driving, The user extracts a plurality of feature points such as eyes, nose, and mouth from the face of the user and performs a process of continuously tracking the driver's face through the extracted feature points.

한편, 이와 같은 운전자 확인을 위한 특징점 추출 과정 또는 안면 추적을 위한 특징점 추출 과정에서, 운전자의 얼굴 일부가 장애물에 의해 가려지거나 강한 광선이 갑작스럽게 유입되는 등의 이유로 차량의 시스템이 운전자 얼굴로부터 특징점을 추출하는 것에 실패하게 되면, 운전자에게 제공되어야 할 기능이 원활하게 제공되지 못하게 되어 운전자가 불편을 느끼게 될 수 있으며, 운행 보조장치에 제공되는 안면 인식 정보에 장애가 발생하는 경우, 사고 발생의 우려도 있게 된다.On the other hand, in the feature point extracting process for identifying the driver or the feature point extracting process for facial tracking, the system of the vehicle detects a feature point from the driver's face for reasons such as a part of the driver's face is blocked by an obstacle, If the extraction fails, the driver should not be provided with the functions to be provided smoothly, which may cause the driver to feel uncomfortable. In addition, if the obstacle occurs in the facial recognition information provided to the driving assistance device, do.

한편, 기본적인 안면 추적 기술은 ①안면 검출 ②특징점 검출 ③안면 추적의 3단계에 걸쳐 진행되는데, 종래의 기술에 있어서는 운전자 안면 추적 과정에서 오류가 발생한 경우, 처음의 안면 검출 단계로 되돌아가 처음부터 단계별로 다시 진행하도록 되어 있어서 복원하기까지 비교적 오랜 시간이 소요되는 단점이 있었다.Meanwhile, the basic facial tracking technique is performed in three stages of (1) facial detection, (2) feature point detection, and (3) facial tracking. In the conventional technique, when an error occurs in the driver's face tracking process, So that it takes a relatively long time to recover it.

또한, 종래에는 안면 추적 프로세스에 optical Flow/Lucas-Kanade 이론이 주로 사용되었는데, 이는 안면 추적시 추적 대상물의 속도와 방향을 기반으로 설계된 알고리즘을 사용하도록 되어 있어서, 유실된 특징점(missing point)을 빠르고 정확하게 도출해내기가 어려운 단점이 있었으며, 보다 근본적으로 통상적인 안면 인식을 위한 특징점 추출 프로세스에 있어서도 특징점의 간 거리를 근거로 유실된 특징점을 추정해내는 기존의 방식은 운전자의 얼굴과 카메라 사이의 거리에 따라 달라질 수 있게 되므로 그 정확도에 있어서 정밀하지 못한 문제가 있었다.In the past, the optical flow / Lucas-Kanade theory was mainly used in the facial tracking process because it is designed to use a designed algorithm based on the speed and direction of the tracked object during facial tracking, The conventional method of estimating lost feature points based on the distance between feature points is more effective in reducing the distance between the face of the driver and the camera So that there is an inexact problem in the accuracy thereof.

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 차량 탑승자의 안면 인식을 위한 특징점 추출 과정에서 특징점의 일부가 추출되지 않거나 오차가 발생한 경우, 연계된 특징점(linked point)간의 거리 비율을 근거로 추출되지 않은 특징점 정보를 복원해 냄으로써 특징점 유실(MISSING)시에도 탑승자 안면 인식을 정확하고 효율적으로 수행할 수 있도록 된 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법을 제공함에 목적이 있다.The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a method and system for extracting a feature point from a feature point extraction process for recognizing a face of a vehicle occupant, And a method of reconstructing lost feature points in a face tracking process of a vehicle occupant in which face recognition of a passenger can be accurately and efficiently performed even when a feature point is lost.

상기 목적을 실현하기 위한 본 발명에 따른 유실된 특징점 복원 방법은 카메라와 하나 이상의 프로세서를 이용하여 차량 탑승자의 얼굴을 인식하는 탑승자 안면 인식 방법에 있어서, 상기 프로세서는 카메라에 의해 촬영된 영상신호로부터 탑승자 얼굴에 대한 하나 이상의 특징점을 추출해내는 특징점 추출단계와; 추출된 특징점들 간의 거리 비율을 산출하는 거리비율 정보 산출단계; 이 거리비율 정보 산출단계에서 산출된 정보 가운데 유효한 정보를 메모리에 지속적으로 업데이트시켜 저장 관리하는 특징점 정보 저장관리 단계; 상기 거리비율 정보 산출단계에서 산출된 정보를 상기 메모리에 저장된 정보와 비교하여, 그 비교결과를 근거로 상기 특징점 추출단계에서 추출된 특징점 정보에 일부 유실된(missing) 오류가 있는지를 확인하는 유실된 특징점 확인단계; 확인 결과, 유실된 특징점 정보가 확인되면, 상기 메모리로부터 유실된 특징점과 그 연계된 특징점(linked point)간의 거리비율 정보를 독출하여, 이 독출된 정보를 근거로 상기 연계된 특징점들의 위치로부터 유실된 특징점의 위치 정보를 산출해내는 유실된 특징점 추정단계; 및 산출된 특징점 위치 정보를 근거로 유실된 특징점을 포함한 일련의 특징점 정보를 복원하는 특징점 복원단계를 포함하여 구성된 프로세스를 수행하는 것을 특징으로 한다.In order to achieve the above object, a lost feature point restoration method according to the present invention is a restraining face recognition method for recognizing a face of a vehicle occupant using a camera and at least one processor, A feature point extracting step of extracting at least one feature point with respect to a face; A distance ratio information calculation step of calculating a distance ratio between the extracted minutiae points; A minutia information storing and managing step of continuously storing and managing valid information among the information calculated in the distance ratio information calculating step in a memory; Comparing the information calculated in the distance ratio information calculation step with the information stored in the memory and checking whether there is a missing error in the minutia information extracted in the minutiae point extraction step based on the comparison result, Minutiae identification step; As a result of checking, if the lost feature point information is confirmed, the distance ratio information between the lost feature points and the associated linked points is read from the memory, and based on the read out information, A lost feature point estimation step of calculating position information of feature points; And a feature point reconstruction step of reconstructing a set of feature point information including feature points lost based on the calculated feature point position information.

또한, 본 발명에 따른 유실된 특징점 복원 방법은 상기 유실된 특징점 추정단계는 상기 메모리로부터 독출된 특징점간 거리비율 정보에 따라 상기 연계된 특징점들로부터 그 거리의 비율만큼 떨어진 점들을 상기 거리의 비율을 반지름으로 하는 원(圓)을 작도하는 방법으로 선별해내고, 작도된 원의 교점 가운데 해당 특징점이 유실되기 이전에 확인된 위치와 가까운 교점의 위치정보를 유실된 특징점의 위치 정보로 추정하도록 된 것을 특징으로 한다.According to another aspect of the present invention, there is provided a lost feature point restoration method, wherein the lost feature point estimation step comprises: calculating a ratio of the distance from the associated feature points by a ratio of the distance from the associated feature points, And the position information of the intersection close to the position confirmed before the corresponding feature point is lost in the intersection of the formed circle is estimated as the position information of the lost feature point .

본 발명에 따른 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법은 상기 메모리에 저장된 정보는 하나 이상의 사용자에 대하여 얼굴 각도에 따라 변화되는 값들을 개인별로 수시로 업데이트시켜 저장함으로써 각기 다른 각도별 특징점 정보를 데이터베이스의 형태로 관리하도록 구성되고, 상기 유실된 특징점 추정단계는 상기 메모리에 저장된 정보를 근거로 운전자의 현재 얼굴 각도를 계산하고, 그 계산결과에 따른 연계된 특징점(linked point)간의 거리비율 정보를 독출하도록 된 것을 특징으로 한다.The lost feature point restoration method in the vehicle occupant's face tracking process according to the present invention is characterized in that the information stored in the memory updates and stores the values of the one or more users that are changed according to the face angle, And the lost feature point estimating step calculates the current face angle of the driver based on the information stored in the memory and calculates the distance ratio information between the linked points according to the calculation result Is read out.

또한, 본 발명에 따른 특징점 복원 방법은 상기 연계된(linked) 특징점은 상기 유실된 특징점과의 거리가 계산되고 관리되는 관계에 있는 하나 이상의 특징점인 것을 특징으로 한다.Also, the feature point restoration method according to the present invention is characterized in that the linked feature points are one or more feature points in which the distances to the lost feature points are calculated and managed.

본 발명에 따른 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법은 상기 메모리에 관리되는 데이터베이스의 생성은 초기에 운전자의 정면 얼굴을 인식하는 시점에서 생성된 정보와 이를 근거로 3D 모델을 투영(projection)한 것을 기반으로 생성된 것을 특징으로 한다.In the method of reconstructing a lost feature point in a vehicle occupant's face tracking process according to the present invention, creation of a database managed in the memory is performed based on information generated at the time of recognizing the front face of the driver at the beginning and a 3D model ).

즉, 상기한 구성으로 된 본 발명에 의하면, 추적대상의 방향과 속도, 그리고 특징점 간의 거리를 근거로 유실된 특징점을 추정하는 것이 아니라, 특징점 간의 비율을 근거로 유실된 특징점을 복원할 수 있게 됨으로써 탑승자 얼굴과 카메라 간의 거리에 관계없이 항상 일정하고 정밀한 특징점 복원이 가능하게 될 뿐만 아니라, 안면 추적 실패시 안면 검출부터 다시 시작해야 하는 종래의 방식을 탈피하여 안면 추적 프로세스 내에서 곧바로 특징점을 복원해 냄으로써 복원에 소요되는 시간을 단축하고 연산량을 줄여 프로세서의 로드(load)를 낮출 수 있는 효과가 있다.That is, according to the present invention having the above-described configuration, it is possible to restore lost feature points based on the ratio between feature points, instead of estimating feature points lost based on the direction, speed, and distance between feature points It is possible to always restore consistent and precise feature points irrespective of the distance between the occupant's face and the camera, and to restore the feature points immediately in the face tracking process by avoiding the conventional method of restarting facial detection in the case of facial tracking failure The restoration time can be shortened and the amount of computation can be reduced, thereby reducing the load of the processor.

도 1은 본 발명의 1실시예에 따른 유실된 특징점 복원 기능이 구비된 시스템의 구성을 나타낸 블럭구성도.
도 2는 도 1의 구성으로 된 시스템의 동작을 설명하기 위한 순서도.
도 3은 탑승자 얼굴 이미지로부터 유실된(missing) 특징점들을 추출하는 과정을 설명하기 위한 도면.
도 4는 특징점간 거리 및 거리 비율 산출 과정을 설명하기 위한 도면.
도 5는 탑승자 얼굴 각도에 따른 특징점간 거리 변화를 설명하기 위한 도면.
도 6은 유실된 특징점(missing point) 추정과정을 설명하기 위한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of a system having a lost feature point restoration function according to an embodiment of the present invention; FIG.
FIG. 2 is a flowchart for explaining the operation of the system having the configuration of FIG. 1; FIG.
3 is a diagram for explaining a process of extracting missing feature points from an occupant's face image;
4 is a diagram for explaining a process of calculating the distance between minutia points and the distance ratio;
5 is a view for explaining a change in the distance between minutiae according to the passenger's face angle.
FIG. 6 is a diagram for explaining a lost point estimation process; FIG.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 설명한다.Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 1실시예에 따른 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 기능이 구비된 시스템의 구성을 예시한 것으로, 본 발명에 따른 기능이 차량의 네비게이션 시스템(71) 및 IMS(Integrate Memory Seat)(72), 주행 안전 지원시스템(73) 등과 연동하도록 된 구성을 예시한 것이다. 도 1에서, 참조번호 10은 차량의 운전대 등에 설치되어 운전자의 얼굴(100)을 촬영하는 카메라로서, 운전자가 탑승한 시점에 동작되도록 구현될 수도 있으나 차량의 엔진이 시동된 이후부터 구동이 멈춘 시점까지 항상 동작되도록 구현될 수도 있으며, 필요에 따라 시스템이 요구하는 시점에 운전자의 얼굴 이미지를 촬영하도록 구현될 수도 있다.FIG. 1 illustrates the structure of a system equipped with a lost feature point restoration function in the vehicle occupant's face tracking process according to an embodiment of the present invention. The function according to the present invention is applied to a vehicle navigation system 71 and an IMS Integrate Memory Seat) 72, a driving safety support system 73, and the like. In FIG. 1, reference numeral 10 denotes a camera installed on the driver's cab of the vehicle for photographing the driver's face 100, and may be implemented to be operated when the driver boarded the vehicle. However, Or may be implemented so as to photograph the face image of the driver at a time required by the system as required.

또한, 본 실시예에서는 카메라(10)가 운전자의 얼굴을 대상으로 촬영하도록 된 것을 예시하고 있으나, 적절한 위치에 설치되어 운전자 이외의 다른 탑승자의 얼굴을 대상으로 촬영하도록 된 것이 사용될 수도 있으며, 운전자용 카메라 이외에 다른 탑승자용 카메라가 복수로서 추가로 구비될 수도 있다.In the present embodiment, it is exemplified that the camera 10 photographs the driver's face, but it may be used that the driver 10 is photographed on the face of a passenger other than the driver, A plurality of cameras for passengers other than the camera may be additionally provided.

참조번호 20은 상기 카메라(10)에 의해 촬상된 영상신호를 처리하여 디지털 신호로 변환시켜 출력하는 영상신호 처리부이고, 60은 시스템 전반의 동작을 제어하는 제어부로서 차량의 MCU(Main Control Unit)가 사용될 수도 있으나 카메라의 영상처리와 관련된 프로세서가 이용되거나 그 밖의 다른 로컬 프로세서에 의해 구현될 수도 있다.Reference numeral 20 denotes a video signal processing unit for processing the video signal picked up by the camera 10 and converting it into a digital signal and outputting it. Reference numeral 60 denotes a control unit for controlling the overall operation of the system. The MCU (Main Control Unit) May be used, but a processor associated with image processing of the camera may be used or may be implemented by other local processors.

이어, 도 2의 순서도를 참조하여 상기한 구성으로 된 시스템의 동작을 설명한다.Next, the operation of the system configured as described above will be described with reference to the flowchart of Fig.

카메라(10)가 구동되면 운전자의 얼굴을 촬영한 영상신호가 영상신호 처리부(20)에서 처리되어 디지털 신호로서 얼굴 특징점 추출부(30)로 출력되게 된다. 얼굴 특징점 추출부(30)는 영상신호 처리부(20)에서 출력된 디지털 영상신호로부터 운전자의 얼굴 윤곽을 확인하고 예컨대, 도 3에 예시된 바와 같이, 운전자의 눈, 코, 입 등으로부터 특징점(A,B,C,D,E,F)을 추출해내게 된다.(ST 1) When the camera 10 is driven, a video signal of the driver's face is processed by the video signal processing unit 20 and output to the facial feature point extracting unit 30 as a digital signal. The facial feature point extraction unit 30 checks the face contour of the driver from the digital image signal output from the image signal processing unit 20 and extracts the feature point A from the driver's eyes, nose, mouth, , B, C, D, E, F) are extracted (ST 1)

이때, 각 특징점의 검출은 탐색 알고리즘을 사용하여 검출할 수 있으며, 운전자가 최초 인식된 초기 영상으로부터 3D 모델을 생성함으로써 구해질 수 있다. 한편, 본 실시예에서와 같은 6개의 특징점은 하나의 예시일 뿐이며, 이보다 많거나 혹은 적은 개수의 특징점이 추출되어 사용될 수도 있다.At this time, the detection of each feature point can be detected using a search algorithm and can be obtained by generating a 3D model from the initial image recognized by the driver. On the other hand, the six feature points as in the present embodiment are merely examples, and more or less number of feature points may be extracted and used.

얼굴 특징점 추출부(30)에서 추출된 특징점 정보는 특징점간 거리비율 산출부(40)로 인가되며, 그 결과 특징점간 거리비율 산출부(40)에서는 도 4에 예시된 바와 같이, 각 특징점 간의 거리, 즉 A와 B 사이(두 눈동자 간)의 거리 a, A와 C 사이(왼쪽 눈동자와 코의 왼쪽 끝 간)의 거리 b1, B와 D 사이(오른쪽 눈동자와 코의 오른쪽 끝 간)의 거리 b2, C와 D 사이(코의 양끝 간)의 거리 c, A와 E 사이(왼쪽 눈동자와 입의 왼쪽 끝 사이)의 거리 d1, B와 F 사이(오른쪽 눈동자와 입의 오른쪽 끝 사이)의 거리 d2, C와 E 사이(코의 왼쪽 끝과 입의 왼쪽 끝 사이)의 거리 e1, D와 F 사이(코의 오른쪽 끝과 입의 오른쪽 끝 사이)의 거리 e2, E와 F 사이(입의 양끝 간)의 거리 f가 각각 산출되고, 이어 상기한 과정에 의해 산출된 각 특징점 간의 거리정보를 기초로 하여 각 특징점 간 거리의 비율이 산출된다.(ST 2)The feature point information extracted by the facial feature point extraction unit 30 is applied to the feature point distance ratio calculation unit 40. As a result, the feature point distance ratio calculation unit 40 calculates the distance between each feature point The distance b between A and B (between two pupils), the distance b between A and C (between the left pupil and the nose of the nose), the distance between B and D (between the right pupil and the right end of the nose) b2 , Distance c between C and D (between the nose of the nose), distance d1 between A and E (between the left pupil and the mouth's left end), distance between B and F (between the right pupil and the right end of the mouth) d2 Distance e1 between C and E (between the left end of the nose and the left end of the mouth), distance e2 between D and F (between the right end of the nose and the right end of the mouth), between E and F ) Are calculated. Then, based on the distance information between the respective minutiae points calculated by the above-mentioned procedure, the ratio of the distance between each minutiae points Is calculated. (ST 2)

본 실시예에서는, 각 거리의 비율값을 예컨대, 상기 a를 기준(a=1)으로 놓았을 때, b1, b2, c, d1, d2, e1, e2 및 f의 비율을 구하는 방식으로 구하였으나, 다른 실시예에서는 a가 아닌 다른 특징점간의 거리를 기준으로 하고 나머지 특징점간 거리를 상대적인 비율로서 환산할 수도 있을 것이다.B2, c, d1, d2, e1, e2, and f are obtained when the ratio a of each distance is set as a reference (a = 1) in the present embodiment In other embodiments, the distance between the feature points other than a may be used as a reference, and the distance between the remaining feature points may be converted as a relative ratio.

제어부(50)는 상기한 과정에 의해 산출된 특징점간 거리 비율 정보를 특징점 정보 저장부(60)에 데이터 베이스의 형태로 저장하여 관리하게 되는데, 새로운 운전자가 탑승함에 따라 기존에 저장되어 있는 정보와 다른 특징점간 거리 비율 정보가 입력되게 되면, 이를 신규 사용자에 대한 정보로서 특징점 정보 저장부(60)에 등록시켜 저장하게 된다.The control unit 50 stores the distance information between the minutiae points calculated by the above process in the minutia information storage unit 60 in the form of a database and manages the information. When the distance ratio information between the other minutiae points is inputted, the minutiae information is stored in the minutia information storage 60 as information about the new user and stored.

즉, 제어부(50)는 상기 특징점간 거리비율 산출부(40)로부터 운전자에 대한 특징점간 거리 비율 정보가 입력되게 되면, 이를 상기 특징점 정보 저장부(60)에 저장되어 있는 기존 정보와 비교하게 되는 바(ST 3), 비교결과 기등록된 어느 하나와 일치하게 되면 그 일치된 사용자로서 해당 운전자를 인식하여 기등록된 정보를 업데이트 함(ST 4)과 동시에 안면 추적을 시작하게 되고(ST 5), 만일 기등록된 정보 가운데 일치하는 것이 없으면 새로운 사용자로서 인식하여 해당 특징점 정보를 특징점 정보 저장부(60) 상에 신규 등록하게 된다(ST 6).That is, when the feature point distance ratio information for the driver is input from the feature point distance ratio calculating unit 40, the control unit 50 compares the feature point distance ratio information with the existing information stored in the feature point information storage unit 60 (Step ST3). If the comparison result matches any of the registered ones, the corresponding user is recognized as the matching user, and the previously registered information is updated (ST4) . If there is no match in the previously registered information, the new user is recognized as a new user and the corresponding minutia information is newly registered on the minutia information storage 60 (ST 6).

상기한 과정을 통해 제어부(50)는 특징점 정보 저장부(60)에 저장되어 있는 정보를 지속적으로 업데이트하고 이를 데이터베이스화시켜 관리함으로써 풍부한 자료와 다양한 경험값들을 통해 보다 정확한 기준값들을 유지 관리하게 된다.Through the above process, the control unit 50 continuously updates the information stored in the minutia information storage unit 60 and manages and manages the information stored in the minutia information storing unit 60, thereby maintaining more accurate reference values through rich data and various experience values.

한편, 운전자는 운전도중 필요에 따라 고개를 돌리거나 얼굴을 숙이는 등 끊임없이 움직이게 마련인데, 운전자의 얼굴은 평면이 아닌 입체적인 구조이기 때문에, 운전자의 얼굴이 정면을 바라본 상태를 벗어나게 되면, 도 5에 예시된 바와 같이 각 특징점 간의 거리는 운전자가 정면을 바라본 상태에서 측정된 정보와 다르게 나타나게 되며, 운전자의 얼굴이 기울어진 각도에 따라 각 특징점 간의 거리 및 그 거리의 비율이 변화된 값을 갖게 된다. The driver's face is not a plane but a three-dimensional structure. Therefore, when the driver's face is out of the front-facing state, The distance between each feature point is different from the measured information when the driver looks at the front side and the distance between each feature point and the ratio of the distance is changed according to the angle of inclination of the driver's face.

제어부(50)는 이러한 특징을 감안하여, 상기 특징점 정보 저장부(60)에 정보를 저장함에 있어서, 동일한 사용자에 대해서도 운전자의 얼굴 각도에 따라 변화되는 값들을 수시로 업데이트시켜 저장함으로써 각기 다른 각도별 특징점 정보를 데이터베이스의 형태로 관리하게 된다. 최초의 데이터베이스의 생성은 초기에 운전자의 정면 얼굴을 인식하는 시점에서 생성된 정보와 이를 근거로 3D 모델을 투영(projection)한 것을 기반으로 작성할 수 있을 것이다. 또한, 이 특징점 정보 저장부(60)에 저장되는 정보는 차량을 이용하는 복수의 운전자에 대하여 개인별로 각각 개별적으로 저장될 수 있다.In consideration of this feature, the controller 50 stores the information stored in the minutia information storing unit 60 so that the values of the same user, which vary according to the face angle of the driver, are updated and stored at any time, Information is managed in the form of a database. The creation of the first database may be based on the information generated at the initial recognition of the driver's frontal face and the projection of the 3D model based on the generated information. In addition, the information stored in the minutia information storage unit 60 may be stored individually for each of a plurality of drivers using the vehicle.

한편, 제어부(50)는 필요에 따라 차량의 운행이 종료될 때까지 운전자의 안면 인식 및 안면 추적을 지속적으로 실행할 수 있으며, 그에 따른 결과를 후단의 네비게이션 시스템(71) 또는 IMS(72), 주행 안전 지원시스템(73) 등에 제공할 수 있을 것이다.Meanwhile, the controller 50 can continuously perform facial recognition and facial tracking of the driver until the operation of the vehicle is finished, if necessary, and the results can be transmitted to the navigation system 71 or the IMS 72, The safety support system 73 or the like.

자동차의 운행이 종료되거나 또는 사용자가 필요에 따라 버튼 선택 등을 통해 안면 인식 또는 안면 추적 기능을 해제할 수 있도록 구성할 수도 있는데, 이 경우 제어부(50)는 기능 종료가 선택되었는지를 확인하여(ST 7), 본 발명에 따른 안면 인식 또는 안면 추적 동작을 종료하게 된다.In this case, the control unit 50 checks whether the function termination is selected (ST (ST)) or not (step ST). In this case, 7), the facial recognition or facial tracking operation according to the present invention ends.

한편, 안면 인식 또는 안면 추적의 실행 도중, 운전자의 얼굴이 장애물에 의해 일부 가려지거나 강한 광선 등의 영향으로, 운전자 얼굴로부터 특징점을 추출하는데 실패하여 그 결과, 상기 특징점간 거리비율 산출부(40)로부터 입력되는 정보에 오류가 발생되었음이 확인되면(ST 8), 제어부(50)는 상기 특징점간 거리비율 산출부(40)에서 입력받은 정보 가운데 정상적으로 추출되어 산출된, 즉 유효한 것으로 추출된 특징점 비율정보를 상기 특징점 정보 저장부(60)의 정보와 비교하여 운전자의 현재 얼굴 각도를 계산하고 계산된 각도에 대응되어 저장되어 있는 특징점간 거리 비율정보를 독출하여 이를 근거로 추출되지 않은, 즉, 유실된 특징점(missing point)과 연계된(linked) 특징점의 위치 정보를 추정하게 된다(ST 9). 일반적으로 3개의 점에 대한 정보를 알 수 있으면 얼굴의 각도(Roll, Pitch, Yaw)를 산출해낼 수 있다. 한편 위에서 연계된(linked) 특징점이란 상호간 거리 및 거리 비율을 산정하는데 관련되는 특징점을 일컫는 것으로, 상기 유실된 특징점과의 거리가 계산되고 관리되는 관계에 있는 하나 이상의 특징점을 말한다.On the other hand, during execution of facial recognition or face tracking, the driver's face is partially obscured by the obstacle or fails to extract the feature points from the driver's face under the influence of strong light rays. As a result, (ST 8), the control unit 50 determines whether or not an error has occurred in the information inputted from the feature point distance ratio calculating unit 40, that is, Point information storage unit 60 to calculate the current face angle of the driver and reads the stored distance ratio information of the feature points corresponding to the calculated angle, The position information of the feature points linked to the missing points is estimated (ST 9). Generally, you can calculate the face angle (Roll, Pitch, Yaw) if you know the information about the three points. On the other hand, the linked feature points refer to feature points related to the calculation of the mutual distance and distance ratio, and refer to one or more feature points in which the distances to the missing feature points are calculated and managed.

예컨대, 도 4의 예시를 참조하면, 특징점 A에 대한 연계된 특징점은 거리 a, b1, d1 및 그 비율값을 산정하는데 관련되는 특징점 B, C, E이며, 특징점 B에 대한 연계된 특징점은 거리 a, b2, d2 및 그 비율값을 산정하는데 관련되는 특징점 A, D, F가 된다.For example, referring to the example of FIG. 4, the associated minutiae for minutiae A are minutiae B, C, E related to the distance a, b1, d1 and the ratio value calculation, a, b2, d2 and characteristic points A, D, F related to the calculation of the ratio value.

특징점 A가 유실된 경우를 가정하고, 도 6을 참조하여 유실된 특징점(missing point) A의 위치 정보를 추정하는 과정을 자세히 살펴보면, 먼저 제어부(50)는 운전자의 현재 얼굴 각도를 계산한 값을 근거로 해당 각도에서의 연계된 특징점간 거리(a, b1, d1)의 비율 정보를 상기 특징점 정보 저장부(60)로부터 독출한다. 이어, 제어부(50)는 독출된 정보를 근거로, 도 6에 도시된 바와 같이, 추출된 연관 특징점 B로부터 유실된 특징점(missing point) A가 있어야 할 거리 a 만큼 떨어진 점들의 집합(a를 반지름으로 하는 원(圓), '가'로 나타내어짐)을 1차로 선별해내고, 이어 추출된 연관 특징점 C로부터 유실된 특징점 A가 있어야 할 거리 b1 만큼 떨어진 점들의 집합(b1을 반지름으로 하는 원(圓), '나'로 나타내어짐)을 2차로, 연관 특징점 E로부터 유실된 특징점 A가 있어야 할 거리 d1 만큼 떨어진 점들의 집합(d1을 반지름으로 하는 원(圓), '다'로 나타내어짐)을 3차로 각각 선별해내게 된다.Assuming a case where the minutiae point A is lost and a process of estimating the position information of the missing point A lost by referring to Fig. 6 will be described in detail. First, the controller 50 calculates a value Information on the ratio of the distance (a, b1, d1) between the associated minutiae at the corresponding angle is read out from the minutia information storage 60. 6, the control unit 50 calculates a set of points a spaced apart by a distance a from which the missing point A should be located, from the extracted associated point B, And a set of points spaced apart by a distance b1 where the lost feature point A should be located from the extracted related feature point C (a circle having a radius b1) (Indicated by a circle with d1 as a radius, denoted by 'd') separated by a distance d1 from which the minutiae point A lost from the associated minutiae point E should exist, Will be selected by the third party.

상기한 과정에 의해 결과적으로 3개의 원('가','나','다')이 나타내어지게 되는데, 이 3개의 원은 두 개의 교점을 갖게 된다. 제어부(50)는 이 두 개의 교점 가운데 특징점 A가 유실되기 직전에 확인되었던 위치와 가까운 점을 선택함으로써 유실된 특징점 A의 위치정보를 정확하게 추정해 낼 수 있게 된다.As a result, three circles ('a', 'b', 'd') are represented by the above process, and these three circles have two intersection points. The controller 50 can accurately estimate the positional information of the missing feature point A by selecting a point close to the position that was confirmed immediately before the feature point A was lost among the two intersection points.

그 결과, 제어부(50)는 상기한 과정에 의해 산출된 특징점 A의 위치정보를 근거로 유실된 특징점 A를 복원해내고 이 복원된 정보를 네비게이션 시스템(71), IMS(72), 주행안전 지원시스템(73) 등에 제공할 수 있게 된다.(ST 10)As a result, the control unit 50 restores the lost feature point A based on the positional information of the feature point A calculated by the above process, and outputs the restored information to the navigation system 71, the IMS 72, System 73 or the like (ST 10)

즉, 상기한 구성으로 된 본 발명에 의하면, 특징점 간의 거리 비율을 근거로 유실된 특징점을 빠르고 정확하게 복원할 수 있게 됨으로써 탑승자 얼굴과 카메라 간의 거리에 관계없이 항상 일정하고 정밀한 특징점 복원이 가능하게 될 뿐만 아니라, 안면 추적 실패시 안면 검출부터 다시 시작해야 하는 종래의 방식을 탈피하여 안면 추적 프로세스 내에서 곧바로 특징점을 복원해 냄으로써 복원에 소요되는 시간을 단축하고 연산량을 줄여 프로세서의 로드(load)를 낮출 수 있는 특징점 복원 기능을 제공할 수 있게 된다.In other words, according to the present invention, it is possible to quickly and accurately restore lost feature points based on the ratio of distances between feature points, thereby making it possible to always perform constant and accurate feature point restoration regardless of the distance between the occupant's face and the camera By restoring the feature points directly from the face tracking process, it is possible to shorten the time required for restoration and reduce the load of the processor by reducing the time required for restoration It is possible to provide a feature point restoration function.

한편, 본 발명은 상기 실시예에 한정되지 않으며, 본 발명의 기술적 요지를 벗어나지 않는 범위내에서 다양하게 변형하여 실시할 수 있다. 예를 들어, 상기 실시예에서는 본 발명에 따른 기능이 안면 추적이 진행되는 도중 특징점이 유실되었을 때 실행되는 것으로 구현되어 있으나, 안면 추적 프로세스 진행 여부에 관계없이 예컨대, 차량에 운전자가 탑승하였을 때 사용자 확인을 위한 안면 인식을 실행하는 프로세스에 적용하여 활용될 수도 있을 것이다.The present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the technical scope of the present invention. For example, in the above-described embodiment, the function according to the present invention is implemented when a feature point is lost during facial tracking. However, regardless of whether the face tracking process is performed or not, It may be applied to the process of executing facial recognition for confirmation.

또한, 상기 실시예에서의 각 단계(ST 1∼ST 9)는 단지 하나의 예시로서 개시된 것인 바, 각 단계의 실행순서는 필요에 따라 바뀔 수 있으며, 기능을 구현함에 있어서 필수적으로 요구되지 않는 단계는 상황에 따라 생략될 수 있다.In addition, the respective steps (ST 1 to ST 9) in the above embodiment are disclosed as only one example, and the order of execution of each step may be changed as necessary, The steps may be omitted depending on the situation.

한편, 특징점 추출 과정에서 오류가 발생한 경우, 이를 보정하는 프로세스는 상기 제어부(50)가 특징점간 거리비율 산출부(40)로부터 출력되는 결과를 상기 특징점 정보 저장부(60)에 저장된 정보와 지속적으로 비교하여, 그 비교결과가 일치하지 않는 경우, 특징점 정보 저장부(60)의 정보를 근거로 오류를 수정하도록 함으로써 특징점 추출 오류를 보정하는 기능을 구현할 수 있다.If an error occurs in the feature point extraction process, the process of correcting the error is performed by the control unit 50 continuously updating the result output from the feature point distance ratio calculation unit 40 with the information stored in the feature point information storage unit 60 A function of correcting the feature point extraction error by correcting the error based on the information of the feature point information storage unit 60 can be implemented.

10 : 카메라 20 : 영상신호 처리부
30 : 얼굴 특징점 추출부 40 : 특징점간 거리비율 산출부
50 : 제어부 60 : 특징점 정보 저장부
71 : 네비게이션 시스템 72 : IMS(Integrate Memory Seat)
73 : 주행안전 지원시스템 100 : 운전자 얼굴
10: camera 20: video signal processor
30: facial feature point extracting unit 40: feature point distance ratio calculating unit
50: control unit 60: minutia point information storage unit
71: navigation system 72: IMS (Integrate Memory Seat)
73: Driving safety support system 100: Driver's face

Claims (5)

카메라와 하나 이상의 프로세서를 이용하여 차량 탑승자의 얼굴을 인식하는 탑승자 안면 인식 방법에 있어서, 상기 프로세서는
카메라에 의해 촬영된 영상신호로부터 탑승자 얼굴에 대한 하나 이상의 특징점을 추출해내는 특징점 추출단계와;
추출된 특징점들 간의 거리 비율을 산출하는 거리비율 정보 산출단계;
이 거리비율 정보 산출단계에서 산출된 정보 가운데 유효한 정보를 메모리에 지속적으로 업데이트시켜 저장 관리하는 특징점 정보 저장관리 단계;
상기 거리비율 정보 산출단계에서 산출된 정보를 상기 메모리에 저장된 정보와 비교하여, 그 비교결과를 근거로 상기 특징점 추출단계에서 추출된 특징점 정보에 일부 유실된(missing) 오류가 있는지를 확인하는 유실된 특징점 확인단계;
확인 결과, 유실된 특징점 정보가 확인되면, 상기 메모리로부터 유실된 특징점과 그 연계된 특징점(linked point)간의 거리비율 정보를 독출하여, 이 독출된 정보를 근거로 상기 연계된 특징점들의 위치로부터 유실된 특징점의 위치 정보를 산출해내는 유실된 특징점 추정단계; 및
산출된 특징점 위치 정보를 근거로 유실된 특징점을 포함한 일련의 특징점 정보를 복원하는 특징점 복원단계를 포함하여 구성된 프로세스를 수행하는 단계를 포함하고,
상기 연계된 특징점은 상기 유실된 특징점과의 거리가 계산되고 관리되는 관계에 있는 하나 이상의 특징점인 것을 특징으로 하는 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법.
A passenger facial recognition method for recognizing a face of a vehicle occupant using a camera and one or more processors, the method comprising:
A feature point extracting step of extracting at least one feature point of a passenger's face from an image signal photographed by a camera;
A distance ratio information calculation step of calculating a distance ratio between the extracted minutiae points;
A minutia information storing and managing step of continuously storing and managing valid information among the information calculated in the distance ratio information calculating step in a memory;
Comparing the information calculated in the distance ratio information calculation step with the information stored in the memory and checking whether there is a missing error in the minutia information extracted in the minutiae point extraction step based on the comparison result, Minutiae identification step;
As a result of checking, if the lost feature point information is confirmed, the distance ratio information between the lost feature points and the associated linked points is read from the memory, and based on the read out information, A lost feature point estimation step of calculating position information of feature points; And
And a feature point reconstruction step of reconstructing a set of feature point information including feature points lost based on the calculated feature point position information,
Wherein the associated feature points are at least one feature point in a relationship in which a distance to the missing feature points is calculated and managed.
카메라와 하나 이상의 프로세서를 이용하여 차량 탑승자의 얼굴을 인식하는 탑승자 안면 인식 방법에 있어서, 상기 프로세서는
카메라에 의해 촬영된 영상신호로부터 탑승자 얼굴에 대한 하나 이상의 특징점을 추출해내는 특징점 추출단계와;
추출된 특징점들 간의 거리 비율을 산출하는 거리비율 정보 산출단계;
이 거리비율 정보 산출단계에서 산출된 정보 가운데 유효한 정보를 메모리에 지속적으로 업데이트시켜 저장 관리하는 특징점 정보 저장관리 단계;
상기 거리비율 정보 산출단계에서 산출된 정보를 상기 메모리에 저장된 정보와 비교하여, 그 비교결과를 근거로 상기 특징점 추출단계에서 추출된 특징점 정보에 일부 유실된(missing) 오류가 있는지를 확인하는 유실된 특징점 확인단계;
확인 결과, 유실된 특징점 정보가 확인되면, 상기 메모리로부터 유실된 특징점과 그 연계된 특징점(linked point)간의 거리비율 정보를 독출하여, 이 독출된 정보를 근거로 상기 연계된 특징점들의 위치로부터 유실된 특징점의 위치 정보를 산출해내는 유실된 특징점 추정단계; 및
산출된 특징점 위치 정보를 근거로 유실된 특징점을 포함한 일련의 특징점 정보를 복원하는 특징점 복원단계를 포함하여 구성된 프로세스를 수행하는 단계를 포함하고,
상기 유실된 특징점 추정단계는 상기 메모리로부터 독출된 특징점간 거리비율 정보에 따라 상기 연계된 특징점들로부터 그 거리의 비율만큼 떨어진 점들을 상기 거리의 비율을 반지름으로 하는 원(圓)을 작도하는 방법으로 선별해내고, 작도된 원의 교점 가운데 해당 특징점이 유실되기 이전에 확인된 위치와 가까운 교점의 위치정보를 유실된 특징점의 위치 정보로 추정하도록 된 것을 특징으로 하는 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법.
A passenger facial recognition method for recognizing a face of a vehicle occupant using a camera and one or more processors, the method comprising:
A feature point extracting step of extracting at least one feature point of a passenger's face from an image signal photographed by a camera;
A distance ratio information calculation step of calculating a distance ratio between the extracted minutiae points;
A minutia information storing and managing step of continuously storing and managing valid information among the information calculated in the distance ratio information calculating step in a memory;
Comparing the information calculated in the distance ratio information calculation step with the information stored in the memory and checking whether there is a missing error in the minutia information extracted in the minutiae point extraction step based on the comparison result, Minutiae identification step;
As a result of checking, if the lost feature point information is confirmed, the distance ratio information between the lost feature points and the associated linked points is read from the memory, and based on the read out information, A lost feature point estimation step of calculating position information of feature points; And
And a feature point reconstruction step of reconstructing a set of feature point information including feature points lost based on the calculated feature point position information,
The lost feature point estimation step may include a step of constructing a circle having a distance of a distance from the associated feature points by a ratio of the distance from the associated feature points according to the distance ratio information between feature points read out from the memory And the location information of the intersection close to the position confirmed before the corresponding feature point is lost is estimated as the position information of the missing feature point in the intersection of the drawn circle. How to restore feature points.
카메라와 하나 이상의 프로세서를 이용하여 차량 탑승자의 얼굴을 인식하는 탑승자 안면 인식 방법에 있어서, 상기 프로세서는
카메라에 의해 촬영된 영상신호로부터 탑승자 얼굴에 대한 하나 이상의 특징점을 추출해내는 특징점 추출단계와;
추출된 특징점들 간의 거리 비율을 산출하는 거리비율 정보 산출단계;
이 거리비율 정보 산출단계에서 산출된 정보 가운데 유효한 정보를 메모리에 지속적으로 업데이트시켜 저장 관리하는 특징점 정보 저장관리 단계;
상기 거리비율 정보 산출단계에서 산출된 정보를 상기 메모리에 저장된 정보와 비교하여, 그 비교결과를 근거로 상기 특징점 추출단계에서 추출된 특징점 정보에 일부 유실된(missing) 오류가 있는지를 확인하는 유실된 특징점 확인단계;
확인 결과, 유실된 특징점 정보가 확인되면, 상기 메모리로부터 유실된 특징점과 그 연계된 특징점(linked point)간의 거리비율 정보를 독출하여, 이 독출된 정보를 근거로 상기 연계된 특징점들의 위치로부터 유실된 특징점의 위치 정보를 산출해내는 유실된 특징점 추정단계; 및
산출된 특징점 위치 정보를 근거로 유실된 특징점을 포함한 일련의 특징점 정보를 복원하는 특징점 복원단계를 포함하여 구성된 프로세스를 수행하는 단계를 포함하고,
상기 메모리에 저장된 정보는 하나 이상의 사용자에 대하여 얼굴 각도에 따라 변화되는 값들을 개인별로 수시로 업데이트시켜 저장함으로써 각기 다른 각도별 특징점 정보를 데이터베이스의 형태로 관리하도록 구성되고,
상기 유실된 특징점 추정단계는 상기 메모리에 저장된 정보를 근거로 운전자의 현재 얼굴 각도를 계산하고, 그 계산결과에 따른 연계된 특징점(linked point)간의 거리비율 정보를 독출하도록 된 것을 특징으로 하는 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법.
A passenger facial recognition method for recognizing a face of a vehicle occupant using a camera and one or more processors, the method comprising:
A feature point extracting step of extracting at least one feature point of a passenger's face from an image signal photographed by a camera;
A distance ratio information calculation step of calculating a distance ratio between the extracted minutiae points;
A minutia information storing and managing step of continuously storing and managing valid information among the information calculated in the distance ratio information calculating step in a memory;
Comparing the information calculated in the distance ratio information calculation step with the information stored in the memory and checking whether there is a missing error in the minutia information extracted in the minutiae point extraction step based on the comparison result, Minutiae identification step;
As a result of checking, if the lost feature point information is confirmed, the distance ratio information between the lost feature points and the associated linked points is read from the memory, and based on the read out information, A lost feature point estimation step of calculating position information of feature points; And
And a feature point reconstruction step of reconstructing a set of feature point information including feature points lost based on the calculated feature point position information,
Wherein the information stored in the memory is configured to manage the different minutia information for each angle in the form of a database by updating the values of the one or more users,
Wherein the lost feature point estimation step calculates the current face angle of the driver based on the information stored in the memory and reads the distance ratio information between the linked points according to the calculation result. A method for reconstructing missing feature points in a facial tracking process.
삭제delete 청구항 3에 있어서,
상기 메모리에 관리되는 데이터베이스의 생성은 초기에 운전자의 정면 얼굴을 인식하는 시점에서 생성된 정보와 이를 근거로 3D 모델을 투영(projection)한 것을 기반으로 생성된 것을 특징으로 하는 차량 탑승자 안면 추적 프로세스에서의 유실된 특징점 복원 방법.

The method of claim 3,
Wherein the generation of the database managed in the memory is generated based on information generated at the time of recognizing the front face of the driver at the initial stage and a projection of the 3D model based on the information generated at the time of recognizing the front face of the driver Of the lost feature points.

KR1020120136880A 2012-11-29 2012-11-29 A missing point restoration method in face recognition for vehicle occupant KR101875966B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120136880A KR101875966B1 (en) 2012-11-29 2012-11-29 A missing point restoration method in face recognition for vehicle occupant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120136880A KR101875966B1 (en) 2012-11-29 2012-11-29 A missing point restoration method in face recognition for vehicle occupant

Publications (2)

Publication Number Publication Date
KR20140069529A KR20140069529A (en) 2014-06-10
KR101875966B1 true KR101875966B1 (en) 2018-07-06

Family

ID=51124600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120136880A KR101875966B1 (en) 2012-11-29 2012-11-29 A missing point restoration method in face recognition for vehicle occupant

Country Status (1)

Country Link
KR (1) KR101875966B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170095632A (en) 2016-02-15 2017-08-23 한국전자통신연구원 Face recognition method
KR101892009B1 (en) * 2016-07-21 2018-08-27 엘지전자 주식회사 User recognition apparatus and method thereof
KR102301239B1 (en) * 2020-05-07 2021-09-09 에스케이텔레콤 주식회사 Method and Apparatus for Masking Privacy on Image of Intelligent Camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132339A (en) * 2001-10-19 2003-05-09 Alpine Electronics Inc Face image recognition device and method
JP2011165083A (en) * 2010-02-12 2011-08-25 Omron Corp Monitoring device and method, and program
JP2011215843A (en) * 2010-03-31 2011-10-27 Secom Co Ltd Facial image processing apparatus
JP2011232845A (en) * 2010-04-26 2011-11-17 Panasonic Corp Feature point extracting device and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132339A (en) * 2001-10-19 2003-05-09 Alpine Electronics Inc Face image recognition device and method
JP2011165083A (en) * 2010-02-12 2011-08-25 Omron Corp Monitoring device and method, and program
JP2011215843A (en) * 2010-03-31 2011-10-27 Secom Co Ltd Facial image processing apparatus
JP2011232845A (en) * 2010-04-26 2011-11-17 Panasonic Corp Feature point extracting device and method

Also Published As

Publication number Publication date
KR20140069529A (en) 2014-06-10

Similar Documents

Publication Publication Date Title
EP2860664B1 (en) Face detection apparatus
JP4728432B2 (en) Face posture estimation device, face posture estimation method, and face posture estimation program
US10000210B2 (en) Lane recognition apparatus
US9330472B2 (en) System and method for distorted camera image correction
CN106547341B (en) Gaze tracker and method for tracking gaze thereof
EP3070675A1 (en) Image processor for correcting deviation of a coordinate in a photographed image at appropriate timing
KR20150076627A (en) System and method for learning driving information in vehicle
JP2020126638A (en) Method and device for adjusting driver assistance apparatus automatically for personalization and calibration according to driver's status
US11074431B2 (en) Facial recognition device
KR101875966B1 (en) A missing point restoration method in face recognition for vehicle occupant
JP2020204804A (en) Image recognition device
JP2020052827A (en) Occupant modeling device, occupant modeling method, and occupant modeling program
CN114356072A (en) System and method for detecting spatial orientation of wearable device
US20190347499A1 (en) Driver state estimation device and driver state estimation method
KR101795264B1 (en) Face landmark detection apparatus and verification method of the same
US8213684B2 (en) Motion estimating device
JP6799030B2 (en) Image recognition device, image recognition method, and parking support system
JP2019185556A (en) Image analysis device, method, and program
KR101976498B1 (en) System and method for gesture recognition of vehicle
JP2009159241A (en) Parking-time stop assisting system
US20220327728A1 (en) Information processing apparatus, information processing method, learning method, and storage medium
US20190286925A1 (en) Parking frame constructing device and parking frame constructing method
JP5170130B2 (en) Height estimation device
JP6869672B2 (en) Object tracking system, object tracking device, object tracking method, and object tracking program
KR20160111151A (en) image processing method and apparatus, and interface method and apparatus of gesture recognition using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant