KR20000035050A - Method for photographing and recognizing a face - Google Patents

Method for photographing and recognizing a face Download PDF

Info

Publication number
KR20000035050A
KR20000035050A KR1019990045407A KR19990045407A KR20000035050A KR 20000035050 A KR20000035050 A KR 20000035050A KR 1019990045407 A KR1019990045407 A KR 1019990045407A KR 19990045407 A KR19990045407 A KR 19990045407A KR 20000035050 A KR20000035050 A KR 20000035050A
Authority
KR
South Korea
Prior art keywords
face
image
camera
mask
image signal
Prior art date
Application number
KR1019990045407A
Other languages
Korean (ko)
Other versions
KR100347058B1 (en
Inventor
김운용
Original Assignee
김운용
주식회사 신테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김운용, 주식회사 신테크 filed Critical 김운용
Priority to KR1019990045407A priority Critical patent/KR100347058B1/en
Priority to GB9926654A priority patent/GB2343945B/en
Priority to JP11322332A priority patent/JP2000163600A/en
Priority to DE19955714A priority patent/DE19955714A1/en
Priority to CN 99124868 priority patent/CN1254904A/en
Publication of KR20000035050A publication Critical patent/KR20000035050A/en
Application granted granted Critical
Publication of KR100347058B1 publication Critical patent/KR100347058B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PURPOSE: A face photographing/recognizing method is provided to extract face components and motion of an object from image signals input through a camera to chase the face and motion and recognize the face using the image signals photographed by the chase. CONSTITUTION: A face photographing/recognizing method comprises steps of: selecting plural inspect areas to an image signal captured through a camera and detecting face components within inspect areas, thereby adjusting the direction of the camera along the face; detecting feature points to the image signal to rearrange the image, generating 3-dimensional information with displacement information between the rearranged images, and synthesizing a face mask using the 3-dimensional information; and searching the synthesized face mask from registered masks in a database.

Description

얼굴 촬영/인식방법{METHOD FOR PHOTOGRAPHING AND RECOGNIZING A FACE}Face photographing / recognition method {METHOD FOR PHOTOGRAPHING AND RECOGNIZING A FACE}

본 발명은 피사체의 얼굴 이미지에 대한 3차원 정보를 이용하여 피사체를 인식하는 시스템에 관한 것으로서, 특히 카메라를 통해 입력되는 화상신호를 3차원 인식방식에 따라 인식하여 카메라를 통해 촬상된 대상체가 등록된 마스크임을 인식하는 얼굴 촬영/인식방법에 관한 것이다.The present invention relates to a system for recognizing a subject using three-dimensional information on a face image of a subject. In particular, an object photographed through a camera is registered by recognizing an image signal input through a camera according to a three-dimensional recognition method. The present invention relates to a face photographing / recognition method for recognizing a mask.

현대 사회는 고도의 정보화 사회가 되어감에 따라 다양한 고객관리 및 정보 보안에 대한 소비자의 욕구가 증대되고 있다. 따라서 방문자나 컴퓨터 관리자를 확인하는 보안절차에 대해 보다 신뢰성 있는 정보 관리 및 그에 대한 보안 시스템이 필요한 실정이다.As the modern society becomes a highly information society, consumers' desire for various customer management and information security is increasing. Therefore, there is a need for more reliable information management and security system for security procedures for identifying visitors or computer administrators.

상기의 보안 시스템은 개인의 신분 확인을 위하여, ID 카드나 암호에 의한 방법이 널리 사용되고 있으나, 이들 방법은 도용 가능성이 높다. 또한 홍체 인식에 의한 개인 식별 시스템이나 지문 감식에 의한 개인 식별 시스템은 별도의 추가장비와 실행의 번거로움으로 인하여 꼭 필요한 부분에만 한정적으로 적용되고 있다.In the above security system, an ID card or a password is widely used for personal identification, but these methods have a high possibility of theft. In addition, the personal identification system by iris recognition or the personal identification system by fingerprint identification is limited to only necessary parts due to additional equipment and the hassle of execution.

따라서 대부분 시스템에서는 별다른 보안 체계를 이용하지 않고 있는 실정이므로, 이런 분야에 대한 얼굴 인식 시스템은 그 활용분야가 넓다고 할 수 있다.Therefore, most systems do not use a different security system, so the face recognition system for these fields is widely used.

상술한 얼굴 인식 시스템은 타 비젼 프로젝트에 비하여 입력 자료의 크기가 크고, 이미지의 공통점을 인식하는 패턴화 작업의 어려움이 있기 때문에, 그 어떤 분야보다도 강력한 데이터 베이스화가 중요한 분야이다.Compared to other vision projects, the above-described face recognition system has a larger input data size and has a difficulty in patterning work to recognize commonalities of images.

일반적으로 얼굴 인식 시스템은 이미지를 그레이 레벨(gray level)로 변환하여 경계선 검출 및 윤곽 추출 알고리즘을 이용하여 얼굴 윤곽이나 눈을 검색한 후 얼굴만을 일정한 크기로 구분하여 그림자 제거, 시각 보정 등을 통하여 패턴을 인식한다. 이러한 경계선 검출 및 윤곽선 검출 알고리즘을 이용한 얼굴인식 시스템은 개인 인식 및 성별 판별, 표정인식 등 다양한 분야에 이용되고 있다.In general, the face recognition system converts an image to gray level, searches for a face contour or eye using a boundary detection and contour extraction algorithm, and then classifies only the face into a certain size to remove the shadow and visually correct the pattern. Recognize. Face recognition system using the boundary detection and contour detection algorithm is used in various fields such as personal recognition, gender discrimination, facial expression recognition.

상술한 얼굴 인식 시스템은 사무실 보안, 열쇠없이 얼굴확인 절차만으로 문을 여는 시스템, 경찰의 범인 검문시 휴대용 카메라를 이용한 정확한 검문, 야간은행의 보안, 아파트 경비, 대형 매장에서의 체계적 고객관리, 공항의 테러방지, 개인신변보호, 무인 자판대, 교도소 관리, 창고관리, 도서관 이용자 관리 등 단순한 이용자 얼굴 검색분야 뿐만 아니라 컴퓨터의 정보처리능력과 인터넷 등 광범위 통신망을 이용한 다양한 분야에 활용되고 있다.The above-mentioned face recognition system is an office security, a system that opens a door without a keyless face verification procedure, an accurate inspection using a portable camera when the police detect a criminal, night bank security, apartment security, systematic customer management in a large store, airport Terrorism, personal protection, unmanned kiosks, prison management, warehouse management, library user management, etc. are used not only in the search for the face of users, but also in various fields using a wide range of communication networks such as computer information processing capability and the Internet.

그러나 상술한 얼굴 인식 시스템은 대부분 2차원으로 인식하는 시스템이므로, 인식하고자 하는 대상체가 인식 시스템의 정면으로 지정된 거리에 위치해서 촬영되어야만 정확한 인식이 가능하다. 따라서 얼굴 인식 시스템을 이용하고자 하는 경우는 촬영 대상체를 인식 시스템에 구비된 카메라에 정면으로 위치하도록 안내하는 별도의 안내수단을 필요로 하는 등의 문제점이 있었다.However, since the above-described face recognition system is mostly recognized in two dimensions, accurate recognition is possible only when the object to be recognized is photographed at a predetermined distance in front of the recognition system. Therefore, when using the face recognition system, there is a problem such as requiring a separate guide means for guiding the photographed object to be located in front of the camera provided in the recognition system.

본 발명은 상기의 문제점을 해결하기 위해 안출한 것으로서, 본 발명은 카메라를 통해 입력되는 화상신호로부터 피사체의 얼굴 구성요소 및 움직임을 추출하여 상기 카메라가 피사체의 얼굴 및 움직임을 추적할 수 있게 하고, 상기 피사체의 얼굴 및 움직임 추적에 의해 촬상되는 화상신호로부터 피사체의 얼굴을 인식할 수 있도록 한 얼굴 촬영/인식방법을 제공함에 목적이 있다.The present invention has been made to solve the above problems, the present invention extracts the facial components and movements of the subject from the image signal input through the camera to enable the camera to track the face and movement of the subject, It is an object of the present invention to provide a face photographing / recognition method for recognizing a face of a subject from an image signal captured by the face and movement tracking of the subject.

상기의 목적을 달성하기 위하여 본 발명의 일 실시예에서는, 카메라를 통해 포착되는 화상신호의 다수의 검사 후보영역을 선정하고, 해당 영역 내의 얼굴 구성요소 검사에 의한 얼굴 가능영역을 검출하여 얼굴 존재여부를 판단하면서 특정 후보영역을 선택하여, 상기 선택된 해당 후보영역의 피사체의 움직임을 따라 카메라의 방향을 조절하는 과정; 상기 얼굴 존재여부 판단결과, 상기 해당 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 특징점을 검출하여 이미지를 재배열하고, 상기 재배열된 이미지간의 변위정보로 3차원 정보를 생성하고, 그 3차원 정보로 피사체의 얼굴 마스크를 합성해내는 과정; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 판단하는 과정을 포함하는 것을 특징으로 하는 얼굴 촬영/인식방법을 제공한다.In order to achieve the above object, in one embodiment of the present invention, a plurality of inspection candidate regions of an image signal captured by a camera are selected, and a face possibility region is detected by face component inspection in the region to determine whether a face exists. Selecting a specific candidate area while determining a direction, and adjusting a camera direction according to a movement of a subject of the selected candidate area; As a result of the determination of the presence of the face, the image signal for which the face exists in the corresponding inspection candidate region is detected and rearranged to generate images, and the three-dimensional information is generated by displacement information between the rearranged images. Synthesizing a face mask of a subject with information; And searching for the synthesized face mask from individual registration masks previously built in a database to determine whether to register an image for a specific individual.

상기의 목적을 달성하기 위하여 본 발명의 다른 실시예에서는, 카메라를 통해 입력되는 화상신호로부터 피부색 데이터와 움직임 데이터를 각각 추출하여 다수의 검사 후보영역을 선정하고, 해당 검사 후보영역 내의 화상신호에 대한 얼굴 구성요소 검사에 의한 얼굴 가능영역을 검출하여 특정 후보영역을 선택하고 특징점을 검출하여 이미지를 재배열한 후, 재배열된 이미지를 이용하여 얼굴 유/무를 확인하면서 상기 선택된 해당 후보영역의 피사체의 움직임을 따라 카메라의 위치를 조절하는 과정; 상기 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 다시 이미지를 재배열한 후, 상기 재배열된 이미지간의 변위정보를 이용하여 3차원 정보를 생성하고, 상기 3차원 정보를 기준 마스크와 비교하여 개인별 얼굴 마스크를 합성해내는 과정; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 확인하는 과정으로 이루어진 것을 특징으로 하는 얼굴 촬영/인식방법을 제공한다.In another embodiment of the present invention, a plurality of inspection candidate regions are selected by extracting skin color data and motion data from an image signal input through a camera, and a plurality of inspection candidate regions are selected. After detecting a possible face region by face component inspection, selecting a specific candidate region, detecting a feature point, rearranging the image, and checking the presence or absence of the face using the rearranged image, and then moving the subject in the selected candidate region. Adjusting the position of the camera along; The image signal having a face in the inspection candidate region is rearranged again, and then three-dimensional information is generated by using the displacement information between the rearranged images, and the three-dimensional information is compared with a reference mask to face each individual face. Synthesizing a mask; The method provides a face photographing / recognition method comprising searching for the synthesized face mask from individual registration masks pre-built in a database and confirming whether or not to register an image for a specific individual.

도 1은 본 발명에 따른 얼굴 촬영/인식방법이 실행될 수 있도록 구현된 화상인식시스템의 구성을 나타내는 블록도1 is a block diagram showing a configuration of an image recognition system implemented to execute a face photographing / recognition method according to the present invention.

도 2는 본 발명에 따른 얼굴 촬영/인식방법의 일 실시예를 설명하기 위한 동작 흐름도2 is a flowchart illustrating an embodiment of a face photographing / recognition method according to the present invention.

도 3은 본 발명에 따른 얼굴 촬영/인식방법의 다른 실시예를 설명하기 위한 동작 흐름도3 is a flowchart illustrating another embodiment of a face photographing / recognition method according to the present invention.

〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

10 : 화상 입력부 11 : CCD 카메라10: image input unit 11: CCD camera

12 : 영상 캡쳐부 13 : 카메라 구동 제어부12: image capture unit 13: camera driving control unit

14 : 카메라 구동부 20 : 전처리부14 camera driving unit 20 pre-processing unit

30 : 특징점 검출부 40 : 3차원 정보 추출부30: feature point detector 40: 3D information extractor

50 : 마스크 생성부 60 : 데이터 베이스부50: mask generation unit 60: database unit

70 : 형상 인식부 80 : 메모리70: shape recognition unit 80: memory

이하에서, 본 발명에 따른 얼굴 촬영/인식방법의 각 실시예를 첨부된 도면을 참고하여 상세히 설명한다.Hereinafter, each embodiment of a face photographing / recognition method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 얼굴 촬영/인식방법이 실행될 수 있도록 구현된 화상인식시스템의 구성을 나타내는 블록도로서, 그 구성은 다음과 같다.1 is a block diagram illustrating a configuration of an image recognition system implemented to execute a face photographing / recognition method according to the present invention. The configuration is as follows.

화상 입력부(10)는 소정의 방향에 설치되는 다수의 카메라를 통해 피사체를 촬영하는 것으로, 일반적으로 CCD 카메라(11)가 이용되며, 적어도 2대 이상이 설치된다.The image input unit 10 photographs a subject through a plurality of cameras installed in a predetermined direction. In general, the CCD camera 11 is used, and at least two or more cameras are provided.

전처리부(20)는 상기 화상 입력부(10)로부터 화상신호를 입력받아 잡음을 제거하고, 그 화상신호에 대한 윤곽선을 추출한다.The preprocessor 20 receives an image signal from the image input unit 10 to remove noise, and extracts an outline of the image signal.

특징점 추출부(30)는 상기 전처리부(20)에서 입력되는 화상신호의 윤곽선을 기준으로 그 화상신호에 대한 특징점을 추출한다.The feature point extractor 30 extracts a feature point for the image signal based on the outline of the image signal input from the preprocessor 20.

3차원 정보 추출부(40)는 상기 특징점 추출부(30)에서 추출된 특징점을 이용하여 전처리부(20)에서 입력되는 화상신호를 회전, 줌 및 이동시켜 이미지를 재배열한 후, 재배열된 이미지간의 변위정보를 이용하여 3차원 정보를 추출한다.The 3D information extractor 40 rotates, zooms, and shifts the image signal input from the preprocessor 20 using the feature points extracted by the feature point extractor 30 to rearrange the images, and then rearrange the images. Three-dimensional information is extracted using the displacement information of the liver.

마스크 생성부(50)는 상기 3차원 정보 추출부(30)에서 추출된 3차원 정보를 내부에 미리 설정되어 있는 기준 마스크와 비교하여, 각 개인마다 특징있는 새로운 마스크를 생성한다.The mask generation unit 50 compares the three-dimensional information extracted by the three-dimensional information extraction unit 30 with a reference mask preset therein, and generates a new mask that is unique for each individual.

데이터 베이스부(60)는 정당한 사용자의 화상신호로부터 얻을 수 있는 다수의 이미지 데이터를 마스킹 데이터로 갖는다.The database unit 60 has, as masking data, a large number of image data obtained from legitimate user image signals.

형상 인식부(70)는 일반적으로 중앙처리시스템으로서, 상기 마스크 생성부(50)에서 생성된 새로운 마스크를 상기 데이터 베이스부(60)의 마스킹 데이터와 비교하여, 동일한 마스크인지의 여부를 판단한다. 이때 새로운 마스크와 동일한 마스크가 데이터 베이스부(60)에 존재하는 경우 현재 카메라를 통해 촬상된 형상이 이미 등록되어 있는 마스크임을 인식하여 정당한 사용자로 분류하고, 그렇지 않은 경우 미등록된 마스크임을 인식하여 부적당한 사용자로 분류한다.The shape recognizing unit 70 is a central processing system. In general, the shape recognizing unit 70 compares the new mask generated by the mask generating unit 50 with the masking data of the database unit 60 to determine whether the same mask is the same. In this case, when the same mask as the new mask exists in the database unit 60, the current image captured by the camera is recognized as a mask that is already registered and classified as a legitimate user. Classify as a user.

저장매체(80)는 전체 시스템의 구동 프로그램 및 3차원 마스킹법에 의한 형상 인식을 위한 다수의 프로그램이 저장되어 있으며, 상기 형상 인식부(70)의 제어신호에 따라 저장된 데이터를 형상 인식부(70)로 출력한다. 상술한 저장매체(80)는 반도체 메모리를 갖는 카드, 하드 디스크, 광디스크 등과 같이 다양하게 적용할 수 있다.The storage medium 80 stores a driving program of the entire system and a plurality of programs for shape recognition by a three-dimensional masking method, and stores the data stored according to the control signal of the shape recognition unit 70. ) The storage medium 80 described above may be used in various ways, such as a card having a semiconductor memory, a hard disk, an optical disk, or the like.

상술한 화상 입력부(10)는 대상체를 촬상하는 CCD 카메라(11)와, 상기 CCD 카메라의 촬상에 따라 입력되는 신호를 지정된 형식으로 디스플레이될 수 있도록 캡쳐하는 영상 캡쳐부(12)와, 상기 특징점 검출부(30)에서 선정된 검사 후보영역을 이용하여 현재 CCD 카메라의 회전범위를 연산하여 카메라 구동 제어신호를 출력하는 카메라 구동 제어부(13)와, 상기 카메라 구동 제어부(13)의 카메라 구동 제어신호에 따라 카메라 소정 방형으로 회전할 수 있도록 하는 카메라 구동부(14)로 구성될 수 있다.The image input unit 10 described above includes a CCD camera 11 for capturing an object, an image capturing unit 12 for capturing a signal input according to the imaging of the CCD camera in a specified format, and the feature point detector. A camera driving control unit 13 for outputting a camera driving control signal by calculating a rotation range of the current CCD camera using the inspection candidate region selected at 30, and according to the camera driving control signal of the camera driving control unit 13; The camera driver 14 may be configured to rotate the camera in a predetermined rectangle.

도 2는 본 발명에 따른 피부색 및 움직임 추적에 의한 얼굴인식방법의 일 실시예를 설명하기 위한 동작 흐름도로서, 카메라를 통해 포착되는 화상신호의 검사 후보영역을 선정하고, 해당 영역 내에서 특징점을 검출하고 이미지를 재배열하여 얼굴 구성요소 검사에 의한 얼굴 가능영역을 검출하고, 상기 얼굴 가능영역에 대해 특징점 추출 및 검사를 수행하여 얼굴 존재여부를 판단하면서 피사체의 움직임을 따라 카메라의 방향을 조절하는 과정(S200-S250)과; 상기 얼굴 존재여부 판단결과, 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 상기 재배열된 이미지를 기설정된 특징점에 의해 다시 한 번 재배열한 후, 재배열된 이미지간의 변위정보로 3차원 정보를 생성하고, 그 3차원 정보로 피사체의 얼굴 마스크를 합성해내는 과정(S260)과; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 판단하는 과정(S270)을 포함하여 이루어진다.2 is an operation flowchart for explaining an embodiment of a face recognition method using skin color and motion tracking according to the present invention, which selects an inspection candidate region of an image signal captured by a camera and detects feature points within the region. And rearranging the images to detect a possible face region by face component inspection, and extracting and inspecting feature points on the face component region to determine whether a face exists and to adjust the direction of the camera according to the movement of the subject. (S200-S250); As a result of the determination of the presence of the face, for the image signal in which the face exists in the inspection candidate region, the rearranged image is rearranged once again by a predetermined feature point, and then three-dimensional information is generated by displacement information between the rearranged images. Synthesizing the face mask of the subject with the three-dimensional information (S260); The method may include determining whether to register an image for a specific individual by searching for the synthesized face mask from individual registration masks previously built in the database (S270).

도 3은 본 발명에 따른 피부색 및 움직임 추적에 의한 얼굴인식방법의 다른 실시예를 설명하기 위한 동작 흐름도로서, 카메라를 통해 입력되는 화상신호로부터 피부색 데이터와 움직임 데이터를 각각 추출하여 하나 이상의 검사 후보영역을 선정하고, 해당 영역 내의 명도차를 이용한 얼굴 구성요소의 템플레이트 매칭작업을 수행하여, 검사 대상 얼굴의 존재여부를 확인한 후 카메라의 위치를 조정하는 과정(S300-S340)과; 상기 선정된 얼굴 영역내의 재배열된 이미지 확인 결과, 해당 영역내에 얼굴이 존재하는 화상신호에 대하여는 다시 이미지를 재배열한 후, 상기 재배열된 이미지간의 변위정보를 이용하여 3차원 정보를 생성하고, 상기 3차원 정보를 기준 마스크와 비교하여 개인별 얼굴 마스크를 합성해내는 과정(S350-S370)과; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 확인하는 과정(S380-S400)을 포함하여 이루어진다.3 is a flowchart illustrating another embodiment of a face recognition method using skin color and motion tracking according to an embodiment of the present invention, wherein skin color data and motion data are extracted from an image signal input through a camera, and at least one inspection candidate region is shown. Selecting a and performing a template matching operation on the face components using the difference in brightness in the corresponding area, checking whether a face to be inspected exists and adjusting a camera position (S300-S340); As a result of confirming the rearranged image in the selected face region, the image signal having the face in the region is rearranged again, and then three-dimensional information is generated by using the displacement information between the rearranged images. Synthesizing an individual face mask by comparing three-dimensional information with a reference mask (S350-S370); Searching for the synthesized face mask from individual registration masks pre-built in the database to determine whether to register an image for a specific individual (S380-S400).

이상과 같이 구성되는 본 발명의 각 실시예들에 대한 동작을 설명하면 다음과 같다.Referring to the operation of each embodiment of the present invention configured as described above are as follows.

먼저, 도 2의 본 발명 방법의 일 실시예에 대한 동작을 도 1의 블록도와의 상호작용을 참조하여 설명한다.First, the operation of one embodiment of the method of the present invention of FIG. 2 will be described with reference to the interaction with the block diagram of FIG.

먼저, 화상입력부(10)에서는 CCD 카메라(11) 및 영상 캡쳐부(12)에 의해 촬상되는 화상신호를 입력받고, 하나의 화면을 구성할 수 있도록 전처리부(20)를 통해 잡음 제거한 후, 윤곽선 보정 및 필터링을 하게 된다.First, the image input unit 10 receives an image signal captured by the CCD camera 11 and the image capturing unit 12, removes noise through the preprocessor 20 so as to form one screen, and then outlines the contour. Calibration and filtering will be performed.

이렇게 신호처리된 화상신호는 특징점 검출부(30)로 입력된다. 이 특징점 추출부(30)에서는 화상신호의 이전 화면과 현재 화면을 비교하는 동작으로 피사체의 움직임을 검출하여 움직임 데이터를 생성하게 되며, 또한 색구성요소(예를 들어 R(적), G(녹), B(청)나 YUV)의 비율로 구성되는 피부색의 범위를 갖는 부분을 검출하여 피부색 데이터를 생성하게 된다.The image signal processed in this manner is input to the feature point detector 30. The feature point extractor 30 detects the movement of the subject to generate motion data by comparing the previous screen with the current screen of the image signal, and also generates color data (for example, R (red), G (green). ), The skin color data is generated by detecting a part having a skin color range composed of a ratio of B (blue) or YUV).

또한 상기 특징점 검출부(30)에서는 상술한 바와 같이 생성된 피부색 데이터와 움직임 데이터를 이용하여, 화상 입력부(10) 및 전처리부(20)를 통해 입력되는 한 필드의 화상신호로부터 다수의 검사 후보영역을 선정(S210)하며, 이 검사 후보영역으로부터 얼굴 구성요소 확인에 의해 얼굴 존재영역을 선정(S210-1)한다. 이 후 선정된 얼굴영역에 대해 특징점을 검출하고, 그 특징점을 이용하여 CCD 카메라(11) 및 전처리부(20)에 의해 입력된 이미지를 재배열(S220)시킨다.In addition, the feature point detection unit 30 uses the skin color data and the motion data generated as described above, to generate a plurality of inspection candidate regions from one field image signal input through the image input unit 10 and the preprocessor 20. In step S210, a face presence region is selected from the inspection candidate region by face component verification (S210-1). Thereafter, a feature point is detected for the selected face region, and the image input by the CCD camera 11 and the preprocessor 20 is rearranged using the feature point (S220).

이렇게 생성된 검사 후보영역에 대한 움직임 데이터 및 피부색 데이터, 검출된 특징점, 재배열된 이미지 데이터는 3차원 정보 추출부(40)와 카메라 구동 제어부(13)로 각각 입력된다.The motion data and skin color data, the detected feature points, and the rearranged image data of the test candidate region generated as described above are input to the 3D information extractor 40 and the camera driving controller 13, respectively.

상술한 것과 같이 생성된 검사 후보영역에 대한 피부색 데이터 및 움직임 데이터, 검출된 특징점, 재배열된 이미지 데이터를 입력받은 카메라 구동 제어부(13)는 바로 전에 입력받아 상술한 과정을 따라 처리된 검사 후보영역 데이터와 비교한다.The camera driving controller 13 receiving the skin color data and motion data, the detected feature point, and the rearranged image data of the test candidate region generated as described above is received immediately before and processed according to the above-described process. Compare with data.

카메라 구동 제어부(13)는 상술한 것과 같이 두 개의 검사 후보영역의 데이터를 비교함으로써, 검사 후보영역의 이동거리를 연산(S230)할 수 있으며, 그 이동된 거리만큼 CCD 카메라(11)를 회전시켜, 대상체를 재촬영할 수 있도록 그 회전방향 및 회전각도를 결정하게 된다.As described above, the camera driving controller 13 may calculate the moving distance of the inspection candidate region by comparing the data of the two inspection candidate regions (S230), and rotate the CCD camera 11 by the moved distance. The rotation direction and the rotation angle are determined so that the object can be retaken.

이렇게 결정된 CCD 카메라(11)의 회전방향 및 회전각도는 카메라 구동 제어신호로서 카메라 구동부(14)로 입력되고, 이러한 카메라 구동 제어신호를 입력받은 카메라 구동부(14)는 상기 회전각도 만큼 CCD 카메라(11)를 소정 방향으로 회전(S240)시킨다. 이러한 카메라 제어동작은 새로운 피사체가 검출될때마다 매번 반복적으로 수행된다.The rotation direction and the rotation angle of the CCD camera 11 determined as described above are input to the camera driver 14 as a camera driving control signal, and the camera driver 14 receiving the camera driving control signal receives the CCD camera 11 as much as the rotation angle. ) Rotates in a predetermined direction (S240). This camera control operation is repeatedly performed each time a new subject is detected.

한편, 상기 특징점 검출부(30)에서 생성된 검사 후보영역의 피부색 데이터 및 움직임 데이터, 특징점, 재배열된 이미지 데이터를 입력받은 3차원 정보 추출부(40)는 상기 검출된 특징점을 이용하여 다시 한 번 이미지를 재배열시킨 후, 상기 재배열된 이미지의 특징점을 기설정된 특징점과 비교하여, 검사 후보영역 내에 얼굴이 존재하는 지의 여부를 판단한다.Meanwhile, the 3D information extractor 40 receiving the skin color data, the motion data, the feature points, and the rearranged image data of the test candidate region generated by the feature point detector 30 is once again using the detected feature points. After rearranging the images, the feature points of the rearranged images are compared with a predetermined feature point to determine whether a face exists in the inspection candidate region.

상기 판단 결과, 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 이미지를 재배열시키고, 다수의 이미지 상호간의 변위정보를 이용하여 3차원 정보를 생성하며, 생성된 3차원 정보를 마스크 생성부(50)에 구비된 기준 마스크와 비교하여 개인별로 다른 새로운 마스크를 생성(S260)한다.As a result of the determination, the image signals of the face in the inspection candidate region are rearranged, 3D information is generated by using displacement information of a plurality of images, and the generated 3D information is generated by the mask generator 50. In operation S260, a new mask different for each individual is generated as compared with the reference mask provided in FIG.

이렇게 생성된 새로운 마스크를 데이터 베이스부(60)에 저장되어 있는 마스크 데이터와 비교하여 존재하는지를 판단하고, 판단 결과 동일한 마스크 데이터가 데이터 베이스부(60)에 존재하는 경우, 등록된 마스크임을 인식하여 현재 카메라를 통해 포착된 피사체를 정당한 사용자로 분류한다. 상기 판단 결과 새로운 마스크와 동일한 마스크 데이터가 데이터 베이스부(60)에 존재하지 않는 경우 등록되지 않은 마스크임을 인식(S270)하여 부당한 사용자로 분류한다.The new mask generated as described above is compared with the mask data stored in the database unit 60 to determine whether the same mask data exists. If the same mask data exists in the database unit 60, it is recognized as a registered mask. Classify the subject captured by the camera as a legitimate user. If the same mask data as the new mask does not exist in the database unit 60 as a result of the determination, it is recognized as an unregistered mask (S270) and classified as an invalid user.

다음으로, 도 3의 본 발명 방법의 다른 실시예에 대한 동작을 도 1의 블록도와의 상호작용을 참조하여 설명한다.Next, the operation of another embodiment of the method of FIG. 3 will be described with reference to the interaction with the block diagram of FIG.

화상 입력부(10)의 CCD 카메라(11)와 영상 캡쳐부(12) 및 전처리부(20)를 통해 화상신호가 입력되면, 특징점 검출부(30)에서는 그 입력신호를 체크(S300)하여, 화상신호의 이전 화면과 현재 화면을 비교하는 동작으로 피사체의 움직임을 검출하여 움직임 데이터를 생성하게 되며, 또한 색구성요소(예를 들어 R(적), G(녹), B(청)나 YUV)의 비율로 구성되는 피부색의 범위를 갖는 부분을 검출하여 피부색 데이터를 생성(S310)한다.When an image signal is input through the CCD camera 11, the image capturing unit 12, and the preprocessing unit 20 of the image input unit 10, the feature point detection unit 30 checks the input signal (S300) and the image signal. By comparing the previous screen with the current screen, the motion of the subject is detected and motion data is generated. Also, the color components (for example, R (red), G (green), B (blue) or YUV) The skin color data is generated by detecting a portion having a range of skin colors configured as a ratio (S310).

또한 특징점 검출부(30)에서는 상술한 단계에서 생성된 피부색 데이터와 움직임 데이터를 이용하여 한 필드의 화상신호로부터 검사 후보영역을 선정(S320)한다.In addition, the feature point detection unit 30 selects an inspection candidate region from an image signal of one field by using the skin color data and the motion data generated in the above-described step (S320).

상기 검사 후보영역이 선정되면, 얼굴구성요소 검사에 의한 얼굴 가능 영역을 검출(S320-1)하여, 해당 영역내에 추적 대상체를 가려낸다. 이후 상기 특징점 검출부(30)에 의해 검출된 특징점에 의해 이미지를 재배열(S330)시키고, 상기 재배열된 이미지로부터 해당 영역내에 추적 대상체가 되는 얼굴이 존재하면, 해당 영역내에 얼굴이 존재하는 화상신호에 대하여는 카메라 촬상신호의 중앙에 얼굴이 위치하도록 카메라를 미세 조절(도면상에는 도시되지 않음)한 후, 이미지를 재배열(S350)시키고, 다수의 이미지 상호간의 변위정보를 이용하여 3차원 정보를 생성(S360)하며, 상기 생성된 3차원 정보를 마스크 생성부(50)에 구비된 기준 마스크와 비교하여 개인별로 각각 다른 새로운 마스크를 생성(S370)한다.When the test candidate region is selected, a face capable region by face component inspection is detected (S320-1), and a tracking object is screened in the region. Thereafter, the image is rearranged by the feature point detected by the feature point detector 30 (S330), and if there is a face to be a tracking object in the corresponding area from the rearranged image, an image signal exists in the corresponding area. Regarding to, after fine-adjusting the camera so that the face is located at the center of the camera image signal (not shown in the drawing), the images are rearranged (S350), and three-dimensional information is generated by using displacement information between a plurality of images. In operation S370, a new mask different for each individual is generated by comparing the generated 3D information with the reference mask provided in the mask generator 50 (S370).

상기 판단 결과, 정확한 얼굴이 존재하지 않는 경우, 현재의 카메라 위치로부터 움직여야 할 카메라 구동치를 연산하여 카메라가 정상적인 위치(평상시의 촬영위치)로 복귀하도록 카메라의 위치를 조절(S341)한 후, 화상신호를 입력받아 피부색 데이터 및 움직임 데이터를 생성하는 단계(S310)부터 동작을 재수행한다.As a result of the determination, when the correct face does not exist, after calculating the camera driving value to be moved from the current camera position and adjusting the position of the camera so that the camera returns to the normal position (normal shooting position) (S341), the image signal In step S310 of receiving the skin color data and the movement data, the operation is performed again.

이렇게 생성된 새로운 마스크를 데이터 베이스부(60)에 저장되어 있는 마스크 데이터와 비교하여, 새로 생성된 마스크가 데이터 베이스에 존재하는지를 판단(S380)하고, 판단 결과 동일한 마스크가 데이터 베이스부(60)에 존재하는 경우 등록된 마스크임을 인식(S390)하여 현재 카메라에 포착된 피사체를 정당한 사용자로 분류하고, 판단 결과 동일한 마스크가 데이터 베이스부에 존재하지 않는 경우 등록되지 않은 마스크임을 인식하여 현재 카메라에 포착된 피사체를 부당한 사용자로 분류한다.The new mask generated as described above is compared with the mask data stored in the database unit 60 to determine whether the newly generated mask exists in the database (S380), and the same mask is provided to the database unit 60 as a result of the determination. If it is present, it recognizes that it is a registered mask (S390) and classifies the subject captured by the current camera as a legitimate user. If the same mask does not exist in the database part, it is recognized as an unregistered mask and is captured by the current camera. Classify the subject as invalid user.

따라서 상술한 바와 같이 본 발명은 입력되는 화상신호에서 피부색 정보 및 움직임 정보를 추출하여 사람의 얼굴임을 인식하게 되는데, 이때 정확한 얼굴형상이 인식되지 않는 경우 사람의 얼굴을 정확하게 인식할 수 있도록 카메라를 일정 방향만큼 회전시켜 완전한 얼굴형상을 인식할때까지 카메라의 위치를 반복 조절함으로써, 인식 시스템을 이용하고자 하는 이용자가 지정된 위치로 움직이지 않아도 정확한 얼굴 형상을 지능적으로 촬영할 수 있게 되는 이점이 있다.Therefore, as described above, the present invention extracts skin color information and motion information from an input image signal to recognize a human face. In this case, when the correct face shape is not recognized, the camera is fixed so that the human face can be accurately recognized. By repeatedly adjusting the position of the camera until it recognizes the complete face shape by rotating the direction, there is an advantage that the user who wants to use the recognition system can intelligently photograph the correct face shape without moving to the designated position.

Claims (2)

카메라를 통해 포착되는 화상신호의 다수의 검사 후보영역을 선정하고, 해당 영역 내의 얼굴 구성요소 검사에 의한 얼굴 가능영역을 검출하여 얼굴 존재여부를 판단하면서 특정 후보영역을 선택하여, 상기 선택된 해당 후보영역의 피사체의 움직임을 따라 카메라의 방향을 조절하는 과정;Selecting a plurality of inspection candidate regions of the image signal captured by the camera, detecting a possible face region by face component inspection within the region, and selecting a specific candidate region while determining whether a face exists, and selecting the selected candidate region. Adjusting the direction of the camera according to the movement of the subject; 상기 얼굴 존재여부 판단결과, 상기 해당 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 특징점을 검출하여 이미지를 재배열하고, 상기 재배열된 이미지간의 변위정보로 3차원 정보를 생성하고, 그 3차원 정보로 피사체의 얼굴 마스크를 합성해내는 과정;As a result of the determination of the presence of the face, the image signal for which the face exists in the corresponding inspection candidate region is detected and rearranged to generate images, and the three-dimensional information is generated by displacement information between the rearranged images. Synthesizing a face mask of a subject with information; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 판단하는 과정을 포함하는 것을 특징으로 하는 얼굴 촬영/인식방법.And determining whether to register an image for a specific individual by searching for the synthesized face mask from individual registration masks previously built in a database. 카메라를 통해 입력되는 화상신호로부터 피부색 데이터와 움직임 데이터를 각각 추출하여 다수의 검사 후보영역을 선정하고, 해당 검사 후보영역 내의 화상신호에 대한 얼굴 구성요소 검사에 의한 얼굴 가능영역을 검출하여 특정 후보영역을 선택하고 특징점을 검출하여 이미지를 재배열한 후, 재배열된 이미지를 이용하여 얼굴 유/무를 확인하면서 상기 선택된 해당 후보영역의 피사체의 움직임을 따라 카메라의 위치를 조절하는 과정;Skin color data and motion data are extracted from the image signal input through the camera, respectively, and a plurality of inspection candidate regions are selected, and a face candidate region by face component inspection on the image signal within the inspection candidate region is detected to detect a specific candidate region. Selecting and detecting a feature point and rearranging the image, and then adjusting the position of the camera according to the movement of the subject of the selected candidate region while checking the presence or absence of the face using the rearranged image; 상기 검사 후보영역 내에 얼굴이 존재하는 화상신호에 대하여는 다시 이미지를 재배열한 후, 상기 재배열된 이미지간의 변위정보를 이용하여 3차원 정보를 생성하고, 상기 3차원 정보를 기준 마스크와 비교하여 개인별 얼굴 마스크를 합성해내는 과정;The image signal having a face in the inspection candidate region is rearranged again, and then three-dimensional information is generated by using the displacement information between the rearranged images, and the three-dimensional information is compared with a reference mask to face each individual face. Synthesizing a mask; 상기 합성된 얼굴 마스크를 데이터 베이스에 미리 구축되어 있는 개인별 등록 마스크들로부터 탐색하여 특정 개인에 대한 이미지 등록 여부를 확인하는 과정으로 이루어진 것을 특징으로 하는 얼굴 촬영/인식방법.And searching for the synthesized face mask from individual registration masks pre-built in a database to determine whether to register an image for a specific individual.
KR1019990045407A 1998-11-18 1999-10-19 Method for photographing and recognizing a face KR100347058B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1019990045407A KR100347058B1 (en) 1998-11-18 1999-10-19 Method for photographing and recognizing a face
GB9926654A GB2343945B (en) 1998-11-18 1999-11-10 Method and apparatus for photographing/recognizing a face
JP11322332A JP2000163600A (en) 1998-11-18 1999-11-12 Face photographing and recognizing method and device
DE19955714A DE19955714A1 (en) 1998-11-18 1999-11-18 Method and apparatus for photographing / recognizing a face
CN 99124868 CN1254904A (en) 1998-11-18 1999-11-18 Method and equipment for picking-up/recognizing face

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1019980049468 1998-11-18
KR19980049468 1998-11-18
KR1019990045407A KR100347058B1 (en) 1998-11-18 1999-10-19 Method for photographing and recognizing a face

Publications (2)

Publication Number Publication Date
KR20000035050A true KR20000035050A (en) 2000-06-26
KR100347058B1 KR100347058B1 (en) 2002-08-03

Family

ID=26634343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990045407A KR100347058B1 (en) 1998-11-18 1999-10-19 Method for photographing and recognizing a face

Country Status (1)

Country Link
KR (1) KR100347058B1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020022295A (en) * 2000-09-19 2002-03-27 장기화 Device And Method For Face Recognition Using 3 Dimensional Shape Information
KR20020041394A (en) * 2002-05-16 2002-06-01 이종현 Adult site access preventing device
KR100382792B1 (en) * 2000-08-22 2003-05-01 김운용 Intelligent robotic camera and distributed control apparatus thereof
KR100450210B1 (en) * 2002-10-25 2004-09-24 (주)엔룩스 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function
KR100608307B1 (en) * 2004-06-29 2006-08-02 이필중 The method and system for recognition human face
KR100840022B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing person included in digital data by using preview history
KR20100095246A (en) * 2009-02-20 2010-08-30 삼성전자주식회사 Method and apparatus for determining sexual stuff in video content
KR101053253B1 (en) * 2009-09-01 2011-08-02 (주)실리콘화일 Apparatus and method for face recognition using 3D information
KR101420130B1 (en) * 2012-10-19 2014-08-13 국방과학연구소 Identification of friend or foe system based on image processing, and control method of the same
US10331323B2 (en) 2011-11-08 2019-06-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US10404939B2 (en) 2009-08-26 2019-09-03 Intouch Technologies, Inc. Portable remote presence robot
US10887545B2 (en) 2010-03-04 2021-01-05 Teladoc Health, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
CN112380965A (en) * 2020-11-11 2021-02-19 浙江大华技术股份有限公司 Method for face recognition and multi-view camera
US11787060B2 (en) 2008-03-20 2023-10-17 Teladoc Health, Inc. Remote presence system mounted to operating room hardware

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904559B1 (en) 2007-11-28 2009-06-25 한국 한의학 연구원 Face Diagnotic Method Using Stereo Images
CN108269333A (en) * 2018-01-08 2018-07-10 平安科技(深圳)有限公司 Face identification method, application server and computer readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3088880B2 (en) * 1993-09-07 2000-09-18 シャープ株式会社 Person recognition device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100382792B1 (en) * 2000-08-22 2003-05-01 김운용 Intelligent robotic camera and distributed control apparatus thereof
KR20020022295A (en) * 2000-09-19 2002-03-27 장기화 Device And Method For Face Recognition Using 3 Dimensional Shape Information
KR20020041394A (en) * 2002-05-16 2002-06-01 이종현 Adult site access preventing device
KR100450210B1 (en) * 2002-10-25 2004-09-24 (주)엔룩스 System and method for compositing three dimension scan face model and recording medium having program for three dimension scan face model composition function
KR100608307B1 (en) * 2004-06-29 2006-08-02 이필중 The method and system for recognition human face
KR100840022B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing person included in digital data by using preview history
US11787060B2 (en) 2008-03-20 2023-10-17 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
KR20100095246A (en) * 2009-02-20 2010-08-30 삼성전자주식회사 Method and apparatus for determining sexual stuff in video content
US10911715B2 (en) 2009-08-26 2021-02-02 Teladoc Health, Inc. Portable remote presence robot
US10404939B2 (en) 2009-08-26 2019-09-03 Intouch Technologies, Inc. Portable remote presence robot
KR101053253B1 (en) * 2009-09-01 2011-08-02 (주)실리콘화일 Apparatus and method for face recognition using 3D information
US10887545B2 (en) 2010-03-04 2021-01-05 Teladoc Health, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US11798683B2 (en) 2010-03-04 2023-10-24 Teladoc Health, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10331323B2 (en) 2011-11-08 2019-06-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
KR101420130B1 (en) * 2012-10-19 2014-08-13 국방과학연구소 Identification of friend or foe system based on image processing, and control method of the same
CN112380965A (en) * 2020-11-11 2021-02-19 浙江大华技术股份有限公司 Method for face recognition and multi-view camera
CN112380965B (en) * 2020-11-11 2024-04-09 浙江大华技术股份有限公司 Face recognition method and multi-camera

Also Published As

Publication number Publication date
KR100347058B1 (en) 2002-08-03

Similar Documents

Publication Publication Date Title
JP3271750B2 (en) Iris identification code extraction method and device, iris recognition method and device, data encryption device
US20210287026A1 (en) Method and apparatus with liveness verification
KR100347058B1 (en) Method for photographing and recognizing a face
US7324670B2 (en) Face image processing apparatus and method
US6661907B2 (en) Face detection in digital images
US7127086B2 (en) Image processing apparatus and method
KR20190075560A (en) Liveness test method and apparatus
RU2431190C2 (en) Facial prominence recognition method and device
KR100362328B1 (en) Face-image processing apparatus
US20070116364A1 (en) Apparatus and method for feature recognition
JP2006260583A (en) Automated, non-invasive iris recognition system and method
JP2006146626A (en) Pattern recognition method and device
KR20190060671A (en) Iris recognition based user authentication apparatus and method thereof
JP2007025767A (en) Image recognition system, image recognition method, and image recognition program
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
US11354940B2 (en) Method and apparatus for foreground geometry and topology based face anti-spoofing
JP7269897B2 (en) Data registration device, biometric authentication device, and data registration program
Khan et al. Comparison of various edge detection filters for ANPR
JP2018169943A (en) Face authentication processing device, face authentication processing method and face authentication processing system
KR19990079823A (en) Face Recognition Method Considering Lighting Change
KR20000032853A (en) System and method for face recognition with three-dimensional masking method
KR101031369B1 (en) Apparatus for identifying face from image and method thereof
Cindori et al. Security Hardening of Facial Recognition Systems
JP2001331804A (en) Device and method for detecting image area

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20060720

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee