KR101165415B1 - Method for recognizing human face and recognizing apparatus - Google Patents

Method for recognizing human face and recognizing apparatus Download PDF

Info

Publication number
KR101165415B1
KR101165415B1 KR1020100048093A KR20100048093A KR101165415B1 KR 101165415 B1 KR101165415 B1 KR 101165415B1 KR 1020100048093 A KR1020100048093 A KR 1020100048093A KR 20100048093 A KR20100048093 A KR 20100048093A KR 101165415 B1 KR101165415 B1 KR 101165415B1
Authority
KR
South Korea
Prior art keywords
coordinates
face
visible light
image data
temperature color
Prior art date
Application number
KR1020100048093A
Other languages
Korean (ko)
Other versions
KR20110128574A (en
Inventor
최원철
Original Assignee
주식회사 다음커뮤니케이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다음커뮤니케이션 filed Critical 주식회사 다음커뮤니케이션
Priority to KR1020100048093A priority Critical patent/KR101165415B1/en
Publication of KR20110128574A publication Critical patent/KR20110128574A/en
Application granted granted Critical
Publication of KR101165415B1 publication Critical patent/KR101165415B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지내 생체 얼굴 인식 방법 및 인식 장치에 관한 것으로서, 본 발명의 목적은 파노라마 사진 등의 이미지에서 생체 얼굴의 좌표만을 정확하게 인식하는 이미지내 생체 얼굴 인식 방법 및 인식 장치를 제공하는 것이다.
본 발명에서는 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여, 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 하는 이미지내 생체 인식 방법이 제공된다.
The present invention relates to a biometric face recognition method and a recognition apparatus in an image, and an object of the present invention is to provide a biometric face recognition method and a recognition device in an image that accurately recognizes only the coordinates of the biometric face in an image such as a panoramic picture.
According to the present invention, a first step of acquiring visible light image data by capturing a specific point by using a visible light photographing apparatus, and the same point and the same angle of view at the same point as the photographing point of the first step by using an infrared photographing apparatus A second step of acquiring infrared image data by photographing using a face pattern algorithm, pattern recognition of a biological face included in the visible light image data, and extracting coordinate information of a point where the corresponding biological face is located A third step of storing in a first table, a fourth step of extracting coordinate information of a biological face included in the infrared image data using a temperature color value, and storing the coordinate information in a second table; Left stored in the first table using the stored coordinate information and the coordinate information stored in the second table. An in-image biometric recognition method is provided, comprising a fifth step of identifying coordinates in the table that are erroneously recognized as a non-living face.

Description

이미지내 생체 얼굴 인식 방법 및 인식 장치{METHOD FOR RECOGNIZING HUMAN FACE AND RECOGNIZING APPARATUS}Biometric Face Recognition Method and Recognition Device in Image {METHOD FOR RECOGNIZING HUMAN FACE AND RECOGNIZING APPARATUS}

본 발명은 안면 인식 방법 및 인식 장치에 관한 것으로서, 보다 상세하게는 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 정확히 자동 식별해내기 위한 이미지내 생체 얼굴 인식 방법 및 인식 장치에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a facial recognition method and a recognition device, and more particularly, to a biometric face recognition method and a recognition device in an image for accurately and automatically identifying only a human face in an image obtained through a photographing device.

유무선 통신의 발달과 더불어 컴퓨터, 네비게이터, 휴대폰과 같은 전자 정보 단말기의 발달과 보급 확대가 증대되고 있다. 이에 따라 특정 지역의 지리 정보를 얻고자 하는 사용자들은 상기 단말기에 접속하여 도로나 지형, 지물 등 해당 지역과 관련된 일체의 정보를 담고 있는 전자지도 서비스를 손쉽게 제공받을 수 있다. 그러나, 종래 지리 정보 제공 서비스는 2D 로 구현되어 표시해 주고 있어 사용자가 해당 지역과 관련된 지형, 지물을 시각적으로 정확히 인식하는 것은 불가능하였다.With the development of wired and wireless communication, the development and expansion of electronic information terminals such as computers, navigators and mobile phones are increasing. Accordingly, users who want to obtain geographic information of a specific region can easily access the terminal and receive an electronic map service containing all information related to the region, such as roads, terrain, and features. However, since the conventional geographic information providing service is implemented and displayed in 2D, it was impossible for the user to visually accurately recognize the terrain and features related to the corresponding area.

상기와 같은 문제점을 극복하기 위하여 최근에는 도로, 지형, 지물을 시각적으로 인식할 수 있도록, 전자지도상에 해당 지역의 실제 사진을 함께 표시해주는 파노라마 사진 지리 정보 제공 서비스가 개발 및 시도되고 있다.In order to overcome the above problems, recently, a panoramic photo geographic information providing service for displaying a real picture of a corresponding area on an electronic map has been developed and attempted to visually recognize roads, terrain, and features.

상술한 파노라마 사진을 이용한 지리 정보 제공 서비스를 구현하기 위해서는 기본적으로 사진 촬영 작업, 사진 연결 작업 및 매핑 작업이 필요하다.In order to implement the geographic information providing service using the above-mentioned panorama picture, basically, a picture taking work, a picture connecting work, and a mapping work are required.

사진 촬영 작업이란 차량에 설치된 다수 개의 카메라를 이용하여 각 지역을 이동하며 지형, 지물 및 도로의 분할 촬영을 통해 영상 프레임들을 획득해 나가는 작업을 의미한다.Photographing refers to a task of acquiring image frames through segmented photographing of terrain, features, and roads by moving each region using a plurality of cameras installed in a vehicle.

사진 연결 작업이란 사진 촬영 작업을 통해 획득한 다수 개의 영상 프레임들을 도로변에 위치한 순서대로 파노라마 사진으로 연결하면서 편집하는 작업을 의미한다. 상기 사진 연결 작업을 통해 구성된 각각의 파노라마 사진은 GPS 코드로 연결할 수 있는 디지털 지도와 매핑함으로써 실제 영상의 위치 정보 제공이 가능해 진다.Photo linking refers to a process of editing a plurality of image frames acquired through a photo shooting process while connecting them as panorama photos in the order of being located along the roadside. Each panorama picture configured through the picture connection operation can be mapped to a digital map that can be connected with a GPS code, thereby providing location information of an actual image.

사진 매핑 작업이란, 사진 촬영 작업을 통해 획득되는 각각의 영상 프레임의 GPS(Global Positioning System) 좌표를 이용하여 해당 사진을 전자지도 상의 정확한 위치에 올려놓는 작업을 의미한다.The photo mapping task refers to a task of placing a corresponding photo on an accurate position on an electronic map by using GPS (Global Positioning System) coordinates of each image frame obtained through the photo shooting task.

이러한 파노라마 사진 지리 정보 제공 서비스를 제공하는 상업적인 사이트로는 대표적으로 '다음(www.daum.net) 사이트'에서 제공하는 '로드뷰'가 있으며, '구글 사이트'에서 제공하는 '스트리트뷰'가 있다.Commercial sites that provide such panoramic photo geographic information service include 'Road View' provided by Daum (www.daum.net) site, and 'Street View' provided by 'Google Site'. .

그러나, 차량을 통해 수집되는 각 파노라마 사진에는 차량 번호 및 사람의 얼굴과 같은 개인 정보가 포함되어 있다. 이중 사람의 얼굴이 파노라마 사진을 통해 노출되는 것을 방지하기 위해서 얼굴 패턴 인식 알고리듬을 이용하여 처리하고 있다. 촬영된 이미지에 눈, 코, 및 입에 해당하는 영상이 포함되는 경우의 패턴을 검사하여 얼굴임을 인식하고 해당 부분을 블러링(bluring) 처리하는 것이다.However, each panorama picture collected by the vehicle includes personal information such as the vehicle number and the face of the person. In order to prevent human face from being exposed through the panorama picture, the face pattern recognition algorithm is used. When the photographed image includes an image corresponding to the eyes, nose, and mouth, the pattern is examined to recognize that the face and blur the corresponding portion.

그런데 이러한 얼굴 패턴 인식 알고리듬의 경우 얼굴의 측면이 노출될 경우 이를 인식하지 못하거나 얼굴 모양과 비슷한 영화 포스트, 광고판에 포함된 얼굴 사진 등을 생체 얼굴로 오인식하는 경우가 많이 발생되어 얼굴 패턴 인식 알고리듬을 적용한 이후에 수작업을 통해서 이미지에 포함된 이러한 오인식을 보정하는데 상당한 시간과 인력이 투입되며, 작업자의 수작업에 의존할 경우 비생체 얼굴 사진을 빠짐없이 식별해내기 어려워 생체얼굴 식별에 누락이 발생하는 문제점이 있었다.
However, the face pattern recognition algorithm does not recognize the face when the side of the face is exposed or misrecognizes the face of the movie post, billboard, etc., which is similar to the face shape, as a biometric face. After application, considerable time and manpower is spent to correct this misunderstanding included in the image through manual operation, and it is difficult to identify non-living facial images without recognizing the face of the human body if it depends on the manual operation of the operator. There was this.

본 발명은 상기와 같은 문제점을 해결하고자 하는 것으로서, 본 발명의 목적은 파노라마 사진 등의 이미지에서 생체 얼굴의 좌표만을 정확하게 인식하는 이미지내 생체 얼굴 인식 방법 및 인식 장치를 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a biometric face recognition method and a recognition device in an image that accurately recognizes only the coordinates of the biometric face in an image such as a panoramic photograph.

상기 목적은 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여, 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법을 통해 달성 가능하다.
The object of the present invention is to obtain visible light image data by capturing a specific point by using a visible light photographing apparatus, and to use the infrared photographing apparatus to view the same point as the photographing point of the first step with the same direction and same angle of view. A second step of acquiring infrared image data by photographing using a face pattern algorithm, pattern recognition of a biological face included in the visible light image data, and extracting coordinate information of a point where the corresponding biological face is located A third step of storing in a first table, a fourth step of extracting coordinate information of a biological face included in the infrared image data using a temperature color value, and storing the coordinate information in a second table; Coordinates stored in the first table by using the stored coordinate information and the coordinate information stored in the second table And a fifth step of identifying coordinates in which the non-living face is incorrectly recognized as the living face.

본 발명에 따른 이미지내 생체 얼굴 인식 장치 및 인식 방법에 의하면 가시광선 촬영장치를 통해 특정 지점을 촬영함과 동시에, 적외선 촬영장치를 통해 동일한 지점을 동일한 방향과 동일한 화각으로 촬영할 수 있도록 구성하고, 이렇게 동일한 지점에 대해서 획득된 두 가지의 데이터 즉, 가시광선 이미지 데이터와 적외선 이미지 데이터를 이용하여 촬영 이미지 내에서 사람의 얼굴만을 오류없이 자동으로 식별해낼 수 있어, 사진 보정을 위한 작업 시간과 소요 인력을 대폭 감소시키고 작업자의 수작업에 의존할 경우 발생하였던 누락을 방지할 수 있는 현저한 효과가 있다.
According to the biological face recognition apparatus and the recognition method in the image according to the present invention, at the same time as photographing a specific point through the visible light imaging device, and configured to shoot the same point in the same direction and the same angle of view through the infrared imaging device, By using two pieces of data acquired at the same point, that is, visible light image data and infrared image data, only a human face can be automatically identified without errors in the captured image, thereby reducing the time and manpower required for photo correction. There is a remarkable effect of drastically reducing and avoiding omissions that occur when relying on the manual work of the operator.

도 1은 본 발명의 일 실시예에 따른 이미지내 생체 얼굴 인식 장치의 블록 구성도.
도 2는 본 발명의 제1 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.
도 3은 본 발명의 제2 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.
도 4는 본 발명의 제3 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.
1 is a block diagram of an apparatus for recognizing a biometric face in an image according to an exemplary embodiment of the present invention.
2 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a first exemplary embodiment of the present invention.
3 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a second exemplary embodiment of the present invention.
4 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a third exemplary embodiment of the present invention.

본 발명에 따른 이미지내 생체 얼굴 인식 방법 및 인식 장치는 가시광선 촬영장치를 통해 특정 지점을 촬영함과 동시에, 적외선 촬영장치를 통해 동일한 지점을 동일한 방향과 동일한 화각으로 촬영할 수 있도록 구성하고, 이렇게 동일한 지점에 대해서 획득된 두 가지의 데이터 즉, 가시광선 이미지 데이터와 적외선 이미지 데이터로부터를 이용하여 촬영 이미지 내에서 사람의 얼굴만을 오류없이 자동 식별하고 보정할 수 있는 기술적 특징을 제공한다.The biometric face recognition method and the recognition device in the image according to the present invention are configured to capture a specific point through a visible light photographing apparatus and to simultaneously photograph the same spot with the same direction and the same angle of view through an infrared photographing apparatus. By using two pieces of data obtained for a point, that is, visible light image data and infrared image data, a technical feature of automatically identifying and correcting only a human face in a captured image is provided.

이하에서, 본 발명의 기술적 사상 및 바람직한 실시 예를 첨부한 도면들을 참조하여 보다 상세히 설명하기로 한다.
Hereinafter, with reference to the accompanying drawings, the spirit and preferred embodiments of the present invention will be described in more detail.

도 1은 본 발명의 일 실시예에 따른 이미지내 생체 얼굴 인식 장치의 블록 구성도이다. 도 1을 참조하면, 본 발명에 따른 이미지내 생체 얼굴 인식 장치는 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 가시광선 촬영장치(11)와, 특정 지점을 촬영함으로써 적외선 이미지 데이터를 획득하는 적외선 촬영장치(13)와, 상기 가시광선/적외선 촬영장치(11,13)를 통해 수집된 가시광선/적외선 이미지 데이터를 저장하는 제1 메모리(10)와, 얼굴 패턴 알고리듬을 이용하여 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하여 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출하고, 온도 색상값을 이용하여 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고, 추출된 상기 두 가지 종류의 좌표 정보를 이용하여 상기 가시광선 이미지 데이터에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 연산을 수행하는 적어도 하나의 연산처리 장치(23)를 포함하도록 구성된다.1 is a block diagram of an apparatus for recognizing a biometric face in an image according to an exemplary embodiment. Referring to FIG. 1, the in-image biometric face recognition apparatus according to the present invention includes a visible light photographing apparatus 11 for obtaining visible light image data by photographing a specific point, and an infrared light for obtaining infrared image data by photographing a specific point. The visible light image using the photographing apparatus 13, the first memory 10 storing the visible light / infrared image data collected by the visible light / infrared photographing apparatuses 11 and 13, and a face pattern algorithm. Pattern recognition of a biological face included in the data is performed to extract coordinate information of a point at which the corresponding biological face is located, extract coordinate information of the biological face included in the infrared image data using a temperature color value, and the extracted The non-living face among the coordinates stored in the visible light image data using two kinds of coordinate information is incorrectly used as the living face. It is configured to include at least one processing unit 23 to perform an operation to identify the sikhan coordinates.

특히, 본 발명에 따른 생체 얼굴 인식 장치는 상기 연산처리 장치(23)가 두 가지 종류의 이미지 데이터(즉, 가시광선/적외선 이미지 데이터)로부터 각각 추출한 좌표 정보를 비교하여 얼굴 좌표를 보정하는 연산을 수행할 수 있도록 다음과 같은 특징을 갖도록 구성된다.In particular, the biometric face recognition apparatus according to the present invention compares the coordinate information extracted from the two types of image data (that is, visible light / infrared image data) by the arithmetic processing unit 23 to correct face coordinates. It can be configured to have the following features.

즉, 본 발명의 가시광선 촬영장치(11)가 특정 지점(예컨데, 제1 지점)에 대한 촬영 동작을 실시하면, 이와 동시에 적외선 촬영장치(13)도 동일한 제1 지점을 동일한 방향과 동일한 화각으로 촬영 동작을 실시하도록 구성되어, 작업자는 제1 지점에 대해 두 가지 종류(즉, 가시광선 이미지와 적외선 이미지)로 표현된 동일한 사진을 획득하게 된다.That is, when the visible light photographing apparatus 11 of the present invention performs a photographing operation on a specific point (for example, the first point), the infrared photographing apparatus 13 simultaneously moves the same first point to the same direction and the same angle of view. It is configured to perform a photographing operation so that the operator acquires the same picture represented in two kinds (ie, visible light image and infrared image) for the first point.

본 발명의 생체 얼굴 인식 장치(20)는 가시광선/적외선 촬영장치(11,13)와 함께, 통상적으로 개인용 컴퓨터, 노트북 등의 컴퓨터를 포함하는 형태로 구비되는 것으로서, 상술한 연산처리 장치(23)와, 마우스, 키보드 및 모니터를 포함하는 입출력 장치(21, 25)와, 컴퓨터 내부 또는 외부에 설치되는 제2 메모리(27)를 포함하는 장치를 의미한다.The biometric face recognition apparatus 20 of the present invention is generally provided in the form of a computer including a personal computer, a notebook computer, etc. together with the visible light / infrared photographing apparatuses 11 and 13, and the arithmetic processing apparatus 23 described above. ), An input / output device (21, 25) including a mouse, a keyboard, and a monitor, and a second memory (27) installed inside or outside the computer.

제1 메모리(10)에 저장되는 가시광선 이미지 데이터의 일 예로는 '다음 (www.daum.net) 사이트'에서 제공하는 '로드뷰' 또는 '구글 사이트'에서 제공하는 '스트리트뷰'를 구성하는 파노라마 이미지 데이터를 들 수 있다. 적외선 이미지 데이터는 대응되는 가시광선 이미지 데이터와 동일한 지점에서 동일한 방향으로 동일한 화각으로 적외선으로 촬영된 이미지 데이터를 의미하는 것이다.An example of the visible light image data stored in the first memory 10 may include 'road view' provided by 'next (www.daum.net) site' or 'street view' provided by 'google site'. Panoramic image data. The infrared image data refers to image data photographed with infrared rays at the same angle of view and in the same direction at the same point as the corresponding visible light image data.

이러한 가시광선 이미지 데이터 및 적외선 이미지 데이터는 통상 차량에 탑재된 네 대의 카메라를 이용하여 일정한 거리를 이동할 때마다 자동으로 네 대의 카메라를 이용하여 촬영하는 방식을 사용한다. 이러한 차량 자동 촬영 시스템을 이용할 경우 동심축에 각각 직각을 유지하도록 네 대의 가시광선 촬영 장치를 구비하고, 동일한 동심축의 상부에 가시광선 촬영 장치(11)와 동일한 각도를 유지하는 네 대의 적외선 촬영 장치(13)를 구비하여 촬영할 경우 촬영되는 적외선 이미지 데이터는 대응되는 가시광선 이미지 데이터와 동일한 지점에서 동일한 방향으로 동일한 화각으로 적외선으로 촬영된 이미지 데이터를 얻을 수 있다. 좀더 엄밀하게 말하면 이런 방식으로 촬영할 경우 가시광선 이미지 촬영 장치(11)가 적외선 이미지 촬영 장치(13)보다 낮은 위치에 있으므로 상호 완전히 동일한 지점을 촬영하지는 못하지만 이 정도의 오차는 소프트웨어적인 처리로 극복이 가능하므로 동일한 지점에서 동일한 방향으로 동일한 화각으로 촬영하였다고 볼 수 있는 것이다.The visible light image data and the infrared image data use a method of automatically photographing four cameras whenever a certain distance is moved using four cameras mounted on a vehicle. In the case of using such an automatic vehicle imaging system, four infrared ray photographing apparatuses having four visible ray photographing apparatuses so as to maintain a right angle to each of the concentric axes, and four infrared ray photographing apparatuses maintaining the same angle as the visible ray photographing apparatus 11 on the same concentric axis ( 13) when the image is taken with the infrared image data can be obtained by the infrared image data taken with the same angle of view in the same direction at the same point and the corresponding visible light image data. More precisely, in this way, since the visible light imaging device 11 is located at a lower position than the infrared imaging device 13, it is not possible to photograph exactly the same point with each other, but this error can be overcome by software processing. Therefore, it can be seen that the same angle of view was taken in the same direction at the same point.

전술한 가시광선 촬영장치(11), 적외선 촬영장치(13), 제1 메모리(10) 및 연산처리 장치(23)를 포함하는 본 발명의 생체 얼굴 인식 장치를 이용하여, 촬영장치를 통해 획득된 이미지 내에서 사람의 얼굴만을 오류없이 식별해내기 위한 방법은 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 한다.Using the biological face recognition apparatus of the present invention including the above-described visible light photographing apparatus 11, infrared photographing apparatus 13, first memory 10, and arithmetic processing apparatus 23, A method for identifying only a human face in an image without errors may include a first step of acquiring visible image data by photographing a specific point using a visible light photographing apparatus, and using the infrared photographing apparatus. A second step of acquiring infrared image data by photographing the same point as the photographing point with the same direction and the same angle of view; pattern recognition of the biological face included in the visible light image data using a face pattern algorithm, and the corresponding biological face being positioned Extracting coordinate information of a point to be stored in a first table, and storing the infrared information by using a temperature color value; Extracting coordinate information of the biological face included in the image data and storing the coordinate information in the second table, and using the coordinate information stored in the first table and the coordinate information stored in the second table. And a fifth step of identifying coordinates erroneously recognized as non-living faces among the coordinates stored in the table.

이하에서는, 상기 제5 단계에서 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 방법의 바람직한 실시예에 대하여 설명하도록 한다.
Hereinafter, in the fifth step, a method of identifying coordinates in which a non-living face is incorrectly recognized as a living face among coordinates stored in the first table using coordinate information stored in the first table and coordinate information stored in the second table. It will be described for the preferred embodiment of.

도 2는 본 발명의 제1 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다.2 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a first exemplary embodiment of the present invention.

우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.

그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고 이를 제1 테이블에 저장한다 (ST 201).The coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST 201).

그러나, 가시광선 이미지 상에서 수행되는 얼굴 패턴 인식 알고리듬은 극장의 포스터 또는 광고 전단지의 홍보물에 표시된 얼굴도 인식하게 되는 바, ST 201의 제1 테이블에는 잘못된 얼굴 좌표(즉, 비생체 얼굴 좌표)가 포함되어 있을 수 있다. 따라서, 상기와 같이 얼굴 패턴 알고리듬을 이용하여 제1 테이블에 저장된 얼굴 좌표 중 비생체 얼굴 좌표를 식별하여 제거해주는 작업이 필요하며, 이는 본 발명의 적외선 이미지 데이터로부터 추출되는 좌표 정보를 이용함으로써 달성 가능하다. 자세한 것은 후술하기로 한다.However, the face pattern recognition algorithm performed on the visible light image also recognizes the face displayed on the poster or the advertisement leaflet of the theater, and the first table of ST 201 includes incorrect face coordinates (ie, non-living face coordinates). It may be. Therefore, it is necessary to identify and remove the non-living face coordinates among the face coordinates stored in the first table using the face pattern algorithm as described above, which can be achieved by using the coordinate information extracted from the infrared image data of the present invention. Do. Details will be described later.

참고로, 본 발명은 얼굴 패턴 알고리듬을 주된 기술적 사상으로 하는 발명이 아니며 얼굴 패턴 알고리듬은 여러 가지 방식이 알려져 있으므로 이에 대한 상세한 설명은 생략하는 것으로 한다.For reference, the present invention is not an invention in which the face pattern algorithm is a main technical idea, and various methods are known in the face pattern algorithm, and thus detailed description thereof will be omitted.

또한, 하나의 가시광선 이미지 상에는 여러 명의 얼굴이 존재할 수 있으므로 복수 개 좌표가 저장될 수 있다. 예로서 제1 가시광선 이미지상에 다섯 개의 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다. 여기서 (x1,y1), (x2,y2), ..., (x5,y5)은 제1 가시광선 이미지상에 존재하는 첫 번째, 두 번째, ..., 다섯 번째 얼굴의 위치를 제 1 가시광선 이미지상의 x 및 y 좌표값으로 표시한 것이다.In addition, since several faces may exist on one visible light image, a plurality of coordinates may be stored. As an example, suppose that five faces are included in the first visible light image, and extracted them, the first table includes {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)}. Where (x1, y1), (x2, y2), ..., (x5, y5) represent the positions of the first, second, ..., fifth faces present on the first visible light image. This is expressed by the x and y coordinate values on the visible light image.

다음으로, 상기 ST201에서 추출된 각 좌표 지점(즉, 가시광선 이미지 상의 좌표)에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출(ST 203)하고, 추출된 온도 색상값 중에서 적어도 다른 두 개의 온도 색상값과 소정의 임계치 이상의 차이값이 있는 온도 색상값을 제외한 나머지 온도 색상값을 이용하여 온도 색상 평균값을 산출한다.Next, the temperature color value of the coordinates on the infrared image data corresponding to each coordinate point (that is, the coordinates on the visible light image) extracted by the ST201 is extracted (ST 203), and at least two different temperature color values from the extracted temperature color values. The temperature color average value is calculated using the remaining temperature color values except for the temperature color value having the difference between the temperature color value and the predetermined threshold value.

즉, 제1 가시광선 이미지와 매칭되는 제1 적외선 이미지에서 제 1 테이블의 각 좌표값에 대응되는 적외선 이미지상의 온도 색상값을 획득하고, 이때 각 좌표값에 따라 얻어지는 온도 색상값 중에서 다른 온도 색상값과 제1 임계치 이상 차이가 있는 것은 포함시키지 않고 나머지 좌표값에 대응되는 온도 색상값을 이용하여 온도 색상 평균값을 산출하는 것이다. 예를 들어, 제1 가시광선 이미지상의 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}에 각각 대응되는 제1 적외선 이미지상의 온도 색상값이 {100, 105, 140, 99, 95}로 획득될 경우 제1 임계치를 '30'이라 하면, (x3,y3)에 대응되는 온도 색상값 '140'을 제외한 나머지 온도 색상값의 평균을 구한다. 상기 예에서 구해진 온도 색상의 평균은 '99.75'로 구해진다.That is, the temperature color value on the infrared image corresponding to each coordinate value of the first table is obtained from the first infrared image matched with the first visible light image, and at this time, another temperature color value among the temperature color values obtained according to each coordinate value. The temperature color average value is calculated using the temperature color value corresponding to the remaining coordinate values without including the difference between the first threshold value and the difference. For example, on the first infrared image corresponding to {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)} on the first visible light image, respectively. When the temperature color value is obtained as {100, 105, 140, 99, 95}, if the first threshold value is '30', the remaining temperature color value except for the temperature color value '140' corresponding to (x3, y3) Find the average. The average of the temperature colors obtained in the above example is calculated as '99 .75 '.

그런데 상기 예와는 달리 하나의 가시광선 이미지상에 포함된 생체 얼굴이 하나 또는 두 개 정도밖에 안 될 경우에는 이러한 온도 색상값의 평균이 의미 없게 될 가능성이 있다. 이러한 경우에도 연속되어 촬영되는 가시광선 이미지상에 포함된 생체 얼굴을 이용하면 온도 색상 평균값을 정할 수가 있다. 예를 들어, 제1 가시광선 이미지에서 인식된 생체 얼굴이 한 개, 제2 가시광선 이미지에서 인식된 생체 얼굴이 두 개, 제3 가시광선 이미지에서 인식된 생체 얼굴이 한 개 존재할 경우 제1 가시광선, 제2 가시광선 및 제3 가시광선의 세 개의 가시광선에 포함된 생체 얼굴 좌표값을 획득하고, 이에 각각 대응되는 온도 색상값을 이용하여 온도 색상 평균값을 구할 수 있는 것이다. 본 발명에서 사용되는 온도 색상 평균값은 생체 얼굴에 해당되는 평균 온도를 수치적으로 나타낸 값의 의미를 갖는 것이므로 한 장의 가시광선 이미지상에서 이를 구하거나 또는 여러 장의 가시광선 이미지상에 포함된 생체 얼굴 좌표에 대응되는 색상값을 이용하던 양측이 모두 이용 가능한 것이다.However, unlike the above example, when only one or two biological faces are included in one visible light image, the average of these temperature color values may become meaningless. Even in this case, the temperature color average value can be determined by using the biological face included in the continuously visible image. For example, if there is one biometric face recognized in the first visible light image, two biometric faces recognized in the second visible light image, and one biometric face recognized in the third visible light image, the first visible face is present. The biometric face coordinate values included in the three visible light rays of the light ray, the second visible light, and the third visible light may be obtained, and the average temperature color value may be obtained using the corresponding temperature color values. Since the average value of temperature color used in the present invention has a meaning of a numerical value representing an average temperature corresponding to a living body face, the temperature color average value is obtained from a single visible light image or a coordinate of a biological face included in a plurality of visible light images. Both sides using the corresponding color value are available.

다음으로, 전술한 온도 색상 평균값을 기준으로 소정의 온도 색상값 범위를 설정하고, 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 영역의 좌표를 추출하여 제2 테이블에 저장한다(ST 205).Next, a predetermined temperature color value range is set based on the aforementioned temperature color average value, and coordinates of an area included in the temperature color value range are extracted from the infrared image data and stored in the second table (ST 205).

즉, 제1 적외선 이미지상에 포함된 온도 색상 평균값 부근의 색상값을 갖는 좌표들을 구하여 이를 제 2 테이블에 저장하는 것이데, 온도 색상 평균값 부근의 색상값이란 ST 203에서 산출된 온도 색상 평균값을 기준으로 일정 범위 내의 색상값 범위 내에 포함되는 영역을 갖는 패턴을 찾아내어 이를 좌표값으로 표현한 것이다. 예를 들어 상기에 제시된 예와 같이 온도 색상 평균값이 '99.75'라면 이로부터 ±5 범위 내에 있는 얼굴 패턴을 제1 적외선 이미지상에서 검색한 후 이를 좌표값으로 제2 테이블에 저장하는 것이다.That is, the coordinates having color values near the temperature color average value included in the first infrared image are obtained and stored in the second table. The color values near the temperature color average value are based on the temperature color average value calculated in ST 203. As a result, a pattern having an area included in a color value range within a predetermined range is found and expressed as a coordinate value. For example, if the average temperature color value is '99 .75 'as shown in the above example, a face pattern within ± 5 range is retrieved from the first infrared image and stored as a coordinate value in the second table.

다음으로, 제1 테이블에 저장된 좌표와 제2 테이블에 저장된 좌표를 서로 비교한다(ST 207). 즉, 각 테이블에 저장된 좌표들의 개수와 위치가 일치하는지 비교하는 것인데, 제1 테이블의 좌표값과 제 2 테이블의 좌표값의 위치 비교시, 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬과 적외선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬은 동일할 수 없게 때문에 소정의 임계치 거리만큼 떨어지며 대응되는 좌표는 동일한 위치를 나타내는 것으로 인식하도록 하였다.Next, the coordinates stored in the first table and the coordinates stored in the second table are compared with each other (ST 207). In other words, the number and coordinates of the coordinates stored in each table are compared, and the face pattern recognition algorithm performed on the visible light image and the infrared image are performed on the position comparison between the coordinate values of the first table and the coordinate values of the second table. Since the face pattern recognition algorithm performed cannot be identical, the face pattern recognition algorithm is separated by a predetermined threshold distance, and the corresponding coordinates are recognized as representing the same position.

ST 207 단계의 비교 결과, 제1 테이블에만 저장되어 있고 상기 제2 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표는 상기 제1 테이블 상에서 삭제하는 수정을 행한다(ST 209). 즉, 제1 테이블의 좌표값과 제2 테이블의 좌표값의 위치 및 개수가 불일치할 경우에는 제2 테이블의 좌표값을 기반으로 가시광선 이미지상의 좌표를 수정하여 가시광선 이미지상에서의 생체 얼굴 위치를 확정하는 것이다.As a result of the comparison in step ST 207, if coordinates stored only in the first table and not stored in the second table are detected, the detected coordinates are corrected to be deleted on the first table (ST 209). That is, when the position and the number of coordinate values of the first table and the coordinate values of the second table do not match, the coordinates on the visible light image are corrected based on the coordinate values of the second table to adjust the position of the living body face on the visible light image. To confirm.

또한, ST 207 단계의 비교 결과, 제2 테이블에만 저장되어 있고 제1 테이블에는 저장되어 있는 않은 좌표가 검출되면, 상기 검출된 좌표를 제1 테이블 상에 추가 입력하는 과정을 더 포함한다. 이는, 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬이 옆 얼굴 등을 파악하지 못한 결과로 인한 것일 수 있기 때문이다. 참고로, 제1 테이블에만 저장되어 있고 제2 테이블에는 저장되어 있지 않은 좌표는 제1 테이블 상에서 삭제하는 것은 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬이 극장의 포스터, 또는 광고 전단지의 홍보물에 포함된 얼굴을 생체 얼굴로 인식한 오류로 판단할 수 있기 때문이다.In addition, if the comparison result of the step ST 207, the coordinates stored only in the second table and not stored in the first table is detected, the method further includes the step of additionally inputting the detected coordinates on the first table. This is because the face pattern recognition algorithm performed on the visible light image may be the result of not grasping the side face. For reference, deleting a coordinate stored only in the first table and not in the second table on the first table may include a facial pattern recognition algorithm performed on a visible light image included in a poster of a theater or a promotional leaflet of an advertisement leaflet. This is because the face may be determined as an error recognized as a living face.

다음으로, ST 209 단계에서 확정된 생체 얼굴 위치를 블러링 처리하거나, 또는 ST 207 단계의 판단 결과 제1 테이블의 좌표와 제 2 테이블의 좌표의 위치 및 개수가 일치할 경우에는 해당되는 생체 얼굴 위치를 바로 블러링 처리하면 작업이 완료된다(ST 211).
Next, the biometric face position determined in step 209 is blurred, or when the position and the number of coordinates of the first table and the coordinates of the second table coincide with each other as a result of the determination of step ST 207, the corresponding biometric face position If the blur is processed immediately, the operation is completed (ST 211).

도 3은 본 발명의 제2 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다.3 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a second exemplary embodiment of the present invention.

우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.

그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고, 이를 제1 테이블에 저장한다 (ST 301).Then, the coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST 301).

예로서, 제1 가시광선 이미지상에 다섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다. 유사한 방식으로 제1 메모리에 저장된 적외선 이미지 데이터로부터 생체 얼굴에 해당되는 온도 색상값 범위 내의 패턴이 포함되어 있는지 파악한 후 해당 좌표를 추출하여 제2 테이블에 저장한다(ST303).For example, suppose that five living body faces are included in the first visible light image, and extracted and extracted {(x1, y1), (x2, y2), (x3, y3), (x4, y4) into the first table. ), (x5, y5)}. In a similar manner, it is determined whether a pattern within a temperature color value range corresponding to the living body face is included from the infrared image data stored in the first memory, and the corresponding coordinates are extracted and stored in the second table (ST303).

적외선 이미지는 촬영된 사물에서 발산되는 온도를 색상으로 나타내는 이미지로서, 예를 들어 고온은 빨간색 계열로 표시되고 저온은 파란색 계열로 나타나게 된다. 생체 얼굴을 적외선 촬영 장치로 촬영하면 생체 온도에 따른 색상으로 표현된다. 그런데 이러한 생체 온도는 날씨에 따라 조금씩 달라지고 운동 여부에 따라 달라지기는 하나, 항온 동물의 특성상 일정한 범위 내의 온도 범위를 갖는 특성이 있다. 이러한 특성을 이용하여 여러 장의 적외선 이미지에서 계절별, 날씨별 표현되는 생체 얼굴의 온도 범위를 축적한 후 이를 산술 평균 또는 기타의 통계적 방식으로 생체 얼굴 온도 범위 및 이에 대응되는 색상 범위를 수치적으로 표현할 수 있게 된다.An infrared image is an image representing a temperature emitted from a photographed object in color, for example, a high temperature is displayed in red and a low temperature is displayed in blue. When the living body is photographed with an infrared ray photographing device, the color is expressed according to the temperature of the living body. By the way, the living body temperature is slightly different depending on the weather and depending on whether or not exercise, there is a characteristic that has a temperature range within a certain range due to the characteristics of the constant temperature animal. These characteristics can be used to accumulate the temperature range of the biological face expressed by season and weather in several infrared images, and then numerically express the biological face temperature range and its corresponding color range by arithmetic mean or other statistical methods. Will be.

다음으로, ST303에서 추출된 각 좌표에 해당되는 온도 색상값을 추출하여, 추출된 온도 색상값의 평균값을 산출한다(ST305). 도 2의 흐름도에서 설명한 바와 유사하게 하나의 적외선 이미지 데이터에 포함된 생체 얼굴의 개수가 적을 경우에는 연속되는 여러 장에 포함된 생체 얼굴 개수를 이용하여 온도 색상 평균값을 산출할 수 있음은 물론이다.Next, a temperature color value corresponding to each coordinate extracted in ST303 is extracted, and an average value of the extracted temperature color values is calculated (ST305). As described in the flowchart of FIG. 2, when the number of biological faces included in one infrared image data is small, the average temperature color value may be calculated using the number of biological faces included in several consecutive sheets.

다음으로, ST301에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하여 상기 ST305에서 산출한 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별한다(ST306).Next, the temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in ST301 is extracted to obtain a difference value from the average value of the temperature color calculated in ST305, and whether the difference value is larger than a predetermined threshold value. It is determined (ST306).

즉, 제1 테이블에 저장된 각 좌표값에 대응되는 적외선 이미지 데이터 상의 좌표값의 온도 색상값을 추출하고, 추출된 온도 색상값을 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 제3 임계치보다 큰 지 여부를 파악하는 것이다.That is, the temperature color value of the coordinate value on the infrared image data corresponding to each coordinate value stored in the first table is extracted, the difference value between the extracted temperature color value and the temperature color average value is obtained, and the difference value is the third threshold value. To see if it is greater.

ST306의 판별 결과, 제3 임계치보다 큰 차이가 있는 온도 색상값은 생체가 아닐 확률이 매우 크므로 해당 온도 색상값에 대응하고 있는 가시광선 이미지 데이터(즉, 제1 테이블) 상의 좌표값은 생체가 아닌 것으로 판단하고, 제1 테이블에서 해당 좌표를 삭제한다(ST309). 이는 전술한 바와 같이 홍보 전단지 등에 인쇄된 생체 얼굴이 포함된 경우 등에 의해서 발생되는 오류를 제거하기 위함이다.As a result of the determination of ST306, the temperature color value having a difference larger than the third threshold value is very likely to be not a living body, and thus the coordinate value on the visible light image data (ie, the first table) corresponding to the temperature color value is determined by the biological. If not, the corresponding coordinate is deleted from the first table (ST309). This is to remove an error caused by the case in which the biometric face printed on the promotional leaflet is included as described above.

다음으로, ST309를 거친 제1 테이블에 저장된 각 좌표 지점에 대응되는 적외선 이미지 테이터 상의 온도 색상값을 추출하고, 추출된 온도 색상값의 평균값을 산출한다(ST311). Next, the temperature color value on the infrared image data corresponding to each coordinate point stored in the first table having passed through ST309 is extracted, and the average value of the extracted temperature color value is calculated (ST311).

그리고, 상기 ST303의 제2 테이블에 저장된 각 좌표의 온도 색상값과 상기 ST311에서 산출된 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 제4 임계치보다 큰지 여부를 판별한다(ST313).The difference value between the temperature color value of each coordinate stored in the second table of the ST303 and the average value of the temperature color calculated in the ST311 is obtained, and it is determined whether the difference is greater than the fourth threshold (ST313).

상기 ST313의 판별 결과, 상기 제4 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 검출된 온도 색상값에 대응되는 제2 테이블 상의 좌표는 생체이긴 하나 고양이나 다른 생명체라고 판단하고 제2 테이블에서 삭제한다(ST 315).As a result of the determination of ST313, when a temperature color value having a difference greater than the fourth threshold value is detected, the coordinate on the second table corresponding to the detected temperature color value is determined to be a cat or other living organism, although it is a living body. (ST 315).

전술한 과정이 모두 완료된 제1 테이블과 제2 테이블에 저장된 각 좌표는 모두 생체 얼굴을 나타내는 것이라고 판단하고, 양쪽 테이블 중 어느 하나에라도 포함된 좌표 영역을 생체 얼굴로 확정하고(ST317), 이를 블러링 처리한다(ST319).It is determined that each of the coordinates stored in the first table and the second table, which have all the above-described processes, represent the living face, and the coordinate region included in either of the tables is determined as the living face (ST317), and the blurring is performed. Process (ST319).

보다 정확한 판단을 위해서는 ST317 단계에서 제1 테이블과 제2 테이블에 모두 포함된 좌표를 생체 얼굴이라 판단하고 이를 블러링 처리할 수도 있음은 물론이다.
For more accurate determination, in step ST317, the coordinates included in both the first table and the second table may be determined as a living face, and the blurring may be performed.

도 4는 본 발명의 제3 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다. 4 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a third exemplary embodiment of the present invention.

우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.

그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고, 이를 제1 테이블에 저장한다 (ST401). 예로서, 제1 가시광선 이미지상에 다섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다.The coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST401). For example, suppose that five living body faces are included in the first visible light image, and extracted and extracted {(x1, y1), (x2, y2), (x3, y3), (x4, y4) into the first table. ), (x5, y5)}.

다음으로, 생체 얼굴에 해당되는 온도 색상값 범위를 설정하고, 제1 메모리에 저장된 적외선 이미지 데이터로부터 상기 설정된 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장한다(ST403). 예로서, 제1 가시광선 이미지에 대응되는 제1 적외선 이미지상에 여섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제2 테이블에 {(a1,b1), (a2,b2), (a4,b4), (a5,b5), (a6,b6)}의 좌표로 저장한다.Next, a temperature color value range corresponding to the living face is set, a pattern included in the set temperature color value range is extracted from the infrared image data stored in the first memory, and corresponding coordinates are calculated and stored in the second table ( ST403). For example, suppose that six biological faces are included in the first infrared image corresponding to the first visible light image, and extracted from the {(a1, b1), (a2, b2), (a4, b4), (a5, b5), and (a6, b6)}.

다음으로, 제1 테이블에 저장된 가시광선 이미지상의 좌표와 제2 테이블에 저장된 적외선 이미지상의 좌표들을 서로 비교하여 일치 여부를 판단한다(ST405). 상기 예의 경우, 제1 가시광선 이미지로부터 추출된 생체 얼굴은 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 5개 좌표로 검출되고, 제1 적외선 이미지로부터 추출된 생체 얼굴 좌표는 제2 테이블에 {(a1,b1), (a2,b2), (a4,b4), (a5,b5), (a6,b6)}로 저장되었다고 가정하고, 이 중 (x1,y1), (x2,y2), (x4,y4), 및 (x5,y5)는 각각 (a1,b1), (a2,b2), (a4,b4), 및 (a5,b5)에 대응되는 동일한 좌표를 표시하는 것으로 가정하고, (x3,y3)는 제 1 테이블에서만 검출된 좌표이고, (a6,b6)는 제 2 테이블에서만 검출되는 좌표라고 가정한다.Next, the coordinates on the visible light image stored in the first table and the coordinates on the infrared image stored in the second table are compared with each other to determine whether they match (ST405). In the above example, the biological face extracted from the first visible light image is {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)} in the first table. The biometric face coordinates, which are detected with five coordinates of and extracted from the first infrared image, are represented by {(a1, b1), (a2, b2), (a4, b4), (a5, b5), (a6) in the second table. , b6)}, of which (x1, y1), (x2, y2), (x4, y4), and (x5, y5) are (a1, b1), (a2, b2), Assume that the same coordinates corresponding to (a4, b4) and (a5, b5) are displayed, (x3, y3) is a coordinate detected only in the first table, and (a6, b6) is detected only in the second table. Assume that the coordinates are

ST405 단계의 판단 결과, 상호 불일치하는 좌표가 발견될 경우 이를 가시광선 이미지상에 표시하고, 이를 디스플레이 장치 등을 통해 이미지 처리자에게 제공한다(ST407). 이때 제1 테이블에서만 검출된 좌표 (x3,y3)와 제2 테이블에서만 검출된 좌표 (a6,b6)는 서로 다른 표현 형식(예를 들면, 색상이나 모양이 다른 표식)을 이용하여 이미지 처리자에게 디스플레이 하도록 한다.As a result of the determination in step ST405, if mutually inconsistent coordinates are found, the coordinates are displayed on the visible light image and provided to the image processor through the display device (ST407). At this time, the coordinates (x3, y3) detected only in the first table and the coordinates (a6, b6) detected only in the second table are displayed to the image processor using different expression formats (for example, markers having different colors or shapes). Do it.

이미지 처리자는 제공되는 불일치 좌표를 보고 생체에 해당되는 좌표를 확인하고, 이를 입력 장치를 통해 입력하고, 생체 얼굴 인식 장치는 입력받은 좌표에 따라 제1 테이블의 좌표값을 갱신한다(ST 409). 이후 검증된 제1 테이블의 좌표값에 따라 해당되는 가시광선 이미지 영역을 블러링 처리한다(ST 411).
The image processor checks the coordinates corresponding to the living body by looking at the provided mismatched coordinates, inputs them through the input device, and updates the coordinate values of the first table according to the received coordinates (ST 409). Thereafter, the visible light image area is blurred according to the verified coordinates of the first table (ST 411).

상기에서 본 발명의 특정한 실시예가 설명 및 도시되었지만, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 당업자에 의하여 다양하게 변형되어 실시될 가능성이 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명에 첨부된 청구범위 안에 속한다고 해야 할 것이다.
Although specific embodiments of the present invention have been described and illustrated above, it will be apparent that various modifications may be made by those skilled in the art without departing from the technical spirit of the present invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should fall within the claims appended to the present invention.

10: 제1 메모리 11: 가시광선 촬영장치
13: 적외선 촬영장치 20: 생체 얼굴 인식 장치
21: 출력 장치 23: 연산처리 장치
25: 입력 장치 27: 제2 메모리
10: first memory 11: visible light imaging device
13: infrared imaging device 20: biometric face recognition device
21: output device 23: processing unit
25: input device 27: second memory

Claims (8)

파노라마 사진 지리 정보 제공 서비스에서 생체 얼굴의 블러링 처리를 위하여, 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 자동 식별해내는 이미지내 생체 얼굴 인식 방법으로서,
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계;
온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계;
상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계; 및
상기 제5 단계에서 식별된 좌표가 제외된 상기 제1 테이블에 저장된 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제6 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of recognizing a biometric face included in the visible light image data, extracting coordinate information of a point at which the biometric face is located, and storing the coordinate information in a first table;
A fourth step of extracting coordinate information of a living face included in the infrared image data using a temperature color value and storing the coordinate information in a second table;
A fifth step of identifying coordinates erroneously recognized as non-living faces among the coordinates stored in the first table by using the coordinate information stored in the first table and the coordinate information stored in the second table; And
And a sixth step of blurring the visible light image area corresponding to the coordinates stored in the first table in which the coordinates identified in the fifth step are excluded.
파노라마 사진 지리 정보 제공 서비스에서 생체 얼굴의 블러링 처리를 위하여, 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 자동 식별해내는 이미지내 생체 얼굴 인식 방법으로서,
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
상기 제3 단계에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하고, 추출된 온도 색상값 중에서 적어도 다른 두 개의 온도 색상값과 소정의 임계치 이상의 차이값이 있는 온도 색상값을 제외한 나머지 온도 색상값을 이용하여 온도 색상 평균값을 산출하는 제4 단계;
상기 제4 단계의 온도 색상 평균값을 기준으로 소정의 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 영역의 좌표를 추출하여 제2 테이블에 저장하는 제5 단계;
상기 제1 테이블에 저장된 좌표와 상기 제2 테이블에 저장된 좌표를 서로 비교하는 제6 단계;
상기 제6 단계의 비교 결과, 상기 제1 테이블에만 저장되어 있고 상기 제2 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표는 상기 제1 테이블 상에서 삭제하는 제7 단계; 및
상기 제1 테이블 상에 남아있는 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제8 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
Extracting a temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in the third step, and a temperature color having at least two different temperature color values from the extracted temperature color values and a difference greater than a predetermined threshold A fourth step of calculating a temperature color average value using the remaining temperature color values except for the values;
A predetermined temperature color value range is set based on the temperature color average value of the fourth step, and the coordinates of an area included in the temperature color value range are extracted from the infrared image data obtained in the second step, and the second color table is extracted. A fifth step of storing;
A sixth step of comparing the coordinates stored in the first table with the coordinates stored in the second table;
A seventh step of deleting the detected coordinates on the first table when the coordinates stored in the first table and not stored in the second table are detected as a result of the comparison in the sixth step; And
And an eighth step of blurring the visible light image area corresponding to the coordinates remaining on the first table.
제2 항에 있어서,
상기 제6 단계 비교 결과, 상기 제2 테이블에만 저장되어 있고 상기 제1 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표를 제1 테이블 상에 추가하는 제9 단계; 및
상기 제9 단계를 거친 제1 테이블에 저장된 좌표 영역을 생체 얼굴로 인식하는 제10 단계를 더 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
The method of claim 2,
A ninth step of adding the detected coordinates on the first table when the sixth step comparison result detects coordinates stored only in the second table and not stored in the first table; And
And a tenth step of recognizing a coordinate area stored in the first table, which has passed through the ninth step, as a living body face.
제2 항 또는 제3 항에 있어서,
상기 제6 단계에서 상호 비교되는 제1 테이블의 좌표와 제2 테이블의 좌표가 소정의 임계치 범위 내에서 대응되는 좌표라면 동일한 위치를 나타내는 좌표로 처리하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
The method according to claim 2 or 3,
If the coordinates of the first table and the coordinates of the second table to be compared with each other in the sixth step is a corresponding coordinate within a predetermined threshold range, it is processed as the coordinates representing the same position.
파노라마 사진 지리 정보 제공 서비스에서 생체 얼굴의 블러링 처리를 위하여, 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 자동 식별해내는 이미지내 생체 얼굴 인식 방법으로서,
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
생체 얼굴에 해당하는 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장하는 제4 단계;
상기 제4 단계에서 추출된 각 좌표에 해당되는 온도 색상값을 추출하여, 추출된 온도 색상값의 평균값을 산출하는 제5 단계;
상기 제3 단계에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하여 상기 제5 단계의 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별하는 제6 단계;
상기 제6 단계 판별 결과, 상기 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 상기 검출된 온도 색상값에 대응되는 좌표를 상기 제1 테이블 상에서 삭제하는 제7 단계; 및
상기 제1 테이블 상에 남아있는 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제8 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
A fourth step of setting a temperature color value range corresponding to a living body face, extracting a pattern included in the temperature color value range from the infrared image data obtained in the second step, calculating a corresponding coordinate, and storing the coordinate in a second table; ;
A fifth step of calculating a mean value of the extracted temperature color values by extracting temperature color values corresponding to the respective coordinates extracted in the fourth step;
Extracting a temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in the third step to obtain a difference value from the average value of the temperature color in the fifth step, and whether the difference is greater than a predetermined threshold Determining a sixth step;
A seventh step of deleting, on the first table, coordinates corresponding to the detected temperature color value when a temperature color value having a difference greater than the threshold is detected as a result of the sixth step determination; And
And an eighth step of blurring the visible light image area corresponding to the coordinates remaining on the first table.
제5 항에 있어서,
상기 제7 단계를 거친 제1 테이블에 저장된 각 좌표 지점에 대응되는 적외선 이미지 테이터 상의 온도 색상값을 추출하고, 추출된 온도 색상값의 평균값을 산출하는 제9 단계;
상기 제4 단계의 제2 테이블에 저장된 각 좌표의 온도 색상값과 상기 제9 단계에서 산출된 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별하는 제10 단계;
상기 제10 단계의 판별 결과, 상기 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 검출된 온도 색상값에 대응되는 좌표를 상기 제2 테이블 상에서 삭제하는 제11 단계; 및
상기 제7 단계를 거친 제1 테이블과 상기 제11 단계를 거친 제2 테이블 중 어느 하나 이상에 포함된 좌표 영역을 사람 얼굴로 인식하는 제12 단계를 더 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
6. The method of claim 5,
A ninth step of extracting a temperature color value on the infrared image data corresponding to each coordinate point stored in the first table through the seventh step, and calculating an average value of the extracted temperature color values;
A tenth step of obtaining a difference value between a temperature color value of each coordinate stored in the second table of the fourth step and a temperature color average value calculated in the ninth step, and determining whether the difference is greater than a predetermined threshold; ;
An eleventh step of deleting coordinates corresponding to the detected temperature color value on the second table when a temperature color value having a difference greater than the threshold is detected as a result of the determination of the tenth step; And
And a twelfth step of recognizing a coordinate area included in any one or more of the first table through the seventh step and the second table through the eleventh step as a human face. Way.
파노라마 사진 지리 정보 제공 서비스에서 생체 얼굴의 블러링 처리를 위하여, 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 자동 식별해내는 이미지내 생체 얼굴 인식 방법으로서,
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
생체 얼굴에 해당하는 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장하는 제4 단계;
상기 제1 테이블에 저장된 좌표와 상기 제2 테이블에 저장된 좌표를 서로 비교하여 일치 여부를 판단하는 제5 단계;
상기 제5 단계의 판단 결과 상호 불일치하는 좌표가 검출되면, 불일치 좌표를 가시광선 이미지 상에 표시하여 이미지 처리자에게 제공하는 제6 단계;
상기 불일치 좌표 중 상기 이미지 처리자에 의해 얼굴에 해당하는 것으로 판단된 좌표 정보를 수신하는 제7 단계;
상기 제7 단계에서 수신된 좌표 정보를 기초로 상기 제1 테이블에 저장된 좌표들을 갱신하는 제8 단계; 및
상기 제1 테이블에 저장된 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제9 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
A fourth step of setting a temperature color value range corresponding to a living body face, extracting a pattern included in the temperature color value range from the infrared image data obtained in the second step, calculating a corresponding coordinate, and storing the coordinate in a second table; ;
A fifth step of comparing the coordinates stored in the first table with the coordinates stored in the second table to determine whether they match;
A sixth step of providing the image processor by displaying the inconsistent coordinates on the visible light image when the mismatched coordinates are detected as a result of the determination of the fifth step;
A seventh step of receiving coordinate information determined to correspond to a face by the image processor among the mismatched coordinates;
An eighth step of updating the coordinates stored in the first table based on the coordinate information received in the seventh step; And
And a ninth step of blurring the visible light image area corresponding to the coordinates stored in the first table.
제7 항에 있어서,
상기 제6 단계에서, 상기 제1 테이블에서만 검출된 불일치 좌표와 상기 제2 테이블에서만 검출된 불일치 좌표는 서로 다른 표현 형식을 통해 상기 이미지 처리자에게 표시 제공하는 것을 특징으로 이미지내 생체 얼굴 인식 방법.
The method of claim 7, wherein
The method of claim 6, wherein the mismatch coordinates detected only in the first table and the mismatch coordinates detected only in the second table are provided to the image processor through different representation formats.
KR1020100048093A 2010-05-24 2010-05-24 Method for recognizing human face and recognizing apparatus KR101165415B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100048093A KR101165415B1 (en) 2010-05-24 2010-05-24 Method for recognizing human face and recognizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100048093A KR101165415B1 (en) 2010-05-24 2010-05-24 Method for recognizing human face and recognizing apparatus

Publications (2)

Publication Number Publication Date
KR20110128574A KR20110128574A (en) 2011-11-30
KR101165415B1 true KR101165415B1 (en) 2012-07-13

Family

ID=45396738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100048093A KR101165415B1 (en) 2010-05-24 2010-05-24 Method for recognizing human face and recognizing apparatus

Country Status (1)

Country Link
KR (1) KR101165415B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102248235B1 (en) 2020-05-06 2021-05-04 주식회사 에스엠전자 History management system for a feverish person and a person who contacts on the feverish person
KR20210142245A (en) 2020-05-18 2021-11-25 한국광기술원 Heterogeneous image processing device

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427616B1 (en) * 2012-12-27 2014-08-11 전자부품연구원 Multiple Human Face Detection Method And Electronic Device supporting the same
KR101427488B1 (en) * 2012-12-28 2014-08-07 고려대학교 산학협력단 Apparatus for recognizing object using infrared
KR102155133B1 (en) 2013-07-12 2020-09-11 삼성전자주식회사 Method and apparatus for displaying image
CN110127468B (en) * 2019-04-12 2023-02-07 深圳壹账通智能科技有限公司 Elevator control method, elevator control device, computer-readable storage medium and computer equipment
CN110490042B (en) * 2019-05-31 2022-02-11 杭州海康威视数字技术股份有限公司 Face recognition device and entrance guard's equipment
CN111639522B (en) * 2020-04-17 2023-10-31 北京迈格威科技有限公司 Living body detection method, living body detection device, computer equipment and storage medium
KR102251307B1 (en) * 2020-09-10 2021-05-13 주식회사 콕스 Thermal camera system with distance measuring function
KR102487590B1 (en) * 2020-12-04 2023-01-13 주식회사 콕스 Method for measuring of object based on face-recognition
KR102574497B1 (en) * 2020-12-22 2023-09-04 재단법인 경북아이티융합 산업기술원 System, apparatus and method of measuring body temporature
KR102521162B1 (en) * 2021-12-09 2023-04-14 한국전자기술연구원 System and method for producing learning data using EO and IR images and annotation error detection methods using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259362A (en) * 2002-03-06 2003-09-12 Mitsubishi Heavy Ind Ltd Image processing apparatus and image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259362A (en) * 2002-03-06 2003-09-12 Mitsubishi Heavy Ind Ltd Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102248235B1 (en) 2020-05-06 2021-05-04 주식회사 에스엠전자 History management system for a feverish person and a person who contacts on the feverish person
KR20210142245A (en) 2020-05-18 2021-11-25 한국광기술원 Heterogeneous image processing device

Also Published As

Publication number Publication date
KR20110128574A (en) 2011-11-30

Similar Documents

Publication Publication Date Title
KR101165415B1 (en) Method for recognizing human face and recognizing apparatus
CN108230252B (en) Image processing method and device and electronic equipment
US9710946B2 (en) Method and apparatus for displaying point of interest
WO2018028546A1 (en) Key point positioning method, terminal, and computer storage medium
US7554575B2 (en) Fast imaging system calibration
US8660309B2 (en) Image processing apparatus, image processing method, image processing program and recording medium
US10198661B2 (en) System for determining alignment of a user-marked document and method thereof
TW202143100A (en) Image processing method, electronic device and computer-readable storage media
CN109416744A (en) Improved camera calibration system, target and process
CN107633526A (en) A kind of image trace point acquisition methods and equipment, storage medium
CN107657639A (en) A kind of method and apparatus of quickly positioning target
CN103597500A (en) System and method for recognizing text information in object
CN104156998A (en) Implementation method and system based on fusion of virtual image contents and real scene
KR101923177B1 (en) Appratus and method for providing augmented reality information based on user
US10205875B2 (en) Image enhancement and repair using sample data from other images
Furnari et al. Affine covariant features for fisheye distortion local modeling
CN112434546A (en) Face living body detection method and device, equipment and storage medium
CN116582653B (en) Intelligent video monitoring method and system based on multi-camera data fusion
CN110692081A (en) System, portable terminal device, server, program, and method for viewing confirmation
CN109840885A (en) Image interfusion method and Related product
WO2022087846A1 (en) Image processing method and apparatus, device, and storage medium
CN109785439A (en) Human face sketch image generating method and Related product
TW201816721A (en) Visual positioning apparatus, method, and computer program product thereof
CN113610884A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN110781195B (en) System, method and device for updating point of interest information

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150706

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160707

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190329

Year of fee payment: 9