KR101165415B1 - Method for recognizing human face and recognizing apparatus - Google Patents
Method for recognizing human face and recognizing apparatus Download PDFInfo
- Publication number
- KR101165415B1 KR101165415B1 KR1020100048093A KR20100048093A KR101165415B1 KR 101165415 B1 KR101165415 B1 KR 101165415B1 KR 1020100048093 A KR1020100048093 A KR 1020100048093A KR 20100048093 A KR20100048093 A KR 20100048093A KR 101165415 B1 KR101165415 B1 KR 101165415B1
- Authority
- KR
- South Korea
- Prior art keywords
- coordinates
- face
- visible light
- image data
- temperature color
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
본 발명은 이미지내 생체 얼굴 인식 방법 및 인식 장치에 관한 것으로서, 본 발명의 목적은 파노라마 사진 등의 이미지에서 생체 얼굴의 좌표만을 정확하게 인식하는 이미지내 생체 얼굴 인식 방법 및 인식 장치를 제공하는 것이다.
본 발명에서는 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여, 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 하는 이미지내 생체 인식 방법이 제공된다.The present invention relates to a biometric face recognition method and a recognition apparatus in an image, and an object of the present invention is to provide a biometric face recognition method and a recognition device in an image that accurately recognizes only the coordinates of the biometric face in an image such as a panoramic picture.
According to the present invention, a first step of acquiring visible light image data by capturing a specific point by using a visible light photographing apparatus, and the same point and the same angle of view at the same point as the photographing point of the first step by using an infrared photographing apparatus A second step of acquiring infrared image data by photographing using a face pattern algorithm, pattern recognition of a biological face included in the visible light image data, and extracting coordinate information of a point where the corresponding biological face is located A third step of storing in a first table, a fourth step of extracting coordinate information of a biological face included in the infrared image data using a temperature color value, and storing the coordinate information in a second table; Left stored in the first table using the stored coordinate information and the coordinate information stored in the second table. An in-image biometric recognition method is provided, comprising a fifth step of identifying coordinates in the table that are erroneously recognized as a non-living face.
Description
본 발명은 안면 인식 방법 및 인식 장치에 관한 것으로서, 보다 상세하게는 촬영장치를 통해 얻어진 이미지 내에서 사람의 얼굴만을 정확히 자동 식별해내기 위한 이미지내 생체 얼굴 인식 방법 및 인식 장치에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a facial recognition method and a recognition device, and more particularly, to a biometric face recognition method and a recognition device in an image for accurately and automatically identifying only a human face in an image obtained through a photographing device.
유무선 통신의 발달과 더불어 컴퓨터, 네비게이터, 휴대폰과 같은 전자 정보 단말기의 발달과 보급 확대가 증대되고 있다. 이에 따라 특정 지역의 지리 정보를 얻고자 하는 사용자들은 상기 단말기에 접속하여 도로나 지형, 지물 등 해당 지역과 관련된 일체의 정보를 담고 있는 전자지도 서비스를 손쉽게 제공받을 수 있다. 그러나, 종래 지리 정보 제공 서비스는 2D 로 구현되어 표시해 주고 있어 사용자가 해당 지역과 관련된 지형, 지물을 시각적으로 정확히 인식하는 것은 불가능하였다.With the development of wired and wireless communication, the development and expansion of electronic information terminals such as computers, navigators and mobile phones are increasing. Accordingly, users who want to obtain geographic information of a specific region can easily access the terminal and receive an electronic map service containing all information related to the region, such as roads, terrain, and features. However, since the conventional geographic information providing service is implemented and displayed in 2D, it was impossible for the user to visually accurately recognize the terrain and features related to the corresponding area.
상기와 같은 문제점을 극복하기 위하여 최근에는 도로, 지형, 지물을 시각적으로 인식할 수 있도록, 전자지도상에 해당 지역의 실제 사진을 함께 표시해주는 파노라마 사진 지리 정보 제공 서비스가 개발 및 시도되고 있다.In order to overcome the above problems, recently, a panoramic photo geographic information providing service for displaying a real picture of a corresponding area on an electronic map has been developed and attempted to visually recognize roads, terrain, and features.
상술한 파노라마 사진을 이용한 지리 정보 제공 서비스를 구현하기 위해서는 기본적으로 사진 촬영 작업, 사진 연결 작업 및 매핑 작업이 필요하다.In order to implement the geographic information providing service using the above-mentioned panorama picture, basically, a picture taking work, a picture connecting work, and a mapping work are required.
사진 촬영 작업이란 차량에 설치된 다수 개의 카메라를 이용하여 각 지역을 이동하며 지형, 지물 및 도로의 분할 촬영을 통해 영상 프레임들을 획득해 나가는 작업을 의미한다.Photographing refers to a task of acquiring image frames through segmented photographing of terrain, features, and roads by moving each region using a plurality of cameras installed in a vehicle.
사진 연결 작업이란 사진 촬영 작업을 통해 획득한 다수 개의 영상 프레임들을 도로변에 위치한 순서대로 파노라마 사진으로 연결하면서 편집하는 작업을 의미한다. 상기 사진 연결 작업을 통해 구성된 각각의 파노라마 사진은 GPS 코드로 연결할 수 있는 디지털 지도와 매핑함으로써 실제 영상의 위치 정보 제공이 가능해 진다.Photo linking refers to a process of editing a plurality of image frames acquired through a photo shooting process while connecting them as panorama photos in the order of being located along the roadside. Each panorama picture configured through the picture connection operation can be mapped to a digital map that can be connected with a GPS code, thereby providing location information of an actual image.
사진 매핑 작업이란, 사진 촬영 작업을 통해 획득되는 각각의 영상 프레임의 GPS(Global Positioning System) 좌표를 이용하여 해당 사진을 전자지도 상의 정확한 위치에 올려놓는 작업을 의미한다.The photo mapping task refers to a task of placing a corresponding photo on an accurate position on an electronic map by using GPS (Global Positioning System) coordinates of each image frame obtained through the photo shooting task.
이러한 파노라마 사진 지리 정보 제공 서비스를 제공하는 상업적인 사이트로는 대표적으로 '다음(www.daum.net) 사이트'에서 제공하는 '로드뷰'가 있으며, '구글 사이트'에서 제공하는 '스트리트뷰'가 있다.Commercial sites that provide such panoramic photo geographic information service include 'Road View' provided by Daum (www.daum.net) site, and 'Street View' provided by 'Google Site'. .
그러나, 차량을 통해 수집되는 각 파노라마 사진에는 차량 번호 및 사람의 얼굴과 같은 개인 정보가 포함되어 있다. 이중 사람의 얼굴이 파노라마 사진을 통해 노출되는 것을 방지하기 위해서 얼굴 패턴 인식 알고리듬을 이용하여 처리하고 있다. 촬영된 이미지에 눈, 코, 및 입에 해당하는 영상이 포함되는 경우의 패턴을 검사하여 얼굴임을 인식하고 해당 부분을 블러링(bluring) 처리하는 것이다.However, each panorama picture collected by the vehicle includes personal information such as the vehicle number and the face of the person. In order to prevent human face from being exposed through the panorama picture, the face pattern recognition algorithm is used. When the photographed image includes an image corresponding to the eyes, nose, and mouth, the pattern is examined to recognize that the face and blur the corresponding portion.
그런데 이러한 얼굴 패턴 인식 알고리듬의 경우 얼굴의 측면이 노출될 경우 이를 인식하지 못하거나 얼굴 모양과 비슷한 영화 포스트, 광고판에 포함된 얼굴 사진 등을 생체 얼굴로 오인식하는 경우가 많이 발생되어 얼굴 패턴 인식 알고리듬을 적용한 이후에 수작업을 통해서 이미지에 포함된 이러한 오인식을 보정하는데 상당한 시간과 인력이 투입되며, 작업자의 수작업에 의존할 경우 비생체 얼굴 사진을 빠짐없이 식별해내기 어려워 생체얼굴 식별에 누락이 발생하는 문제점이 있었다.
However, the face pattern recognition algorithm does not recognize the face when the side of the face is exposed or misrecognizes the face of the movie post, billboard, etc., which is similar to the face shape, as a biometric face. After application, considerable time and manpower is spent to correct this misunderstanding included in the image through manual operation, and it is difficult to identify non-living facial images without recognizing the face of the human body if it depends on the manual operation of the operator. There was this.
본 발명은 상기와 같은 문제점을 해결하고자 하는 것으로서, 본 발명의 목적은 파노라마 사진 등의 이미지에서 생체 얼굴의 좌표만을 정확하게 인식하는 이미지내 생체 얼굴 인식 방법 및 인식 장치를 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a biometric face recognition method and a recognition device in an image that accurately recognizes only the coordinates of the biometric face in an image such as a panoramic photograph.
상기 목적은 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여, 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법을 통해 달성 가능하다.
The object of the present invention is to obtain visible light image data by capturing a specific point by using a visible light photographing apparatus, and to use the infrared photographing apparatus to view the same point as the photographing point of the first step with the same direction and same angle of view. A second step of acquiring infrared image data by photographing using a face pattern algorithm, pattern recognition of a biological face included in the visible light image data, and extracting coordinate information of a point where the corresponding biological face is located A third step of storing in a first table, a fourth step of extracting coordinate information of a biological face included in the infrared image data using a temperature color value, and storing the coordinate information in a second table; Coordinates stored in the first table by using the stored coordinate information and the coordinate information stored in the second table And a fifth step of identifying coordinates in which the non-living face is incorrectly recognized as the living face.
본 발명에 따른 이미지내 생체 얼굴 인식 장치 및 인식 방법에 의하면 가시광선 촬영장치를 통해 특정 지점을 촬영함과 동시에, 적외선 촬영장치를 통해 동일한 지점을 동일한 방향과 동일한 화각으로 촬영할 수 있도록 구성하고, 이렇게 동일한 지점에 대해서 획득된 두 가지의 데이터 즉, 가시광선 이미지 데이터와 적외선 이미지 데이터를 이용하여 촬영 이미지 내에서 사람의 얼굴만을 오류없이 자동으로 식별해낼 수 있어, 사진 보정을 위한 작업 시간과 소요 인력을 대폭 감소시키고 작업자의 수작업에 의존할 경우 발생하였던 누락을 방지할 수 있는 현저한 효과가 있다.
According to the biological face recognition apparatus and the recognition method in the image according to the present invention, at the same time as photographing a specific point through the visible light imaging device, and configured to shoot the same point in the same direction and the same angle of view through the infrared imaging device, By using two pieces of data acquired at the same point, that is, visible light image data and infrared image data, only a human face can be automatically identified without errors in the captured image, thereby reducing the time and manpower required for photo correction. There is a remarkable effect of drastically reducing and avoiding omissions that occur when relying on the manual work of the operator.
도 1은 본 발명의 일 실시예에 따른 이미지내 생체 얼굴 인식 장치의 블록 구성도.
도 2는 본 발명의 제1 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.
도 3은 본 발명의 제2 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.
도 4는 본 발명의 제3 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도.1 is a block diagram of an apparatus for recognizing a biometric face in an image according to an exemplary embodiment of the present invention.
2 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a first exemplary embodiment of the present invention.
3 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a second exemplary embodiment of the present invention.
4 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a third exemplary embodiment of the present invention.
본 발명에 따른 이미지내 생체 얼굴 인식 방법 및 인식 장치는 가시광선 촬영장치를 통해 특정 지점을 촬영함과 동시에, 적외선 촬영장치를 통해 동일한 지점을 동일한 방향과 동일한 화각으로 촬영할 수 있도록 구성하고, 이렇게 동일한 지점에 대해서 획득된 두 가지의 데이터 즉, 가시광선 이미지 데이터와 적외선 이미지 데이터로부터를 이용하여 촬영 이미지 내에서 사람의 얼굴만을 오류없이 자동 식별하고 보정할 수 있는 기술적 특징을 제공한다.The biometric face recognition method and the recognition device in the image according to the present invention are configured to capture a specific point through a visible light photographing apparatus and to simultaneously photograph the same spot with the same direction and the same angle of view through an infrared photographing apparatus. By using two pieces of data obtained for a point, that is, visible light image data and infrared image data, a technical feature of automatically identifying and correcting only a human face in a captured image is provided.
이하에서, 본 발명의 기술적 사상 및 바람직한 실시 예를 첨부한 도면들을 참조하여 보다 상세히 설명하기로 한다.
Hereinafter, with reference to the accompanying drawings, the spirit and preferred embodiments of the present invention will be described in more detail.
도 1은 본 발명의 일 실시예에 따른 이미지내 생체 얼굴 인식 장치의 블록 구성도이다. 도 1을 참조하면, 본 발명에 따른 이미지내 생체 얼굴 인식 장치는 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 가시광선 촬영장치(11)와, 특정 지점을 촬영함으로써 적외선 이미지 데이터를 획득하는 적외선 촬영장치(13)와, 상기 가시광선/적외선 촬영장치(11,13)를 통해 수집된 가시광선/적외선 이미지 데이터를 저장하는 제1 메모리(10)와, 얼굴 패턴 알고리듬을 이용하여 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하여 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출하고, 온도 색상값을 이용하여 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고, 추출된 상기 두 가지 종류의 좌표 정보를 이용하여 상기 가시광선 이미지 데이터에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 연산을 수행하는 적어도 하나의 연산처리 장치(23)를 포함하도록 구성된다.1 is a block diagram of an apparatus for recognizing a biometric face in an image according to an exemplary embodiment. Referring to FIG. 1, the in-image biometric face recognition apparatus according to the present invention includes a visible
특히, 본 발명에 따른 생체 얼굴 인식 장치는 상기 연산처리 장치(23)가 두 가지 종류의 이미지 데이터(즉, 가시광선/적외선 이미지 데이터)로부터 각각 추출한 좌표 정보를 비교하여 얼굴 좌표를 보정하는 연산을 수행할 수 있도록 다음과 같은 특징을 갖도록 구성된다.In particular, the biometric face recognition apparatus according to the present invention compares the coordinate information extracted from the two types of image data (that is, visible light / infrared image data) by the
즉, 본 발명의 가시광선 촬영장치(11)가 특정 지점(예컨데, 제1 지점)에 대한 촬영 동작을 실시하면, 이와 동시에 적외선 촬영장치(13)도 동일한 제1 지점을 동일한 방향과 동일한 화각으로 촬영 동작을 실시하도록 구성되어, 작업자는 제1 지점에 대해 두 가지 종류(즉, 가시광선 이미지와 적외선 이미지)로 표현된 동일한 사진을 획득하게 된다.That is, when the visible
본 발명의 생체 얼굴 인식 장치(20)는 가시광선/적외선 촬영장치(11,13)와 함께, 통상적으로 개인용 컴퓨터, 노트북 등의 컴퓨터를 포함하는 형태로 구비되는 것으로서, 상술한 연산처리 장치(23)와, 마우스, 키보드 및 모니터를 포함하는 입출력 장치(21, 25)와, 컴퓨터 내부 또는 외부에 설치되는 제2 메모리(27)를 포함하는 장치를 의미한다.The biometric
제1 메모리(10)에 저장되는 가시광선 이미지 데이터의 일 예로는 '다음 (www.daum.net) 사이트'에서 제공하는 '로드뷰' 또는 '구글 사이트'에서 제공하는 '스트리트뷰'를 구성하는 파노라마 이미지 데이터를 들 수 있다. 적외선 이미지 데이터는 대응되는 가시광선 이미지 데이터와 동일한 지점에서 동일한 방향으로 동일한 화각으로 적외선으로 촬영된 이미지 데이터를 의미하는 것이다.An example of the visible light image data stored in the
이러한 가시광선 이미지 데이터 및 적외선 이미지 데이터는 통상 차량에 탑재된 네 대의 카메라를 이용하여 일정한 거리를 이동할 때마다 자동으로 네 대의 카메라를 이용하여 촬영하는 방식을 사용한다. 이러한 차량 자동 촬영 시스템을 이용할 경우 동심축에 각각 직각을 유지하도록 네 대의 가시광선 촬영 장치를 구비하고, 동일한 동심축의 상부에 가시광선 촬영 장치(11)와 동일한 각도를 유지하는 네 대의 적외선 촬영 장치(13)를 구비하여 촬영할 경우 촬영되는 적외선 이미지 데이터는 대응되는 가시광선 이미지 데이터와 동일한 지점에서 동일한 방향으로 동일한 화각으로 적외선으로 촬영된 이미지 데이터를 얻을 수 있다. 좀더 엄밀하게 말하면 이런 방식으로 촬영할 경우 가시광선 이미지 촬영 장치(11)가 적외선 이미지 촬영 장치(13)보다 낮은 위치에 있으므로 상호 완전히 동일한 지점을 촬영하지는 못하지만 이 정도의 오차는 소프트웨어적인 처리로 극복이 가능하므로 동일한 지점에서 동일한 방향으로 동일한 화각으로 촬영하였다고 볼 수 있는 것이다.The visible light image data and the infrared image data use a method of automatically photographing four cameras whenever a certain distance is moved using four cameras mounted on a vehicle. In the case of using such an automatic vehicle imaging system, four infrared ray photographing apparatuses having four visible ray photographing apparatuses so as to maintain a right angle to each of the concentric axes, and four infrared ray photographing apparatuses maintaining the same angle as the visible
전술한 가시광선 촬영장치(11), 적외선 촬영장치(13), 제1 메모리(10) 및 연산처리 장치(23)를 포함하는 본 발명의 생체 얼굴 인식 장치를 이용하여, 촬영장치를 통해 획득된 이미지 내에서 사람의 얼굴만을 오류없이 식별해내기 위한 방법은 가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계와, 적외선 촬영장치를 이용하여 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계와, 얼굴 패턴 알고리듬을 이용하여 상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계와, 온도 색상값을 이용하여 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계와, 상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계를 포함하는 것을 특징으로 한다.Using the biological face recognition apparatus of the present invention including the above-described visible
이하에서는, 상기 제5 단계에서 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 방법의 바람직한 실시예에 대하여 설명하도록 한다.
Hereinafter, in the fifth step, a method of identifying coordinates in which a non-living face is incorrectly recognized as a living face among coordinates stored in the first table using coordinate information stored in the first table and coordinate information stored in the second table. It will be described for the preferred embodiment of.
도 2는 본 발명의 제1 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다.2 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a first exemplary embodiment of the present invention.
우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.
그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고 이를 제1 테이블에 저장한다 (ST 201).The coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST 201).
그러나, 가시광선 이미지 상에서 수행되는 얼굴 패턴 인식 알고리듬은 극장의 포스터 또는 광고 전단지의 홍보물에 표시된 얼굴도 인식하게 되는 바, ST 201의 제1 테이블에는 잘못된 얼굴 좌표(즉, 비생체 얼굴 좌표)가 포함되어 있을 수 있다. 따라서, 상기와 같이 얼굴 패턴 알고리듬을 이용하여 제1 테이블에 저장된 얼굴 좌표 중 비생체 얼굴 좌표를 식별하여 제거해주는 작업이 필요하며, 이는 본 발명의 적외선 이미지 데이터로부터 추출되는 좌표 정보를 이용함으로써 달성 가능하다. 자세한 것은 후술하기로 한다.However, the face pattern recognition algorithm performed on the visible light image also recognizes the face displayed on the poster or the advertisement leaflet of the theater, and the first table of ST 201 includes incorrect face coordinates (ie, non-living face coordinates). It may be. Therefore, it is necessary to identify and remove the non-living face coordinates among the face coordinates stored in the first table using the face pattern algorithm as described above, which can be achieved by using the coordinate information extracted from the infrared image data of the present invention. Do. Details will be described later.
참고로, 본 발명은 얼굴 패턴 알고리듬을 주된 기술적 사상으로 하는 발명이 아니며 얼굴 패턴 알고리듬은 여러 가지 방식이 알려져 있으므로 이에 대한 상세한 설명은 생략하는 것으로 한다.For reference, the present invention is not an invention in which the face pattern algorithm is a main technical idea, and various methods are known in the face pattern algorithm, and thus detailed description thereof will be omitted.
또한, 하나의 가시광선 이미지 상에는 여러 명의 얼굴이 존재할 수 있으므로 복수 개 좌표가 저장될 수 있다. 예로서 제1 가시광선 이미지상에 다섯 개의 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다. 여기서 (x1,y1), (x2,y2), ..., (x5,y5)은 제1 가시광선 이미지상에 존재하는 첫 번째, 두 번째, ..., 다섯 번째 얼굴의 위치를 제 1 가시광선 이미지상의 x 및 y 좌표값으로 표시한 것이다.In addition, since several faces may exist on one visible light image, a plurality of coordinates may be stored. As an example, suppose that five faces are included in the first visible light image, and extracted them, the first table includes {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)}. Where (x1, y1), (x2, y2), ..., (x5, y5) represent the positions of the first, second, ..., fifth faces present on the first visible light image. This is expressed by the x and y coordinate values on the visible light image.
다음으로, 상기 ST201에서 추출된 각 좌표 지점(즉, 가시광선 이미지 상의 좌표)에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출(ST 203)하고, 추출된 온도 색상값 중에서 적어도 다른 두 개의 온도 색상값과 소정의 임계치 이상의 차이값이 있는 온도 색상값을 제외한 나머지 온도 색상값을 이용하여 온도 색상 평균값을 산출한다.Next, the temperature color value of the coordinates on the infrared image data corresponding to each coordinate point (that is, the coordinates on the visible light image) extracted by the ST201 is extracted (ST 203), and at least two different temperature color values from the extracted temperature color values. The temperature color average value is calculated using the remaining temperature color values except for the temperature color value having the difference between the temperature color value and the predetermined threshold value.
즉, 제1 가시광선 이미지와 매칭되는 제1 적외선 이미지에서 제 1 테이블의 각 좌표값에 대응되는 적외선 이미지상의 온도 색상값을 획득하고, 이때 각 좌표값에 따라 얻어지는 온도 색상값 중에서 다른 온도 색상값과 제1 임계치 이상 차이가 있는 것은 포함시키지 않고 나머지 좌표값에 대응되는 온도 색상값을 이용하여 온도 색상 평균값을 산출하는 것이다. 예를 들어, 제1 가시광선 이미지상의 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}에 각각 대응되는 제1 적외선 이미지상의 온도 색상값이 {100, 105, 140, 99, 95}로 획득될 경우 제1 임계치를 '30'이라 하면, (x3,y3)에 대응되는 온도 색상값 '140'을 제외한 나머지 온도 색상값의 평균을 구한다. 상기 예에서 구해진 온도 색상의 평균은 '99.75'로 구해진다.That is, the temperature color value on the infrared image corresponding to each coordinate value of the first table is obtained from the first infrared image matched with the first visible light image, and at this time, another temperature color value among the temperature color values obtained according to each coordinate value. The temperature color average value is calculated using the temperature color value corresponding to the remaining coordinate values without including the difference between the first threshold value and the difference. For example, on the first infrared image corresponding to {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)} on the first visible light image, respectively. When the temperature color value is obtained as {100, 105, 140, 99, 95}, if the first threshold value is '30', the remaining temperature color value except for the temperature color value '140' corresponding to (x3, y3) Find the average. The average of the temperature colors obtained in the above example is calculated as '99 .75 '.
그런데 상기 예와는 달리 하나의 가시광선 이미지상에 포함된 생체 얼굴이 하나 또는 두 개 정도밖에 안 될 경우에는 이러한 온도 색상값의 평균이 의미 없게 될 가능성이 있다. 이러한 경우에도 연속되어 촬영되는 가시광선 이미지상에 포함된 생체 얼굴을 이용하면 온도 색상 평균값을 정할 수가 있다. 예를 들어, 제1 가시광선 이미지에서 인식된 생체 얼굴이 한 개, 제2 가시광선 이미지에서 인식된 생체 얼굴이 두 개, 제3 가시광선 이미지에서 인식된 생체 얼굴이 한 개 존재할 경우 제1 가시광선, 제2 가시광선 및 제3 가시광선의 세 개의 가시광선에 포함된 생체 얼굴 좌표값을 획득하고, 이에 각각 대응되는 온도 색상값을 이용하여 온도 색상 평균값을 구할 수 있는 것이다. 본 발명에서 사용되는 온도 색상 평균값은 생체 얼굴에 해당되는 평균 온도를 수치적으로 나타낸 값의 의미를 갖는 것이므로 한 장의 가시광선 이미지상에서 이를 구하거나 또는 여러 장의 가시광선 이미지상에 포함된 생체 얼굴 좌표에 대응되는 색상값을 이용하던 양측이 모두 이용 가능한 것이다.However, unlike the above example, when only one or two biological faces are included in one visible light image, the average of these temperature color values may become meaningless. Even in this case, the temperature color average value can be determined by using the biological face included in the continuously visible image. For example, if there is one biometric face recognized in the first visible light image, two biometric faces recognized in the second visible light image, and one biometric face recognized in the third visible light image, the first visible face is present. The biometric face coordinate values included in the three visible light rays of the light ray, the second visible light, and the third visible light may be obtained, and the average temperature color value may be obtained using the corresponding temperature color values. Since the average value of temperature color used in the present invention has a meaning of a numerical value representing an average temperature corresponding to a living body face, the temperature color average value is obtained from a single visible light image or a coordinate of a biological face included in a plurality of visible light images. Both sides using the corresponding color value are available.
다음으로, 전술한 온도 색상 평균값을 기준으로 소정의 온도 색상값 범위를 설정하고, 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 영역의 좌표를 추출하여 제2 테이블에 저장한다(ST 205).Next, a predetermined temperature color value range is set based on the aforementioned temperature color average value, and coordinates of an area included in the temperature color value range are extracted from the infrared image data and stored in the second table (ST 205).
즉, 제1 적외선 이미지상에 포함된 온도 색상 평균값 부근의 색상값을 갖는 좌표들을 구하여 이를 제 2 테이블에 저장하는 것이데, 온도 색상 평균값 부근의 색상값이란 ST 203에서 산출된 온도 색상 평균값을 기준으로 일정 범위 내의 색상값 범위 내에 포함되는 영역을 갖는 패턴을 찾아내어 이를 좌표값으로 표현한 것이다. 예를 들어 상기에 제시된 예와 같이 온도 색상 평균값이 '99.75'라면 이로부터 ±5 범위 내에 있는 얼굴 패턴을 제1 적외선 이미지상에서 검색한 후 이를 좌표값으로 제2 테이블에 저장하는 것이다.That is, the coordinates having color values near the temperature color average value included in the first infrared image are obtained and stored in the second table. The color values near the temperature color average value are based on the temperature color average value calculated in ST 203. As a result, a pattern having an area included in a color value range within a predetermined range is found and expressed as a coordinate value. For example, if the average temperature color value is '99 .75 'as shown in the above example, a face pattern within ± 5 range is retrieved from the first infrared image and stored as a coordinate value in the second table.
다음으로, 제1 테이블에 저장된 좌표와 제2 테이블에 저장된 좌표를 서로 비교한다(ST 207). 즉, 각 테이블에 저장된 좌표들의 개수와 위치가 일치하는지 비교하는 것인데, 제1 테이블의 좌표값과 제 2 테이블의 좌표값의 위치 비교시, 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬과 적외선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬은 동일할 수 없게 때문에 소정의 임계치 거리만큼 떨어지며 대응되는 좌표는 동일한 위치를 나타내는 것으로 인식하도록 하였다.Next, the coordinates stored in the first table and the coordinates stored in the second table are compared with each other (ST 207). In other words, the number and coordinates of the coordinates stored in each table are compared, and the face pattern recognition algorithm performed on the visible light image and the infrared image are performed on the position comparison between the coordinate values of the first table and the coordinate values of the second table. Since the face pattern recognition algorithm performed cannot be identical, the face pattern recognition algorithm is separated by a predetermined threshold distance, and the corresponding coordinates are recognized as representing the same position.
ST 207 단계의 비교 결과, 제1 테이블에만 저장되어 있고 상기 제2 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표는 상기 제1 테이블 상에서 삭제하는 수정을 행한다(ST 209). 즉, 제1 테이블의 좌표값과 제2 테이블의 좌표값의 위치 및 개수가 불일치할 경우에는 제2 테이블의 좌표값을 기반으로 가시광선 이미지상의 좌표를 수정하여 가시광선 이미지상에서의 생체 얼굴 위치를 확정하는 것이다.As a result of the comparison in step ST 207, if coordinates stored only in the first table and not stored in the second table are detected, the detected coordinates are corrected to be deleted on the first table (ST 209). That is, when the position and the number of coordinate values of the first table and the coordinate values of the second table do not match, the coordinates on the visible light image are corrected based on the coordinate values of the second table to adjust the position of the living body face on the visible light image. To confirm.
또한, ST 207 단계의 비교 결과, 제2 테이블에만 저장되어 있고 제1 테이블에는 저장되어 있는 않은 좌표가 검출되면, 상기 검출된 좌표를 제1 테이블 상에 추가 입력하는 과정을 더 포함한다. 이는, 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬이 옆 얼굴 등을 파악하지 못한 결과로 인한 것일 수 있기 때문이다. 참고로, 제1 테이블에만 저장되어 있고 제2 테이블에는 저장되어 있지 않은 좌표는 제1 테이블 상에서 삭제하는 것은 가시광선 이미지상에서 수행되는 얼굴 패턴 인식 알고리듬이 극장의 포스터, 또는 광고 전단지의 홍보물에 포함된 얼굴을 생체 얼굴로 인식한 오류로 판단할 수 있기 때문이다.In addition, if the comparison result of the step ST 207, the coordinates stored only in the second table and not stored in the first table is detected, the method further includes the step of additionally inputting the detected coordinates on the first table. This is because the face pattern recognition algorithm performed on the visible light image may be the result of not grasping the side face. For reference, deleting a coordinate stored only in the first table and not in the second table on the first table may include a facial pattern recognition algorithm performed on a visible light image included in a poster of a theater or a promotional leaflet of an advertisement leaflet. This is because the face may be determined as an error recognized as a living face.
다음으로, ST 209 단계에서 확정된 생체 얼굴 위치를 블러링 처리하거나, 또는 ST 207 단계의 판단 결과 제1 테이블의 좌표와 제 2 테이블의 좌표의 위치 및 개수가 일치할 경우에는 해당되는 생체 얼굴 위치를 바로 블러링 처리하면 작업이 완료된다(ST 211).
Next, the biometric face position determined in step 209 is blurred, or when the position and the number of coordinates of the first table and the coordinates of the second table coincide with each other as a result of the determination of step ST 207, the corresponding biometric face position If the blur is processed immediately, the operation is completed (ST 211).
도 3은 본 발명의 제2 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다.3 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a second exemplary embodiment of the present invention.
우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.
그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고, 이를 제1 테이블에 저장한다 (ST 301).Then, the coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST 301).
예로서, 제1 가시광선 이미지상에 다섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다. 유사한 방식으로 제1 메모리에 저장된 적외선 이미지 데이터로부터 생체 얼굴에 해당되는 온도 색상값 범위 내의 패턴이 포함되어 있는지 파악한 후 해당 좌표를 추출하여 제2 테이블에 저장한다(ST303).For example, suppose that five living body faces are included in the first visible light image, and extracted and extracted {(x1, y1), (x2, y2), (x3, y3), (x4, y4) into the first table. ), (x5, y5)}. In a similar manner, it is determined whether a pattern within a temperature color value range corresponding to the living body face is included from the infrared image data stored in the first memory, and the corresponding coordinates are extracted and stored in the second table (ST303).
적외선 이미지는 촬영된 사물에서 발산되는 온도를 색상으로 나타내는 이미지로서, 예를 들어 고온은 빨간색 계열로 표시되고 저온은 파란색 계열로 나타나게 된다. 생체 얼굴을 적외선 촬영 장치로 촬영하면 생체 온도에 따른 색상으로 표현된다. 그런데 이러한 생체 온도는 날씨에 따라 조금씩 달라지고 운동 여부에 따라 달라지기는 하나, 항온 동물의 특성상 일정한 범위 내의 온도 범위를 갖는 특성이 있다. 이러한 특성을 이용하여 여러 장의 적외선 이미지에서 계절별, 날씨별 표현되는 생체 얼굴의 온도 범위를 축적한 후 이를 산술 평균 또는 기타의 통계적 방식으로 생체 얼굴 온도 범위 및 이에 대응되는 색상 범위를 수치적으로 표현할 수 있게 된다.An infrared image is an image representing a temperature emitted from a photographed object in color, for example, a high temperature is displayed in red and a low temperature is displayed in blue. When the living body is photographed with an infrared ray photographing device, the color is expressed according to the temperature of the living body. By the way, the living body temperature is slightly different depending on the weather and depending on whether or not exercise, there is a characteristic that has a temperature range within a certain range due to the characteristics of the constant temperature animal. These characteristics can be used to accumulate the temperature range of the biological face expressed by season and weather in several infrared images, and then numerically express the biological face temperature range and its corresponding color range by arithmetic mean or other statistical methods. Will be.
다음으로, ST303에서 추출된 각 좌표에 해당되는 온도 색상값을 추출하여, 추출된 온도 색상값의 평균값을 산출한다(ST305). 도 2의 흐름도에서 설명한 바와 유사하게 하나의 적외선 이미지 데이터에 포함된 생체 얼굴의 개수가 적을 경우에는 연속되는 여러 장에 포함된 생체 얼굴 개수를 이용하여 온도 색상 평균값을 산출할 수 있음은 물론이다.Next, a temperature color value corresponding to each coordinate extracted in ST303 is extracted, and an average value of the extracted temperature color values is calculated (ST305). As described in the flowchart of FIG. 2, when the number of biological faces included in one infrared image data is small, the average temperature color value may be calculated using the number of biological faces included in several consecutive sheets.
다음으로, ST301에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하여 상기 ST305에서 산출한 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별한다(ST306).Next, the temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in ST301 is extracted to obtain a difference value from the average value of the temperature color calculated in ST305, and whether the difference value is larger than a predetermined threshold value. It is determined (ST306).
즉, 제1 테이블에 저장된 각 좌표값에 대응되는 적외선 이미지 데이터 상의 좌표값의 온도 색상값을 추출하고, 추출된 온도 색상값을 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 제3 임계치보다 큰 지 여부를 파악하는 것이다.That is, the temperature color value of the coordinate value on the infrared image data corresponding to each coordinate value stored in the first table is extracted, the difference value between the extracted temperature color value and the temperature color average value is obtained, and the difference value is the third threshold value. To see if it is greater.
ST306의 판별 결과, 제3 임계치보다 큰 차이가 있는 온도 색상값은 생체가 아닐 확률이 매우 크므로 해당 온도 색상값에 대응하고 있는 가시광선 이미지 데이터(즉, 제1 테이블) 상의 좌표값은 생체가 아닌 것으로 판단하고, 제1 테이블에서 해당 좌표를 삭제한다(ST309). 이는 전술한 바와 같이 홍보 전단지 등에 인쇄된 생체 얼굴이 포함된 경우 등에 의해서 발생되는 오류를 제거하기 위함이다.As a result of the determination of ST306, the temperature color value having a difference larger than the third threshold value is very likely to be not a living body, and thus the coordinate value on the visible light image data (ie, the first table) corresponding to the temperature color value is determined by the biological. If not, the corresponding coordinate is deleted from the first table (ST309). This is to remove an error caused by the case in which the biometric face printed on the promotional leaflet is included as described above.
다음으로, ST309를 거친 제1 테이블에 저장된 각 좌표 지점에 대응되는 적외선 이미지 테이터 상의 온도 색상값을 추출하고, 추출된 온도 색상값의 평균값을 산출한다(ST311). Next, the temperature color value on the infrared image data corresponding to each coordinate point stored in the first table having passed through ST309 is extracted, and the average value of the extracted temperature color value is calculated (ST311).
그리고, 상기 ST303의 제2 테이블에 저장된 각 좌표의 온도 색상값과 상기 ST311에서 산출된 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 제4 임계치보다 큰지 여부를 판별한다(ST313).The difference value between the temperature color value of each coordinate stored in the second table of the ST303 and the average value of the temperature color calculated in the ST311 is obtained, and it is determined whether the difference is greater than the fourth threshold (ST313).
상기 ST313의 판별 결과, 상기 제4 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 검출된 온도 색상값에 대응되는 제2 테이블 상의 좌표는 생체이긴 하나 고양이나 다른 생명체라고 판단하고 제2 테이블에서 삭제한다(ST 315).As a result of the determination of ST313, when a temperature color value having a difference greater than the fourth threshold value is detected, the coordinate on the second table corresponding to the detected temperature color value is determined to be a cat or other living organism, although it is a living body. (ST 315).
전술한 과정이 모두 완료된 제1 테이블과 제2 테이블에 저장된 각 좌표는 모두 생체 얼굴을 나타내는 것이라고 판단하고, 양쪽 테이블 중 어느 하나에라도 포함된 좌표 영역을 생체 얼굴로 확정하고(ST317), 이를 블러링 처리한다(ST319).It is determined that each of the coordinates stored in the first table and the second table, which have all the above-described processes, represent the living face, and the coordinate region included in either of the tables is determined as the living face (ST317), and the blurring is performed. Process (ST319).
보다 정확한 판단을 위해서는 ST317 단계에서 제1 테이블과 제2 테이블에 모두 포함된 좌표를 생체 얼굴이라 판단하고 이를 블러링 처리할 수도 있음은 물론이다.
For more accurate determination, in step ST317, the coordinates included in both the first table and the second table may be determined as a living face, and the blurring may be performed.
도 4는 본 발명의 제3 실시예에 따른 이미지내 생체 얼굴 인식 방법의 흐름을 설명하는 방법 흐름도이다. 4 is a flowchart illustrating a flow of a method for recognizing a biometric face in an image according to a third exemplary embodiment of the present invention.
우선, 가시광선 촬영장치를 이용하여 목적 지점(예컨데, 제1 지점)을 촬영함으로써 가시광선 이미지 데이터를 획득하고, 이와 동시에 적외선 촬영장치를 이용하여 상기 제1 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하여 제1 메모리에 저장한다.First, the visible light image data is acquired by photographing a target point (for example, a first point) using a visible light photographing apparatus, and at the same time, the same point and the same angle of view as the first point using the infrared photographing apparatus are obtained. Infrared image data is acquired and stored in the first memory.
그리고, 제1 메모리에 저장된 가시광선 이미지 데이터로부터 얼굴에 해당되는 좌표를 얼굴 패턴 알고리듬을 이용하여 추출하고, 이를 제1 테이블에 저장한다 (ST401). 예로서, 제1 가시광선 이미지상에 다섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 좌표로 저장한다.The coordinates corresponding to the face are extracted from the visible light image data stored in the first memory using the face pattern algorithm and stored in the first table (ST401). For example, suppose that five living body faces are included in the first visible light image, and extracted and extracted {(x1, y1), (x2, y2), (x3, y3), (x4, y4) into the first table. ), (x5, y5)}.
다음으로, 생체 얼굴에 해당되는 온도 색상값 범위를 설정하고, 제1 메모리에 저장된 적외선 이미지 데이터로부터 상기 설정된 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장한다(ST403). 예로서, 제1 가시광선 이미지에 대응되는 제1 적외선 이미지상에 여섯 개의 생체 얼굴이 포함되었다고 가정하고, 이를 추출하여 제2 테이블에 {(a1,b1), (a2,b2), (a4,b4), (a5,b5), (a6,b6)}의 좌표로 저장한다.Next, a temperature color value range corresponding to the living face is set, a pattern included in the set temperature color value range is extracted from the infrared image data stored in the first memory, and corresponding coordinates are calculated and stored in the second table ( ST403). For example, suppose that six biological faces are included in the first infrared image corresponding to the first visible light image, and extracted from the {(a1, b1), (a2, b2), (a4, b4), (a5, b5), and (a6, b6)}.
다음으로, 제1 테이블에 저장된 가시광선 이미지상의 좌표와 제2 테이블에 저장된 적외선 이미지상의 좌표들을 서로 비교하여 일치 여부를 판단한다(ST405). 상기 예의 경우, 제1 가시광선 이미지로부터 추출된 생체 얼굴은 제1 테이블에 {(x1,y1), (x2,y2), (x3,y3), (x4,y4), (x5,y5)}의 5개 좌표로 검출되고, 제1 적외선 이미지로부터 추출된 생체 얼굴 좌표는 제2 테이블에 {(a1,b1), (a2,b2), (a4,b4), (a5,b5), (a6,b6)}로 저장되었다고 가정하고, 이 중 (x1,y1), (x2,y2), (x4,y4), 및 (x5,y5)는 각각 (a1,b1), (a2,b2), (a4,b4), 및 (a5,b5)에 대응되는 동일한 좌표를 표시하는 것으로 가정하고, (x3,y3)는 제 1 테이블에서만 검출된 좌표이고, (a6,b6)는 제 2 테이블에서만 검출되는 좌표라고 가정한다.Next, the coordinates on the visible light image stored in the first table and the coordinates on the infrared image stored in the second table are compared with each other to determine whether they match (ST405). In the above example, the biological face extracted from the first visible light image is {(x1, y1), (x2, y2), (x3, y3), (x4, y4), (x5, y5)} in the first table. The biometric face coordinates, which are detected with five coordinates of and extracted from the first infrared image, are represented by {(a1, b1), (a2, b2), (a4, b4), (a5, b5), (a6) in the second table. , b6)}, of which (x1, y1), (x2, y2), (x4, y4), and (x5, y5) are (a1, b1), (a2, b2), Assume that the same coordinates corresponding to (a4, b4) and (a5, b5) are displayed, (x3, y3) is a coordinate detected only in the first table, and (a6, b6) is detected only in the second table. Assume that the coordinates are
ST405 단계의 판단 결과, 상호 불일치하는 좌표가 발견될 경우 이를 가시광선 이미지상에 표시하고, 이를 디스플레이 장치 등을 통해 이미지 처리자에게 제공한다(ST407). 이때 제1 테이블에서만 검출된 좌표 (x3,y3)와 제2 테이블에서만 검출된 좌표 (a6,b6)는 서로 다른 표현 형식(예를 들면, 색상이나 모양이 다른 표식)을 이용하여 이미지 처리자에게 디스플레이 하도록 한다.As a result of the determination in step ST405, if mutually inconsistent coordinates are found, the coordinates are displayed on the visible light image and provided to the image processor through the display device (ST407). At this time, the coordinates (x3, y3) detected only in the first table and the coordinates (a6, b6) detected only in the second table are displayed to the image processor using different expression formats (for example, markers having different colors or shapes). Do it.
이미지 처리자는 제공되는 불일치 좌표를 보고 생체에 해당되는 좌표를 확인하고, 이를 입력 장치를 통해 입력하고, 생체 얼굴 인식 장치는 입력받은 좌표에 따라 제1 테이블의 좌표값을 갱신한다(ST 409). 이후 검증된 제1 테이블의 좌표값에 따라 해당되는 가시광선 이미지 영역을 블러링 처리한다(ST 411).
The image processor checks the coordinates corresponding to the living body by looking at the provided mismatched coordinates, inputs them through the input device, and updates the coordinate values of the first table according to the received coordinates (ST 409). Thereafter, the visible light image area is blurred according to the verified coordinates of the first table (ST 411).
상기에서 본 발명의 특정한 실시예가 설명 및 도시되었지만, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 당업자에 의하여 다양하게 변형되어 실시될 가능성이 있는 것은 자명한 일이다. 이와 같이 변형된 실시예들은 본 발명의 사상 및 범위로부터 개별적으로 이해되어져서는 안되며, 본 발명에 첨부된 청구범위 안에 속한다고 해야 할 것이다.
Although specific embodiments of the present invention have been described and illustrated above, it will be apparent that various modifications may be made by those skilled in the art without departing from the technical spirit of the present invention. Such modified embodiments should not be understood individually from the spirit and scope of the present invention, but should fall within the claims appended to the present invention.
10: 제1 메모리 11: 가시광선 촬영장치
13: 적외선 촬영장치 20: 생체 얼굴 인식 장치
21: 출력 장치 23: 연산처리 장치
25: 입력 장치 27: 제2 메모리10: first memory 11: visible light imaging device
13: infrared imaging device 20: biometric face recognition device
21: output device 23: processing unit
25: input device 27: second memory
Claims (8)
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 가시광선 이미지 데이터에 포함된 생체 얼굴을 패턴 인식하고 해당 생체 얼굴이 위치하는 지점의 좌표 정보를 추출한 후 이를 제1 테이블에 저장하는 제3 단계;
온도 색상값을 이용하여, 상기 적외선 이미지 데이터에 포함된 생체 얼굴에 대한 좌표 정보를 추출하고 이를 제2 테이블에 저장하는 제4 단계;
상기 제1 테이블에 저장된 좌표 정보와 상기 제2 테이블에 저장된 좌표 정보를 이용하여, 상기 제1 테이블에 저장된 좌표 중 비생체 얼굴을 생체 얼굴로 잘못 인식한 좌표를 식별하는 제5 단계; 및
상기 제5 단계에서 식별된 좌표가 제외된 상기 제1 테이블에 저장된 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제6 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of recognizing a biometric face included in the visible light image data, extracting coordinate information of a point at which the biometric face is located, and storing the coordinate information in a first table;
A fourth step of extracting coordinate information of a living face included in the infrared image data using a temperature color value and storing the coordinate information in a second table;
A fifth step of identifying coordinates erroneously recognized as non-living faces among the coordinates stored in the first table by using the coordinate information stored in the first table and the coordinate information stored in the second table; And
And a sixth step of blurring the visible light image area corresponding to the coordinates stored in the first table in which the coordinates identified in the fifth step are excluded.
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
상기 제3 단계에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하고, 추출된 온도 색상값 중에서 적어도 다른 두 개의 온도 색상값과 소정의 임계치 이상의 차이값이 있는 온도 색상값을 제외한 나머지 온도 색상값을 이용하여 온도 색상 평균값을 산출하는 제4 단계;
상기 제4 단계의 온도 색상 평균값을 기준으로 소정의 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 영역의 좌표를 추출하여 제2 테이블에 저장하는 제5 단계;
상기 제1 테이블에 저장된 좌표와 상기 제2 테이블에 저장된 좌표를 서로 비교하는 제6 단계;
상기 제6 단계의 비교 결과, 상기 제1 테이블에만 저장되어 있고 상기 제2 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표는 상기 제1 테이블 상에서 삭제하는 제7 단계; 및
상기 제1 테이블 상에 남아있는 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제8 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
Extracting a temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in the third step, and a temperature color having at least two different temperature color values from the extracted temperature color values and a difference greater than a predetermined threshold A fourth step of calculating a temperature color average value using the remaining temperature color values except for the values;
A predetermined temperature color value range is set based on the temperature color average value of the fourth step, and the coordinates of an area included in the temperature color value range are extracted from the infrared image data obtained in the second step, and the second color table is extracted. A fifth step of storing;
A sixth step of comparing the coordinates stored in the first table with the coordinates stored in the second table;
A seventh step of deleting the detected coordinates on the first table when the coordinates stored in the first table and not stored in the second table are detected as a result of the comparison in the sixth step; And
And an eighth step of blurring the visible light image area corresponding to the coordinates remaining on the first table.
상기 제6 단계 비교 결과, 상기 제2 테이블에만 저장되어 있고 상기 제1 테이블에는 저장되어 있지 않은 좌표가 검출되면, 상기 검출된 좌표를 제1 테이블 상에 추가하는 제9 단계; 및
상기 제9 단계를 거친 제1 테이블에 저장된 좌표 영역을 생체 얼굴로 인식하는 제10 단계를 더 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
The method of claim 2,
A ninth step of adding the detected coordinates on the first table when the sixth step comparison result detects coordinates stored only in the second table and not stored in the first table; And
And a tenth step of recognizing a coordinate area stored in the first table, which has passed through the ninth step, as a living body face.
상기 제6 단계에서 상호 비교되는 제1 테이블의 좌표와 제2 테이블의 좌표가 소정의 임계치 범위 내에서 대응되는 좌표라면 동일한 위치를 나타내는 좌표로 처리하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
The method according to claim 2 or 3,
If the coordinates of the first table and the coordinates of the second table to be compared with each other in the sixth step is a corresponding coordinate within a predetermined threshold range, it is processed as the coordinates representing the same position.
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
생체 얼굴에 해당하는 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장하는 제4 단계;
상기 제4 단계에서 추출된 각 좌표에 해당되는 온도 색상값을 추출하여, 추출된 온도 색상값의 평균값을 산출하는 제5 단계;
상기 제3 단계에서 추출된 각 좌표 지점에 대응되는 적외선 이미지 데이터 상의 좌표의 온도 색상값을 추출하여 상기 제5 단계의 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별하는 제6 단계;
상기 제6 단계 판별 결과, 상기 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 상기 검출된 온도 색상값에 대응되는 좌표를 상기 제1 테이블 상에서 삭제하는 제7 단계; 및
상기 제1 테이블 상에 남아있는 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제8 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
A fourth step of setting a temperature color value range corresponding to a living body face, extracting a pattern included in the temperature color value range from the infrared image data obtained in the second step, calculating a corresponding coordinate, and storing the coordinate in a second table; ;
A fifth step of calculating a mean value of the extracted temperature color values by extracting temperature color values corresponding to the respective coordinates extracted in the fourth step;
Extracting a temperature color value of the coordinates on the infrared image data corresponding to each coordinate point extracted in the third step to obtain a difference value from the average value of the temperature color in the fifth step, and whether the difference is greater than a predetermined threshold Determining a sixth step;
A seventh step of deleting, on the first table, coordinates corresponding to the detected temperature color value when a temperature color value having a difference greater than the threshold is detected as a result of the sixth step determination; And
And an eighth step of blurring the visible light image area corresponding to the coordinates remaining on the first table.
상기 제7 단계를 거친 제1 테이블에 저장된 각 좌표 지점에 대응되는 적외선 이미지 테이터 상의 온도 색상값을 추출하고, 추출된 온도 색상값의 평균값을 산출하는 제9 단계;
상기 제4 단계의 제2 테이블에 저장된 각 좌표의 온도 색상값과 상기 제9 단계에서 산출된 온도 색상 평균값과의 차이값을 구하고, 해당 차이값이 소정의 임계치보다 큰지 여부를 판별하는 제10 단계;
상기 제10 단계의 판별 결과, 상기 임계치보다 큰 차이값이 있는 온도 색상값이 검출되면, 검출된 온도 색상값에 대응되는 좌표를 상기 제2 테이블 상에서 삭제하는 제11 단계; 및
상기 제7 단계를 거친 제1 테이블과 상기 제11 단계를 거친 제2 테이블 중 어느 하나 이상에 포함된 좌표 영역을 사람 얼굴로 인식하는 제12 단계를 더 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
6. The method of claim 5,
A ninth step of extracting a temperature color value on the infrared image data corresponding to each coordinate point stored in the first table through the seventh step, and calculating an average value of the extracted temperature color values;
A tenth step of obtaining a difference value between a temperature color value of each coordinate stored in the second table of the fourth step and a temperature color average value calculated in the ninth step, and determining whether the difference is greater than a predetermined threshold; ;
An eleventh step of deleting coordinates corresponding to the detected temperature color value on the second table when a temperature color value having a difference greater than the threshold is detected as a result of the determination of the tenth step; And
And a twelfth step of recognizing a coordinate area included in any one or more of the first table through the seventh step and the second table through the eleventh step as a human face. Way.
가시광선 촬영장치를 이용하여 특정 지점을 촬영함으로써 가시광선 이미지 데이터를 획득하는 제1 단계;
적외선 촬영장치를 이용하여, 상기 제1 단계의 촬영 지점과 동일한 지점을 동일한 방향과 동일한 화각으로 촬영함으로써 적외선 이미지 데이터를 획득하는 제2 단계;
상기 제1 단계에서 획득된 가시광선 이미지 데이터로부터 얼굴에 해당하는 좌표를 추출하여 제1 테이블에 저장하는 제3 단계;
생체 얼굴에 해당하는 온도 색상값 범위를 설정하고, 상기 제2 단계에서 획득된 적외선 이미지 데이터로부터 상기 온도 색상값 범위 내에 포함되는 패턴을 추출하고 해당 좌표를 산출하여 제2 테이블에 저장하는 제4 단계;
상기 제1 테이블에 저장된 좌표와 상기 제2 테이블에 저장된 좌표를 서로 비교하여 일치 여부를 판단하는 제5 단계;
상기 제5 단계의 판단 결과 상호 불일치하는 좌표가 검출되면, 불일치 좌표를 가시광선 이미지 상에 표시하여 이미지 처리자에게 제공하는 제6 단계;
상기 불일치 좌표 중 상기 이미지 처리자에 의해 얼굴에 해당하는 것으로 판단된 좌표 정보를 수신하는 제7 단계;
상기 제7 단계에서 수신된 좌표 정보를 기초로 상기 제1 테이블에 저장된 좌표들을 갱신하는 제8 단계; 및
상기 제1 테이블에 저장된 좌표에 해당하는 상기 가시광선 이미지 영역을 블러링 처리하는 제9 단계를 포함하는 것을 특징으로 하는 이미지내 생체 얼굴 인식 방법.
An in-image biometric face recognition method for automatically identifying only a face of a person in an image obtained by a photographing apparatus for a blurring process of a living face in a panoramic photo geographic information providing service,
A first step of obtaining visible light image data by photographing a specific point using a visible light photographing apparatus;
A second step of acquiring infrared image data by capturing the same spot as the photographing point of the first step with the same direction and the same angle of view by using the infrared photographing apparatus;
A third step of extracting coordinates corresponding to a face from the visible light image data obtained in the first step and storing the coordinates corresponding to the face in a first table;
A fourth step of setting a temperature color value range corresponding to a living body face, extracting a pattern included in the temperature color value range from the infrared image data obtained in the second step, calculating a corresponding coordinate, and storing the coordinate in a second table; ;
A fifth step of comparing the coordinates stored in the first table with the coordinates stored in the second table to determine whether they match;
A sixth step of providing the image processor by displaying the inconsistent coordinates on the visible light image when the mismatched coordinates are detected as a result of the determination of the fifth step;
A seventh step of receiving coordinate information determined to correspond to a face by the image processor among the mismatched coordinates;
An eighth step of updating the coordinates stored in the first table based on the coordinate information received in the seventh step; And
And a ninth step of blurring the visible light image area corresponding to the coordinates stored in the first table.
상기 제6 단계에서, 상기 제1 테이블에서만 검출된 불일치 좌표와 상기 제2 테이블에서만 검출된 불일치 좌표는 서로 다른 표현 형식을 통해 상기 이미지 처리자에게 표시 제공하는 것을 특징으로 이미지내 생체 얼굴 인식 방법.The method of claim 7, wherein
The method of claim 6, wherein the mismatch coordinates detected only in the first table and the mismatch coordinates detected only in the second table are provided to the image processor through different representation formats.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100048093A KR101165415B1 (en) | 2010-05-24 | 2010-05-24 | Method for recognizing human face and recognizing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100048093A KR101165415B1 (en) | 2010-05-24 | 2010-05-24 | Method for recognizing human face and recognizing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110128574A KR20110128574A (en) | 2011-11-30 |
KR101165415B1 true KR101165415B1 (en) | 2012-07-13 |
Family
ID=45396738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100048093A KR101165415B1 (en) | 2010-05-24 | 2010-05-24 | Method for recognizing human face and recognizing apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101165415B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102248235B1 (en) | 2020-05-06 | 2021-05-04 | 주식회사 에스엠전자 | History management system for a feverish person and a person who contacts on the feverish person |
KR20210142245A (en) | 2020-05-18 | 2021-11-25 | 한국광기술원 | Heterogeneous image processing device |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101427616B1 (en) * | 2012-12-27 | 2014-08-11 | 전자부품연구원 | Multiple Human Face Detection Method And Electronic Device supporting the same |
KR101427488B1 (en) * | 2012-12-28 | 2014-08-07 | 고려대학교 산학협력단 | Apparatus for recognizing object using infrared |
KR102155133B1 (en) | 2013-07-12 | 2020-09-11 | 삼성전자주식회사 | Method and apparatus for displaying image |
CN110127468B (en) * | 2019-04-12 | 2023-02-07 | 深圳壹账通智能科技有限公司 | Elevator control method, elevator control device, computer-readable storage medium and computer equipment |
CN110490042B (en) * | 2019-05-31 | 2022-02-11 | 杭州海康威视数字技术股份有限公司 | Face recognition device and entrance guard's equipment |
CN111639522B (en) * | 2020-04-17 | 2023-10-31 | 北京迈格威科技有限公司 | Living body detection method, living body detection device, computer equipment and storage medium |
KR102251307B1 (en) * | 2020-09-10 | 2021-05-13 | 주식회사 콕스 | Thermal camera system with distance measuring function |
KR102487590B1 (en) * | 2020-12-04 | 2023-01-13 | 주식회사 콕스 | Method for measuring of object based on face-recognition |
KR102574497B1 (en) * | 2020-12-22 | 2023-09-04 | 재단법인 경북아이티융합 산업기술원 | System, apparatus and method of measuring body temporature |
KR102521162B1 (en) * | 2021-12-09 | 2023-04-14 | 한국전자기술연구원 | System and method for producing learning data using EO and IR images and annotation error detection methods using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003259362A (en) * | 2002-03-06 | 2003-09-12 | Mitsubishi Heavy Ind Ltd | Image processing apparatus and image processing method |
-
2010
- 2010-05-24 KR KR1020100048093A patent/KR101165415B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003259362A (en) * | 2002-03-06 | 2003-09-12 | Mitsubishi Heavy Ind Ltd | Image processing apparatus and image processing method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102248235B1 (en) | 2020-05-06 | 2021-05-04 | 주식회사 에스엠전자 | History management system for a feverish person and a person who contacts on the feverish person |
KR20210142245A (en) | 2020-05-18 | 2021-11-25 | 한국광기술원 | Heterogeneous image processing device |
Also Published As
Publication number | Publication date |
---|---|
KR20110128574A (en) | 2011-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101165415B1 (en) | Method for recognizing human face and recognizing apparatus | |
CN108230252B (en) | Image processing method and device and electronic equipment | |
US9710946B2 (en) | Method and apparatus for displaying point of interest | |
WO2018028546A1 (en) | Key point positioning method, terminal, and computer storage medium | |
US7554575B2 (en) | Fast imaging system calibration | |
US8660309B2 (en) | Image processing apparatus, image processing method, image processing program and recording medium | |
US10198661B2 (en) | System for determining alignment of a user-marked document and method thereof | |
TW202143100A (en) | Image processing method, electronic device and computer-readable storage media | |
CN109416744A (en) | Improved camera calibration system, target and process | |
CN107633526A (en) | A kind of image trace point acquisition methods and equipment, storage medium | |
CN107657639A (en) | A kind of method and apparatus of quickly positioning target | |
CN103597500A (en) | System and method for recognizing text information in object | |
CN104156998A (en) | Implementation method and system based on fusion of virtual image contents and real scene | |
KR101923177B1 (en) | Appratus and method for providing augmented reality information based on user | |
US10205875B2 (en) | Image enhancement and repair using sample data from other images | |
Furnari et al. | Affine covariant features for fisheye distortion local modeling | |
CN112434546A (en) | Face living body detection method and device, equipment and storage medium | |
CN116582653B (en) | Intelligent video monitoring method and system based on multi-camera data fusion | |
CN110692081A (en) | System, portable terminal device, server, program, and method for viewing confirmation | |
CN109840885A (en) | Image interfusion method and Related product | |
WO2022087846A1 (en) | Image processing method and apparatus, device, and storage medium | |
CN109785439A (en) | Human face sketch image generating method and Related product | |
TW201816721A (en) | Visual positioning apparatus, method, and computer program product thereof | |
CN113610884A (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
CN110781195B (en) | System, method and device for updating point of interest information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150706 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160707 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190329 Year of fee payment: 9 |