KR102349424B1 - Personal identification apparatus using face recongintion - Google Patents

Personal identification apparatus using face recongintion Download PDF

Info

Publication number
KR102349424B1
KR102349424B1 KR1020190178825A KR20190178825A KR102349424B1 KR 102349424 B1 KR102349424 B1 KR 102349424B1 KR 1020190178825 A KR1020190178825 A KR 1020190178825A KR 20190178825 A KR20190178825 A KR 20190178825A KR 102349424 B1 KR102349424 B1 KR 102349424B1
Authority
KR
South Korea
Prior art keywords
image
frame
image frame
histogram
output
Prior art date
Application number
KR1020190178825A
Other languages
Korean (ko)
Other versions
KR20210085599A (en
Inventor
심재용
윤인용
신승철
유동삼
Original Assignee
주식회사 에이블에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이블에이아이 filed Critical 주식회사 에이블에이아이
Priority to KR1020190178825A priority Critical patent/KR102349424B1/en
Publication of KR20210085599A publication Critical patent/KR20210085599A/en
Application granted granted Critical
Publication of KR102349424B1 publication Critical patent/KR102349424B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Abstract

본 발명은 얼굴 인식을 이용하여 개인을 식별하는 분야에 적용되며, 특히 가짜 얼굴(fake face)을 판별하는 기술과 관련된다. 인터레이스드 모드 카메라에서 촬영한 홀수 필드와 짝수 필드를 합성하여 하나의 영상 프레임을 생성하고, 이 영상 프레임을 동일한 순간에 동일한 피사체를 촬영한 프로그레시브 모드 카메라의 영상 프레임과 비교하여 그 차분에 기초하여 가짜 얼굴을 판별한다. 추가적으로 두 카메라가 촬영한 영상에서 카메라의 특성에 따른 영상의 차이를 보정하여 정규화할 수 있다. INDUSTRIAL APPLICABILITY The present invention is applied to the field of identifying an individual using face recognition, and particularly relates to a technique for discriminating a fake face. An image frame is generated by synthesizing the odd field and the even field captured by the interlaced mode camera, and the image frame is compared with the image frame of the progressive mode camera photographing the same subject at the same moment, and based on the difference, a fake identify the face Additionally, in the images captured by the two cameras, the difference between the images according to the characteristics of the cameras may be corrected and normalized.

Description

얼굴 인식을 사용하는 개인 식별 장치{Personal identification apparatus using face recongintion}Personal identification apparatus using face recongintion

본 발명은 얼굴 인식(face recognition)을 이용하여 개인을 식별(personal indentification)하는 분야에 적용되며, 특히 가짜 얼굴(fake face)을 판별(distinguish)하는 기술과 관련된다.The present invention is applied to the field of personal identification using face recognition, and particularly relates to a technique for discriminating a fake face.

얼굴 스푸핑(face spoofing) 공격은 일반적으로 사진, 비디오 녹화 또는 3D 마스크 등 가짜 얼굴을 권한자의 실제 얼굴로 대체하여 얼굴 인식 시스템을 속이려는 시도를 말한다. 이러한 얼굴 스푸핑 공격을 해결하기 위해 라이브니스 (liveness) 탐지가 수행된다. 즉, 해당 얼굴이 살아있는 것인지 사기성 복제인지를 인식한다.A face spoofing attack usually refers to an attempt to deceive a facial recognition system by replacing a fake face, such as a photo, video recording, or 3D mask, with the real face of an authorized person. Liveness detection is performed to solve this face spoofing attack. That is, it recognizes whether the corresponding face is alive or a fraudulent copy.

일반적으로 사진의 경우에는 눈 깜빡임 인식 등의 기술을 사용하여 가짜 얼굴을 쉽게 알 수 있으나, 동영상을 이용하여 얼굴 스푸핑 공격을 시도하는 경우에는 눈 깜빡임 인식 기술을 사용할 수 없고 열화상 카메라를 설치할 수 있으나 비용의 문제가 발생한다.In general, in the case of photos, fake faces can be easily recognized using technologies such as blink recognition, but when a face spoofing attack is attempted using video, blink recognition technology cannot be used and a thermal imager can be installed. The problem of cost arises.

Visage Technologies사는 얼굴에 발광 다이오드(Light Emitting Diode)를 비추고 반사율을 기반으로 라이브니스를 검사하는 기술을 개발하였다. 카메라로 화면의 빛이 반사되는 방식을 검사하여 가짜 얼굴을 인식할 수 있다. 그러나 이러한 발광 다이오드의 빛 반사를 검사하는 방식은 스마트폰, 태블릿 등과 같이 화면 가까이에 카메라가 배치되는 장치에서 사용할 수 있으나 비교적 원거리에서 촬영하는 보안용 카메라에서는 잘 작동하지 않는다. Visage Technologies has developed a technology that illuminates a face with a light emitting diode and checks liveness based on reflectance. A fake face can be recognized by examining the way the screen's light is reflected by the camera. However, this method of inspecting the light reflection of light emitting diodes can be used in devices in which a camera is placed close to the screen, such as a smartphone or tablet, but does not work well in a security camera that shoots from a relatively long distance.

제안된 발명은 비교적 원거리에서 촬영한 영상으로부터 동영상에 의한 가짜 영상을 판별하는 것을 목적으로 한다. 나아가 제안된 발명은 적은 비용으로 동영상에 의한 가짜 영상을 판별하는 것을 목적으로 한다. 더 나아가 제안된 발명은 보안 카메라에서 실시간으로 동영상에 의한 가짜 영상을 판별하는 것을 목적으로 한다.The proposed invention aims to discriminate a fake image based on a moving picture from an image taken from a relatively long distance. Furthermore, the proposed invention aims to discriminate a fake image by a moving image at a low cost. Furthermore, the proposed invention aims to discriminate a fake image by a moving picture in real time in a security camera.

일 양상에 따른 얼굴 인식을 사용하는 개인 식별 장치는 동영상에 의한 가짜 영상을 판별하기 위하여 인터레이스드 모드 카메라를 활용한다. 동영상의 경우 카메라와 프레임 주파수나 라인 주파수 및/또는 픽셀 주파수가 일치하지 않고 이에 따라 프로그레시브 모드 카메라에 비해 홀수 필드과 짝수 필드간에 영상의 차이가 크게 발생한다. 일 양상에 따르면, 인터레이스드 모드 카메라에서 촬영한 홀수 필드와 짝수 필드를 합성하여 하나의 영상 프레임을 생성하고, 이 영상 프레임을 동일한 순간에 동일한 피사체를 촬영한 프로그레시브 모드 카메라의 영상 프레임과 비교하여 그 차분에 기초하여 가짜 얼굴을 판별한다. An apparatus for personal identification using face recognition according to an aspect utilizes an interlaced mode camera to determine a fake image based on a moving picture. In the case of a moving picture, the frame frequency, line frequency, and/or pixel frequency do not match with the camera, and accordingly, there is a large difference in the image between the odd field and the even field compared to the progressive mode camera. According to an aspect, one image frame is generated by synthesizing the odd field and the even field photographed by the interlaced mode camera, and the image frame is compared with the image frame of the progressive mode camera photographing the same subject at the same moment. A fake face is identified based on the difference.

추가적인 양상에 따르면, 두 카메라가 촬영한 영상에서 카메라의 특성에 따른 영상의 차이를 보정하여 정규화할 수 있다. 이에 따라 가짜 얼굴 판별의 신뢰도가 더 향상될 수 있다. According to an additional aspect, in images captured by two cameras, a difference in images according to camera characteristics may be corrected and normalized. Accordingly, the reliability of fake face identification may be further improved.

추가적인 양상에 따르면, 카메라의 특성이나 영상의 불일치의 정규화는 영상의 히스토그램에 기초하여 수행될 수 있다. According to an additional aspect, normalization of a camera characteristic or image discrepancy may be performed based on a histogram of the image.

과거에 사용되고 있던 저가의 인터레이스드 모드 카메라는 짝수 필드와 홀수 필드를 번갈아 가면서 출력한다. 이에 따라서 태블릿, 스마트폰, 컴퓨터 화면 상에서 디스플레이 되는 가짜 얼굴인 경우에, 이러한 인터레이스드 모드 카메라로부터 출력되는 영상 프레임의 각 픽셀별 픽셀값은, 영상보안 분야에서는 일반적인 메인 카메라로 사용되는 프로그레시브 모드 카메라로부터 출력되는 영상 프레임의 픽셀값과 차이가 나게 되어, 저렴한 비용으로 가짜 얼굴을 판별할 수 있게 된다.Low-cost interlaced mode cameras used in the past alternately output even and odd fields. Accordingly, in the case of a fake face displayed on a tablet, smartphone, or computer screen, the pixel value of each pixel of the image frame output from the interlaced mode camera is obtained from the progressive mode camera used as a general main camera in the field of video security. Since it is different from the pixel value of the output image frame, it is possible to identify a fake face at a low cost.

나아가 일실시예에 따르면, 인터레이스드 모드 카메라로부터 출력되는 홀수 필드과 짝수 필드에 대하여 하나의 프로그레시브 프레임으로 합성하고, 합성된 제1 영상 프레임의 히스토그램 특성과 프로그레시브 모드 카메라로부터 출력되는 제2 영상 프레임의 히스토그램 특성을 정규화 한다. 따라서, 실제 얼굴인 경우와 가짜 얼굴인 경우의 영상 프레임의 차이가 더 커지고, 판별의 신뢰도를 높일 수 있다. Furthermore, according to an embodiment, the odd field and even field output from the interlaced mode camera are synthesized into one progressive frame, and the histogram characteristics of the synthesized first image frame and the histogram of the second image frame output from the progressive mode camera are synthesized. Normalize the characteristics. Therefore, the difference between the image frames between the case of the real face and the case of a fake face becomes larger, and the reliability of the discrimination can be increased.

도 1은 일 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다.
도 2는 또 다른 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다.
도 3은 또 다른 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다.
도 4는 일 실시예에 따른 영상 정규화부(310)의 동작을 설명하기 위한 그래프이다.
도 5는 일 실시예에 따른 개인 식별 방법의 구성을 도시한 흐름도이다.
1 is a block diagram illustrating a configuration of a personal identification apparatus according to an embodiment.
2 is a block diagram illustrating a configuration of a personal identification device according to another embodiment.
3 is a block diagram illustrating a configuration of a personal identification device according to another embodiment.
4 is a graph for explaining the operation of the image normalizer 310 according to an embodiment.
5 is a flowchart illustrating a configuration of a method for personal identification according to an embodiment.

전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 실시예 내에서 다양한 조합이 가능한 것으로 이해된다. The foregoing and additional aspects are embodied through the embodiments described with reference to the accompanying drawings. It is understood that various combinations of elements in the embodiments are possible within the embodiments as long as there is no contradiction between them or other mentions.

도 1은 일 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 개인 식별 장치는 프로그레시브 모드 카메라(110)와, 인터레이스드 모드 카메라(120)와, 영상 비교부(300) 및 가짜 얼굴 판별부(700)를 포함한다. 1 is a block diagram illustrating a configuration of a personal identification apparatus according to an embodiment. As shown, the personal identification apparatus according to an embodiment includes a progressive mode camera 110 , an interlaced mode camera 120 , an image comparison unit 300 , and a fake face determination unit 700 .

인터레이스드 모드 카메라(interlaced mode camera)(120)는 과거 널리 사용되던 아날로그 방식의 저가의 카메라이다. 인터레이스드 모드 카메라는 짝수 필드(even field)과 홀수 필드(odd field)를 번갈아 가면서 출력한다. 여기서 짝수 필드는 수평 주사 라인 중 짝수 라인으로 구성되고, 홀수 필드는 수평 주사 라인 중 홀수 라인으로 구성된다. 스마트폰 화면 등에서 표시되는 동영상은 스캔 주파수가 카메라의 그것과 일치하지 않으므로 짝수 필드 및 홀수 필드 중 특정한 주사 라인이나 필드에서 전혀 표시되지 않거나 일부만 표시된 상태로 촬영될 수 있다. The interlaced mode camera 120 is a low-cost analog camera that has been widely used in the past. The interlaced mode camera alternately outputs an even field and an odd field. Here, the even field is composed of even lines among horizontal scan lines, and the odd field is composed of odd lines among horizontal scan lines. Since the scan frequency of a moving picture displayed on a smartphone screen or the like does not match that of the camera, it may be recorded in a state in which it is not displayed at all or only partially displayed in a specific scanning line or field among even-numbered fields and odd-numbered fields.

프로그레시브 모드 카메라(110)는 영상보안 분야에서 일반적으로 사용되는 카메라이다. 프로그레시브 모드 카메라(110)가 출력하는 프로그레시브 영상 프레임은 얼굴 인식을 사용하는 개인 식별 장치의 얼굴 인식부(500)로 전달된다. 일 실시예에서, 얼굴 인식부(500)는 입력된 영상 프레임에서 얼굴 영역을 추출하여 인코딩하고, 인코딩된 벡터를 데이터베이스에 저장된 기준 벡터들과 비교하여 가장 잘 매칭되는 벡터를 찾아 해당하는 개인 식별 정보를 출력한다. 이러한 얼굴 인식 알고리즘은 다양한 형태가 알려져 있으며, 최근 인공 지능 기술의 발전에 힘입어 그 신뢰도가 급격히 향상되고 있다. The progressive mode camera 110 is a camera generally used in the field of image security. The progressive image frame output by the progressive mode camera 110 is transmitted to the face recognition unit 500 of the personal identification device using face recognition. In an embodiment, the face recognition unit 500 extracts and encodes a face region from an input image frame, compares the encoded vector with reference vectors stored in a database, finds a vector that best matches, and the corresponding personal identification information to output Various types of these face recognition algorithms are known, and their reliability is rapidly improving thanks to the recent development of artificial intelligence technology.

영상 비교부(300)는 인터레이스드 모드 카메라(120)로부터 출력되는 영상 프레임과, 프로그레시브 모드 카메라(120)로부터 출력되는 영상 프레임 간의 차이를 산출한다. 일 예로, 인터레이스드 모드 카메라(120)로부터 출력되는 영상 프레임은 홀수 필드와 짝수 필드의 각 수평 주사선을 순차적으로 번갈아 섞어서 생성된 프레임일 수 있다. 예를 들어, 프레임 메모리의 홀수라인 영역에는 홀수 필드을 기록하고 짝수라인 영역에는 짝수 필드을 기록하여 인터레이스드 모드의 영상 프레임을 프로그레시브 모드의 영상 프레임으로 변환할 수가 있다. 이에 따라, 화면 디스플레이부(도시하지 않음)는 프레임 메모리에 저장된 프로그레시브 모드의 영상 프레임을 읽어서 화면에 출력하게 된다. 입력되는 인터레이스드 영상 프레임을 처리하여 프로그레시브 영상 프레임으로 변환하고 이를 화면에 디스플레이 하는 이른바 디인터레이싱 (De-interlacing) 기술 자체는 공지되어 있다.The image comparison unit 300 calculates a difference between the image frame output from the interlaced mode camera 120 and the image frame output from the progressive mode camera 120 . For example, the image frame output from the interlaced mode camera 120 may be a frame generated by sequentially alternating horizontal scan lines of odd fields and even fields. For example, an interlaced mode image frame can be converted into a progressive mode image frame by writing an odd field in the odd line area and writing an even field in the even line area of the frame memory. Accordingly, the screen display unit (not shown) reads the image frame in the progressive mode stored in the frame memory and outputs it to the screen. A so-called de-interlacing technique itself of processing an input interlaced image frame, converting it into a progressive image frame, and displaying it on a screen is known.

태블릿, 스마트폰, 컴퓨터 등의 화면 상에서 디스플레이 되는 가짜 얼굴인 경우에, 가짜 얼굴을 디스플레이하는 그 화면은 일반적으로 프로그레시브 방식의 스캔을 사용한다. 또한 이 화면의 디스플레이 스캔 주기와 인터레이스드 모드 카메라(120)의 스캔 주기가 다르다. 또 인터레이스드 모드 카메라(120)에는 가짜 얼굴을 디스플레이하는 화면에는 존재하지 않는 짝수 필드와 홀수 필드 간의 갱신(refresh) 딜레이가 존재한다. 이에 따라 인터레이스드 모드 카메라(120)로부터 출력되는 가짜 얼굴 영상 프레임은 프로그레시브 모드 카메라(110)로부터 출력되는 가짜 얼굴 영상 프레임에 비해 상대적으로 많은 아티팩츠(artifacts)가 발생하게 된다. In the case of a fake face displayed on the screen of a tablet, smartphone, computer, or the like, the screen displaying the fake face generally uses a progressive scan. Also, the display scan period of this screen is different from the scan period of the interlaced mode camera 120 . Also, in the interlaced mode camera 120 , there is a refresh delay between the even field and the odd field that does not exist on the screen displaying the fake face. Accordingly, the fake face image frame output from the interlaced mode camera 120 has relatively many artifacts compared to the fake face image frame output from the progressive mode camera 110 .

진짜 얼굴 영상과 가짜 얼굴 영상의 차이를 산출하기 위해, 제안된 실시예에서, 영상 비교부(200)는 인터레이스드 모드 카메라(120)로부터 출력되는 영상 프레임과 프로그레시브 모드 카메라(110)로부터 출력되는 영상 프레임 사이의 차이의 크기를 산출한다. 예를 들어, 영상 비교부(200)는 각 카메라(110,120)로부터 출력되는 해당되는 두 영상 프레임 내의 대응되는 픽셀값끼리 빼기 연산을 수행할 수 있다. 진짜 얼굴인 경우에는 영상 비교부(200)가 출력하는 영상 프레임 간의 차이의 크기 예를 들어 픽셀값 차이는 상대적으로 작으며, 가짜 얼굴인 경우에는 영상 비교부(200)가 출력하는 영상 프레임 간의 차이의 크기 예를 들어 픽셀값 차이는 상대적으로 크다. 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임을 대응하는 픽셀 별로 차분을 계산하여 산출할 수 있다. 또 다른 예로, 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임의 대응하는 픽셀 별 차분의 절대치의 평균값을 계산하여 산출할 수 있다. 또 다른 예로, 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임의 대응하는 픽셀 별 차분의 평균 제곱근 편차(Root Mean Square)를 계산하여 산출할 수도 있다. In order to calculate the difference between the real face image and the fake face image, in the proposed embodiment, the image comparison unit 200 includes an image frame output from the interlaced mode camera 120 and an image output from the progressive mode camera 110 . Calculates the magnitude of the difference between frames. For example, the image comparison unit 200 may perform a subtraction operation between corresponding pixel values in two corresponding image frames output from the respective cameras 110 and 120 . In the case of a real face, the difference between the image frames output by the image comparison unit 200, for example, a pixel value difference, is relatively small, and in the case of a fake face, the difference between the image frames output by the image comparison unit 200 For example, the pixel value difference is relatively large. The image difference may be calculated by calculating the difference for each pixel corresponding to the image frames of the two cameras converted to have the same resolution. As another example, the image difference may be calculated by calculating an average value of absolute values of differences for respective pixels of the image frames of the two cameras converted to have the same resolution. As another example, the image difference may be calculated by calculating the root mean square of the difference for each pixel of the image frames of the two cameras converted to have the same resolution.

가짜 얼굴 판별부(700)는 영상 비교부(300)의 출력을 기준치와 비교하여 가짜 얼굴 여부를 판단한다. 일 실시예에서, 가짜 얼굴 판별부(700)는 영상 비교부(200)의 출력의 크기가 일정치 이상이면 가짜 얼굴로 판단하고, 영상 비교부(200)의 출력의 크기가 일정치 이하이면 진짜 얼굴로 판단할 수 있다. 판단의 기준치는 다수의 영상에 대해 영상 차분의 통계적인 분포를 구하고 요구되는 신뢰도에 기초하여 결정할 수 있다. 가짜 얼굴 판별부(700)는 입력된 영상이 사기 영상인 경우 얼굴 인식부(500)의 얼굴 인식 동작을 중단시키고 경고 메시지를 출력할 수 있다. The fake face determination unit 700 compares the output of the image comparison unit 300 with a reference value to determine whether a fake face is present. In an embodiment, the fake face determining unit 700 determines a fake face if the size of the output of the image comparison unit 200 is greater than or equal to a certain value, and determines a fake face if the size of the output of the image comparison unit 200 is less than or equal to a predetermined value. You can judge by the face. The reference value for judgment may be determined based on a required reliability by obtaining a statistical distribution of image differences for a plurality of images. The fake face determination unit 700 may stop the face recognition operation of the face recognition unit 500 and output a warning message when the input image is a fraudulent image.

도 2는 또 다른 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다. 도 1의 실시예와 유사한 구성요소들은 동일한 도면 부호로 참조된다. 도시된 바와 같이, 일 실시예에 따른 개인 식별 장치는 프로그레시브 모드 카메라(110)와, 인터레이스드 모드 카메라(120)와, 영상 비교부(300) 및 가짜 얼굴 판별부(700)를 포함한다. 프로그레시브 모드 카메라(110)와 인터레이스드 모드 카메라(120) 및 얼굴 인식부(500)는 도 1을 참조하여 설명한 대응되는 구성요소와 유사하다. 2 is a block diagram illustrating a configuration of a personal identification device according to another embodiment. Components similar to the embodiment of FIG. 1 are referenced by the same reference numerals. As shown, the personal identification apparatus according to an embodiment includes a progressive mode camera 110 , an interlaced mode camera 120 , an image comparison unit 300 , and a fake face determination unit 700 . The progressive mode camera 110 , the interlaced mode camera 120 , and the face recognition unit 500 are similar to the corresponding components described with reference to FIG. 1 .

추가적인 양상에 따르면, 영상 비교부(300)는 프레임 합성부(330)와, 영상 정규화부(310) 및 프레임 차분산출부(350)를 포함할 수 있다. 프레임 합성부(330)는 인터레이스드 모드 카메라(120)로부터 출력되는 홀수 필드과 짝수 필드를 하나의 프로그레시브 프레임인 제1 영상 프레임으로 합성한다. 생성되는 프로그레시브 프레임의 홀수 주사선은 홀수 필드에서, 짝수 주사선은 짝수 필드에서 온 것이다. 이러한 인터레이스드 모드-프로그레시브 모드 변환 기술은 과거 아날로그 텔레비전에서 많이 알려진 기술이다. 영상 정규화부(310)는 프레임 합성부(330)로부터 출력되는 제1 영상 프레임의 영상과, 프로그레시브 모드 카메라(110)로부터 출력되는 제2 영상 프레임의 영상을 정규화하여 출력한다. 상이한 2개의 카메라로부터 촬영된 영상이므로, 영상은 휘도, 명도, 히스토그램 등 영상 특성이 상이하며, 이로 인해 이들을 직접 비교할 경우 정확한 판단이 어려울 수 있다. 영상 정규화부(310)는 두 영상의 영상 특성이 서로 일치하도록 두 영상을 각각 변환할 수 있다. 또 다른 예로, 둘 중 하나의 영상, 특히 프로그레시브 모드 카메라(110)로부터 출력되는 제2 영상 프레임을 제1 영상 프레임에 일치하도록 변환할 수 있다. 프레임 합성부(330)로부터 출력되는 제1 영상 프레임의 영상을 변환시킬 경우 홀수 필드와 짝수 필드간의 차이 부분이 반영되어 오류가 발생할 수 있으므로 프로그레시브 모드 카메라(110)로부터 출력되는 제2 영상 프레임을 변환하는 것이 바람직하다. 프레임 차분 산출부(350)는 정규화된 제1 영상 프레임과, 정규화된 제2 영상 프레임의 픽셀별 차분을 산출한다. 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임을 대응하는 픽셀 별로 차분을 계산하여 산출할 수 있다. 또 다른 예로, 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임의 대응하는 픽셀 별 차분의 절대치의 평균값을 계산하여 산출할 수 있다. 또 다른 예로, 영상 차분은 동일한 해상도를 가지도록 변환된 두 카메라의 영상 프레임의 대응하는 픽셀 별 차분의 평균 제곱근 편차(Root Mean Square)를 계산하여 산출할 수도 있다. 가짜 얼굴 판별부(700)는 영상 비교부(200)의 출력을 기준치와 비교하여 가짜 얼굴 여부를 판단한다. 기준치는 다수의 영상에 대해 영상 차분의 통계적인 분포를 구하고 요구되는 신뢰도에 기초하여 결정할 수 있다.According to an additional aspect, the image comparing unit 300 may include a frame combining unit 330 , an image normalizing unit 310 , and a frame difference calculating unit 350 . The frame combining unit 330 synthesizes the odd field and the even field output from the interlaced mode camera 120 into a first image frame, which is a progressive frame. Odd scan lines of the generated progressive frame are from odd fields, and even scan lines are from even fields. Such an interlaced mode-progressive mode conversion technique is a technique widely known in analog television in the past. The image normalization unit 310 normalizes the image of the first image frame output from the frame combining unit 330 and the image of the second image frame output from the progressive mode camera 110 and outputs the normalized image. Since the images are taken from two different cameras, the images have different image characteristics such as luminance, brightness, and histogram. The image normalizer 310 may transform the two images so that the image characteristics of the two images match each other. As another example, one of the two images, in particular, the second image frame output from the progressive mode camera 110 may be converted to match the first image frame. When the image of the first image frame output from the frame combining unit 330 is converted, the difference between the odd field and the even field is reflected and an error may occur. Therefore, the second image frame output from the progressive mode camera 110 is converted. It is preferable to do The frame difference calculator 350 calculates a pixel-by-pixel difference between the normalized first image frame and the normalized second image frame. The image difference may be calculated by calculating the difference for each pixel corresponding to the image frames of the two cameras converted to have the same resolution. As another example, the image difference may be calculated by calculating an average value of absolute values of differences for each pixel of the image frames of the two cameras converted to have the same resolution. As another example, the image difference may be calculated by calculating the root mean square of the difference for each pixel of the image frames of the two cameras converted to have the same resolution. The fake face determination unit 700 compares the output of the image comparison unit 200 with a reference value to determine whether a fake face is present. The reference value may be determined based on a required reliability by obtaining a statistical distribution of image differences for a plurality of images.

도 3은 또 다른 실시예에 따른 개인 식별 장치의 구성을 도시한 블록도이다. 도 2의 실시예와 유사한 구성요소들은 동일한 도면 부호로 참조된다. 도시된 바와 같이, 일 실시예에 따른 개인 식별 장치는 프로그레시브 모드 카메라(110)와, 인터레이스드 모드 카메라(120)와, 얼굴 인식부(500)와, 프레임 합성부(330)와, 영상 정규화부(310)와, 프레임 차분 산출부(350) 및 가짜 얼굴 판별부(700)를 포함한다. 프로그레시브 모드 카메라(110)와, 인터레이스드 모드 카메라(120)와, 얼굴 인식부(500)와, 프레임 합성부(330)와, 프레임 차분 산출부(350) 및 가짜 얼굴 판별부(700)는 도 2를 참조하여 설명한 대응되는 구성요소와 유사하다. 3 is a block diagram illustrating a configuration of a personal identification apparatus according to another embodiment. Components similar to the embodiment of FIG. 2 are referenced by the same reference numerals. As shown, the personal identification device according to an embodiment includes a progressive mode camera 110 , an interlaced mode camera 120 , a face recognition unit 500 , a frame synthesis unit 330 , and an image normalization unit 310 , a frame difference calculating unit 350 , and a fake face determining unit 700 . The progressive mode camera 110, the interlaced mode camera 120, the face recognition unit 500, the frame combining unit 330, the frame difference calculating unit 350, and the fake face determining unit 700 are shown in Fig. It is similar to the corresponding component described with reference to 2 .

일 양상에 따르면, 영상 정규화부(310)는 제1 영상 특성 검출부(315)와, 제2 영상 특성 검출부(313)와, 영상 변환부(311)를 포함할 수 있다. 도시된 실시예에서, 제1 영상 특성 검출부(315)는 제1 영상 프레임의 영상 특성을 검출한다. 제2 영상 특성 검출부(313)는 제2 영상 프레임의 영상 특성을 검출한다. 영상 변환부(311)는 제1 영상 프레임의 영상 특성 및 제2 영상 프레임의 영상 특성을 이용하여, 제1 영상 프레임과 제2 영상 프레임의 영상 특성이 실질적으로 서로 일치하도록 변환한다. According to an aspect, the image normalization unit 310 may include a first image characteristic detection unit 315 , a second image characteristic detection unit 313 , and an image conversion unit 311 . In the illustrated embodiment, the first image characteristic detector 315 detects the image characteristic of the first image frame. The second image characteristic detector 313 detects an image characteristic of the second image frame. The image converter 311 converts the image characteristics of the first image frame and the second image frame to substantially match each other by using the image characteristics of the first image frame and the image characteristics of the second image frame.

영상 특성은 예를 들어 휘도값의 평균 및 표준 편차일 수 있다. 또 다른 예로, 영상 특성은 휘도 값의 히스토그램일 수 있다. 영상 처리 분야에서 히스토그램(histogram)이란 영상에 대하여 각 밝기 레벨마다 그 밝기 레벨을 가지는 픽셀 개수를 도시한 그래프를 말한다. 카메라에서 출력되는 영상의 히스토그램 특성을 보면 그 카메라의 출력 특성을 알 수 있다. 또한 카메라에서 출력되는 영상의 히스토그램 특성을 보면, 촬영된 영상의 밝기 평균이나 분산되어 있는 정도를 알 수가 있게 된다. The image characteristic may be, for example, an average and standard deviation of luminance values. As another example, the image characteristic may be a histogram of luminance values. In the image processing field, a histogram refers to a graph showing the number of pixels having a brightness level for each brightness level of an image. By looking at the histogram characteristics of the image output from the camera, the output characteristics of the camera can be known. Also, by looking at the histogram characteristics of the image output from the camera, it is possible to know the average brightness or the degree of dispersion of the captured image.

일 실시예에서, 영상 변환부(311)는 검출된 제1 영상 프레임의 히스토그램 특성 및 제2 영상 프레임의 히스토그램 특성을 이용하여, 제1 영상 프레임 또는 제2 영상 프레임 중의 적어도 어느 하나의 히스토그램 특성을 변환하여 두 영상 프레임의 히스토그램 특성이 서로 일치하도록 영상 프레임을 변환하여 두 카메라(110,120)의 특성을 최대한 일치시킨다. In an embodiment, the image converter 311 obtains the histogram characteristic of at least one of the first image frame and the second image frame by using the detected histogram characteristic of the first image frame and the histogram characteristic of the second image frame. By transforming the image frame so that the histogram characteristics of the two image frames coincide with each other, the characteristics of the two cameras 110 and 120 are matched as much as possible.

일실시예에 따르면, 영상 변환부(311)는 프로그레시브 모드 카메라(110)로부터 출력되는 제2 영상 프레임에 대하여 인터레이스드 모드 카메라(120)로부터 출력되는 제1 영상 프레임의 영상 특성에 일치하도록 영상 변환을 수행할 수 있다. 반대로 영상 변환부(311)는 인터레이스드 모드 카메라(120)로부터 출력되는 제1 영상 프레임에 대하여 프로그레시브 모드 카메라(110)로부터 출력되는 제2 영상 프레임의 특성에 일치하도록 영상 변환을 수행할 수 있다. 또 다른 예로, 영상 변환부(311)는 제1 영상 프레임 및 제2 영상 프레임 모두에 대하여 영상 변환을 수행하여 두 카메라(110,120)의 영상 특성을 최대한 일치시킬 수 있다.According to an embodiment, the image converter 311 converts the second image frame output from the progressive mode camera 110 to match the image characteristics of the first image frame output from the interlaced mode camera 120 . can be performed. Conversely, the image converter 311 may convert the first image frame output from the interlaced mode camera 120 to match the characteristics of the second image frame output from the progressive mode camera 110 . As another example, the image conversion unit 311 may perform image conversion on both the first image frame and the second image frame to match the image characteristics of the two cameras 110 and 120 as much as possible.

도 4는 일 실시예에 따른 영상 정규화부(310)의 동작을 설명하기 위한 그래프이다. 도면에서 실선은 제1 영상 프레임의 예시적인 히스토그램이고, 점선은 제2 영상 프레임의 예시적인 히스토그램이다. 동일한 피사체를 촬영했음에도 불구하고 제1 영상 프레임과 제2 영상 프레임은 상이한 히스토그램을 보이고 있다. 그 원인은 주로 두 카메라의 특성의 차이, 즉 이미지 센서의 민감도, 조명, 광학계의 차이 등에 기인한다. 히스토그램 변환은 영상 처리에서 알려진 기술로, 픽셀 값의 매핑에 해당한다. 4 is a graph for explaining the operation of the image normalizer 310 according to an embodiment. In the drawing, a solid line is an exemplary histogram of the first image frame, and a dotted line is an exemplary histogram of the second image frame. Although the same subject is photographed, the first image frame and the second image frame show different histograms. The cause is mainly due to the difference in the characteristics of the two cameras, that is, the sensitivity of the image sensor, the difference in lighting, and the optical system. Histogram transformation is a known technique in image processing and corresponds to the mapping of pixel values.

도시된 실시예에서, 제1 영상 특성 검출부(315)는 제 1 영상 프레임의 휘도 값의 분포를 카운트하여 히스토그램을 산출한다. 제2 영상 특성 검출부(313)는 제 3 영상 프레임의 휘도 값의 분포를 카운트하여 히스토그램을 산출한다. 제1 영상 특성 검출부(315)와 제2 영상 특성 검출부(313)는 반드시 모든 휘도 값에 대해 히스토그램을 산출할 필요는 없다. 예로, 256개의 휘도 값들 중 단지 16개에 대해서만 해당 휘도값을 가진 픽셀들을 카운트하여 히스토그램의 개략적인 특성을 산출할 수 있다. 나머지 휘도값에 대해서는 이들을 기준으로 보간하여 매핑할 수 있다. 영상 변환부(311)는 휘도값 매핑을 통해 두 영상 프레임의 영상 특성, 도시된 실시예에서는 히스토그램 특성을 일치시킨다. 이러한 매핑은 매핑 테이블을 이용하여 픽셀 값으로 매핑 테이블을 어드레싱함으로써 고속으로 수행될 수 있다. 도 4에 도시된 바와 같이, 어떤 휘도값에 대해서는 증폭하고, 어떤 휘도값에 대해서는 감쇄하여 두 영상 프레임의 히스토그램 특성을 일치시킨다. In the illustrated embodiment, the first image characteristic detector 315 calculates a histogram by counting the distribution of luminance values of the first image frame. The second image characteristic detector 313 calculates a histogram by counting the distribution of luminance values of the third image frame. The first image characteristic detector 315 and the second image characteristic detector 313 do not necessarily calculate histograms for all luminance values. For example, only 16 of the 256 luminance values may be counted by counting pixels having a corresponding luminance value to calculate a rough characteristic of the histogram. The remaining luminance values may be interpolated and mapped based on these values. The image converter 311 matches the image characteristics of the two image frames, and in the illustrated embodiment, the histogram characteristics through luminance value mapping. This mapping can be performed at high speed by using the mapping table to address the mapping table with pixel values. As shown in FIG. 4 , a certain luminance value is amplified and a certain luminance value is attenuated to match the histogram characteristics of two image frames.

도 5는 일 실시예에 따른 개인 식별 방법의 구성을 도시한 흐름도이다. 도시된 바와 같이, 일 실시예에 따른 개인 식별 방법은 프레임 합성 단계(830)와, 영상 정규화 단계(850)와, 프레임 차분산출 단계(870) 그리고 가짜 얼굴 판별 단계(890)를 포함한다. 프레임 합성 단계(830)에서 인터레이스드 모드 카메라로부터 출력되는 홀수 필드와 짝수 필드를 입력받아(단계 810), 이들을 하나의 프로그레시브 프레임인 제1 영상 프레임으로 합성한다. 영상 정규화 단계(850)에서 제1 영상 프레임의 영상과, 프로그레시브 모드 카메라로부터 출력되는 제2 영상 프레임의 영상을 정규화하여 출력한다. 프레임 차분산출 단계(870)에서 정규화된 제1 영상 프레임과, 정규화된 제2 영상 프레임의 픽셀별 차분을 산출한다. 가짜 얼굴 판별 단계(890)에서 영상 프레임 간의 차이를 기준치와 비교하여 가짜 얼굴 여부를 판단한다. 이들에 대해서는 도 1 및 도 2를 참조하여 대응되는 구성들을 설명하였으므로 상세한 설명은 생략한다. 5 is a flowchart illustrating a configuration of a method for personal identification according to an embodiment. As shown, the personal identification method according to an embodiment includes a frame synthesis step 830 , an image normalization step 850 , a frame difference calculation step 870 , and a fake face identification step 890 . In the frame synthesizing step 830, the odd field and the even field output from the interlaced mode camera are received (step 810), and they are combined into a first image frame, which is a single progressive frame. In the image normalization step 850, the image of the first image frame and the image of the second image frame output from the progressive mode camera are normalized and output. In the frame difference calculation step 870 , a pixel-by-pixel difference between the normalized first image frame and the normalized second image frame is calculated. In the fake face determination step 890 , the difference between the image frames is compared with a reference value to determine whether a fake face is present. For these, since corresponding configurations have been described with reference to FIGS. 1 and 2 , a detailed description thereof will be omitted.

추가적인 양상에 따르면, 영상 정규화 단계(850)는 제1 영상 특성 검출 단계(851)와, 제2 영상 특성 검출 단계(853)와, 영상 변환 단계(855)를 포함할 수 있다. 제1 영상 특성 검출 단계(851)에서 제1 영상 프레임의 영상 특성을 검출한다. 제2 영상 특성 검출 단계(853)에서 제2 영상 프레임의 영상 특성을 검출한다. 영상 변환 단계(855)에서 제1 영상 프레임의 영상 특성 및 제2 영상 프레임의 영상 특성을 이용하여, 제1 영상 프레임과 제2 영상 프레임의 영상 특성이 실질적으로 서로 일치하도록 변환한다. 이들에 대해서는 도 3을 참조하여 대응되는 구성들을 설명하였으므로 상세한 설명은 생략한다. 추가적인 양상에 따르면, 영상 특성은 휘도값의 평균, 표준 편차, 히스토그램 중 어느 하나를 포함할 수 있다. According to an additional aspect, the image normalization operation 850 may include a first image characteristic detection operation 851 , a second image characteristic detection operation 853 , and an image conversion operation 855 . In the first image characteristic detection step 851, the image characteristic of the first image frame is detected. In the second image characteristic detection step 853, the image characteristic of the second image frame is detected. In the image conversion operation 855 , the image characteristics of the first image frame and the image characteristics of the second image frame are converted to substantially match each other by using the image characteristics of the first image frame and the image characteristics of the second image frame. For these, since corresponding configurations have been described with reference to FIG. 3, detailed descriptions thereof will be omitted. According to an additional aspect, the image characteristic may include any one of an average of luminance values, a standard deviation, and a histogram.

이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다. Although the present invention has been described above with reference to the accompanying drawings, the present invention is not limited thereto, and it should be construed to encompass various modifications that can be apparent from those skilled in the art. The claims are intended to cover such modifications.

110 : 프로그레시브 모드 카메라 120 : 인터레이스드 모드 카메라
310 : 영상 정규화부 311 : 영상 변환부
313 : 제2 영상 특성 검출부 315 : 제1 영상 특성 검출부
330 : 프레임 합성부 350 : 프레임 차분 산출부
500 : 얼굴 인식부 700 : 가짜 얼굴 판별부
110: progressive mode camera 120: interlaced mode camera
310: image normalization unit 311: image conversion unit
313: second image characteristic detection unit 315: first image characteristic detection unit
330: frame synthesizing unit 350: frame difference calculating unit
500: face recognition unit 700: fake face discrimination unit

Claims (7)

인터레이스드 모드 카메라(interlaced mode camera)와;
프로그레시브 모드 카메라(progressive mode camera)와;
인터레이스드 모드 카메라로부터 출력되는 영상 프레임과, 프로그레시브 모드 카메라로부터 출력되는 영상 프레임 간의 차이를 산출하는 영상 비교부; 및
영상 비교부의 출력을 기준치와 비교하여 가짜 얼굴 여부를 판단하는 가짜 얼굴 판별부;
를 포함하고,
상기 영상 비교부는 :
인터레이스드 모드 카메라로부터 출력되는 홀수 필드와 짝수 필드에 대하여 하나의 프로그레시브 프레임인 제1 영상 프레임으로 합성하는 프레임 합성부;
프레임 합성부로부터 출력되는 제1 영상 프레임의 영상과, 프로그레시브 모드 카메라로부터 출력되는 제2 영상 프레임의 영상을 정규화하여 출력하는 영상 정규화부; 및
정규화된 제1 영상 프레임과, 정규화된 제2 영상 프레임의 픽셀별 차분을 산출하는 프레임 차분산출부;를 포함하며,
상기 영상 정규화부는 :
제1 영상 프레임의 영상 특성을 검출하는 제1 영상 특성 검출부;
제2 영상 프레임의 영상 특성을 검출하는 제2 영상 특성 검출부;
영상 변환부;를 포함하고,
상기 제1 영상 특성 검출부는 제 1 영상 프레임의 휘도값 분포를 카운트하여 제 1 히스토그램을 산출하며,
상기 제2 영상 특성 검출부는 제 2 영상 프레임의 휘도값 분포를 카운트하여 제 2 히스토그램을 산출하고,
상기 영상 변환부는, 상기 제 2 히스토그램이 상기 제 1 히스토그램과 동일하도록 상기 제 2 영상 프레임의 휘도값을 변환하는,
얼굴 인식을 사용하는 개인 식별 장치.
an interlaced mode camera;
a progressive mode camera;
an image comparator for calculating a difference between an image frame output from the interlaced mode camera and an image frame output from the progressive mode camera; and
a fake face determination unit that compares the output of the image comparison unit with a reference value to determine whether a fake face is present;
including,
The image comparison unit:
a frame synthesizing unit for synthesizing the odd field and the even field output from the interlaced mode camera into a first image frame, which is one progressive frame;
an image normalizer for normalizing the image of the first image frame output from the frame combining unit and the image of the second image frame output from the progressive mode camera and outputting the normalized image; and
and a frame difference calculator for calculating a pixel-by-pixel difference between the normalized first image frame and the normalized second image frame;
The image normalization unit:
a first image characteristic detector for detecting image characteristics of the first image frame;
a second image characteristic detection unit for detecting image characteristics of the second image frame;
an image conversion unit;
The first image characteristic detector calculates a first histogram by counting the distribution of luminance values of the first image frame,
The second image characteristic detector calculates a second histogram by counting the distribution of luminance values of the second image frame,
wherein the image converter converts a luminance value of the second image frame so that the second histogram is the same as the first histogram;
A personal identification device that uses facial recognition.
삭제delete 삭제delete 삭제delete 인터레이스드 모드 카메라로부터 출력되는 홀수 필드와 짝수 필드에 대하여 하나의 프로그레시브 프레임인 제1 영상 프레임으로 합성하는 프레임 합성 단계;
제1 영상 프레임의 영상과, 프로그레시브 모드 카메라로부터 출력되는 제2 영상 프레임의 영상을 정규화하여 출력하는 영상 정규화 단계; 및
정규화된 제1 영상 프레임과, 정규화된 제2 영상 프레임의 픽셀별 차분을 산출하는 프레임 차분산출 단계; 그리고
영상 프레임 간의 차이를 기준치와 비교하여 가짜 얼굴 여부를 판단하는 가짜 얼굴 판별 단계;
를 포함하고,
상기 영상 정규화 단계는,
제 1 영상 프레임의 휘도값 분포를 카운트하여 제 1 히스토그램을 산출하는 단계와,
제 2 영상 프레임의 휘도값 분포를 카운트하여 제 2 히스토그램을 산출하는 단계와,
상기 제 2 히스토그램이 상기 제 1 히스토그램과 동일하도록 상기 제 2 영상 프레임의 휘도값을 변환하는 단계
를 포함하는,
얼굴 인식을 사용하는 개인 식별 방법.
a frame synthesizing step of synthesizing an odd field and an even field output from the interlaced mode camera into a first image frame, which is one progressive frame;
an image normalization step of normalizing the image of the first image frame and the image of the second image frame output from the progressive mode camera and outputting the normalized image; and
a frame difference calculating step of calculating a pixel-by-pixel difference between the normalized first image frame and the normalized second image frame; and
a fake face discrimination step of determining whether a face is a fake face by comparing the difference between the image frames with a reference value;
including,
The image normalization step is
calculating a first histogram by counting the distribution of luminance values of the first image frame;
calculating a second histogram by counting the distribution of luminance values of a second image frame;
converting the luminance value of the second image frame so that the second histogram is the same as the first histogram
containing,
A method of personal identification using facial recognition.
삭제delete 삭제delete
KR1020190178825A 2019-12-31 2019-12-31 Personal identification apparatus using face recongintion KR102349424B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190178825A KR102349424B1 (en) 2019-12-31 2019-12-31 Personal identification apparatus using face recongintion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190178825A KR102349424B1 (en) 2019-12-31 2019-12-31 Personal identification apparatus using face recongintion

Publications (2)

Publication Number Publication Date
KR20210085599A KR20210085599A (en) 2021-07-08
KR102349424B1 true KR102349424B1 (en) 2022-01-11

Family

ID=76893744

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190178825A KR102349424B1 (en) 2019-12-31 2019-12-31 Personal identification apparatus using face recongintion

Country Status (1)

Country Link
KR (1) KR102349424B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183207A (en) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd Image processing method, and image processing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101271731B1 (en) * 2007-10-15 2013-06-04 삼성테크윈 주식회사 CCTV camera and method for photographing
US10452894B2 (en) * 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183207A (en) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd Image processing method, and image processing apparatus

Also Published As

Publication number Publication date
KR20210085599A (en) 2021-07-08

Similar Documents

Publication Publication Date Title
US10237459B2 (en) Systems and methods for liveness analysis
US20080253664A1 (en) Object image detection method and object image detection device
US8792681B2 (en) Imaging system and imaging method
JP6553624B2 (en) Measurement equipment and system
US11315360B2 (en) Live facial recognition system and method
JP5618593B2 (en) Face image processing device
US8923552B2 (en) Object detection apparatus and object detection method
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
JP7188067B2 (en) Human detection device and human detection method
KR102349424B1 (en) Personal identification apparatus using face recongintion
US7835552B2 (en) Image capturing apparatus and face area extraction method
WO2008018459A1 (en) Image processing method, image processing apparatus, image processing program, and image pickup apparatus
JP4782600B2 (en) Face detection method and photographing apparatus using the same
KR20180125278A (en) Apparatus and method for detecting pedestrian
JP2011165204A (en) Face detection method and photographing device using the same
US10306138B2 (en) Image output method and image capturing device
TW201725537A (en) Method and system for detecting pretended image
JP3894038B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
JP5568166B2 (en) Image processing apparatus and image processing method
JP6244221B2 (en) Human detection device
US11232314B2 (en) Computer vision based approach to image injection detection
US11335123B2 (en) Live facial recognition system and method
JP4530175B2 (en) Image processing apparatus, protrusion detection method and program for image processing apparatus
TWI469064B (en) Video recognizing system and method
Manterola Creating 3D images for facial recognition using the RealSense SR300

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant