KR102443137B1 - Control device and control method for face diistinction - Google Patents
Control device and control method for face diistinction Download PDFInfo
- Publication number
- KR102443137B1 KR102443137B1 KR1020210052658A KR20210052658A KR102443137B1 KR 102443137 B1 KR102443137 B1 KR 102443137B1 KR 1020210052658 A KR1020210052658 A KR 1020210052658A KR 20210052658 A KR20210052658 A KR 20210052658A KR 102443137 B1 KR102443137 B1 KR 102443137B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- user
- exposure value
- recognized
- camera
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H04N5/23219—
-
- H04N5/2353—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Diaphragms For Electromechanical Transducers (AREA)
- Massaging Devices (AREA)
- Bipolar Transistors (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은, 안면 인식 기술에 있어서, 일반 카메라를 이용하는 경우 발생할 수 있는 취약점 즉 이미지 형태의 사용자 얼굴을 구별해내기 어려운 취약점을 해결하기 위한 기술에 관한 것이다.The present invention relates to a technique for solving a weakness that may occur when a general camera is used in facial recognition technology, that is, a weakness in which it is difficult to distinguish a user's face in the form of an image.
Description
본 발명은, 사용자 얼굴 기반의 안면 인식 기술과 관련된 것으로, 보다 구체적으로 안면 인식 기술이 갖는 취약점을 해결하기 위한 기술에 관한 것이다.The present invention relates to a face recognition technology based on a user's face, and more particularly, to a technology for solving a weakness of the face recognition technology.
스마트폰 기술이 발전하고 스마트폰 사용이 일반화되면서, 현재는 한 명의 사용자 당 1개 이상의 스마트폰을 보유/소지하고 있는 시대라고 할 수 있다.With the development of smartphone technology and the generalization of smartphone use, it can be said that it is an era in which more than one smartphone per user is currently owned/owned.
이처럼 스마트폰이 사용이 일상화 되면서, 금융 분야 등 개인 인증이 필수적인 서비스 분야에서는 보안 기술로서 공인인증서를 기반으로 사용자를 인증하는 방식에서 지문/홍채/안면(사용자 얼굴) 인식을 기반으로 사용자를 인증하는 방식을 채택하는 추세이다.As the use of smartphones has become commonplace, in service fields where personal authentication is essential, such as in the financial sector, it is a security technology that authenticates users based on fingerprint/iris/face (user face) recognition in a method that authenticates users based on public certificates. There is a trend towards adopting the method.
지문/홍채 인식 기반의 인증 방식의 경우, 지문/홍채 인식 기술에서 복사한 지문/홍채를 구별해내기 어려운 취약점이 있다.In the case of the fingerprint/iris recognition-based authentication method, there is a weakness in that it is difficult to distinguish the copied fingerprint/iris in the fingerprint/iris recognition technology.
한편, 안면 인식 기반의 인증 방식의 경우, 안면 인식 기술에서 이미지 형태의 가짜 사용자 얼굴을 구별해내기 어려운 취약점이 있다.On the other hand, in the face recognition-based authentication method, there is a weakness in that it is difficult to distinguish a fake user's face in the form of an image in the face recognition technology.
이에, 최근에는 안면 인식 기술이 갖는 취약점을 극복하기 위해, TOF(Time of Flight) 방식 3D 카메라 인식 기술이 등장하였다.Accordingly, in order to overcome the weakness of the face recognition technology, a TOF (Time of Flight) method 3D camera recognition technology has recently appeared.
하지만, TOF 방식 3D 카메라 인식 기술은, TOF 센서와 TOF 센서의 센싱값을 입력/처리할 수 있는 고성능 카메라가 있어야 하기 때문에, 일반 카메라를 구비한 일반 스마트폰으로는 이용할 수 없다.However, the TOF method 3D camera recognition technology cannot be used with a general smartphone equipped with a general camera because a TOF sensor and a high-performance camera capable of inputting/processing the sensing values of the TOF sensor are required.
이에, 본 발명에서는, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점 즉 이미지 형태의 가짜 사용자 얼굴을 구별해내기 어려운 취약점을 해결할 수 있는 방안을 제안하고자 한다.Accordingly, in the present invention, it is intended to propose a method for solving a weakness in facial recognition that may occur when a general camera is used, that is, a weakness in which it is difficult to distinguish a fake user's face in the form of an image.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점 즉 이미지 형태의 가짜 사용자 얼굴을 구별해내기 어려운 취약점을 해결할 수 있는 방안을 실현하는데 있다.The present invention was created in view of the above circumstances, and the purpose of the present invention is to solve the vulnerability of facial recognition that may occur when using a general camera, that is, the vulnerability in which it is difficult to distinguish a fake user's face in the form of an image. There is a plan to implement.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 사용자 얼굴 판별 방법은, 카메라를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식하는 인식단계; 사용자 얼굴이 인식되면, 상기 카메라의 노출값을 조정하는 조정단계; 및 상기 카메라의 노출값을 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과를 근거로, 상기 노출값 조정 이전에 사용자 얼굴을 인식한 인식 결과에서 안면 인식 기능에 사용할 사용자 얼굴을 판별하는 판별단계를 포함한다.A user face identification method according to an embodiment of the present invention for achieving the above object, a recognition step of recognizing a user's face in a photographing screen photographed through a camera; an adjustment step of adjusting an exposure value of the camera when a user's face is recognized; and a determination step of determining the user's face to be used for the face recognition function from the recognition result of recognizing the user's face before the exposure value adjustment, based on the recognition result of recognizing the user's face on the shooting screen taken after adjusting the exposure value of the camera includes
구체적으로, 상기 조정단계는, 상기 카메라의 노출값을 기 설정된 제1노출값 및 제2노출값으로 조정하며, 상기 제1노출값은 상기 노출값 조정 이전에 사용자 얼굴을 인식한 인식시점의 노출값 보다 낮고, 상기 제2노출값은 상기 인식시점의 노출값 보다 높을 수 있다.Specifically, in the adjusting step, the exposure value of the camera is adjusted to a preset first exposure value and a preset second exposure value, and the first exposure value is lower than the exposure value at the time of recognition when the user's face is recognized before the exposure value adjustment. 2 The exposure value may be higher than the exposure value at the time of recognition.
구체적으로, 상기 판별단계는, 상기 노출값 조정 이전에 인식된 사용자 얼굴 중, 상기 카메라의 노출값을 낮추는 조정 후 촬영되는 촬영 화면에서 인식되지 않고 상기 카메라의 노출값을 높이는 조정 후 촬영되는 촬영 화면에서 인식되는 특정 사용자 얼굴을, 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별할 수 있다.Specifically, in the determining step, among the user faces recognized before the exposure value adjustment, it is not recognized in the photographing screen photographed after adjusting the exposure value of the camera, but is recognized in the photographing screen photographed after adjustment to increase the exposure value of the camera A specific user's face may be determined as the user's face to be used for the face recognition function.
구체적으로, 상기 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패하는 경우, 사용자 얼굴 방향으로 특정 이미지를 조사하는 단계; 상기 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 상기 특정 이미지의 왜곡 여부를 판단하는 단계; 및 상기 노출값 조정 이전에 인식된 사용자 얼굴 중 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 단계를 더 포함할 수 있다. Specifically, when the identification of the user's face to be used for the face recognition function fails, irradiating a specific image in the direction of the user's face; determining whether the specific image formed on the user's face recognized in a shooting screen photographed after irradiation of the specific image is distorted; and determining a specific user's face formed by distorting the specific image among the user's faces recognized before the exposure value adjustment as the user's face to be used for the face recognition function.
구체적으로, 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 상기 카메라의 노출값을 조정하여 촬영 화면에서 상기 특정 사용자 얼굴이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출하는 단계; 및 상기 최저 노출값 및 최고 노출값을, 이후 사용자 얼굴 판별을 위해 상기 카메라의 노출값 조정 시 사용되도록 설정하는 단계를 더 포함할 수 있다.Specifically, when the specific user's face, which is distorted and formed in the specific image, is determined as the user's face to be used for the face recognition function, the exposure value of the camera is adjusted to the lowest exposure value at the point in time when the specific user's face is not recognized on the shooting screen, and detecting the highest exposure value; and setting the lowest exposure value and the highest exposure value to be used when adjusting the exposure value of the camera to determine a user's face thereafter.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 사용자 얼굴 판별장치는, 카메라를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식하는 인식부; 사용자 얼굴이 인식되면, 상기 카메라의 노출값을 조정하는 조정부; 및 상기 카메라의 노출값을 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과를 근거로, 상기 노출값 조정 이전에 사용자 얼굴을 인식한 인식 결과에서 안면 인식 기능에 사용할 사용자 얼굴을 판별하는 판별부를 포함한다.In accordance with an embodiment of the present invention for achieving the above object, there is provided an apparatus for determining a user's face, comprising: a recognition unit for recognizing a user's face in a photographing screen captured by a camera; an adjustment unit that adjusts the exposure value of the camera when a user's face is recognized; and a determination unit that determines the user's face to be used for the face recognition function from the recognition result of recognizing the user's face before the exposure value adjustment based on the recognition result of recognizing the user's face on the shooting screen taken after adjusting the exposure value of the camera include
구체적으로, 상기 조정부는, 상기 카메라의 노출값을 기 설정된 제1노출값 및 제2노출값으로 조정하며, 상기 제1노출값은 상기 노출값 조정 이전에 사용자 얼굴을 인식한 인식시점의 노출값 보다 낮고, 상기 제2노출값은 상기 인식시점의 노출값 보다 높을 수 있다. Specifically, the adjusting unit adjusts the exposure value of the camera to a preset first exposure value and a preset second exposure value, wherein the first exposure value is lower than the exposure value at the time of recognition when the user's face is recognized before the exposure value adjustment, and the second exposure value The exposure value may be higher than the exposure value at the time of recognition.
구체적으로, 상기 판별부는, 상기 노출값 조정 이전에 인식된 사용자 얼굴 중, 상기 카메라의 노출값을 낮추는 조정 후 촬영되는 촬영 화면에서 인식되지 않고 상기 카메라의 노출값을 높이는 조정 후 촬영되는 촬영 화면에서 인식되는 특정 사용자 얼굴을, 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별할 수 있다. Specifically, the determining unit, among the user faces recognized before the exposure value adjustment, is not recognized in the photographing screen photographed after adjusting the exposure value of the camera, but is recognized in the photographing screen photographed after adjustment to increase the exposure value of the camera. The user's face may be determined as the user's face to be used for the face recognition function.
구체적으로, 상기 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패하는 경우, 사용자 얼굴 방향으로 특정 이미지를 조사하는 조사부를 더 포함하며; 상기 판별부는, 상기 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 상기 특정 이미지의 왜곡 여부를 판단하고, 상기 노출값 조정 이전에 인식된 사용자 얼굴 중 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별할 수 있다.Specifically, when it fails to determine the user's face to be used for the face recognition function, it further comprises an irradiator for irradiating a specific image in the direction of the user's face; The determination unit is configured to determine whether the specific image formed on the user's face recognized in a shooting screen photographed after irradiation of the specific image is distorted, and a specific user whose specific image is distorted among the user's faces recognized before the exposure value adjustment The face may be determined as the user's face to be used for the face recognition function.
구체적으로, 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 상기 카메라의 노출값을 조정하여 촬영 화면에서 상기 특정 사용자 얼굴이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출하는 검출부를 더 포함하며; 상기 조정부에는, 상기 최저 노출값 및 최고 노출값이, 이후 사용자 얼굴 판별을 위해 상기 카메라의 노출값 조정 시 사용되도록 설정될 수 있다.Specifically, when the specific user's face, which is distorted and formed in the specific image, is determined as the user's face to be used for the face recognition function, the exposure value of the camera is adjusted to the lowest exposure value at the point in time when the specific user's face is not recognized on the shooting screen, and a detection unit for detecting the highest exposure value; In the adjusting unit, the minimum exposure value and the maximum exposure value may be set to be used when adjusting the exposure value of the camera to determine a user's face thereafter.
이에, 본 발명에 따른 사용자 얼굴 판별 방법에 의하면, 일반 카메라를 이용하는 경우에도 이미지 형태의 가짜 사용자 얼굴이 아닌 실제 사용자 얼굴을 판별해낼 수 있기 때문에, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점을 해결하는 효과를 기대할 수 있다.Therefore, according to the user face identification method according to the present invention, even when a general camera is used, it is possible to identify an actual user's face rather than a fake user's face in the form of an image. solution can be expected.
도 1은 본 발명의 일 실시예에 따른 사용자 얼굴 판별 환경을 보여주는 예시도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 얼굴 판별장치의 구성을 보여주는 구성도이다.
도 3은 촬영 화면에서 사용자 얼굴이 인식되는 일 실시예를 보여주는 예시도.
도 4 및 도 5는 본 발명의 일 실시예에 따라 카메라 노출값을 조정한 후 촬영되는 촬영 화면 및 사용자 얼굴이 인식되는 결과를 보여주는 예시도.
도 6은 본 발명의 일 실시예에 따른 사용자 얼굴 판별 방법의 동작 흐름을 보여주는 흐름도이다.1 is an exemplary diagram showing a user face identification environment according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a user face discrimination apparatus according to an embodiment of the present invention.
3 is an exemplary view showing an embodiment in which a user's face is recognized on a shooting screen;
4 and 5 are exemplary views showing a result of recognizing a photographing screen taken after adjusting a camera exposure value and a user's face according to an embodiment of the present invention;
6 is a flowchart illustrating an operation flow of a method for determining a user's face according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.
최근, 스마트폰이 사용이 일상화 되면서, 금융 분야 등 개인 인증이 필수적인 서비스 분야에서는 보안 기술로서 공인인증서를 기반으로 사용자를 인증하는 방식에서 지문/홍채/안면(사용자 얼굴) 인식을 기반으로 사용자를 인증하는 방식을 채택하는 추세이다.Recently, as the use of smartphones has become commonplace, in the service field where personal authentication is essential, such as in the financial field, a user is authenticated based on fingerprint/iris/face (user face) recognition in a method of authenticating a user based on a public certificate as a security technology. There is a trend towards adopting
지문/홍채 인식 기반의 인증 방식의 경우, 지문/홍채 인식 기술에서 복사한 지문/홍채를 구별해내기 어려운 취약점이 있다.In the case of the fingerprint/iris recognition-based authentication method, there is a weakness in that it is difficult to distinguish the copied fingerprint/iris in the fingerprint/iris recognition technology.
한편, 안면 인식 기반의 인증 방식의 경우, 안면 인식 기술에서 이미지 형태의 가짜 사용자 얼굴을 구별해내기 어려운 취약점이 있다.On the other hand, in the face recognition-based authentication method, there is a weakness in that it is difficult to distinguish a fake user's face in the form of an image in the face recognition technology.
이에, 최근에는 안면 인식 기술이 갖는 취약점을 극복하기 위해, TOF(Time of Flight) 방식 3D 카메라 인식 기술이 등장하였다.Accordingly, in order to overcome the weakness of the face recognition technology, a TOF (Time of Flight) method 3D camera recognition technology has recently appeared.
하지만, TOF 방식 3D 카메라 인식 기술은, TOF 센서와 TOF 센서의 센싱값을 입력/처리할 수 있는 고성능 카메라가 있어야 하기 때문에, 일반 카메라를 구비한 일반 스마트폰으로는 이용할 수 없다.However, the TOF method 3D camera recognition technology cannot be used with a general smartphone equipped with a general camera because a TOF sensor and a high-performance camera capable of inputting/processing the sensing values of the TOF sensor are required.
이에, 본 발명에서는, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점 즉 이미지 형태의 가짜 사용자 얼굴을 구별해내기 어려운 취약점을 해결할 수 있는 방안을 실현하고자 한다.Therefore, in the present invention, it is intended to realize a method to solve the weakness of facial recognition that may occur when using a general camera, that is, the weakness in which it is difficult to distinguish a fake user's face in the form of an image.
보다 구체적으로, 본 발명에서는, 위 실현하고자 하는 방안을 구현해 내는 사용자 얼굴 판별 방법 및 사용자 얼굴 판별장치를 제안하고자 한다.More specifically, in the present invention, it is intended to propose a user face identification method and a user face identification apparatus for implementing the above-described method.
도 1은, 본 발명의 일 실시예에 따른 사용자 얼굴 판별 환경을 보여주고 있다.1 shows an environment for determining a user's face according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 사용자(1)가 자신의 얼굴(사용자 얼굴)을 기반으로 안면 인식 기능을 통해 보안을 요구하는 접근(예: 은행 서비스, 출입 통제 서비스 등)을 시도하고자 하는 경우, 사용자(1)는 카메라(10)를 통해 자신의 얼굴(사용자 얼굴)이 촬영될 수 있도록 한다.As shown in FIG. 1 , when the user 1 tries to access a security request (eg, banking service, access control service, etc.) through a facial recognition function based on his/her face (user face), The user 1 allows his or her face (user face) to be photographed through the
본 발명에서 제안하는 사용자 얼굴 판별장치(100)는, 카메라(10)를 통해 촬영된 촬영 화면에서 사용자 얼굴을 인식한다.The user
이때, 카메라(10)는, TOF(Time of Flight) 센서를 구비하거나 TOF 센서의 센싱값을 입력/처리할 수 있는 고성능 카메라가 아닌, 일반적인 카메라를 의미한다.In this case, the
그리고, 이러한 카메라(10)는, 기 등록된 디바이스(예: 스마트폰)에 탑재된 카메라일 수 있고 보안장치(예: 출입문 통제장치 등)와 유선 또는 무선 통신을 통해 연동하는 카메라일 수 있다.In addition, the
즉, 본 발명에 따른 사용자 얼굴 판별장치(방법)은, 일반 카메라를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식한다.That is, the apparatus (method) for determining a user's face according to the present invention recognizes a user's face in a photographing screen captured by a general camera.
한편, 도 1에서는 본 발명의 사용자 얼굴 판별장치(100)가 카메라(10)를 구비하는 디바이스(예: 스마트폰)에 구현되는 구조로 도시하고 있으나 이는 일 실시예일 뿐이며, 사용자 얼굴 판별장치(100)가 카메라(10)와 유선 또는 무선 통신을 통해 연동하는 보안장치(예: 출입문 통제장치 등)에 구현되는 구조일 수도 있다.Meanwhile, in FIG. 1 , the user
본 발명에서 제안하는 사용자 얼굴 판별장치(100)는, 카메라(10)를 통해 촬영된 촬영 화면에서 사용자 얼굴이 인식되면, 카메라(10)의 노출값을 조정하면서 카메라(10)의 노출값을 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과를 근거로, 노출값 조정 이전에 사용자 얼굴을 인식한 인식 결과에서 안면 인식 기능에 사용할 진짜 사용자 얼굴을 판별한다.When the user's face is recognized in the photographing screen photographed by the
이하에서는, 도 2를 참조하여 본 발명의 실시예에 따른 사용자 얼굴 판별장치(100)의 각 기능부를 구체적으로 설명하겠다. Hereinafter, each functional unit of the user
도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 얼굴 판별장치(100)는, 인식부(30), 조정부(40), 판별부(50)를 포함한다.As shown in FIG. 2 , the
도 2는, 사용자 얼굴 판별장치(100)가 카메라(10)를 구비하는 디바이스(예: 스마트폰)에 구현되는 경우를 실시예로서 도시하고 있으며, 이러한 실시예에 따라 사용자 얼굴 판별장치(100)는, 카메라(10)를 포함할 수 있다.FIG. 2 illustrates a case in which the user's
더 나아가 본 발명의 실시예에 따른 사용자 얼굴 판별장치(100)는, 조사부(60), 검출부(70)를 더 포함할 수 있다.Furthermore, the
이러한 사용자 얼굴 판별장치(100)의 구성 전체 내지는 적어도 일부는 하드웨어 모듈 형태 또는 소프트웨어 모듈 형태로 구현되거나, 하드웨어 모듈과 소프트웨어 모듈이 조합된 형태로도 구현될 수 있다.All or at least a part of the configuration of the user
여기서, 소프트웨어 모듈이란, 예컨대, 사용자 얼굴 판별장치(100) 내에서 연산을 제어하는 프로세서에 의해 실행되는 명령어로 이해될 수 있으며, 이러한 명령어는 사용자 얼굴 판별장치(100) 내 메모리에 탑재된 형태를 가질 수 있을 것이다.Here, the software module may be understood as, for example, a command executed by a processor that controls operations in the user
결국, 본 발명의 일 실시예에 따른 사용자 얼굴 판별장치(100)는 전술한 구성을 통해, 본 발명에서 제안하는 방안 즉 일반 카메라를 이용하는 경우 발생할 수 있는 취약점(가짜 사용자 얼굴을 구별해내기 어려운 취약점)을 해결할 수 있는 방안을 실현하며, 이하에서는 이를 실현하기 위한 사용자 얼굴 판별장치(100) 내 각 구성에 대해 보다 구체적으로 설명하기로 한다.As a result, the user
인식부(30)는, 카메라(10)를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식한다.The
예를 들면, 인식부(30)는, 안면 인식 기능을 통해 보안 접근(예: 은행 서비스, 출입 통제 서비스 등)을 시도하는 이벤트가 인지되는 경우, 카메라(10)를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식할 수 있다. For example, when the
이때, 촬영 화면에서 사용자 얼굴을 인식해내는 기술은, 기존의 인식 기술을 채택할 수 있다. In this case, as a technology for recognizing a user's face on a photographing screen, an existing recognition technology may be adopted.
일 예를 들면, 인식부(30)는, 카메라(10)를 통해 촬영되는 촬영 화면에서, 눈 또는 피부색 등을 검출하는 검출 과정을 거쳐 얼굴영역을 구분하고, 구분한 얼굴영역의 이미지를 사용자 얼굴로 인식할 수 있다. For example, the
조정부(40)는, 인식부(30)에서 사용자 얼굴이 인식되면, 카메라(10)의 노출값을 조정한다.The adjusting
즉, 조정부(40)는, 인식부(30)에서 사용자 얼굴이 인식되면, 인식 시점부터 카메라(10)의 노출값을 커스텀으로 조정하기 시작한다.That is, when a user's face is recognized by the
도 3은 촬영 화면에서 사용자 얼굴이 인식되는 일 실시예를 보여주고 있다.3 shows an embodiment in which a user's face is recognized on a photographing screen.
본 발명의 특징을 잘 보여주기 위해, 도 3에서는 촬영 화면에는 실제 사용자 얼굴 외에도 이미지 형태의 가짜 사용자 얼굴이 포함된 상황을 보여주고 있다. In order to better show the features of the present invention, FIG. 3 shows a situation in which a fake user's face in the form of an image is included in the shooting screen in addition to the real user's face.
도 3과 같은 상황에서, TOF 방식 3D 카메라 인식 기술을 활용하지 않는다면, 사용자 얼굴(a)와 사용자 얼굴(b)를 인식하게 될 것이다.In the situation shown in FIG. 3 , if the TOF method 3D camera recognition technology is not used, the user's face (a) and the user's face (b) will be recognized.
즉, 본 발명에서는, TOF(Time of Flight) 센서를 구비하거나 TOF 센서의 센싱값을 입력/처리할 수 있는 고성능 카메라가 아닌 일반 카메라(10)를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과이므로, 사용자 얼굴(a)와 사용자 얼굴(b)를 인식하게 될 것이다. That is, in the present invention, the user's face is recognized in the photographing screen photographed through the
이하에서는, 설명의 편의 상, 후술의 카메라 노출값 조정 이전(시작 전)에 사용자 얼굴을 인식한 인식 결과를, 초기 인식 결과라 명명하겠다.Hereinafter, for convenience of explanation, the recognition result of recognizing the user's face before (before starting) adjustment of the camera exposure value, which will be described later, will be referred to as an initial recognition result.
구체적인 실시예를 설명하면, 조정부(40)는, 인식부(30)에서 사용자 얼굴 예컨대 사용자 얼굴(a) 및 사용자 얼굴(b)를 인식하면, 인식 시점부터 카메라(10)의 노출값을 커스텀으로 조정하기 시작한다.In a specific embodiment, when the
구체적인 실시예에 따르면, 조정부(40)는, 카메라(10)의 노출값을 기 설정된 제1노출값 및 제2노출값으로 조정할 수 있다. According to a specific embodiment, the
이에, 조정부(40)는, 카메라(10)의 노출값을 기 설정된 제1노출값까지 줄이고 이후 카메라(10)의 노출값을 기 설정된 제2노출값(제1노출값<제2노출값)까지 높이는 방식으로, 노출값을 조정할 수 있다.Accordingly, the adjusting
또는, 조정부(40)는, 카메라(10)의 노출값을 기 설정된 제2노출값까지 높이고 이후 카메라(10)의 노출값을 기 설정된 제1노출값(제1노출값<제2노출값)까지 낮추는 방식으로, 노출값을 조정할 수 있다.Alternatively, the
이때, 제1노출값은 노출값 조정 이전에 사용자 얼굴을 인식한 인식 시점의 노출값 보다 낮고, 제2노출값은 노출값 조정 이전에 사용자 얼굴을 인식한 인식 시점의 노출값 보다 높은 노출값일 수 있다.In this case, the first exposure value may be lower than the exposure value at the time of recognizing the user's face before adjusting the exposure value, and the second exposure value may be higher than the exposure value at the time of recognizing the user's face before adjusting the exposure value.
일 실시예에 따르면, 본 발명에서는, 제1노출값으로서 카메라(10)의 사양에서 조정 가능한 최소 노출값을 설정할 수 있고, 제2노출값으로서 카메라(10)의 사양에서 조정 가능한 최대 노출값을 설정할 수 있다. According to an embodiment, in the present invention, a minimum exposure value adjustable in the specifications of the
다른 실시예에 따르면, 본 발명에서는, 카메라(10)의 사양에서 조정 가능한 노출값 범위 중에서, 후술 예정인 학습 과정을 거쳐 최적으로 검출되는 최소 노출값을 제1노출값으로서 설정할 수 있고 최적으로 검출되는 최고 노출값을 제2노출값으로서 설정할 수도 있다.According to another embodiment, in the present invention, among the exposure value ranges adjustable in the specifications of the
판별부(50)는, 카메라(10)의 노출값을 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과를 근거로, 노출값 조정 이전에 사용자 얼굴을 인식한 인식 결과에서 안면 인식 기능에 사용할 사용자 얼굴을 판별하는 기능부이다.The
구체적으로, 판별부(50)는, 조정부(40)에서의 노출값 조정 이전에 인식된 초기 인식 결과의 사용자 얼굴 중, 카메라(10)의 노출값을 낮추는 조정 후 촬영되는 촬영 화면에서 인식되지 않고 카메라(10)의 노출값을 높이는 조정 후 촬영되는 촬영 화면에서 인식되는 특정 사용자 얼굴을, 안면 인식 기능에 사용할 사용자 얼굴로 판별할 수 있다.Specifically, the
예를 들면, 본 발명의 사용자 얼굴 판별장치(100, 구체적으로 조정부(40), 인식부(30))는, 카메라(10)의 노출값을 기 설정된 제1노출값까지 줄이는 조정을 하고 이때 촬영 화면에서 사용자 얼굴을 인식할 수 있다. For example, the user face identification device 100 (specifically, the adjusting
그리고, 본 발명의 사용자 얼굴 판별장치(100, 구체적으로 조정부(40), 인식부(30))는, 카메라(10)의 노출값을 기 설정된 제2노출값까지 높이는 조정을 하고 이때 촬영 화면에서 사용자 얼굴을 인식할 수 있다.And, the user face discrimination device 100 (specifically, the adjusting
이하에서는, 설명의 편의 상, 카메라 노출값을 제1노출값까지 조정한 후의 사용자 얼굴 인식 결과는 제1인식 결과, 카메라 노출값을 제2노출값까지 조정한 후의 사용자 얼굴 인식 결과는 제2인식 결과라 명명하겠다.Hereinafter, for convenience of explanation, the result of user face recognition after adjusting the camera exposure value to the first exposure value will be called the first recognition result, and the user face recognition result after adjusting the camera exposure value to the second exposure value will be called the second recognition result. .
도 4 및 도 5는 본 발명의 일 실시예에 따라 카메라 노출값을 조정한 후 촬영되는 촬영 화면 및 사용자 얼굴이 인식되는 결과를 보여주는 예시도이다.4 and 5 are exemplary views showing a result of recognizing a photographing screen and a user's face taken after adjusting a camera exposure value according to an embodiment of the present invention.
더 구체적으로, 도 4는 도 3에서와 같이 촬영 화면에 실제 사용자 얼굴 외에도 이미지 형태의 가짜 사용자 얼굴이 포함된 상황에서, 카메라의 노출값을 기 설정된 제1노출값까지 줄인 후 촬영된 촬영 화면을 보여주고 있다.More specifically, FIG. 4 shows a shooting screen taken after reducing the exposure value of the camera to a preset first exposure value in a situation in which a fake user face in the form of an image is included in the shooting screen in addition to the real user face as in FIG. have.
도 4에 도시된 바와 같이, 카메라 노출값을 줄여 카메라로 받아들여지는 빛의 양을 줄이면, 촬영 화면에 포함된 실제 사용자 얼굴은 인식되지 못하지만, 기기 화면에 표시된 이미지 형태의 가짜 사용자 얼굴은 기기의 화면 밝기 때문에 일정수준 이상 카메라 노출값을 줄여도 인식될 수 있다.As shown in FIG. 4 , if the amount of light received by the camera is reduced by reducing the camera exposure value, the real user's face included in the shooting screen is not recognized, but the fake user's face in the form of an image displayed on the device screen is displayed on the device screen. Because of the brightness, it can be recognized even if the camera exposure value is reduced over a certain level.
이에, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 카메라 노출값을 제1노출값까지 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과 즉 제1인식 결과로서, 이미지 형태의 가짜 사용자 얼굴(b) 만을 인식하게 될 것이다. Accordingly, the user
한편, 도 5는 도 3에서와 같이 촬영 화면에 실제 사용자 얼굴 외에도 이미지 형태의 가짜 사용자 얼굴이 포함된 상황에서, 카메라의 노출값을 기 설정된 제2노출값까지 높인 후 촬영된 촬영 화면을 보여주고 있다.On the other hand, FIG. 5 shows a photographing screen taken after increasing the exposure value of the camera to a preset second exposure value in a situation in which a fake user face in the form of an image is included in the photographing screen in addition to the real user's face as in FIG. 3 .
도 5에 도시된 바와 같이, 카메라 노출값을 높여 카메라로 받아들여지는 빛의 양을 많아지도록 하면, 촬영 화면에 포함된 실제 사용자 얼굴은 인식될 수 있으나, 기기 화면에 표시된 이미지 형태의 가짜 사용자 얼굴은 기기의 화면 밝기로 인해 인식되지 못할 것이다.As shown in FIG. 5 , if the amount of light received by the camera is increased by increasing the camera exposure value, the real user face included in the shooting screen can be recognized, but the fake user face in the form of an image displayed on the device screen is It will not be recognized due to the device's screen brightness.
이에, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 카메라 노출값을 제2노출값까지 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과 즉 제2인식 결과로서, 실제 사용자 얼굴(a) 만을 인식하게 될 것이다. Accordingly, the user
이에 판별부(50)는, 전술과 같이 카메라(10)의 노출값을 조정한 후 촬영되는 촬영 화면에서 사용자 얼굴을 인식한 인식 결과 즉 제1,2인식 결과와, 카메라(10)의 노출값 조정 이전에 인식된 초기 인식 결과를 비교하여, 초기 인식 결과에서 안면 인식 기능에 사용할 진짜 사용자 얼굴 만을 판별해낼 수 있다.Therefore, the
구체적인 실시예에 따르면, 판별부(50)는, 초기 인식 결과에서 인식된 사용자 얼굴(a) 및 사용자 얼굴(b) 중, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과에서는 인식되지 않고 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과에서는 인식된 사용자 얼굴(a)를, 실제 사용자 얼굴로서 판별할 수 있다.According to a specific embodiment, the
또 다른 실시예에 따르면, 판별부(50)는, 초기 인식 결과에서 인식된 사용자 얼굴(a) 및 사용자 얼굴(b) 중, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과에서는 인식되고 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과에서는 인식되지 않은 사용자 얼굴(b)를 가짜 사용자 얼굴로 구별 및 이를 제외한 나머지 사용자 얼굴(a)을, 실제 사용자 얼굴로서 판별할 수 있다.According to another embodiment, the
이에, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 초기 인식 결과에서 인식된 사용자 얼굴(a) 및 사용자 얼굴(b) 중 실제 사용자 얼굴로 판별한 사용자 얼굴(a)을 안면 인식 기능에 사용할 수 있다.Accordingly, the user face
즉, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 초기 인식 결과에서 사용자 얼굴(a)을 실제 사용자 얼굴로서 판별하면, 판별한 사용자 얼굴(a)를 사용하여 안면 인식 기능(프로세스)를 시작할 수 있다.That is, when the user
예를 들면, 사용자 얼굴 판별장치(100)는, 촬영하여 인식한 사용자 얼굴과 기 저장된 정당한 사용자의 얼굴 이미지를 비교하여 정당한 사용자인지 여부를 인증하는 방식의 안면 인식 프로세스(기술)에서, 금번 판별한 사용자 얼굴(a)을 사용하도록 제공할 수 있다.For example, the user
한편, 전술의 설명에서는, 본 발명의 특징을 잘 보여주기 위해 촬영 화면에 실제 사용자 얼굴 외에도 이미지 형태의 가짜 사용자 얼굴이 포함된 상황을 가정하여 설명하였다.Meanwhile, in the above description, it is assumed that a fake user face in the form of an image is included in the shooting screen in addition to the real user's face in order to show the features of the present invention well.
만약, 촬영 화면에 실제 사용자 얼굴(a) 만이 포함된 상황이라면, 본 발명의 사용자 얼굴 판별장치(100, 특히 판별부(50))에서는, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과에서 사용자 얼굴(a)이 인식되지 않고 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과에서 사용자 얼굴(a)이 인식될 것이므로, 초기 인식 결과에서 인식된 사용자 얼굴(a)를 실제 사용자 얼굴로서 판별할 것이다.If only the actual user's face (a) is included in the shooting screen, in the user face
한편, 촬영 화면에 가짜 사용자 얼굴(b) 만이 포함된 상황이라면, 본 발명의 사용자 얼굴 판별장치(100, 특히 판별부(50))에서는, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과에서 사용자 얼굴(b)이 인식되고 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과에서 사용자 얼굴(b)이 인식되지 않을 것이므로, 초기 인식 결과에서 인식된 사용자 얼굴(b)를 가짜 사용자 얼굴로 구별하고, 초기 인식 결과에서 진짜 사용자 얼굴이 없다고 판별할 것이다.On the other hand, if only the fake user face b is included in the shooting screen, in the user face
이상 설명한 바와 같이, 본 발명에 따르면, 고성능/고가의 TOF 방식 3D 카메라 인식 기술을 사용하지 않고 일반 카메라를 이용하는 경우에도, 사진이나 영상 등 이미지 형태의 가짜 사용자 얼굴이 아닌 실제 사용자 얼굴을 판별해내는 기술을 실현함으로써, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점을 해결할 수 있다.As described above, according to the present invention, even when a general camera is used without using a high-performance/expensive TOF-type 3D camera recognition technology, By realizing the technology, it is possible to solve the weakness of facial recognition that may occur when using a normal camera.
더 나아가, 본 발명의 사용자 얼굴 판별장치(100, 특히 판별부(50))에서는, 초기 인식 결과의 사용자 얼굴이, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과 및 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과 모두에서 인식되거나 또는 모두에서 인식되지 않는 경우, 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패한 것으로 판단할 수 있다.Furthermore, in the user face discrimination device 100 (in particular, the determining unit 50) of the present invention, the user face of the initial recognition result is the first recognition result and the camera exposure value recognized after lowering the camera exposure value (first exposure value) After increasing (the second exposure value), when all of the recognized second recognition results are recognized or not recognized, it may be determined that the user's face to be used for the face recognition function has failed.
이하에서는 설명의 편의 상, 도 3에 도시된 바와 같이 초기 인식 결과에 사용자 얼굴(a) 및 사용자 얼굴(b)가 포함되지만, 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패한 경우로 가정하여 설명하겠다.Hereinafter, for convenience of explanation, as shown in FIG. 3 , although the user face (a) and the user face (b) are included in the initial recognition result, it will be described assuming that the user's face to be used for the face recognition function fails to be determined.
조사부(60)는, 전술과 같이 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패하는 경우, 사용자 얼굴(a) 및 (b) 방향으로 특정 이미지를 조사하는 기능을 담당한다.The
이를 위해, 본 발명의 사용자 얼굴 판별장치(100)는, 판별장치(100) 전방에 위치하는 사용자 얼굴(a) 및 (b) 방향으로 특정 이미지를 조사하는 역할의 조사부(60)를 더 구비할 수도 있고, 별도 구비된 조사부(60)와의 유선 또는 무선 통신으로 조사부(60)를 제어할 수도 있다. To this end, the user face
여기서, 조사부(60)는, 사용자 얼굴(a) 및 (b) 방향으로 특정 이미지를 조사할 때, 사용자 얼굴 특징을 기반으로 굴곡이 상대적으로 큰 포인트 사이(예: 양볼-콧대)를 타겟 방향으로 하여, 특정 이미지를 조사할 수 있다.Here, the
또한, 조사부(60)는, 사용자 얼굴(a) 및 (b) 방향으로 이미지를 조사할 때, 굴곡이 상대적으로 큰 포인트 사이(예: 양볼-콧대)에 조사되어 맺히는 경우 이미지 왜곡이 나타날 수 있는 특징(패턴)를 갖는 특정 이미지를 조사할 수 있다.In addition, when the
이러한 특정 이미지로서의 특징(패턴)은, 굴곡이 상대적으로 큰 포인트 사이(예: 양볼-콧대)를 타겟으로, 포인트들을 가로지르도록 조사되는 직선 또는 곡선의 단일 패턴 형태일 수 있고, 포인트들을 가로지르도록 조사되는 직선 및 곡선의 복수 패턴이 조합된 형태일 수 있고, 포인트들 상에 조사되는 단일의 도형 패턴 형태일 수 있고 또는 복수의 도형 패턴이 조합된 형태일 수도 있고, 포인트들 상에 조사되는 캐릭터 패턴 형태일 수 있다.The feature (pattern) as this specific image may be in the form of a single pattern of straight or curved lines irradiated to cross the points, targeting between points with relatively large curvature (eg, cheekbones-nose bridge), and intersecting the points. A plurality of patterns of straight lines and curves irradiated so as to be irradiated may be in a combined form, may be in the form of a single figure pattern irradiated on points, or may be in a form in which a plurality of figure patterns are combined, and irradiated on points It may be in the form of a character pattern.
판별부(50)는, 전술과 같이 특정 이미지를 조사한 후, 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 특정 이미지의 왜곡 여부를 판단한다.The determining
즉, 판별부(50)는, 조사부(60)가 조사한 특정 이미지의 특징(패턴)을 알고 있으므로, 특정 이미지를 조사한 상태에서 촬영되는 촬영 화면에서 인식되는 사용자 얼굴(a) 및 (b) 상에 맺히는 특정 이미지와 비교하면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되었는지 여부를 판단할 수 이다.That is, since the determining
만약, 특정 이미지가 맺힌 사용자 얼굴이 이미지 형태의 가짜 사용자 얼굴(b)이라면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되는 일은 없을 것이다.If the user's face on which the specific image is formed is a fake user's face (b) in the form of an image, the specific image formed on the user's face will not be distorted.
반면, 특정 이미지가 맺힌 사용자 얼굴이 진짜 사용자 얼굴(a)이라면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되는 일은 없을 것이다.On the other hand, if the user's face on which the specific image is formed is a real user's face (a), the specific image formed on the user's face will not be distorted.
이에, 판별부(50)는, 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴(a) 및 (b) 상에 맺히는 특정 이미지의 왜곡 여부를 판단하고, 노출값 조정 이전에 인식된 사용자 얼굴(a) 및 (b) 중 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 진짜 사용자 얼굴로 판별할 수 있다. Accordingly, the
이에, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 초기 인식 결과에서 인식된 사용자 얼굴(a) 및 사용자 얼굴(b) 중 실제 사용자 얼굴로 판별한 사용자 얼굴(a)을 안면 인식 기능에 사용할 수 있다.Accordingly, the user face
검출부(70)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 카메라(10)의 노출값을 조정하여 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출할 수 있다. As described above, the
즉, 검출부(70)는, 앞서 실패한 사용자 얼굴 판별 시 카메라(10)의 노출값을 조정하는데 이용한 제1,제2노출값을 최적의 노출값으로 재 설정하기 위해, 최저/최고 노출값을 검출하는 것이다.That is, the
예를 들면, 검출부(70)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점까지 카메라(10)의 노출값을 낮춰가면서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 노출값을 최저 노출값으로서 검출할 수 있다. For example, if the
또한, 검출부(70)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점까지 카메라(10)의 노출값을 높여가면서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 노출값을 최고 노출값으로서 검출할 수 있다.Also, as described above, when the
이렇게 검출부(70)에 의해 검출된 최저 노출값 및 최고 노출값은, 학습 과정을 거쳐 검출되는 최적의 노출값으로 간주할 수 있다.The minimum exposure value and the maximum exposure value detected by the
이후, 조정부(40)에는, 검출부(70)에 의해 최적으로 검출되는 최저 노출값(제1노출값) 및 최고 노출값(제2노출값)이, 이후 사용자 얼굴 판별을 위해 카메라(10)의 노출값 조정 시 사용되도록 설정될 수 있다. Thereafter, in the
이상 설명한 바와 같이, 본 발명에 따르면, 고성능/고가의 TOF 방식 3D 카메라 인식 기술을 사용하지 않고 일반 카메라를 이용하는 경우에도 실제 사용자 얼굴을 판별해내는 기술을 실현함에 있어서, 판별 시 이용하는 파라미터(노출값)을 최적으로 설정/유지하여 판별 실패율을 현저히 낮출 수 있기 때문에, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점을 보다 효율적으로 해결할 수 있다.As described above, according to the present invention, the parameter (exposure value) used at the time of identification is realized in realizing the technique of discriminating the actual user's face even when a general camera is used without using a high-performance/expensive TOF method 3D camera recognition technology. Since it is possible to significantly lower the discrimination failure rate by optimally setting/maintaining
이하에서는, 도 6을 참조하여 본 발명의 실시예에 따른 사용자 얼굴 판별 방법의 동작 흐름을 구체적으로 설명하겠다.Hereinafter, an operation flow of a method for determining a user's face according to an embodiment of the present invention will be described in detail with reference to FIG. 6 .
먼저, 본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, 안면 인식 기능을 통해 보안 접근(예: 은행 서비스, 출입 통제 서비스 등)을 시도하는 이벤트가 인지되는 경우, 카메라(10)를 통해 촬영되는 촬영 화면에서 사용자 얼굴을 인식할 수 있다(S10). First, according to the user face recognition method of the present invention, when an event for attempting security access (eg, banking service, access control service, etc.) is recognized through the face recognition function, the user's
본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, S10단계에서 사용자 얼굴이 인식되면, 카메라(10)의 노출값을 조정한다(S20).According to the user face recognition method of the present invention, when the user face is recognized in step S10, the user
구체적으로, 사용자 얼굴 판별장치(100)는, S10단계에서 사용자 얼굴이 인식되면, 카메라(10)의 노출값을 기 설정된 제1노출값 및 제2노출값으로 조정할 수 있다. Specifically, when the user's face is recognized in step S10 , the user face
이에, 본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, S20단계에서 수행하는 카메라(10)의 노출값 조정에 따른 촬영 화면에서 사용자 얼굴을 인식한다(S30).Accordingly, according to the user face recognition method of the present invention, the user face
이하에서는, 설명의 편의 상, 카메라 노출값을 제1노출값까지 조정한 후의 사용자 얼굴 인식 결과는 제1인식 결과, 카메라 노출값을 제2노출값까지 조정한 후의 사용자 얼굴 인식 결과는 제2인식 결과라 명명하겠다.Hereinafter, for convenience of explanation, the result of user face recognition after adjusting the camera exposure value to the first exposure value will be called the first recognition result, and the user face recognition result after adjusting the camera exposure value to the second exposure value will be called the second recognition result. .
그리고, 본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, S30단계에서 인식한 제1,제2 인식 결과를 근거로, 노출값 조정 이전에 사용자 얼굴을 인식한 인식 결과 즉 S10단계의 초기 인식 결과에서 인식한 사용자 얼굴 중 안면 인식 기능에 사용할 사용자 얼굴을 판별한다(S40).And, according to the method for recognizing a user's face of the present invention, the user's
구체적으로, 사용자 얼굴 판별장치(100)는, S30단계에서 인식한 제1,제2 인식 결과를 근거로, S10단계의 초기 인식 결과에서 인식한 사용자 얼굴 중 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과에서는 인식되지 않고 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과에서는 인식된 사용자 얼굴을, 실제 사용자 얼굴로서 판별할 수 있다(S40).Specifically, the user
그리고, 본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, S40단계에서 실제 사용자 얼굴로 판별한 사용자 얼굴(예: 도 3의 (a))을 안면 인식 기능에 사용할 수 있다(S100).And, according to the user face recognition method of the present invention, the user face
즉, 사용자 얼굴 판별장치(100)는, 초기 인식 결과에서 사용자 얼굴(a)을 실제 사용자 얼굴로서 판별하면(S50 No), 판별한 사용자 얼굴(a)를 사용하여 안면 인식 기능(프로세스)를 시작할 수 있다(S100).That is, when the user's
한편, 본 발명의 사용자 얼굴 인식 방법에 따르면, 초기 인식 결과의 사용자 얼굴이, 카메라 노출값을 낮춘(제1노출값) 후 인식한 제1인식 결과 및 카메라 노출값을 높인(제2노출값) 후 인식한 제2인식 결과 모두에서 인식되거나 또는 모두에서 인식되지 않는 경우, 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패한 것으로 판단할 수 있다(S50 Yes).On the other hand, according to the user face recognition method of the present invention, the user face of the initial recognition result is the first recognition result recognized after lowering the camera exposure value (first exposure value) and the second recognition result after increasing the camera exposure value (second exposure value) If it is recognized in all of the two recognition results or not recognized in both, it may be determined that the user's face to be used for the face recognition function has failed (S50 Yes).
이하에서는 설명의 편의 상, 도 3에 도시된 바와 같이 초기 인식 결과에 사용자 얼굴(a) 및 사용자 얼굴(b)가 포함되지만, 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패한 경우로 가정하여 설명하겠다.Hereinafter, for convenience of explanation, as shown in FIG. 3 , although the user face (a) and the user face (b) are included in the initial recognition result, it will be described assuming that the user's face to be used for the face recognition function fails to be determined.
본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, 사용자 얼굴 판별에 실패하는 경우(S50 Yes), 사용자 얼굴(a) 및 (b) 방향으로 특정 이미지를 조사할 수 있다(S60).According to the method of recognizing a user's face of the present invention, when the user's face identification fails (S50 Yes), the user
여기서, 사용자 얼굴 판별장치(100)는, 사용자 얼굴(a) 및 (b) 방향으로 특정 이미지를 조사할 때, 사용자 얼굴 특징을 기반으로 굴곡이 상대적으로 큰 포인트 사이(예: 양볼-콧대)를 타겟 방향으로 하여, 특정 이미지를 조사할 수 있다.Here, when irradiating a specific image in the direction of the user's face (a) and (b), the user's
또한, 사용자 얼굴 판별장치(100)는, 사용자 얼굴(a) 및 (b) 방향으로 이미지를 조사할 때, 굴곡이 상대적으로 큰 포인트 사이(예: 양볼-콧대)에 조사되어 맺히는 경우 이미지 왜곡이 나타날 수 있는 특징(패턴)를 갖는 특정 이미지를 조사할 수 있다.In addition, when irradiating the image in the direction of the user's face (a) and (b), when the user's
본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, 전술과 같이 특정 이미지를 조사한 후, 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 특정 이미지의 왜곡 여부를 판단한다(S70).According to the method of recognizing a user's face of the present invention, the user's
즉, 사용자 얼굴 판별장치(100)는, S60단계에서 조사한 특정 이미지의 특징(패턴)을 알고 있으므로, 특정 이미지를 조사한 상태에서 촬영되는 촬영 화면에서 인식되는 사용자 얼굴(a) 및 (b) 상에 맺히는 특정 이미지와 비교하면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되었는지 여부를 판단할 수 이다.That is, since the user
만약, 특정 이미지가 맺힌 사용자 얼굴이 이미지 형태의 가짜 사용자 얼굴(b)이라면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되는 일은 없을 것이다.If the user's face on which the specific image is formed is a fake user's face (b) in the form of an image, the specific image formed on the user's face will not be distorted.
반면, 특정 이미지가 맺힌 사용자 얼굴이 진짜 사용자 얼굴(a)이라면, 사용자 얼굴 상에 맺히는 특정 이미지가 왜곡되는 일은 없을 것이다.On the other hand, if the user's face on which the specific image is formed is a real user's face (a), the specific image formed on the user's face will not be distorted.
이에, 사용자 얼굴 판별장치(100)는, 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴(a) 및 (b) 상에 맺히는 특정 이미지의 왜곡 여부를 판단하고(S70), 특정 이미지의 왜곡이 없다고 판단되면(S70 No) 금번 판별을 실패로 확정할 수 있다(S75).Accordingly, the user face
한편, 사용자 얼굴 판별장치(100)는, 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴(a) 및 (b) 상에 맺히는 특정 이미지의 왜곡 여부를 판단하고(S70), 특정 이미지의 왜곡이 판단되면(S70 Yes), 왜곡이 판단된 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴 예컨대 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 진짜 사용자 얼굴로 판별할 수 있다(S80). On the other hand, the user
이에, 본 발명에 따른 사용자 얼굴 판별장치(100)는, 초기 인식 결과에서 인식된 사용자 얼굴(a) 및 사용자 얼굴(b) 중 실제 사용자 얼굴로 판별한 사용자 얼굴(a)을 안면 인식 기능에 사용할 수 있다(S100).Accordingly, the user face
그리고, 본 발명의 사용자 얼굴 인식 방법에 따르면, 사용자 얼굴 판별장치(100)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우(S80), 카메라(10)의 노출값을 조정하여 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출할 수 있다(S90). And, according to the user face recognition method of the present invention, the user face
즉, 사용자 얼굴 판별장치(100)는, 앞서 실패한 사용자 얼굴 판별 시 카메라(10)의 노출값을 조정하는데 이용한 제1,제2노출값을 최적의 노출값으로 재 설정하기 위해, 최저/최고 노출값을 검출하는 것이다.That is, the user face
예를 들면, 사용자 얼굴 판별장치(100)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점까지 카메라(10)의 노출값을 낮춰가면서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 노출값을 최저 노출값으로서 검출할 수 있다. For example, when determining a specific user's face (a) formed by distorting a specific image as described above as the user's face to be used for the face recognition function, the user's
또한, 사용자 얼굴 판별장치(100)는, 전술과 같이 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴(a)을 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 촬영 화면에서 특정 사용자 얼굴(a)이 인식되지 않는 시점까지 카메라(10)의 노출값을 높여가면서 특정 사용자 얼굴(a)이 인식되지 않는 시점의 노출값을 최고 노출값으로서 검출할 수 있다.In addition, as described above, when determining a specific user face (a) formed by distorting a specific image as the user face to be used for the face recognition function, the user face
이렇게 검출된 최저 노출값 및 최고 노출값은, 학습 과정을 거쳐 검출되는 최적의 노출값으로 간주할 수 있다.The detected lowest and highest exposure values may be regarded as optimal exposure values detected through a learning process.
이후, 사용자 얼굴 판별장치(100)는, 최적으로 검출되는 최저 노출값(제1노출값) 및 최고 노출값(제2노출값)이, 이후 사용자 얼굴 판별을 위해 카메라(10)의 노출값 조정 시 사용되도록 설정할 수 있다(S90). Thereafter, the user
이상 설명한 바와 같이, 본 발명에 따르면, 고성능/고가의 TOF 방식 3D 카메라 인식 기술을 사용하지 않고 일반 카메라를 이용하는 경우에도, 사진이나 영상 등 이미지 형태의 가짜 사용자 얼굴이 아닌 실제 사용자 얼굴을 판별해내는 기술을 실현함으로써, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점을 해결할 수 있다.As described above, according to the present invention, even when a general camera is used without using a high-performance/expensive TOF-type 3D camera recognition technology, By realizing the technology, it is possible to solve the weakness of facial recognition that may occur when using a normal camera.
더 나아가, 본 발명에 따르면, 고성능/고가의 TOF 방식 3D 카메라 인식 기술을 사용하지 않고 일반 카메라를 이용하는 경우에도 실제 사용자 얼굴을 판별해내는 기술을 실현함에 있어서, 판별 시 이용하는 파라미터(노출값)을 최적으로 설정/유지하여 판별 실패율을 현저히 낮출 수 있기 때문에, 일반 카메라를 이용하는 경우 발생할 수 있는 안면 인식의 취약점을 보다 효율적으로 해결할 수 있다.Furthermore, according to the present invention, in realizing a technique for discriminating an actual user's face even when a general camera is used without using a high-performance/expensive TOF-type 3D camera recognition technology, the parameter (exposure value) used in the discrimination is optimized Since it is possible to significantly lower the identification failure rate by setting/maintaining to
한편, 본 명세서에서 설명하는 사용자 얼굴 판별 방법의 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 제어 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.On the other hand, the functional operations and implementations of the subject matter of the user face identification method described in this specification are implemented as digital electronic circuits, computer software, firmware or hardware including the structures disclosed in this specification and structural equivalents thereof, or , can be implemented as a combination of one or more of these. Implementations of the subject matter described herein are one or more computer program products, ie, one or more modules of computer program instructions encoded on a tangible program storage medium for controlling the operation of or for execution by a control system. can be implemented.
컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.The computer readable medium may be a machine readable storage device, a machine readable storage substrate, a memory device, a composition of matter that affects a machine readable radio wave signal, or a combination of one or more thereof.
본 명세서에서 "시스템"이나 "장치"라 함은 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 제어하기 위한 모든 기구, 장치 및 기계를 포괄한다. 제어 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.As used herein, the term “system” or “device” encompasses all instruments, devices and machines for controlling data, including, for example, a programmable processor, a computer, or multiple processors or computers. The control system may include, in addition to hardware, code forming an execution environment for a computer program upon request, such as, for example, code constituting processor firmware, a protocol stack, a database management system, an operating system, or a combination of one or more thereof. .
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language or a priori or procedural language, and may be written as a stand-alone program or module; It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in a file system. A program may be placed in a single file provided to the requested program, or in multiple interacting files (eg, files that store one or more modules, subprograms, or portions of code), or portions of files that hold other programs or data. (eg, one or more scripts stored within a markup language document). A computer program may be deployed to be executed on a single computer or multiple computers located at one site or distributed over a plurality of sites and interconnected by a communication network.
한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer-readable media suitable for storing computer program instructions and data include, for example, semiconductor memory devices such as EPROM, EEPROM and flash memory devices, such as magnetic disks such as internal hard disks or external disks, magneto-optical disks and CDs. -Can include all types of non-volatile memory, media and memory devices, including ROM and DVD-ROM disks. The processor and memory may be supplemented by, or integrated into, special purpose logic circuitry.
본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.An implementation of the subject matter described herein may include a backend component, such as a data server, or a middleware component, such as an application server, such as a web browser or graphical user that allows a user to interact with an implementation of the subject matter described herein, for example. It may be implemented in a front-end component, such as a client computer having an interface, or in a computing system including any combination of one or more such back-end, middleware, or front-end components. The components of the system may be interconnected by any form or medium of digital data communication, such as, for example, a communication network.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While this specification contains numerous specific implementation details, these should not be construed as limitations on the scope of any invention or claim, but rather as descriptions of features that may be specific to particular embodiments of particular inventions. should be understood Likewise, certain features that are described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features that are described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Furthermore, although features operate in a particular combination and may be initially depicted as claimed as such, one or more features from a claimed combination may in some cases be excluded from the combination, the claimed combination being a sub-combination. or a variant of a sub-combination.
또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다Also, although the drawings depict operations in a specific order, it is not to be understood that such operations must be performed in the specific order or sequential order shown or that all illustrated operations must be performed in order to obtain a desirable result. Can not be done. In certain cases, multitasking and parallel processing may be advantageous. Further, the separation of the various system components of the above-described embodiments should not be construed as requiring such separation in all embodiments, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that
이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, this specification is not intended to limit the invention to the specific terms presented. Accordingly, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, changes, and modifications to the examples without departing from the scope of the present invention. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
100 : 사용자 얼굴 판별장치
10 : 카메라 30 : 인식부
40 : 조정부 50 : 판별부
60 : 조사부 70 : 검출부100: user face identification device
10: camera 30: recognition unit
40: adjusting unit 50: determining unit
60: irradiation unit 70: detection unit
Claims (8)
상기 적어도 하나의 사용자 얼굴을 인식하면, 상기 진짜 사용자 얼굴이 인식되지 않고 상기 가짜 사용자 얼굴만 인식되도록, 상기 카메라의 노출값을 제1노출값으로 낮추어 제1 촬영 화면을 촬영하는 단계;
상기 제1 촬영 화면에서 사용자 얼굴을 인식하는 단계;
상기 가짜 사용자 얼굴이 인식되지 않고 상기 진짜 사용자 얼굴만 인식되도록, 상기 카메라의 노출값을 제2노출값으로 높여 제2 촬영 화면을 촬영하는 단계;
상기 제2 촬영 화면에서 사용자 얼굴을 인식하는 단계; 및
상기 제1 촬영 화면에서 인식되지 않고 상기 제2 촬영 화면에서만 인식되는 상기 진짜 사용자 얼굴을 안면 인식 기능에 사용할 얼굴로 판별하는 단계를 포함하며,
상기 안면 인식 기능에 사용할 얼굴로 판별하는 단계는 상기 제1 촬영 화면 및 상기 제2 촬영 화면 모두에서 인식되거나 또는 모두에서 인식되지 않는 사용자 얼굴을 상기 안면 인식 기능에 사용하지 않는 것을 특징으로 하고,
상기 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패하는 경우에는,
사용자 얼굴 방향으로 특정 이미지를 조사하는 단계;
상기 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 상기 특정 이미지의 왜곡 여부를 판단하는 단계; 및
상기 노출값 조정 이전에 인식된 사용자 얼굴 중 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 단계를 수행하는 것을 특징으로 하는 사용자 얼굴 판별 방법.recognizing at least one of a real user's face and a fake user's face in the form of an image displayed on a device screen in a photographing screen captured by a camera;
when the at least one user's face is recognized, lowering the exposure value of the camera to a first exposure value so that only the fake user's face is recognized without the real user's face being recognized;
recognizing a user's face on the first shooting screen;
photographing a second photographing screen by increasing the exposure value of the camera to a second exposure value so that only the real user's face is recognized without recognizing the fake user's face;
recognizing a user's face on the second photographing screen; and
determining the real user's face, which is not recognized on the first shooting screen but recognized only on the second shooting screen, as a face to be used for a face recognition function,
The step of determining the face to be used for the face recognition function is characterized in that a user face recognized in both the first and second shooting screens or not recognized in both is not used for the face recognition function,
If the user's face to be used for the facial recognition function fails,
irradiating a specific image in the direction of the user's face;
determining whether the specific image formed on the user's face recognized in a shooting screen photographed after irradiation of the specific image is distorted; and
and determining a specific user's face formed by distorting the specific image among the user's faces recognized before adjusting the exposure value as the user's face to be used for the face recognition function.
상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 상기 카메라의 노출값을 조정하여 촬영 화면에서 상기 특정 사용자 얼굴이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출하는 단계; 및
상기 최저 노출값 및 최고 노출값을 이후 사용자 얼굴 판별을 위해 상기 카메라의 노출값 조정 시 사용되도록 설정하는 단계를 더 포함하는 것을 특징으로 하는 사용자 얼굴 판별 방법.The method of claim 1,
When the specific user's face, which is distorted in the specific image, is determined as the user's face to be used for the face recognition function, the exposure value of the camera is adjusted to obtain the lowest and highest exposure values at the point in time when the specific user's face is not recognized on the shooting screen detecting; and
The method further comprising the step of setting the lowest exposure value and the highest exposure value to be used when adjusting the exposure value of the camera for subsequent user face identification.
상기 적어도 하나의 사용자 얼굴을 인식하면, 상기 진짜 사용자 얼굴이 인식되지 않고 상기 가짜 사용자 얼굴만 인식되도록 상기 카메라의 노출값을 제1노출값만큼 낮춰 제1 촬영 화면을 촬영하고, 상기 가짜 사용자 얼굴이 인식되지 않고 상기 진짜 사용자 얼굴만 인식되도록 상기 카메라의 노출값을 제2노출값만큼 높여 제2 촬영 화면을 촬영하는 조정부;
상기 인식부에서 인식한 결과를 기반으로 상기 제1 촬영 화면에서는 인식되지 않고 상기 제2 촬영 화면에서만 인식되는 상기 진짜 사용자 얼굴을 안면 인식 기능에 사용할 얼굴로 판별하는 판별부를 포함하며,
상기 판별부는 상기 제1 촬영 화면 및 상기 제2 촬영 화면 모두에서 인식되거나 또는 모두에서 인식되지 않는 사용자 얼굴을 상기 안면 인식 기능에 사용하지 않는 것을 특징으로 하고,
상기 안면 인식 기능에 사용할 사용자 얼굴 판별에 실패하는 경우, 사용자 얼굴 방향으로 특정 이미지를 조사하는 조사부를 더 포함하며;
상기 조사부를 더 포함하는 경우에, 상기 판별부는,
상기 특정 이미지 조사 후 촬영되는 촬영 화면에서 인식되는 사용자 얼굴 상에 맺히는 상기 특정 이미지의 왜곡 여부를 판단하고, 상기 노출값 조정 이전에 인식된 사용자 얼굴 중 상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 것을 특징으로 하는 사용자 얼굴 판별장치.a recognition unit for recognizing at least one of a real user's face and a fake user's face in the form of an image displayed on the device screen in a photographing screen captured by the camera;
When the at least one user's face is recognized, the exposure value of the camera is lowered by the first exposure value so that only the fake user's face is recognized without the real user's face being recognized, and the first shooting screen is taken, and the fake user's face is not recognized an adjustment unit for photographing a second photographing screen by increasing the exposure value of the camera by a second exposure value so that only the real user's face is recognized;
and a determining unit for determining the real user's face, which is not recognized on the first photographing screen but recognized only on the second photographing screen, as a face to be used for a face recognition function, based on the result recognized by the recognition unit,
The determining unit is characterized in that the face recognition function does not use a user's face that is recognized or not recognized in both the first shooting screen and the second shooting screen for the face recognition function,
Further comprising an irradiator for irradiating a specific image in the direction of the user's face when it fails to determine the user's face to be used for the face recognition function;
In the case of further comprising the irradiation unit, the determining unit,
It is determined whether the specific image formed on the user's face recognized in the shooting screen photographed after the irradiation of the specific image is distorted, and the specific user's face formed by distortion of the specific image among the user faces recognized before the exposure value adjustment is the face A user face discrimination device, characterized in that it is determined as a user face to be used for a recognition function.
상기 특정 이미지가 왜곡되어 맺히는 특정 사용자 얼굴을 상기 안면 인식 기능에 사용할 사용자 얼굴로 판별하는 경우, 상기 카메라의 노출값을 조정하여 촬영 화면에서 상기 특정 사용자 얼굴이 인식되지 않는 시점의 최저 노출값 및 최고 노출값을 검출하는 검출부를 더 포함하며;
상기 조정부에는,
상기 최저 노출값 및 최고 노출값이, 이후 사용자 얼굴 판별을 위해 상기 카메라의 노출값 조정 시 사용되도록 설정되는 것을 특징으로 하는 사용자 얼굴 판별장치.6. The method of claim 5,
When the specific user's face, which is distorted in the specific image, is determined as the user's face to be used for the face recognition function, the exposure value of the camera is adjusted to obtain the lowest and highest exposure values at the point in time when the specific user's face is not recognized on the shooting screen It further comprises a detection unit for detecting;
In the adjustment unit,
The apparatus for determining a user's face, characterized in that the minimum exposure value and the maximum exposure value are set to be used when adjusting the exposure value of the camera to determine the user's face thereafter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210052658A KR102443137B1 (en) | 2019-06-24 | 2021-04-22 | Control device and control method for face diistinction |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190075049A KR20200130042A (en) | 2019-05-10 | 2019-06-24 | Control device and control method for face diistinction |
KR1020210052658A KR102443137B1 (en) | 2019-06-24 | 2021-04-22 | Control device and control method for face diistinction |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190075049A Division KR20200130042A (en) | 2019-05-10 | 2019-06-24 | Control device and control method for face diistinction |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210047848A KR20210047848A (en) | 2021-04-30 |
KR102443137B1 true KR102443137B1 (en) | 2022-09-13 |
Family
ID=75740861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210052658A KR102443137B1 (en) | 2019-06-24 | 2021-04-22 | Control device and control method for face diistinction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102443137B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113313034B (en) * | 2021-05-31 | 2024-03-22 | 平安国际智慧城市科技股份有限公司 | Face recognition method and device, electronic equipment and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026330A (en) * | 2005-07-20 | 2007-02-01 | Olympus Imaging Corp | Personal identification system and personal identification method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101145249B1 (en) * | 2008-11-24 | 2012-05-25 | 한국전자통신연구원 | Apparatus for validating face image of human being and method thereof |
RU2630742C1 (en) * | 2016-07-18 | 2017-09-12 | Самсунг Электроникс Ко., Лтд. | Method, system and device for biometric iris recognition |
-
2021
- 2021-04-22 KR KR1020210052658A patent/KR102443137B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026330A (en) * | 2005-07-20 | 2007-02-01 | Olympus Imaging Corp | Personal identification system and personal identification method |
Also Published As
Publication number | Publication date |
---|---|
KR20210047848A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10482230B2 (en) | Face-controlled liveness verification | |
KR102369228B1 (en) | Risk analysis apparatus and method for risk based authentication | |
KR102324468B1 (en) | Method and apparatus for face verification | |
KR102370063B1 (en) | Method and apparatus for verifying face | |
JP7159509B1 (en) | Systems and methods using multiple focal stacks for image-based spoofing detection | |
US7634117B2 (en) | Apparatus and method of fingerprint recognition for a mobile terminal | |
US11314966B2 (en) | Facial anti-spoofing method using variances in image properties | |
US9864756B2 (en) | Method, apparatus for providing a notification on a face recognition environment, and computer-readable recording medium for executing the method | |
JP4826234B2 (en) | Face authentication apparatus, security strength changing method and program | |
EP3213245B1 (en) | Systems and methods for spoof detection in iris based biometric systems | |
JP5045128B2 (en) | Face recognition device | |
US11238143B2 (en) | Method and system for authenticating a user on a wearable heads-up display | |
KR101821115B1 (en) | Method and apparatus for fingerprint recognition | |
US20190080065A1 (en) | Dynamic interface for camera-based authentication | |
US9483682B1 (en) | Fingerprint recognition method and device thereof | |
CN112825128A (en) | Method and apparatus for liveness testing and/or biometric verification | |
WO2020113571A1 (en) | Face recognition data processing method and apparatus, mobile device and computer readable storage medium | |
KR102443137B1 (en) | Control device and control method for face diistinction | |
US20150026798A1 (en) | Electronic device and method for identifying a remote device | |
KR102274370B1 (en) | Facial recognition device and facial recognition control method | |
KR20200130042A (en) | Control device and control method for face diistinction | |
KR101642035B1 (en) | Apparatus and method for generating authentication information using iris data, authentication system with the same | |
KR20210071562A (en) | User authentication apparatus, and control method thereof | |
WO2023119560A1 (en) | Authentication device, authentication method, and recording medium | |
KR20230018111A (en) | Method and apparatus of managing access authority |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |