KR100871211B1 - Apparatus and method for authenticating user using user's height - Google Patents

Apparatus and method for authenticating user using user's height Download PDF

Info

Publication number
KR100871211B1
KR100871211B1 KR1020070034373A KR20070034373A KR100871211B1 KR 100871211 B1 KR100871211 B1 KR 100871211B1 KR 1020070034373 A KR1020070034373 A KR 1020070034373A KR 20070034373 A KR20070034373 A KR 20070034373A KR 100871211 B1 KR100871211 B1 KR 100871211B1
Authority
KR
South Korea
Prior art keywords
user
camera
height
face
detected
Prior art date
Application number
KR1020070034373A
Other languages
Korean (ko)
Other versions
KR20080090916A (en
Inventor
김현수
이지효
심현식
박영희
윤호섭
Original Assignee
삼성전자주식회사
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국전자통신연구원 filed Critical 삼성전자주식회사
Priority to KR1020070034373A priority Critical patent/KR100871211B1/en
Publication of KR20080090916A publication Critical patent/KR20080090916A/en
Application granted granted Critical
Publication of KR100871211B1 publication Critical patent/KR100871211B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

본 발명은 사용자의 키를 이용하여 사용자를 인증하기 위한 장치 및 방법에 관한 것이다. 이를 위해 본 발명은 사용자의 얼굴 이미지를 포함하는 영상이 입력되면, 입력된 영상에서 사용자 얼굴 영역을 검출하고, 얼굴 영역의 윗 방향에서 머리끝을 검출하여 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 제1 높이를 산출하고, 사용자를 촬영하기 위해서 움직인 카메라 렌즈의 각도와 상기 카메라와 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점 사이의 제1 거리를 이용하여 상기 카메라의 높이에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제2 높이를 산출한 후 상기 산출된 제1 높이와 상기 산출된 제2 높이, 미리 저장된 지면에서부터 상기 카메라까지의 제3 높이를 모두 합산하여 사용자의 키를 검출하게 된다.The present invention relates to an apparatus and method for authenticating a user using a user's key. To this end, when the image including the face image of the user is input, the present invention detects the user's face region from the input image, detects the end of the head in the upward direction of the face region, and shows a line extending from the FOV center of the camera. Calculate a first height from the point of contact to the user's head, and determine the first distance between the angle of the camera lens moved to photograph the user and the point of contact between the camera and the line extending from the FOV center of the camera. Calculate a second height from the height of the camera to the point where a line extending from the FOV center of the camera is formed to the user, and then the calculated first height, the calculated second height, and the camera The third height of the sum up to detect the user's height.

키 검출, 사용자 인증, 거리 센서, 삼각 함수 Key detection, user authentication, distance sensor, trigonometric function

Description

사용자의 키를 이용하여 사용자를 인증하기 위한 장치 및 방법{APPARATUS AND METHOD FOR AUTHENTICATING USER USING USER'S HEIGHT}Apparatus and method for authenticating a user using the user's key {APPARATUS AND METHOD FOR AUTHENTICATING USER USING USER'S HEIGHT}

도 1은 본 발명의 실시 예에 따른 사용자 인증 장치의 블록 구성도,1 is a block diagram of a user authentication device according to an embodiment of the present invention;

도 2는 본 발명의 실시 예에 따른 사용자 인증을 위해 사용자의 키를 측정하기 위한 과정을 나타내는 제어 흐름도,2 is a control flowchart illustrating a process for measuring a user's key for user authentication according to an embodiment of the present invention;

도 3 및 도 4는 본 발명의 실시 예에 따른 사용자의 머리끝 위치를 검출하는 과정을 설명하기 위한 예시도,3 and 4 are exemplary diagrams for explaining a process of detecting the position of the head of the user according to an embodiment of the present invention,

도 5은 본 발명의 실시 예에 따른 사용자의 머리끝 위치를 분석하기 위한 히스토그램,5 is a histogram for analyzing a user's head position according to an embodiment of the present invention;

도 6은 본 발명의 실시 예에 따라 삼각함수를 이용하여 지면에서부터 카메라까지의 높이와 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이, 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 높이로부터 사용자의 키를 산출하는 과정을 설명하기 위한 예시도.6 is a height from the height of the camera to the camera and the height of the camera from the height of the camera to the point where a line extending from the FOV center of the camera is formed to the user according to an embodiment of the present invention, extending from the FOV center of the camera Exemplary diagram for explaining a process of calculating the height of the user from the height of the line to the user to the end of the user head.

본 발명은 사용자를 인증하기 위한 장치 및 방법에 관한 것으로, 특히 거리 센서와 카메라를 구비하는 사용자 인증 장치에서 사용자의 키를 측정하고, 이를 이용하여 사용자를 인증하기 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for authenticating a user, and more particularly, to an apparatus and method for measuring a user's key and authenticating the user using the same in a user authentication apparatus including a distance sensor and a camera.

일반적으로 사용자 인증 장치는 음성 센서 또는 영상 센서를 이용하여 사용자의 목소리, 얼굴, 지문, 홍채 패턴과 같은 바이오 정보를 획득하고, 이를 통해서 사용자를 인증한다. In general, a user authentication device obtains bio information such as a voice, a face, a fingerprint, and an iris pattern of a user using a voice sensor or an image sensor, and authenticates the user through this.

예를 들어, 음성 센서를 구비하는 사용자 인증 장치는 마이크 및 인코더를 이용하여 사용자의 목소리를 획득하고, 이를 사용자 인증 장치에 미리 저장된 사용자들의 목소리와 비교 및 분석하여 사용자를 인식한다. 또한, 영상 센서를 구비하는 사용자 인증 장치는 카메라 및 캠코더를 이용하여 사용자의 얼굴, 지문, 홍채 패턴을 획득하고, 이를 사용자 인증 장치에 미리 저장된 사용자들의 얼굴, 지문, 홍채 패턴과 비교 및 분석하여 사용자를 인식한다. For example, a user authentication device including a voice sensor acquires a voice of a user using a microphone and an encoder, and compares and analyzes the voice of a user previously stored in the user authentication device to recognize the user. In addition, a user authentication device including an image sensor acquires a face, fingerprint, and iris pattern of a user using a camera and a camcorder, and compares and analyzes the face, fingerprint, and iris pattern of the users previously stored in the user authentication device to the user. Recognize.

상기와 같이 바이오 정보를 이용하여 사용자를 인증하는 사용자 인증 장치는 바이오 정보를 획득하여 인식하는 과정에 어려움이 있어 대중화되지 못하고 있다. 예를 들어, 지문을 인식하는 사용자 인증 장치는 지문이 변형되거나 사라진 경우, 또는 손에 오물이 뭍은 사용자의 지문은 인식하지 못하는 경우가 발생할 수 있다. 그리고, 홍채를 인식하는 사용자 인증 장치는 사용자들의 홍채 패턴을 획득하기 위해 근접한 거리에서 영상 센서에 눈을 갖다 대는 과정에 대해서 사용자들이 거부감을 느낄 수 있다. 또한, 얼굴을 인식하는 사용자 인증 장치는 조명의 밝기 및 촬영 각도의 변화, 표정의 변화에 따라 동일한 사용자가 다른 사용자로 인식될 수 있고, 다른 바이오 정보에 비해 많은 종류의 얼굴 특징 정보를 획득하기 어렵기 때문에 높은 사용자 인식율을 가지기 힘들다. 그러므로, 얼굴을 인식하는 사용자 인증 장치가 높은 사용자 인식율을 가지기 위해서는 고 해상도의 얼굴 영상을 통해서 많은 종류의 얼굴 특징 정보를 획득해야 한다. 이를 위해 얼굴을 인식하는 사용자 인증 장치는 근거리에서 사용자의 얼굴을 인식하거나 고가의 카메라를 이용하여 사용자를 인식해야 한다. 그러나, 근거리에서 사용자의 얼굴을 인식할 경우 카메라와 사용자 얼굴이 근접해야 하기 때문에 사용자가 거부감을 느낄 수 있다. 또한, 고가의 카메라를 이용하여 사용자를 인식할 경우에는 비용이 많이 드는 단점이 있다.As described above, a user authentication device for authenticating a user using bio information has not been popularized due to a difficulty in obtaining and recognizing bio information. For example, a user authentication device that recognizes a fingerprint may occur when a fingerprint is deformed or disappeared, or when a fingerprint of a user who has soiled hands is not recognized. In addition, the user authentication device for recognizing the iris may allow users to feel rejection about the process of bringing eyes to the image sensor at a close distance to obtain the iris patterns of the users. In addition, the user authentication device for recognizing a face may recognize the same user as a different user according to a change in brightness, a shooting angle, or a change in facial expression, and it is difficult to obtain many kinds of facial feature information in comparison with other bio information. Because of this, it is difficult to have high user recognition rate. Therefore, in order for a face recognition user authentication apparatus to have a high user recognition rate, many types of face feature information must be acquired through a high resolution face image. To this end, a user authentication device for recognizing a face must recognize a face of a user at a short distance or recognize a user by using an expensive camera. However, when the user's face is recognized at a short distance, the user may feel rejected because the camera and the user's face must be close. In addition, there is a disadvantage in that the cost is high when the user is recognized using an expensive camera.

한편, 화자 인식 사용자 인증 장치는 음성 센서를 통해서 사용자의 음성을 획득하는 과정에서 소음이 발생하거나 감기에 의해서 변성된 사용자의 목소리를 인식하지 못하는 경우가 발생할 수 있다.On the other hand, the speaker recognition user authentication device may occur when the noise is generated in the process of obtaining the user's voice through the voice sensor or may not recognize the user's voice modified by the winding.

따라서, 본 발명은 거리 센서와 카메라를 구비하는 사용자 인증 장치에서 사용자의 키를 측정하고, 측정된 사용자의 키를 이용하여 사용자를 인증하기 위한 장치 및 방법을 제공한다.Accordingly, the present invention provides an apparatus and method for measuring a user's key in a user authentication device having a distance sensor and a camera, and authenticating the user using the measured user's key.

상술한 바를 달성하기 위한 본 발명은 카메라를 구비하고, 사용자의 키를 이용하여 사용자를 인증하기 위한 장치에 있어서, 상기 카메라를 통해 촬영된 영상에서 사용자 얼굴 영역을 검출하고, 상기 얼굴 영역의 윗 방향에서 머리끝을 검출하여 상기 카메라의 FOV(Field Of View) 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 제1 높이를 산출하는 얼굴 검출부와, 상기 카메라와 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점 사이의 제1 거리를 측정하는 거리 센서와, 지면에서부터 상기 카메라까지의 제3 높이를 저장하는 메모리부와, 상기 카메라가 상기 사용자 얼굴을 검출하기 위해 움직인 각도와 상기 제1 거리에 대해 삼각함수를 이용하여 상기 카메라의 높이에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제2 높이를 산출하고, 상기 제1 높이와 제2 높이, 제3 높이를 합산하여 사용자의 키를 산출하는 키 계산부와, 사용자 인증 요구에 따라 상기 얼굴 검출부를 제어하여 상기 제1 높이를 산출하고, 상기 키 계산부를 통해서 제1 거리를 산출하여 사용자의 키를 산출하도록 제어하는 제어부를 구비함을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for authenticating a user by using a user's key, the apparatus comprising: detecting a user's face region from an image photographed through the camera, and pointing upward of the face region; A face detector which detects the end of the head and calculates a first height from the point where the line extending from the center of the field of view (FOV) of the camera forms to the user to the end of the user's head, and extends from the center of the camera and the FOV of the camera A distance sensor for measuring a first distance between a point where a broken line is bound to a user, a memory unit for storing a third height from the ground to the camera, an angle at which the camera moves to detect the user's face, and Use a line extending from the height of the camera to the FOV center of the camera using a trigonometric function for a first distance A key calculator for calculating a second height up to a point formed by the ruler, adding the first height, the second height, and the third height to calculate a user's height, and controlling the face detection unit according to a user authentication request And a control unit configured to calculate the first height and to calculate a user's height by calculating a first distance through the key calculator.

또한, 본 발명은 사용자의 키를 이용하여 사용자를 인증하기 위한 방법에 있어서, 카메라로부터 사용자의 얼굴 이미지를 포함하는 영상이 입력되는 과정과, 상기 입력된 영상에서 사용자 얼굴 영역을 검출하고, 상기 얼굴 영역의 윗 방향에서 머리끝을 검출하여 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 제1 높이를 산출하는 과정과, 상기 사용자를 촬영하기 위해서 움직인 상기 카메라의 렌즈 각도와 상기 카메라에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제 1거리를 이용하여 상기 카메라의 높이에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제2 높이를 산출하는 과정과, 상기 산출된 제1 높이와 상기 산출된 제2 높이, 미리 저장된 지면으로부터 카메라까지의 제3 높이를 모두 합산하여 사용자의 키를 검출하는 과정을 구비함을 특징으로 한다.In addition, the present invention provides a method for authenticating a user by using a user's key, the process of inputting an image including a face image of the user from a camera, detecting a user's face area from the input image, and detecting the face. Calculating the first height from the point where the line extending from the FOV center of the camera is formed to the user to the end of the user's head by detecting the end of the head in an upward direction of the area; and the lens of the camera moved to photograph the user A second from the height of the camera to the point at which the line extending from the FOV center of the camera is bound to the user using an angle and a first distance from the camera to the point at which the line extending from the FOV center of the camera is bound to the user Calculating a height, the calculated first height and the calculated second height, and a previously stored ground And detecting the height of the user by summing all the third heights from the camera to the camera.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the annexed drawings, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명은 거리 센서와 카메라를 구비하는 사용자 인증 장치에서 사용자의 키를 측정하고, 측정된 사용자의 키를 사용자를 인식하기 위한 사용자 인식 정보로 이용함으로써 정확하게 사용자를 인증할 수 있도록 하기 위한 방안을 제공하도록 한다. 또한, 본 발명에서는 사용자 인식을 위해 사용자의 키를 측정하여 사용자 인식 정보로 사용하지만, 단지 사용자의 키를 측정하기 위해서 사용될 수도 있다. 그리고, 이러한 사용자 인증 장치는 이동 가능한 로봇과 같은 이동 단말기가 될 수 있고, 이동이 불가능한 단말기가 될 수 있다. The present invention provides a method for accurately authenticating a user by measuring a user's key in a user authentication device having a distance sensor and a camera, and using the measured user's key as user recognition information for recognizing the user. Do it. In addition, in the present invention, the user's key is measured and used as user recognition information for user recognition, but may be used only for measuring the user's key. In addition, such a user authentication device may be a mobile terminal such as a mobile robot, or may be a mobile terminal.

먼저, 도 1을 참조하여 본 발명의 실시 예에 따라 사용자의 키를 측정하기 위한 사용자 인증 장치의 블록 구성에 대해서 살펴보도록 한다.First, a block configuration of a user authentication device for measuring a user's key according to an exemplary embodiment of the present invention will be described with reference to FIG. 1.

제어부(100)는 사용자 인증 장치의 전반적인 동작을 제어한다. 특히, 본 발명에서 제어부(100)는 통합 사용자 인증부(110)로부터 사용자를 인증하기 위한 요청이 있으면 사용자의 키를 산출하도록 사용자 인증 장치의 전반적인 동작을 제어 한다. The controller 100 controls the overall operation of the user authentication device. In particular, in the present invention, the control unit 100 controls the overall operation of the user authentication device to calculate the user's key when there is a request for authenticating the user from the integrated user authentication unit 110.

그러면, 제어부(100)가 사용자의 키를 산출하는 방법에 대해서 도 6를 참조하여 구체적으로 살펴보도록 한다. Next, a method of calculating the user's key by the controller 100 will be described in detail with reference to FIG. 6.

먼저, 도 6과 같이 사용자의 키

Figure 112007026830617-pat00001
은 미리 정해진 지면에서부터 카메라까지의 높이인
Figure 112007026830617-pat00002
와 카메라의 FOV(Field Of View) 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 높이인
Figure 112007026830617-pat00003
, 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이인
Figure 112007026830617-pat00004
를 모두 합하여 산출할 수 있다. First, the user's key as shown in FIG.
Figure 112007026830617-pat00001
Is the height from the predetermined ground to the camera
Figure 112007026830617-pat00002
And the height from the point where the line extends from the center of the field of view (FOV) of the camera to the user to the tip of the user's head
Figure 112007026830617-pat00003
, The height from the height of the camera to the point where a line extends from the center of the camera's FOV to the user
Figure 112007026830617-pat00004
It can be calculated by adding all together.

따라서,

Figure 112007026830617-pat00005
은 하기와 같은 <수학식1>과 같이 산출될 수 있다.therefore,
Figure 112007026830617-pat00005
May be calculated as in Equation 1 below.

Figure 112007026830617-pat00006
Figure 112007026830617-pat00006

이때,

Figure 112007026830617-pat00007
는 미리 정해진 거리이기 때문에, 제어부(100)는
Figure 112007026830617-pat00008
Figure 112007026830617-pat00009
를 산출하면
Figure 112007026830617-pat00010
을 산출할 수 있게 된다.At this time,
Figure 112007026830617-pat00007
Since is a predetermined distance, the control unit 100
Figure 112007026830617-pat00008
Wow
Figure 112007026830617-pat00009
Yielding
Figure 112007026830617-pat00010
Can be calculated.

그러면, 제어부(100)에서

Figure 112007026830617-pat00011
Figure 112007026830617-pat00012
를 산출하는 제어 동작에 대해 살펴보도록 한다.Then, the control unit 100
Figure 112007026830617-pat00011
Wow
Figure 112007026830617-pat00012
Let us look at the control operation to calculate the.

먼저,

Figure 112007026830617-pat00013
를 산출하기 위한 동작을 하기에서 살펴보면, 제어부(100)가
Figure 112007026830617-pat00014
를 산출하기 위해서는 사용자의 머리끝의 위치를 검출해야 하는데, 이를 위해 제어부(100)는 카메라부(121)를 구동하여 사용자의 이미지가 포함된 영상(602)을 획득한다. 그리고, 제어부(100)는 얼굴 검출부(122)를 통해서 획득된 영상에서 사용자의 얼굴을 검출한다. 여기서, 사용자의 얼굴을 검출하는 방법은 일반적인 얼굴 검출 방법이므로, 본 발명에서는 얼굴 검출에 대한 설명을 생략한다.first,
Figure 112007026830617-pat00013
Looking at the operation for calculating the below, the control unit 100
Figure 112007026830617-pat00014
In order to calculate the position of the user's head needs to be detected, for this purpose, the controller 100 drives the camera unit 121 to obtain an image 602 including an image of the user. In addition, the controller 100 detects a face of the user from an image acquired by the face detector 122. Here, since a method of detecting a face of a user is a general face detection method, description of face detection is omitted in the present invention.

이후, 제어부(100)는 미리 설정된 시간 내에 획득된 영상으로부터 몇 개의 얼굴이 검출되었는지 확인한다. 또한, 제어부(100)는 검출된 얼굴 중에서 가장 큰 사이즈의 얼굴이 정면으로 영상의 중심에 위치하도록 파라미터 조정부(123)를 통해서 카메라부(121)의 파라미터를 변경하여 카메라 렌즈의 각도를 조정한다. 그리고, 동시에 제어부(100)는 사용자가 거리 센서(124)에서 미리 설정된 거리 내에 위치하고, 거리 센서(124)의 FOV 중앙에 위치하도록 파라미터 조정부(123)를 통해서 거리 센서(124)의 파라미터를 변경하여 거리 센서(124)의 각도와 위치를 조정한다.Thereafter, the controller 100 checks how many faces are detected from the image acquired within a preset time. In addition, the controller 100 adjusts the angle of the camera lens by changing a parameter of the camera unit 121 through the parameter adjusting unit 123 so that the face of the largest size among the detected faces is located at the center of the image in front. At the same time, the controller 100 changes a parameter of the distance sensor 124 through the parameter adjusting unit 123 so that the user is located within a preset distance from the distance sensor 124 and is located at the FOV center of the distance sensor 124. The angle and position of the distance sensor 124 are adjusted.

이후, 제어부(100)는 다시 카메라부(121)로부터 사용자 영상을 입력받아 얼굴 검출부(122)를 통해서 사용자의 얼굴을 검출한다. 그리고, 제어부(100)는 검출된 얼굴의 위치를 기반으로 하여 영상에서 사용자의 머리끝 위치를 검출한 후 영상의 중심점에서 영상에서 사용자 머리끝까지의 거리인

Figure 112007026830617-pat00015
를 측정하여 키 계산부(125)로 출력한다.Thereafter, the controller 100 receives the user image from the camera unit 121 and detects the user's face through the face detector 122. The controller 100 detects the position of the user's head in the image based on the detected position of the face and then determines the distance from the center point of the image to the user's head.
Figure 112007026830617-pat00015
Is measured and output to the key calculator 125.

그리고, 제어부(100)는 거리 센서(124)를 통해서 카메라와 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점 사이의 거리인

Figure 112007026830617-pat00016
를 측정하고, 측정된
Figure 112007026830617-pat00017
를 키 계산부(125)로 출력한다. 또한, 로봇의 특성상 카메라와 로봇의 거리 센서(124)가 같은 각도로 움직이지 않을 경우, 거리 센서(124)가 상하로 움직인 각도는 파라미터 조정부(123)를 통해 획득하게 된다. 이때 거리 센서(124)가 상하의 움직임이 없이 지면과 평행한 방향으로 사용자까지의 측정된 거리를
Figure 112007026830617-pat00018
, 거리 센서(124)가 상하로 움직인 각도를
Figure 112007026830617-pat00019
,
Figure 112007026830617-pat00020
에서 측정된 거리를
Figure 112007026830617-pat00021
라 할 때,
Figure 112007026830617-pat00022
는 하기와 같은 <수학식2>를 이용해 산출 될 수 있다.The controller 100 is a distance between the camera and the point where a line extending from the FOV center of the camera is formed to the user through the distance sensor 124.
Figure 112007026830617-pat00016
Measured and measured
Figure 112007026830617-pat00017
Is output to the key calculator 125. In addition, when the distance sensor 124 of the camera and the robot does not move at the same angle due to the characteristics of the robot, the angle that the distance sensor 124 is moved up and down is obtained through the parameter adjusting unit 123. At this time, the distance sensor 124 measures the measured distance to the user in a direction parallel to the ground without moving up and down.
Figure 112007026830617-pat00018
, The angle at which the distance sensor 124 moves up and down
Figure 112007026830617-pat00019
,
Figure 112007026830617-pat00020
Measured distance from
Figure 112007026830617-pat00021
When we say
Figure 112007026830617-pat00022
May be calculated using Equation 2 as follows.

Figure 112007026830617-pat00023
Figure 112007026830617-pat00023

Figure 112007026830617-pat00024
Figure 112007026830617-pat00024

또한, 제어부(100)는 메모리부(130)에 저장된 카메라의 FOV의 수직 각도 범위인

Figure 112007026830617-pat00025
와 지면에서부터 카메라까지의 높이인
Figure 112007026830617-pat00026
, 카메라의 틸 트(Tilt)인
Figure 112007026830617-pat00027
를 키 계산부(125)로 출력한다. 여기서, 카메라의 틸트는 카메라의 렌즈가 사용자를 촬영하기 위해서 상하로 움직인 각도를 의미한다. 또한, 카메라에서 사용자의 영상이 맺히는 이미지(600)까지의 거리는
Figure 112007026830617-pat00028
와 유사한 거리라고 가정한다.In addition, the control unit 100 is a vertical angle range of the FOV of the camera stored in the memory unit 130.
Figure 112007026830617-pat00025
And the height from the ground to the camera
Figure 112007026830617-pat00026
, The tilt of the camera
Figure 112007026830617-pat00027
Is output to the key calculator 125. Here, the tilt of the camera refers to an angle that the lens of the camera moves up and down to photograph the user. In addition, the distance from the camera to the image 600 of the user's image is
Figure 112007026830617-pat00028
Assume a distance similar to

그러면,

Figure 112007026830617-pat00029
는 하기와 같은 <수학식3>과 같이 산출될 수 있다. then,
Figure 112007026830617-pat00029
May be calculated as in Equation 3 below.

Figure 112007026830617-pat00030
Figure 112007026830617-pat00030

Figure 112007026830617-pat00031
Figure 112007026830617-pat00031

Figure 112007026830617-pat00032
Figure 112007026830617-pat00032

Figure 112007026830617-pat00033
Figure 112007026830617-pat00033

Figure 112007026830617-pat00034
Figure 112007026830617-pat00034

Figure 112007026830617-pat00035
Figure 112007026830617-pat00035

Figure 112007026830617-pat00036
Figure 112007026830617-pat00036

다음으로,

Figure 112007026830617-pat00037
의 산출과정을 살펴보면, 제어부(100)는
Figure 112007026830617-pat00038
Figure 112007026830617-pat00039
를 이용하여 하기와 같은 <수학식4>와 같이
Figure 112007026830617-pat00040
를 산출될 수 있다.to the next,
Figure 112007026830617-pat00037
Looking at the calculation process of, the control unit 100
Figure 112007026830617-pat00038
Wow
Figure 112007026830617-pat00039
By using <Equation 4> as shown below
Figure 112007026830617-pat00040
Can be calculated.

Figure 112007026830617-pat00041
Figure 112007026830617-pat00041

Figure 112007026830617-pat00042
Figure 112007026830617-pat00042

이처럼 상기와 같은 <수학식3>과 <수학식4>와 같이 산출된

Figure 112007026830617-pat00043
Figure 112007026830617-pat00044
, 메모리부(130)에 미리 저장된
Figure 112007026830617-pat00045
을 모두 합하면 최종적인 사용자의 키
Figure 112007026830617-pat00046
이 산출될 수 있다. 그리고 제어부(100)는 산출된
Figure 112007026830617-pat00047
를 통합 사용자 인증부(110)로 출력한다.Thus calculated as in Equation 3 and Equation 4 as described above
Figure 112007026830617-pat00043
Wow
Figure 112007026830617-pat00044
, Pre-stored in the memory unit 130
Figure 112007026830617-pat00045
Sums up the end user's key
Figure 112007026830617-pat00046
This can be calculated. And the controller 100 is calculated
Figure 112007026830617-pat00047
Output to the integrated user authentication unit 110.

한편, 통합 사용자 인증부(110)는 제어부(100)를 통해서 사용자를 인증하기 위한 사용자의 키를 요청하고, 제어부(100)로부터 입력된 사용자의 키와 바이오 정보와 같은 다른 종류의 사용자 인식 정보를 이용하여 사용자를 인증한다. Meanwhile, the integrated user authentication unit 110 requests a user's key for authenticating the user through the control unit 100, and receives other types of user recognition information such as the user's key and bio information input from the control unit 100. To authenticate the user.

그리고, 메모리부(130)는 카메라의 FOV와 카메라의 틸트와 같은 카메라의 파라미터 정보와 지면으로부터 카메라까지의 높이, 거리 센서(124)의 FOV와 같은 거리 센서(124)의 파라미터 정보를 저장한다. The memory unit 130 stores parameter information of the camera such as the FOV of the camera and the tilt of the camera, height from the ground to the camera, and parameter information of the distance sensor 124 such as the FOV of the distance sensor 124.

또한, 키 검출부(120)는 제어부(100)의 제어하에 사용자의 키를 검출하는데, 이러한 키 검출부(120)는 카메라부(121)와 얼굴 검출부(122), 파라미터 조정부(123), 거리 센서(124), 키 계산부(125)로 구성된다.In addition, the key detector 120 detects a user's key under the control of the controller 100. The key detector 120 includes a camera 121, a face detector 122, a parameter adjuster 123, and a distance sensor ( 124, and a key calculator 125.

먼저, 카메라부(121)는 카메라 렌즈로부터 입력된 광신호를 영상으로 변환하여 얼굴 검출부(122)로 출력한다. First, the camera unit 121 converts an optical signal input from the camera lens into an image and outputs the image to the face detector 122.

그리고, 얼굴 검출부(122)는 카메라부(121)로부터 입력된 영상에서 사용자의 얼굴을 검출하고, 검출된 얼굴의 위치를 기반으로 하여 사용자 머리끝의 위치를 검출한다. 그리고, 얼굴 검출부(122)는 영상의 중심에서부터 영상에서 사용자 머리끝 위치까지 영상 좌표상의 거리를 측정한다. The face detector 122 detects the face of the user from the image input from the camera unit 121, and detects the position of the user's head based on the detected face position. The face detector 122 measures the distance in image coordinates from the center of the image to the position of the user's head in the image.

또한, 파라미터 조정부(123)는 검출된 얼굴이 정면으로 영상의 중심에 위치하도록 카메라부(121)의 파라미터를 조정하여 카메라 렌즈의 각도를 변경한다. 그리고, 이와 동시에 파라미터 조정부(123)는 사용자가 거리 센서(124)의 FOV 중앙에 위치하도록 거리 센서(124)의 파라미터를 조정하여 거리 센서(124)의 각도 및 위치를 변경한다. In addition, the parameter adjusting unit 123 changes the angle of the camera lens by adjusting a parameter of the camera 121 so that the detected face is located at the center of the image in front. At the same time, the parameter adjusting unit 123 adjusts the parameters of the distance sensor 124 so that the user is located at the FOV center of the distance sensor 124 to change the angle and position of the distance sensor 124.

한편, 거리 센서(124)는 측정하고자 하는 대상들 간의 거리를 측정한다. 일 반적으로 거리 센서(124)는 초음파가 물체에 반사되어 돌아오는 시간으로 거리를 측정하는 초음파 센서를 주로 사용한다. 일반적인 초음파 센서는 사용자가 미리 설정된 거리 내에 초음파 센서의 FOV 중앙에 위치하면 사용자와 초음파 센서 간의 거리를 정확하게 측정한다. 그러나, 사용자가 초음파 센서의 FOV 중앙에 위치하지 않고, 사용자가 미리 설정된 거리 내에 존재하지 않으면, 초음파 센서는 초음파 센서의 FOV 중앙에 위치하고, 미리 설정된 거리 내에 있는 다른 물체와의 거리를 측정하기 때문에 잘못된 거리를 측정하게 된다. 그러므로, 사용자가 거리 센서(124)의 FOV 중앙에 위치하지 않고, 미리 설정된 거리 내에 위치하지 않으면 제어부(100)는 사용자와 거리 센서(124)의 FOV 중앙에 위치하고, 미리 설정된 거리 내에 위치하도록 거리 센서(124)의 파라미터를 조정하여 거리 센서(124)의 각도와 위치를 변경한다. 예를 들어, 사용자 인증 장치가 로봇과 같이 이동 가능한 단말기인 경우에는 사용자가 미리 설정된 거리 내에 위치하도록 로봇의 위치를 이동한다. 또한, 사용자 인증 장치가 이동이 불가능한 단말기인 경우에는 알람 표시를 하여 사용자를 미리 설정된 거리 내에 위치하도록 이동시킨다. On the other hand, the distance sensor 124 measures the distance between the objects to be measured. In general, the distance sensor 124 mainly uses an ultrasonic sensor that measures distance by the time when the ultrasonic wave is reflected back to the object. A general ultrasonic sensor accurately measures the distance between the user and the ultrasonic sensor when the user is located at the center of the FOV of the ultrasonic sensor within a predetermined distance. However, if the user is not located in the center of the FOV of the ultrasonic sensor and the user is not within the preset distance, the ultrasonic sensor is located in the center of the FOV of the ultrasonic sensor and is incorrect because it measures the distance to other objects within the preset distance. The distance is measured. Therefore, if the user is not located at the center of the FOV of the distance sensor 124 and not within the preset distance, the control unit 100 is located at the center of the FOV of the distance sensor 124 with the user, and the distance sensor is located within the preset distance. The parameters of 124 are adjusted to change the angle and position of the distance sensor 124. For example, when the user authentication device is a mobile terminal such as a robot, the user moves the position of the robot to be within a predetermined distance. In addition, when the user authentication device is a non-moveable terminal, an alarm is displayed to move the user within a predetermined distance.

또한, 키 계산부(125)는 메모리부(130)에 저장된 카메라의 FOV 값 및 해상도, 카메라의 틸트 각도, 카메라 영상의 FOV각도와 얼굴 검출부(122)를 통해서 입력된 영상의 중심에서 사용자의 머리끝까지의 거리를 이용하여 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 높이를 산출한다. 그리고, 키 계산부(125)는 카메라의 틸트와 거리 센서(124)를 통해서 입력된 사용자와 거리 센서(124) 간의 거리를 이용하여 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이를 산출한다. 그리하여, 키 계산부(125)는 메모리부(130)에서 입력된 지면에서부터 카메라까지의 높이와 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 높이, 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이를 모두 합산하여 최종적으로 사용자의 키를 산출한다.In addition, the key calculation unit 125 is the user's head in the center of the image input through the FOV value and resolution of the camera stored in the memory unit 130, the tilt angle of the camera, the FOV angle of the camera image and the face detector 122 Using the distance to the end, the height from the point where the line extending from the FOV center of the camera forms to the user to the end of the user's head is calculated. The key calculator 125 uses a distance between the user and the distance sensor 124 input through the tilt of the camera and the distance sensor 124 so that a line extending from the height of the camera to the FOV center of the camera is formed on the user. Calculate the height to the point. Thus, the key calculating unit 125 is the height of the camera from the ground input from the memory unit 130 and the line extending from the center of the FOV of the camera to the user to the height of the user's head, the height of the camera from the height of the camera The height of the line extending from the center of the FOV to the point formed by the user is summed up to finally calculate the height of the user.

그러면 상기 도 1과 같이 구성되는 사용자 인증 장치에서 사용자의 키를 측정하기 위한 과정을 도 2를 참조하여 살펴보도록 한다.Next, a process for measuring a user's key in the user authentication device configured as shown in FIG. 1 will be described with reference to FIG. 2.

먼저, 제어부(100)는 200단계에서 대기 상태를 유지하다가 202단계로 진행하여 통합 사용자 인증부(110)를 통해서 사용자를 인증하기 위한 요청이 있으면 202단계를 진행하고, 그렇지 않으면 200단계로 진행하여 대기 상태를 유지한다. 이후, 204단계로 진행한 제어부(100)는 카메라부(121)를 통해서 출력된 영상을 얼굴 검출부(122)로 전송하여 사용자의 얼굴을 검출한다. 그리고, 제어부(100)는 206단계에서 미리 설정된 시간 내에 사용자의 얼굴이 검출되면 208단계로 진행하고, 그렇지 않으면 사용자의 키를 산출하기 위한 과정을 종료한다.First, the control unit 100 maintains the standby state in step 200 and proceeds to step 202 and proceeds to step 202 if there is a request for authenticating the user through the integrated user authentication unit 110, otherwise proceeds to step 200. Maintain the standby state. Thereafter, the control unit 100 proceeds to step 204 to detect the user's face by transmitting the image output through the camera unit 121 to the face detection unit 122. If the user's face is detected within the preset time in step 206, the controller 100 proceeds to step 208. Otherwise, the controller 100 ends the process for calculating the user's key.

이후, 208단계로 진행한 제어부(100)는 얼굴 검출부(122)를 통해서 검출된 사용자의 얼굴이 몇 개가 검출되었는지 검사하여 1개의 얼굴이 검출되면 212단계로 진행하고, 2개 이상의 얼굴이 검출되면 210단계를 진행한다. 이후, 210단계에서 제어부(100)는 검출된 사용자의 얼굴 중에서 가장 큰 사이즈의 얼굴을 선택한 후 212단계로 진행한다.Thereafter, the controller 100 proceeds to step 208 and determines how many faces of the user are detected through the face detector 122. When one face is detected, the controller 100 proceeds to step 212. Proceed to step 210. In step 210, the controller 100 selects the face having the largest size among the detected user's faces, and then proceeds to step 212.

208단계와 210단계에서 진행한 제어부(100)는 212단계에서 검출된 사용자의 얼굴이 정면으로 영상의 중심에 위치하는지 검사하여 영상의 중심에 위치하면 216단계로 진행하고, 그렇지 않으면 214단계로 진행하여 사용자의 얼굴이 정면으로 영상의 중심에 위치하도록 카메라부(121)의 파라미터를 변경하여 카메라 렌즈의 각도를 변경한 후 204단계로 진행한다. 이후, 제어부(100)는 216단계로 진행하여 거리 센서(124)의 FOV 중앙에 사용자가 위치하는지 검사하여 거리 센서(124)의 FOV 중앙에 위치하면 220단계로 진행하고, 그렇지 않으면 218단계로 진행하여 거리 센서(124)의 FOV 중앙에 사용자가 위치하도록 거리 센서(124)의 파라미터를 조정하여 거리 센서(124)의 각도와 위치를 변경한 후 204단계로 진행한다. 그리고, 214단계와 218단계에서 204단계로 진행한 제어부(100)는 사용자의 얼굴이 정면으로 영상의 중심에 위치하고, 거리 센서(124)의 FOV 중앙에 사용자가 위치하도록 변경된 카메라와 거리 센서를 이용하여 다시 얼굴 검출을 위한 단계인 204단계 ~ 216단계를 수행한다.In step 208 and step 210, the control unit 100 checks whether the user's face detected in step 212 is located in the center of the image in front of the image, and proceeds to step 216 if it is located in the center of the image, otherwise proceeds to step 214. After changing the angle of the camera lens by changing the parameters of the camera 121 so that the user's face is located in the center of the image in front of the image proceeds to step 204. After that, the control unit 100 proceeds to step 216 and checks whether the user is located in the center of the FOV of the distance sensor 124. If the control unit 100 is located in the center of the FOV of the distance sensor 124, the controller 100 proceeds to step 220. After adjusting the parameters of the distance sensor 124 so that the user is located at the FOV center of the distance sensor 124, the angle and the position of the distance sensor 124 are changed, and the flow proceeds to step 204. The controller 100 proceeds from step 214 and step 218 to step 204 by using the camera and the distance sensor that are changed so that the user's face is located at the center of the image in front of the user and the user is located at the FOV center of the distance sensor 124. Steps 204 to 216 which are steps for face detection are performed again.

한편, 220단계에서 제어부(100)는 얼굴 검출부(122)를 통해서 검색한 얼굴의 위치를 기반으로 하여 사용자의 머리끝 위치를 검출한다. 상기와 같이 제어부(100)가 사용자의 머리끝 위치를 검출하는 과정은 도 3과 도 4를 참조하여 살펴보도록 한다.In operation 220, the controller 100 detects the position of the user's head based on the position of the face searched through the face detector 122. As described above, the process of detecting the position of the user's head by the controller 100 will be described with reference to FIGS. 3 and 4.

도 3과 도 4는 얼굴 검출을 통해서 확인된 얼굴 영역을 기반으로 하여 얼굴 영역의 윗 방향으로 머리카락 색이 검출되는 영역을 확인하여 머리끝 위치를 검출하는 과정을 설명하기 위한 예시도이다. 3 and 4 are exemplary views for explaining a process of detecting the position of the end of the head by checking the area where the hair color is detected in the upward direction of the face area based on the face area confirmed through the face detection.

먼저, 제어부(100)는 검출된 얼굴 영역 윗 방향의 미리 설정된 높이로부터 미리 할당된 크기만큼을 머리카락이 존재하는 영역으로 지정하고, 지정된 영역에서 정확한 머리카락 색을 검출한다.First, the controller 100 designates an area where the hair exists by a predetermined size from a preset height above the detected face area, and detects the correct hair color in the designated area.

더 구체적으로 살펴보면, 제어부(100)는 도 3(a)와 같이 얼굴 검출부(122)를 통해서 얼굴의 위치를 검색하여 얼굴 영역(300)을 확인하고, 확인된 얼굴 영역(300)의 크기를 n등분하여 하나의 영역을 머리카락을 탐색하기 위한 영역인 머리카락 후보 영역의 크기로 할당한다. 만약, 도 3과 같이 확인된 얼굴 영역(300)을 4등분하였다고 가정한다. 그러면, 제어부(100)는 확인된 얼굴 영역(300) 윗 방향의 미리 설정된 높이로부터 미리 할당된 크기만큼의 영역을 머리카락 후보 영역(301)으로 지정하여 해당 영역의 머리카락 색을 검출한다. 예를 들어 얼굴 검출부(122)를 통해서 검출된 얼굴 영역이 존재한다면 머리카락 후보 영역(301) 내에는 피부색 영역과 머리카락 색 영역만 존재하게 된다. 그러므로, 제어부(100)는 머리카락 후보 영역(301)에서 피부 영역을 제외한 머리카락 영역을 검출하기 위해 피부색을 모델링하여 머리카락 후보 영역(301)의 피부색을 판정한다. 이때, 피부색을 모델링하는 과정은 도 4를 참조하여 살펴보도록 한다. More specifically, the control unit 100 checks the face area 300 by searching for the position of the face through the face detection unit 122 as shown in FIG. 3 (a), and checks the size of the identified face area 300 as n. It divides equally and assigns one area to the size of the hair candidate area which is an area for searching hair. It is assumed that the face region 300 identified in FIG. 3 is divided into four parts. Then, the controller 100 detects the hair color of the corresponding area by designating an area having a predetermined size as the hair candidate area 301 from the preset height in the upward direction of the identified face area 300. For example, if the face area detected by the face detector 122 exists, only the skin color area and the hair color area exist in the hair candidate area 301. Therefore, the controller 100 determines the skin color of the hair candidate region 301 by modeling the skin color to detect the hair region except the skin region in the hair candidate region 301. In this case, the process of modeling the skin color will be described with reference to FIG. 4.

우선, 제어부(100)는 머리카락 후보 영역(301)을 주사하면서 red > green, red > blue의 조건을 만족하는 화소들에 대한 RGB(Red, Green, Blue) 평균

Figure 112007026830617-pat00048
,
Figure 112007026830617-pat00049
,
Figure 112007026830617-pat00050
을 산출한다. 그리고, 제어부(100)는 하기와 같은 <수학식5>를 이용하여 최종적으로 머리카락 후보 영역(301)의 피부색을 판정할 수 있다.First, the control unit 100 scans the hair candidate region 301 and averages RGB (Red, Green, Blue) for pixels satisfying the conditions of red> green, red> blue.
Figure 112007026830617-pat00048
,
Figure 112007026830617-pat00049
,
Figure 112007026830617-pat00050
To calculate. The controller 100 may finally determine the skin color of the hair candidate region 301 by using Equation 5 below.

Figure 112007026830617-pat00051
Figure 112007026830617-pat00052
Figure 112007026830617-pat00051
Figure 112007026830617-pat00052

상기 <수학식5>에서 Twidth는 미리 정해진 머리카락 후보 영역(301)의 너비이고, Theight는 머리카락 후보 영역(301)의 높이를 의미한다. 또한, 상기 <수학식5>의 상수 값들은 일반적인 사람의 피부색을 판정하기 위해 실험을 통해서 통계적으로 검출된 수학식이다.In Equation 5, Twidth is the width of the predetermined hair candidate region 301 and Theight means the height of the hair candidate region 301. In addition, the constant values of Equation 5 are equations statistically detected through experiments to determine the skin color of a general person.

여기서, 머리카락 후보 영역(301)을 이루는 화소들의 red 값이

Figure 112007026830617-pat00053
보다 작거나
Figure 112007026830617-pat00054
보다 크고, green 값이
Figure 112007026830617-pat00055
보다 작거나
Figure 112007026830617-pat00056
보다 크고, blue 값이
Figure 112007026830617-pat00057
보다 크거나
Figure 112007026830617-pat00058
보다 작은 조건을 만족하여 산출된 값이 2보다 크면 피부색으로 간주하여 '0' 값을 가지는 검은색으로 표시하고, 2보다 작은 값을 가지면 머리카락 색으로 간주하여 '255' 값을 가지는 흰 색으로 표시한다. 이와 같이 표시된 머리카락 후보 영역(301)은 도 4(a)와 같이 이진화된 영상으로 나타낼 수 있다.Here, the red values of the pixels constituting the hair candidate region 301 are
Figure 112007026830617-pat00053
Less than
Figure 112007026830617-pat00054
Greater than the green value
Figure 112007026830617-pat00055
Less than
Figure 112007026830617-pat00056
Greater than blue
Figure 112007026830617-pat00057
Greater than or equal to
Figure 112007026830617-pat00058
If the calculated value is less than 2, it is regarded as skin color and is displayed as black with '0' value, and if it is less than 2, it is regarded as hair color and displayed as white color with '255' value. do. The hair candidate region 301 displayed as described above may be represented as a binarized image as shown in FIG.

다음으로, 제어부(100)는 머리카락 후보 영역(301)의 윗 방향으로 동일한 크기만큼을 다른 머리카락 후보 영역(302)과 또 다른 머리카락 후보 영역(303)으로 지정한다. 그리고 제어부(100)는 지정된 머리카락 후부 영역들(310)이 머리카락이 존재하는 영역인지 또는, 배경 화면이 존재하는 영역인지 확인하기 위해 머리카락 색을 모델링하여 머리카락 후보 영역들(310)의 머리카락 색을 판정한다.Next, the controller 100 designates another hair candidate region 302 and another hair candidate region 303 by the same size in the upward direction of the hair candidate region 301. In addition, the controller 100 determines a hair color of the hair candidate areas 310 by modeling a hair color to determine whether the designated hair posterior areas 310 are areas in which hair exists or a background screen exists. do.

이때, 머리카락 색을 모델링하는 과정을 구체적으로 살펴보면, 제어부(100)는 상기와 같은 방법으로 이진화된 영역에서 머리카락으로 판정된 화소들에 대해서 다시 머리카락 색의 RGB 평균

Figure 112007026830617-pat00059
,
Figure 112007026830617-pat00060
,
Figure 112007026830617-pat00061
을 산출한다. 그리하여 제어부(100)는 도 3(b)와 같이 머리카락 후보 영역(301)을 다른 머리카락 후보 영역(302)와 또 다른 머리카락 후보 영역(303)으로 이동하면서 각각의 영역을 하기와 같은 <수학식6>를 이용하여 이진화된 영상으로 표시한다.At this time, looking at the process of modeling the hair color in detail, the control unit 100 again the RGB average of the hair color for the pixels determined as the hair in the binarized region as described above
Figure 112007026830617-pat00059
,
Figure 112007026830617-pat00060
,
Figure 112007026830617-pat00061
To calculate. Thus, the controller 100 moves each hair candidate region 301 to another hair candidate region 302 and another hair candidate region 303 as shown in FIG. 3 (b). Use> to display a binary image.

Figure 112007026830617-pat00062
Figure 112007026830617-pat00063
Figure 112007026830617-pat00062
Figure 112007026830617-pat00063

상기 <수학식6>에서 Twidth는 상기 <수학식5>의 Twidth와 같이 미리 정해진 머리카락 후보 영역(301)의 너비이고, Theight는 상기 <수학식5>의 Theight와 같이 머리카락 후보 영역(301)의 높이를 의미한다. 또한, 상기 <수학식6>의 상수 값들은 일반적인 사람의 머리카락 색을 판정하기 위해 실험을 통해서 통계적으로 검출된 수학식이다.In Equation (6), Twidth is a width of a predetermined hair candidate region 301 such as Twidth of Equation 5, and Theight is equal to Theight of Equation (5). Means height. In addition, the constant values of Equation 6 are equations statistically detected through experiments to determine the color of a human hair.

여기서, 머리카락 후보 영역(301)을 이루는 화소들의 red 값이

Figure 112007026830617-pat00064
보다 작거나
Figure 112007026830617-pat00065
보다 크고, green 값이
Figure 112007026830617-pat00066
보다 작거나
Figure 112007026830617-pat00067
보다 크고, blue 값이
Figure 112007026830617-pat00068
보다 크거나
Figure 112007026830617-pat00069
보다 작은 조건을 만족하여 계산한 값이 2보다 크면 머리카락 색으로 간주하여 '0' 값을 가지는 검은색으로 표시하고, 2보다 작은 값을 가지면 배경색으로 간주하여 '255' 값을 가지는 흰색으로 표시한다. 이와 같이 표시된 머리카락 후보 영역(402)은 도 4(b)와 같이 이진화된 영상으로 나타낼 수 있다.Here, the red values of the pixels constituting the hair candidate region 301 are
Figure 112007026830617-pat00064
Less than
Figure 112007026830617-pat00065
Greater than the green value
Figure 112007026830617-pat00066
Less than
Figure 112007026830617-pat00067
Greater than blue
Figure 112007026830617-pat00068
Greater than or equal to
Figure 112007026830617-pat00069
If the calculated value is smaller than 2, it is regarded as hair color and is displayed as black with '0' value, and if it is smaller than 2, it is regarded as background color and is displayed as white with '255' value. . The hair candidate region 402 displayed as described above may be represented as a binarized image as shown in FIG.

상기와 같은 방법으로 이진화된 머리카락 후보 영역들(310)에 대해서 수평 방향으로 히스토그램을 생성하면 도 6과 같이 나타낼 수 있다. 도 6은 상기와 같은 머리카락 후보 영역들(310)을 수직 방향으로 이동하면서 수평 방향에 대해 검은색으로 표시된 화소의 개수를 나타낸 히스토그램이다.When the histogram is generated in the horizontal direction with respect to the binarized hair candidate regions 310 as described above, it may be represented as shown in FIG. 6. FIG. 6 is a histogram showing the number of pixels displayed in black with respect to the horizontal direction while moving the hair candidate areas 310 in the vertical direction.

먼저, 제어부(100)는 머리카락 후보 영역들(310)에서 검은색을 가지는 화소들 중 가장 많은 개수를 가지는 피크(Peak)의 위치를 검출한다. 이후, 제어부(100)는 피크의 위치를 기준으로 하여 위쪽 방향으로 탐색하면서 검은색을 가지는 화소들의 개수를 확인하고, 검은색을 가지는 화소의 개수가 일정한 기준치(Th) 이하로 작아지는 위치를 찾는다. 이때, 일정한 기준치(Th) 이하로 작아지는 위치가 머리끝의 위치가 된다. 이후, 제어부(100)는 영상의 중심에서부터 머리끝 위치까지 영상에서의 화소 거리를 측정하여 키 계산부(125)로 출력한다.First, the controller 100 detects a position of a peak having the largest number of black pixels in the hair candidate regions 310. Subsequently, the controller 100 searches the upward direction based on the position of the peak, checks the number of pixels having black color, and finds a position where the number of pixels having black value becomes smaller than a predetermined reference value Th. . At this time, the position which becomes smaller than a predetermined reference value Th becomes a position of a head end. Thereafter, the controller 100 measures the pixel distance in the image from the center of the image to the head position and outputs the measured distance to the key calculator 125.

한편, 220단계에서 상기와 같이 머리끝 위치를 검출한 제어부(100)는 거리 센서(124)를 통해서 사용자까지의 거리를 측정하여 키 계산부(125)로 출력한다. 이후, 224단계로 진행한 제어부(100)는 메모리 부(130)를 통해서 입력된 카메라의 FOV 및 해상도, 카메라의 틸트 각도, 카메라의 FOV 각도를 이용하여, 키 계산부(125)를 통해서 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점에서부터 사용자 머리끝까지의 실제 높이를 산출한다. 그리고, 제어부(100)는 키 계산부(125)를 통해서 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이를 산출한다. 이후, 제어부(100)는 키 계산부(125)를 통해서 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점에서부터 사용자 머리끝까지의 거리와 카메라의 높이에서부터 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 높이, 지면에서부터 카메라까지의 높이를 모두 합산하여 사용자의 키를 산출한다. 이때, 제어부(100)가 키 계산부(125)를 통해서 사용자의 키를 산출하는 과정은 상기 제어부(100)를 설명하면서 함께 기재된 바와 같이 산출될 수 있다.On the other hand, in step 220, the control unit 100 that detects the position of the head as described above measures the distance to the user through the distance sensor 124 and outputs to the key calculation unit 125. Subsequently, the control unit 100 proceeds to step 224 by using the FOV and resolution of the camera input through the memory unit 130, the tilt angle of the camera, and the FOV angle of the camera. The actual height from the point where the line extending from the FOV center is bound to the user to the tip of the user's head is calculated. The controller 100 calculates the height from the height of the camera through the key calculator 125 to the point where the line extending from the FOV center of the camera is formed to the user. Subsequently, the control unit 100 uses the key calculating unit 125 to extend the line extending from the FOV center of the camera to the user from the point from which the line extending from the FOV center of the camera is formed to the user to the end of the user's head and the height of the camera. A user's height is calculated by summing up the height to the point of formation and the height from the ground to the camera. In this case, the process of the controller 100 calculating the user's key through the key calculator 125 may be calculated as described together with the controller 100.

이후, 224단계에서 사용자의 키를 산출한 제어부(100)는 산출된 사용자의 키를 통합 사용자 인증부(110)로 전송하고, 사용자의 키를 산출하기 위한 과정을 종료한다.In operation 224, the control unit 100 that calculates the user's key transmits the calculated user's key to the integrated user authentication unit 110, and ends the process for calculating the user's key.

상술한 바와 같이 본 발명은 거리 센서와 카메라를 구비하는 사용자 인증 장치에서 사용자의 키를 산출하고, 산출된 사용자의 키를 사용자를 인식하는 정보로 이용함으로써 종래의 사용자 인증 장치에서 사용자 인증 시 입력되는 바이오 정보들을 정확하게 인식하기 어려운 경우 보조적인 사용자 인식 정보로 이용하여 정확하게 사용자를 인식할 수 있는 정보로 사용될 수 있다. 또한, 인증하고자 하는 사용자의 수가 10명 미만일 경우에는 다른 종류의 사용자 인식 정보들이 없이 사용자의 키만으로 사용자를 인증할 수 있는 이점이 있다.As described above, the present invention calculates a user's key in a user authentication device including a distance sensor and a camera, and uses the calculated user's key as information for recognizing the user. If bio information is difficult to accurately recognize, the bio information may be used as supplementary user recognition information and used as information for accurately recognizing the user. In addition, when the number of users to be authenticated is less than 10, there is an advantage that the user can be authenticated using only the user's key without any other kind of user recognition information.

Claims (22)

카메라를 구비하고, 사용자의 키를 이용하여 사용자를 인증하기 위한 장치에 있어서,An apparatus comprising a camera, for authenticating a user using a user's key, 상기 카메라를 통해 촬영된 영상에서 사용자 얼굴 영역을 검출하고, 상기 얼굴 영역의 윗 방향에서 머리끝을 검출하여 상기 카메라의 FOV(Field Of View) 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 제1 높이를 산출하는 얼굴 검출부와,The user's face area is detected from the image taken by the camera, and the head end is detected from the upper direction of the face area so that a line extending from the center of the field of view (FOV) of the camera is formed to the user to the tip of the user's head. A face detector for calculating a first height of 상기 카메라와 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점 사이의 제1 거리를 측정하는 거리 센서와,A distance sensor for measuring a first distance between the camera and a point where a line extending from the FOV center of the camera forms a user; 지면에서부터 상기 카메라까지의 제3 높이를 저장하는 메모리부와,A memory unit for storing a third height from the ground to the camera; 상기 카메라가 상기 사용자 얼굴을 검출하기 위해 움직인 각도와 상기 제1 거리에 대해 삼각함수를 이용하여 상기 카메라의 높이에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제2 높이를 산출하고, 상기 제1 높이와 제2 높이, 제3 높이를 합산하여 사용자의 키를 산출하는 키 계산부와,A second height from the height of the camera to the point where a line extending from the center of the FOV of the camera forms to the user using a trigonometric function with respect to the angle the camera moves to detect the user's face and the first distance. A key calculating unit configured to calculate a height of the user by adding the first height, the second height, and the third height; 사용자 인증 요구에 따라 상기 얼굴 검출부를 제어하여 상기 제1 높이를 산출하고, 상기 키 계산부를 통해서 제1 거리를 산출하여 사용자의 키를 산출하도록 제어하는 제어부를 구비함을 특징으로 하는 사용자를 인증하기 위한 장치.And a control unit configured to control the face detection unit to calculate the first height according to a user authentication request, and calculate a first distance through the key calculator to calculate a user's key. Device for. 제 1항에 있어서, 상기 얼굴 검출부는, The method of claim 1, wherein the face detection unit, 상기 검출된 사용자 얼굴 영역을 미리 설정된 크기로 등분하여 상기 등분된 사용자 얼굴 영역 중 하나의 영역 크기를 머리카락 후보 영역의 크기로 설정한 후 상기 검출된 사용자 얼굴 영역의 윗 방향으로 미리 설정된 높이만큼 떨어진 위치부터 머리카락 후보 영역을 지정하고, 상기 지정된 머리카락 후보 영역에서 머리카락 색을 검출한 후 상기 검출된 머리카락 색의 비율이 미리 설정된 기준치보다 작으면 그 영역에서 머리카락 색의 비율이 상기 기준치보다 작아지는 위치를 머리끝 위치로 검출하는 머리끝 위치 검출 동작을 수행하는 것을 특징으로 하는 사용자를 인증하기 위한 장치.Dividing the detected user face area into a predetermined size to set the size of one of the divided user face areas to a size of a hair candidate area, and then a position separated by a predetermined height upward of the detected user face area Designates a hair candidate region, and detects the hair color in the designated hair candidate region, and if the ratio of the detected hair color is smaller than a predetermined reference value, the position where the hair color ratio is smaller than the reference value in the region. A device for authenticating a user, characterized in that for performing a head position detection operation for detecting to an end position. 제 2항에 있어서,The method of claim 2, 상기 지정된 머리카락 후보 영역에서 상기 검출된 머리카락 색의 비율이 미리 설정된 기준치보다 크면 상기 지정된 머리카락 후보 영역의 윗 방향으로 다른 머리카락 후보 영역을 하나 더 지정하여 상기 머리끝 위치 검출 동작을 수행하고, 만약 머리끝이 검출되지 않으면 계속하여 검출 수행한 머리카락 후보 영역 윗 방향으로 또 다른 머리카락 후보 영역들을 지정한 후 상기 머리끝 위치 검출 동작을 수행하는 것을 특징으로 하는 사용자를 인증하기 위한 장치.If the ratio of the detected hair color in the designated hair candidate region is larger than a preset reference value, another hair candidate region is designated in the upward direction of the designated hair candidate region to perform the head end position detection operation. And if it is not detected, designate another hair candidate region in a direction upward of the detected hair candidate region, and perform the end position detection operation. 제 1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 얼굴 검출부를 통해서 상기 카메라로부터 입력된 영상으로부터 사용자의 얼굴을 검출하여 미리 설정된 시간 내에 얼굴이 검출되면 상기 검출된 얼굴의 개수가 몇 개인지 검사한 후 상기 검사 결과 1개의 얼굴이 검출되면 상기 검출된 얼굴이 상기 영상의 중앙에 위치하는지 검사하고, 동시에 상기 사용자가 거리 센서의 FOV 중앙에 위치하는지 검사하여 상기 검사 결과, 상기 검출된 얼굴이 상기 영상의 중앙에 위치하고, 상기 사용자가 거리 센서의 FOV 중앙에 위치하면 상기 얼굴의 위치를 이용하여 상기 영상의 중심에서부터 상기 영상에서 사용자 머리끝까지의 거리를 산출하도록 제어하는 것을 더 포함함을 특징으로 하는 사용자를 인증하기 위한 장치.When the face is detected within a preset time by detecting the user's face from the image input from the camera through the face detection unit, the number of detected faces is inspected, and when the face is detected, the detection is performed. The detected face is located at the center of the image, and at the same time, the user is located at the center of the FOV of the distance sensor. As a result of the inspection, the detected face is located at the center of the image, and the user is at the FOV of the distance sensor. The apparatus for authenticating a user according to claim 1, further comprising controlling to calculate a distance from the center of the image to the end of the user's head using the position of the face. 제 4항에 있어서, 상기 제어부는,The method of claim 4, wherein the control unit, 상기 얼굴 검출부를 통해서 상기 미리 설정된 시간 내에 2개 이상의 얼굴 개수가 검출되면 상기 검출된 얼굴들 중 가장 큰 사이즈의 얼굴을 선택하는 것을 더 포함함을 특징으로 하는 사용자를 인증하기 위한 장치.And selecting a face having the largest size from among the detected faces when the number of two or more faces is detected within the preset time through the face detector. 제 1항에 있어서, 상기 카메라의 파라미터와 상기 거리 센서의 파라미터를 조정하는 파라미터 조정부를 더 구비하고,According to claim 1, further comprising a parameter adjusting unit for adjusting the parameters of the camera and the parameters of the distance sensor, 상기 제어부는 상기 얼굴 검출부에서 검출된 얼굴이 상기 영상의 중심에 위치하지 않으면 상기 파라미터 조정부를 통해서 상기 검출된 얼굴이 상기 영상의 중심에 위치하도록 상기 카메라의 파라미터를 변경하여 상기 카메라의 렌즈 각도를 변경한 후 상기 카메라의 변경된 렌즈 각도를 상기 메모리부에 저장하는 것을 더 포함함을 특징으로 하는 사용자를 인증하기 위한 장치.The controller changes the lens angle of the camera by changing a parameter of the camera such that the detected face is located at the center of the image if the face detected by the face detector is not located at the center of the image. And afterwards, storing the changed lens angle of the camera in the memory unit. 제 6항에 있어서, 상기 제어부는,The method of claim 6, wherein the control unit, 상기 얼굴 검출부에서 검출된 얼굴이 상기 영상의 중앙에 위치하고, 상기 사용자가 거리 센서의 FOV 중앙에 위치하지 않으면 상기 파라미터 조정부를 통해서 상기 사용자가 상기 거리 센서의 FOV 중앙에 위치하도록 상기 거리 센서의 파라미터를 조정하여 상기 거리 센서의 각도와 위치를 변경하도록 제어하는 것을 더 포함함을 특징으로 하는 사용자를 인증하기 위한 장치.If the face detected by the face detector is located at the center of the image and the user is not located at the FOV center of the distance sensor, the parameter adjusting unit may adjust the parameters of the distance sensor so that the user is located at the FOV center of the distance sensor. And controlling to change the angle and position of the distance sensor by adjusting. 제 1항에 있어서, 상기 사용자의 키는 하기와 같은 <수학식1>과 같이 산출되는 것을 특징으로 하는 사용자를 인증하기 위한 장치.The apparatus of claim 1, wherein the user's key is calculated as in Equation 1 below. [수학식1][Equation 1]
Figure 112007026830617-pat00070
Figure 112007026830617-pat00070
Figure 112007026830617-pat00071
은 사용자의 키이고,
Figure 112007026830617-pat00071
Is your key,
Figure 112007026830617-pat00072
는 제1 높이이고,
Figure 112007026830617-pat00072
Is the first height,
Figure 112007026830617-pat00073
는 제2 높이이고,
Figure 112007026830617-pat00073
Is the second height,
Figure 112007026830617-pat00074
는 제3 높이이다.
Figure 112007026830617-pat00074
Is the third height.
제 8항에 있어서, 상기 제1 높이는 하기와 같은 <수학식2>과 같이 산출될 수 있는 것을 특징으로 하는 사용자를 인증하기 위한 장치.The apparatus of claim 8, wherein the first height may be calculated as in Equation 2 below. [수학식2][Equation 2]
Figure 112008041976638-pat00075
Figure 112008041976638-pat00075
Figure 112008041976638-pat00144
Figure 112008041976638-pat00144
Figure 112008041976638-pat00077
Figure 112008041976638-pat00077
Figure 112008041976638-pat00078
Figure 112008041976638-pat00078
Figure 112008041976638-pat00079
Figure 112008041976638-pat00079
Figure 112008041976638-pat00080
Figure 112008041976638-pat00080
Figure 112008041976638-pat00081
Figure 112008041976638-pat00081
Figure 112008041976638-pat00082
는 제1 높이이고,
Figure 112008041976638-pat00082
Is the first height,
Figure 112008041976638-pat00083
는 카메라 FOV의 수직 각도이고,
Figure 112008041976638-pat00083
Is the vertical angle of the camera FOV,
Figure 112008041976638-pat00084
는 카메라 렌즈가 사용자를 촬영하기 위해서 움직인 각도이고,
Figure 112008041976638-pat00084
Is the angle the camera lens moves to capture you,
Figure 112008041976638-pat00085
는 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점과 사용자의 머리끝 사이의 각도이고,
Figure 112008041976638-pat00085
Is the angle between the point at which the line extending from the camera's FOV center falls to the user and the user's head end,
Figure 112008041976638-pat00086
는 제1 거리이고,
Figure 112008041976638-pat00086
Is the first distance,
Figure 112008041976638-pat00087
는 영상의 중심점부터 영상에서 사용자 머리끝까지의 거리이고,
Figure 112008041976638-pat00087
Is the distance from the center of the image to the user's head in the image,
Figure 112008041976638-pat00088
는 영상의 중심점에서부터 영상 끝점까지의 거리이고.
Figure 112008041976638-pat00088
Is the distance from the center of the image to the end of the image.
Figure 112008041976638-pat00089
Figure 112008041976638-pat00090
를 빗변으로 가지는 삼각형에서
Figure 112008041976638-pat00091
를 끼인각으로 가지는 변이다.
Figure 112008041976638-pat00089
Is
Figure 112008041976638-pat00090
In a triangle with an hypotenuse
Figure 112008041976638-pat00091
Is the side that has the angle included.
제 9항에 있어서, 상기
Figure 112007026830617-pat00092
는,
The method of claim 9, wherein
Figure 112007026830617-pat00092
Is,
상기 거리 센서와 상기 카메라가 같은 각도로 움직이지 않으면 하기와 같은 <수학식3>과 같이 산출될 수 있는 것을 특징으로 하는 사용자를 인증하기 위한 장치.If the distance sensor and the camera does not move at the same angle can be calculated as shown in Equation (3) as follows. [수학식3][Equation 3]
Figure 112007026830617-pat00093
Figure 112007026830617-pat00093
Figure 112007026830617-pat00094
Figure 112007026830617-pat00094
Figure 112007026830617-pat00095
는 거리 센서가 상하의 움직임이 없이 지면과 평행한 방향으로 사용자까지의 측정된 거리이고,
Figure 112007026830617-pat00095
Is the distance measured by the distance sensor to the user in a direction parallel to the ground without moving up and down,
Figure 112007026830617-pat00096
는 거리 센서가 상하로 움직인 각도이고,
Figure 112007026830617-pat00096
Is the angle the distance sensor is moved up and down,
Figure 112007026830617-pat00097
Figure 112007026830617-pat00098
에서 측정된 거리이다.
Figure 112007026830617-pat00097
Is
Figure 112007026830617-pat00098
The distance measured at.
제 8항에 있어서, 상기 제2 높이는 하기와 같은 <수학식4>와 같이 산출되는 것을 특징으로 하는 사용자를 인증하기 위한 장치.The apparatus of claim 8, wherein the second height is calculated as in Equation 4 as follows. [수학식4][Equation 4]
Figure 112007026830617-pat00099
Figure 112007026830617-pat00099
Figure 112007026830617-pat00100
Figure 112007026830617-pat00100
Figure 112007026830617-pat00101
는 제2 높이이고,
Figure 112007026830617-pat00101
Is the second height,
Figure 112007026830617-pat00102
는 카메라 렌즈가 사용자를 촬영하기 위해서 움직인 각도이고,
Figure 112007026830617-pat00102
Is the angle the camera lens moves to capture you,
Figure 112007026830617-pat00103
는 제1 거리이다.
Figure 112007026830617-pat00103
Is the first distance.
사용자의 키를 이용하여 사용자를 인증하기 위한 방법에 있어서,In the method for authenticating a user using the user's key, 카메라로부터 사용자의 얼굴 이미지를 포함하는 영상이 입력되는 과정과,Inputting an image including a face image of a user from a camera; 상기 입력된 영상에서 사용자 얼굴 영역을 검출하고, 상기 얼굴 영역의 윗 방향에서 머리끝을 검출하여 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 제1 높이를 산출하는 과정과,Detecting a face region of the user from the input image, and detecting a head end in an upward direction of the face region to calculate a first height from a point where a line extending from the FOV center of the camera forms to the user to the end of the user's head and, 상기 사용자를 촬영하기 위해서 움직인 상기 카메라의 렌즈 각도와 상기 카메라에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제1 거리를 이용하여 상기 카메라의 높이에서부터 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점까지의 제2 높이를 산출하는 과정과,From the height of the camera to the FOV center of the camera using the lens angle of the camera moved to photograph the user and a first distance from the camera to the point where a line extending from the FOV center of the camera is formed to the user Calculating a second height to the point where the extended line is bound to the user; 상기 산출된 제1 높이와 상기 산출된 제2 높이, 미리 저장된 지면으로부터 상기 카메라까지의 제3 높이를 모두 합산하여 사용자의 키를 검출하는 과정을 구비함을 특징으로 하는 사용자를 인증하기 위한 방법.And summing the calculated first height, the calculated second height, and a third height from a previously stored ground to the camera to detect a user's height. 제 12항에 있어서, 상기 제1 높이를 산출하는 과정은,The method of claim 12, wherein the calculating of the first height comprises: 상기 검출된 사용자 얼굴 영역을 미리 설정된 크기로 등분하여 상기 등분된 사용자 얼굴 영역 중 하나의 영역 크기를 머리카락 후보 영역의 크기로 설정하는 과정과,Dividing the detected user face area into a preset size to set a size of one of the divided user face areas to a size of a hair candidate area; 상기 검출된 사용자 얼굴 영역의 윗 방향으로 미리 설정된 높이만큼 떨어진 위치부터 머리카락 후보 영역을 지정하고, 상기 지정된 머리카락 후보 영역에서 머리카락 색을 검출한 후 상기 검출된 머리카락 색의 비율이 미리 설정된 기준치보다 작으면 그 영역에서 머리카락 색의 비율이 상기 기준치보다 작아지는 위치를 머리끝 위치로 검출하는 머리끝 위치 검출 동작을 수행하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.Specifying a hair candidate region from a position separated by a predetermined height in the upward direction of the detected user face region, and after detecting the hair color in the designated hair candidate region, if the ratio of the detected hair color is smaller than a preset reference value And performing a head position detection operation for detecting a position where the ratio of hair color in the area is smaller than the reference value as a head position. 제 13항에 있어서, 상기 머리끝 위치 검출 동작을 수행하는 과정은, The method of claim 13, wherein the performing of the head position detection operation comprises: 상기 지정된 머리카락 후보 영역에서 상기 검출된 머리카락 색의 비율이 미리 설정된 기준치보다 크면 상기 지정된 머리카락 후보 영역의 윗 방향으로 다른 머리카락 후보 영역을 하나 더 지정하여 상기 머리끝 위치 검출 동작을 수행하고, 만약 머리끝이 검출되지 않으면 계속하여 검출 수행한 머리카락 후보 영역 윗 방향으로 또 다른 머리카락 후보 영역들을 지정한 후 상기 머리끝 위치 검출 동작을 수행하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.If the ratio of the detected hair color in the designated hair candidate region is larger than a preset reference value, another hair candidate region is designated in the upward direction of the designated hair candidate region to perform the head end position detection operation. And if it is not detected, further designating another hair candidate region in a direction upward of the detected hair candidate region, and then performing the head position detection operation. 제 12항에 있어서, 사용자의 얼굴 이미지를 포함하는 영상이 입력되면,The method of claim 12, wherein when an image including a face image of a user is input, 상기 입력된 영상에서 얼굴 영역을 검출하여 미리 설정된 시간 내에 얼굴 영역이 검출되면 상기 검출된 얼굴 영역의 개수가 몇 개인지 검사하는 과정과,Detecting a face region from the input image and inspecting the number of the detected face regions if a face region is detected within a preset time; 상기 미리 설정된 시간 내에 1개의 얼굴 영역이 검출되면 상기 검출된 얼굴영역이 상기 영상의 중앙에 위치하는지 검사하고, 상기 사용자가 거리 센서의 FOV 중앙에 위치하는지 검사하는 과정과,If one face area is detected within the preset time, inspecting whether the detected face area is located at the center of the image, and checking whether the user is located at the FOV center of the distance sensor; 상기 검출된 얼굴 영역이 상기 영상의 중앙에 위치하고, 상기 사용자가 상기 거리 센서의 FOV 중앙에 위치하면 상기 얼굴 영역을 이용하여 상기 영상의 중심점에서 머리끝 위치까지의 거리를 산출하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.If the detected face area is located at the center of the image and the user is located at the FOV center of the distance sensor, calculating a distance from the center point of the image to the end of the head using the face area; And a method for authenticating a user. 제 15항에 있어서, The method of claim 15, 상기 미리 설정된 시간 내에 상기 검출된 얼굴 영역의 개수가 2개 이상이 검출되면 상기 검출된 얼굴 영역들 중 가장 큰 사이즈의 얼굴 영역을 선택하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.Selecting a face area having the largest size among the detected face areas when two or more of the detected face areas are detected within the preset time period. . 제 15항에 있어서,The method of claim 15, 상기 검출된 얼굴 영역이 상기 영상의 중앙에 위치하지 않으면, 상기 검출된 얼굴 영역이 상기 영상의 중심에 위치하도록 상기 카메라의 파라미터를 조정하여 상기 카메라의 렌즈 각도를 변경하는 과정과,Changing the lens angle of the camera by adjusting a parameter of the camera so that the detected face area is located at the center of the image if the detected face area is not located at the center of the image; 상기 카메라를 통해서 다시 사용자의 얼굴 이미지를 포함하는 영상을 입력받아 얼굴 영역을 검출하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.And detecting a face region by receiving an image including the face image of the user again through the camera. 제 15항에 있어서, The method of claim 15, 상기 검출된 얼굴 영역이 상기 영상의 중앙에 위치하고, 상기 사용자가 거리 센서의 FOV 중앙에 위치하지 않으면 상기 사용자가 거리 센서의 FOV 중앙에 위치하도록 상기 거리 센서의 파라미터를 조정하여 상기 거리 센서의 각도와 위치를 변경하는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.If the detected face area is located at the center of the image, and the user is not located at the FOV center of the distance sensor, the parameter of the distance sensor is adjusted so that the user is located at the FOV center of the distance sensor. Further comprising changing the location. 제 12항에 있어서, 상기 사용자의 키를 산출하는 과정은 하기와 같은 <수학식1>과 같이 산출되는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.The method of claim 12, wherein the calculating of the key of the user further comprises calculating the following Equation 1. [수학식1][Equation 1]
Figure 112007026830617-pat00104
Figure 112007026830617-pat00104
Figure 112007026830617-pat00105
은 사용자의 키이고,
Figure 112007026830617-pat00105
Is your key,
Figure 112007026830617-pat00106
는 제1 높이이고,
Figure 112007026830617-pat00106
Is the first height,
Figure 112007026830617-pat00107
는 제2 높이이고,
Figure 112007026830617-pat00107
Is the second height,
Figure 112007026830617-pat00108
는 제3 높이이다.
Figure 112007026830617-pat00108
Is the third height.
제 19항에 있어서, 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점부터 사용자 머리끝까지의 거리를 산출하는 과정은 하기와 같은 <수학식2>과 같이 산출되는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.20. The method of claim 19, wherein the process of calculating the distance from the point where the line extending from the FOV center of the camera is formed to the user to the end of the user's head further includes a process calculated as in Equation 2 below. For authenticating users. [수학식2][Equation 2]
Figure 112008041976638-pat00109
Figure 112008041976638-pat00109
Figure 112008041976638-pat00145
Figure 112008041976638-pat00145
Figure 112008041976638-pat00111
Figure 112008041976638-pat00111
Figure 112008041976638-pat00112
}
Figure 112008041976638-pat00112
}
Figure 112008041976638-pat00113
Figure 112008041976638-pat00113
Figure 112008041976638-pat00114
Figure 112008041976638-pat00114
Figure 112008041976638-pat00115
Figure 112008041976638-pat00115
Figure 112008041976638-pat00116
는 제1 높이이고,
Figure 112008041976638-pat00116
Is the first height,
Figure 112008041976638-pat00117
는 카메라의 FOV이고,
Figure 112008041976638-pat00117
Is the camera's FOV,
Figure 112008041976638-pat00118
는 카메라의 렌즈가 사용자를 촬영하기 위해 움직인 각도이고,
Figure 112008041976638-pat00118
Is the angle the camera's lens moves to capture you,
Figure 112008041976638-pat00119
는 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점과 사용자의 머리끝 사이의 각도이고,
Figure 112008041976638-pat00119
Is the angle between the point at which the line extending from the camera's FOV center falls to the user and the user's head end,
Figure 112008041976638-pat00120
는 제1 거리이고,
Figure 112008041976638-pat00120
Is the first distance,
Figure 112008041976638-pat00121
는 영상의 중심점부터 영상에서 사용자 머리끝까지의 거리이고,
Figure 112008041976638-pat00121
Is the distance from the center of the image to the user's head in the image,
Figure 112008041976638-pat00122
는 영상의 중심점에서부터 영상 끝점까지의 거리이고,
Figure 112008041976638-pat00122
Is the distance from the center of the image to the end of the image,
Figure 112008041976638-pat00123
Figure 112008041976638-pat00124
를 빗변으로 가지는 삼각형에서
Figure 112008041976638-pat00125
를 끼인각으로 가지는 변이다.
Figure 112008041976638-pat00123
Is
Figure 112008041976638-pat00124
In a triangle with an hypotenuse
Figure 112008041976638-pat00125
Is the side that has the angle included.
제 20항에 있어서, 상기
Figure 112007026830617-pat00126
를 산출하는 과정은 하기와 같은 <수학식3>과 같이 산출되는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.
The method of claim 20, wherein
Figure 112007026830617-pat00126
The process for calculating a method for authenticating a user, characterized in that further comprising a process calculated as shown in Equation (3).
[수학식3][Equation 3]
Figure 112007026830617-pat00127
Figure 112007026830617-pat00127
Figure 112007026830617-pat00128
Figure 112007026830617-pat00128
Figure 112007026830617-pat00129
는 거리 센서가 상하의 움직임이 없이 지면과 평행한 방향으로 사용자까지의 측정된 거리이고,
Figure 112007026830617-pat00129
Is the distance measured by the distance sensor to the user in a direction parallel to the ground without moving up and down,
Figure 112007026830617-pat00130
는 거리 센서가 상하로 움직인 각도이고,
Figure 112007026830617-pat00130
Is the angle the distance sensor is moved up and down,
Figure 112007026830617-pat00131
Figure 112007026830617-pat00132
에서 측정된 거리이다.
Figure 112007026830617-pat00131
Is
Figure 112007026830617-pat00132
The distance measured at.
제 19항에 있어서, 상기 카메라의 FOV 중심에서 연장된 선이 사용자에게 맺히는 점에서부터 카메라의 높이까지의 거리를 산출하는 과정은 하기와 같은 <수학 식4>와 같이 산출되는 과정을 더 포함하는 것을 특징으로 하는 사용자를 인증하기 위한 방법.20. The method of claim 19, wherein the process of calculating the distance from the point where the line extending from the FOV center of the camera forms to the user to the height of the camera further includes a process calculated as in Equation 4 below. Characterized in that the method for authenticating the user. [수학식4][Equation 4]
Figure 112007026830617-pat00133
Figure 112007026830617-pat00133
Figure 112007026830617-pat00134
Figure 112007026830617-pat00134
Figure 112007026830617-pat00135
는 제2 높이이고,
Figure 112007026830617-pat00135
Is the second height,
Figure 112007026830617-pat00136
는 카메라 렌즈가 사용자를 촬영하기 위해서 움직인 각도이고,
Figure 112007026830617-pat00136
Is the angle the camera lens moves to capture you,
Figure 112007026830617-pat00137
는 제1 거리이다.
Figure 112007026830617-pat00137
Is the first distance.
KR1020070034373A 2007-04-06 2007-04-06 Apparatus and method for authenticating user using user's height KR100871211B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070034373A KR100871211B1 (en) 2007-04-06 2007-04-06 Apparatus and method for authenticating user using user's height

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070034373A KR100871211B1 (en) 2007-04-06 2007-04-06 Apparatus and method for authenticating user using user's height

Publications (2)

Publication Number Publication Date
KR20080090916A KR20080090916A (en) 2008-10-09
KR100871211B1 true KR100871211B1 (en) 2008-12-01

Family

ID=40151940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070034373A KR100871211B1 (en) 2007-04-06 2007-04-06 Apparatus and method for authenticating user using user's height

Country Status (1)

Country Link
KR (1) KR100871211B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101500651B1 (en) * 2012-10-10 2015-03-09 주식회사 케이티 Method for measuring height by image and movable robot apparatus
KR101684565B1 (en) * 2014-05-27 2016-12-08 인터테크(주) Terminal, control method thereof and computer readable medium having computer program recorded thereof
KR200487654Y1 (en) * 2016-02-22 2018-10-18 주식회사 티아로테크 Height detection device using a camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308303A (en) 2002-04-18 2003-10-31 Toshiba Corp Person authentication system, and passing control system
US20040088584A1 (en) 2002-10-21 2004-05-06 Yair Shachar Method and system for providing security data to security stations
KR20060063621A (en) * 2004-12-07 2006-06-12 한국전자통신연구원 User authentificatno system and method thereof
JP2006163683A (en) 2004-12-06 2006-06-22 Matsushita Electric Ind Co Ltd Eye image imaging device and authentication device using it

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308303A (en) 2002-04-18 2003-10-31 Toshiba Corp Person authentication system, and passing control system
US20040088584A1 (en) 2002-10-21 2004-05-06 Yair Shachar Method and system for providing security data to security stations
JP2006163683A (en) 2004-12-06 2006-06-22 Matsushita Electric Ind Co Ltd Eye image imaging device and authentication device using it
KR20060063621A (en) * 2004-12-07 2006-06-12 한국전자통신연구원 User authentificatno system and method thereof

Also Published As

Publication number Publication date
KR20080090916A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
CN107949863B (en) Authentication device and authentication method using biometric information
CN107438854B (en) System and method for performing fingerprint-based user authentication using images captured by a mobile device
US8463002B2 (en) Rolled fingerprint acquisition apparatus and method for automatically detecting start and end of registration and synthesis
US9058519B2 (en) System and method for passive live person verification using real-time eye reflection
EP2866170A2 (en) Image processing device and image processing method
KR101809543B1 (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
EP1134691A2 (en) Image processing apparatus and method for extracting feature of object
KR20180017056A (en) Liveiness detection method and device, and identity authentication method and device
US11620860B2 (en) Spoofing detection apparatus, spoofing detection method, and computer-readable recording medium
WO2019163065A1 (en) Spoofing detector, spoofing detection method, and computer-readable recording medium
KR100871211B1 (en) Apparatus and method for authenticating user using user&#39;s height
GB2598016A (en) Biometric authentication apparatus and biometric authentication method
JP2009015518A (en) Eye image photographing device and authentication device
JP5254897B2 (en) Hand image recognition device
KR101961266B1 (en) Gaze Tracking Apparatus and Method
KR101919138B1 (en) Method and apparatus for remote multi biometric
JP2004038531A (en) Method and device for detecting position of object
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof
KR20230094062A (en) Face recognition system and method for controlling the same
CN111699493B (en) Anti-spoof face ID sensing based on retroreflection
KR100593606B1 (en) Object Recognition Apparatus by Pattern Image Projection and Applied Image Processing Method
JP7207506B2 (en) Spoofing detection device, spoofing detection method, and program
US11741748B2 (en) Passive image depth sensing for object verification based on chromatic differentiation
JP7272418B2 (en) Spoofing detection device, spoofing detection method, and program
KR20020086977A (en) Focusing distance measurement in iris recognition system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121030

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131030

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141030

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151029

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161028

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171030

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 11