KR102214551B1 - Distance measuring method between device and face - Google Patents

Distance measuring method between device and face Download PDF

Info

Publication number
KR102214551B1
KR102214551B1 KR1020190051945A KR20190051945A KR102214551B1 KR 102214551 B1 KR102214551 B1 KR 102214551B1 KR 1020190051945 A KR1020190051945 A KR 1020190051945A KR 20190051945 A KR20190051945 A KR 20190051945A KR 102214551 B1 KR102214551 B1 KR 102214551B1
Authority
KR
South Korea
Prior art keywords
distance
face
user
eyes
points
Prior art date
Application number
KR1020190051945A
Other languages
Korean (ko)
Other versions
KR20200127560A (en
Inventor
전윤식
Original Assignee
주식회사 위즈컨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위즈컨 filed Critical 주식회사 위즈컨
Priority to KR1020190051945A priority Critical patent/KR102214551B1/en
Publication of KR20200127560A publication Critical patent/KR20200127560A/en
Application granted granted Critical
Publication of KR102214551B1 publication Critical patent/KR102214551B1/en

Links

Images

Classifications

    • G06K9/00234
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 디바이스와 얼굴 사이의 거리 측정 방법은 카메라가 구비된 디바이스의 어플리케이션이 사용자의 얼굴을 인식하여 이미지를 생성하고, 도출된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계를 도출한 후에 사용자에 따른 가중치값에 따라 상기 상관 관계를 보정하여 사용자에 따라 디바이스와 얼굴 사이의 거리를 도출하는 것을 특징으로 한다.In the method of measuring the distance between the device and the face of the present invention, an application of a device equipped with a camera generates an image by recognizing the user's face, and the correlation between the distance between two points of the derived face and the distance between the face and the device After deriving the relationship, the correlation is corrected according to a weight value according to the user to derive a distance between the device and the face according to the user.

Description

디바이스와 얼굴 사이의 거리 측정 방법{Distance measuring method between device and face}Distance measuring method between device and face}

본 발명은 사용자가 소지한 디바이스와 사용자의 얼굴 사이의 거리를 측정하는 방법에 관한 것이다.The present invention relates to a method of measuring a distance between a device held by a user and a face of the user.

스마트폰으로 대표되는 개인 디바이스의 사용량이 급증하고 사용시간이 증가됨에 따라 사용자는 특히 눈에 심한 피로감이 오는 현상을 종종 겪게 된다. 이러한 현상을 극복하기 위해서는 개인 디바이스의 사용을 줄이기 위한 노력뿐만 아니라, 개인 디바이스를 사용시에 눈에 적합한 거리에서 디스플레이 화면을 보는 것이 바람직하다. As the usage of personal devices represented by smartphones increases rapidly and the usage time increases, users often experience severe eye fatigue. In order to overcome this phenomenon, it is desirable not only to reduce the use of the personal device, but also to view the display screen from a distance suitable for the eyes when using the personal device.

따라서, 디바이스와 사용자의 얼굴 사이의 거리를 측정하여 사용자가 이에 대한 정보를 제공받을 수 있는 기술이 개발될 필요가 있다. 디바이스와 얼굴 사이의 거리를 측정하기 위해서는 얼굴영역 검출 기술이 필요하며, 얼굴영역 검출은 영상에서 얼굴의 유무를 검출하고, 영상 내에 얼굴이 존재하면 얼굴의 위치와 크기 및 눈, 코, 입의 위치를 찾아내는 기술 분야이다. Accordingly, there is a need to develop a technology that enables the user to receive information about the distance between the device and the user's face. Face region detection technology is required to measure the distance between a device and a face. Face region detection detects the presence or absence of a face in an image. If there is a face in the image, the position and size of the face and the position of the eyes, nose, and mouth It is a field of technology to find.

현재 카메라의 급속한 발전으로 개인 디바이스에는 얼굴이 인식 가능한 카메라가 구비되어 있으므로, 얼굴 인식 기능을 통해서 디바이스와 얼굴 사이의 거리를 보다 정확하게 측정하는 기술 개발이 필요하다.Currently, with the rapid development of cameras, personal devices are equipped with cameras capable of recognizing faces. Therefore, it is necessary to develop a technology that more accurately measures the distance between a device and a face through a face recognition function.

본 발명은 스마트폰에 구비된 안면인식 기능을 통해 디바이스와 사용자의 얼굴 사이의 거리를 보다 정확하게 측정할 수 있는 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a method of more accurately measuring the distance between a device and a user's face through a facial recognition function provided in a smartphone.

본 발명의 실시예에 따른 디바이스와 얼굴 사이의 거리 측정 방법은 카메라가 구비된 디바이스의 어플리케이션이 사용자의 얼굴을 인식하여 이미지를 생성한 후에 생성된 이미지에 비트맵을 적용하고, 사용자의 얼굴 상에서 적어도 두 지점 사이의 픽셀수를 계산하여 거리를 측정하고, 사용자의 얼굴 상의 적어도 두 지점의 거리에 기반하여 디바이스와 사용자의 얼굴 사이의 거리에 대한 상관 관계를 도출하는 단계; 상기 디바이스의 어플리케이션이, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계를 분석하는 단계; 상기 디바이스의 어플리케이션이, 얼굴의 두 지점 사이의 거리에 영향을 미치는 나이, 키, 몸무게, 성별, 국적, 이름, 성 중 적어도 하나 이상의 인자에 대한 가중치값을 설정하고, 상기 가중치값에 의해 보정된 상관 관계를 저장하는 단계; 사용자가 상기 디바이스의 어플리케이션에 사용자의 조건에 부합되는 어느 하나의 인자를 입력하면, 상기 디바이스의 어플리케이션은 상기 인자에 해당되는 가중치값을 부여하여 상기 상관 관계를 보정하고, 보정된 상관 관계에 기반하여 디바이스와 얼굴 사이의 거리를 도출하는 단계; 및 사용자에게 부여한 가중치값에 따른 상기 상관 관계의 보정이 필요한 경우에, 사용자가 디바이스에 구비된 카메라로 사용자의 얼굴 이미지를 촬영하여 이미지를 획득하고 비트맵을 통해 픽셀수를 계산하여 사용자의 얼굴 상에서 적어도 두 지점 사이의 거리를 도출하는 과정을 여러 거리에서 반복수행함으로써, 상기 상관 관계를 보정할 가중치값을 생성하는 단계를 포함할 수 있다. In the method of measuring the distance between a device and a face according to an embodiment of the present invention, after an application of a device equipped with a camera recognizes a user's face and generates an image, a bitmap is applied to the generated image, and at least on the user's face Measuring the distance by calculating the number of pixels between the two points, and deriving a correlation between the device and the user's face based on the distance between the at least two points on the user's face; Analyzing, by the application of the device, a correlation between the measured distance between two points of the face and the distance between the face and the device; The application of the device sets a weight value for at least one factor among age, height, weight, gender, nationality, first name, and surname that affects the distance between two points of the face, and is corrected by the weight value. Storing the correlation; When the user inputs a factor that meets the user's condition in the application of the device, the application of the device corrects the correlation by assigning a weight value corresponding to the factor, and based on the corrected correlation Deriving a distance between the device and the face; And when correction of the correlation according to the weight value given to the user is required, the user acquires an image by photographing the user's face image with a camera provided in the device, and calculates the number of pixels through a bitmap on the face The process of deriving the distance between at least two points may be repeated at several distances, thereby generating a weight value to correct the correlation.

이 때, 상기 디바이스의 어플리케이션이, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 사이의 상관 관계를 분석하는 단계는, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리에 대한 그래프를 도출하고, 상기 그래프에서 기울기값이 변경되는 지점을 산출하며, 상기 기울기값이 변경되는 지점을 기준으로 관계식을 설정하는 과정을 포함하고, 상기 관계식은 다음과 같은 수학식 1로 표현되는 것을 특징으로 한다.In this case, the step of analyzing the correlation between the distance between the two points of the measured face and the distance between the face and the device by the application of the device includes the distance between the two points of the measured face and the face and the device. It includes the process of deriving a graph for the distance between, calculating a point at which the slope value is changed in the graph, and setting a relational expression based on the point at which the slope value is changed, wherein the relational expression is as follows: Characterized in that it is represented by 1.

[수학식 1][Equation 1]

1) AEadjust_eyes_distance ≤ ASadjust_slope_ref 1) ≤ AE adjust_eyes_distance AS adjust_slope_ref

Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5) D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5)

2) AEadjust_eyes_distance > ASadjust_slope_ref 2) AE adjust_eyes_distance> AS adjust_slope_ref

Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5 * (ASadjust_slope_ref / AEadjust_eyes_distance)) D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5 * (AS adjust_slope_ref / AE adjust_eyes_distance))

ASadjust_slope_ref = Sslope_ref * ((Wweight -1)/3 + 1) AS adjust_slope_ref = S slope_ref * (( W weight -1) / 3 + 1)

AEadjust_eyes_distance = Eeyes_distance * Wweight AE adjust_eyes_distance = E eyes_distance * W weight

{Dcm: 디바이스와 얼굴과의 거리, Eeyes_distance: 카메라로 얻어지는 눈 사이 거리, Mmax_distance : 스마트폰 카메라로 잴 수 있는 디바이스와 얼굴의 최대거리, Sslope_ref : 기울기가 급격히 변경되는 시점, Wweight : 가중치}{D cm: distance between the device and the face, E eyes_distance: between the eyes is obtained by a camera distance, M max_distance: maximum distance of the device and the face measurable as a smart phone camera, S slope_ref: point at which the slope abruptly changes, W weight : weight}

그리고, 사용자의 얼굴 상에서 적어도 두 지점 사이의 거리를 도출하는 단계는, 사용자의 얼굴 이미지에서 사용자의 양쪽 눈 안쪽 사이의 영역에 포함된 픽셀수를 계산하여 사용자의 양쪽 눈 안쪽 사이의 거리를 측정하는 것을 특징으로 한다. In addition, the step of deriving the distance between at least two points on the user's face includes calculating the number of pixels included in the area between the inside of both eyes of the user in the user's face image and measuring the distance between the inside of both eyes of the user. It features.

그리고, 상기 디바이스 어플리케이션은 사용자가 달라지는 경우에 상기 관계식을 보정하는 과정을 수행하는 것을 특징으로 하며, 상기 관계식을 보정하는 과정은, 전면에 카메라가 구비된 디바이스를 사용자가 두손으로 잡고 사용자가 카메라를 최대거리에서 보고 있는 상태에서 카메라의 위치를 얼굴에 가까워지도록 변경하여 얼굴의 두 지점 사이의 거리와 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점을 산출하여 이를 기준점으로 설정하는 과정을 수행하는 것을 특징으로 한다. In addition, the device application is characterized by performing a process of correcting the relational expression when the user is different, and in the process of correcting the relational expression, the user holds a device having a camera in front with both hands and the user holds the camera. While viewing from the maximum distance, the position of the camera is changed to be closer to the face, calculating the point at which the distance between two points of the face and the slope value of the distance between the face and the device are changed, and setting this as a reference point. It features.

이 때, 사용자가 상기 관계식을 보정하는 과정은, 사용자가 상기 디바이스와 얼굴과의 거리를 직접 측정하여 이에 따른 얼굴의 두 지점 사이의 거리를 산출하고, 상기 관계식의 Wweight 값을 변경하는 보정과정을 수행하여 상기 관계식을 재설정하는 것을 특징으로 한다.In this case, the process of correcting the relational expression by the user is a correction process in which the user directly measures the distance between the device and the face, calculates the distance between the two points of the face accordingly, and changes the W weight value of the relational expression. It is characterized in that the relational expression is reset by performing

본 발명의 실시예에 따르면, 스마트폰, TV, PC, 태블릿과 같이 디스플레이를 장착한 디바이스를 사용할 시 사용자의 얼굴과의 거리를 정확히 측정할 수 있으므로 사용자가 디스플레이와의 거리를 조절하여 시력저하를 방지할 수 있다.According to an embodiment of the present invention, when using a device equipped with a display such as a smartphone, TV, PC, or tablet, the distance from the user's face can be accurately measured, so that the user adjusts the distance to the display to reduce vision loss. Can be prevented.

또한, 디바이스가 디스플레이와 사용자의 거리에 따라 디스플레이되는 이미지 또는 영상의 품질을 변환하여 사용자의 시력저하를 방지할 수 있다. In addition, the device may convert the displayed image or the quality of the image according to the distance between the display and the user to prevent deterioration of the user's eyesight.

본 발명의 실시예에 따르면, 디바이스와 사용자의 거리를 측정시키는 방법을 사용하여 디스플레이되는 이미지 또는 영상의 품질을 변환시키면서 영상에 수반되는 사운드의 품질 또한 사용자에게 최적화된 품질로 변환하여 제공할 수 있다.According to an exemplary embodiment of the present invention, the quality of a displayed image or image is converted by using a method of measuring the distance between the device and the user, and the quality of sound accompanying the image can be converted to a quality optimized for the user and provided. .

도 1은 본 발명의 실시예에 따른 디바이스와 얼굴 사이의 거리 측정 방법의 전체적인 흐름도
도 2는 본 발명의 실시예에 따른 디바이스와 얼굴 사이의 거리 측정 방법에서 양쪽 눈 안쪽 사이의 거리, 안면과 디바이스와 거리 간의 상관 관계가 나타난 그래프
1 is an overall flowchart of a method for measuring a distance between a device and a face according to an embodiment of the present invention
2 is a graph showing the relationship between the distance between the inside of both eyes and the distance between the face and the device in a method for measuring the distance between a device and a face according to an embodiment of the present invention

이하 첨부된 도면들을 참조하여 본 실시예에 대하여 상세하게 설명하지만, 본 실시예에 의해 제한되거나 한정되는 것은 아니다. 본 발명을 설명함에 있어서, 공지된 기능 혹은 구성에 의해 구체적인 설명은 본 발명의 요지를 명료하게 하기 위해 생략될 수 있다. Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings, but it is not limited or limited by the present embodiment. In describing the present invention, detailed descriptions by known functions or configurations may be omitted to clarify the subject matter of the present invention.

도 1은 본 발명의 실시예에 따른 디바이스와 얼굴 사이의 거리 측정 방법의 전체적인 흐름도이다. 본 발명에서는 디바이스와 얼굴 사이의 거리 측정을 위해 개인 디바이스(스마트폰, PC, TV, 태블릿)에 내장되어 있는 카메라를 사용하며, 상기 카메라에는 안면인식 기능이 포함되어 있는 것으로 가정한다. 상기 카메라는 안면인식 기능을 사용하여 얼굴의 적어도 두 지점(눈, 코, 입)의 위치 정보를 획득할 수 있으며, 카메라 자체의 기능 또는 어플리케이션을 통해 두 지점 간의 거리를 산출할 수 있다. 1 is an overall flowchart of a method for measuring a distance between a device and a face according to an embodiment of the present invention. In the present invention, a camera built into a personal device (smart phone, PC, TV, tablet) is used to measure the distance between the device and the face, and it is assumed that the camera includes a face recognition function. The camera may acquire location information of at least two points (eye, nose, and mouth) of the face using a face recognition function, and may calculate the distance between the two points through a function of the camera itself or an application.

실시예에서 디바이스와 얼굴 사이의 거리를 측정하기 위해서, 카메라가 구비된 디바이스의 어플리케이션이 사용자의 얼굴을 인식하여 이미지를 생성한 후에 생성된 이미지에 비트맵을 적용하고, 사용자의 얼굴 상에서 적어도 두 지점 사이의 픽셀수를 계산하여 거리를 측정하고, 사용자의 얼굴 상의 적어도 두 지점의 거리에 기반하여 디바이스와 사용자의 얼굴 사이의 거리에 대한 상관 관계를 도출하는 단계(S10)를 수행할 수 있다.In the embodiment, to measure the distance between the device and the face, an application of a device equipped with a camera recognizes the user's face and generates an image, then applies a bitmap to the generated image, and at least two points on the user's face The distance is measured by calculating the number of pixels therebetween, and a step (S10) of deriving a correlation for the distance between the device and the user's face based on the distance between at least two points on the user's face may be performed.

상기 S10 단계에서 사용자는 얼굴의 눈, 코, 입 사이의 거리가 평균값의 표준편차 이내에 포함되는 사용자로 선정될 수 있다. 디바이스에 마련된 카메라를 통해 사용자의 얼굴과 디바이스의 거리에 따라 사용자 얼굴을 촬영하고, 촬영된 이미지 상에서 비트맵(bitmap)을 활용하면 얼굴의 적어도 두 지점의 거리가 산출될 수 있다. 실시예에서는 스마트폰에 구비된 카메라로 양쪽 눈의 위치를 인식하고, 양쪽 눈 안쪽 사이의 거리를 도출하는 방법을 예로 들어 설명한다. In step S10, the user may be selected as a user whose distance between the eyes, nose, and mouth of the face is within a standard deviation of the average value. When the user's face is photographed according to the distance between the user's face and the device through a camera provided in the device, and a bitmap is used on the captured image, the distance between at least two points of the face may be calculated. In the embodiment, a method of recognizing the positions of both eyes with a camera provided in a smartphone and deriving the distance between the inside of both eyes will be described as an example.

이어서는, 상기 디바이스의 어플리케이션이, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계에 따른 그래프를 도출하고, 상기 그래프에서 기울기값이 변경되는 지점을 산출하는 단계(S20)가 수행될 수 있다. S10 단계에서 도출된 양쪽 눈 안쪽 사이의 거리를 토대로 하여, 이를 스마트폰에 마련된 어플리케이션에 포함된 알고리즘으로 변환하면 도 2와 같은 상관 관계가 나타난 그래프가 도출될 수 있다. Next, the application of the device derives a graph according to the correlation between the measured distance between the two points of the face and the distance between the face and the device, and calculates a point at which the slope value is changed in the graph ( S20) can be performed. Based on the distance between the inside of both eyes derived in step S10, and converting this into an algorithm included in an application provided in the smartphone, a graph showing the correlation as shown in FIG. 2 can be derived.

도 2는 상기와 같이 도출된 디바이스와 얼굴 사이의 거리 측정 방법에서 양쪽 눈 안쪽 사이의 거리, 안면과 디바이스와 거리 간의 상관 관계가 나타난 그래프를 도시한 것이다. 도 2를 참조하면, 가로축은 양쪽 눈 안쪽 사이의 픽셀수를 나타내며, 세로축은 안면과 디바이스와의 거리를 나타내고 있다. 실시예에서 양쪽 눈 안쪽 사이의 거리는, S10 단계에서 촬영된 이미지 상에서 비트맵(bitmap)을 구성하여 양쪽 눈 안쪽 사이의 픽셀수를 계산함으로써 도출될 수 있다. 2 is a graph showing a relationship between the distance between the inside of both eyes and the distance between the face and the device in the method for measuring the distance between the device and the face derived as described above. Referring to FIG. 2, the horizontal axis represents the number of pixels between the inside of both eyes, and the vertical axis represents the distance between the face and the device. In the embodiment, the distance between the inside of both eyes may be derived by calculating the number of pixels between the inside of both eyes by constructing a bitmap on the image captured in step S10.

이 그래프에서는 양쪽 눈 안쪽의 거리가 증가함에 따라 안면과 디바이스와의 거리가 감소하는 경향을 보여주고 있으며, 이는 스마트폰이 사용자의 얼굴에 근접함에 따라 카메라를 통해 획득된 이미지에서 사용자의 얼굴이 확대되므로 양쪽 눈 안쪽의 거리 또한 증가했음을 의미한다. 실시예는 상기와 같이 스마트폰이 얼굴과 가까워지거나 멀어지는 경우 변화하는 두가지 요소인 1) 양쪽 눈 안쪽의 거리 2) 안면과 디바이스와의 거리로 인해 나타나는 특정 패턴을 이용한다. This graph shows the tendency that the distance between the face and the device decreases as the distance between the inside of both eyes increases, which means that the user's face enlarges from the image acquired through the camera as the smartphone approaches the user's face. Therefore, it means that the distance inside both eyes has also increased. As described above, the embodiment uses a specific pattern that appears due to two factors that change when the smartphone is closer or farther away from the face: 1) the distance inside both eyes and 2) the distance between the face and the device.

도 2의 상관 관계 그래프를 살펴보면, 측정된 값을 연결하였을 때 기울기가 변경되는 지점이 있음을 알 수 있으며, 이는 디바이스가 얼굴에 점차 멀어짐에 따라 양쪽 눈 사이의 거리를 나타내는 픽셀수가 좀 더 급격하게 감소하는 경향이 있음을 나타내고 있다. 따라서, 디바이스와 얼굴 사이의 거리를 정확히 계산하기 위해서는 기울기가 변경되는 지점을 기준으로 하여 서로 다른 관계식이 설정될 필요가 있으며, 도 2에서 기울기가 변경되는 지점은 가로축의 120의 지점에 해당되는 값임을 알 수 있다.Looking at the correlation graph of FIG. 2, it can be seen that there is a point at which the inclination changes when the measured values are connected, which is the number of pixels representing the distance between both eyes as the device gradually moves away from the face. It indicates that there is a tendency to decrease. Therefore, in order to accurately calculate the distance between the device and the face, different relational expressions need to be set based on the point at which the inclination is changed, and the point at which the inclination is changed in FIG. 2 is a value corresponding to a point of 120 on the horizontal axis. It can be seen that

상기 디바이스의 어플리케이션은 상기와 같이 그래프의 데이터를 참조하여, 얼굴의 두 지점 사이의 거리에 따라 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점을 특정할 수 있다. 그러나, 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점은 사용자에 따라 다소 다르게 나타나기 때문에, 디바이스와 얼굴 사이의 거리를 정확하게 도출하기 위해서는 이를 파악할 필요가 있다. As described above, the application of the device may specify a point at which the slope value of the distance between the face and the device changes according to the distance between the two points of the face by referring to the data of the graph as described above. However, since the point at which the slope value of the distance between the face and the device is changed appears somewhat different depending on the user, it is necessary to grasp it in order to accurately derive the distance between the device and the face.

따라서, 상기 디바이스의 어플리케이션이, 얼굴의 두 지점 사이의 거리에 영향을 미치는 복수개의 인자에 대한 가중치값을 설정하고, 상기 가중치값에 의해 보정된 상관 관계를 저장하는 단계(S30)가 수행될 수 있다. 여기서, 얼굴의 두 지점 사이의 거리에 영향을 미치는 복수개의 인자는 사용자의 나이, 키, 몸무게, 성별, 국적, 이름, 성 중 적어도 어느 하나 이상을 포함할 수 있다. 실시예에서는 사용자의 나이가 동일한 경우 얼굴의 두 지점 사이의 거리에 따라 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점이 유사한 패턴을 가지는 것으로 가정하고, 동일한 가중치값을 부여하는 것으로 가정한다. Therefore, the step (S30) of setting a weight value for a plurality of factors affecting the distance between two points of the face by the application of the device and storing the correlation corrected by the weight value (S30) may be performed. have. Here, the plurality of factors affecting the distance between two points of the face may include at least one of the user's age, height, weight, gender, nationality, first name, and last name. In the embodiment, it is assumed that when the user's age is the same, points at which the slope value of the distance between the face and the device changes according to the distance between two points of the face has a similar pattern, and the same weight value is assigned.

여기서, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계는 수학식으로 표현될 수 있으며, 예를 들어 다음과 같은 수학식 1로 표현될 수 있다. Here, the correlation between the measured distance between two points of the face and the distance between the face and the device may be expressed as an equation, for example, may be expressed as Equation 1 below.

[수학식 1][Equation 1]

1) AEadjust_eyes_distance ≤ ASadjust_slope_ref 1) ≤ AE adjust_eyes_distance AS adjust_slope_ref

Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5) D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5)

2) AEadjust_eyes_distance > ASadjust_slope_ref 2) AE adjust_eyes_distance> AS adjust_slope_ref

Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5 * (ASadjust_slope_ref / AEadjust_eyes_distance)) D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5 * (AS adjust_slope_ref / AE adjust_eyes_distance))

{Dcm: 디바이스와 얼굴과의 거리, Eeyes_distance: 카메라로 얻어지는 눈 사이 거리, Mmax_distance : 스마트폰 카메라로 잴 수 있는 디바이스와 얼굴의 최대거리, Sslope_ref : 기울기가 급격히 변경되는 시점, Wweight : 가중치}{D cm: distance between the device and the face, E eyes_distance: between the eyes is obtained by a camera distance, M max_distance: maximum distance of the device and the face measurable as a smart phone camera, S slope_ref: point at which the slope abruptly changes, W weight : weight}

가중치에 따른 기울기 변경시점 조정Adjustment of slope change point according to weight

ASadjust_slope_ref = Sslope_ref * ((Wweight -1)/3 + 1) AS adjust_slope_ref = S slope_ref * (( W weight -1) / 3 + 1)

가중치에 따른 눈 사이 거리의 조정Adjustment of distance between eyes according to weight

AEadjust_eyes_distance = Eeyes_distance * Wweight AE adjust_eyes_distance = E eyes_distance * W weight

상기 수학식에서 Wweight 값을 기준으로 하여 양쪽 눈 안쪽의 거리가 Wweight 값보다 작거나 큰 두가지의 수학식이 도출될 수 있다. 상기 수학식에서 Wweight 값을 변경하면 상관 관계를 보정할 수 있다. 예를 들어, 성인 남성은 1.0, 14살 여아는 1.12, 4살 여아는 1.4 와 같이 실제 눈 사이가 좁을수록 Wweight 값은 크게 보정될 수 있다. The mathematical expression distance inside both eyes on the basis of the weight value W may be less than the weight W value, or derived in large two kinds of equations. The correlation can be corrected by changing the W weight value in the above equation. For example, the W weight value can be significantly corrected as the actual eye space narrows, such as 1.0 for adult males, 1.12 for 14-year-old girls, and 1.4 for 4-year-old girls.

상기의 수학식 1을 기반으로 하여, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계를 가시적으로 확인할 수 있다. Based on Equation 1 above, a correlation between the measured distance between two points on the face and the distance between the face and the device can be visually confirmed.

도 2에 개시된 그래프를 수학식으로 변환하기 위해서는 여러가지 방법이 적용될 수 있으며, 양쪽 눈 안쪽의 거리, 안면과 디바이스와의 거리로 인해 나타나는 패턴의 변화를 이용하는 점은 동일하게 적용될 수 있다.In order to convert the graph disclosed in FIG. 2 into an equation, various methods can be applied, and the same can be applied to the point of using the change in the pattern that appears due to the distance inside both eyes and the distance between the face and the device.

그리고, 사용자가 상기 디바이스의 어플리케이션에 사용자의 조건에 부합되는 어느 하나의 인자를 입력하면, 상기 디바이스의 어플리케이션은 상기 인자에 해당되는 가중치값을 부여하여 상기 상관 관계를 보정하고, 보정된 상관 관계에 기반하여 디바이스와 얼굴 사이의 거리를 도출하는 단계(S40)가 수행될 수 있다. And, when the user inputs a factor meeting the user's condition in the application of the device, the application of the device corrects the correlation by assigning a weight value corresponding to the factor, and the corrected correlation Based on the derivation of the distance between the device and the face (S40) may be performed.

디바이스의 어플리케이션은 S10~S30에 해당되는 과정을 통해서, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 간의 상관 관계에 대한 기준값을 설정하고, 얼굴의 두 지점 사이의 거리에 영향을 미치는 복수개의 인자에 대한 가중치값을 미리 저장해놓는 과정을 선행한다. The application of the device sets a reference value for the correlation between the measured distance between two points of the face and the distance between the face and the device through a process corresponding to S10 to S30, and affects the distance between the two points of the face. The process of pre-saving weight values for a plurality of factors that affects is preceded.

사용자가 어플리케이션을 처음 사용하는 경우, 사용자가 자신에 해당되는 인자값을 입력하면, 어플리케이션은 초기 설정된 상관 관계에 입력된 인자에 해당되는 가중치값을 적용하여 현재 사용자에 적합하도록 상관 관계를 보정할 수 있다. When a user uses the application for the first time, when the user inputs a factor value corresponding to the user, the application can correct the correlation to suit the current user by applying a weight value corresponding to the input factor in the initially set correlation. have.

즉, 본 실시예는 양쪽 눈 안쪽의 거리 정보를 기반으로 하기 때문에 실제 개개인은 서로 다른 얼굴형태를 가지고 있고, 개인이 사용하는 디바이스 카메라의 해상도에도 오차가 발생할 수 있으므로, 개개인별로 최적화된 상관 관계에 대한 수학식을 스마트폰 어플리케이션에 적용하는 보정 과정이 필요하다. That is, since this embodiment is based on distance information inside both eyes, each individual actually has a different face shape, and an error may occur in the resolution of the device camera used by the individual. A correction process is needed to apply the equation for a smartphone application.

기본적으로는 나이 등의 인자에 따른 일반적인 보정값이 정해지지만, 값이 정확하지 않거나 보정이 필요하다고 판단되는 경우 추가적인 보정과정을 할 수도 있다.Basically, a general correction value is determined according to factors such as age, but if the value is not accurate or it is determined that correction is necessary, an additional correction process may be performed.

따라서, 이어서는 사용자에게 부여한 가중치값에 따른 상기 상관 관계의 보정이 필요한 경우에, 사용자가 디바이스에 구비된 카메라로 사용자의 얼굴 이미지를 촬영하여 이미지를 획득하고 비트맵을 통해 픽셀수를 계산하여 사용자의 얼굴 상에서 적어도 두 지점 사이의 거리를 도출하는 과정을 여러 거리에서 반복수행함으로써, 상기 상관 관계를 보정할 가중치값을 생성하는 단계(S50)가 수행될 수 있다. Therefore, if it is necessary to correct the correlation according to the weight value assigned to the user, the user acquires an image by photographing the user's face image with a camera provided in the device, and calculates the number of pixels through a bitmap. By repeatedly performing the process of deriving the distance between at least two points on the face of, generating a weight value for correcting the correlation (S50) may be performed.

상기 S50 단계는 상기 디바이스에 의해 얻어진 이미지에서 두 지점 간의 거리에 대한 기준점을 설정하기 위해 수행되는 단계일 수 있다. The step S50 may be a step performed to set a reference point for a distance between two points in the image obtained by the device.

상기 관계식을 보정하는 과정은, 전면에 카메라가 구비된 디바이스를 사용자가 두손으로 잡고 사용자가 카메라를 최대거리에서 보고 있는 상태에서 카메라의 위치를 얼굴에 가까워지도록 변경하여 얼굴의 두 지점 사이의 거리와 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점을 산출하여 이를 기준점으로 설정하는 과정을 수행할 수 있다. In the process of correcting the relational expression, the position of the camera is changed so that the position of the camera is closer to the face while the user holds the device equipped with the camera in the front with both hands and the user is looking at the camera at the maximum distance. A process of calculating a point at which the slope value of the distance between the face and the device changes and setting it as a reference point may be performed.

그리고, 사용자가 상기 관계식을 보정하는 과정은, 사용자가 상기 디바이스와 얼굴과의 거리를 직접 측정하여 이에 따른 얼굴의 두 지점 사이의 거리를 산출하고, 상기 관계식의 Wweight 값을 변경하는 보정과정을 수행하여 상기 관계식을 재설정할 수 있다. In addition, the process of correcting the relational expression by the user includes a correction process in which the user directly measures the distance between the device and the face, calculates the distance between two points of the face, and changes the W weight value of the relational expression. To reset the relational expression.

예를 들어, 디바이스와 얼굴과의 거리가 30cm라 가정하면, 카메라를 통해 얻어진 이미지의 비트맵에서 양쪽 눈 사이의 거리가 몇인지에 대한 기준점을 설정하기 위한 과정이 수행될 수 있다. 사용자는 직접 디바이스와 얼굴과의 제1 거리를 직접 측정하여 디바이스를 사용자의 얼굴로부터 이격시키고, 스마트폰 어플리케이션의 알고리즘을 동작시켜 보정 과정을 수행할 수 있다. 스마트폰 어플리케이션에서는 실제 측정된 거리에 따른 사용자의 양쪽 눈 사이의 거리를 도출하고 이에 따른 상관 관계를 도출하여, 기존에 설정되었던 수학식 1의 Wweight을 재설정하는 보정과정을 수행할 수 있다. For example, assuming that the distance between the device and the face is 30 cm, a process for setting a reference point for the distance between both eyes in the bitmap of the image obtained through the camera may be performed. The user may directly measure the first distance between the device and the face to separate the device from the user's face, and perform a correction process by operating an algorithm of a smartphone application. In the smartphone application, a correction process of resetting the W weight of Equation 1 that has been previously set may be performed by deriving the distance between the user's both eyes according to the actual measured distance, and deriving a correlation according thereto.

상기와 같이 스마트폰 어플리케이션의 알고리즘에 포함된 수학식 1이 변경됨에 따라 실제 스마트폰을 사용하는 사용자의 디바이스와 얼굴 사이의 거리가 더욱 정확하게 측정될 수 있다. As Equation 1 included in the algorithm of the smart phone application is changed as described above, the distance between the user's device and the face of the actual smart phone can be more accurately measured.

상기의 보정 과정의 예를 들면, 사용자는 테스트를 통해 눈 사이 거리에 따른 가중치가 대응되는 표를 미리 만들어 놓는다. 그리고, 어플리케이션에서 보정 단계를 수행하면, 두개의 점이 나타나고 사용자는 두개의 점이 양쪽 눈 안쪽에 위치하도록 디바이스의 위치를 조절한다. 디바이스의 위치 조절이 완료되면, 미리 만들어놓은 표와 비교하여 가중치값을 구할 수 있고, 이를 통해 상관 관계를 보정할 수 있다.As an example of the above correction process, the user creates a table corresponding to the weight according to the distance between eyes through a test. Then, when the application performs the correction step, two dots appear, and the user adjusts the position of the device so that the two dots are located inside both eyes. When the position adjustment of the device is completed, the weight value can be obtained by comparing it with a table created in advance, and the correlation can be corrected through this.

다른 방법으로, 사용자는 스마트폰을 두손으로 잡은 상태에서 디스플레이 화면을 주시하면서 보정과정이 수행될 수 있다. 사용자가 스마트폰을 얼굴 쪽으로 서서히 근접시키면, 스마트폰 어플리케이션은 도출된 양쪽 눈 사이의 거리를 기반으로 상관 관계를 도출하면서 상관 관계의 값에서 그래프의 기울기가 변경되는 지점을 파악할 수 있다. 상기와 같이 기울기가 변경되는 지점을 기준점으로 하여 사용자에 맞도록 오차를 보정함으로써, 디바이스와 얼굴 사이의 거리가 더욱 정확하게 측정될 수 있다.Alternatively, the user can perform the correction process while looking at the display screen while holding the smartphone with both hands. When the user gradually approaches the smartphone toward the face, the smartphone application can determine the point at which the slope of the graph changes from the correlation value while deriving a correlation based on the derived distance between the eyes. The distance between the device and the face can be more accurately measured by correcting the error to fit the user using the point at which the inclination is changed as described above.

실시예의 디바이스와 얼굴 사이의 거리 측정 방법은 사람마다 다른 기준점을 가질 수 있기 때문에, 사람마다 기준점을 설정하는 과정에서 개인정보를 데이터베이스에 축척하는 과정을 수행하면 표준이 되는 데이터 정보를 구축할 수 있다. Since the method of measuring the distance between the device and the face of the embodiment may have different reference points for each person, standard data information can be constructed by performing the process of accumulating personal information in a database in the process of setting the reference point for each person. .

즉, 기준점을 설정시 나이, 키, 몸무게, 성별, 국적, 이름, 성을 포함하는 정보를 어플리케이션에 입력하고 이 정보가 축척되는 서버를 구축하면, 사용자가 해당 어플리케이션을 사용할 때마다 누적되는 데이터로 인해 빅데이터로서의 활용이 가능할 수 있다. In other words, when setting the reference point, if information including age, height, weight, gender, nationality, first name, and last name is entered into the application and a server that accumulates this information is built, the data is accumulated every time a user uses the application. Therefore, it can be used as big data.

예를 들어, 나이와 눈 사이 거리의 상관관계, 키와 눈 사이의 상관관계, 성별과 눈 사이의 상관관계의 정보가 누적되어 표준이 되는 정보가 도출될 수 있으며, 동양인과 서양인의 얼굴 형태에 따른 눈 사이 거리의 상관관계, 유전적인 영향으로 기인하는 눈 사이 거리의 상관관계를 종합적으로 도출할 수 있으므로, 사용자가 개인정보를 입력하면 실제값에 가까운 디바이스와 얼굴 사이의 거리 정보를 제공받을 수 있다. 즉, 사용자가 개인정보의 일부(신체정보)를 스마트폰 어플리케이션에 입력하면, 축척된 정보에서 최적화된 기준값을 도출하여 사용자에게 적합하도록 자동으로 보정과정이 수행될 수 있다. For example, standard information can be derived by accumulating information on the correlation between age and distance between eyes, the correlation between height and eyes, and between sex and eyes. It is possible to comprehensively derive the correlation of the distance between the eyes and the distance between the eyes caused by the genetic influence, so when a user inputs personal information, the distance information between the device and the face close to the actual value can be provided. have. That is, when the user inputs part of the personal information (body information) into the smartphone application, an optimized reference value may be derived from the accumulated information and a correction process may be automatically performed to suit the user.

실시예의 디바이스와 얼굴 사이의 거리 측정 방법을 사용하면, 스마트폰의 어플리케이션은 사용자에게 현재 스마트폰의 디스플레이 화면과 얼굴 사이의 거리를 사용자에게 제공함으로써 사용자가 적당한 거리에서 스마트폰 화면을 볼 수 있도록 유도할 수 있다. 또한, 사용자가 특정 시간동안 도출된 거리보다 가까운 거리에서 스마트폰을 보고 있다고 판단되는 경우 팝업 메시지를 발생시켜 먼 거리로 스마트폰을 이동시키는 행위를 유발하도록 할 수 있다. When the method of measuring the distance between the device and the face of the embodiment is used, the application of the smartphone provides the user with the distance between the current display screen of the smartphone and the face to the user, thereby inducing the user to view the smartphone screen at an appropriate distance. can do. In addition, when it is determined that the user is viewing the smartphone at a distance closer than the distance derived for a specific time, a pop-up message may be generated to trigger an action of moving the smartphone to a distance.

또한, 실시예는 사용자의 얼굴과 스마트폰의 거리가 도출된 후에, 도출된 거리에 따라 디스플레이되고 있는 영상의 품질을 변화시키는 과정을 수행할 수 있으며 이를 통해 시력저하를 방지하는 구성을 포함할 수 있다. In addition, the embodiment may perform a process of changing the quality of the displayed image according to the derived distance after the distance between the user's face and the smartphone is derived, and thus may include a configuration that prevents vision loss. have.

또한, 실시예는 사용자의 얼굴과 스마트폰의 거리가 도출된 후에, 도출된 거리에 따라 디스플레이되고 있는 영상의 품질을 변화시키는 과정을 수행하면서 이에 수반되고 있는 사운드도 사용자에게 최적화되도록 변환함으로써 청력저하를 방지할 수 있는 구성을 포함할 수 있다.In addition, in the embodiment, after the distance between the user's face and the smartphone is derived, a process of changing the quality of the displayed image according to the derived distance is performed, and the accompanying sound is converted to be optimized for the user. It may include a configuration that can prevent.

이상에서 본 발명에 대하여 그 바람직한 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것은 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다. In the above, the present invention has been described with reference to its preferred embodiments, but these are only examples and do not limit the present invention, and those of ordinary skill in the field to which the present invention pertains will not depart from the essential characteristics of the present invention. It will be appreciated that various modifications and applications not illustrated above are possible. For example, each component specifically shown in the embodiment of the present invention can be modified and implemented. And differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.

Claims (5)

카메라가 구비된 디바이스의 어플리케이션이 사용자의 얼굴을 인식하여 이미지를 생성한 후에 생성된 이미지에 비트맵을 적용하고, 사용자의 얼굴 상에서 적어도 두 지점 사이의 픽셀수를 계산하여 거리를 측정하고, 사용자의 얼굴 상의 적어도 두 지점의 거리에 기반하여 디바이스와 사용자의 얼굴 사이의 거리에 대한 상관 관계를 도출하는 단계;
상기 디바이스의 어플리케이션이, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 사이의 상관 관계를 분석하는 단계;
상기 디바이스의 어플리케이션이, 얼굴의 두 지점 사이의 거리에 영향을 미치는 나이, 키, 몸무게, 성별, 국적, 이름, 성 중 적어도 하나 이상의 인자에 대한 가중치값을 설정하고, 상기 가중치값에 의해 보정된 상관 관계를 저장하는 단계;
사용자가 상기 디바이스의 어플리케이션에 사용자의 조건에 부합되는 어느 하나의 인자를 입력하면, 상기 디바이스의 어플리케이션은 상기 인자에 해당되는 가중치값을 부여하여 상기 상관 관계를 보정하고, 보정된 상관 관계에 기반하여 디바이스와 얼굴 사이의 거리를 도출하는 단계; 및
사용자에게 부여한 가중치값에 따른 상기 상관 관계의 보정이 필요한 경우에, 사용자가 디바이스에 구비된 카메라로 사용자의 얼굴 이미지를 촬영하여 이미지를 획득하고 비트맵을 통해 픽셀수를 계산하여 사용자의 얼굴 상에서 적어도 두 지점 사이의 거리를 도출하는 과정을 여러 거리에서 반복수행함으로써, 상기 상관 관계를 보정할 가중치값을 생성하는 단계를 포함하고,
상기 디바이스의 어플리케이션이, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리 사이의 상관 관계를 분석하는 단계는, 측정된 얼굴의 두 지점 사이의 거리와, 얼굴과 디바이스 사이의 거리에 대한 그래프를 도출하고, 상기 그래프에서 기울기값이 급격하게 변경되는 지점을 산출하며, 상기 기울기값이 변경되는 지점을 기준으로 관계식을 설정하는 과정을 포함하는 디바이스와 얼굴 사이의 거리 측정 방법.
After the application of the device equipped with the camera recognizes the user's face and generates an image, it applies a bitmap to the generated image, calculates the number of pixels between at least two points on the user's face, measures the distance, and Deriving a correlation with respect to the distance between the device and the user's face based on the distance between at least two points on the face;
Analyzing, by the application of the device, a correlation between the measured distance between two points of the face and the distance between the face and the device;
The application of the device sets a weight value for at least one factor among age, height, weight, gender, nationality, first name, and surname that affects the distance between two points of the face, and is corrected by the weight value. Storing the correlation;
When the user inputs a factor that meets the user's condition in the application of the device, the application of the device corrects the correlation by assigning a weight value corresponding to the factor, and based on the corrected correlation Deriving a distance between the device and the face; And
When correction of the correlation according to the weight value given to the user is necessary, the user acquires an image by photographing the user's face image with a camera provided in the device, and calculates the number of pixels through a bitmap to at least on the user's face. Generating a weight value to correct the correlation by repeating the process of deriving the distance between the two points at several distances,
The step of analyzing the correlation between the distance between the two points of the measured face and the distance between the face and the device, by the application of the device, includes the distance between the two points of the measured face and the distance between the face and the device. A method of measuring a distance between a device and a face, comprising: deriving a graph for, calculating a point at which a slope value changes abruptly in the graph, and setting a relational expression based on a point at which the slope value changes.
제 1항에 있어서,
상기 관계식은 다음과 같은 수학식 1로 표현되는 것을 특징으로 하는 디바이스와 얼굴 사이의 거리 측정 방법.
[수학식 1]
1) AEadjust_eyes_distance ≤ ASadjust_slope_ref
Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5)
2) AEadjust_eyes_distance > ASadjust_slope_ref
Dcm = Mmax_distance - ((AEadjust_eyes_distance - Mmax_distance) * 0.5 * (ASadjust_slope_ref / AEadjust_eyes_distance))
ASadjust_slope_ref = Sslope_ref * ((Wweight -1)/3 + 1)
AEadjust_eyes_distance = Eeyes_distance * Wweight
{Dcm: 디바이스와 얼굴과의 거리, Eeyes_distance: 카메라로 얻어지는 눈 사이 거리, Mmax_distance : 스마트폰 카메라로 잴 수 있는 디바이스와 얼굴의 최대거리, Sslope_ref : 기울기가 급격히 변경되는 시점, Wweight : 가중치}
The method of claim 1,
The relational expression is a method for measuring a distance between a device and a face, characterized in that it is expressed by Equation 1 below.
[Equation 1]
1) ≤ AE adjust_eyes_distance AS adjust_slope_ref
D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5)
2) AE adjust_eyes_distance> AS adjust_slope_ref
D cm = M max_distance - (( AE adjust_eyes_distance - M max_distance) * 0.5 * (AS adjust_slope_ref / AE adjust_eyes_distance))
AS adjust_slope_ref = S slope_ref * (( W weight -1) / 3 + 1)
AE adjust_eyes_distance = E eyes_distance * W weight
{D cm: distance between the device and the face, E eyes_distance: between the eyes is obtained by a camera distance, M max_distance: maximum distance of the device and the face measurable as a smart phone camera, S slope_ref: point at which the slope abruptly changes, W weight : weight}
제 1항에 있어서,
사용자의 얼굴 상에서 적어도 두 지점 사이의 거리를 도출하는 단계는, 사용자의 얼굴 이미지에서 사용자의 양쪽 눈 안쪽 사이의 영역에 포함된 픽셀수를 계산하여 사용자의 양쪽 눈 안쪽 사이의 거리를 측정하는 것을 특징으로 하는 디바이스와 얼굴 사이의 거리 측정 방법.
The method of claim 1,
In the step of deriving the distance between at least two points on the user's face, the distance between the inside of both eyes of the user is measured by calculating the number of pixels included in the area between the inside of both eyes of the user in the user's face image. How to measure the distance between the device and the face.
제 2항에 있어서,
상기 디바이스 어플리케이션은 사용자가 달라지는 경우에 상기 관계식을 보정하는 과정을 수행하는 것을 특징으로 하며,
상기 관계식을 보정하는 과정은, 전면에 카메라가 구비된 디바이스를 사용자가 두손으로 잡고 사용자가 카메라를 최대거리에서 보고 있는 상태에서 카메라의 위치를 얼굴에 가까워지도록 변경하여 얼굴의 두 지점 사이의 거리와 얼굴과 디바이스 사이의 거리의 기울기값이 변경되는 지점을 산출하여 이를 기준점으로 설정하는 과정을 수행하는 것을 특징으로 하는 디바이스와 얼굴 사이의 거리 측정 방법.
The method of claim 2,
The device application is characterized by performing a process of correcting the relational expression when the user is different,
In the process of correcting the relational expression, the position of the camera is changed so that the position of the camera is closer to the face while the user holds the device equipped with the camera in the front with both hands and the user is looking at the camera at the maximum distance. A method of measuring a distance between a device and a face, comprising calculating a point at which a slope value of a distance between a face and a device is changed and setting it as a reference point.
제 4항에 있어서,
사용자가 상기 관계식을 보정하는 과정은, 사용자가 상기 디바이스와 얼굴과의 거리를 직접 측정하여 이에 따른 얼굴의 두 지점 사이의 거리를 산출하고, 상기 관계식의 Wweight 값을 변경하는 보정과정을 수행하여 상기 관계식을 재설정하는 것을 특징으로 하는 디바이스와 얼굴 사이의 거리 측정 방법.


The method of claim 4,
In the process of correcting the relational expression by the user, the user directly measures the distance between the device and the face, calculates the distance between two points of the face accordingly, and performs a correction process of changing the W weight value of the relational expression. A method of measuring a distance between a device and a face, wherein the relational expression is reset.


KR1020190051945A 2019-05-03 2019-05-03 Distance measuring method between device and face KR102214551B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190051945A KR102214551B1 (en) 2019-05-03 2019-05-03 Distance measuring method between device and face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190051945A KR102214551B1 (en) 2019-05-03 2019-05-03 Distance measuring method between device and face

Publications (2)

Publication Number Publication Date
KR20200127560A KR20200127560A (en) 2020-11-11
KR102214551B1 true KR102214551B1 (en) 2021-02-09

Family

ID=73451815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190051945A KR102214551B1 (en) 2019-05-03 2019-05-03 Distance measuring method between device and face

Country Status (1)

Country Link
KR (1) KR102214551B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740231B1 (en) * 2010-11-17 2017-05-26 삼성전자주식회사 Method and apparatus for estimating 3d face position
EP2909699A1 (en) * 2012-10-22 2015-08-26 VID SCALE, Inc. User presence detection in mobile devices

Also Published As

Publication number Publication date
KR20200127560A (en) 2020-11-11

Similar Documents

Publication Publication Date Title
US9355314B2 (en) Head-mounted display apparatus and login method thereof
US9691137B2 (en) Radial distortion parameter acquiring method and apparatus
CN106951346B (en) Response time testing method and device
KR20130099521A (en) Method for correcting user's gaze direction in image, machine-readable storage medium and communication terminal
US10176616B2 (en) Automatic capture and refinement of a digital image of a group of people without user intervention
US10517523B2 (en) Skin aging state assessment method and electronic device
US11232585B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
US9854174B2 (en) Shot image processing method and apparatus
US10671173B2 (en) Gesture position correctiing method and augmented reality display device
CN111353368A (en) Pan-tilt camera, face feature processing method and device and electronic equipment
US9354489B2 (en) Robust autofocus algorithm for multi-spectral imaging systems
US11080888B2 (en) Information processing device and information processing method
TW201820263A (en) Method for adjusting the aspect ratio of the display and display device thereof
CN105957020B (en) Video generation device and image generating method
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
CN108108024A (en) Dynamic gesture acquisition methods and device, display device
KR102214551B1 (en) Distance measuring method between device and face
US20160350622A1 (en) Augmented reality and object recognition device
KR102195068B1 (en) User terminal with Line-of-sight Matching function and method using the same
CN111610886A (en) Method and device for adjusting brightness of touch screen and computer readable storage medium
KR101491963B1 (en) Out focusing video calling method and apparatus of the mobile terminal
JP2017004438A (en) Input device, finger-tip position detection method, and computer program for finger-tip position detection
KR101825321B1 (en) System and method for providing feedback of real-time optimal shooting composition using mobile camera recognition technology
JP2018136666A (en) Visual line conversion apparatus and visual line conversion method
CN106775303B (en) Method and system for adjusting display content of terminal

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant