KR102401575B1 - Method for Measuring Numerical Value by using Automatic Focussing Function of Camera - Google Patents

Method for Measuring Numerical Value by using Automatic Focussing Function of Camera Download PDF

Info

Publication number
KR102401575B1
KR102401575B1 KR1020170128490A KR20170128490A KR102401575B1 KR 102401575 B1 KR102401575 B1 KR 102401575B1 KR 1020170128490 A KR1020170128490 A KR 1020170128490A KR 20170128490 A KR20170128490 A KR 20170128490A KR 102401575 B1 KR102401575 B1 KR 102401575B1
Authority
KR
South Korea
Prior art keywords
distance
feature points
app
image information
information
Prior art date
Application number
KR1020170128490A
Other languages
Korean (ko)
Other versions
KR20190038965A (en
Inventor
김재형
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020170128490A priority Critical patent/KR102401575B1/en
Publication of KR20190038965A publication Critical patent/KR20190038965A/en
Application granted granted Critical
Publication of KR102401575B1 publication Critical patent/KR102401575B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

본 발명은 카메라의 자동초점 기능을 이용한 수치 계측 방법에 관한 것으로, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하고, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하고, 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하며, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출한다.The present invention relates to a numerical measurement method using an auto-focus function of a camera, wherein the method is executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera mounted on the wireless terminal When the camera lens of the module is taken close to the subject, the nearest limit distance information corresponding to the closest shooting distance that can be autofocused and the reference focal length information for autofocusing at the nearest shooting distance are checked, and the app is the camera lens of N (N ≥ 2) feature points and M (M ≥ 1) edge regions where focus can be confirmed, including the N feature points and M edge regions within the field of view. At the same time, the shooting distance between the subject and the camera lens is spaced in a '+' direction from a '-' distance less than the nearest limit distance that can autofocus of the camera module to a '+' distance greater than the nearest limit distance. An interface for inducing or inducing the shooting distance to be spaced apart in the '-' direction from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused of the camera module to a '-' distance less than the nearest limit distance is designated on the screen area. Displayed in the interface area, the app reads F (F≥2) frame image information included in the image information input and buffered through the camera module, n (2≤n≤N) feature points and m(1) ≤n≤M) edge regions are recognized and at the same time recognized whether the image information is spaced apart in the '+' direction or the '-' direction according to the induction of the interface, and the image information in which the app is spaced apart in the '+' direction is recognized through at least f (1≤f<F) frame image information corresponding to the '0' point in which the blur ratio of the m edge regions included in the image information decreases and then becomes constant. When the distance between n feature points is calculated or when image information spaced apart from the '-' direction is recognized, the blur ratio of the m edge regions included in the image information is maintained at a constant state and then increases to '0'. At least f(1) corresponding to the time point The distance between n feature points recognized through ≤f<F) frame image information is calculated. A numerical value of the actual distance between the n key points on the subject corresponding to the distance between the key points is calculated.

Description

카메라의 자동초점 기능을 이용한 수치 계측 방법{Method for Measuring Numerical Value by using Automatic Focussing Function of Camera}Method for Measuring Numerical Value by using Automatic Focussing Function of Camera

본 발명은 무선단말의 카메라모듈을 통해 피사체를 촬영하여 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리를 지정된 도량형 단위의 수치로 정밀 계측하는 것이다.The present invention is to photograph a subject through a camera module of a wireless terminal and precisely measure the actual distance between at least two feature points existing on the subject as a numerical value in a specified metrological unit.

무선단말의 카메라를 이용하여 피사체의 크기나 높이를 측정하는 방식이 제안되었다. 한편 종래에 무선단말의 카메라를 이용하여 측정하는 방식은, 사람의 눈처럼 같은 방향을 촬영하는 두 개의 카메라를 이용하여 측정하는 방식(공개특허공보 제10-2004-005432호(2004년06월25일)), 카메라 외에 별도의 센서를 이용하여 측정하는 방식(공개특허공보 제10-2008-0076338호(2008년08월20일)), 카메라를 통해 피사체 촬영하고 실제 높이를 키 입력하여 측정하는 방식(공개특허공보 제10-2004-0104798호(2004년12월13일)) 등 다양한 방식이 제안되었다.A method of measuring the size or height of a subject using a camera of a wireless terminal has been proposed. Meanwhile, the conventional method of measuring using a camera of a wireless terminal is a method of measuring using two cameras that photograph the same direction as a human eye (Patent Publication No. 10-2004-005432 (June 25, 2004) 1)), a method of measuring using a sensor other than a camera (Patent Publication No. 10-2008-0076338 (August 20, 2008)), taking a subject through a camera and measuring the actual height by keying Various methods have been proposed, such as method (Patent Publication No. 10-2004-0104798 (December 13, 2004)).

그러나 종래에 제안된 측정 방식은 무선단말에 같은 방향을 촬영하는 두 개의 카메라를 탑재하거나 별도의 센서를 탑재한 경우에만 측정 가능하며 하나의 카메라를 통해서는 측정하기 불가능한 문제점을 지니고 있으며, 만약 무선단말에 탑재된 하나의 카메라를 통해 측정하기 위해서는 사용자가 실제 높이를 키 입력해야 하는 불편함을 지니고 있다.However, the conventionally proposed measurement method has a problem in that it is possible to measure only when two cameras for photographing the same direction are mounted on the wireless terminal or when a separate sensor is mounted, and it is impossible to measure through one camera. It has the inconvenience of having to key in the actual height in order to measure it through a single camera mounted on it.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계 및 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법을 제공함에 있다.An object of the present invention for solving the above problems is, in a method executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, the app is a camera of a camera module mounted on the wireless terminal The first step of confirming the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused when shooting the lens close to the subject and the reference focal length information for autofocusing at the nearest shooting distance, and the app is the camera lens of N (N ≥ 2) feature points and M (M ≥ 1) edge regions where focus can be confirmed, including the N feature points and M edge regions within the field of view. At the same time, the shooting distance between the subject and the camera lens is spaced in a '+' direction from a '-' distance less than the nearest limit distance that can autofocus of the camera module to a '+' distance greater than the nearest limit distance. An interface for inducing or inducing the shooting distance to be spaced apart in the '-' direction from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused of the camera module to a '-' distance less than the nearest limit distance is designated on the screen area. The second step of displaying in the interface area and the app reading F (F ≥ 2) frame image information included in the image information that is input and buffered through the camera module, n (2 ≤ n ≤ N) feature points and A third step of recognizing m (1≤n≤M) edge regions and at the same time recognizing whether the image information is spaced apart in a '+' direction or a '-' direction according to the induction of the interface, and the app At least f (1≤f<F) frames corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and becomes constant when image information spaced apart in the direction is recognized When the distance between the n feature points recognized through image information is calculated or when image information spaced apart from the '-' direction is recognized, the blur ratio of the m edge regions included in the image information is maintained constant. In response to the increasing '0' A fourth step of calculating the distance between the n feature points recognized through at least f (1≤f<F) frame image information, and the app, based on the relationship between the reference focal length and the nearest limit distance, the '0' ' To provide a numerical measurement method using an autofocus function of a camera, including a fifth step of calculating the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the point of view.

삭제delete

삭제delete

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계 및 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점은,상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점은,상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우,상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계 및 상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 거리관계는, 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서,상기 각도관계는, 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계와 상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계 및 상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계;를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제1 단계는, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 기능을 활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 주기를 최소값으로 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제3 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며, 상기 제4 단계는, 상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계 및 상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 환산정보는,상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 상기 제4 단계는,상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계 및 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법에 있어서, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '-' 방향 이격되는지 인식하는 제3 단계와 상기 앱이 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계 및 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하는 것을 특징으로 한다.

본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계와, 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함한다.
The numerical measurement method using the auto-focus function of the camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera module mounted on the wireless terminal The first step of checking the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and the reference focal length information for autofocusing at the nearest shooting distance when the camera lens of the camera lens is taken close to the subject, and the app The direction of the camera lens is directed toward the subject with N (N≥2) feature points and M (M≥1) edge areas that can confirm focus, so that the N feature points and M edge areas are within the angle of view. At the same time, the shooting distance between the subject and the camera lens is spaced in a '+' direction from a '-' distance less than the closest limit distance that can autofocus of the camera module to a '+' distance greater than the closest limit distance. An interface for inducing an interface to inducing to inducing or separating the shooting distance from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused of the camera module to a '-' distance less than the nearest limit distance in a '-' direction is displayed on the screen area. In the second step of displaying on the designated interface area of the image, and the app reads F (F≥2) frame image information included in the image information input and buffered through the camera module, n (2≤n≤N) A third step of recognizing feature points and m (1≤n≤M) edge regions and at the same time recognizing whether the image information is spaced apart in a '+' direction or a '-' direction according to the induction of the interface, and the app When image information spaced apart from the '+' direction is recognized, at least f (1≤f<F) corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and then becomes constant. A state in which the blur ratio of the m edge regions included in the image information is constant when the distance between n feature points recognized through frame image information is calculated or when image information spaced apart in the '-' direction is recognized '0' point that increases while maintaining A fourth step of calculating the distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to , and the app based on the relationship between the reference focal length and the nearest limit distance and a fifth step of calculating the value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the time '0'.

In the numerical measurement method using the autofocus function of the camera according to the present invention, when the numerical value of the actual distance between two or more feature points is calculated, the app uses at least two or more feature points among the feature points for which the numerical value of the actual distance is calculated as a reference feature point Setting and setting the actual distance between the reference feature points as a reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed near the reference feature point, and the app between the reference feature points Calculating the numerical value of the actual distance between the T measurement target feature points using the actual distance as a reference distance; characterized in that it further comprises.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the T feature points to be measured include feature points included in frame image information identical to the frame image information including the reference feature point. do.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the T measurement target feature points may include at least one feature point among the reference feature points.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, when the numerical value of the actual distance between the T feature points to be measured is calculated, the app performs at least t (2≤t≤) among the T feature points to be measured. It is characterized in that it further comprises the step of setting reuse of T) feature points as reference feature points or reusing and setting the actual distance between the t feature points to be measured as reference distances.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, when the actual distance between p key points including at least two or more actual distances formed by connecting at least p (p ≥ 3) key points is calculated, The app generates reference geometric relationship information for determining a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points It characterized in that it further comprises the step of storing and managing, by the app, the generated reference geometry relationship information in a designated storage area.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the distance relationship includes relative length information of two or more straight lines connecting the p feature points and the distance of two or more straight lines connecting the p feature points It is characterized in that it comprises at least one of related vector component information.

In the numerical measurement method using the autofocus function of the camera according to the present invention, the angular relationship includes angle information formed by two or more straight lines connecting the p feature points and two or more straight lines connecting the p feature points. It characterized in that it comprises at least one of direction-related vector component information.

In the numerical measurement method using the autofocus function of a camera according to the present invention, at least q (q≥3) feature points included in the image information input through the camera module after the reference geometrical relationship information is stored in a designated storage area When this is recognized, the step of recognizing, by the app, geometric relationship information including the distance relationship and angular relationship between the recognized q feature points, and one or more reference geometric relationship information stored in a designated storage area by the app and the recognized q Comparing the geometric relationship information between the q feature points, confirming any one reference geometric relationship information that matches the geometric relationship information between the q feature points within the allowable error range, and when the matched reference geometric relationship information is confirmed, the app and determining an actual distance between at least two or more of the recognized q feature points by using the actual distances between the p feature points included in the matched reference geometric relationship information.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the app sets at least two or more feature points among the recognized q feature points or the p feature points included in the confirmed reference geometric relationship information as reference feature points and setting the actual distance between the set reference feature points as a reference distance and the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app between the reference feature points Calculating the numerical value of the actual distance between the T measurement target feature points using the actual distance as a reference distance; characterized in that it further comprises.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, when the matched reference geometrical relationship information is not confirmed, the app is induced to recognize the N feature points and M edge areas, or the subject and the It characterized in that it comprises the step of processing to display an interface that induces the distance between the camera lenses to be spaced apart in the '+' direction or spaced apart in the '-' direction.

In the numerical measurement method using the autofocus function of the camera according to the present invention, the first step is a designated unit pixel on the pixel area of the image information obtained through the image sensor unit of the camera module mounted on the wireless terminal by the app. It characterized in that it further comprises the step of confirming the conversion information for converting the distance into the actual distance of the specified metrology unit.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the second step is characterized in that it further comprises the step of activating the auto-focus function of the camera module by the app.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the second step is characterized in that it further comprises the step of setting, by the app, the auto-focus period of the camera module to a minimum value.

In the numerical measurement method using the auto-focus function of a camera according to the present invention, the N feature points are values of an area adjacent to one or more of color, contrast, and saturation among pixel areas in image information input through the camera module. It is characterized in that it comprises at least one of a point region, a line region, and a plane region in which a difference by more than a specified reference value occurs.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the N feature points are feature points formed in a virtual plane area forming an orthogonal relationship with the gaze direction of the camera lens within a specified tolerance range, or It is characterized in that it comprises a feature point formed in a virtual plane area forming a parallel relationship with the sensor area of the image sensor unit of the camera lens within a specified tolerance range.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the second step is to form an orthogonal relationship between the surface where the app forms N feature points on the subject and the gaze direction of the camera lens. It characterized in that it further comprises the step of displaying the inducing interface.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the second step is an interface that induces the app to be spaced apart at a specified separation speed moving within a specified separation distance within an auto-focus period of the camera module. It characterized in that it further comprises the step of displaying.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the second step is to read the specified number of frames included in the image information that is input and buffered by the app through the camera module to obtain n feature points. And it characterized in that it further comprises the step of displaying an interface for inducing separation at a specified separation speed that moves within a specified separation distance within a time required for recognizing the m edge regions.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the third step is an i-th (1≤f<F) frame image among the F frames that the app is inputted through the camera module and buffered. When the pixel distance between the feature points increases by comparing the pixel distance between at least one feature point included in the information with the pixel distance between the same feature point included in the jth (i<j≤F) frame image information, through the camera module Checking the input image information as image information spaced apart in the '+' direction, and when the pixel distance between the feature points decreases, confirming the image information input through the camera module as image information spaced apart in the '-' direction It is characterized in that it is done.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the app calculates a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal in a specified metrological unit. The method further comprises the step of checking conversion information for converting to an actual distance, wherein the fourth step includes: calculating, by the app, a pixel distance between n feature points existing in the f pieces of image information; and the app, the conversion information and converting the pixel distance between the n feature points into the distance between the n feature points in a designated metrological unit.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the conversion information includes information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit. characterized.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the fourth step is when the distance between two or more n feature points existing in the image information of two or more frames corresponding to the '0' viewpoint is calculated , wherein the app statistically processes the calculated distance between the two or more n feature points to calculate the distance between the n feature points within a specified error range.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the method is executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera mounted on the wireless terminal When the camera lens of the module is taken close to the subject, the first step of checking the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and the reference focal length information for autofocusing at the nearest shooting distance, and the app Direct the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas where focus can be confirmed, so that the N feature points and M edges are within the angle of view. At the same time inducing to include the area, the shooting distance between the subject and the camera lens is set in a '+' direction from a '-' distance less than the closest limit distance that can autofocus of the camera module to a '+' distance greater than the closest limit distance. A second step of displaying an interface inducing separation in a designated interface area on the screen area and F (F≥2) frame image information included in the image information that is input and buffered by the app through the camera module is read A third step of recognizing n (2≤n≤N) feature points and m (1≤n≤M) edge regions and at the same time recognizing whether the image information is spaced apart in the '+' direction according to the induction of the interface; When the app recognizes the image information spaced apart from the '+' direction, at least f (1≤f) corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and becomes constant. A fourth step of calculating the distance between the n feature points recognized through <F) frame image information, and the n recognized at the time '0' by the app based on the relationship between the reference focal length and the nearest limit distance and a fifth step of calculating the value of the actual distance between the n feature points on the subject corresponding to the distance between the feature points.

In the numerical measurement method using the auto-focus function of the camera according to the present invention, the method is executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera mounted on the wireless terminal When the camera lens of the module is taken close to the subject, the first step of checking the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and the reference focal length information for autofocusing at the nearest shooting distance, and the app Direct the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas where focus can be confirmed, so that the N feature points and M edges are within the angle of view. At the same time inducing to include the area, the shooting distance between the subject and the camera lens is set from a '+' distance greater than or equal to the closest limit distance that can autofocus of the camera module to a '-' distance less than the closest limit distance in a '-' direction. A second step of displaying an interface inducing separation in a designated interface area on the screen area and F (F≥2) frame image information included in the image information that is input and buffered by the app through the camera module is read A third step of recognizing n (2≤n≤N) feature points and m (1≤n≤M) edge regions and at the same time recognizing whether the image information is spaced apart in the '-' direction according to the induction of the interface; When the app recognizes the image information spaced apart from the '-' direction, at least f ( A fourth step of calculating the distance between n feature points recognized through 1≤f<F) frame image information, and the app at the '0' time point based on the relationship between the reference focal length and the nearest limit distance and a fifth step of calculating a numerical value of the actual distance between the n real feature points on the subject corresponding to the recognized distance between the n feature points.

The numerical measurement method using the auto-focus function of the camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera module mounted on the wireless terminal A first step of confirming the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and the reference focal length information for autofocusing at the nearest shooting distance when the camera lens of Directing the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas where focus can be confirmed, the N feature points and M edges within the angle of view At the same time inducing to include the area, the shooting distance between the subject and the camera lens is set in a '+' direction from a '-' distance less than the closest limit distance that can autofocus of the camera module to a '+' distance greater than the closest limit distance. Screen an interface for inducing separation or to separate the shooting distance from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused of the camera module to a '-' distance less than the nearest limit distance in a '-' direction. A second step of displaying in a designated interface area on the area, and the app reads F (F≥2) frame image information included in the image information input and buffered through the camera module to read n(2≤n≤N ) feature points and m (1≤n≤M) edge regions and at the same time recognizing whether the image information is spaced apart in a '+' direction or a '-' direction according to the induction of the interface; When the app recognizes the image information spaced apart from the '+' direction, at least f (1≤f) corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and becomes constant. When calculating the distance between n feature points recognized through <F) frame image information or recognizing image information spaced apart in the '-' direction, blur ratio of m edge regions included in the image information '0' that increases while maintaining this constant state A fourth step of calculating the distance between the n feature points recognized through at least f (1≤f<F) frame image information corresponding to the viewpoint, and the app calculates the relationship between the reference focal length and the nearest limit distance and a fifth step of calculating a numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the time '0' as the basis.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계와, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, when the numerical value of the actual distance between two or more feature points is calculated, the app uses at least two or more feature points among the feature points for which the numerical value of the actual distance is calculated as a reference feature point and setting the actual distance between the reference feature points as a reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app The method may further include calculating a numerical value of the actual distance between the T feature points to be measured by using the actual distance between the reference feature points as the reference distance.

본 발명에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함할 수 있다.According to the present invention, the T feature points to be measured may include feature points included in the same frame image information as the frame image information including the reference feature points.

본 발명에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 한다.According to the present invention, the T feature points to be measured may include at least one feature point among the reference feature points.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, when the numerical value of the actual distance between the T measurement target feature points is calculated, the app executes at least t (2≤t) among the T measurement target feature points. The method may further include setting ≤T) feature points to be reused as reference feature points or reused setting the actual distance between the t feature points to be measured as reference distances.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우, 상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계와, 상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, when the actual distance between p key points including at least two or more actual distances formed by connecting at least p (p ≥ 3) feature points is calculated , the app generates reference geometrical relationship information for determining a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points The method may further include the steps of: and managing, by the app, storing the generated reference geometry relationship information in a designated storage area.

본 발명에 따르면, 상기 거리관계는 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함할 수 있다.According to the present invention, the distance relationship may include at least one of relative length information of two or more straight lines connecting the p feature points and distance-related vector component information of two or more straight lines connecting the p feature points.

본 발명에 따르면, 상기 각도관계는 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함할 수 있다.According to the present invention, the angular relationship may include at least one of angle information formed by two or more straight lines connecting the p feature points and direction-related vector component information of two or more straight lines connecting the p feature points. .

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계와, 상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계와, 상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계를 더 포함할 수 있다.According to the present invention, the numerical measurement method using the autofocus function of the camera includes at least q (q≥3) Recognizing, by the app, geometric relationship information including a distance relationship and an angular relationship between the recognized q feature points when the feature point is recognized, and one or more reference geometric relationship information stored in a storage area designated by the app Comparing the geometrical relationship information between the q feature points to confirm the geometric relationship information between the q feature points and any one reference geometrical relationship information that matches within an allowable error range; When the matched reference geometrical relationship information is confirmed , determining, by the app, an actual distance between at least two or more of the recognized q feature points by using the actual distances between the p feature points included in the matched reference geometric relationship information.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계와, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the app uses at least two or more of the recognized q feature points or the p feature points included in the confirmed reference geometric relationship information as a reference feature point. Setting and setting the actual distance between the set reference feature points as a reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point; The method may further include calculating a numerical value of the actual distance between the T feature points to be measured by using the actual distance between the reference feature points as the reference distance.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the auto-focus function of the camera induces the app to recognize the N feature points and M edge areas or the subject when the matched reference geometric relationship information is not confirmed. and processing to display an interface leading to a distance between the camera lens and the camera lens to be spaced apart in a '+' direction or spaced apart in a '-' direction.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 기종 별 자동초점 가능한 최근접한계거리정보와 기준초점거리정보를 각 무선단말의 기종 식별정보와 연계하여 DB화하는 단계를 더 포함하며, 상기 제1 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 무선단말의 기종 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 무선단말의 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the operation server links the nearest limit distance information and the reference focal length information that can auto-focus by model of each wireless terminal with the model identification information of each wireless terminal further comprising the step of converting to a DB, wherein the first step is to check the model identification information for the app to identify the model of the wireless terminal, and the app to the operation server the model identification information of the wireless terminal It may include providing, by the app, receiving nearest limit distance information and reference focal length information corresponding to the model identification information of the wireless terminal from the operation server.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 카메라모듈 별 자동초점 가능한 최근접한계거리정보와 기준초점거리정보를 각 카메라모듈의 모듈 식별정보와 연계하여 DB화하는 단계를 더 포함하며, 상기 제1 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 카메라모듈의 모듈 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 카메라모듈의 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the operation server converts the nearest limit distance information and the reference focal length information capable of auto-focusing for each camera module of each wireless terminal with the module identification information of each camera module and the Further comprising the step of forming a DB in association, the first step is the step of the app confirming module identification information for identifying the camera module mounted on the wireless terminal, the app to the operation server of the camera module Providing module identification information, and the app may include the step of receiving the nearest limit distance information and reference focal length information corresponding to the module identification information of the camera module from the operation server.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 기종 별 자동초점 가능한 최근접한계거리정보와 기준초점거리정보를 각 무선단말의 기종 식별정보와 연계하여 포함하고, 상기 제1 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 무선단말의 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 확인하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the app links the nearest limit distance information and reference focal length information that can auto-focus by model of each wireless terminal with the model identification information of each wireless terminal Including, the first step is the step of confirming the model identification information for the app to identify the model of the wireless terminal, and the app is the nearest limit distance information and reference focus corresponding to the model identification information of the wireless terminal It may include the step of checking the distance information.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 카메라모듈 별 자동초점 가능한 최근접한계거리정보와 기준초점거리정보를 각 카메라모듈의 모듈 식별정보와 연계하여 포함하고, 상기 제1 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 카메라모듈의 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 확인하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the app provides the closest limit distance information and the reference focal length information that can auto-focus for each camera module of each wireless terminal with the module identification information of each camera module and Including in conjunction, the first step is to check the module identification information for identifying the camera module mounted on the app by the wireless terminal, the app is the closest limit distance corresponding to the module identification information of the camera module It may include the step of confirming the information and the reference focal length information.

본 발명에 따르면, 상기 제1 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함할 수 있다.According to the present invention, the first step is conversion information in which the app converts a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal into an actual distance in a specified metrological unit. It may further include the step of confirming.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 기종 별 환산정보와 각 무선단말의 기종 식별정보를 연계하여 DB화하는 단계를 더 포함하며, 상기 제1 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 무선단말의 기종 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 무선단말의 기종 식별정보에 대응하는 환산정보를 수신하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the auto-focus function of the camera further comprises the step of the operation server linking the conversion information for each type of each wireless terminal and the model identification information of each wireless terminal to form a DB, wherein the The first step is to check the model identification information that the app identifies the model of the wireless terminal, and the app provides the model identification information of the wireless terminal to the operation server, and the app is the operation server It may include receiving conversion information corresponding to the model identification information of the wireless terminal from the.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 카메라모듈 별 환산정보와 각 카메라모듈의 모듈 식별정보를 연계하여 DB화하는 단계를 더 포함하며, 상기 제1 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 카메라모듈의 모듈 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 카메라모듈의 모듈 식별정보에 대응하는 환산정보를 수신하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the auto-focus function of the camera further comprises the step of linking, by the operation server, conversion information for each camera module of each wireless terminal and module identification information of each camera module to DB, The first step is the step of the app confirming module identification information for identifying the camera module mounted on the wireless terminal, the step of the app providing the module identification information of the camera module to the operation server, the app It may include the step of receiving conversion information corresponding to the module identification information of the camera module from the operation server.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 기종 별 환산정보와 각 무선단말의 기종 식별정보를 연계하여 포함하고, 상기 제1 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 무선단말의 기종 식별정보에 대응하는 환산정보를 확인하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the app includes conversion information for each model of each wireless terminal and model identification information of each wireless terminal in association with the app, and the first step is the app Checking the model identification information for identifying the model of the wireless terminal, and the app may include the step of confirming conversion information corresponding to the model identification information of the wireless terminal.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 카메라모듈 별 환산정보와 각 카메라모듈의 모듈 식별정보를 연계하여 포함하고, 상기 제1 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 카메라모듈의 모듈 식별정보에 대응하는 환산정보를 확인하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, the app includes conversion information for each camera module of each wireless terminal and module identification information of each camera module in association with the first step. The app may include the steps of checking module identification information for identifying the camera module mounted on the wireless terminal, and the app checking conversion information corresponding to the module identification information of the camera module.

본 발명에 따르면, 상기 제2 단계는 화면 영역 상의 지정된 영상출력 영역에 카메라모듈을 통해 입력되어 버퍼링되는 영상정보를 출력하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include outputting the image information that is input and buffered through the camera module to a designated image output area on the screen area.

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 카메라모듈의 자동초점 기능을 활성화하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include the step of activating the auto-focus function of the camera module by the app.

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 카메라모듈의 자동초점 주기를 최소값으로 설정하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include the step of the app setting the auto-focus period of the camera module to a minimum value.

본 발명에 따르면, 상기 N개의 특징점은 상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함할 수 있다. According to the present invention, the N feature points are a point region and a line region in which one or more values of color, contrast, and chroma among pixel regions in image information input through the camera module differ by more than a specified reference value from values in adjacent regions. , may include at least one area of the surface area.

본 발명에 따르면, 상기 N개의 특징점은 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함할 수 있다.According to the present invention, the N feature points are feature points formed in an imaginary plane area forming an orthogonal relationship with the gaze direction of the camera lens within a specified tolerance range, or an image sensor unit of the camera lens within a specified tolerance range. It may include a feature point formed in a virtual planar area forming a parallel relationship with the sensor area.

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include displaying an interface that induces the app to form an orthogonal relationship between the surface on which the N feature points on the subject are formed and the gaze direction of the camera lens. .

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 카메라모듈의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include displaying an interface for inducing the app to be spaced apart at a designated spacing speed moving within a designated spacing distance within an auto-focus period of the camera module.

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함할 수 있다.According to the present invention, in the second step, the app reads a specified number of frames included in the image information input and buffered through the camera module and recognizes n feature points and m edge regions within the required time. The method may further include displaying an interface for inducing separation at a specified separation speed moving within a specified separation distance.

본 발명에 따르면, 상기 이격 속도는 적어도 10cm/s 이내로 이동하는 속도를 포함할 수 있다.According to the present invention, the separation speed may include a speed of moving within at least 10 cm/s.

본 발명에 따르면, 상기 이격 속도는 적어도 5cm/s 이내로 이동하는 속도를 포함할 수 있다.According to the present invention, the separation speed may include a speed of moving within at least 5 cm/s.

본 발명에 따르면, 상기 제3 단계는 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함할 수 있다.According to the present invention, in the third step, the pixel distance between at least one feature point and When the pixel distance between the feature points increases by comparing the pixel distance between the same feature points included in j (i<j≤F) frame image information, the image information input through the camera module is spaced apart in the '+' direction. and confirming that the image information input through the camera module is spaced apart in the '-' direction when the pixel distance between the feature points decreases.

본 발명에 따르면, 상기 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며, 상기 제4 단계는 상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계와, 상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the auto-focus function of the camera, a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal by the app is a specified metrological unit Further comprising the step of confirming the conversion information for converting to the actual distance, the fourth step is the step of calculating the pixel distance between the n feature points present in the f image information by the app, and the app is the conversion The method may include converting the pixel distance between the n feature points into a distance between the n feature points in a specified metrological unit using the information.

본 발명에 따르면, 상기 환산정보는 상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함할 수 있다.According to the present invention, the conversion information may include information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit.

본 발명에 따르면, 상기 제4 단계는 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함할 수 있다.According to the present invention, in the fourth step, when the distance between two or more n feature points existing in the two or more frame image information corresponding to the '0' view point is calculated, the app calculates the distance between the two or more n feature points. The method may include calculating a distance between n feature points within a specified error range by statistically processing the distance.

한편 본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 인식하는 제3 단계와, 상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함한다.On the other hand, the numerical measurement method using the auto-focus function of the camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera mounted on the wireless terminal A first step of confirming the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused when the camera lens of the module is taken close to the subject and the reference focal length information for autofocusing at the nearest shooting distance; The viewing direction of the camera lens is directed toward a subject having N (N ≥ 2) feature points and M (M ≥ 1) edge areas where focus can be confirmed, and the N feature points and M At the same time inducing the inclusion of the edge area, the shooting distance between the subject and the camera lens is '+' from a '-' distance less than the closest limit distance that can autofocus of the camera module to a '+' distance greater than the closest limit distance. A second step of displaying an interface inducing direction separation in a designated interface area on the screen area, and F (F≥2) frame image information included in the image information that is input and buffered by the app through the camera module A third step of recognizing n (2≤n≤N) feature points and m (1≤n≤M) edge regions by reading and recognizing whether the image information is spaced apart in the '+' direction according to the induction of the interface And, when the app recognizes the image information spaced apart in the '+' direction, at least f ( A fourth step of calculating the distance between n feature points recognized through 1≤f<F) frame image information, and the '0' viewpoint based on the relationship between the reference focal length and the nearest limit distance by the app and a fifth step of calculating the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized in .

한편 본 발명에 따른 카메라의 자동초점 기능을 이용한 수치 계측 방법은, 자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계와, 상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계와, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '-' 방향 이격되는지 인식하는 제3 단계와, 상기 앱이 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와, 상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하다.On the other hand, the numerical measurement method using the auto-focus function of the camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module having an auto-focus function, wherein the app is a camera mounted on the wireless terminal A first step of confirming the nearest limit distance information corresponding to the nearest shooting distance that can be autofocused when the camera lens of the module is taken close to the subject and the reference focal length information for autofocusing at the nearest shooting distance; The viewing direction of the camera lens is directed toward a subject having N (N ≥ 2) feature points and M (M ≥ 1) edge areas where focus can be confirmed, and the N feature points and M At the same time inducing the inclusion of the edge area, the shooting distance between the subject and the camera lens is changed from a '+' distance greater than or equal to the nearest limit distance that can autofocus of the camera module to a '-' distance less than the nearest limit distance, '-' A second step of displaying an interface inducing direction separation in a designated interface area on the screen area, and F (F≥2) frame image information included in the image information that is input and buffered by the app through the camera module A third step of recognizing n (2≤n≤N) feature points and m (1≤n≤M) edge regions by reading, and at the same time recognizing whether the image information is spaced apart in the '-' direction according to the induction of the interface And, when the app recognizes the image information spaced apart from the '-' direction, the blur ratio of the m edge regions included in the image information maintains a constant state and increases corresponding to the '0' time point. A fourth step of calculating the distance between n feature points recognized through at least f (1≤f<F) frame image information, and the app based on the relationship between the reference focal length and the nearest limit distance and a fifth step of calculating the value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the time 0'.

본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 근접 촬영하면서 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향이나 '-' 방향으로 이격하는 캘리브레이션(Calibration) 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.According to the present invention, while taking a close-up of a subject having two or more feature points through one camera module mounted on a wireless terminal, a calibration ( Calibration), there is an advantage in precisely calculating the value of the actual distance between at least two feature points existing on the subject.

본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 근접 촬영하면서 상기 캘리브레이션 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리를 산출한 이후에는 상기 근접 촬영과 무관하게 상기 산출된 특징점 간의 실제거리를 이용하여 상기 피사체에 존재하는 다른 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.According to the present invention, after calculating the actual distance between at least two feature points existing on the subject through the calibration process while taking close-up shots of a subject having two or more feature points through one camera module mounted on the wireless terminal, the There is an advantage in precisely calculating the numerical value of the actual distance between the different feature points existing in the subject by using the calculated actual distance between the feature points regardless of close-up photography.

본 발명에 따르면, 피사체 상에 존재하는 특징점 간의 실제거리를 산출한 경우 상기 산출된 특징점 간의 실제거리와 상기 특징점 간의 거리관계 및 상기 특징점들이 형성하는 각도관계를 포함하는 특징점 간의 기하학 관계정보를 생성하여 저장한 이후에 카메라모듈을 통해 동일한 피사체를 다시 촬영하는 경우 별도의 캘리브레이션 과정 없이 상기 특징점 간의 기하학 관계정보를 통해 상기 피사체에 존재하는 특징점 간의 실제거리의 수치를 정밀하게 결정하는 이점이 있다.According to the present invention, when the actual distance between the feature points existing on the subject is calculated, geometric relationship information between the feature points including the calculated actual distance between the feature points and the distance relationship between the feature points and the angular relationship formed by the feature points is generated. When the same subject is photographed again through the camera module after storage, there is an advantage in precisely determining the numerical value of the actual distance between the feature points existing in the subject through the geometric relationship information between the feature points without a separate calibration process.

도 1은 본 발명의 실시 방법에 따라 카메라모듈을 이용하여 수치를 계측하는 무선단말과 앱의 기능 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 카메라모듈의 구조를 도시한 도면이다.
도 3은 본 발명의 제1 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 4는 본 발명의 제2 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 5는 본 발명의 제3 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.
1 is a diagram illustrating a functional configuration of a wireless terminal and an app for measuring numerical values using a camera module according to an embodiment of the present invention.
2 is a view showing the structure of a camera module according to an embodiment of the present invention.
3 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a first embodiment of the present invention.
4 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a second embodiment of the present invention.
5 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a third embodiment of the present invention.
6 is a diagram illustrating a process of generating, storing, and managing geometrical relationship information between feature points for which numerical values of actual distances are calculated according to an embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the principle of operation of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the following description are for a preferred implementation method among various methods for effectively explaining the features of the present invention, and the present invention is not limited only to the following drawings and description.

즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following embodiment corresponds to an embodiment of a preferred union type among numerous embodiments of the present invention, and an embodiment in which a specific configuration (or step) is omitted in the following embodiment, or a specific configuration (or step) An embodiment in which a function implemented in a function is divided into a specific configuration (or step), or an embodiment in which a function implemented in two or more configurations (or step) is integrated into any one configuration (or step), a specific configuration (or step) Embodiments in which the order of operation is replaced, and the like, are clearly stated to be within the scope of the present invention, even if not specifically mentioned in the following embodiments. Therefore, based on the following examples, it is clearly specified that various examples corresponding to a subset or a complement can be divided retroactively from the filing date of the present invention.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following embodiments are one means for efficiently explaining the technical spirit of the present invention to those of ordinary skill in the art to which the present invention belongs. only

도면1은 본 발명의 실시 방법에 따라 카메라모듈(105)을 이용하여 수치를 계측하는 무선단말(100)과 앱(110)의 기능 구성을 도시한 도면이다.1 is a diagram showing the functional configuration of the wireless terminal 100 and the app 110 for measuring numerical values by using the camera module 105 according to an embodiment of the present invention.

보다 상세하게 본 도면1은 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하고, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리 사이를 이격하도록 유도하고, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인식된 m개의 엣지 영역의 초점이 맞춰지는 '0' 시점에 상기 인식된 n개의 특징점 간 거리를 산출하고, 상기 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 기능을 구현하는 앱(110)의 구성과 무선단말(100)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 무선단말(100) 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면1의 무선단말(100)은 상기 앱(110)을 설치한 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나를 포함할 수 있다. 한편 본 도면1의 무선단말(100)은 상기 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나 이외에 카메라모듈(105)을 탑재한 모든 장치를 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.In more detail, FIG. 1 shows the nearest limit distance information corresponding to the nearest shooting distance capable of autofocusing when the camera lens 200 of the camera module 105 mounted on the wireless terminal 100 is photographed close to the subject, and the A subject having N (N ≥ 2) feature points and M (M ≥ 1) edge areas in the gaze direction of the camera lens 200 by checking the reference focal length information for auto-focusing at the nearest shooting distance direction while guiding at least one of the subject and the wireless terminal 100 to set the shooting distance between the subject and the camera lens 200 at a '-' distance less than the nearest limit distance Inducing the distance between the above '+' distances, and reading F (F ≥ 2) frame image information included in the image information input through the camera module 105, n (2 ≤ n ≤ N) feature points and m (1≤n≤M) edge areas are recognized, and the distance between the recognized n feature points is calculated at the time '0' when the recognized m edge areas are focused, and the reference focus Based on the relationship between the distance and the nearest limit distance, an app that implements a function of calculating the value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' time point (110) As shows the configuration of the wireless terminal 100 and the configuration of the wireless terminal 100, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this figure 1 for various functions of the wireless terminal 100 The implementation method can be inferred, but the present invention includes all the implementation methods inferred above, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 1 . Preferably, the wireless terminal 100 of this figure 1 may include at least one of a mobile communication terminal, a mobile phone, a smart phone, and a tablet PC in which the app 110 is installed. Meanwhile, the wireless terminal 100 of FIG. 1 may include all devices equipped with a camera module 105 other than at least one of the mobile communication terminal, mobile phone, smart phone, and tablet PC, and the present invention is not limited thereby. No.

도면1을 참조하면, 상기 무선단말(100)은, 제어부(101)와 메모리부(109)와 화면 출력부(102)와 사용자 입력부(103)와 사운드 처리부(104)와 카메라모듈(105)과 무선망 통신부(106)와 근거리망 통신부(107)와 USIM 리더부(108) 및 USIM를 구비하며, 전원 공급을 위한 배터리를 구비한다.Referring to FIG. 1 , the wireless terminal 100 includes a control unit 101 , a memory unit 109 , a screen output unit 102 , a user input unit 103 , a sound processing unit 104 , a camera module 105 and It includes a wireless network communication unit 106, a local area network communication unit 107, a USIM reader unit 108, and a USIM, and includes a battery for supplying power.

상기 제어부(101)는 상기 무선단말(100)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 무선단말(100)에 구비된 각 구성부와 버스(BUS)를 통해 연결된다. 본 발명에 따르면, 상기 제어부(101)는 상기 프로세서를 통해 상기 무선단말(100)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 무선단말(100)의 동작을 제어한다. 이하, 편의상 프로그램코드 형태로 구현되는 본 발명의 앱(110) 구성을 본 제어부(101) 내에 도시하여 설명하기로 한다.The control unit 101 is a generic term for components that control the operation of the wireless terminal 100, and includes at least one processor and an execution memory, and includes each component and a bus ( connected via BUS). According to the present invention, the control unit 101 loads at least one program code provided in the wireless terminal 100 through the processor into the execution memory, performs an operation, and outputs the result to at least one configuration through the bus. It is transmitted to the unit to control the operation of the wireless terminal 100 . Hereinafter, for convenience, the configuration of the app 110 of the present invention implemented in the form of a program code will be described by showing it in the control unit 101 .

상기 메모리부(109)는 상기 무선단말(100)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(101)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(109)는 기본적으로 상기 무선단말(100)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 무선단말(100)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 본 발명의 앱(110)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(109)에 저장된다.The memory unit 109 is a generic term for non-volatile memories corresponding to the storage resources of the wireless terminal 100, and includes at least one program code executed through the control unit 101 and at least one program code used by the program code. Save and maintain the dataset. The memory unit 109 basically includes a system program code and a system data set corresponding to the operating system of the wireless terminal 100, a communication program code and a communication data set for processing wireless communication connection of the wireless terminal 100, and at least One application program code and an application data set are stored, and a program code and data set corresponding to the app 110 of the present invention are also stored in the memory unit 109 .

상기 화면 출력부(102)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력한다. The screen output unit 102 is composed of a screen output device (eg, a liquid crystal display (LCD), etc.) and a driving module for driving the same, and is interlocked with the control unit 101 to display a screen among various calculation results of the control unit 101 . An operation result corresponding to the output is output to the screen output device.

상기 사용자 입력부(103)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(102)와 연동하는 터치스크린 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(101)의 연산에 필요한 데이터를 입력한다.The user input unit 103 includes one or more user input devices (eg, a button, a keypad, a touch pad, a touch screen interlocking with the screen output unit 102, etc.) and a driving module for driving the same, and the control unit 101 and A command for instructing various operations of the control unit 101 in conjunction with each other is input, or data necessary for the operation of the control unit 101 is input.

상기 사운드 처리부(104)는 스피커와 마이크로폰과 및 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력하거나, 또는 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 상기 제어부(101)로 전달한다.The sound processing unit 104 is composed of a speaker, a microphone, and a driving module for driving the same, and decodes sound data corresponding to a sound output among various calculation results of the control unit 101 and outputs it through the speaker or , or a sound signal input through the microphone is encoded and transmitted to the control unit 101 .

상기 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210) 및 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(Actuator)(205)를 포함하여 이루어지며, 실시 방법에 따라 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에 하나 이상의 필터부(예컨대, 적외선 필더 등)를 더 구비할 수 있다. 상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성할 수 있다. 한편 상기 카메라모듈(105)은 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보를 제어부(101)로 제공하기 위한 PCB부를 더 구비하며, 실시 방법에 따라 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보의 품질 향상을 위해 기 설정된 절차에 따라 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.The camera module 105 includes one or more camera lenses 200 that receive an optical signal reflected from a subject, and an image sensor unit 210 that detects an optical signal input through the camera lens 200 and converts it into an electrical image signal. ) and an actuator unit 205 for implementing an auto-focus function or an image stabilization function between the camera lens 200 and the image sensor unit 210, and according to the implementation method, the camera lens 200 ) and the image sensor unit 210 may further include one or more filter units (eg, infrared filters, etc.). The image sensor unit 210 detects the optical signal input through the camera lens 200 in real time, and the number of pixels (or resolution) in the horizontal direction h (h≥100) and v (v≥100) pixels in the vertical direction Image information in the form of a bitmap image having a number (or resolution) can be generated, or image information having h and v pixels (or resolution) and a specified number of frames per unit time can be generated. Meanwhile, the camera module 105 further includes a PCB unit for providing image information or image information generated through the image sensor unit 210 to the control unit 101, and the image sensor unit 210 according to the implementation method. An image signal processing processor (ISP) that processes according to a preset procedure in order to improve the quality of image information or image information generated through .

상기 무선망 통신부(106)와 근거리망 통신부(107)는 상기 무선단말(100)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 무선단말(100)은 무선망 통신부(106)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(107)를 구비할 수 있다.The wireless network communication unit 106 and the local area network communication unit 107 are generic names of communication resources for connecting the wireless terminal 100 to a designated communication network. Preferably, the wireless terminal 100 may include a wireless network communication unit 106 as a basic communication resource, and may include one or more local area network communication units 107 .

상기 무선망 통신부(106)는 상기 무선단말(100)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(101)와 연결되어 상기 제어부(101)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(101)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(106)는 상기 무선단말(100)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.The wireless network communication unit 106 is a generic term for communication resources that connect the wireless terminal 100 to a wireless communication network via a base station. It is configured to include at least one processing module, and is connected to the control unit 101 to transmit an operation result corresponding to wireless communication among various operation results of the control unit 101 through a wireless communication network or to receive data through a wireless communication network to the control unit 101, and at the same time perform the procedures of access, registration, communication, and handoff of the wireless communication. According to the present invention, the wireless network communication unit 106 can connect the wireless terminal 100 to a communication network including a communication channel and a data channel via a switch, and in some cases, packet communication without going through the switch. It can be connected to a data network that provides wireless network data communication (eg, the Internet) based on the wireless network.

본 발명의 실시 방법에 따르면, 상기 무선망 통신부(106)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(106)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(106)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(106)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.According to an embodiment of the present invention, the wireless network communication unit 106 performs at least one of accessing, location registration, call processing, call connection, data communication, and handoff to a mobile communication network according to the CDMA/WCDMA/LTE standard. includes configuration. Meanwhile, according to the intention of those skilled in the art, the wireless network communication unit 106 may further include a portable Internet communication configuration that performs at least one of accessing, location registration, data communication, and handoff to the portable Internet according to IEEE 802.16 related standards, It should be clearly stated that the present invention is not limited by the wireless communication configuration provided by the wireless network communication unit 106 . That is, the wireless network communication unit 106 is a generic term for a component that accesses a wireless communication network through a cell-based base station regardless of a frequency band of a wireless section, a type of a communication network, or a protocol.

상기 근거리망 통신부(107)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 무선단말(100)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게는 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 무선단말(100)을 통신망에 접속시킬 수 있다. 본 발명의 실시 방법에 따르면, 상기 근거리망 통신부(107)는 상기 무선망 통신부(106)와 통합 또는 분리된 형태로 구현될 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(107)는 무선AP를 통해 상기 무선단말(100)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.The local area network communication unit 107 connects a communication session using a radio frequency signal as a communication medium within a certain distance (eg, 10 m), and based on this, the wireless terminal 100 is connected to the communication network as a generic term for communication resources. , preferably, the wireless terminal 100 may be connected to the communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the embodiment of the present invention, the local area network communication unit 107 may be implemented in an integrated or separate form with the wireless network communication unit 106 . According to the present invention, the local area network communication unit 107 connects the wireless terminal 100 to a data network that provides short-range wireless data communication based on packet communication through a wireless AP.

상기 USIM 리더부(108)는 ISO/IEC 7816 규격을 기반으로 상기 무선단말(100)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.The USIM reader unit 108 is a generic term of a configuration for exchanging at least one data set with a Universal Subscriber Identity Module mounted on or detached from the wireless terminal 100 based on the ISO/IEC 7816 standard. As such, the data set is exchanged in a half-duplex communication method through an Application Protocol Data Unit (APDU).

상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(108)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 무선단말(100)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.The USIM is a SIM-type card equipped with an IC chip according to the ISO/IEC 7816 standard, and an input/output interface including at least one contact connected to the USIM reader unit 108, and at least one program code for the IC chip. and an IC chip memory for storing a data set, and a program code for the IC chip according to at least one command transmitted from the wireless terminal 100 connected to the input/output interface or extracting (or processing) the data set. and a processor to transmit to the input/output interface.

상기 무선단말(100)의 제어부(101)는 상기 통신 자원이 접속 가능한 데이터망을 통해 지정된 프로그램제공서버(예컨대, 애플사의 앱(110)스토어 등)로부터 본 발명의 앱(110)을 다운로드하여 설치하는 과정을 수행한다. 한편 상기 무선단말(100)에 다운로드 설치된 앱(110)은 설치 후 최초 실행(또는 정보 등록 전 실행) 시 상기 무선단말(100)과 앱(110)의 조합(또는 상기 앱(110)을 설치한 무선단말(100), 또는 상기 무선단말(100)에 설치된 앱(110))을 고유한 매체로 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 생성하거나 지정된 서버를 통해 할당받는 절차를 수행하며, 상기 무선단말(100)과 앱(110)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 무선단말(100)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 무선단말정보를 연계 저장하여 관리할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 앱(110)을 설치한 무선단말(100)의 사용자를 고유 식별하는 사용자 정보(예컨대, 고유ID, 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 사용자 정보를 연계 저장하여 관리할 수 있다.The control unit 101 of the wireless terminal 100 downloads and installs the app 110 of the present invention from a designated program providing server (eg, Apple's App 110 store, etc.) through a data network to which the communication resource is accessible. carry out the process On the other hand, the downloaded and installed app 110 on the wireless terminal 100 is a combination of the wireless terminal 100 and the app 110 (or the app 110 installed) when the first run (or run before information registration) after installation. A procedure for generating medium identification information (eg, device token, UUID, etc.) that identifies the wireless terminal 100 or the app 110 installed on the wireless terminal 100 as a unique medium or receiving it through a designated server A procedure of registering media identification information that uniquely identifies the combination of the wireless terminal 100 and the app 110 as a unique medium to the designated operation server 190 may be performed. On the other hand, the app 110 of the wireless terminal 100 performs a procedure of registering wireless terminal information (eg, phone number, IMSI, IMEI, etc.) that uniquely identifies the wireless terminal 100 to a designated operation server 190 . In this case, the operation server 190 may link and manage the medium identification information and the wireless terminal information. On the other hand, the app 110 of the wireless terminal 100 is a procedure of registering user information (eg, unique ID, name, date of birth, etc.) that uniquely identifies the user of the wireless terminal 100 in which the app 110 is installed. In this case, the operation server 190 may link the media identification information and the user information to store and manage them.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 거리정보 확인부(112)를 구비하며, 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 환산정보 확인부(116)를 구비한다. Referring to Figure 1, the app 110 of the wireless terminal 100, the closest camera lens 200 of the camera module 105 mounted on the wireless terminal 100 is automatically focused when shooting close to the subject. A camera module 105 mounted on the wireless terminal 100, comprising a distance information checking unit 112 for checking the nearest limit distance information corresponding to the shooting distance and the reference focal distance information for auto-focusing at the nearest shooting distance. ) of the image sensor unit 210, and includes a conversion information confirmation unit 116 that confirms conversion information for converting a specified unit pixel distance on a pixel region of image information into an actual distance of a specified metrological unit.

상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종이나 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 확인하고, 지정된 운영서버(190)의 DB를 조회하거나 및/또는 상기 메모리부(109)의 지정된 저장영역을 조회하거나 및/또는 상기 앱(110)에 대응하는 프로그램코드 상에 정의된 파라미터를 참조하여 상기 무선단말(100)의 기종이나 카메라모듈(105)의 종류에 대응하는 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다. 다만 상기 거리정보 확인부(112)는 앱(110) 내에서 상기 최근접한계거리정보와 기준초점거리정보를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 최근접한계거리정보와 기준초점거리정보를 확인하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 거리정보 확인부(112)가 상기 최근접한계거리정보 및/또는 기준초점거리정보를 확인하는 시점에 의해 한정되지 아니한다.The distance information check unit 112 confirms the type of the wireless terminal 100 driving the app 110 or the type of the camera module 105 mounted on the wireless terminal 100 driving the app 110 . And, query the DB of the designated operation server 190 and / or query the designated storage area of the memory unit 109 and / or refer to the parameters defined on the program code corresponding to the app (110) It is possible to check the nearest limit distance information and reference focal length information corresponding to the type of the wireless terminal 100 or the type of the camera module 105 . However, the distance information check unit 112 is the closest limit distance information and the reference focal length information according to a specified procedure only before performing the procedure using the nearest limit distance information and the reference focal distance information in the app 110. is considered to be included in the scope of the present invention, and the present invention is not limited by the time point at which the distance information check unit 112 checks the nearest limit distance information and/or the reference focal length information.

본 발명의 실시 방법에 따르면, 무선단말(100)에 탑재되는 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 대물렌즈를 포함하는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)를 구비하고 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 포함하여 이루어지는데, 상기 액츄에이터부(205)의 기구적 구조 상 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에는 허용된 이격 간격 범위가 존재하게 되는데, 이 때문에 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영 시 지정된 근접거리까지는 액츄에이터부(205)에 의해 자동초점이 맞추어지지만 상기 지정된 근접거리 미만으로 더 근접시켜 촬영하면 아무리 액츄에이터부(205)라도 자동초점을 맞추지 못하게 된다. 예를들어, 애플사의 아이폰6 기종에 탑재된 카메라모듈(105)의 경우 피사체와 카메라렌즈(200) 사이의 촬영거리가 7cm 이상일 경우에는 액츄에이터부(205)에 의해 자동초점이 맞춰지지만, 상기 촬영거리를 7cm미만으로 근접 시킬 경우에는 자동초점이 맞춰지지 않고 경계가 흐릿해지거나 번지는 블러링(Blurring)이 발생하는데, 이러한 블러링은 촬영거리를 근접시킴에 따라 선형적으로 증가하는 것이 아니라 지수함수 형태로 증가하여 상기 촬영거리를 대략 6.5cm미만으로 근접 시킬 경우에는 블러링에 의해 가로세로 1㎠에 인쇄된 글자나 숫자를 판독할 수 없을 정도로 블러링이 급속하게 증가하게 된다. 본 발명에서 상기 최근접한계거리정보는 상기 카메라렌즈(200)와 피사체 사이의 거리가 자동초점 가능한 원거리에서 근접시키면서 촬영하다가 자동초점이 맞춰지지 않고 상기 블러링이 발생하는 시점(또는 반대로 상기 카메라렌즈(200)와 피사체 사이의 거리가 초근접하여 자동초점이 맞춰지지 않다가 멀어지면서 자동초점이 맞춰지는 시점)의 촬영거리로 정의할 수 있으며, 상기 기준초점거리정보는 상기 카메라렌즈(200)와 피사체 사이의 거리가 상기 최근접한계거리정보인 경우에 자동초점 가능한 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리로 정의할 수 있다. 한편 각 무선단말(100)의 기종 별로 해당 무선단말(100)에 탑재되는 카메라모듈(105)의 종류(예컨대, 제조사, 모델명, 스펙 등)가 상이하며, 결과적으로 상기 최근접한계거리정보와 기준초점거리정보는 각 무선단말(100)의 기종이나 카메라모듈(105)의 종류 별로 상이한 정보를 포함하게 된다.According to the embodiment of the present invention, the camera module 105 mounted on the wireless terminal 100 includes one or more camera lenses 200 including an objective lens for receiving an optical signal reflected from a subject and the camera lens 200 . Actuator having an image sensor unit 210 that detects an optical signal input through the and converts it into an electrical image signal, and implements an auto-focus function or an image stabilization function between the camera lens 200 and the image sensor unit 210 It comprises a unit 205, and due to the mechanical structure of the actuator unit 205, there is an allowable separation interval range between the camera lens 200 and the image sensor unit 210. For this reason, the wireless terminal When shooting by bringing the camera lens 200 of the camera module 105 mounted on 100 close to the subject, the actuator unit 205 automatically focuses up to the specified proximity distance, but closer than the specified proximity distance. If this is done, no matter how much the actuator unit 205 is able to focus automatically. For example, in the case of the camera module 105 mounted on Apple's iPhone 6 model, when the shooting distance between the subject and the camera lens 200 is 7 cm or more, autofocus is performed by the actuator unit 205, but the shooting When the distance is closer to less than 7cm, autofocus is not achieved and the boundary is blurred or blurring occurs. When it increases in the form of a function to bring the shooting distance closer to less than about 6.5 cm, the blurring rapidly increases to such an extent that characters or numbers printed on 1 cm 2 horizontally and vertically cannot be read due to blurring. In the present invention, the nearest limit distance information is the time point at which the blurring occurs without autofocusing while photographing while the distance between the camera lens 200 and the subject is close to an autofocusable distance (or conversely, the camera lens (200) can be defined as the shooting distance of a point in time when auto-focus is not focused because the distance between 200 and the subject is very close, and then auto-focus is achieved as it moves away), and the reference focal length information is the camera lens 200 and When the distance between the subjects is the closest limit distance information, it may be defined as a focal length between the autofocusable camera lens 200 and the sensor area of the image sensor unit 210 . On the other hand, the type (eg, manufacturer, model name, specification, etc.) of the camera module 105 mounted on the corresponding wireless terminal 100 is different for each type of wireless terminal 100, and as a result, the nearest limit distance information and reference The focal length information includes different information for each type of wireless terminal 100 or type of camera module 105 .

본 발명의 제1 거리정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)의 기종 별로 최근접한계거리정보와 기준초점거리정보를 확인하고, 상기 확인된 각 무선단말(100)의 기종 별 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)의 기종을 식별하는 기종 식별정보와 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 무선단말(100)의 기종 식별정보를 제공하여 상기 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 기종 식별정보를 수신하고, 상기 DB로부터 상기 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 거리정보 확인부(112)는 상기 운영서버(190)로부터 상기 무선단말(100)의 기종 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신할 수 있다.According to the first distance information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 checks the nearest limit distance information and the reference focal length information for each type of each wireless terminal 100, The confirmed nearest limit distance information and reference focal length information for each model of each wireless terminal 100 may be stored in a designated DB in connection with model identification information for identifying the model of each wireless terminal 100 . In this case, the distance information check unit 112 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 that has driven the app 110, and through the communication network By providing the model identification information of the wireless terminal 100 to the operation server 190, the nearest limit distance information and reference focal length information corresponding to the model identification information may be requested. The operation server 190 receives the model identification information from the app 110 of the wireless terminal 100, and extracts the nearest limit distance information and reference focal length information corresponding to the model identification information from the DB. It can be provided by the app 110 of the wireless terminal 100, the distance information check unit 112 is the closest limit distance corresponding to the model identification information of the wireless terminal 100 from the operation server 190 Information and reference focal length information can be received.

본 발명의 제2 거리정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 최근접한계거리정보와 기준초점거리정보를 확인하고, 상기 확인된 각 무선단말(100)(또는 각 무선단말(100) 기종)의 카메라모듈(105) 별 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보와 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 카메라모듈(105)의 모듈 식별정보를 제공하여 상기 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 카메라모듈(105)의 모듈 식별정보를 수신하고, 상기 DB로부터 상기 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 거리정보 확인부(112)는 상기 운영서버(190)로부터 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보에 대응하는 최근접한계거리정보와 기준초점거리정보를 수신할 수 있다.According to the second distance information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 is a camera module 105 mounted on each wireless terminal 100 (or each wireless terminal 100 model). ), check the nearest limit distance information and reference focal length information for each The distance information may be stored in a designated DB in association with module identification information for identifying the type of the camera module 105 mounted on each wireless terminal 100 . In this case, the distance information check unit 112 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110 to be installed on the wireless terminal 100 . Check the module identification information of the camera module 105, and provide the module identification information of the camera module 105 to the operation server 190 through the communication network to provide the nearest limit distance information and reference corresponding to the module identification information You can request focal length information. The operation server 190 receives the module identification information of the camera module 105 from the app 110 of the wireless terminal 100, and the nearest limit distance information and reference corresponding to the module identification information from the DB The focal length information can be extracted and provided to the app 110 of the wireless terminal 100 , and the distance information check unit 112 is a camera module mounted on the wireless terminal 100 from the operation server 190 . It is possible to receive the nearest limit distance information and reference focal length information corresponding to the module identification information of (105).

본 발명의 제3 거리정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 거리정보 확인부(112)는 각 무선단말(100)의 기종 별로 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)의 기종을 식별하는 기종 식별정보와 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 최근접한계거리정보와 기준초점거리정보를 상기 기종 식별정보와 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 상기 확인된 기종 식별정보와 연계된 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다.According to the third distance information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the distance information confirmation unit 112 is configured for each wireless terminal 100 . The nearest limit distance information and reference focal length information for each model of each wireless terminal 100 are linked and stored in a designated storage area of the memory unit 109 in association with the model identification information for identifying the model of each wireless terminal 100 and/or the latest The tangent limit distance information and the reference focal length information can be maintained on the program code in connection with the model identification information. In this case, the distance information check unit 112 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 driving the app 110, and the confirmed You can check the nearest limit distance information and the reference focal length information linked with the model identification information.

본 발명의 제4 거리정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 거리정보 확인부(112)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 최근접한계거리정보와 기준초점거리정보를 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보와 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 최근접한계거리정보와 기준초점거리정보를 상기 모듈 식별정보와 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 거리정보 확인부(112)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 카메라모듈(105)의 모듈 식별정보를 확인하고, 상기 확인된 모듈 식별정보와 연계된 최근접한계거리정보와 기준초점거리정보를 확인할 수 있다.According to the fourth distance information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the distance information confirmation unit 112 is each wireless terminal 100 . Module for identifying the type of camera module 105 mounted on each wireless terminal 100 by using the nearest limit distance information and reference focal length information for each camera module 105 mounted on each wireless terminal 100 (or each wireless terminal 100 model) In connection with the identification information, the memory unit 109 may be linked and stored in a designated storage area and/or the nearest limit distance information and the reference focal length information may be maintained on the program code in connection with the module identification information. In this case, the distance information check unit 112 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110 to identify the module of the camera module 105 . The information may be checked, and the closest limit distance information and reference focal length information associated with the identified module identification information may be confirmed.

상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종이나 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 확인하고, 지정된 운영서버(190)의 DB를 조회하거나 및/또는 상기 메모리부(109)의 지정된 저장영역을 조회하거나 및/또는 상기 앱(110)에 대응하는 프로그램코드 상에 정의된 파라미터를 참조하여 상기 무선단말(100)의 기종이나 카메라모듈(105)의 종류에 대응하는 환산정보를 확인할 수 있다. 다만 상기 환산정보 확인부(116)는 앱(110) 내에서 상기 환산정보를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 환산정보를 확인하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 환산정보 확인부(116)가 상기 환산정보를 확인하는 시점에 의해 한정되지 아니한다.The conversion information confirmation unit 116 confirms the type of the wireless terminal 100 driving the app 110 or the type of the camera module 105 mounted on the wireless terminal 100 driving the app 110 . And, query the DB of the designated operation server 190 and / or query the designated storage area of the memory unit 109 and / or refer to the parameters defined on the program code corresponding to the app (110) Conversion information corresponding to the model of the wireless terminal 100 or the type of the camera module 105 can be checked. However, if the conversion information confirmation unit 116 checks the conversion information according to the designated procedure only before performing the procedure for using the conversion information within the app 110, it is considered to be included in the scope of the present invention. The invention is not limited by the time when the conversion information confirmation unit 116 checks the conversion information.

본 발명의 실시 방법에 따르면, 카메라모듈(105)에 구비되는 이미지 센서부(210)는 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 가로세로 h개와 v개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 상기 이미지 센서부(210)는 가로방향 x(1≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역 위에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있다. 따라서 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다. 본 발명에서 상기 환산정보는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)로 환산하는 정보로 정의할 수 있다. 한편 각 무선단말(100)의 기종 별로 해당 무선단말(100)에 탑재되는 카메라모듈(105)의 종류(예컨대, 제조사, 모델명, 스펙 등)가 상이하며, 결과적으로 상기 환산정보는 각 무선단말(100)의 기종이나 카메라모듈(105)의 종류 별로 상이한 정보를 포함하게 된다.According to the implementation method of the present invention, the image sensor unit 210 provided in the camera module 105 detects an optical signal input through the camera lens 200 to determine the number of horizontal and vertical h and v pixels (or resolution). Generates image information in the form of a bitmap image with It may be formed by including h and v sensor cells in a direction x (1≥1㎛) and a sensor area in a vertical direction y (y≥1㎛). Therefore, the number of pixels on the image information or image information generated by the image sensor unit 210 and the actual distance on the sensor area provided in the image sensor unit 210 (eg, the actual distance in a specified metrological unit) have a specified correspondence relationship. can be formed. For example, the image information generated through the image sensor unit 210 or the number of 100 pixels on the image information may correspond to 10 μm on the sensor area. In the present invention, the conversion information is image information acquired through the image sensor unit 210 of the camera module 105 or a designated unit pixel distance (eg, number of pixels) on a pixel area of the image information by the image sensor unit 210 ) can be defined as information that is converted into the actual distance on the sensor area (eg, the actual distance in a designated metrological unit). On the other hand, the type (eg, manufacturer, model name, specification, etc.) of the camera module 105 mounted on the corresponding wireless terminal 100 is different for each model of each wireless terminal 100, and as a result, the conversion information is 100) and includes different information for each type of camera module 105 .

본 발명의 제1 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)의 기종 별 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 무선단말(100)의 기종 식별정보를 제공하여 상기 기종 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 기종 식별정보를 수신하고, 상기 DB로부터 상기 기종 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)의 기종 식별정보에 대응하는 환산정보를 수신할 수 있다.According to the first conversion information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 is through the image sensor unit 210 of the camera module 105 for each model of each wireless terminal 100 . Conversion information for converting a specified unit pixel distance (eg, number of pixels) on a pixel region of the generated image information or image information into an actual distance in a specified metrological unit with respect to the sensor region of the image sensor unit 210 is checked, and the Conversion information for each model of each confirmed wireless terminal 100 and model identification information for identifying the model of each wireless terminal 100 may be linked and stored in a designated DB. In this case, the conversion information confirmation unit 116 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 that has driven the app 110, and through the communication network By providing the model identification information of the wireless terminal 100 to the operation server 190, it is possible to request conversion information corresponding to the model identification information. The operation server 190 receives the model identification information from the app 110 of the wireless terminal 100, extracts conversion information corresponding to the model identification information from the DB, and the app of the wireless terminal 100 110 , and the conversion information confirmation unit 116 may receive conversion information corresponding to the model identification information of the wireless terminal 100 from the operation server 190 .

본 발명의 제2 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)(또는 각 무선단말(100) 기종)의 카메라모듈(105) 별 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 카메라모듈(105)의 모듈 식별정보를 제공하여 상기 모듈 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 카메라모듈(105)의 모듈 식별정보를 수신하고, 상기 DB로부터 상기 모듈 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보에 대응하는 환산정보를 수신할 수 있다.According to the second conversion information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 is a camera module 105 mounted on each wireless terminal 100 (or each wireless terminal 100 model). ), the specified unit pixel distance (eg, number of pixels) on the pixel area of image information or image information generated through the image sensor unit 210 for each actual distance in a specified metrological unit to the sensor area of the image sensor unit 210 . Check the conversion information converted to 105) can be stored in a designated DB by linking the module identification information that identifies the type. In this case, the conversion information confirmation unit 116 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110, and is mounted on the wireless terminal 100. It is possible to check the module identification information of the camera module 105 and provide the module identification information of the camera module 105 to the operation server 190 through a communication network to request conversion information corresponding to the module identification information. The operation server 190 receives the module identification information of the camera module 105 from the app 110 of the wireless terminal 100, and extracts conversion information corresponding to the module identification information from the DB to obtain the wireless It can be provided by the app 110 of the terminal 100, and the conversion information confirmation unit 116 is the module identification information of the camera module 105 mounted on the wireless terminal 100 from the operation server 190. Corresponding conversion information may be received.

본 발명의 제3 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 기종 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 상기 확인된 기종 식별정보와 연계된 환산정보를 확인할 수 있다.According to the third conversion information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the conversion information confirmation unit 116 is each wireless terminal 100 . A designated unit pixel distance (eg, number of pixels) on a pixel area of image information or image information generated through the image sensor unit 210 of the camera module 105 for each model of The conversion information for converting into the actual distance of the designated metrology unit for the wireless terminal 100 is linked and stored in the designated storage area of the memory unit 109 by linking the model identification information for identifying the model of each wireless terminal 100 and/or the conversion information It can be maintained on the program code by linking with the model identification information. In this case, the conversion information confirmation unit 116 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 that has driven the app 110, and the confirmed You can check the conversion information linked to the model identification information.

본 발명의 제4 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 모듈 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 카메라모듈(105)의 모듈 식별정보를 확인하고, 상기 확인된 모듈 식별정보와 연계된 환산정보를 확인할 수 있다.According to the fourth conversion information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the conversion information confirmation unit 116 is each wireless terminal 100 . The specified unit pixel distance (eg, number of pixels) on the pixel area of image information or image information generated through the image sensor unit 210 for each camera module 105 mounted on (or each wireless terminal 100 model) is described above. Conversion information for converting the sensor area of the image sensor unit 210 into an actual distance in a specified metrological unit and module identification information for identifying the type of camera module 105 mounted on each wireless terminal 100 is linked to the memory It can be stored in the designated storage area of the unit 109 and/or stored in the program code by linking the conversion information and the module identification information. In this case, the conversion information confirmation unit 116 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110 to identify the module of the camera module 105 . You can check the information, and check the conversion information associated with the identified module identification information.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 자동초점 기능이 활성화된 카메라모듈(105)을 통해 입력되는 영상정보를 지정된 버퍼영역에 버퍼링하거나 기 지정된 버퍼영역에 버퍼링된 영상정보를 확인하는 입력영상 확인부(124)와, 상기 화면 출력부(102)를 통해 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보를 출력하는 입력영상 출력부(128)와, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리 사이를 이격하도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 인터페이스 표시부(132)를 구비하며, 상기 카메라모듈(105)의 자동초점 기능을 활성화(또는 활성화 상태를 유지)하거나 상기 카메라모듈(105)의 자동초점 주기를 지정된 최소값으로 설정하는 촬영조건 설정부(120)를 구비한다.1, the app 110 of the wireless terminal 100 buffers image information input through the camera module 105 on which the auto-focus function is activated in a designated buffer area or buffered in a predetermined buffer area. An input image confirmation unit 124 for confirming image information, an input image output unit 128 for outputting the image information to a designated image output area on a screen area through the screen output unit 102, and the camera lens ( 200) by moving at least one of the subject and the wireless terminal 100 while guiding the gaze direction toward the subject having N (N≥2) feature points and M(M≥1) edge areas An interface for inducing the shooting distance between the subject and the camera lens 200 to be spaced apart between a '-' distance less than the nearest limit distance and a '+' distance greater than or equal to the nearest limit distance is provided on the screen area in the designated interface area. Setting a shooting condition having an interface display unit 132 for displaying, activating (or maintaining an activated state) the auto focus function of the camera module 105 or setting the auto focus period of the camera module 105 to a specified minimum value A portion 120 is provided.

상기 무선단말(100)의 카메라를 이용한 계측이 개시되면, 상기 촬영조건 설정부(120)는 상기 무선단말(100)에 탑재된 카메라모듈(105)의 자동초점 기능을 활성화한다. 만약 상기 카메라모듈(105)의 자동초점 기능이 기 활성화된 상태라면(예컨대, 대부분의 카메라모듈(105)은 자동초점 기능을 활성화함), 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 기능의 활성화 상태를 유지한다. 만약 상기 카메라모듈(105)의 자동초점 주기를 조정 가능한 경우, 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 주기를 지정된 한도 내에서 최소값(예컨대, 가장 빠른 주기로 자동초점을 시도하는 설정값)으로 설정하는 것이 바람직하다.When the measurement using the camera of the wireless terminal 100 is started, the shooting condition setting unit 120 activates the autofocus function of the camera module 105 mounted on the wireless terminal 100 . If the auto focus function of the camera module 105 is pre-activated (eg, most camera modules 105 activate the auto focus function), the shooting condition setting unit 120 sets the camera module 105 ) to keep the autofocus function activated. If the auto-focus cycle of the camera module 105 can be adjusted, the shooting condition setting unit 120 sets the auto-focus cycle of the camera module 105 to a minimum value (eg, the fastest cycle) within a specified limit. It is desirable to set it to the setting value to be tried).

상기 입력영상 확인부(124)는 자동초점 기능이 활성화된 카메라모듈(105)의 이미지 센서부(210)를 통해 생성된 영상정보를 확인하여 지정된 버퍼영역에 버퍼링할 수 있다. 만약 상기 카메라모듈(105)을 통해 입력되는 영상정보가 운영체제에 의해 지정된 버퍼영역에 버퍼링되는 경우, 상기 입력영상 확인부(124)는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되어 상기 버퍼영역에 버퍼링되는 영상정보를 확인할 수 있다.The input image check unit 124 may check the image information generated through the image sensor unit 210 of the camera module 105 for which the auto-focus function is activated and buffer the image information in a designated buffer area. If the image information input through the camera module 105 is buffered in a buffer area designated by the operating system, the input image check unit 124 is generated through the image sensor unit 210 of the camera module 105 . Thus, the image information buffered in the buffer area can be checked.

상기 입력영상 출력부(128)는 상기 화면 출력부(102)와 연동하여 상기 무선단말(100)의 화면 영역 상의 지정된 영상출력 영역에 상기 확인된 영상정보를 출력한다. 본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 상기 화면 영역 상의 전체 영역에 상기 영상정보를 출력하거나, 또는 상기 화면 영역 상의 지정된 일부 영역에 상기 영상정보를 출력할 수 있다. The input image output unit 128 outputs the confirmed image information to a designated image output area on the screen area of the wireless terminal 100 in cooperation with the screen output unit 102 . According to the embodiment of the present invention, the input image output unit 128 may output the image information to the entire area of the screen area or may output the image information to a designated partial area on the screen area.

본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시되기 전에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시됨과 동시에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시된 후에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the input image output unit 128 outputs the image information through a specified image output area before the specified interface is displayed through the interface display unit 132, or the interface display unit 132 It is possible to output the image information through a specified image output area at the same time as a specified interface is displayed through, or output the image information through a specified image output area after a specified interface is displayed through the interface display unit 132, , the present invention is not limited thereby.

상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다. The interface display unit 132 is a line of sight of the camera lens 200 before, during, or after the image information is output to a specified image output area on the screen area through the input image output unit 128 . The direction is directed toward the subject having N (N≥2) feature points and M (M≥1) edge regions that can confirm focus, so that the N feature points and M edge regions are included in the angle of view. may be displayed in a designated interface area on the screen area.

본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 상기 카메라모듈(105)을 통해 피사체를 촬영하여 생성되는 영상정보(또는 프레임 화상정보) 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어진다. 바람직하게, 상기 N개의 특징점은 거리 산출의 기준점으로 이용될 수 있다. 즉, 상기 인터페이스 표시부(132)는 카메라모듈(105)을 통해 아무런 특징점도 없는 면을 포함하는 피사체를 촬영하는 것이 아니라, 거리 산출의 기준점이 되는 N개의 특징점을 지닌 피사체를 촬영하도록 유도하는 촬영 유도 인터페이스를 표시할 수 있다.According to the embodiment of the present invention, the N feature points are adjacent to one or more of color, contrast, and saturation among pixel areas in image information (or frame image information) generated by photographing a subject through the camera module 105 . At least one of a point region, a line region, and a plane region in which a difference of more than a specified reference value occurs than the value of the region is included. Preferably, the N feature points may be used as reference points for distance calculation. That is, the interface display unit 132 induces photographing of a subject having N characteristic points, which is a reference point for distance calculation, rather than photographing a subject including a surface without any characteristic points through the camera module 105 . interface can be displayed.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 촬영 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선을 포함하는 촬영 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 손등을 촬영하도록 유도하거나 손톱을 촬영하도록 유도하는 문자열을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 촬영 유도 인터페이스를 표시할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the interface display unit 132 may display the image information by superimposing it on the image output area on the screen area on which the image information is to be output or being output. For example, when measuring the actual size of a fingernail through the present invention, the interface display unit 132 induces a photographing guide interface including a hand-shaped guide line for inducing photographing the back of a person's hand and/or guides the photographing of the fingernail By superimposing a shooting guidance interface including a nail-shaped guide line to be displayed on the image output area, or by superimposing a shooting guidance interface including a string for guiding to photograph the back of a hand or photographing a nail on the image output area can be displayed Meanwhile, when the image output area is set to a partial area on the screen area, the interface display unit 132 may display the photographing guidance interface in the remaining area of the screen area except for the image output area. On the other hand, according to another implementation method of the present invention, if a target for measuring a numerical value through the present invention is not specified in advance, the interface display unit 132 does not need to display the photographing induction interface, whereby the present invention is not limited thereto. No.

본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 지정된 허용 오차 범위 내에서 상기 카메라렌즈(200)의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점 또는 지정된 허용 오차 범위 내에서 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것이 바람직하다. 즉, 본 발명은 카메라렌즈(200)와 피사체 사이의 촬영거리와 상기 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리의 비례 관계를 근거로 상기 이미지 센서부(210)를 통해 생성된 영상정보에 포함된 하나 이상의 프레임 화상정보를 판독하여 인식된 특징점 간 거리에 대응하는 피사체 상에 실제로 존재하는 특정점 간 실제거리를 산출하는데, 상기 영상정보(또는 영상정보에 포함된 프레임 화상정보)나 상기 이미지 센서부(210)의 센서영역이 평면이므로 상기 N개의 특징점은 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 평면에 존재해야만 왜곡이나 오차를 최소화할 수 있다. 그러나 대부분의 피사체는 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계(또는 상기 카메라렌즈(200)의 시선방향과 직교 관계)를 형성하지 못할 확률이 매우 높다. 이에, 상기 인터페이스 표시부(132)는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역(예컨대, 무선단말(100)에 카메라렌즈(200)가 노출된 일 면)이 평행 관계를 형성하도록 유도하는 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있으며, 이로써 상기 카메라렌즈(200)의 시선방향과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 직교 관계(또는 이미지 센서부(210)의 센서영역과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 평행 관계)를 형성할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.According to the implementation method of the present invention, the N feature points are feature points formed in a virtual plane area forming an orthogonal relationship with the gaze direction of the camera lens 200 within a specified tolerance range or the camera within a specified tolerance range. It is preferable to include a feature point formed in a virtual plane area forming a parallel relationship with the sensor area of the image sensor unit 210 provided in the module 105 . That is, in the present invention, the image sensor unit 210 is based on a proportional relationship between the photographing distance between the camera lens 200 and the subject and the focal length between the camera lens 200 and the sensor area of the image sensor unit 210 . By reading one or more frame image information included in the image information generated through frame image information) or the sensor area of the image sensor unit 210 is flat, so the N feature points exist on a plane forming a parallel relationship with the sensor area of the image sensor unit 210 provided in the camera module 105 . Only then can distortion or error be minimized. However, there is a very high probability that most subjects cannot form a parallel relation (or orthogonal relation to the gaze direction of the camera lens 200) with the sensor area of the image sensor unit 210 provided in the camera module 105 . Accordingly, the interface display unit 132 induces an orthogonal relationship to be formed between the surface on which the N feature points are formed on the subject and the viewing direction of the camera lens 200 and/or the surface on the subject on which the N feature points are formed. The camera module 105 further includes an interface for inducing a sensor region (eg, one surface exposed to the camera lens 200 to the wireless terminal 100) of the image sensor unit 210 provided in the camera module 105 to form a parallel relationship. can display an orthogonal relationship within a specified tolerance range between the gaze direction of the camera lens 200 and the N feature points (or between the sensor area of the image sensor unit 210 and the N feature points) parallel relationship within the specified tolerance range) can be formed. On the other hand, according to another implementation method of the present invention, if a target for measuring a numerical value through the present invention is not specified in advance, the interface display unit 132 does not need to display the photographing induction interface, whereby the present invention is not limited thereto. No.

본 발명의 실시 방법에 따르면, 일부 무선단말(100)에 탑재되는 일부 카메라모듈(105)의 카메라렌즈(200)(예컨대, 대물렌즈)는 도면2의 예시와 같은 볼록렌즈 계열의 렌즈가 아니라, 통상의 볼록렌즈보다 더 넓은 영역을 촬영하기 위해 렌즈의 가장자리를 오목렌즈 형태로 제작할 수 있다. 즉, 렌즈 중심에서 지정된 범위 이내는 지정된 곡률의 볼록렌즈이지만 그 외 가장자리는 오목렌즈 형태로 제작될 수 있다. 예를들어, 각 렌즈마다 차이가 있지만 일부 렌즈는 렌즈 중심에서 대략 80% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 다른 일부 렌즈는 렌즈 중심에서 대략 90% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 또 다른 일부 렌즈는 렌즈 중심에서 대략 95% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있다. 이 경우 렌즈 중심에서 지정된 범위 이내의 특징점 간 거리는 왜곡이 없거나 적지만, 상기 지정된 범위를 벗어난 가장자리에 위치하는 특징점 간 거리는 렌즈에 의한 왜곡에 의해 오차가 발생할 수 있다. 이에, 상기 인터페이스 표시부(132)는 상기 카메라모듈(105)을 통해 입력되어 영상출력 영역에 출력되는 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 직사각형의 픽셀영역 중 긴 변을 기준으로 지정된 범위 이내)의 영역에 피사체에 형성된 N개의 특징점을 위치시켜 촬영하도록 유도하는 유도선이나 문자열 형태의 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있다.According to the implementation method of the present invention, the camera lens 200 (eg, objective lens) of some camera modules 105 mounted on some wireless terminals 100 is not a convex lens series lens as in the example of FIG. 2 , In order to photograph a wider area than a normal convex lens, the edge of the lens may be manufactured in the form of a concave lens. That is, a convex lens having a specified curvature within a specified range from the center of the lens may be manufactured in the form of a concave lens at the other edges. For example, although each lens is different, some lenses can be manufactured as a convex lens with a specified curvature within about 80% of the center of the lens, and other lenses can be manufactured in the form of a concave lens at the center of the lens. A convex lens with a specified curvature within 90% of the range can be manufactured and the other edges can be manufactured in the form of a concave lens, and some lenses are manufactured with a convex lens with a specified curvature within about 95% of the center of the lens, and the other edges can be manufactured in the form of a concave lens. In this case, the distance between the feature points within the specified range from the center of the lens has little or no distortion, but the distance between the feature points located at the edge outside the specified range may cause an error due to distortion by the lens. Accordingly, the interface display unit 132 is inputted through the camera module 105 and is outputted to the image output area within a designated range from the center of the pixel area (eg, within a range designated based on the long side of the rectangular pixel area). A photographing guidance interface may be displayed that further includes an interface in the form of a guide line or a string for guiding the photographing by locating N feature points formed on the subject in the area of .

한편 상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 및/또는 상기 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다.Meanwhile, the interface display unit 132 displays the subject and the camera lens 200 at a specified point before, during, or after the image information is output to the specified image output area on the screen area through the input image output unit 128 . ) to induce a distance in the '+' direction from the '-' distance less than the nearest limit distance that can autofocus of the camera module 105 to a '+' distance greater than the nearest limit distance in the '+' direction and/or Screen a separation induction interface that induces the shooting distance to be spaced apart in a '-' direction from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused of the camera module 105 to a '-' distance less than the nearest limit distance. It can be displayed in the designated interface area on the area.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 이격 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선에서 손톱을 촬영하도록 유도하는 손톱 모양의 유도선으로 '-' 방향 변환되는 이격 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선에서 손등을 촬영하도록 유도하는 손 모양의 유도선으로 '+' 방향 변환되는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 상기 '-' 방향 이격 및/또는 '+' 방향 이격을 유도하는 문자열을 포함하는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 이격 유도 인터페이스를 표시할 수 있다. According to the embodiment of the present invention, the interface display unit 132 may display the spaced induction interface by superimposing the image information on an image output area on a screen area on which the image information is to be output or output. For example, when measuring the actual size of a nail through the present invention, the interface display unit 132 changes from a hand-shaped guide line for guiding to photograph the back of a person's hand to a nail-shaped guide line for guiding to photograph a nail. -' direction-converted separation induction interface and/or a nail-shaped guide line for guiding to photograph the nail to a hand-shaped guide line for guiding the back of the hand to photograph the back of the hand, a separation induction interface converted in a '+' direction to the image output area The overlapping display may be performed, or a separation inducing interface including a character string inducing the separation in the '-' direction and/or the separation in the '+' direction may be displayed in an overlapping manner on the image output area. Meanwhile, when the image output area is set to a partial area on the screen area, the interface display unit 132 may display the separation inducing interface in the remaining area of the screen area except for the image output area.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 카메라모듈(105)의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 또는 상기 인터페이스 표시부(132)는 상기 앱(110)을 구동한 무선단말(100)의 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정된 단위 개수의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요(만약 보정변환 처리부(136)를 통해 프레임 화상정보를 보정하는 경우 상기 보정에 사용되는 시간을 더 포함)되는 기준 소요 시간(예컨대, 상기 소요 시간은 동일 개수의 동일 해상도의 프레임을 판독하는 경우 무선단말(100)의 프로세서 성능에 좌우되며, 최신 기종의 무선단말(100)이나 고성능 프로세서를 탑재할수록 짧아짐)을 확인하고, 상기 기준 소요 시간을 근거로 상기 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 상기 손 모양의 유도선에서 손톱 모양의 유도선으로 변환되는 시간을 조정하거나 및/또는 상기 손톱 모양의 유도선에서 손 모양의 유도선으로 변환되는 시간을 조정하여 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 또는 문자열 형태로 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the embodiment of the present invention, the interface display unit 132 displays a separation induction interface further comprising an interface for inducing the camera module 105 to move within a specified separation distance within an autofocus period at a specified separation speed. can do. Alternatively, the interface display unit 132 is input through the camera module 105 of the wireless terminal 100 driving the app 110 and frame image information of a specified number of frame image information included in the buffered image information. A reference time required for reading and recognizing n feature points and m edge regions (including the time used for the correction if the frame image information is corrected through the correction/conversion processing unit 136) (eg, the required time) The time depends on the processor performance of the wireless terminal 100 when reading the same number of frames of the same resolution, check the latest model of the wireless terminal 100 or a high-performance processor, which is shorter), and calculate the reference required time Based on the basis, a specified number of frames are read out of frame image information included in the image information input and buffered through the camera module 105 to be within the specified separation distance within the time required to recognize n feature points and m edge regions. It is possible to display a separation induction interface further comprising an interface for inducing a separation at a moving specified separation speed. For example, when measuring the actual size of the nail through the present invention, the interface display unit 132 adjusts the conversion time from the hand-shaped guide line to the nail-shaped guide line and/or induces the nail shape It is possible to display the separation induction interface further comprising an interface for inducing separation at a specified separation speed by adjusting the time for converting the line to the hand-shaped guide line. Alternatively, it is possible to display a separation induction interface further including an interface for inducing separation at a specified separation speed in the form of a string.

본 발명의 제1 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 10cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the first separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 10 cm/s. interface can be displayed.

본 발명의 제2 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the second separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 5 cm/s. interface can be displayed.

본 발명의 제3 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 2.5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the third separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 2.5 cm/s. A guided interface can be displayed.

본 발명의 제4 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 1cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the fourth separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 1 cm/s. interface can be displayed.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점을 인식하는 특징점 인식부(140)와, 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 m(1≤n≤M)개의 엣지 영역을 인식하는 엣지 영역 인식부(144)와, 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 상기 영상정보가 '-' 방향 이격되는지 인식하는 이격 방향 인식부(148) 중 적어도 하나의 인식부를 구비하며, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 지정된 변환 규칙에 따라 보정하는 보정변환 처리부(136)를 더 구비할 수 있다.Referring to FIG. 1 , the app 110 of the wireless terminal 100 includes F (F≥2) frame image information input through the camera module 105 and included in image information buffered in a designated buffer area. The feature point recognition unit 140 for recognizing n (2≤n≤N) feature points by reading At least one of the edge region recognition unit 144 to recognize and the separation direction recognition unit 148 to recognize whether the image information is spaced apart in the '+' direction or the image information is spaced apart in the '-' direction according to the induction of the interface. A correction conversion processing unit 136 having a recognition unit and correcting F (F≥2) frame image information input through the camera module 105 and included in the image information buffered in a specified buffer area according to a specified conversion rule may be further provided.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)를 통해 아무리 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도하더라도 카메라모듈(105)(또는 카메라모듈(105)을 탑재한 무선단말(100))과 피사체를 물리적으로 고정하지 않는 한, 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하는 것이 난해하며, 다만 허용된 오차 범위 내에서 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도할 수 있다. According to the implementation method of the present invention, through the interface display unit 132, no matter how orthogonal to form an orthogonal relationship between the surface of the N feature points on the subject and the viewing direction of the camera lens 200, and/or on the subject Even if the surface on which the N feature points are formed and the sensor area of the image sensor unit 210 provided in the camera module 105 are induced to form a parallel relationship, the camera module 105 (or the camera module 105) is mounted on the wireless terminal (100)) and the subject are not physically fixed, an orthogonal relationship is formed between the surface on which the N feature points are formed on the subject and the viewing direction of the camera lens 200 and/or the N feature points on the subject are not physically fixed. It is difficult to form a parallel relationship between the formed surface and the sensor area of the image sensor unit 210 provided in the camera module 105. However, within the allowable error range, the surface formed with N feature points on the subject and the camera An orthogonal relationship is formed between the viewing directions of the lens 200 and/or a surface on which N feature points are formed on the subject and a sensor area of the image sensor unit 210 provided in the camera module 105 form a parallel relationship may be encouraged to do so.

상기 보정변환 처리부(136)는 상기 카메라모듈(105)을 통해 입력(예컨대, 카메라모듈(105)의 이미지 센서부(210)를 통해 생성)되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F개의 프레임 화상정보를 확인하고, 상기 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역을 인식한다. 본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 프레임 화상정보 내에 존재하는 피사체의 외곽선이 특정 방향으로 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식하거나 및/또는 피사체 주변의 사물이 형성하는 경계선이 특정 방향을 지향하여 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식함으로써, 상기 프레임 화상정보 내에 존재하는 D개의 원근 식별 영역을 인식할 수 있다. 한편 상기 보정변환 처리부(136)는 상기 무선단말(100)의 중력센서를 통해 센싱된 중력 방향 정보를 확인하거나 및/또는 상기 무선단말(100)의 자이로센서를 통해 센싱된 무선단말(100)의 자세 정보(또는 무선단말(100)의 카메라모듈(105)의 카메라렌즈(200) 시선이 지향하는 카메라 지향 방향 정보)을 확인하고, 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 근거로 상기 프레임 화상정보 내에서 인식된 원근 식별 영역을 판독하여 상기 센싱된 정보에 부합하지 않는 원근 식별 영역을 배제시킴으로써, 상기 프레임 화상정보 내에 존재하는 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식할 수 있다.The correction and conversion processing unit 136 is input through the camera module 105 (eg, generated through the image sensor unit 210 of the camera module 105) and is included in the image information buffered in a designated buffer area. The frame image information is checked, and the F frame image information is read to recognize D (D≥1) perspective identification areas existing in the frame image information. According to the embodiment of the present invention, the correction/conversion processing unit 136 recognizes a perspective identification area having a pattern in which the outline of the subject existing in the frame image information is narrowed or widened in a specific direction and/or around the subject. By recognizing a perspective identification area having a pattern in which a boundary line formed by an object is narrowed or widened in a specific direction, the D perspective identification areas present in the frame image information can be recognized. Meanwhile, the correction conversion processing unit 136 checks the gravity direction information sensed through the gravity sensor of the wireless terminal 100 and/or the wireless terminal 100 sensed through the gyro sensor of the wireless terminal 100. Check the posture information (or the camera lens 200 of the camera module 105 of the wireless terminal 100, camera-oriented direction information that the gaze is directed), and sensed through one or more sensors provided in the wireless terminal 100 By reading the perspective identification area recognized in the frame image information based on the information and excluding the perspective identification area that does not match the sensed information, there are d (1≤d≤D) valid numbers in the frame image information. Perspective identification regions can be recognized.

상기 보정변환 처리부(136)는 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한다. 예를들어, 상기 이격 각도는 3차원 좌표축 성분의 이격 각도를 포함할 수 있다. The correction and conversion processing unit 136 combines and analyzes the recognized d valid perspective identification areas and information sensed through one or more sensors provided in the wireless terminal 100 to form a photographing surface of the subject (or a feature point on the subject) area) and the gaze direction of the camera lens 200 of the camera module 105 calculates a separation angle in the orthogonal direction. For example, the separation angle may include a separation angle of a 3D coordinate axis component.

한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the separation angle between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 is calculated, the correction and transformation processing unit 136 performs various geometries including affine transformation. By using the conversion equation, the F frame image information included in the image information may be converted and corrected so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship. Meanwhile, according to another embodiment of the present invention, the correction and transformation processing unit 136 recognizes n feature points through the feature point recognition unit 140 and/or m edge regions through the edge region recognition unit 144 . After this recognition, the recognized n feature points and/or m edge areas may be corrected in an orthogonal relationship with the gaze direction of the camera lens 200, and the present invention may also include such an embodiment as the scope of rights.

본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보는 상기 입력영상 출력부(128)를 통해 표시될 수 있으나, 바람직하게는 상기 보정된 프레임 화상정보를 표시하지 않고 앱(110)의 내부적으로 특징점이나 엣지 영역을 인식하거나 보정하는데 이용되는 것이 바람직하다.According to the embodiment of the present invention, the frame image information corrected through the correction conversion processing unit 136 may be displayed through the input image output unit 128, but preferably, the corrected frame image information is not displayed. It is preferably used to recognize or correct a feature point or an edge area internally of the app 110 without it.

상기 특징점 인식부(140)는 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 N개의 특징점 중 적어도 n(2≤n≤N)개의 특징점을 인식한다. 한편 상기 특정점을 인식하기 전에 상기 프레임 화상정보가 상기 직교 관계를 형성하도록 보정되지 않은 경우, 상기 보정변환 처리부(136)는 상기 이격 각도를 산출하거나 기 산출된 이격 각도를 확인하고, 상기 인식된 n개의 특징점에 대해 아핀 변환을 포함하는 각종 기하학 변환식을 적용하여 상기 n개의 특징점을 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다. The feature point recognition unit 140 is input through the camera module 105 and included in the image information buffered in the designated buffer area F (F≥2) frame image information (or through the correction conversion processing unit 136) The corrected frame image information) is read to recognize at least n (2≤n≤N) feature points out of N feature points that are actually present on the subject. On the other hand, if the frame image information is not corrected to form the orthogonal relationship before recognizing the specific point, the correction/conversion processing unit 136 calculates the separation angle or checks the previously calculated separation angle, and the recognized Correcting the n feature points by applying various geometric transformation equations including affine transformation to the n feature points so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship can do.

본 발명의 실시 방법에 따르면, 상기 특징점 인식부(140)는 상기 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)에 포함된 특징점 중 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 카메라렌즈(200)가 볼록렌즈에 해당하는 범위 이내)에 존재하는 n(2≤n≤N)개의 특징점을 인식하는 것이 바람직하며, 이로써 렌즈의 왜곡에 의한 n개의 특징점 간 거리의 오차를 최소화한다.According to the embodiment of the present invention, the feature point recognition unit 140 is within a specified range from the center of the pixel area among the feature points included in the frame image information (or frame image information corrected through the correction and conversion processing unit 136). It is preferable to recognize n (2≤n≤N) feature points that exist in (eg, within the range corresponding to the convex lens of the camera lens 200), thereby causing an error in the distance between the n feature points due to lens distortion. to minimize

한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the separation angle between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 is calculated, the correction and transformation processing unit 136 performs various geometries including affine transformation. By using the conversion formula, the F frame image information included in the image information may be corrected so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship. Meanwhile, according to another embodiment of the present invention, the correction and transformation processing unit 136 recognizes n feature points through the feature point recognition unit 140 and/or m edge regions through the edge region recognition unit 144 . After this recognition, the recognized n feature points and/or m edge areas may be corrected in an orthogonal relationship with the gaze direction of the camera lens 200, and the present invention may also include such an embodiment as the scope of rights.

상기 엣지 영역 인식부(144)는 기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 M개의 엣지 영역 중 적어도 m(1≤n≤M)개의 엣지 영역을 인식한다. The edge area recognition unit 144 is input through the camera module 105 and F (F≥2) frame image information (or the correction conversion processing unit 136) included in the image information buffered in the designated buffer area. through the corrected frame image information) to recognize at least m (1≤n≤M) edge areas among M edge areas actually existing on the subject.

상기 이격 방향 인식부(148)는 상기 카메라모듈(105)을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 특징점과 제j(i<j≤F) 프레임 화상정보에 포함된 특징점을 인식하고, 상기 제i 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j 프레임 화상정보에 포함된 특징점 중 상기 제i 프레임 화상정보에 포함된 특징점과 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인한다. The separation direction recognition unit 148 includes a feature point and a jth (i<j≤F) included in the i (1≤f<F) frame image information among the F frames inputted through the camera module 105 and buffered. ) recognizes a feature point included in the frame image information, and a pixel distance between at least one feature point included in the i-th frame image information and a feature point included in the i-th frame image information among the feature points included in the j-th frame image information; By comparing the pixel distance between the same feature points, when the pixel distance between the feature points increases, the image information input through the camera module 105 is identified as image information spaced apart in the '+' direction, and the pixel distance between the feature points decreases. In this case, the image information input through the camera module 105 is identified as image information spaced apart from the '-' direction.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 엣지 영역 인식부(144)를 통해 인식된 m개의 엣지 영역의 초점이 맞춰지는 '0' 시점에 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출하는 인식거리 산출부(152)와, 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 실제거리 산출부(156)를 구비한다.1, the app 110 of the wireless terminal 100, the feature point recognition unit ( 140) between the recognition distance calculation unit 152 for calculating the distance between the n feature points recognized through the method, and the n feature points recognized at the '0' point based on the relationship between the reference focal length and the nearest limit distance. and an actual distance calculating unit 156 for calculating a numerical value of an actual distance between n actual feature points on the subject corresponding to the distance.

본 발명의 제1 인식거리 산출 실시예에 따르면, 상기 이격 방향 인식부(148)를 통해 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인되거나 또는 이전에 '-' 방향 이격하다가 '+' 방향 이격하는 것으로 확인된 경우, 상기 인식거리 산출부(152)는 상기 영상정보에 포함된 F개의 프레임 화상정보에 포함되어 블러(Blur) 비율이 기 설정된 기준 비율 이상인 m개의 엣지 영역을 확인하고, 상기 확인된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가(예컨대, 엣지 영역이 점차 선명해지다가) 일정해지는(예컨대, 엣지 영역이 더 이상 선명해지지 않거나 최고로 선명해진 상태를 유지하는) '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점을 확인하고, 상기 '0' 시점에 인식된 n개의 특징점 간 거리를 산출한다.According to the first recognition distance calculation embodiment of the present invention, image information input through the camera module 105 through the separation direction recognition unit 148 is confirmed as image information spaced apart in the '+' direction or previously When it is confirmed that the distance between the '-' direction and the '+' direction is confirmed, the recognition distance calculating unit 152 is included in the image information of the F frames included in the image information, and the blur ratio is a preset reference ratio. Check m edge regions that are more than one, and the blur ratio of the identified m edge regions decreases (eg, the edge region gradually becomes sharper) and then becomes constant (eg, the edge region is no longer sharp or the highest) By using at least f (1≤f<F) frame image information corresponding to the '0' viewpoint (which maintains a clear state), the n feature points recognized through the feature point recognition unit 140 are identified, and the ' The distance between the n feature points recognized at the time 0' is calculated.

본 발명의 제2 인식거리 산출 실시예에 따르면, 상기 이격 방향 인식부(148)를 통해 상기 카메라모듈(105)을 통해 입력되는 영상정보를 '-' 방향 이격하는 영상정보로 확인되거나 또는 이전에 '+' 방향 이격하다가 '-' 방향 이격하는 것으로 확인된 경우, 상기 인식거리 산출부(152)는 상기 영상정보에 포함된 F개의 프레임 화상정보에 포함되어 블러(Blur) 비율이 기 설정된 기준 비율 미만인 m개의 엣지 영역을 확인하고, 상기 확인된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가(예컨대, 엣지 영역이 더 이상 선명해지지 않거나 최고로 선명해진 상태를 유지하다가) 증가하는(예컨대, 엣지 영역이 점차 흐려지거나 번지는) '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출한다.According to the second recognition distance calculation embodiment of the present invention, the image information input through the camera module 105 through the separation direction recognition unit 148 is confirmed as image information spaced apart in the '-' direction or previously When it is confirmed that the distance from the '+' direction to the '-' direction is confirmed, the recognition distance calculating unit 152 is included in the image information of the F frames included in the image information, and the blur ratio is a preset reference ratio. Check m edge areas that are less than, and the blur ratio of the identified m edge areas maintains a constant state (eg, the edge area is no longer sharp or maintains the highest sharpness) and increases ( For example, the distance between the n key points recognized through the key point recognition unit 140 using at least f (1≤f<F) frame image information corresponding to the '0' point in which the edge area is gradually blurred or spread) to calculate

본 발명의 제3 인식거리 산출 실시예에 따르면, 상기 인식거리 산출부(152)는 상기 제1 내지 제2 인식거리 산출 실시예를 적어도 부분적으로 조합한 형태로 상기 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 이용하여 상기 특징점 인식부(140)를 통해 인식된 n개의 특징점 간 거리를 산출할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the third recognition distance calculation embodiment of the present invention, the recognition distance calculation unit 152 is configured to at least partially combine the first to second recognition distance calculation embodiments at least corresponding to the '0' time point. The distance between the n key points recognized by the key point recognition unit 140 may be calculated using f (1≤f<F) frame image information, and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 인식거리 산출부(152)는 상기 영상정보의 이격 방향에 따라 확인된 '0' 시점에 대응하는 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하고, 상기 환산정보 확인부(116)를 통해 확인된 환산정보를 이용하여 상기 산출된 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하여 산출한다. 만약 상기 환산정보 확인부(116)를 통해 상기 환산정보가 확인되지 않은 경우, 상기 환산정보 확인부(116)는 상기 n개의 특징점 간 픽셀거리가 산출된 경우에 상기 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인할 수 있다. 한편 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱(110)이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출(예컨대, n개의 특징점 간 평균 거리와 편차 등을 산출)할 수 있다. According to the embodiment of the present invention, the recognition distance calculating unit 152 calculates the pixel distance between n feature points existing in the f pieces of image information corresponding to the '0' time point identified according to the separation direction of the image information. Then, the calculated pixel distance between the n feature points is converted into a distance between the n feature points in a designated metrological unit by using the conversion information confirmed through the conversion information check unit 116 and calculated. If the conversion information is not confirmed through the conversion information check unit 116, the conversion information check unit 116 is mounted on the wireless terminal 100 when the pixel distance between the n feature points is calculated. Conversion information for converting a specified unit pixel distance on a pixel area of image information obtained through the image sensor unit 210 of the camera module 105 into an actual distance in a specified metrological unit may be checked. On the other hand, when the distance between two or more n feature points existing in the image information of two or more frames corresponding to the '0' point is calculated, the app 110 statistically processes the calculated distance between the two or more n feature points to designate The distance between the n feature points in the error range may be calculated (eg, the average distance and deviation between the n feature points may be calculated).

상기 실제거리 산출부(156)는 상기 거리정보 확인부(112)를 통해 확인된 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 인식거리 산출부(152)를 통해 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출한다.The actual distance calculator 156 is configured to calculate n feature points calculated through the recognition distance calculator 152 based on the relationship between the reference focal length and the nearest limit distance confirmed by the distance information checker 112 . The numerical value of the actual distance between the n real feature points on the subject corresponding to the distance between the two points is calculated.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 계산된 경우, 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 계측기준 설정부(160)와, 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 계측대상 인식부(164)와, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. Referring to Figure 1, the app 110 of the wireless terminal 100, when the value of the actual distance between two or more real feature points existing on the subject is calculated, at least two or more of the feature points for which the numerical value of the actual distance is calculated. A measurement reference setting unit 160 that sets a feature point as a reference feature point and sets the actual distance between the reference feature points as a reference distance, and T (T≥2) among feature points formed near the reference feature point using the set reference feature point A measurement target recognition unit 164 for recognizing the measurement target feature points, and a measurement target measurement unit 168 for calculating the numerical value of the actual distance between the T measurement target feature points by using the actual distance between the reference feature points as a reference distance; And, when the numerical value of the actual distance between the T feature points to be measured is calculated, the measurement reference setting unit 160 reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points. It is possible to set or reuse the actual distance between the t feature points to be measured as a reference distance, whereby the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105 . and after the reference distance between the reference specific points is calculated, the actual distance between various feature points included in the image information subsequently input through the camera module 105 can be measured in real time.

상기 실제거리 산출부(156)를 통해 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 실제거리 산출부(156)를 통해 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 식별하기 위한 기준 특징점으로 설정하고, 상기 기준 특징점 간의 실제거리를 지정된 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다. When the numerical value of the actual distance between two or more real feature points existing on the subject is calculated through the real distance calculating unit 156 , the measurement reference setting unit 160 sets the actual distance through the real distance calculating unit 156 . At least two or more feature points among the feature points for which the numerical value of is calculated are set as reference feature points for identifying the feature points to be measured, and the actual distance between the reference feature points is set as a reference distance for calculating the actual distance between the specified feature points to be measured.

상기 계측기준 설정부(160)를 통해 적어도 하나의 기준 특징점이 설정되면, 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다.When at least one reference feature point is set through the measurement standard setting unit 160, the measurement target recognition unit 164 uses the set reference feature point to set T (T≥2) among the feature points formed near the reference feature point. Recognizes the measurement target feature points.

본 발명의 실시 방법에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보 내에 포함된 특징점을 포함할 수 있다. 한편 실시 방법에 따라 상기 T개의 계측대상 특징점은 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the T feature points to be measured may include feature points included in the same frame image information as the frame image information including the reference feature points. Meanwhile, depending on the implementation method, the T feature points to be measured may include at least one feature point among the reference feature points, and the present invention is not limited thereto.

상기 계측대상 인식부(164)를 통해 T개의 계측대상 특징점이 인식되면, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출한다. 본 발명의 실시 방법에 따르면, 상기 기준 특징점과 T개의 계측대상 특징점은 모두 동일한 프레임 화상정보 내에 포함되어 있고, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하므로, 상기 계측대상 계측부(168)는 상기 계측대상 특징점과 카메라렌즈(200) 사이의 촬영거리가 변동되더라도 상기 T개의 계측대상 특징점 간의 실제거리의 수치를 산출할 수 잇다.When the T feature points to be measured are recognized through the measurement target recognition unit 164, the measurement target measurement unit 168 uses the actual distance between the reference feature points as a reference distance to obtain a numerical value of the actual distance between the T feature points to be measured to calculate According to the implementation method of the present invention, since the reference feature point and the T feature points are all included in the same frame image information, and the actual distance between the reference feature points is used as the reference distance, the measurement target measurement unit 168 is Even if the photographing distance between the measurement target feature point and the camera lens 200 is changed, the numerical value of the actual distance between the T measurement target feature points can be calculated.

상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. and a measurement target measurement unit 168 for calculating the numerical value of the actual distances between the T measurement target characteristic points by using the actual distance between the reference characteristic points as a reference distance, wherein the measurement reference setting unit 160 includes the T measurement targets When the numerical value of the actual distance between the feature points is calculated, at least t (2≤t≤T) feature points among the T feature points to be measured are reused as reference feature points, or the actual distance between the t feature points to be measured is reused as a reference distance It is configurable, whereby the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105, and after the reference distance between the reference specific points is calculated, the camera module Through (105), the actual distance between various feature points included in the subsequently input image information can be measured in real time.

한편 상기 계측대상 계측부(168)를 통해 상기 T개의 측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 다른 계측대상 특징점을 식별하기 위한 기준 특징점으로 재이용 설정하거나 및/또는 상기 t개의 계측대상 특징점 간 실제거리를 다른 계측대상 특징점 간 실제거리를 산출하기 위한 기준거리로 재이용 설정할 수 있다. 이로써, 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 지속적으로 실시간 계측할 수 있다. On the other hand, when the numerical value of the actual distance between the T feature points to be measured is calculated through the measurement target measurement unit 168, the measurement reference setting unit 160 sets at least t (2≤t≤T) among the T measurement target feature points. ) feature points to be reused as reference feature points for identifying other feature points to be measured, and/or the actual distance between the t feature points to be measured can be reused as a reference distance for calculating the actual distance between other feature points to be measured. Accordingly, the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105 and calculates the reference distance between the reference specific points, the camera module 105 Through this, it is possible to continuously measure the actual distance between various feature points included in the subsequently input image information in real time.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 영상정보를 통해 적어도 p(p≥3)개의 특징점이 인식된 경우 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 기하학 관계 생성부(172)와, 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 기하학 관계 관리부(176)를 구비한다.Referring to Figure 1, the app 110 of the wireless terminal 100, when at least p (p≥3) feature points are recognized through image information, the distance relationship between the p feature points and the p feature points are formed Generates reference geometric relationship information for discriminating a unique geometric relationship between p feature points including an angular relationship of Reference geometric relationship information for determining a unique geometric relationship between the p feature points including the actual distance between the p feature points and the distance relationship between the p feature points and the angular relationship formed by the p feature points when the actual distance between the p feature points is calculated and a geometric relationship generating unit 172 for generating , and a geometric relationship management unit 176 for storing and managing the generated reference geometric relationship information in a designated storage area.

상기 기하학 관계 생성부(172)는 카메라모듈(105)로부터 입력되어 지정된 버퍼영역에 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식하거나 기 인식된 p개의 특징점을 확인하여 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성하거나, 및/또는 상기 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우에 상기 p개의 특징점 간 실제거리를 포함하고 상기 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성할 수 있다.The geometric relationship generating unit 172 reads F frame image information input from the camera module 105 and included in the image information buffered in the designated buffer area to recognize at least p feature points or to recognize at least p feature points. to generate reference geometrical relationship information including distance and angular relationships between the p feature points, and/or between the p feature points when the actual distances between the p feature points including the at least two or more actual distances are calculated It is possible to generate reference geometrical relationship information including the actual distance and including the distance relationship and the angular relationship between the p feature points.

본 발명의 제1 기하학 관계 생성 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 생성부(172)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 생성부(172)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식되면, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. 여기서, 상기 p개의 특징점 간의 거리관계는 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 p개의 특징점 간의 각도관계는 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. According to the first geometrical relationship generating embodiment of the present invention, when image information input through the camera module 105 and buffered in a designated buffer area is confirmed, the geometrical relationship generating unit 172 includes the image information included in the image information. At least p (p≥3) feature points can be recognized by reading F frame image information. Preferably, the geometric relationship generating unit 172 reads the corrected frame image information through the correction and transformation processing unit 136 (or performing the function of the correction and transformation processing unit 136) to recognize at least p feature points. can do. If at least p feature points are recognized by reading F frame image information included in the image information, the geometric relationship generating unit 172 calculates the distance relationship between the p feature points and the angular relationship formed by the p feature points. Including, reference geometrical relationship information for determining a unique geometrical relationship between the p number of feature points can be generated. Here, the distance relationship between the p feature points includes relative length information of two or more straight lines connecting the p feature points (eg, coordinate distance on a designated coordinate system), and a distance-related vector component of two or more straight lines connecting the p feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system). On the other hand, the angular relationship between the p feature points includes angle information formed by two or more straight lines connecting the p feature points (eg, coordinate angle on a specified coordinate system), and a direction-related vector component of two or more straight lines connecting the p feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system).

본 발명의 제2 기하학 관계 생성 실시예에 따르면, 상기 제1 기하학 관계 생성 실시예를 통해 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 피사체 상에 존재하는 적어도 p(p≥3)개의 특징점이 인식된 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the second geometrical relationship generating embodiment of the present invention, by reading the F frame image information included in the image information through the first geometrical relationship generating embodiment, at least p (p≥3) When a feature point is recognized, the geometric relationship generating unit 172 calculates the numerical value of the actual distance between the feature points through the recognition distance calculator 152 and the real distance calculator 156 or the measurement target measurement unit 168 ) to calculate the actual distance between the p key points including the actual distance of at least two straight lines formed by connecting the p key points using at least one of the methods for calculating the value of the actual distance between the feature points. have. Meanwhile, when the actual distances between the p key points are calculated, the geometric relationship generating unit 172 includes the calculated actual distances between the p key points, and the distance relationship between the p key points and the angle formed by the p key points. Reference geometric relationship information for discriminating a unique geometric relationship between the p feature points including the relationship may be generated.

본 발명의 제3 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the third geometrical relationship generating embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least p (p≥3), the geometric relationship is generated The unit 172 may generate reference geometrical relationship information for discriminating a unique geometric relationship between the p feature points, including a distance relationship between the p feature points and an angular relationship formed by the p feature points.

본 발명의 제4 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the fourth geometrical relationship generating embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least p (p≥3), the geometric relationship is generated The unit 172 calculates the numerical value of the actual distance between the feature points through the recognition distance calculator 152 and the real distance calculator 156, or calculates the numerical value of the actual distance between the feature points through the measurement target measurement unit 168. The actual distance between the p feature points including the actual distance of at least two straight lines formed by connecting the p feature points may be calculated using at least one of the calculation methods. Meanwhile, when the actual distances between the p key points are calculated, the geometric relationship generating unit 172 includes the calculated actual distances between the p key points, and the distance relationship between the p key points and the angle formed by the p key points. Reference geometric relationship information for discriminating a unique geometric relationship between the p feature points including the relationship may be generated.

만약 상기 기하학 관계 생성부(172)를 통해 상기 제1 내지 제4 기하학 관계 생성 실시예 중 적어도 하나(또는 둘 이상 실시예의 적어도 부분적 조합)를 통해 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 생성되면, 상기 기하학 관계 관리부(176)는 상기 생성된 기준 기하학 관계정보를 지정된 저장영역(예컨대, 메모리부(109)의 저장영역 및/또는 운영서버(190) 상의 저장매체에 구비된 저장영역)에 저장하여 관리할 수 있다.If the geometrical relationship generating unit 172 uses at least one of the first to fourth geometrical relationship generating embodiments (or at least a partial combination of two or more embodiments), a criterion for determining a unique geometrical relationship between the p number of feature points When the geometric relationship information is generated, the geometric relationship management unit 176 provides the generated reference geometric relationship information in a designated storage area (eg, a storage area of the memory unit 109 and/or a storage medium on the operation server 190 ) storage area) and can be managed.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 지정된 저장영역에 하나 이상의 기준 기하학 관계정보가 저장된 후, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 기하학 관계 인식부(180)와, 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 기하학 관계 매칭부(184)와, 상기 매칭된 기준 기하학 관계정보를 확인한 경우 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 실제거리 결정부(188)를 구비한다.Referring to FIG. 1 , the app 110 of the wireless terminal 100 stores at least one reference geometry relation information in a designated storage area, and then includes at least q included in the image information input through the camera module 105 . When (q≥3) feature points are recognized, the geometric relationship recognition unit 180 for recognizing geometric relationship information including distance and angle relationships between the recognized q feature points, and one or more criteria stored in a designated storage area A geometrical relationship matching unit 184 that compares the geometrical relationship information and the recognized geometrical relationship information between the q feature points to confirm the geometric relationship information between the q feature points and any reference geometric relationship information that matches within the allowable error range. And, when the matched reference geometrical relationship information is confirmed, an actual distance for determining an actual distance between at least two or more of the recognized q feature points by using the actual distances between the p feature points included in the matched reference geometric relationship information A decision unit 188 is provided.

상기 기하학 관계 인식부(180)는 피사체 상에 존재하는 적어도 q(q≥3)개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 인식한다.The geometric relationship recognition unit 180 recognizes geometric relationship information corresponding to a unique geometric relationship between at least q (q≥3) feature points existing on the subject.

본 발명의 제1 기하학 관계 인식 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 인식부(180)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 인식부(180)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점이 인식되면, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다. 여기서, 상기 q개의 특징점 간의 거리관계는 상기 q개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 q개의 특징점 간의 각도관계는 상기 q개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. According to the first geometrical relationship recognition embodiment of the present invention, when image information input through the camera module 105 and buffered in a designated buffer area is confirmed, the geometrical relationship recognition unit 180 includes the image information included in the image information. At least q (q≥3) feature points can be recognized by reading F frame image information. Preferably, the geometrical relationship recognition unit 180 reads the corrected frame image information through the correction and transformation processing unit 136 (or by performing the function of the correction transformation processing unit 136) to at least q (q≥3). ) can be recognized. If at least q (q≥3) feature points are recognized by reading F frame image information included in the image information, the geometric relationship recognition unit 180 determines the distance relationship between the q feature points and the q feature points. It is possible to generate geometric relationship information corresponding to a unique geometric relationship between the q feature points, including the angular relationship to be formed. Here, the distance relationship between the q feature points includes relative length information of two or more straight lines connecting the q feature points (eg, coordinate distance on a designated coordinate system), and a distance-related vector component of two or more straight lines connecting the q feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system). On the other hand, the angular relationship between the q feature points includes angle information formed by two or more straight lines connecting the q feature points (eg, coordinate angle on a designated coordinate system), and a direction-related vector component of two or more straight lines connecting the q feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system).

본 발명의 제2 기하학 관계 인식 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 q(q≥3)개인 경우, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다. According to the second geometrical relationship recognition embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least q (q≥3), the geometric relationship is recognized The unit 180 may generate geometric relationship information corresponding to a unique geometric relationship between the q feature points, including a distance relationship between the q feature points and an angular relationship formed by the q feature points.

만약 상기 기하학 관계 인식부(180)를 통해 상기 제1 내지 제2 기하학 관계 인식 실시예 중 적어도 하나(또는 둘 실시예의 적어도 부분적 조합)를 통해 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보가 생성되면, 상기 기하학 관계 매칭부(184)는 상기 기하학 관계 관리부(176)를 통해 지정된 저장영역에 저장되어 관리되는 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다.If, through the geometrical relationship recognition unit 180, at least one of the first to second geometrical relationship recognition embodiments (or at least a partial combination of the two embodiments) is used, a geometric relationship corresponding to the unique geometric relationship between the q feature points When the information is generated, the geometrical relationship matching unit 184 compares one or more reference geometrical relationship information stored and managed in a storage area designated through the geometrical relationship managing part 176 and the geometrical relationship information between the recognized q feature points. Thus, any one reference geometrical relationship information matching the geometric relationship information between the q feature points and within the allowable error range is checked.

만약 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 어느 한 기준 기하학 관계정보를 확인한 경우, 상기 실제거리 결정부(188)는 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정할 수 있다.If any one reference geometrical relationship information matched with the geometrical relationship information between the q feature points within the allowable error range is checked through the geometrical relationship matching unit 184, the actual distance determining unit 188 is An actual distance between at least two or more of the recognized q feature points may be determined by using the actual distance between the p feature points included in the reference geometric relationship information.

만약 상기 q개의 특징점 간의 실제거리를 결정한 경우, 상기 계측기준 설정부(160)는 상기 기하학 관계 인식부(180)를 통해 인식된 q개의 특징점이나 지정된 저장영역으로부터 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정할 수 있다. 만약 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정한 경우, 상기 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하고, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출할 수 있다. 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 상기 저장된 기준 기하학 관계정보와 매칭되는 특징점을 지닌 피사체를 촬영한 영상정보가 입력되는 경우에, 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하여 이를 기반으로 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행하지 않고도, 상기 입력되는 영상정보에 포함된 q개의 특징점 간의 실제거리는 물론 상기 q개의 특징점 근처에 형성된 T(T≥2)개의 계측대상 특징점 간의 실제거리까지 실시간 산출할 수 있다. If the actual distance between the q feature points is determined, the measurement reference setting unit 160 includes the q feature points recognized through the geometric relationship recognition unit 180 or the reference geometric relationship information identified from the designated storage area. At least two or more of the p feature points may be set as a reference feature point, and an actual distance between the set reference feature points may be set as a reference distance. If at least two or more of the recognized q feature points or p feature points included in the confirmed reference geometric relationship information are set as reference feature points and the actual distance between the set reference feature points is set as the reference distance, the measurement The target recognition unit 164 recognizes T (T≥2) measurement target characteristic points among the characteristic points formed in the vicinity of the reference characteristic point by using the set reference characteristic point, and the measurement target measurement unit 168 recognizes the actual point between the reference characteristic points. The numerical value of the actual distance between the T measurement target feature points may be calculated using the distance as a reference distance. Accordingly, when image information of a subject having a feature point matching the stored reference geometrical relationship information is input through the camera module 105, the app 110 receives the N number of images through the interface display unit 132. Inducing recognition of the feature point and M edge regions and/or processing to display an interface that induces separation of the shooting distance between the subject and the camera lens 200 in the '+' direction or in the '-' direction, based on this T(T) formed near the q feature points as well as the actual distance between the q feature points included in the input image information without performing a series of processes for calculating the numerical value of the actual distance between the n feature points among the N feature points It is possible to calculate in real time up to the actual distance between ≥2) measurement target feature points.

한편 상기 기하학 관계 인식부(180)를 통해 q개의 특징점을 인식하였으나 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 실제거리 결정부(188)는 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하며, 이를 기반으로 상기 앱(110)은 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행할 수 있다.Meanwhile, although the q feature points were recognized through the geometric relationship recognition unit 180, the geometric relationship information between the q feature points and the reference geometric relationship information matched within the allowable error range were confirmed through the geometric relationship matching unit 184 If not, the real distance determining unit 188 induces recognition of the N feature points and M edge regions through the interface display unit 132 and/or the photographing distance between the subject and the camera lens 200 . is processed to display an interface that induces to be spaced apart in the '+' direction or separated in the '-' direction, and based on this, the app 110 is a series of process can be performed.

도면2는 본 발명의 실시 방법에 따른 카메라모듈(105)의 구조를 도시한 도면이다.2 is a view showing the structure of the camera module 105 according to the embodiment of the present invention.

보다 상세하게 본 도면2는 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205)를 포함하는 카메라모듈(105)의 간략한 구조와 촬영거리와 초점거리의 관계 및 이미지 센서부(210)의 센서영역(또는 이미지 센서부(210)를 통해 생성된 영상정보나 화상정보)를 통해 산출되는 특징점 간 거리와 피사체에 존재하는 실제 특징점 간 실제거리의 관계를 도시한 것이다. 한편 무선단말(100)의 카메라모듈(105)은 본 도면2에 도시된 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205) 이외에 다양한 구성부를 더 구비하여 이루어질 것이나, 발명이 속한 기술분야에서 통상의 지식을 가진 자라면 무선단말(100)의 카메라모듈(105)에 구비되는 다양한 구성부의 실시예를 유추할 수 있을 것이므로, 본 도면2는 이에 대한 설명이나 도시를 생략하기로 한다. In more detail, FIG. 2 shows a simplified structure of a camera module 105 including a camera lens 200, an image sensor unit 210, and an actuator unit 205, a relationship between a shooting distance and a focal length, and an image sensor unit 210 . On the other hand, the camera module 105 of the wireless terminal 100 will be further provided with various components in addition to the camera lens 200, the image sensor unit 210, and the actuator unit 205 shown in FIG. 2, but the invention belongs to Those of ordinary skill in the art will be able to infer the embodiments of various components provided in the camera module 105 of the wireless terminal 100, and thus, the description or illustration of this figure 2 will be omitted. .

도면2를 참조하면, 카메라모듈(105)은, 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와, 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)와, 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 구비한다.Referring to FIG. 2 , the camera module 105 includes one or more camera lenses 200 that receive an optical signal reflected from a subject, and detects an optical signal input through the camera lens 200 into an electrical image signal. It includes an image sensor unit 210 that converts, and an actuator unit 205 that implements an autofocus function or an image stabilization function between the camera lens 200 and the image sensor unit 210 .

상기 카메라렌즈(200)는 피사체로부터 반사된 광신호를 입력받는 대물렌즈에 해당하는 렌즈를 포함하여 이루어지며, 상기 대물렌즈와 이미지 센서부(210) 사이에 영상정보나 화상정보의 품질을 향상시키거나 각종 촬영 효과를 부여하기 위한 하나 이상읠 렌즈를 더 포함할 수 있다.The camera lens 200 includes a lens corresponding to an objective lens that receives an optical signal reflected from a subject, and improves the quality of image information or image information between the objective lens and the image sensor unit 210 . Or, it may further include one or more lenses for providing various shooting effects.

상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향으로 지정된 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향으로 지정된 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 가로방향 x(2≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역을 구비하여 이루어진다. The image sensor unit 210 detects the optical signal input through the camera lens 200 in real time, and the number of pixels (or resolution) of h (h ≥ 100) specified in the horizontal direction and v (v ≥ v) specified in the vertical direction Generates image information in the form of a bitmap image with 100) pixels (or resolution), or creates image information with h and v pixels (or resolution) and the number of frames per unit time specified. For this purpose, the sensor area is provided with a sensor area in the horizontal direction x (2≥1㎛) and in the vertical direction y(y≥1㎛).

상기 센서영역은 가로세로 x와 y의 영역 상에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있으며, 이에 의해 상기 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다.The sensor region may include h and v sensor cells on the x and y regions, and thereby the number of pixels on the image information or image information generated through the image sensor unit 210 and A specified correspondence may be formed in an actual distance (eg, an actual distance in a specified metrological unit) on the sensor area provided in the image sensor unit 210 . For example, the image information generated through the image sensor unit 210 or the number of 100 pixels on the image information may correspond to 10 μm on the sensor area.

상기 액츄에이터부(205)는 상기 카메라렌즈(200)와 이미지 센서부(210) 사이의 초점거리를 조정하여 자동초점 기능을 제공하며, 실시 방법에 따라 손떨림 보정 기능을 구현하기도 한다. The actuator unit 205 provides an autofocus function by adjusting the focal length between the camera lens 200 and the image sensor unit 210 , and also implements a handshake correction function according to an implementation method.

본 발명의 실시 방법에 따르면, 상기 액츄에이터부(205)는 구조적으로 상기 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210) 사이에는 허용된 이격 간격 범위가 존재하게 되는데, 이 때문에 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영 시 지정된 근접거리까지는 액츄에이터부(205)에 의해 자동초점이 맞추어지지만 상기 지정된 근접거리 미만으로 더 근접시켜 촬영하면 아무리 액츄에이터부(205)라도 자동초점을 맞추지 못하게 된다. 예를들어, 애플사의 아이폰6 기종에 탑재된 카메라모듈(105)의 경우 피사체와 카메라렌즈(200) 사이의 촬영거리가 7cm 이상일 경우에는 액츄에이터부(205)에 의해 자동초점이 맞춰지지만, 상기 촬영거리를 7cm미만으로 근접 시킬 경우에는 자동초점이 맞춰지지 않고 경계가 흐릿해지거나 번지는 블러링(Blurring)이 발생하는데, 이러한 블러링은 촬영거리를 근접시킴에 따라 선형적으로 증가하는 것이 아니라 지수함수 형태로 증가하여 상기 촬영거리를 대략 6.5cm미만으로 근접 시킬 경우에는 블러링에 의해 가로세로 1㎠에 인쇄된 글자나 숫자를 판독할 수 없을 정도로 블러링이 급속하게 증가하게 된다. According to the implementation method of the present invention, the actuator unit 205 has a structurally allowable separation interval range between the camera lens 200 (eg, an objective lens) and the image sensor unit 210, for this reason When shooting by bringing the camera lens 200 of the camera module 105 mounted on the wireless terminal 100 close to the subject, the actuator unit 205 automatically focuses up to the specified proximity distance, but closer than the specified proximity distance. No matter how much the actuator unit 205 is taken, the auto focus cannot be achieved. For example, in the case of the camera module 105 mounted on Apple's iPhone 6 model, when the shooting distance between the subject and the camera lens 200 is 7 cm or more, autofocus is performed by the actuator unit 205, but the shooting When the distance is closer to less than 7cm, autofocus is not achieved and the boundary is blurred or blurring occurs. When it increases in the form of a function to bring the shooting distance closer to less than about 6.5 cm, the blurring rapidly increases to such an extent that characters or numbers printed on 1 cm 2 horizontally and vertically cannot be read due to blurring.

상기 초점거리는 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210)의 센성영역 사이의 거리이고, 상기 촬영거리는 피사체의 촬영면과 카메라렌즈(200)(예컨대, 대물렌즈) 사이의 거리를 포함한다. 본 발명의 실시 방법에 따르면, 상기 액츄에이터부(205)는 자동초점을 위해 상기 카메라렌즈(200)와 이미지 센서부(210)의 센성영역 사이의 초점거리를 미세하게 조정하며, 이에 의해 자동초점이 맞춰지는 촬영거리도 조정되게 된다. The focal length is the distance between the camera lens 200 (eg, objective lens) and the sensory region of the image sensor unit 210, and the shooting distance is between the photographing surface of the subject and the camera lens 200 (eg, objective lens). includes distance. According to the embodiment of the present invention, the actuator unit 205 finely adjusts the focal length between the camera lens 200 and the sensory region of the image sensor unit 210 for autofocus, whereby autofocus is The shooting distance will also be adjusted.

본 발명의 실시 방법에 따르면, 최근접한계거리정보는 피사체의 촬영면과 카메라렌즈(200)(예컨대, 대물렌즈) 사이의 다양한 촬영거리 중 상기 카메라렌즈(200)와 피사체 사이의 거리가 자동초점 가능한 원거리에서 근접시키면서 촬영하다가 자동초점이 맞춰지지 않고 상기 블러링이 발생하는 시점(또는 반대로 상기 카메라렌즈(200)와 피사체 사이의 거리가 초근접하여 자동초점이 맞춰지지 않다가 멀어지면서 자동초점이 맞춰지는 시점)의 촬영거리로 정의할 수 있다. 한편 기준초점거리정보는 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210)의 센성영역 사이의 다양한 초점거리 중 상기 카메라렌즈(200)와 피사체 사이의 거리가 상기 최근접한계거리정보인 경우에 자동초점 가능한 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리로 정의할 수 있다. According to the embodiment of the present invention, the closest limit distance information is the distance between the camera lens 200 and the subject among various shooting distances between the shooting surface of the subject and the camera lens 200 (eg, an objective lens) to autofocus. The point of time when the blurring occurs without autofocusing while shooting as close as possible from a distance (or, conversely, the distance between the camera lens 200 and the subject is very close so that autofocus is not achieved, and then autofocus is lost as it moves away) It can be defined as the shooting distance at the point of time). Meanwhile, in the reference focal length information, the distance between the camera lens 200 and the subject among various focal lengths between the camera lens 200 (eg, objective lens) and the sensory region of the image sensor unit 210 is the closest limit distance. In the case of information, it may be defined as a focal length between the autofocusable camera lens 200 and the sensor area of the image sensor unit 210 .

본 발명의 실시 방법에 따르면, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F개의 프레임 화상정보를 이용하여 산출되는 n개의 특징점 간 거리는 상기 프레임 화상정보를 판독하여 인식된 n개의 특징점 간 픽셀거리를 포함할 수 있다. 또는 상기 n개의 특징점 간 거리는 상기 이미지 센서부(210)에 구비된 가로세로 x와 y의 센서영역과 상기 프레임 화상정보의 가로세로 h와 v의 픽셀 수(또는 해상도)의 관계를 근거로 환산된 지정된 도량형 단위의 특징점 간 실제거리를 포함할 수 있다. According to the embodiment of the present invention, the distance between n feature points calculated using F frame image information included in the image information input through the camera module 105 is the n feature points recognized by reading the frame image information. Inter-pixel distance may be included. Alternatively, the distance between the n feature points is converted based on the relationship between the horizontal and vertical x and y sensor regions provided in the image sensor unit 210 and the number (or resolution) of horizontal and vertical pixels h and v of the frame image information. It may include the actual distance between the feature points of the specified metrological unit.

본 발명의 실시 방법에 따르면, 상기 기준초점거리와 최근접한계거리 사이의 비례 관계를 근거로 상기 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출할 수 있다.According to the embodiment of the present invention, the numerical value of the actual distance between the n feature points on the subject corresponding to the calculated distance between the n feature points can be calculated based on the proportional relationship between the reference focal length and the nearest limit distance. have.

도면3은 본 발명의 제1 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.3 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the first embodiment of the present invention.

보다 상세하게 본 도면3은 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보를 확인하는 과정을 수행하되, 지정된 저장영역에 적어도 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 저장되고 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점이 인식된 경우 상기 저장된 기준 기하학 관계정보를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 3 performs a process of checking image information input and buffered through the camera module 105, and reference geometric relationship information for determining a unique geometric relationship between at least p feature points is stored in a designated storage area. A process of determining an actual distance between at least two or more of the recognized q feature points using the stored reference geometrical relationship information when at least q feature points are recognized by reading F frame image information included in the image information As shown in the figure, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this figure 3 to perform various implementation methods for the numerical measurement process of the actual distance between the feature points (e.g., some steps omitted, or the order of which is changed) may be inferred, but the present invention includes all of the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 3 .

도면3을 참조하면, 무선단말(100)의 앱(110)은 무선단말(100)의 카메라모듈(105)을 통해 피사체를 촬영하여 생성된 영상정보를 지정된 버퍼영역에 버퍼링하거나 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보를 확인한다(300). 한편 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)의 자동초점 기능을 활성화하거나 및/또는 상기 카메라모듈(105)의 자동초점 주기를 최소값으로 설정할 수 있다.Referring to FIG. 3 , the app 110 of the wireless terminal 100 buffers image information generated by photographing a subject through the camera module 105 of the wireless terminal 100 in a designated buffer area or the camera module 105 ) and check the image information buffered in the designated buffer area (300). Meanwhile, image information input through the camera module 105 and buffered in a designated buffer area may be used in the processes of FIGS. 4 to 6 . Meanwhile, according to the embodiment of the present invention, the app 110 of the wireless terminal 100 activates the auto focus function of the camera module 105 and/or sets the auto focus cycle of the camera module 105 to the minimum value. can be set.

만약 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보가 확인되면, 상기 무선단말(100)의 앱(110)은 도면6의 과정을 통해 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있는지 확인한다(305). 만약 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있지 않은 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.If the buffered image information input through the camera module 105 is confirmed, the app 110 of the wireless terminal 100 stores one or more valid reference geometry relationship information in a storage area designated through the process of FIG. 6 . Check whether it is done (305). If one or more valid reference geometry relationship information is not stored in the designated storage area, the app 110 of the wireless terminal 100 displays the interface designated through the process of FIG. While recognizing n feature points and m edge regions from frame image information, focus through the m edge regions while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface After calculating the distance between the n feature points at the '0' point to be matched, based on the relationship between the reference focal length and the nearest limit distance of the camera module 105, the actual n number of points corresponding to the distance between the n feature points The process of calculating the numerical value of the actual distance between the feature points may be performed.

한편 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장된 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 프레임 화상정보 중 판독 대상에 해당하는 F개의 프레임 화상정보를 확인한다(310). 한편 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 실시예의 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역 중 유효한 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식하고, 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한 후, 아핀 변환을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다(315). 한편 실시 방법에 따라 상기 보정된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 다른 실시 방법에 따라 상기 변환 보정을 생략하거나 또는 지정된 특징점이 인식된 후에 변환 보정하는 경우 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 과정을 생략 가능하며, 이에 의해 본 발명이 한정되지 아한다.On the other hand, when one or more valid reference geometry relationship information is stored in the designated storage area, the app 110 of the wireless terminal 100 checks F frame image information corresponding to the reading target among the frame image information included in the image information do (310). On the other hand, in the case of an embodiment of converting and correcting image information of F frames included in the image information, the app 110 of the wireless terminal 100 reads F frame image information included in the image information to obtain the frame image information Recognizes d (1≤d≤D) valid perspective identification areas among D (D≥1) perspective identification areas existing within, and includes the recognized d effective perspective identification areas and the wireless terminal 100 By combining and analyzing the information sensed through one or more sensors, the distance between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 of the camera module 105 are spaced apart in an orthogonal direction. After calculating the F frame image information included in the image information by using various geometric transformation equations including affine transformation, the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 Transformation correction may be performed to form this orthogonal relationship (315). Meanwhile, according to the implementation method, the corrected image information may be used in the processes of FIGS. 4 to 6 . Meanwhile, according to another embodiment of the present invention, when the conversion correction is omitted or the transformation correction is performed after the specified feature point is recognized, the process of converting and correcting the image information of F frames included in the image information can be omitted, thereby The invention is not limited.

상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보(또는 상기 보정된 F개의 프레임 화상정보)를 판독하여 적어도 q개의 특징점을 인식 시도한다(320). 만약 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식하지 못한 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.The app 110 of the wireless terminal 100 reads F frame image information (or the corrected F frame image information) included in the image information that is input and buffered through the camera module 105 to at least q An attempt is made to recognize the characteristic points of the dog ( 320 ). If at least q feature points are not recognized by reading the F frame image information, the app 110 of the wireless terminal 100 displays an interface designated through the process of FIG. 4 to display the F included in the image information. While recognizing n feature points and m edge regions from frame image information, and while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface, through the m edge regions After calculating the distance between the n feature points at the '0' point in focus, the actual n corresponding to the distance between the n feature points based on the relationship between the reference focal length and the nearest limit distance of the camera module 105 The process of calculating the numerical value of the actual distance between the feature points may be performed.

한편 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식한 경우, 상기 무선단말(100)의 앱(110)은 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다(325). 만약 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되지 않으면, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.On the other hand, when at least q feature points are recognized by reading the F frame image information, the app 110 of the wireless terminal 100 stores one or more reference geometric relation information stored in a designated storage area and between the recognized q feature points. By comparing the geometrical relationship information, any one reference geometrical relationship information matching the geometrical relationship information between the q feature points within an allowable error range is checked ( 325 ). If the reference geometrical relationship information matching the geometrical relationship information between the q feature points is not confirmed, the app 110 of the wireless terminal 100 displays an interface designated through the process of FIG. While recognizing n feature points and m edge regions from F frame image information, the m edge regions while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface After calculating the distance between the n feature points at the '0' point in focus, the actual distance corresponding to the distance between the n feature points based on the relationship between the reference focal length and the nearest limit distance of the camera module 105 The process of calculating the numerical value of the actual distance between n feature points may be performed.

한편 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되면, 상기 무선단말(100)의 앱(110)은 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하고(330), 상기 결정된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(335). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.On the other hand, when the reference geometric relationship information matching the geometric relationship information between the q feature points is confirmed, the app 110 of the wireless terminal 100 uses the actual distance between the p feature points included in the matched reference geometric relationship information. to determine an actual distance between at least two feature points among the recognized q feature points (330), and perform a procedure for displaying or using the determined real distance between the feature points (335). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

도면4는 본 발명의 제2 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the second embodiment of the present invention.

보다 상세하게 본 도면4는 카메라모듈(105)의 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리를 이용하여 피사체에 존재하는 적어도 둘 이상의 특징점 간 실제거리의 수치를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 shows a process of calculating the value of the actual distance between at least two feature points existing in the subject by using the nearest limit distance corresponding to the closest shooting distance that can be autofocused of the camera module 105. As one of ordinary skill in the art to which the present invention pertains, various implementation methods for the numerical measurement process of the actual distance between the feature points (eg, some steps are omitted, or or the implementation method in which the order is changed) may be inferred, but the present invention includes all of the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 4 .

도면4를 참조하면, 무선단말(100)의 앱(110)은 상기 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인한다(400).Referring to FIG. 4 , the app 110 of the wireless terminal 100 enables autofocus when the camera lens 200 of the camera module 105 mounted on the wireless terminal 100 is taken close to the subject to take a close-up shot. The nearest limit distance information corresponding to the distance and the reference focal length information for auto-focusing at the nearest shooting distance are checked ( 400 ).

만약 상기 최근접한계거리정보와 기준초점거리정보가 확인되면, 상기 무선단말(100)의 앱(110)은 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈(105)의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고(405), 상기 도면3의 과정에서 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보를 화면 영역 상의 지정된 영상출력 영역에 출력하며(410), 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식한다(415). 만약 상기 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식한다(420).If the nearest limit distance information and the reference focal length information are checked, the app 110 of the wireless terminal 100 adjusts the gaze direction of the camera lens 200 to N (N≥2) feature points and focus. A photographing induction interface and/or the subject and the camera lens 200 that directs the subject in the direction of the subject having M (M≥1) recognizable edge areas to include the N feature points and M edge areas within the field of view. ) to induce a distance in the '+' direction from the '-' distance less than the nearest limit distance that can auto focus of the camera module 105 to a '+' distance greater than the nearest limit distance in the '+' direction, or the shooting distance A separation inducing interface for inducing the camera module 105 to be spaced apart in the '-' direction from a '+' distance greater than or equal to the nearest limit distance that can be automatically focused to a '-' distance less than the nearest limit distance is designated on the screen area. It is displayed on the interface area (405), and buffered image information input through the camera module 105 in the process of FIG. 3 is output to a designated image output area on the screen area (410), and through the process of FIG. F frame image information included in the buffered or corrected image information is read to recognize n feature points and m edge regions ( 415 ). If the F frame image information is read and n feature points and m edge regions are recognized, the app 110 of the wireless terminal 100 determines whether the image information is spaced apart in the '+' direction according to the induction of the interface. It is recognized whether the '-' direction is spaced apart (420).

만약 상기 영상정보가 '+' 방향 이격되는 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다(425). 한편 상기 영상정보가 '-' 방향 이격되는 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다(430). If the image information is spaced apart in the '+' direction, the app 110 of the wireless terminal 100 is the '0' point in time when the blur ratio of the m edge regions included in the image information decreases and then becomes constant. A distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to is calculated ( 425 ). On the other hand, when the image information is spaced apart in the '-' direction, the app 110 of the wireless terminal 100 maintains a constant state and then increases the blur ratio of the m edge regions included in the image information. The distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to the 0' viewpoint is calculated ( 430 ).

한편 상기의 과정을 통해 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리가 산출되면, 상기 무선단말(100)의 앱(110)은 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하고(445), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(450). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.On the other hand, if the distance between the n feature points recognized through the image information of at least f (1≤f<F) frames corresponding to the '0' time point is calculated through the above process, the app 110 of the wireless terminal 100 Calculates the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' point based on the relationship between the reference focal length and the nearest limit distance (445), A procedure for displaying or using the calculated actual distance between the feature points is performed ( 450 ). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

도면5는 본 발명의 제3 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.5 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the third embodiment of the present invention.

보다 상세하게 본 도면5는 기 산출된 둘 이상의 특징점 간 실제거리를 이용하여 다른 특징점 간의 실제거리를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 5 shows a process of calculating the actual distance between different feature points using the calculated actual distance between two or more feature points. Those of ordinary skill in the art to which the present invention pertains 5, various implementation methods for the numerical measurement process of the actual distance between the feature points (eg, an implementation method in which some steps are omitted or the order is changed) may be inferred by referring and/or modifying 5, but in the present invention, the analogy It is made including all implementation methods that are used, and the technical characteristics are not limited only to the implementation method shown in FIG. 5 .

도면5를 참조하면, 무선단말(100)의 앱(110)은 상기 도면3 또는 도면4의 과정을 통해 특징점 간의 실제거리의 수치가 결정/산출된 특징점과 특징점 간의 실제거리를 확인하고, 상기 확인된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 인식하기 위한 기준 특징점을 설정하고 상기 기준 특징점 간의 실제거리를 상기 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다(500).Referring to Figure 5, the app 110 of the wireless terminal 100 checks the actual distance between the feature point and the feature point where the numerical value of the actual distance between the feature points is determined/calculated through the process of Figure 3 or Figure 4, and the confirmation At least two feature points among the measured feature points are set as reference feature points for recognizing the feature points to be measured, and the actual distance between the reference feature points is set as a reference distance for calculating the actual distance between the feature points to be measured ( 500 ).

만약 실제거리의 수치가 결정/산출된 특징점을 통해 기준 특징점과 기준거리가 설정되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다(505). 여기서, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하며, 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있다.If the reference feature point and the reference distance are set through the feature point for which the numerical value of the actual distance is determined/calculated, the app 110 of the wireless terminal 100 is T (T≥2) of the feature points formed near the reference feature point. The measurement target feature point is recognized (505). Here, the T feature points to be measured include feature points included in the same frame image information as the frame image information including the reference feature points, and may include at least one feature point among the reference feature points.

만약 상기 T개의 계측대상 특징점이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하고(510), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(515). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.If the T feature points to be measured are recognized, the app 110 of the wireless terminal 100 uses the actual distance between the reference feature points as a reference distance to calculate the numerical value of the actual distance between the T feature points to be measured ( 510), a procedure of displaying or using the calculated actual distance between the feature points is performed (515). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

한편 상기 무선단말(100)의 앱(110)은 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정할 수 있으며(520), 이로써 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. On the other hand, the app 110 of the wireless terminal 100 reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points, or sets the actual distance between the t feature points to be measured as a reference distance. can be reused (520), whereby the app 110 of the wireless terminal 100 can measure the actual distance between various feature points included in the image information subsequently input through the camera module 105 in real time.

도면6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.6 is a diagram illustrating a process of generating, storing and managing geometric relation information between feature points for which numerical values of actual distances are calculated according to an embodiment of the present invention.

보다 상세하게 본 도면6은 상기 도면3의 과정을 통해 특징점 간 실제거리의 수치를 계측하기 위해 필요한 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 특징점 간 기하학 관계정보를 생성 내지 저장 관리하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 6 shows a process of generating, storing and managing geometric relationship information between feature points necessary to measure the numerical value of the actual distance between the feature points through the process of FIG. For those with the knowledge of ) can be inferred, but the present invention is made including all the implementation methods inferred above, and the technical characteristics are not limited only to the implementation method shown in FIG. 6 .

도면6을 참조하면, 무선단말(100)의 앱(110)은 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식하고(600), 상기 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식된 경우 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출한다(605). 한편 본 발명의 다른 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 도면3 내지 도면5의 과정을 통해 기 결정/산출된 특징점 간 실제거리 중 적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리를 확인한다(605). Referring to FIG. 6 , the app 110 of the wireless terminal 100 reads F frame image information included in the image information buffered or corrected through the process of FIG. 3 and reads at least p (p≥3) feature points. (600), the F frame image information is read and, when at least p feature points are recognized, an actual distance between p feature points including at least two or more actual distances formed by connecting the p feature points is calculated. (605). On the other hand, according to another embodiment of the present invention, the app 110 of the wireless terminal 100 is formed by connecting at least p key points among the actual distances between the pre-determined/calculated feature points through the process of FIGS. 3 to 5 . The actual distances between the p number of feature points including the numerical values of at least two or more actual distances to be obtained are checked (605).

적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리가 산출/확인되면, 상기 무선단말(100)의 앱(110)은 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고(610), 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하며(615), 상기 기준 기하학 관계정보는 상기 도면3의 과정을 통해 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는데 이용된다.When the actual distance between p key points including the numerical value of at least two or more actual distances formed by connecting at least p key points is calculated/confirmed, the app 110 of the wireless terminal 100 displays the actual distance between the p key points. and generating reference geometric relationship information for discriminating a unique geometric relationship between the p feature points, including the distance relationship between the p feature points and the angular relationship formed by the p feature points (610), and the generated reference geometric relationship The information is stored and managed in a designated storage area ( 615 ), and the reference geometric relationship information is used to measure the numerical value of the actual distance between the feature points on the subject photographed through the camera module 105 through the process of FIG. 3 .

100 : 무선단말 105 : 카메라모듈
110 : 앱 112 : 거리정보 확인부
116 : 환산정보 확인부 120 : 촬영조건 설정부
124 : 입력영상 확인부 128 : 입력영상 출력부
132 : 인터페이스 표시부 136 : 보정변환 처리부
140 : 특징점 인식부 144 : 엣지 영역 인식부
148 : 이격 방향 인식부 152 : 인식거리 산출부
156 : 실제거리 산출부 160 : 계측기준 설정부
164 : 계측대상 인식부 168 : 계측대상 계측부
172 : 기하학 관계 생성부 176 : 기하학 관계 관리부
180 : 기하학 관계 인식부 184 : 기하학 관계 매칭부
188 : 실제거리 결정부 200 : 카메라렌즈
205 : 액츄에이터부 210 : 이미지 센서부
100: wireless terminal 105: camera module
110: app 112: distance information confirmation unit
116: conversion information confirmation unit 120: shooting condition setting unit
124: input image confirmation unit 128: input image output unit
132: interface display unit 136: correction conversion processing unit
140: feature point recognition unit 144: edge region recognition unit
148: separation direction recognition unit 152: recognition distance calculation unit
156: actual distance calculation unit 160: measurement standard setting unit
164: measurement target recognition unit 168: measurement target measurement unit
172: geometric relationship generation unit 176: geometric relationship management unit
180: geometric relation recognition unit 184: geometric relation matching unit
188: actual distance determining unit 200: camera lens
205: actuator unit 210: image sensor unit

Claims (36)

자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계;
상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계;
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 '-' 방향 이격되는지 인식하는 제3 단계;
상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하거나, 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계; 및
상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계;를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
In the method executed through the app of the wireless terminal equipped with a camera module equipped with an auto-focus function,
When the app captures the camera lens of the camera module mounted on the wireless terminal close to the subject, nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and reference focal length information for autofocusing at the nearest shooting distance A first step to confirm;
The app directs the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas that can confirm focus, so that the N feature points and At the same time inducing to include M edge regions, the shooting distance between the subject and the camera lens is changed from a '-' distance less than the nearest limit distance that can autofocus of the camera module to a '+' distance greater than the nearest limit distance ' Inducing to be spaced apart in the +' direction or to separate the shooting distance in the '-' direction from a '+' distance greater than or equal to the nearest limit distance that can autofocus of the camera module to a '-' distance less than the nearest limit distance a second step of displaying the interface in a designated interface area on the screen area;
The app reads F (F ≥ 2) frame image information included in the image information input and buffered through the camera module, n (2 ≤ n ≤ N) feature points and m (1 ≤ n ≤ M) a third step of recognizing an edge region and recognizing whether the image information is spaced apart in a '+' direction or a '-' direction according to induction of the interface;
When the app recognizes the image information spaced apart from the '+' direction, at least f(1≤1≤) corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and becomes constant. When calculating the distance between n feature points recognized through f<F) frame image information or recognizing image information spaced apart from the '-' direction, blur of m edge regions included in the image information a fourth step of calculating a distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to a '0' time point in which the ratio is maintained and increased; and
A fifth in which the app calculates the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' time point based on the relationship between the reference focal length and the nearest limit distance Step; Numerical measurement method using the autofocus function of the camera comprising a.
제 1항에 있어서,
둘 이상의 특징점 간 실제거리의 수치가 산출된 경우,
상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계;
상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계; 및
상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method of claim 1,
When the numerical value of the actual distance between two or more feature points is calculated,
setting, by the app, at least two or more feature points among the feature points for which the numerical value of the actual distance is calculated as a reference feature point, and setting the actual distance between the reference feature points as a reference distance;
Recognizing, by the app, T (T≥2) measurement target feature points among feature points formed in the vicinity of the reference feature point; and
Calculating, by the app, the actual distance between the T measurement target feature points using the actual distance between the reference feature points as a reference distance; Numerical measurement method using the autofocus function of the camera, characterized in that it further comprises a .
◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 3 was abandoned when paying the registration fee.◈ 제 2항에 있어서, 상기 T개의 계측대상 특징점은,
상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method according to claim 2, wherein the T feature points to be measured are:
A numerical measurement method using an auto-focus function of a camera, characterized in that the frame image information including the reference feature point and the feature point included in the same frame image information are included.
◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when paying the registration fee.◈ 제 2항에 있어서, 상기 T개의 계측대상 특징점은,
상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method according to claim 2, wherein the T feature points to be measured are:
A numerical measurement method using an autofocus function of a camera, characterized in that it can include at least one feature point among the reference feature points.
◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 5 was abandoned when paying the registration fee.◈ 제 2항에 있어서,
상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우,
상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
3. The method of claim 2,
When the numerical value of the actual distance between the T measurement target feature points is calculated,
The app reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points, or sets the actual distance between the t feature points to be measured again as a reference distance. Numerical measurement method using the autofocus function of the camera, characterized in that.
제 1항에 있어서,
적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우,
상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계; 및
상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method of claim 1,
When the actual distance between p features including at least two or more real distances formed by connecting at least p (p≥3) feature points is calculated,
The app generates reference geometric relationship information for determining a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points step; and
Numerical measurement method using the auto-focus function of the camera, characterized in that it further comprises; storing and managing, by the app, the generated reference geometric relationship information in a designated storage area.
◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 7 was abandoned at the time of payment of the registration fee.◈ 제 6항에 있어서, 상기 거리관계는,
상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와,
상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method of claim 6, wherein the distance relationship is
Relative length information of two or more straight lines connecting the p feature points,
A numerical measurement method using an auto-focus function of a camera, characterized in that it includes at least one of distance-related vector component information of two or more straight lines connecting the p feature points.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned when paying the registration fee.◈ 제 6항에 있어서, 상기 각도관계는,
상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와,
상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method according to claim 6, wherein the angular relationship is
Angle information formed by two or more straight lines connecting the p feature points,
A numerical measurement method using an auto-focus function of a camera, characterized in that it includes at least one of direction-related vector component information of two or more straight lines connecting the p feature points.
◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 9 was abandoned at the time of payment of the registration fee.◈ 제 6항에 있어서,
지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우,
상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계;
상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계; 및
상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
7. The method of claim 6,
When at least q (q≥3) feature points included in the image information input through the camera module are recognized after the reference geometrical relationship information is stored in a designated storage area,
Recognizing, by the app, geometric relationship information including a distance relationship and an angle relationship between the recognized q feature points;
The app compares one or more reference geometric relationship information stored in a designated storage area with geometric relationship information between the recognized q feature points, and any reference geometric relationship that matches the geometric relationship information between the q feature points within an allowed error range verifying the information; and
When the matched reference geometric relationship information is confirmed, the app determines the actual distance between at least two or more of the recognized q feature points by using the actual distance between the p feature points included in the matched reference geometric relationship information Step; Numerical measurement method using the auto-focus function of the camera, characterized in that it further comprises.
◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 10 was abandoned when paying the registration fee.◈ 제 9항에 있어서,
상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계;
상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계; 및
상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
10. The method of claim 9,
setting, by the app, at least two or more of the recognized q feature points or p feature points included in the confirmed reference geometric relationship information as a reference feature point, and setting the actual distance between the set reference feature points as a reference distance;
Recognizing, by the app, T (T≥2) measurement target feature points among feature points formed in the vicinity of the reference feature point; and
Calculating, by the app, the actual distance between the T measurement target feature points using the actual distance between the reference feature points as a reference distance; Numerical measurement method using the autofocus function of the camera, characterized in that it further comprises a .
◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 11 was abandoned when paying the registration fee.◈ 제 9항에 있어서,
상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
10. The method of claim 9,
If the matched reference geometry relationship information is not confirmed, the app is induced to recognize the N feature points and M edge areas, or the shooting distance between the subject and the camera lens is spaced apart in the '+' direction or in the '-' direction. Numerical measurement method using an auto-focus function of a camera, characterized in that it comprises the step of processing to display the interface inducing the separation.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서, 상기 제1 단계는,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the first step,
The app further comprising the step of confirming conversion information for converting a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal into an actual distance of a specified metrological unit A numerical measurement method using the camera's autofocus function.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete ◈청구항 22은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 22 was abandoned when paying the registration fee.◈ 제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 카메라모듈의 자동초점 기능을 활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
Numerical measurement method using the auto-focus function of the camera, characterized in that the app further comprises the step of activating the auto-focus function of the camera module.
◈청구항 23은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 23 was abandoned at the time of payment of the registration fee.◈ 제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 카메라모듈의 자동초점 주기를 최소값으로 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
Numerical measurement method using the auto-focus function of the camera, characterized in that the app further comprises the step of setting the auto-focus period of the camera module to a minimum value.
제 1항에 있어서, 상기 N개의 특징점은,
상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the N feature points,
At least one of a point region, a line region, and a plane region in which one or more values of color, contrast, and saturation among pixel regions in the image information input through the camera module differ by more than a specified reference value from values of adjacent regions Numerical measurement method using the auto focus function of the camera, characterized in that made by
제 1항에 있어서, 상기 N개의 특징점은,
지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는
지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the N feature points,
A feature point formed in an imaginary planar area forming an orthogonal relationship with the gaze direction of the camera lens within a specified tolerance range, or
A numerical measurement method using an autofocus function of a camera, characterized in that it includes a feature point formed in a virtual planar area forming a parallel relationship with the sensor area of the image sensor unit of the camera lens within a specified tolerance range.
제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
Using the auto focus function of the camera, characterized in that the app further comprises the step of displaying an interface that induces to form an orthogonal relationship between the surface on which the N feature points on the subject are formed and the gaze direction of the camera lens Numerical measurement method.
◈청구항 27은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 27 was abandoned when paying the registration fee.◈ 제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 카메라모듈의 자동초점 주기 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
Numerical measurement method using the auto-focus function of the camera, characterized in that it further comprises the step of displaying an interface that induces the app to be separated at a specified separation speed moving within a specified separation distance within an auto-focus period of the camera module.
◈청구항 28은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 28 was abandoned when paying the registration fee.◈ 제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
The app reads a specified number of frames included in the image information input and buffered through the camera module and moves within the specified separation distance within the time required to recognize n feature points and m edge regions at a specified separation speed Numerical measurement method using the auto-focus function of the camera, characterized in that it further comprises the step of displaying an interface to induce separation.
삭제delete 삭제delete 제 1항에 있어서, 상기 제3 단계는,
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the third step,
The pixel distance and the j (i<j≤F) frame image and the pixel distance between at least one feature point included in the i (1≤f<F) frame image information among F frames that the app is inputted through the camera module and buffered When the pixel distance between the feature points increases by comparing the pixel distance between the same feature points included in the information, the image information input through the camera module is identified as image information spaced apart in the '+' direction, and the pixel distance between the feature points is decreased. A numerical measurement method using an auto-focus function of a camera, characterized in that it comprises the step of confirming the image information input through the camera module as image information spaced apart in the '-' direction in the case of the camera module.
제 1항에 있어서,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며,
상기 제4 단계는,
상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계; 및
상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method of claim 1,
Further comprising the step of confirming conversion information for converting the designated unit pixel distance on the pixel area of the image information obtained through the image sensor unit of the camera module mounted on the wireless terminal by the app to the actual distance of the designated metrological unit,
The fourth step is
calculating, by the app, a pixel distance between n feature points present in the f pieces of image information; and
Converting, by the app, the pixel distance between n feature points to the distance between n feature points in a specified metrological unit using the conversion information; Numerical measurement method using the autofocus function of the camera, comprising: a.
◈청구항 33은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 33 was abandoned when paying the registration fee.◈ 제 32항에 있어서, 상기 환산정보는,
상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
The method of claim 32, wherein the conversion information,
and information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit.
제 1항에 있어서, 상기 제4 단계는,
상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
According to claim 1, wherein the fourth step,
When the distance between two or more n feature points existing in the image information of two or more frames corresponding to the '0' point is calculated, the app statistically processes the calculated distance between the two or more n feature points, n of a specified error range A numerical measurement method using an autofocus function of a camera, characterized in that it comprises the step of calculating the distance between the key points.
자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계;
상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 미만의 '-' 거리에서 상기 최근접한계거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계;
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 이격되는지 인식하는 제3 단계;
상기 앱이 상기 '+' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 감소하다가 일정해지는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계; 및
상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계;를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
In the method executed through the app of the wireless terminal equipped with a camera module equipped with an auto-focus function,
When the app captures the camera lens of the camera module mounted on the wireless terminal close to the subject, nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and reference focal length information for autofocusing at the nearest shooting distance A first step to confirm;
The app directs the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas that can confirm focus, so that the N feature points and At the same time inducing to include M edge regions, the shooting distance between the subject and the camera lens is changed from a '-' distance less than the nearest limit distance that can autofocus of the camera module to a '+' distance greater than the nearest limit distance ' a second step of displaying an interface inducing to be spaced apart in the +' direction on a designated interface area on the screen area;
The app reads F (F ≥ 2) frame image information included in the image information input and buffered through the camera module, n (2 ≤ n ≤ N) feature points and m (1 ≤ n ≤ M) a third step of recognizing an edge region and recognizing whether the image information is spaced apart in a '+' direction according to induction of the interface;
When the app recognizes the image information spaced apart from the '+' direction, at least f(1≤1≤) corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information decreases and becomes constant. a fourth step of calculating a distance between n feature points recognized through f<F) frame image information; and
A fifth in which the app calculates the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' time point based on the relationship between the reference focal length and the nearest limit distance Step; Numerical measurement method using the autofocus function of the camera comprising a.
자동초점 기능을 구비한 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 카메라렌즈를 피사체에 근접시켜 촬영할 경우 자동초점 가능한 최근접 촬영거리에 대응하는 최근접한계거리정보와 상기 최근접 촬영거리에서 자동초점하는 기준초점거리정보를 확인하는 제1 단계;
상기 앱이 상기 카메라렌즈의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 카메라모듈의 자동초점 가능한 최근접한계거리 이상의 '+' 거리에서 상기 최근접한계거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 제2 단계;
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '-' 방향 이격되는지 인식하는 제3 단계;
상기 앱이 상기 '-' 방향 이격되는 영상정보를 인식한 경우에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 일정한 상태를 유지하다가 증가하는 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계; 및
상기 앱이 상기 기준초점거리와 최근접한계거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계;를 포함하는 카메라의 자동초점 기능을 이용한 수치 계측 방법.
In the method executed through the app of the wireless terminal equipped with a camera module equipped with an auto-focus function,
When the app captures the camera lens of the camera module mounted on the wireless terminal close to the subject, nearest limit distance information corresponding to the nearest shooting distance that can be autofocused and reference focal length information for autofocusing at the nearest shooting distance A first step to confirm;
The app directs the gaze direction of the camera lens toward the subject having N (N≥2) feature points and M (M≥1) edge areas that can confirm focus, so that the N feature points and At the same time inducing the inclusion of M edge regions, the shooting distance between the subject and the camera lens is changed from a '+' distance greater than or equal to the closest limit distance that can be automatically focused of the camera module to a '-' distance less than the closest limit distance. -' a second step of displaying an interface inducing direction to be spaced apart in a designated interface area on the screen area;
The app reads F (F ≥ 2) frame image information included in the image information input and buffered through the camera module, n (2 ≤ n ≤ N) feature points and m (1 ≤ n ≤ M) a third step of recognizing an edge region and recognizing whether the image information is spaced apart in a '-' direction according to induction of the interface;
When the app recognizes the image information spaced apart in the '-' direction, the blur ratio of the m edge regions included in the image information maintains a constant state and increases at least f corresponding to the '0' time point a fourth step of calculating a distance between n feature points recognized through (1≤f<F) frame image information; and
A fifth in which the app calculates the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' time point based on the relationship between the reference focal length and the nearest limit distance Step; Numerical measurement method using the autofocus function of the camera comprising a.
KR1020170128490A 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera KR102401575B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170128490A KR102401575B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170128490A KR102401575B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera

Publications (2)

Publication Number Publication Date
KR20190038965A KR20190038965A (en) 2019-04-10
KR102401575B1 true KR102401575B1 (en) 2022-05-27

Family

ID=66163859

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170128490A KR102401575B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Automatic Focussing Function of Camera

Country Status (1)

Country Link
KR (1) KR102401575B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111541891B (en) * 2020-04-20 2022-08-09 江苏唯侓机器人科技有限公司 Method for determining defects of camera based on image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138290A2 (en) 2006-05-26 2007-12-06 Pera Innovation Limited Method of and apparatus for producing formable products
JP2011058854A (en) 2009-09-07 2011-03-24 Sharp Corp Portable terminal
CN105627926B (en) 2016-01-22 2017-02-08 尹兴 Four-camera group planar array feature point three-dimensional measurement system and measurement method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000012428U (en) * 1998-12-17 2000-07-05 신현준 Image measuring device for measuring cylindrical specimen
WO2016091545A1 (en) * 2014-12-09 2016-06-16 Fotonation Limited Image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007138290A2 (en) 2006-05-26 2007-12-06 Pera Innovation Limited Method of and apparatus for producing formable products
JP2011058854A (en) 2009-09-07 2011-03-24 Sharp Corp Portable terminal
CN105627926B (en) 2016-01-22 2017-02-08 尹兴 Four-camera group planar array feature point three-dimensional measurement system and measurement method

Also Published As

Publication number Publication date
KR20190038965A (en) 2019-04-10

Similar Documents

Publication Publication Date Title
KR102158233B1 (en) Method for Providing Augmented Make-up Service
US11361591B2 (en) Iris recognition device, manufacturing method therefor and application thereof
JP7274532B2 (en) Methods for enrolling and authenticating users in authentication systems, face authentication systems, and methods for authenticating users in authentication systems
CN108886582A (en) Photographic device and focusing controlling method
KR102522415B1 (en) Apparatus and method for recognizing object in electronic device
CN107480601B (en) Detection method and related product
CN102272673A (en) Method, apparatus and computer program product for automatically taking photos of oneself
JP2009522683A (en) Iris recognition system and iris recognition method using mobile terminal equipped with stereo camera
CN107194231A (en) Unlocking method, device and mobile terminal based on iris
JP2005103122A (en) Eye image imaging device
JP2018032222A (en) Portable apparatus, authentication method and authentication program
KR102401575B1 (en) Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
KR20190024861A (en) Method for Providing Glasses Fitting Service by using Augmented Reality
KR102401914B1 (en) Method for Measuring Numerical Value by using Camera
KR20190041289A (en) Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
KR20140054797A (en) Electronic device and image modification method of stereo camera image using thereof
KR20200050095A (en) Method for Providing Wearing Service by Using Augment Reality
KR101937327B1 (en) Method for Providing Augmented Glasses Service
KR20200028515A (en) Method for Registering Camera Device
KR102195456B1 (en) Method for Executing Function of Mobile Terminal by Using Facial Recognition
KR20190041295A (en) Method for Measuring Numerical Value by using Camera
KR102209613B1 (en) The iris acquisition apparatus and its method using the second camera in mobile device
KR20190085809A (en) Method for Providing Augmented Bracelet Service
JP2008015884A (en) Iris authentication system
KR20190085811A (en) Method for Providing Augmented Ring Service

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right