KR102401914B1 - Method for Measuring Numerical Value by using Camera - Google Patents

Method for Measuring Numerical Value by using Camera Download PDF

Info

Publication number
KR102401914B1
KR102401914B1 KR1020170128492A KR20170128492A KR102401914B1 KR 102401914 B1 KR102401914 B1 KR 102401914B1 KR 1020170128492 A KR1020170128492 A KR 1020170128492A KR 20170128492 A KR20170128492 A KR 20170128492A KR 102401914 B1 KR102401914 B1 KR 102401914B1
Authority
KR
South Korea
Prior art keywords
distance
feature points
camera
app
image information
Prior art date
Application number
KR1020170128492A
Other languages
Korean (ko)
Other versions
KR20190038966A (en
Inventor
김재형
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020170128492A priority Critical patent/KR102401914B1/en
Publication of KR20190038966A publication Critical patent/KR20190038966A/en
Application granted granted Critical
Publication of KR102401914B1 publication Critical patent/KR102401914B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Abstract

본 발명은 카메라를 이용한 수치 계측 방법에 관한 것으로, 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 카메라모듈의 카메라렌즈와 이미지센서 간 초점거리를 상기 카메라렌즈와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하고, 상기 앱이 상기 카메라렌즈의 시선방향을 상호 간 거리를 산출 가능한 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 표시하고, 상기 앱이 상기 자동초점 기능이 비활성화되고 상기 카메라렌즈와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식하고, 상기 앱이 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하며, 상기 앱이 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출한다.The present invention relates to a numerical measurement method using a camera, and in a method executed through an app of a wireless terminal equipped with a camera module, the app determines the focal length between the camera lens and the image sensor of the camera module with the camera lens Set the reference focal length corresponding to the specified reference shooting distance between the subjects, inactivate the auto-focus function of the camera module, or maintain the inactive state, and the app can calculate the distance between the gaze directions of the camera lenses. By directing (N≥2) feature points and focusing to a subject having M (M≥1) edge regions that can confirm focus, the subject is induced to include the N feature points and M edge regions within the angle of view. Inducing the shooting distance between the camera lens and the camera lens to be spaced apart in the '+' direction from a '-' distance less than the reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, or set the shooting distance to a '+' greater than the reference shooting distance An interface is displayed to guide the distance from the distance to a '-' distance that is less than the reference shooting distance in the '-' direction, the app disables the auto-focus function, and the focal length between the camera lens and the image sensor is the reference focus F (F≥2) frame image information included in the image information input and buffered through the camera module set to the distance is read, and n (2≤n≤N) feature points and m (1≤n≤M) edges are read. Area is recognized, and the blur ratio of m edge areas included in the image information is reduced to a minimum value within a specified reference value while the app is spaced apart in the '+' direction or '-' direction of the image information. The distance between the recognized n feature points is calculated through at least f (1≤f<F) frame image information corresponding to the viewpoint, and the app recognizes the recognized based on the relationship between the reference focal length and the reference shooting distance. A numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points is calculated.

Description

카메라를 이용한 수치 계측 방법{Method for Measuring Numerical Value by using Camera}Method for Measuring Numerical Value by using Camera}

본 발명은 무선단말의 카메라모듈을 통해 피사체를 촬영하여 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리를 지정된 도량형 단위의 수치로 정밀 계측하는 것이다.The present invention is to photograph a subject through a camera module of a wireless terminal and precisely measure the actual distance between at least two feature points existing on the subject as a numerical value in a specified metrological unit.

무선단말의 카메라를 이용하여 피사체의 크기나 높이를 측정하는 방식이 제안되었다. 한편 종래에 무선단말의 카메라를 이용하여 측정하는 방식은, 사람의 눈처럼 같은 방향을 촬영하는 두 개의 카메라를 이용하여 측정하는 방식(공개특허공보 제10-2004-005432호(2004년06월25일)), 카메라 외에 별도의 센서를 이용하여 측정하는 방식(공개특허공보 제10-2008-0076338호(2008년08월20일)), 카메라를 통해 피사체 촬영하고 실제 높이를 키 입력하여 측정하는 방식(공개특허공보 제10-2004-0104798호(2004년12월13일)) 등 다양한 방식이 제안되었다.A method of measuring the size or height of a subject using a camera of a wireless terminal has been proposed. Meanwhile, the conventional method of measuring using a camera of a wireless terminal is a method of measuring using two cameras that photograph the same direction as a human eye (Patent Publication No. 10-2004-005432 (June 25, 2004) 1)), a method of measuring using a sensor other than a camera (Patent Publication No. 10-2008-0076338 (August 20, 2008)), taking a subject through a camera and measuring the actual height by keying Various methods have been proposed, such as method (Patent Publication No. 10-2004-0104798 (December 13, 2004)).

그러나 종래에 제안된 측정 방식은 무선단말에 같은 방향을 촬영하는 두 개의 카메라를 탑재하거나 별도의 센서를 탑재한 경우에만 측정 가능하며 하나의 카메라를 통해서는 측정하기 불가능한 문제점을 지니고 있으며, 만약 무선단말에 탑재된 하나의 카메라를 통해 측정하기 위해서는 사용자가 실제 높이를 키 입력해야 하는 불편함을 지니고 있다.However, the conventionally proposed measurement method has a problem in that it is possible to measure only when two cameras for photographing the same direction are mounted on the wireless terminal or when a separate sensor is mounted, and it is impossible to measure through one camera. It has the inconvenience of having to key in the actual height in order to measure it through a single camera mounted on it.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 카메라모듈의 카메라렌즈와 이미지센서 간 초점거리를 상기 카메라렌즈와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하고, 상기 앱이 상기 카메라렌즈의 시선방향을 상호 간 거리를 산출 가능한 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 표시하고, 상기 앱이 상기 자동초점 기능이 비활성화되고 상기 카메라렌즈와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식하고, 상기 앱이 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하며, 상기 앱이 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 카메라를 이용한 수치 계측 방법을 제공함에 있다.An object of the present invention for solving the above problems is, in a method executed through an app of a wireless terminal equipped with a camera module, the app determines the focal length between the camera lens of the camera module and the image sensor, the camera lens Set the reference focal length corresponding to the specified reference shooting distance between the camera module and the subject, inactivate the auto-focus function of the camera module, or maintain the inactive state, and the app can calculate the distance between the gaze directions of the camera lens Directing N (N ≥ 2) feature points and focus to a subject having M (M ≥ 1) edge regions that can confirm focus is induced to include the N feature points and M edge regions within the angle of view, and at the same time Inducing the shooting distance between the subject and the camera lens to be spaced apart in the '+' direction from a '-' distance less than the reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, or set the shooting distance to a '+' distance greater than the reference shooting distance Displays an interface that induces the '-' direction to be separated from the distance to a '-' distance less than the reference shooting distance, the app disables the auto-focus function, and the focal length between the camera lens and the image sensor is the standard F (F≥2) frame image information included in the image information input and buffered through the camera module set as the focal length is read, and n (2≤n≤N) feature points and m (1≤n≤M) Recognizing an edge region, the app reduces the blur ratio of m edge regions included in the image information to a minimum value within a specified reference value while the image information is spaced apart in the '+' direction or '-' direction. ' Calculate the distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to the viewpoint, and the app recognizes the recognition based on the relationship between the reference focal length and the reference shooting distance An object of the present invention is to provide a numerical measurement method using a camera that calculates the numerical value of the actual distance between n real feature points on a subject corresponding to the distance between the n feature points.

삭제delete

삭제delete

본 발명에 따른 카메라를 이용한 수치 계측 방법은, 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 카메라모듈의 카메라렌즈와 이미지센서 간 초점거리를 상기 카메라렌즈와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하는 제1 단계와 상기 앱이 상기 카메라렌즈의 시선방향을 상호 간 거리를 산출 가능한 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 표시하는 제2 단계와 상기 앱이 상기 자동초점 기능이 비활성화되고 상기 카메라렌즈와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식하는 제3 단계와 상기 앱이 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계 및 상기 앱이 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함하는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서,특징점은,상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점은, 상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우, 상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계 및 상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 거리관계는, 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 각도관계는, 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계와 상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계 및 상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계 및 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 기준초점거리는, 상기 카메라렌즈와 피사체 간 촬영거리가 상기 기준촬영거리인 경우에 상기 피사체를 가장 초점화하는 초점거리인 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 기준촬영거리는, 상기 카메라렌즈와 이미지 센서 간 초점거리가 상기 기준초점거리인 경우에 상기 피사체를 가장 초점화하는 초점거리인 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 무선단말의 기종이나 상기 무선단말에 탑재된 카메라모듈에 대하여 상기 카메라모듈의 이미지 센서를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 확인 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 N개의 특징점은, 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 제2 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 제3 단계는, 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며, 상기 제4 단계는, 상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계 및 상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 환산정보는,상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 제4 단계는, 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않는 경우 상기 카메라모듈의 자동초점 기능을 활성화하고 상기 피사체에 대한 자동초점을 시도하여 자동초점맞춤된 자동초점거리를 확인하는 단계 및 이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리에 대응하면서 상기 카메라모듈의 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정하여 재설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 기준촬영거리와 기준초점거리를 보정한 후 상기 카메라모듈의 자동초점 기능을 비활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법에 있어서, 상기 제4 단계는,상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.

본 발명에 따른 카메라를 이용한 수치 계측 방법은, 카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서, 상기 앱이 상기 카메라모듈의 카메라렌즈와 이미지센서 간 초점거리를 상기 카메라렌즈와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하는 제1 단계와, 상기 앱이 상기 카메라렌즈의 시선방향을 상호 간 거리를 산출 가능한 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 표시하는 제2 단계와, 상기 앱이 상기 자동초점 기능이 비활성화되고 상기 카메라렌즈와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식하는 제3 단계와, 상기 앱이 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계와, 상기 앱이 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계를 포함한다.
The numerical measurement method using a camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module, wherein the app determines the focal length between the camera lens and the image sensor of the camera module. The first step of setting the reference focal length corresponding to the designated reference shooting distance between the inactive settings or maintaining the inactive state of the auto-focus function of the camera module and the app calculating the distance between the gaze directions of the camera lens By directing the possible N (N≥2) feature points and focusing to a subject having M (M≥1) possible edge regions, the N feature points and M edge regions are induced to be included in the angle of view. Inducing the shooting distance between the subject and the camera lens to be spaced apart in the '+' direction from a '-' distance less than the reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, or set the shooting distance to a ' A second step of displaying an interface inducing the '-' direction to be spaced apart from the '+' distance to a '-' distance less than the reference shooting distance, and the app, the auto-focus function is deactivated, and the focus between the camera lens and the image sensor F (F ≥ 2) frame image information included in the image information that is input and buffered through the camera module whose distance is set as the reference focal length is read, and n (2 ≤ n ≤ N) feature points and m (1 ≤ n) In the third step of recognizing ≤M) edge regions and the app is spaced apart in the '+' direction or '-' direction of the image information, the blur ratio of the m edge regions included in the image information is a specified reference value A fourth step of calculating the distance between the n feature points recognized through at least f (1≤f<F) frame image information corresponding to the '0' viewpoint reduced to a minimum value within the fourth step, and the app calculates the distance between the reference focal length and the reference and a fifth step of calculating the value of the actual distance between the n feature points on the subject corresponding to the recognized distance between the n feature points based on the relationship between the photographing distances.

In the numerical measurement method using a camera according to the present invention, when the numerical value of the actual distance between two or more feature points is calculated, the app sets at least two feature points among the feature points for which the numerical value of the actual distance is calculated as the reference feature point, and the reference Setting the actual distance between the feature points as a reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app based on the actual distance between the reference feature points It characterized in that it further comprises the step of calculating the numerical value of the actual distance between the T measurement target feature points using the distance.

In the numerical measurement method using a camera according to the present invention, the feature point is characterized in that it includes the feature point included in the frame image information identical to the frame image information including the reference feature point.

In the numerical measurement method using a camera according to the present invention, the T feature points to be measured may include at least one feature point among the reference feature points.

In the numerical measurement method using a camera according to the present invention, when the numerical value of the actual distance between the T feature points to be measured is calculated, the app uses at least t (2≤t≤T) feature points among the T feature points to be measured. It is characterized in that it further comprises the step of setting reuse as a reference feature point or setting the actual distance between the t measurement target feature points to be reused as a reference distance.

In the numerical measurement method using a camera according to the present invention, when the actual distance between p feature points including at least two or more real distances formed by connecting at least p (p ≥ 3) feature points is calculated, the app Generating reference geometric relationship information for determining a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points, and the app The method further comprises the step of storing and managing the generated reference geometry relationship information in a designated storage area.

In the numerical measurement method using a camera according to the present invention, the distance relationship includes relative length information of two or more straight lines connecting the p feature points, and distance-related vector component information of two or more straight lines connecting the p feature points. It is characterized in that it comprises at least one of.

In the numerical measurement method using a camera according to the present invention, the angular relationship includes angle information formed by two or more straight lines connecting the p feature points, and a direction-related vector component of two or more straight lines connecting the p feature points. It is characterized in that it comprises at least one of the information.

In the numerical measurement method using a camera according to the present invention, after the reference geometrical relationship information is stored in a designated storage area, at least q (q≥3) feature points included in the image information input through the camera module are recognized , Recognizing, by the app, geometrical relationship information including distance and angular relationships between the recognized q feature points, and one or more reference geometric relationship information stored in a storage area designated by the app and the geometry between the recognized q feature points Comparing the relationship information to check the geometric relationship information between the q feature points and any reference geometric relationship information that matches within the allowed error range, and when the matched reference geometric relationship information is checked, the app is the matched It characterized in that it further comprises the step of determining the actual distance between at least two or more of the recognized q feature points by using the actual distance between the p feature points included in the reference geometric relationship information.

In the numerical measurement method using a camera according to the present invention, the app sets at least two or more feature points among the recognized q feature points or the p feature points included in the confirmed reference geometric relationship information as a reference feature point, and the set standard Setting the actual distance between the feature points as a reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app based on the actual distance between the reference feature points It characterized in that it further comprises the step of calculating the numerical value of the actual distance between the T measurement target feature points using the distance.

In the numerical measurement method using a camera according to the present invention, when the matched reference geometrical relationship information is not confirmed, the app is induced to recognize the N feature points and M edge areas, or between the subject and the camera lens. and processing to display an interface that induces the shooting distance to be spaced apart in a '+' direction or spaced apart in a '-' direction.

In the numerical measurement method using a camera according to the present invention, the reference focal length is a focal length at which the subject is most focused when the photographing distance between the camera lens and the subject is the reference photographing distance.

In the numerical measurement method using a camera according to the present invention, the reference shooting distance is characterized in that the focal length is the focal length for focusing the subject the most when the focal length between the camera lens and the image sensor is the reference focal length.

In the numerical measurement method using a camera according to the present invention, the app is a designated unit on the pixel area of the image information obtained through the image sensor of the camera module with respect to the model of the wireless terminal or the camera module mounted on the wireless terminal It characterized in that it further comprises a confirmation step of confirming the conversion information for converting the pixel distance to the actual distance of the specified metrological unit.

In the numerical measurement method using a camera according to the present invention, the N feature points have at least one of color, contrast, and chroma among the pixel areas in the image information input through the camera module is greater than or equal to a specified reference value than the value of an adjacent area. It is characterized in that it comprises at least one of a point region, a line region, and a plane region in which a difference occurs.

In the numerical measurement method using a camera according to the present invention, the N feature points are feature points formed in an imaginary planar area that forms an orthogonal relationship with the gaze direction of the camera lens within a designated tolerance range, or a designated tolerance range It is characterized in that it comprises a feature point formed in a virtual plane area forming a parallel relationship with the sensor area of the image sensor unit of the camera lens in the.

In the numerical measurement method using a camera according to the present invention, the second step is an interface that induces the app to form an orthogonal relationship between the surface on which N feature points on the subject are formed and the gaze direction of the camera lens. It characterized in that it further comprises the step of displaying.

In the numerical measurement method using a camera according to the present invention, in the second step, the app reads a specified number of frames included in the image information input and buffered through the camera module, n feature points and m edges It characterized in that it further comprises the step of displaying an interface for inducing separation at a specified separation speed moving within a specified separation distance within a time required for recognizing an area.

In the numerical measurement method using a camera according to the present invention, in the third step, the app is input through the camera module and is included in the i-th frame image information among F frames that are buffered. Image information input through the camera module when the pixel distance between the feature points increases by comparing the pixel distance between at least one feature point with the pixel distance between the same feature points included in the jth (i<j≤F) frame image information is image information spaced apart in the '+' direction, and when the pixel distance between the feature points decreases, confirming the image information input through the camera module as image information spaced apart in the '-' direction. do it with

In the numerical measurement method using a camera according to the present invention, the app converts a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal into an actual distance of a specified metrological unit. The method further comprises the step of checking conversion information to and converting the pixel distance between the feature points into the distance between the n feature points in a designated metrological unit.

In the numerical measurement method using a camera according to the present invention, the conversion information includes information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit.

In the numerical measurement method using a camera according to the present invention, the fourth step is an auto-focus function of the camera module when the blur ratio of the m edge regions included in the image information does not decrease within a specified reference value. Checking the auto-focused auto-focus distance by activating and attempting auto-focusing on the subject The method further comprises the step of re-setting by correcting the new reference photographing distance and the reference focal length corresponding to the photographing distance relationship.

In the numerical measurement method using a camera according to the present invention, it is characterized in that it further comprises the step of deactivating the auto-focus function of the camera module after correcting the reference shooting distance and the reference focal length.

In the numerical measurement method using a camera according to the present invention, in the fourth step, when the distance between two or more n feature points existing in the two or more frame image information corresponding to the '0' viewpoint is calculated, the app and calculating the distance between the n feature points within a specified error range by statistically processing the calculated distances between the two or more n feature points.

The numerical measurement method using a camera according to the present invention is a method executed through an app of a wireless terminal equipped with a camera module, wherein the app determines the focal length between the camera lens and the image sensor of the camera module. A first step of setting the reference focal length corresponding to the specified reference shooting distance between the inactive settings or maintaining the inactive state of the auto-focus function of the camera module; Directing the N (N≥2) countable feature points and focus to a subject having M (M≥1) edge regions that can be checked to include the N feature points and M edge regions within the angle of view; At the same time, the shooting distance between the subject and the camera lens is induced to be spaced apart in the '+' direction from a '-' distance less than the reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, or the shooting distance is set to be greater than or equal to the reference shooting distance. A second step of displaying an interface for inducing to be spaced apart in a '-' direction from a '+' distance to a '-' distance less than the reference shooting distance; F(F≥2) frame image information included in the image information that is inputted and buffered through the camera module whose inter-focal length is set as the reference focal length is read, and n(2≤n≤N) feature points and m(1) A third step of recognizing ≤ n ≤ M) edge regions, and the blur ratio of m edge regions included in the image information while the app is spaced apart in the '+' direction or '-' direction of the image information A fourth step of calculating the distance between the n feature points recognized through at least f (1≤f<F) frame image information corresponding to the '0' time point reduced to the minimum value within the specified reference value, and the app and a fifth step of calculating a numerical value of the actual distance between the n feature points on the subject corresponding to the recognized distance between the n feature points based on the relationship between the focal length and the reference shooting distance.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 둘 이상의 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계와, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, when the numerical value of the actual distance between two or more feature points is calculated, the app sets at least two feature points among the feature points for which the numerical value of the actual distance is calculated as a reference feature point, and the Setting the actual distance between the reference feature points as the reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app the actual distance between the reference feature points The method may further include calculating a numerical value of the actual distance between the T feature points to be measured by using the distance as a reference distance.

본 발명에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함할 수 있다.According to the present invention, the T feature points to be measured may include feature points included in the same frame image information as the frame image information including the reference feature points.

본 발명에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 한다.According to the present invention, the T feature points to be measured may include at least one feature point among the reference feature points.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, when the numerical value of the actual distance between the T feature points to be measured is calculated, the app uses at least t (2≤t≤T) of the T feature points to be measured. The method may further include setting the feature point to be reused as the reference feature point or setting the actual distance between the t feature points to be measured as the reference distance reused.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우, 상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계와, 상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, when the actual distance between p feature points including at least two or more real distances formed by connecting at least p (p≥3) feature points is calculated, the app generating reference geometrical relationship information for discriminating a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points; The method may further include the step of managing, by the app, storing the generated reference geometry relationship information in a designated storage area.

본 발명에 따르면, 상기 거리관계는 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함할 수 있다.According to the present invention, the distance relationship may include at least one of relative length information of two or more straight lines connecting the p feature points and distance-related vector component information of two or more straight lines connecting the p feature points.

본 발명에 따르면, 상기 각도관계는 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함할 수 있다.According to the present invention, the angular relationship may include at least one of angle information formed by two or more straight lines connecting the p feature points and direction-related vector component information of two or more straight lines connecting the p feature points. .

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계와, 상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계와, 상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계를 더 포함할 수 있다.According to the present invention, the numerical measurement method using the camera recognizes at least q (q≥3) feature points included in the image information input through the camera module after the reference geometrical relationship information is stored in a designated storage area. In this case, the step of recognizing, by the app, geometric relationship information including a distance relationship and an angular relationship between the recognized q feature points, and at least one reference geometric relationship information stored in a storage area designated by the app and the recognized q feature points Comparing the geometrical relationship information between the q feature points and the geometrical relationship information between the q feature points and confirming any one reference geometrical relationship information that matches within the allowed error range, and when the matched reference geometrical relationship information is confirmed, the app The method may further include determining an actual distance between at least two or more of the recognized q feature points by using the actual distance between the p feature points included in the matched reference geometric relationship information.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계와, 상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계와, 상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, the app sets at least two feature points among the recognized q feature points or the p feature points included in the confirmed reference geometric relationship information as a reference feature point, and the set Setting the actual distance between the reference feature points as the reference distance, the app recognizing T (T≥2) measurement target feature points among the feature points formed in the vicinity of the reference feature point, and the app the actual distance between the reference feature points The method may further include calculating a numerical value of the actual distance between the T feature points to be measured by using the distance as a reference distance.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the camera induces the app to recognize the N feature points and M edge areas, or between the subject and the camera lens, when the matched reference geometric relationship information is not confirmed. It may include processing to display an interface that induces the shooting distances to be spaced apart in a '+' direction or spaced apart in a '-' direction.

본 발명에 따르면, 상기 기준초점거리는 상기 카메라렌즈와 피사체 간 촬영거리가 상기 기준촬영거리인 경우에 상기 피사체를 가장 초점화하는 초점거리이다.According to the present invention, the reference focal length is a focal length at which the subject is most focused when the photographing distance between the camera lens and the subject is the reference photographing distance.

본 발명에 따르면, 상기 기준촬영거리는 상기 카메라렌즈와 이미지 센서 간 초점거리가 상기 기준초점거리인 경우에 상기 피사체를 가장 초점화하는 초점거리이다.According to the present invention, when the focal length between the camera lens and the image sensor is the reference focal length, the reference photographing distance is a focal length that brings the subject into focus.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 앱이 상기 무선단말의 기종이나 상기 무선단말에 탑재된 카메라모듈에 대하여 상기 카메라모듈의 이미지 센서를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 확인 단계를 더 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, the app is designated on the pixel area of the image information obtained through the image sensor of the camera module with respect to the model of the wireless terminal or the camera module mounted on the wireless terminal. The method may further include a confirmation step of confirming conversion information for converting a unit pixel distance into an actual distance of a designated metrological unit.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 기종 별 환산정보와 각 무선단말의 기종 식별정보를 연계하여 DB화하는 단계를 더 포함하며, 상기 확인 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 무선단말의 기종 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 무선단말의 기종 식별정보에 대응하는 환산정보를 수신하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the camera further comprises the step of linking, by the operation server, conversion information for each model of each wireless terminal and model identification information of each wireless terminal into a DB, wherein the confirming step is The step of the app confirming the model identification information for identifying the model of the wireless terminal, the step of the app providing the model identification information of the wireless terminal to the operation server, the app from the operation server of the wireless terminal It may include the step of receiving conversion information corresponding to the model identification information.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 운영서버가 각 무선단말의 카메라모듈 별 환산정보와 각 카메라모듈의 모듈 식별정보를 연계하여 DB화하는 단계를 더 포함하며, 상기 확인 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 운영서버로 상기 카메라모듈의 모듈 식별정보를 제공하는 단계와, 상기 앱이 상기 운영서버로부터 상기 카메라모듈의 모듈 식별정보에 대응하는 환산정보를 수신하는 단계를 포함할 수 있다.According to the present invention, the numerical measurement method using the camera further comprises the step of linking, by the operation server, conversion information for each camera module of each wireless terminal and module identification information of each camera module into a DB, wherein the checking step includes: The step of confirming the module identification information for identifying the camera module mounted on the app by the wireless terminal, the app providing the module identification information of the camera module to the operation server, the app from the operation server It may include receiving conversion information corresponding to the module identification information of the camera module.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 기종 별 환산정보와 각 무선단말의 기종 식별정보를 연계하여 포함하고, 상기 확인 단계는 상기 앱이 상기 무선단말의 기종을 식별하는 기종 식별정보를 확인하는 단계와, 상기 앱이 상기 무선단말의 기종 식별정보에 대응하는 환산정보를 확인하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, the app includes conversion information for each model of each wireless terminal and model identification information of each wireless terminal in association with each other, and the confirming step is that the app is the wireless terminal's model. Checking the model identification information for identifying the model, the app may include the step of checking the conversion information corresponding to the model identification information of the wireless terminal.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 앱은 각 무선단말의 카메라모듈 별 환산정보와 각 카메라모듈의 모듈 식별정보를 연계하여 포함하고, 상기 확인 단계는 상기 앱이 상기 무선단말에 탑재된 카메라모듈을 식별하는 모듈 식별정보를 확인하는 단계와, 상기 앱이 상기 카메라모듈의 모듈 식별정보에 대응하는 환산정보를 수신하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, the app includes conversion information for each camera module of each wireless terminal and module identification information of each camera module in connection with the verification step, wherein the app is the wireless terminal It may include the step of confirming the module identification information for identifying the mounted camera module, and the app receiving the conversion information corresponding to the module identification information of the camera module.

본 발명에 따르면, 상기 N개의 특징점은 상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함할 수 있다. According to the present invention, the N feature points are a point region and a line region in which one or more values of color, contrast, and saturation among pixel regions in the image information input through the camera module differ by more than a specified reference value from values in an adjacent region. , may include at least one area of the surface area.

본 발명에 따르면, 상기 N개의 특징점은 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는 지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함할 수 있다.According to the present invention, the N feature points are feature points formed in an imaginary plane area forming an orthogonal relationship with the gaze direction of the camera lens within a specified tolerance range, or an image sensor unit of the camera lens within a specified tolerance range. It may include a feature point formed in a virtual planar area forming a parallel relationship with the sensor area.

본 발명에 따르면, 상기 제2 단계는 화면 영역 상의 지정된 영상출력 영역에 카메라모듈을 통해 입력되어 버퍼링되는 영상정보를 출력하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include outputting the image information that is input and buffered through the camera module to a designated image output area on the screen area.

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함할 수 있다.According to the present invention, the second step may further include displaying an interface that induces the app to form an orthogonal relationship between the surface on which the N feature points on the subject are formed and the gaze direction of the camera lens. .

본 발명에 따르면, 상기 제2 단계는 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함할 수 있다.According to the present invention, in the second step, the app reads a specified number of frames included in the image information input and buffered through the camera module and recognizes n feature points and m edge regions within the required time. The method may further include displaying an interface for inducing separation at a specified separation speed moving within a specified separation distance.

본 발명에 따르면, 상기 이격 속도는 적어도 10cm/s 이내로 이동하는 속도를 포함할 수 있다.According to the present invention, the separation speed may include a speed of moving within at least 10 cm/s.

본 발명에 따르면, 상기 이격 속도는 적어도 5cm/s 이내로 이동하는 속도를 포함할 수 있다.According to the present invention, the separation speed may include a speed of moving within at least 5 cm/s.

본 발명에 따르면, 상기 제3 단계는 상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함할 수 있다.According to the present invention, in the third step, the pixel distance between at least one feature point and When the pixel distance between the feature points increases by comparing the pixel distance between the same feature points included in j (i<j≤F) frame image information, the image information input through the camera module is spaced apart in the '+' direction. and confirming that the image information input through the camera module is spaced apart in the '-' direction when the pixel distance between the feature points decreases.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며, 상기 제4 단계는 상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계와, 상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계를 포함할 수 있다.According to the present invention, in the numerical measurement method using the camera, a specified unit pixel distance on a pixel area of image information obtained through an image sensor unit of a camera module mounted on the wireless terminal by the app is an actual distance of a specified metrological unit. The method further includes the step of checking conversion information to be converted, wherein the fourth step includes calculating, by the app, a pixel distance between n feature points existing in the f image information, and the app using the conversion information The method may include converting the pixel distance between the n feature points into a distance between the n feature points in a specified metrological unit.

본 발명에 따르면, 상기 환산정보는 상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함할 수 있다.According to the present invention, the conversion information may include information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit.

본 발명에 따르면, 상기 제4 단계는 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않는 경우 상기 카메라모듈의 자동초점 기능을 활성화하고 상기 피사체에 대한 자동초점을 시도하여 자동초점맞춤된 자동초점거리를 확인하는 단계와, 이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리에 대응하면서 상기 카메라모듈의 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정하여 재설정하는 단계를 더 포함할 수 있다. According to the present invention, the fourth step activates the auto-focus function of the camera module and auto-focus on the subject when the blur ratio of the m edge regions included in the image information does not decrease within a specified reference value. A new method corresponding to the relationship between the focal length and the shooting distance of the camera module while matching the previously set reference shooting distance and the reference focal length to the confirmed auto focus distance by trying to It may further include the step of resetting by correcting the reference shooting distance and the reference focal length.

본 발명에 따르면, 상기 카메라를 이용한 수치 계측 방법은, 상기 기준촬영거리와 기준초점거리를 보정한 후 상기 카메라모듈의 자동초점 기능을 비활성화하는 단계를 더 포함할 수 있다. According to the present invention, the numerical measurement method using the camera may further include the step of deactivating the auto-focus function of the camera module after correcting the reference shooting distance and the reference focal length.

본 발명에 따르면, 상기 제4 단계는 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함할 수 있다.According to the present invention, in the fourth step, when the distance between two or more n feature points existing in the two or more frame image information corresponding to the '0' view point is calculated, the app calculates the distance between the two or more n feature points. The method may include calculating a distance between n feature points within a specified error range by statistically processing the distance.

본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 촬영하면서 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향이나 '-' 방향으로 이격하는 캘리브레이션(Calibration) 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.According to the present invention, while photographing a subject having two or more feature points through one camera module mounted on a wireless terminal, the shooting distance between the subject and the camera lens is spaced apart in a '+' direction or a '-' direction. ), there is an advantage in precisely calculating the numerical value of the actual distance between at least two feature points existing on the subject.

본 발명에 따르면, 무선단말에 탑재된 하나의 카메라모듈을 통해 둘 이상의 특징점을 지닌 피사체를 촬영하면서 상기 캘리브레이션 과정을 통해 상기 피사체 상에 존재하는 적어도 둘 이상의 특징점 간의 실제거리를 산출한 이후에는 별도의 캘리브레이션 과정 없이도 상기 산출된 특징점 간의 실제거리를 이용하여 상기 피사체에 존재하는 다른 특징점 간의 실제거리의 수치를 정밀하게 산출하는 이점이 있다.According to the present invention, after calculating the actual distance between at least two feature points existing on the subject through the calibration process while photographing a subject having two or more feature points through one camera module mounted on the wireless terminal, a separate There is an advantage of precisely calculating the numerical value of the actual distance between the different feature points existing in the subject by using the calculated actual distance between the feature points without a calibration process.

본 발명에 따르면, 피사체 상에 존재하는 특징점 간의 실제거리를 산출한 경우 상기 산출된 특징점 간의 실제거리와 상기 특징점 간의 거리관계 및 상기 특징점들이 형성하는 각도관계를 포함하는 특징점 간의 기하학 관계정보를 생성하여 저장한 이후에 카메라모듈을 통해 동일한 피사체를 다시 촬영하는 경우 별도의 캘리브레이션 과정 없이 상기 특징점 간의 기하학 관계정보를 통해 상기 피사체에 존재하는 특징점 간의 실제거리의 수치를 정밀하게 결정하는 이점이 있다.According to the present invention, when the actual distance between the feature points existing on the subject is calculated, geometric relationship information between the feature points including the calculated actual distance between the feature points and the distance relationship between the feature points and the angular relationship formed by the feature points is generated. When the same subject is photographed again through the camera module after storage, there is an advantage in precisely determining the numerical value of the actual distance between the feature points existing in the subject through the geometric relationship information between the feature points without a separate calibration process.

도 1은 본 발명의 실시 방법에 따라 카메라모듈을 이용하여 수치를 계측하는 무선단말과 앱의 기능 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 카메라모듈의 구조를 도시한 도면이다.
도 3은 본 발명의 제1 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 4는 본 발명의 제2 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 5는 본 발명의 제3 실시 방법에 따라 카메라모듈을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.
도 6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.
1 is a diagram illustrating a functional configuration of a wireless terminal and an app for measuring numerical values using a camera module according to an embodiment of the present invention.
2 is a view showing the structure of a camera module according to an embodiment of the present invention.
3 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a first embodiment of the present invention.
4 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a second embodiment of the present invention.
5 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through a camera module according to a third embodiment of the present invention.
6 is a diagram illustrating a process of generating, storing, and managing geometrical relationship information between feature points for which numerical values of actual distances are calculated according to an embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the principle of operation of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the following description are for a preferred implementation method among various methods for effectively explaining the features of the present invention, and the present invention is not limited only to the following drawings and description.

즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following embodiment corresponds to an embodiment of a preferred union type among numerous embodiments of the present invention, and an embodiment in which a specific configuration (or step) is omitted in the following embodiment, or a specific configuration (or step) An embodiment in which a function implemented in a function is divided into a specific configuration (or step), or an embodiment in which a function implemented in two or more configurations (or step) is integrated into any one configuration (or step), a specific configuration (or step) Embodiments in which the order of operation is replaced, and the like, are clearly stated to be within the scope of the present invention, even if not specifically mentioned in the following embodiments. Therefore, based on the following examples, it is clearly specified that various examples corresponding to a subset or a complement can be divided retroactively from the filing date of the present invention.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following embodiments are one means for efficiently explaining the technical spirit of the present invention to those of ordinary skill in the art to which the present invention belongs. only

도면1은 본 발명의 실시 방법에 따라 카메라모듈(105)을 이용하여 수치를 계측하는 무선단말(100)과 앱(110)의 기능 구성을 도시한 도면이다.1 is a diagram showing the functional configuration of the wireless terminal 100 and the app 110 for measuring numerical values by using the camera module 105 according to an embodiment of the present invention.

보다 상세하게 본 도면1은 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 카메라렌즈(200)와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈(105)의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하고, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리 사이를 이격하도록 유도하고, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식함과 동시에 상기 인식된 m개의 엣지 영역의 초점이 맞춰지는 '0' 시점에 상기 인식된 n개의 특징점 간 거리를 산출하고, 상기 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 기능을 구현하는 앱(110)의 구성과 무선단말(100)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 무선단말(100) 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면1의 무선단말(100)은 상기 앱(110)을 설치한 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나를 포함할 수 있다. 한편 본 도면1의 무선단말(100)은 상기 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 중 적어도 하나 이외에 카메라모듈(105)을 탑재한 모든 장치를 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.In more detail, FIG. 1 shows that the focal length between the camera lens 200 and the image sensor of the camera module 105 mounted on the wireless terminal 100 corresponds to a designated reference shooting distance between the camera lens 200 and the subject. Set as the reference focal length, deactivate the auto-focus function of the camera module 105 or maintain the inactive state, and set the gaze direction of the camera lens 200 to N (N ≥ 2) feature points and M (M ≥ 1) ) by moving at least one of the subject and the wireless terminal 100 while guiding them to be directed in the direction of the subject having an edge area to set the shooting distance between the subject and the camera lens 200 less than the reference shooting distance. Inducing a distance between the '+' distance greater than the standard shooting distance at -' distance, and reading F (F≥2) frame image information included in the image information input through the camera module 105 to n ( 2≤n≤N) feature points and m (1≤n≤M) edge regions are recognized, and at the same time, the distance between the n recognized feature points at the '0' time point when the recognized m edge regions are focused. The function of calculating , and calculating the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' point based on the relationship between the reference focal length and the reference shooting distance As shows the configuration of the app 110 and the configuration of the wireless terminal 100 to implement the, those of ordinary skill in the art to which the present invention pertains, refer to and/or modify this figure 1 to modify the wireless terminal (100) Various implementation methods for the function can be inferred, but the present invention includes all the inferred implementation methods, and the technical characteristics are not limited to only the implementation method shown in FIG. 1 . Preferably, the wireless terminal 100 of this figure 1 may include at least one of a mobile communication terminal, a mobile phone, a smart phone, and a tablet PC in which the app 110 is installed. Meanwhile, the wireless terminal 100 of FIG. 1 may include all devices equipped with a camera module 105 other than at least one of the mobile communication terminal, mobile phone, smart phone, and tablet PC, and the present invention is not limited thereby. No.

도면1을 참조하면, 상기 무선단말(100)은, 제어부(101)와 메모리부(109)와 화면 출력부(102)와 사용자 입력부(103)와 사운드 처리부(104)와 카메라모듈(105)과 무선망 통신부(106)와 근거리망 통신부(107)와 USIM 리더부(108) 및 USIM를 구비하며, 전원 공급을 위한 배터리를 구비한다.Referring to FIG. 1 , the wireless terminal 100 includes a control unit 101 , a memory unit 109 , a screen output unit 102 , a user input unit 103 , a sound processing unit 104 , a camera module 105 and It includes a wireless network communication unit 106, a local area network communication unit 107, a USIM reader unit 108, and a USIM, and includes a battery for supplying power.

상기 제어부(101)는 상기 무선단말(100)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 무선단말(100)에 구비된 각 구성부와 버스(BUS)를 통해 연결된다. 본 발명에 따르면, 상기 제어부(101)는 상기 프로세서를 통해 상기 무선단말(100)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 무선단말(100)의 동작을 제어한다. 이하, 편의상 프로그램코드 형태로 구현되는 본 발명의 앱(110) 구성을 본 제어부(101) 내에 도시하여 설명하기로 한다.The control unit 101 is a generic term for components that control the operation of the wireless terminal 100, and includes at least one processor and an execution memory, and includes each component and a bus ( connected via BUS). According to the present invention, the control unit 101 loads at least one program code provided in the wireless terminal 100 through the processor into the execution memory, performs an operation, and outputs the result to at least one configuration through the bus. It is transmitted to the unit to control the operation of the wireless terminal 100 . Hereinafter, for convenience, the configuration of the app 110 of the present invention implemented in the form of a program code will be described by showing it in the control unit 101 .

상기 메모리부(109)는 상기 무선단말(100)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(101)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(109)는 기본적으로 상기 무선단말(100)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 무선단말(100)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 본 발명의 앱(110)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(109)에 저장된다.The memory unit 109 is a generic term for non-volatile memories corresponding to the storage resources of the wireless terminal 100, and includes at least one program code executed through the control unit 101 and at least one program code used by the program code. Save and maintain the dataset. The memory unit 109 basically includes a system program code and a system data set corresponding to the operating system of the wireless terminal 100, a communication program code and a communication data set for processing wireless communication connection of the wireless terminal 100, and at least One application program code and an application data set are stored, and a program code and data set corresponding to the app 110 of the present invention are also stored in the memory unit 109 .

상기 화면 출력부(102)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력한다. The screen output unit 102 is composed of a screen output device (eg, a liquid crystal display (LCD), etc.) and a driving module for driving the same, and is interlocked with the control unit 101 to display a screen among various calculation results of the control unit 101 . An operation result corresponding to the output is output to the screen output device.

상기 사용자 입력부(103)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(102)와 연동하는 터치스크린 등)와 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)와 연동되어 상기 제어부(101)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(101)의 연산에 필요한 데이터를 입력한다.The user input unit 103 includes one or more user input devices (eg, a button, a keypad, a touch pad, a touch screen interlocking with the screen output unit 102, etc.) and a driving module for driving the same, and the control unit 101 and A command for instructing various operations of the control unit 101 in conjunction with each other is input, or data necessary for the operation of the control unit 101 is input.

상기 사운드 처리부(104)는 스피커와 마이크로폰과 및 이를 구동하는 구동 모듈로 구성되며, 상기 제어부(101)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력하거나, 또는 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 상기 제어부(101)로 전달한다.The sound processing unit 104 is composed of a speaker, a microphone, and a driving module for driving the same, and decodes sound data corresponding to a sound output among various calculation results of the control unit 101 and outputs it through the speaker or , or a sound signal input through the microphone is encoded and transmitted to the control unit 101 .

상기 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210) 및 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(Actuator)(205)를 포함하여 이루어지며, 실시 방법에 따라 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에 하나 이상의 필터부(예컨대, 적외선 필더 등)를 더 구비할 수 있다. 상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성할 수 있다. 한편 상기 카메라모듈(105)은 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보를 제어부(101)로 제공하기 위한 PCB부를 더 구비하며, 실시 방법에 따라 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보의 품질 향상을 위해 기 설정된 절차에 따라 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.The camera module 105 includes one or more camera lenses 200 that receive an optical signal reflected from a subject, and an image sensor unit 210 that detects an optical signal input through the camera lens 200 and converts it into an electrical image signal. ) and an actuator unit 205 for implementing an auto-focus function or an image stabilization function between the camera lens 200 and the image sensor unit 210, and according to the implementation method, the camera lens 200 ) and the image sensor unit 210 may further include one or more filter units (eg, infrared filters, etc.). The image sensor unit 210 detects the optical signal input through the camera lens 200 in real time, and the number of pixels (or resolution) in the horizontal direction h (h≥100) and v (v≥100) pixels in the vertical direction Image information in the form of a bitmap image having a number (or resolution) can be generated, or image information having h and v pixels (or resolution) and a specified number of frames per unit time can be generated. Meanwhile, the camera module 105 further includes a PCB unit for providing image information or image information generated through the image sensor unit 210 to the control unit 101, and the image sensor unit 210 according to the implementation method. An image signal processing processor (ISP) that processes according to a preset procedure in order to improve the quality of image information or image information generated through .

상기 무선망 통신부(106)와 근거리망 통신부(107)는 상기 무선단말(100)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 무선단말(100)은 무선망 통신부(106)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(107)를 구비할 수 있다.The wireless network communication unit 106 and the local area network communication unit 107 are generic names of communication resources for connecting the wireless terminal 100 to a designated communication network. Preferably, the wireless terminal 100 may include a wireless network communication unit 106 as a basic communication resource, and may include one or more local area network communication units 107 .

상기 무선망 통신부(106)는 상기 무선단말(100)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(101)와 연결되어 상기 제어부(101)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(101)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(106)는 상기 무선단말(100)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.The wireless network communication unit 106 is a generic term for communication resources that connect the wireless terminal 100 to a wireless communication network via a base station. It is configured to include at least one processing module, and is connected to the control unit 101 to transmit an operation result corresponding to wireless communication among various operation results of the control unit 101 through a wireless communication network or to receive data through a wireless communication network to the control unit 101, and at the same time perform the procedures of access, registration, communication, and handoff of the wireless communication. According to the present invention, the wireless network communication unit 106 can connect the wireless terminal 100 to a communication network including a communication channel and a data channel via a switch, and in some cases, packet communication without going through the switch. It can be connected to a data network that provides wireless network data communication (eg, the Internet) based on the wireless network.

본 발명의 실시 방법에 따르면, 상기 무선망 통신부(106)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(106)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(106)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(106)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.According to an embodiment of the present invention, the wireless network communication unit 106 performs at least one of accessing, location registration, call processing, call connection, data communication, and handoff to a mobile communication network according to the CDMA/WCDMA/LTE standard. includes configuration. Meanwhile, according to the intention of those skilled in the art, the wireless network communication unit 106 may further include a portable Internet communication configuration that performs at least one of accessing, location registration, data communication, and handoff to the portable Internet according to IEEE 802.16 related standards, It should be clearly stated that the present invention is not limited by the wireless communication configuration provided by the wireless network communication unit 106 . That is, the wireless network communication unit 106 is a generic term for a component that accesses a wireless communication network through a cell-based base station regardless of a frequency band of a wireless section, a type of a communication network, or a protocol.

상기 근거리망 통신부(107)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 무선단말(100)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게는 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 무선단말(100)을 통신망에 접속시킬 수 있다. 본 발명의 실시 방법에 따르면, 상기 근거리망 통신부(107)는 상기 무선망 통신부(106)와 통합 또는 분리된 형태로 구현될 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(107)는 무선AP를 통해 상기 무선단말(100)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.The local area network communication unit 107 connects a communication session using a radio frequency signal as a communication medium within a certain distance (eg, 10 m), and based on this, the wireless terminal 100 is connected to the communication network as a generic term for communication resources. , preferably, the wireless terminal 100 may be connected to the communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the embodiment of the present invention, the local area network communication unit 107 may be implemented in an integrated or separate form with the wireless network communication unit 106 . According to the present invention, the local area network communication unit 107 connects the wireless terminal 100 to a data network that provides short-range wireless data communication based on packet communication through a wireless AP.

상기 USIM 리더부(108)는 ISO/IEC 7816 규격을 기반으로 상기 무선단말(100)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.The USIM reader unit 108 is a generic term of a configuration for exchanging at least one data set with a Universal Subscriber Identity Module mounted on or detached from the wireless terminal 100 based on the ISO/IEC 7816 standard. As such, the data set is exchanged in a half-duplex communication method through an Application Protocol Data Unit (APDU).

상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(108)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 무선단말(100)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.The USIM is a SIM-type card equipped with an IC chip according to the ISO/IEC 7816 standard, and an input/output interface including at least one contact connected to the USIM reader unit 108, and at least one program code for the IC chip. and an IC chip memory for storing a data set, and a program code for the IC chip according to at least one command transmitted from the wireless terminal 100 connected to the input/output interface or extracting (or processing) the data set. and a processor to transmit to the input/output interface.

상기 무선단말(100)의 제어부(101)는 상기 통신 자원이 접속 가능한 데이터망을 통해 지정된 프로그램제공서버(예컨대, 애플사의 앱(110)스토어 등)로부터 본 발명의 앱(110)을 다운로드하여 설치하는 과정을 수행한다. 한편 상기 무선단말(100)에 다운로드 설치된 앱(110)은 설치 후 최초 실행(또는 정보 등록 전 실행) 시 상기 무선단말(100)과 앱(110)의 조합(또는 상기 앱(110)을 설치한 무선단말(100), 또는 상기 무선단말(100)에 설치된 앱(110))을 고유한 매체로 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 생성하거나 지정된 서버를 통해 할당받는 절차를 수행하며, 상기 무선단말(100)과 앱(110)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 무선단말(100)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 지정된 운영서버(190)에 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 무선단말정보를 연계 저장하여 관리할 수 있다. 한편 상기 무선단말(100)의 앱(110)은 상기 앱(110)을 설치한 무선단말(100)의 사용자를 고유 식별하는 사용자 정보(예컨대, 고유ID, 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(190)는 상기 매체식별정보와 상기 사용자 정보를 연계 저장하여 관리할 수 있다.The control unit 101 of the wireless terminal 100 downloads and installs the app 110 of the present invention from a designated program providing server (eg, Apple's App 110 store, etc.) through a data network to which the communication resource is accessible. carry out the process On the other hand, the downloaded and installed app 110 on the wireless terminal 100 is a combination of the wireless terminal 100 and the app 110 (or the app 110 installed) when the first run (or run before information registration) after installation. A procedure for generating medium identification information (eg, device token, UUID, etc.) that identifies the wireless terminal 100 or the app 110 installed on the wireless terminal 100 as a unique medium or receiving it through a designated server A procedure of registering media identification information that uniquely identifies the combination of the wireless terminal 100 and the app 110 as a unique medium to the designated operation server 190 may be performed. On the other hand, the app 110 of the wireless terminal 100 performs a procedure of registering wireless terminal information (eg, phone number, IMSI, IMEI, etc.) that uniquely identifies the wireless terminal 100 to a designated operation server 190 . In this case, the operation server 190 may link and manage the medium identification information and the wireless terminal information. On the other hand, the app 110 of the wireless terminal 100 is a procedure of registering user information (eg, unique ID, name, date of birth, etc.) that uniquely identifies the user of the wireless terminal 100 in which the app 110 is installed. In this case, the operation server 190 may link the media identification information and the user information to store and manage them.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 카메라렌즈(200)와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하는 기준거리 설정부(112)와, 상기 카메라모듈(105)의 자동초점 기능을 비활성화 설정하거나 상기 자동초점 기능의 비활성화 상태를 유지하는 촬영조건 설정부(120)를 구비하며, 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 환산정보 확인부(116)를 구비한다. Referring to Figure 1, the app 110 of the wireless terminal 100, the focal length between the camera lens 200 and the image sensor of the camera module 105, the designated reference shooting between the camera lens 200 and the subject A reference distance setting unit 112 for setting a reference focal length corresponding to the distance, and a shooting condition setting unit 120 for inactivating the auto-focus function of the camera module 105 or maintaining the inactive state of the auto-focus function Conversion information for converting a specified unit pixel distance on a pixel area of image information acquired through the image sensor unit 210 of the camera module 105 mounted on the wireless terminal 100 into an actual distance of a specified metrological unit and a conversion information confirmation unit 116 to confirm

상기 기준거리 설정부(112)는 상기 카메라모듈(105)을 통해 초점맞춤 가능한 지정된 범위 이내의 촬영거리 중 상기 카메라모듈(105)의 카메라렌즈(200)를 통해 촬영할 기준촬영거리를 지정하거나 기 지정된 기준촬영거리를 확인하고, 상기 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 지정된 기준촬영거리의 피사체에 초점맞춤된 기준초점거리로 설정한다. 예를들어, 사용자의 손이나 손톱을 피사체로 촬영하려는 경우, 상기 기준거리 설정부(112)는 상기 카메라모듈(105)을 통해 사용자의 손이나 손톱과 촬영 가능한 10cm ~ 50cm의 촬영거리 중 20cm의 촬영거리를 기준촬영거리로 지정하거나 20cm로 기 지정된 기준촬영거리를 화인하고, 상기 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 지정된 20cm의 기준촬영거리의 피사체에 초점맞춤된 기준초점거리로 설정할 수 있다. 다만 상기 기준거리 설정부(112)는 앱(110) 내에서 상기 기준촬영거리와 기준초점거리를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 기준촬영거리에 대응하는 기준초점거리를 설정하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 기준거리 설정부(112)가 상기 기준촬영거리에 대응하는 기준초점거리를 설정하는 시점에 의해 한정되지 아니한다.The reference distance setting unit 112 designates a reference shooting distance to be photographed through the camera lens 200 of the camera module 105 among shooting distances within a specified range that can be focused through the camera module 105, or The reference photographing distance is checked, and the focal length between the camera lens 200 of the camera module 105 and the image sensor is set as the reference focal length focused on the subject of the designated reference photographing distance. For example, if the user's hand or fingernail is to be photographed as a subject, the reference distance setting unit 112 is set to 20 cm out of a 10 cm to 50 cm shooting distance that can be photographed with the user's hand or fingernail through the camera module 105. Designate the shooting distance as the reference shooting distance or fine the preset reference shooting distance of 20 cm, and focus the focal length between the camera lens 200 of the camera module 105 and the image sensor on the subject of the designated standard shooting distance of 20 cm It can be set to a customized reference focal length. However, when the reference distance setting unit 112 sets the reference focal length corresponding to the reference photographing distance according to the specified procedure only before performing the procedure using the reference photographing distance and the reference focal length in the app 110, this It is considered to be included in the scope of the invention, and the present invention is not limited by the time point at which the reference distance setting unit 112 sets the reference focal length corresponding to the reference shooting distance.

본 발명의 실시 방법에 따르면, 무선단말(100)에 탑재되는 카메라모듈(105)은 피사체로부터 반사된 광신호를 입력받는 대물렌즈를 포함하는 하나 이상의 카메라렌즈(200)와 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)를 구비하고 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 포함하여 이루어지는데, 상기 액츄에이터부(205)의 기구적 구조 상 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에는 허용 가능한 이격 범위가 존재하게 되는데, 이 때문에 상기 기준촬영거리에 대응하는 기준초점거리는 상기 이격 범위 내에서 설정되고 상기 카메라모듈(105)을 통한 촬영 중에 사용자가 상기 카메라모듈(105)을 통해 촬영되는 영상정보를 육악으로 확인 가능한 조건을 만족시켜 설정되는 것이 바람직하다.According to the embodiment of the present invention, the camera module 105 mounted on the wireless terminal 100 includes one or more camera lenses 200 including an objective lens for receiving an optical signal reflected from a subject and the camera lens 200 . Actuator having an image sensor unit 210 that detects an optical signal input through the and converts it into an electrical image signal, and implements an auto-focus function or an image stabilization function between the camera lens 200 and the image sensor unit 210 It comprises a part 205, and due to the mechanical structure of the actuator part 205, there is an allowable separation range between the camera lens 200 and the image sensor part 210. For this reason, the reference shooting The reference focal distance corresponding to the distance is set within the separation range, and while shooting through the camera module 105, the user can check the image information photographed through the camera module 105 with the naked eye. desirable.

상기 무선단말(100)의 카메라모듈(105)을 이용한 계측이 개시되면, 상기 촬영조건 설정부(120)는 상기 무선단말(100)에 탑재된 카메라모듈(105)의 자동초점 기능을 비활성화한다. 만약 상기 카메라모듈(105)의 자동초점 기능이 기 비활성화된 상태라면, 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 기능의 비활성화 상태를 유지할 수 있다.When the measurement using the camera module 105 of the wireless terminal 100 is started, the shooting condition setting unit 120 deactivates the autofocus function of the camera module 105 mounted on the wireless terminal 100 . If the auto-focus function of the camera module 105 is in a pre-deactivated state, the shooting condition setting unit 120 may maintain the inactivated state of the auto-focus function of the camera module 105 .

상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종이나 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 확인하고, 지정된 운영서버(190)의 DB를 조회하거나 및/또는 상기 메모리부(109)의 지정된 저장영역을 조회하거나 및/또는 상기 앱(110)에 대응하는 프로그램코드 상에 정의된 파라미터를 참조하여 상기 무선단말(100)의 기종이나 카메라모듈(105)의 종류에 대응하는 환산정보를 확인할 수 있다. 다만 상기 환산정보 확인부(116)는 앱(110) 내에서 상기 환산정보를 이용하는 절차를 수행하기 전에만 지정된 절차에 따라 상기 환산정보를 확인하면 본 발명의 권리범위에 포함된 것으로 간주하며, 본 발명은 상기 환산정보 확인부(116)가 상기 환산정보를 확인하는 시점에 의해 한정되지 아니한다.The conversion information confirmation unit 116 confirms the type of the wireless terminal 100 driving the app 110 or the type of the camera module 105 mounted on the wireless terminal 100 driving the app 110 . And, query the DB of the designated operation server 190 and / or query the designated storage area of the memory unit 109 and / or refer to the parameters defined on the program code corresponding to the app (110) Conversion information corresponding to the model of the wireless terminal 100 or the type of the camera module 105 can be checked. However, if the conversion information confirmation unit 116 checks the conversion information according to the designated procedure only before performing the procedure for using the conversion information within the app 110, it is considered to be included in the scope of the present invention. The invention is not limited by the time when the conversion information confirmation unit 116 checks the conversion information.

본 발명의 실시 방법에 따르면, 카메라모듈(105)에 구비되는 이미지 센서부(210)는 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 가로세로 h개와 v개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 상기 이미지 센서부(210)는 가로방향 x(1≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역 위에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있다. 따라서 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다. 본 발명에서 상기 환산정보는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)로 환산하는 정보로 정의할 수 있다. 한편 각 무선단말(100)의 기종 별로 해당 무선단말(100)에 탑재되는 카메라모듈(105)의 종류(예컨대, 제조사, 모델명, 스펙 등)가 상이하며, 결과적으로 상기 환산정보는 각 무선단말(100)의 기종이나 카메라모듈(105)의 종류 별로 상이한 정보를 포함하게 된다.According to the implementation method of the present invention, the image sensor unit 210 provided in the camera module 105 detects an optical signal input through the camera lens 200 to determine the number of horizontal and vertical h and v pixels (or resolution). Generates image information in the form of a bitmap image with It may be formed by including h and v sensor cells in a direction x (1≥1㎛) and a sensor area in a vertical direction y (y≥1㎛). Therefore, the number of pixels on the image information or image information generated by the image sensor unit 210 and the actual distance on the sensor area provided in the image sensor unit 210 (eg, the actual distance in a specified metrological unit) have a specified correspondence relationship. can be formed. For example, the image information generated through the image sensor unit 210 or the number of 100 pixels on the image information may correspond to 10 μm on the sensor area. In the present invention, the conversion information is image information acquired through the image sensor unit 210 of the camera module 105 or a designated unit pixel distance (eg, number of pixels) on a pixel area of the image information by the image sensor unit 210 ) can be defined as information that is converted into the actual distance on the sensor area (eg, the actual distance in a designated metrological unit). On the other hand, the type (eg, manufacturer, model name, specification, etc.) of the camera module 105 mounted on the corresponding wireless terminal 100 is different for each model of each wireless terminal 100, and as a result, the conversion information is 100) and includes different information for each type of camera module 105 .

본 발명의 제1 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)의 기종 별 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 무선단말(100)의 기종 식별정보를 제공하여 상기 기종 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 기종 식별정보를 수신하고, 상기 DB로부터 상기 기종 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)의 기종 식별정보에 대응하는 환산정보를 수신할 수 있다.According to the first conversion information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 is through the image sensor unit 210 of the camera module 105 for each model of each wireless terminal 100 . Conversion information for converting a specified unit pixel distance (eg, number of pixels) on a pixel region of the generated image information or image information into an actual distance in a specified metrological unit with respect to the sensor region of the image sensor unit 210 is checked, and the Conversion information for each model of each confirmed wireless terminal 100 and model identification information for identifying the model of each wireless terminal 100 may be linked and stored in a designated DB. In this case, the conversion information confirmation unit 116 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 that has driven the app 110, and through the communication network By providing the model identification information of the wireless terminal 100 to the operation server 190, it is possible to request conversion information corresponding to the model identification information. The operation server 190 receives the model identification information from the app 110 of the wireless terminal 100, extracts conversion information corresponding to the model identification information from the DB, and the app of the wireless terminal 100 110 , and the conversion information confirmation unit 116 may receive conversion information corresponding to the model identification information of the wireless terminal 100 from the operation server 190 .

본 발명의 제2 환산정보 확인 실시예에 따르면, 상기 앱(110)과 연동하는 운영서버(190)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하고, 상기 확인된 각 무선단말(100)(또는 각 무선단말(100) 기종)의 카메라모듈(105) 별 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 지정된 DB에 저장할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보를 확인하고, 통신망을 통해 상기 운영서버(190)로 상기 카메라모듈(105)의 모듈 식별정보를 제공하여 상기 모듈 식별정보에 대응하는 환산정보를 요청할 수 있다. 상기 운영서버(190)는 상기 무선단말(100)의 앱(110)으로부터 상기 카메라모듈(105)의 모듈 식별정보를 수신하고, 상기 DB로부터 상기 모듈 식별정보에 대응하는 환산정보를 추출하여 상기 무선단말(100)의 앱(110)으로 제공할 수 있으며, 상기 환산정보 확인부(116)는 상기 운영서버(190)로부터 상기 무선단말(100)에 탑재된 카메라모듈(105)의 모듈 식별정보에 대응하는 환산정보를 수신할 수 있다.According to the second conversion information confirmation embodiment of the present invention, the operation server 190 interworking with the app 110 is a camera module 105 mounted on each wireless terminal 100 (or each wireless terminal 100 model). ), a specified unit pixel distance (eg, number of pixels) on a pixel area of image information or image information generated through the image sensor unit 210 for each actual distance in a specified metrological unit with respect to the sensor area of the image sensor unit 210 Check the conversion information converted to 105) can be stored in a designated DB by linking the module identification information that identifies the type. In this case, the conversion information confirmation unit 116 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110, and is mounted on the wireless terminal 100. It is possible to check the module identification information of the camera module 105, and provide the module identification information of the camera module 105 to the operation server 190 through a communication network to request conversion information corresponding to the module identification information. The operation server 190 receives the module identification information of the camera module 105 from the app 110 of the wireless terminal 100, and extracts conversion information corresponding to the module identification information from the DB to obtain the wireless It can be provided by the app 110 of the terminal 100, and the conversion information confirmation unit 116 is the module identification information of the camera module 105 mounted on the wireless terminal 100 from the operation server 190. Corresponding conversion information may be received.

본 발명의 제3 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)의 기종 별로 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)의 기종을 식별하는 기종 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 기종 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)의 기종을 식별하는 절차를 수행하여 상기 무선단말(100)의 기종 식별정보를 확인하고, 상기 확인된 기종 식별정보와 연계된 환산정보를 확인할 수 있다.According to the third conversion information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the conversion information confirmation unit 116 is each wireless terminal 100 . A designated unit pixel distance (eg, number of pixels) on a pixel area of image information or image information generated through the image sensor unit 210 of the camera module 105 for each model of The conversion information for converting into the actual distance of the designated metrology unit for the wireless terminal 100 is linked and stored in the designated storage area of the memory unit 109 by linking the model identification information for identifying the model of each wireless terminal 100 and/or the conversion information It can be maintained on the program code by linking with the model identification information. In this case, the conversion information confirmation unit 116 checks the model identification information of the wireless terminal 100 by performing a procedure for identifying the model of the wireless terminal 100 that has driven the app 110, and the confirmed You can check the conversion information linked to the model identification information.

본 발명의 제4 환산정보 확인 실시예에 따르면, 상기 무선단말(100)에 상기 앱(110)을 설치(또는 설치 후 최초 구동) 시 상기 환산정보 확인부(116)는 각 무선단말(100)(또는 각 무선단말(100) 기종)에 탑재된 카메라모듈(105) 별로 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보의 픽셀영역 상의 지정된 단위 픽셀거리(예컨대, 픽셀 수)를 상기 이미지 센서부(210)의 센서영역에 대한 지정된 도량형 단위의 실제거리로 환산하는 환산정보와 각 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 모듈 식별정보를 연계하여 상기 메모리부(109)의 지정된 저장영역에 연계 저장하거나 및/또는 상기 환산정보와 모듈 식별정보를 연계하여 프로그램코드 상에 유지할 수 있다. 이 경우 상기 환산정보 확인부(116)는 상기 앱(110)을 구동한 무선단말(100)에 탑재된 카메라모듈(105)의 종류를 식별하는 절차를 수행하여 상기 카메라모듈(105)의 모듈 식별정보를 확인하고, 상기 확인된 모듈 식별정보와 연계된 환산정보를 확인할 수 있다.According to the fourth conversion information confirmation embodiment of the present invention, when the app 110 is installed on the wireless terminal 100 (or first driven after installation), the conversion information confirmation unit 116 is each wireless terminal 100 . The specified unit pixel distance (eg, number of pixels) on the pixel area of image information or image information generated through the image sensor unit 210 for each camera module 105 mounted on (or each wireless terminal 100 model) is described above. The memory by linking conversion information for converting the sensor area of the image sensor unit 210 into an actual distance in a specified metrological unit and module identification information for identifying the type of camera module 105 mounted on each wireless terminal 100 It can be stored in the designated storage area of the unit 109 and/or stored in the program code by linking the conversion information and the module identification information. In this case, the conversion information confirmation unit 116 performs a procedure for identifying the type of the camera module 105 mounted on the wireless terminal 100 that has driven the app 110 to identify the module of the camera module 105 . You can check the information, and check the conversion information associated with the identified module identification information.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 자동초점 기능이 비활성화되고 상기 카메라렌즈(200)와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈(105)을 통해 입력되는 영상정보를 지정된 버퍼영역에 버퍼링하거나 기 지정된 버퍼영역에 버퍼링된 영상정보를 확인하는 입력영상 확인부(124)와, 상기 화면 출력부(102)를 통해 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보를 출력하는 입력영상 출력부(128)와, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시키도록 유도하면서 상기 피사체와 무선단말(100) 중 적어도 하나를 움직여 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리 사이를 이격하도록 유도하는 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하는 인터페이스 표시부(132)를 구비한다.Referring to Figure 1, the app 110 of the wireless terminal 100, the auto-focus function is deactivated and the focal length between the camera lens 200 and the image sensor is set as the reference focal length camera module 105 An input image check unit 124 that buffers image information input through the buffer in a designated buffer area or checks the image information buffered in a predetermined buffer area, and a designated image output area on the screen area through the screen output unit 102 The input image output unit 128 for outputting the image information, and the gaze direction of the camera lens 200 to the subject having N (N ≥ 2) feature points and M (M ≥ 1) edge areas By moving at least one of the subject and the wireless terminal 100 while inducing them to direct to the camera lens 200, the shooting distance between the subject and the camera lens 200 is '+' at a distance less than the reference shooting distance and more than the reference shooting distance. ' and an interface display unit 132 for displaying an interface that induces a separation between distances in a designated interface area on the screen area.

상기 입력영상 확인부(124)는 자동초점 기능이 비활성화되고 상기 카메라렌즈(200)와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈(105)의 이미지 센서부(210)를 통해 생성된 영상정보를 확인하여 지정된 버퍼영역에 버퍼링할 수 있다. 만약 상기 카메라모듈(105)을 통해 입력되는 영상정보가 운영체제에 의해 지정된 버퍼영역에 버퍼링되는 경우, 상기 입력영상 확인부(124)는 상기 카메라모듈(105)의 이미지 센서부(210)를 통해 생성되어 상기 버퍼영역에 버퍼링되는 영상정보를 확인할 수 있다.The input image confirmation unit 124 is generated through the image sensor unit 210 of the camera module 105 in which the auto focus function is deactivated and the focal length between the camera lens 200 and the image sensor is set as the reference focal length. You can check the image information and buffer it in the designated buffer area. If the image information input through the camera module 105 is buffered in a buffer area designated by the operating system, the input image check unit 124 is generated through the image sensor unit 210 of the camera module 105 . Thus, the image information buffered in the buffer area can be checked.

상기 입력영상 출력부(128)는 상기 화면 출력부(102)와 연동하여 상기 무선단말(100)의 화면 영역 상의 지정된 영상출력 영역에 상기 확인된 영상정보를 출력한다. 본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 상기 화면 영역 상의 전체 영역에 상기 영상정보를 출력하거나, 또는 상기 화면 영역 상의 지정된 일부 영역에 상기 영상정보를 출력할 수 있다. The input image output unit 128 outputs the confirmed image information to a designated image output area on the screen area of the wireless terminal 100 in cooperation with the screen output unit 102 . According to the embodiment of the present invention, the input image output unit 128 may output the image information to the entire area of the screen area or may output the image information to a designated partial area on the screen area.

본 발명의 실시 방법에 따르면, 상기 입력영상 출력부(128)는 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시되기 전에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시됨과 동시에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하거나, 또는 상기 인터페이스 표시부(132)를 통해 지정된 인터페이스가 표시된 후에 지정된 영상출력 영역을 통해 상기 영상정보를 출력하는 것이 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the input image output unit 128 outputs the image information through a specified image output area before the specified interface is displayed through the interface display unit 132, or the interface display unit 132 It is possible to output the image information through a specified image output area at the same time as a specified interface is displayed through, or output the image information through a specified image output area after a specified interface is displayed through the interface display unit 132, , the present invention is not limited thereby.

상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다. The interface display unit 132 is a line of sight of the camera lens 200 before, during, or after the image information is output to a specified image output area on the screen area through the input image output unit 128 . The direction is directed toward the subject having N (N≥2) feature points and M (M≥1) edge regions that can confirm focus, so that the N feature points and M edge regions are included in the angle of view. may be displayed in a designated interface area on the screen area.

본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 상기 카메라모듈(105)을 통해 피사체를 촬영하여 생성되는 영상정보(또는 프레임 화상정보) 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어진다. 바람직하게, 상기 N개의 특징점은 거리 산출의 기준점으로 이용될 수 있다. 즉, 상기 인터페이스 표시부(132)는 카메라모듈(105)을 통해 아무런 특징점도 없는 면을 포함하는 피사체를 촬영하는 것이 아니라, 거리 산출의 기준점이 되는 N개의 특징점을 지닌 피사체를 촬영하도록 유도하는 촬영 유도 인터페이스를 표시할 수 있다.According to the embodiment of the present invention, the N feature points are adjacent to one or more of color, contrast, and saturation among pixel areas in image information (or frame image information) generated by photographing a subject through the camera module 105 . At least one of a point region, a line region, and a plane region in which a difference of more than a specified reference value occurs than the value of the region is included. Preferably, the N feature points may be used as reference points for distance calculation. That is, the interface display unit 132 induces photographing of a subject having N characteristic points, which is a reference point for distance calculation, rather than photographing a subject including a surface without any characteristic points through the camera module 105 . interface can be displayed.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 촬영 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선을 포함하는 촬영 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 손등을 촬영하도록 유도하거나 손톱을 촬영하도록 유도하는 문자열을 포함하는 촬영 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 촬영 유도 인터페이스를 표시할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the interface display unit 132 may display the image information by superimposing it on the image output area on the screen area on which the image information is to be output or being output. For example, when measuring the actual size of a fingernail through the present invention, the interface display unit 132 induces a photographing guide interface including a hand-shaped guide line for inducing photographing the back of a person's hand and/or guides the photographing of the fingernail By superimposing a shooting guidance interface including a nail-shaped guide line to be displayed on the image output area, or by superimposing a shooting guidance interface including a string for guiding to photograph the back of a hand or photographing a nail on the image output area can be displayed Meanwhile, when the image output area is set to a partial area on the screen area, the interface display unit 132 may display the photographing guidance interface in the remaining area of the screen area except for the image output area. On the other hand, according to another implementation method of the present invention, if a target for measuring a numerical value through the present invention is not specified in advance, the interface display unit 132 does not need to display the photographing induction interface, whereby the present invention is not limited thereto. No.

본 발명의 실시 방법에 따르면, 상기 N개의 특징점은 지정된 허용 오차 범위 내에서 상기 카메라렌즈(200)의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점 또는 지정된 허용 오차 범위 내에서 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것이 바람직하다. 즉, 본 발명은 카메라렌즈(200)와 피사체 사이의 촬영거리와 상기 카메라렌즈(200)와 이미지 센서부(210)의 센서영역 사이의 초점거리의 비례 관계를 근거로 상기 이미지 센서부(210)를 통해 생성된 영상정보에 포함된 하나 이상의 프레임 화상정보를 판독하여 인식된 특징점 간 거리에 대응하는 피사체 상에 실제로 존재하는 특정점 간 실제거리를 산출하는데, 상기 영상정보(또는 영상정보에 포함된 프레임 화상정보)나 상기 이미지 센서부(210)의 센서영역이 평면이므로 상기 N개의 특징점은 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계를 형성하는 평면에 존재해야만 왜곡이나 오차를 최소화할 수 있다. 그러나 대부분의 피사체는 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역과 평행 관계(또는 상기 카메라렌즈(200)의 시선방향과 직교 관계)를 형성하지 못할 확률이 매우 높다. 이에, 상기 인터페이스 표시부(132)는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역(예컨대, 무선단말(100)에 카메라렌즈(200)가 노출된 일 면)이 평행 관계를 형성하도록 유도하는 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있으며, 이로써 상기 카메라렌즈(200)의 시선방향과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 직교 관계(또는 이미지 센서부(210)의 센서영역과 N개의 특징점 사이에 지정된 허용 오차 범위 내의 평행 관계)를 형성할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 본 발명을 통해 수치를 계측하려는 대상을 미리 지정하지 않은 경우 상기 인터페이스 표시부(132)는 상기 촬영 유도 인터페이스를 표시하지 않아도 무방하며, 이에 의해 본 발명이 한정되지 아니한다.According to the implementation method of the present invention, the N feature points are feature points formed in a virtual plane area forming an orthogonal relationship with the gaze direction of the camera lens 200 within a specified tolerance range or the camera within a specified tolerance range. It is preferable to include a feature point formed in a virtual plane area forming a parallel relationship with the sensor area of the image sensor unit 210 provided in the module 105 . That is, in the present invention, the image sensor unit 210 is based on a proportional relationship between the photographing distance between the camera lens 200 and the subject and the focal length between the camera lens 200 and the sensor area of the image sensor unit 210 . By reading one or more frame image information included in the image information generated through frame image information) or the sensor area of the image sensor unit 210 is flat, so the N feature points exist on a plane forming a parallel relationship with the sensor area of the image sensor unit 210 provided in the camera module 105 . Only then can distortion or error be minimized. However, there is a very high probability that most subjects cannot form a parallel relation (or orthogonal relation to the gaze direction of the camera lens 200) with the sensor area of the image sensor unit 210 provided in the camera module 105 . Accordingly, the interface display unit 132 induces an orthogonal relationship to be formed between the surface on which the N feature points are formed on the subject and the viewing direction of the camera lens 200 and/or the surface on the subject on which the N feature points are formed. The camera module 105 further includes an interface for inducing a sensor region (eg, one surface exposed to the camera lens 200 to the wireless terminal 100) of the image sensor unit 210 provided in the camera module 105 to form a parallel relationship. can display an orthogonal relationship within a specified tolerance range between the gaze direction of the camera lens 200 and the N feature points (or between the sensor area of the image sensor unit 210 and the N feature points) parallel relationship within the specified tolerance range) can be formed. On the other hand, according to another implementation method of the present invention, if a target for measuring a numerical value through the present invention is not specified in advance, the interface display unit 132 does not need to display the photographing induction interface, whereby the present invention is not limited thereto. No.

본 발명의 실시 방법에 따르면, 일부 무선단말(100)에 탑재되는 일부 카메라모듈(105)의 카메라렌즈(200)(예컨대, 대물렌즈)는 도면2의 예시와 같은 볼록렌즈 계열의 렌즈가 아니라, 통상의 볼록렌즈보다 더 넓은 영역을 촬영하기 위해 렌즈의 가장자리를 오목렌즈 형태로 제작할 수 있다. 즉, 렌즈 중심에서 지정된 범위 이내는 지정된 곡률의 볼록렌즈이지만 그 외 가장자리는 오목렌즈 형태로 제작될 수 있다. 예를들어, 각 렌즈마다 차이가 있지만 일부 렌즈는 렌즈 중심에서 대략 80% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 다른 일부 렌즈는 렌즈 중심에서 대략 90% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있으며, 또 다른 일부 렌즈는 렌즈 중심에서 대략 95% 이내의 범위를 지정된 곡률의 볼록렌즈로 제작하고 그외 가장자리를 오목렌즈 형태로 제작할 수 있다. 이 경우 렌즈 중심에서 지정된 범위 이내의 특징점 간 거리는 왜곡이 없거나 적지만, 상기 지정된 범위를 벗어난 가장자리에 위치하는 특징점 간 거리는 렌즈에 의한 왜곡에 의해 오차가 발생할 수 있다. 이에, 상기 인터페이스 표시부(132)는 상기 카메라모듈(105)을 통해 입력되어 영상출력 영역에 출력되는 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 직사각형의 픽셀영역 중 긴 변을 기준으로 지정된 범위 이내)의 영역에 피사체에 형성된 N개의 특징점을 위치시켜 촬영하도록 유도하는 유도선이나 문자열 형태의 인터페이스를 더 포함하는 촬영 유도 인터페이스를 표시할 수 있다.According to the implementation method of the present invention, the camera lens 200 (eg, objective lens) of some camera modules 105 mounted on some wireless terminals 100 is not a convex lens series lens as in the example of FIG. 2 , In order to photograph a wider area than a normal convex lens, the edge of the lens may be manufactured in the form of a concave lens. That is, a convex lens having a specified curvature within a specified range from the center of the lens may be manufactured in the form of a concave lens at the other edges. For example, although each lens is different, some lenses can be manufactured as a convex lens with a specified curvature within about 80% of the center of the lens, and other lenses can be manufactured in the form of a concave lens at the center of the lens. A convex lens with a specified curvature within 90% of the range can be manufactured and the other edges can be manufactured in the form of a concave lens, and some lenses are manufactured with a convex lens with a specified curvature within about 95% of the center of the lens, and the other edges can be manufactured in the form of a concave lens. In this case, the distance between the feature points within the specified range from the center of the lens has little or no distortion, but the distance between the feature points located at the edge outside the specified range may cause an error due to distortion by the lens. Accordingly, the interface display unit 132 is inputted through the camera module 105 and is outputted to the image output area within a designated range from the center of the pixel area (eg, within a range designated based on the long side of the rectangular pixel area). A photographing guidance interface may be displayed that further includes an interface in the form of a guide line or a string for guiding the photographing by locating N feature points formed on the subject in the area of .

한편 상기 인터페이스 표시부(132)는 상기 입력영상 출력부(128)를 통해 상기 화면 영역 상의 지정된 영상출력 영역에 상기 영상정보가 출력되기 전 또는 중 또는 후의 지정된 일 시점에, 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 지정된 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 및/또는 상기 촬영거리를 지정된 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시할 수 있다.Meanwhile, the interface display unit 132 displays the subject and the camera lens 200 at a specified point before, during, or after the image information is output to the specified image output area on the screen area through the input image output unit 128 . ) to separate the shooting distance in the '+' direction from a '-' distance less than the specified reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, and/or set the shooting distance to a '+' A separation inducing interface for inducing to be spaced apart in the '-' direction from the ' distance to a '-' distance less than the reference shooting distance may be displayed on the designated interface area on the screen area.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 영상정보를 출력할 예정이거나 출력 중인 화면 영역 상의 영상출력 영역에 상기 이격 유도 인터페이스를 중첩하여 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 사람의 손등을 촬영하도록 유도하는 손 모양의 유도선에서 손톱을 촬영하도록 유도하는 손톱 모양의 유도선으로 '-' 방향 변환되는 이격 유도 인터페이스 및/또는 손톱을 촬영하도록 유도하는 손톱 모양의 유도선에서 손등을 촬영하도록 유도하는 손 모양의 유도선으로 '+' 방향 변환되는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시하거나, 상기 '-' 방향 이격 및/또는 '+' 방향 이격을 유도하는 문자열을 포함하는 이격 유도 인터페이스를 상기 영상출력 영역에 중첩하여 표시할 수 있다. 한편 상기 영상출력 영역이 화면 영역 상의 일부 영역에 설정된 경우, 상기 인터페이스 표시부(132)는 상기 화면 영역 중 영상출력 영역을 제외한 나머지 영역에 상기 이격 유도 인터페이스를 표시할 수 있다. According to the embodiment of the present invention, the interface display unit 132 may display the spaced induction interface by superimposing the image information on an image output area on a screen area on which the image information is to be output or output. For example, when measuring the actual size of a nail through the present invention, the interface display unit 132 changes from a hand-shaped guide line for guiding to photograph the back of a person's hand to a nail-shaped guide line for guiding to photograph a nail. -' direction-converted separation induction interface and/or a nail-shaped guide line for guiding to photograph the nail to a hand-shaped guide line for guiding the back of the hand to photograph the back of the hand, a separation induction interface converted in a '+' direction to the image output area The overlapping display may be performed, or a separation inducing interface including a character string inducing the separation in the '-' direction and/or the separation in the '+' direction may be displayed in an overlapping manner on the image output area. Meanwhile, when the image output area is set to a partial area on the screen area, the interface display unit 132 may display the separation inducing interface in the remaining area of the screen area except for the image output area.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)는 상기 앱(110)을 구동한 무선단말(100)의 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정된 단위 개수의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요(만약 보정변환 처리부(136)를 통해 프레임 화상정보를 보정하는 경우 상기 보정에 사용되는 시간을 더 포함)되는 기준 소요 시간(예컨대, 상기 소요 시간은 동일 개수의 동일 해상도의 프레임을 판독하는 경우 무선단말(100)의 프로세서 성능에 좌우되며, 최신 기종의 무선단말(100)이나 고성능 프로세서를 탑재할수록 짧아짐)을 확인하고, 상기 기준 소요 시간을 근거로 상기 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보에 포함된 프레임 화상정보 중 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 예를들어, 본 발명을 통해 손톱의 실측 크기를 계측하는 경우 상기 인터페이스 표시부(132)는 상기 손 모양의 유도선에서 손톱 모양의 유도선으로 변환되는 시간을 조정하거나 및/또는 상기 손톱 모양의 유도선에서 손 모양의 유도선으로 변환되는 시간을 조정하여 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. 또는 문자열 형태로 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the implementation method of the present invention, the interface display unit 132 is inputted through the camera module 105 of the wireless terminal 100 that has driven the app 110 and is designated among frame image information included in the buffered image information. It takes to read the unit number of frame image information and recognize n feature points and m edge regions (if the frame image information is corrected through the correction and conversion processing unit 136, the time used for the correction is further included) Check the required time (for example, the required time depends on the processor performance of the wireless terminal 100 when the same number of frames of the same resolution are read, and becomes shorter as the latest wireless terminal 100 or high-performance processor is mounted) And, based on the reference required time, it takes to read a specified number of frames among frame image information included in the image information input and buffered through the camera module 105 to recognize n feature points and m edge regions. It is possible to display a separation induction interface further comprising an interface for inducing separation at a specified separation speed moving within a specified separation distance within a required time. For example, when measuring the actual size of the nail through the present invention, the interface display unit 132 adjusts the conversion time from the hand-shaped guide line to the nail-shaped guide line and/or induces the nail shape It is possible to display the separation induction interface further comprising an interface for inducing separation at a specified separation speed by adjusting the time for converting the line to the hand-shaped guide line. Alternatively, it is possible to display a separation induction interface further including an interface for inducing separation at a specified separation speed in the form of a string.

본 발명의 제1 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 10cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the first separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 10 cm/s. interface can be displayed.

본 발명의 제2 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the second separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 5 cm/s. interface can be displayed.

본 발명의 제3 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 2.5cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the third separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 2.5 cm/s. A guided interface can be displayed.

본 발명의 제4 이격 속도 실시예에 따르면, 상기 인터페이스 표시부(132)는 적어도 1cm/s 이내의 이격 속도로 '-' 방향 이격하거나 및/또는 '+' 방향 이격하는 인터페이스를 더 포함하는 이격 유도 인터페이스를 표시할 수 있다. According to the fourth separation speed embodiment of the present invention, the interface display unit 132 further includes an interface spaced apart in a '-' direction and/or spaced apart in a '+' direction at a separation speed of at least 1 cm/s. interface can be displayed.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점을 인식하는 특징점 인식부(140)와, 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 m(1≤n≤M)개의 엣지 영역을 인식하는 엣지 영역 인식부(144) 중 적어도 하나의 인식부를 구비하며, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 지정된 변환 규칙에 따라 보정하는 보정변환 처리부(136)를 더 구비할 수 있다.Referring to FIG. 1 , the app 110 of the wireless terminal 100 includes F (F≥2) frame image information input through the camera module 105 and included in image information buffered in a designated buffer area. The feature point recognition unit 140 for recognizing n (2≤n≤N) feature points by reading It has at least one recognition unit among the edge area recognition unit 144 to recognize, and F (F≥2) frame image information input through the camera module 105 and included in the image information buffered in the designated buffer area. It may further include a correction and transformation processing unit 136 that corrects according to a specified transformation rule.

본 발명의 실시 방법에 따르면, 상기 인터페이스 표시부(132)를 통해 아무리 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하도록 유도하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도하더라도 카메라모듈(105)(또는 카메라모듈(105)을 탑재한 무선단말(100))과 피사체를 물리적으로 고정하지 않는 한, 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하는 것이 난해하며, 다만 허용된 오차 범위 내에서 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라렌즈(200)의 시선방향 사이에 직교 관계를 형성하거나 및/또는 상기 피사체 상의 N개의 특징점이 형성된 면과 상기 카메라모듈(105)에 구비된 이미지 센서부(210)의 센서영역이 평행 관계를 형성하도록 유도할 수 있다. According to the implementation method of the present invention, through the interface display unit 132, no matter how orthogonal to form an orthogonal relationship between the surface of the N feature points on the subject and the viewing direction of the camera lens 200, and/or on the subject Even if the surface on which the N feature points are formed and the sensor area of the image sensor unit 210 provided in the camera module 105 are induced to form a parallel relationship, the camera module 105 (or the camera module 105) is mounted on the wireless terminal (100)) and the subject are not physically fixed, an orthogonal relationship is formed between the surface on which the N feature points are formed on the subject and the viewing direction of the camera lens 200 and/or the N feature points on the subject are not physically fixed. It is difficult to form a parallel relationship between the formed surface and the sensor area of the image sensor unit 210 provided in the camera module 105. However, within the allowable error range, the surface formed with N feature points on the subject and the camera An orthogonal relationship is formed between the viewing directions of the lens 200 and/or a surface on which N feature points are formed on the subject and a sensor area of the image sensor unit 210 provided in the camera module 105 form a parallel relationship may be encouraged to do so.

상기 보정변환 처리부(136)는 상기 카메라모듈(105)을 통해 입력(예컨대, 카메라모듈(105)의 이미지 센서부(210)를 통해 생성)되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F개의 프레임 화상정보를 확인하고, 상기 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역을 인식한다. 본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 프레임 화상정보 내에 존재하는 피사체의 외곽선이 특정 방향으로 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식하거나 및/또는 피사체 주변의 사물이 형성하는 경계선이 특정 방향을 지향하여 좁아지거나 넓어지는 패턴을 을 지닌 원근 식별 영역을 인식함으로써, 상기 프레임 화상정보 내에 존재하는 D개의 원근 식별 영역을 인식할 수 있다. 한편 상기 보정변환 처리부(136)는 상기 무선단말(100)의 중력센서를 통해 센싱된 중력 방향 정보를 확인하거나 및/또는 상기 무선단말(100)의 자이로센서를 통해 센싱된 무선단말(100)의 자세 정보(또는 무선단말(100)의 카메라모듈(105)의 카메라렌즈(200) 시선이 지향하는 카메라 지향 방향 정보)을 확인하고, 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 근거로 상기 프레임 화상정보 내에서 인식된 원근 식별 영역을 판독하여 상기 센싱된 정보에 부합하지 않는 원근 식별 영역을 배제시킴으로써, 상기 프레임 화상정보 내에 존재하는 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식할 수 있다.The correction and conversion processing unit 136 is input through the camera module 105 (eg, generated through the image sensor unit 210 of the camera module 105) and is included in the image information buffered in a designated buffer area. The frame image information is checked, and the F frame image information is read to recognize D (D≥1) perspective identification areas existing in the frame image information. According to the embodiment of the present invention, the correction/conversion processing unit 136 recognizes a perspective identification area having a pattern in which the outline of the subject existing in the frame image information is narrowed or widened in a specific direction and/or around the subject. By recognizing a perspective identification area having a pattern in which a boundary line formed by an object is narrowed or widened in a specific direction, the D perspective identification areas present in the frame image information can be recognized. Meanwhile, the correction conversion processing unit 136 checks the gravity direction information sensed through the gravity sensor of the wireless terminal 100 and/or the wireless terminal 100 sensed through the gyro sensor of the wireless terminal 100. Check the posture information (or the camera lens 200 of the camera module 105 of the wireless terminal 100, camera-oriented direction information that the gaze is directed), and sensed through one or more sensors provided in the wireless terminal 100 By reading the perspective identification area recognized in the frame image information based on the information and excluding the perspective identification area that does not match the sensed information, there are d (1≤d≤D) valid numbers in the frame image information. Perspective identification regions can be recognized.

상기 보정변환 처리부(136)는 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한다. 예를들어, 상기 이격 각도는 3차원 좌표축 성분의 이격 각도를 포함할 수 있다. The correction and conversion processing unit 136 combines and analyzes the recognized d valid perspective identification areas and information sensed through one or more sensors provided in the wireless terminal 100 to form a photographing surface of the subject (or a feature point on the subject) area) and the gaze direction of the camera lens 200 of the camera module 105 calculates a separation angle in the orthogonal direction. For example, the separation angle may include a separation angle of a 3D coordinate axis component.

한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the separation angle between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 is calculated, the correction and transformation processing unit 136 performs various geometries including affine transformation. By using the conversion equation, the F frame image information included in the image information may be converted and corrected so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship. Meanwhile, according to another embodiment of the present invention, the correction and transformation processing unit 136 recognizes n feature points through the feature point recognition unit 140 and/or m edge regions through the edge region recognition unit 144 . After this recognition, the recognized n feature points and/or m edge areas may be corrected in an orthogonal relationship with the gaze direction of the camera lens 200, and the present invention may also include such an embodiment as the scope of rights.

본 발명의 실시 방법에 따르면, 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보는 상기 입력영상 출력부(128)를 통해 표시될 수 있으나, 바람직하게는 상기 보정된 프레임 화상정보를 표시하지 않고 앱(110)의 내부적으로 특징점이나 엣지 영역을 인식하거나 보정하는데 이용되는 것이 바람직하다.According to the embodiment of the present invention, the frame image information corrected through the correction conversion processing unit 136 may be displayed through the input image output unit 128, but preferably, the corrected frame image information is not displayed. It is preferably used to recognize or correct a feature point or an edge area internally of the app 110 without it.

상기 특징점 인식부(140)는 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 N개의 특징점 중 적어도 n(2≤n≤N)개의 특징점을 인식한다. 한편 상기 특정점을 인식하기 전에 상기 프레임 화상정보가 상기 직교 관계를 형성하도록 보정되지 않은 경우, 상기 보정변환 처리부(136)는 상기 이격 각도를 산출하거나 기 산출된 이격 각도를 확인하고, 상기 인식된 n개의 특징점에 대해 아핀 변환을 포함하는 각종 기하학 변환식을 적용하여 상기 n개의 특징점을 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다. The feature point recognition unit 140 is input through the camera module 105 and included in the image information buffered in the designated buffer area F (F≥2) frame image information (or through the correction conversion processing unit 136) The corrected frame image information) is read to recognize at least n (2≤n≤N) feature points out of N feature points that are actually present on the subject. On the other hand, if the frame image information is not corrected to form the orthogonal relationship before recognizing the specific point, the correction/conversion processing unit 136 calculates the separation angle or checks the previously calculated separation angle, and the recognized Correcting the n feature points by applying various geometric transformation equations including affine transformation to the n feature points so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship can do.

본 발명의 실시 방법에 따르면, 상기 특징점 인식부(140)는 상기 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)에 포함된 특징점 중 픽셀영역의 중심에서 지정된 범위 이내(예컨대, 카메라렌즈(200)가 볼록렌즈에 해당하는 범위 이내)에 존재하는 n(2≤n≤N)개의 특징점을 인식하는 것이 바람직하며, 이로써 렌즈의 왜곡에 의한 n개의 특징점 간 거리의 오차를 최소화한다.According to the embodiment of the present invention, the feature point recognition unit 140 is within a specified range from the center of the pixel area among the feature points included in the frame image information (or frame image information corrected through the correction and conversion processing unit 136). It is preferable to recognize n (2≤n≤N) feature points that exist in (eg, within the range corresponding to the convex lens of the camera lens 200), thereby causing an error in the distance between the n feature points due to lens distortion. to minimize

한편 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향 사이의 이격 각도가 산출되면, 상기 보정변환 처리부(136)는 아핀 변환(Affine Transformation)을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 보정할 수 있다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 보정변환 처리부(136)는 상기 특징점 인식부(140)를 통해 n개의 특징점이 인식되거나 및/또는 상기 엣지 영역 인식부(144)를 통해 m개의 엣지 영역이 인식된 후에 상기 인식된 n개의 특징점 및/또는 m개의 엣지 영역을 상기 카메라렌즈(200)의 시선 방향과 직교 관계로 보정할 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the separation angle between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 is calculated, the correction and transformation processing unit 136 performs various geometries including affine transformation. By using the conversion formula, the F frame image information included in the image information may be corrected so that the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 form an orthogonal relationship. Meanwhile, according to another embodiment of the present invention, the correction and transformation processing unit 136 recognizes n feature points through the feature point recognition unit 140 and/or m edge regions through the edge region recognition unit 144 . After this recognition, the recognized n feature points and/or m edge areas may be corrected in an orthogonal relationship with the gaze direction of the camera lens 200, and the present invention may also include such an embodiment as the scope of rights.

상기 엣지 영역 인식부(144)는 기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보(또는 상기 보정변환 처리부(136)를 통해 보정된 프레임 화상정보)를 판독하여 피사체 상에 실제 존재하는 M개의 엣지 영역 중 적어도 m(1≤n≤M)개의 엣지 영역을 인식한다. The edge area recognition unit 144 is input through the camera module 105 and F (F≥2) frame image information (or the correction conversion processing unit 136) included in the image information buffered in the designated buffer area. through the corrected frame image information) to recognize at least m (1≤n≤M) edge areas among M edge areas actually existing on the subject.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 인식거리 산출부(152)와, 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 실제거리 산출부(156)를 구비하며, 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않는 경우 상기 카메라모듈(105)의 자동초점 기능을 활성화하고, 상기 카메라모듈(105)의 자동초점 기능을 통해 자동초점 맞춤을 시도하여 초점맞춤된 자동초점거리를 확인하고, 이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리의 '±' 방향의 일정 범위 이내의 초점거리에 대응하면서 상기 카메라모듈(105)에 대해 알려진 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정하는 기준거리 조정부(148)를 구비한다.Referring to Figure 1, the app 110 of the wireless terminal 100, the '+' direction or '-' direction of the image information is a blur ratio of the m edge areas included in the image information during the distance (Blur) ratio A recognition distance calculation unit 152 that calculates the distance between n feature points recognized through at least f (1≤f<F) frame image information corresponding to the '0' viewpoint reduced to the minimum value within the specified reference value; Based on the relationship between the reference focal length and the reference shooting distance, the actual distance calculator 156 calculates the value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' point. In the case that the blur ratio of the m edge regions included in the image information does not decrease within a specified reference value during the distance in the '+' direction or the '-' direction of the image information, the camera module 105 Activate the auto-focus function, check the focused auto-focus distance by attempting auto-focusing through the auto-focus function of the camera module 105, and set the previously set reference shooting distance and reference focal length to the confirmed auto-focus A reference distance adjustment unit for correcting the focal length within a certain range in the '±' direction of the distance and correcting it with a new reference photographing distance and reference focal length corresponding to the relationship between the focal length and the photographing distance known for the camera module 105 ( 148) is provided.

상기 인식거리 산출부(152)는 상기 인터페이스 표시부(132)를 통해 표시된 이격 유도 인터페이스의 유도에 따라 상기 카메라모듈(105)을 통해 입력되는 영상정보가 지정된 기준촬영거리를 기준으로 '+' 방향 이격되거나 및/또는 '-' 방향 이격되는 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하는지 확인한다.The recognition distance calculating unit 152 is spaced apart in the '+' direction based on the reference shooting distance in which the image information input through the camera module 105 is specified according to the induction of the separation induction interface displayed through the interface display unit 132 . and/or check whether the blur ratio of the m edge regions included in the image information decreases within a specified reference value while being spaced apart in the '-' direction.

만약 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않는 경우, 상기 기준거리 조정부(148)는 상기 촬영조건 설정부(120)를 통해 비활성화된 카메라모듈(105)의 자동초점 기능을 활성화하고, 상기 카메라모듈(105)의 자동초점 기능을 통해 자동초점 맞춤을 시도하여 초점맞춤된 자동초점거리를 확인한다. 만약 상기 확인된 자동초점거리와 상기 기준거리 설정부(112)를 통해 이전 설정된 기준초점거리가 상이한 경우, 상기 기준거리 조정부(148)는 상기 이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리의 '±' 방향의 일정 범위 이내의 초점거리에 대응하면서 상기 카메라모듈(105)에 대해 알려진 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정한다. 본 발명의 실시 방법에 따르면, 카메라모듈(105)의 초점거리와 촬영거리의 관계는 카메라모듈(105)에 구비된 카메라렌즈(200)의 곡률이나 구조 또는 카메라모듈(105)에 포함된 하나 이상의 렌즈와 결합 관계 등에 따라 각 카메라모듈(105) 별로 상이할 수 있으며, 상기 기준거리 조정부(148)는 상기 메모리부(109)의 지정된 저장영역이나 운영서버(190)의 지정된 저장영역에 각 카메라모듈(105) 별 초점거리와 촬영거리의 관계정보를 저장하고 이를 참조하여 상기 무선단말(100)에 탑재된 카메라모듈(105)에 대해 알려진 초점거리와 촬영거리의 관계를 확인할 수 있다. 상기 기준촬영거리와 기준초점거리가 보정되면, 상기 촬영조건 설정부(120)는 상기 카메라모듈(105)의 자동초점 기능을 비활성화하고, 상기 인식거리 인식부는 상기 보정된 기준촬영거리를 기준으로 '+' 방향 이격되거나 및/또는 '-' 방향 이격되는 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하는지 확인한다. If the blur ratio of the m edge regions included in the image information does not decrease within a specified reference value during the separation in the '+' direction or the '-' direction of the image information, the reference distance adjusting unit 148 is the The auto focus function of the deactivated camera module 105 is activated through the shooting condition setting unit 120, and the auto focus distance is checked by attempting auto focus through the auto focus function of the camera module 105. do. If the confirmed auto focus distance and the reference focal length previously set through the reference distance setting unit 112 are different, the reference distance adjusting unit 148 sets the previously set reference shooting distance and the reference focal length to the confirmed automatic focal length. Correction is made with a new reference photographing distance and a reference focal length corresponding to the relationship between the focal length and the photographing distance known for the camera module 105 while corresponding to a focal length within a certain range in the '±' direction of the focal length. According to the embodiment of the present invention, the relationship between the focal length and the shooting distance of the camera module 105 is the curvature or structure of the camera lens 200 provided in the camera module 105 or at least one included in the camera module 105 . It may be different for each camera module 105 depending on the lens and coupling relationship, etc., and the reference distance adjusting unit 148 is located in a designated storage area of the memory unit 109 or a designated storage area of the operation server 190 for each camera module. (105) It is possible to check the relationship between the focal length and the photographing distance known for the camera module 105 mounted on the wireless terminal 100 by storing the relation information between the focal length and the photographing distance by reference. When the reference shooting distance and the reference focal length are corrected, the shooting condition setting unit 120 deactivates the auto-focus function of the camera module 105, and the recognition distance recognition unit ' It is checked whether the blur ratio of the m edge regions included in the image information decreases within a specified reference value while being spaced apart in the +' direction and/or spaced apart in the '-' direction.

한편 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소한 경우, 상기 인식거리 산출부(152)는 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다. On the other hand, when the blur ratio of the m edge regions included in the image information is reduced within a specified reference value during the separation in the '+' direction or the '-' direction of the image information, the recognition distance calculating unit 152 calculates the image information. Between n feature points recognized through at least f (1≤f<F) frame image information corresponding to the '0' time point at which the blur ratio of the m edge regions included in the information has decreased to the minimum value within the specified reference value. Calculate the distance

본 발명의 실시 방법에 따르면, 상기 인식거리 산출부(152)는 상기 영상정보의 이격 방향에 따라 확인된 '0' 시점에 대응하는 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하고, 상기 환산정보 확인부(116)를 통해 확인된 환산정보를 이용하여 상기 산출된 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하여 산출한다. 만약 상기 환산정보 확인부(116)를 통해 상기 환산정보가 확인되지 않은 경우, 상기 환산정보 확인부(116)는 상기 n개의 특징점 간 픽셀거리가 산출된 경우에 상기 무선단말(100)에 탑재된 카메라모듈(105)의 이미지 센서부(210)를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인할 수 있다. 한편 상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱(110)이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출(예컨대, n개의 특징점 간 평균 거리와 편차 등을 산출)할 수 있다. According to the embodiment of the present invention, the recognition distance calculating unit 152 calculates the pixel distance between n feature points existing in the f pieces of image information corresponding to the '0' time point identified according to the separation direction of the image information. Then, the calculated pixel distance between the n feature points is converted into a distance between the n feature points in a designated metrological unit by using the conversion information confirmed through the conversion information check unit 116 and calculated. If the conversion information is not confirmed through the conversion information check unit 116, the conversion information check unit 116 is mounted on the wireless terminal 100 when the pixel distance between the n feature points is calculated. Conversion information for converting a specified unit pixel distance on a pixel area of image information obtained through the image sensor unit 210 of the camera module 105 into an actual distance in a specified metrological unit may be checked. On the other hand, when the distance between two or more n feature points existing in the image information of two or more frames corresponding to the '0' point is calculated, the app 110 statistically processes the calculated distance between the two or more n feature points to designate The distance between the n feature points in the error range may be calculated (eg, the average distance and deviation between the n feature points may be calculated).

상기 실제거리 산출부(156)는 상기 기준거리 설정부(112)를 통해 설정된 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식거리 산출부(152)를 통해 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출한다.The actual distance calculating unit 156 is a distance between the n feature points calculated through the recognition distance calculating unit 152 based on the relationship between the reference focal length and the reference shooting distance set through the reference distance setting unit 112 . Calculate the numerical value of the actual distance between n real feature points on the subject corresponding to .

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 계산된 경우, 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 계측기준 설정부(160)와, 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 계측대상 인식부(164)와, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. Referring to Figure 1, the app 110 of the wireless terminal 100, when the value of the actual distance between two or more real feature points existing on the subject is calculated, at least two or more of the feature points for which the numerical value of the actual distance is calculated. A measurement reference setting unit 160 that sets a feature point as a reference feature point and sets the actual distance between the reference feature points as a reference distance, and T (T≥2) among feature points formed near the reference feature point using the set reference feature point A measurement target recognition unit 164 for recognizing the measurement target feature points, and a measurement target measurement unit 168 for calculating the numerical value of the actual distance between the T measurement target feature points by using the actual distance between the reference feature points as a reference distance; And, when the numerical value of the actual distance between the T feature points to be measured is calculated, the measurement reference setting unit 160 reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points. It is possible to set or reuse the actual distance between the t feature points to be measured as a reference distance, whereby the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105 . and after the reference distance between the reference specific points is calculated, the actual distance between various feature points included in the image information subsequently input through the camera module 105 can be measured in real time.

상기 실제거리 산출부(156)를 통해 피사체 상에 존재하는 둘 이상의 실제 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 실제거리 산출부(156)를 통해 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 식별하기 위한 기준 특징점으로 설정하고, 상기 기준 특징점 간의 실제거리를 지정된 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다. When the numerical value of the actual distance between two or more real feature points existing on the subject is calculated through the real distance calculating unit 156 , the measurement reference setting unit 160 sets the actual distance through the real distance calculating unit 156 . At least two or more feature points among the feature points for which the numerical value of is calculated are set as reference feature points for identifying the feature points to be measured, and the actual distance between the reference feature points is set as a reference distance for calculating the actual distance between the specified feature points to be measured.

상기 계측기준 설정부(160)를 통해 적어도 하나의 기준 특징점이 설정되면, 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다.When at least one reference characteristic point is set through the measurement reference setting unit 160, the measurement target recognition unit 164 uses the set reference characteristic point to set T (T≥2) among the characteristic points formed near the reference characteristic point. Recognizes the measurement target feature points.

본 발명의 실시 방법에 따르면, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보 내에 포함된 특징점을 포함할 수 있다. 한편 실시 방법에 따라 상기 T개의 계측대상 특징점은 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the T feature points to be measured may include feature points included in the same frame image information as the frame image information including the reference feature points. Meanwhile, depending on the implementation method, the T feature points to be measured may include at least one feature point among the reference feature points, and the present invention is not limited thereto.

상기 계측대상 인식부(164)를 통해 T개의 계측대상 특징점이 인식되면, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출한다. 본 발명의 실시 방법에 따르면, 상기 기준 특징점과 T개의 계측대상 특징점은 모두 동일한 프레임 화상정보 내에 포함되어 있고, 상기 기준 특징점 간의 실제거리를 기준거리로 이용하므로, 상기 계측대상 계측부(168)는 상기 계측대상 특징점과 카메라렌즈(200) 사이의 촬영거리가 변동되더라도 상기 T개의 계측대상 특징점 간의 실제거리의 수치를 산출할 수 잇다.When the T feature points to be measured are recognized through the measurement target recognition unit 164, the measurement target measurement unit 168 uses the actual distance between the reference feature points as a reference distance to obtain a numerical value of the actual distance between the T feature points to be measured to calculate According to the implementation method of the present invention, since the reference feature point and the T feature points are all included in the same frame image information, and the actual distance between the reference feature points is used as the reference distance, the measurement target measurement unit 168 is Even if the photographing distance between the measurement target feature point and the camera lens 200 is changed, the numerical value of the actual distance between the T measurement target feature points can be calculated.

상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 계측대상 계측부(168)를 구비하며, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 간 실제거리의 수치가 계산된 경우, 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정 가능하며, 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. and a measurement target measurement unit 168 for calculating the numerical value of the actual distances between the T measurement target characteristic points by using the actual distance between the reference characteristic points as a reference distance, wherein the measurement reference setting unit 160 includes the T measurement targets When the numerical value of the actual distance between the feature points is calculated, at least t (2≤t≤T) feature points among the T feature points to be measured are reused as reference feature points, or the actual distance between the t feature points to be measured is reused as a reference distance It is configurable, whereby the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105, and after the reference distance between the reference specific points is calculated, the camera module Through (105), the actual distance between various feature points included in the subsequently input image information can be measured in real time.

한편 상기 계측대상 계측부(168)를 통해 상기 T개의 측대상 특징점 간 실제거리의 수치가 산출된 경우, 상기 계측기준 설정부(160)는 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 다른 계측대상 특징점을 식별하기 위한 기준 특징점으로 재이용 설정하거나 및/또는 상기 t개의 계측대상 특징점 간 실제거리를 다른 계측대상 특징점 간 실제거리를 산출하기 위한 기준거리로 재이용 설정할 수 있다. 이로써, 상기 앱(110)은 상기 카메라모듈(105)을 통해 입력된 영상정보에 포함된 적어도 둘 하나의 기준 특징점이 인식되고 상기 기준 특정점 간의 기준거리가 산출된 이후에 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 지속적으로 실시간 계측할 수 있다. On the other hand, when the numerical value of the actual distance between the T feature points to be measured is calculated through the measurement target measurement unit 168, the measurement reference setting unit 160 sets at least t (2≤t≤T) among the T measurement target feature points. ) feature points to be reused as reference feature points for identifying other feature points to be measured, and/or the actual distance between the t feature points to be measured can be reused as a reference distance for calculating the actual distance between other feature points to be measured. Accordingly, the app 110 recognizes at least two reference feature points included in the image information input through the camera module 105 and calculates the reference distance between the reference specific points, the camera module 105 Through this, it is possible to continuously measure the actual distance between various feature points included in the subsequently input image information in real time.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 영상정보를 통해 적어도 p(p≥3)개의 특징점이 인식된 경우 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고, 적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하는 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 기하학 관계 생성부(172)와, 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 기하학 관계 관리부(176)를 구비한다.Referring to Figure 1, the app 110 of the wireless terminal 100, when at least p (p≥3) feature points are recognized through image information, the distance relationship between the p feature points and the p feature points are formed Generates reference geometric relationship information for discriminating a unique geometric relationship between p feature points including an angular relationship of Reference geometric relationship information for determining a unique geometric relationship between the p feature points including the actual distance between the p feature points and the distance relationship between the p feature points and the angular relationship formed by the p feature points when the actual distance between the p feature points is calculated and a geometric relationship generating unit 172 for generating , and a geometric relationship management unit 176 for storing and managing the generated reference geometric relationship information in a designated storage area.

상기 기하학 관계 생성부(172)는 카메라모듈(105)로부터 입력되어 지정된 버퍼영역에 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식하거나 기 인식된 p개의 특징점을 확인하여 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성하거나, 및/또는 상기 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우에 상기 p개의 특징점 간 실제거리를 포함하고 상기 p개의 특징점 간의 거리관계와 각도관계를 포함하는 기준 기하학 관계정보를 생성할 수 있다.The geometric relationship generating unit 172 reads F frame image information input from the camera module 105 and included in the image information buffered in the designated buffer area to recognize at least p feature points or to recognize at least p feature points. to generate reference geometrical relationship information including distance and angular relationships between the p feature points, and/or between the p feature points when the actual distances between the p feature points including the at least two or more actual distances are calculated It is possible to generate reference geometrical relationship information including the actual distance and including the distance relationship and the angular relationship between the p feature points.

본 발명의 제1 기하학 관계 생성 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 생성부(172)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 생성부(172)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 p개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식되면, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. 여기서, 상기 p개의 특징점 간의 거리관계는 상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 p개의 특징점 간의 각도관계는 상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. According to the first geometrical relationship generating embodiment of the present invention, when image information input through the camera module 105 and buffered in a designated buffer area is confirmed, the geometrical relationship generating unit 172 includes the image information included in the image information. At least p (p≥3) feature points can be recognized by reading F frame image information. Preferably, the geometric relationship generating unit 172 reads the corrected frame image information through the correction and transformation processing unit 136 (or performing the function of the correction and transformation processing unit 136) to recognize at least p feature points. can do. If at least p feature points are recognized by reading F frame image information included in the image information, the geometric relationship generating unit 172 calculates the distance relationship between the p feature points and the angular relationship formed by the p feature points. Including, reference geometrical relationship information for determining a unique geometrical relationship between the p number of feature points can be generated. Here, the distance relationship between the p feature points includes relative length information of two or more straight lines connecting the p feature points (eg, coordinate distance on a designated coordinate system), and a distance-related vector component of two or more straight lines connecting the p feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system). On the other hand, the angular relationship between the p feature points includes angle information formed by two or more straight lines connecting the p feature points (eg, coordinate angle on a specified coordinate system), and a direction-related vector component of two or more straight lines connecting the p feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system).

본 발명의 제2 기하학 관계 생성 실시예에 따르면, 상기 제1 기하학 관계 생성 실시예를 통해 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 피사체 상에 존재하는 적어도 p(p≥3)개의 특징점이 인식된 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the second geometrical relationship generating embodiment of the present invention, by reading the F frame image information included in the image information through the first geometrical relationship generating embodiment, at least p (p≥3) When a feature point is recognized, the geometric relationship generating unit 172 calculates the numerical value of the actual distance between the feature points through the recognition distance calculator 152 and the real distance calculator 156 or the measurement target measurement unit 168 ) to calculate the actual distance between the p key points including the actual distance of at least two straight lines formed by connecting the p key points using at least one of the methods for calculating the value of the actual distance between the feature points. have. Meanwhile, when the actual distances between the p key points are calculated, the geometric relationship generating unit 172 includes the calculated actual distances between the p key points, and the distance relationship between the p key points and the angle formed by the p key points. Reference geometric relationship information for discriminating a unique geometric relationship between the p feature points including the relationship may be generated.

본 발명의 제3 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the third geometrical relationship generating embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least p (p≥3), the geometric relationship is generated The unit 172 may generate reference geometrical relationship information for discriminating a unique geometric relationship between the p feature points, including a distance relationship between the p feature points and an angular relationship formed by the p feature points.

본 발명의 제4 기하학 관계 생성 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 p(p≥3)개인 경우, 상기 기하학 관계 생성부(172)는 상기 인식거리 산출부(152)와 실제거리 산출부(156)를 통해 특징점 간 실제거리의 수치를 산출하는 방식이나 상기 계측대상 계측부(168)를 통해 특징점 간 실제거리의 수치를 산출하는 방식 중 적어도 하나의 방식을 이용하여 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상 직선의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출할 수 있다. 한편 상기 p개의 특징점 간 실제거리가 산출된 경우, 상기 기하학 관계 생성부(172)는 상기 산출된 p개의 특징점 간 실제거리를 포함하며 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성할 수 있다. According to the fourth geometrical relationship generating embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least p (p≥3), the geometric relationship is generated The unit 172 calculates the numerical value of the actual distance between the feature points through the recognition distance calculator 152 and the real distance calculator 156, or calculates the numerical value of the actual distance between the feature points through the measurement target measurement unit 168. The actual distance between the p feature points including the actual distance of at least two straight lines formed by connecting the p feature points may be calculated using at least one of the calculation methods. Meanwhile, when the actual distances between the p key points are calculated, the geometric relationship generating unit 172 includes the calculated actual distances between the p key points, and the distance relationship between the p key points and the angle formed by the p key points. Reference geometric relationship information for discriminating a unique geometric relationship between the p feature points including the relationship may be generated.

만약 상기 기하학 관계 생성부(172)를 통해 상기 제1 내지 제4 기하학 관계 생성 실시예 중 적어도 하나(또는 둘 이상 실시예의 적어도 부분적 조합)를 통해 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 생성되면, 상기 기하학 관계 관리부(176)는 상기 생성된 기준 기하학 관계정보를 지정된 저장영역(예컨대, 메모리부(109)의 저장영역 및/또는 운영서버(190) 상의 저장매체에 구비된 저장영역)에 저장하여 관리할 수 있다.If the geometrical relationship generating unit 172 uses at least one of the first to fourth geometrical relationship generating embodiments (or at least a partial combination of two or more embodiments), a criterion for determining a unique geometrical relationship between the p number of feature points When the geometric relationship information is generated, the geometric relationship management unit 176 provides the generated reference geometric relationship information in a designated storage area (eg, a storage area of the memory unit 109 and/or a storage medium on the operation server 190 ) storage area) and can be managed.

도면1을 참조하면, 상기 무선단말(100)의 앱(110)은, 지정된 저장영역에 하나 이상의 기준 기하학 관계정보가 저장된 후, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우, 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 기하학 관계 인식부(180)와, 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 기하학 관계 매칭부(184)와, 상기 매칭된 기준 기하학 관계정보를 확인한 경우 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 실제거리 결정부(188)를 구비한다.Referring to FIG. 1 , the app 110 of the wireless terminal 100 stores at least one reference geometry relation information in a designated storage area, and then includes at least q included in the image information input through the camera module 105 . When (q≥3) feature points are recognized, the geometric relationship recognition unit 180 for recognizing geometric relationship information including distance and angle relationships between the recognized q feature points, and one or more criteria stored in a designated storage area A geometrical relationship matching unit 184 that compares the geometrical relationship information and the recognized geometrical relationship information between the q feature points to confirm the geometric relationship information between the q feature points and any reference geometric relationship information that matches within the allowable error range. And, when the matched reference geometrical relationship information is confirmed, an actual distance for determining an actual distance between at least two or more of the recognized q feature points by using the actual distances between the p feature points included in the matched reference geometric relationship information A decision unit 188 is provided.

상기 기하학 관계 인식부(180)는 피사체 상에 존재하는 적어도 q(q≥3)개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 인식한다.The geometrical relationship recognizing unit 180 recognizes geometrical relationship information corresponding to a unique geometrical relationship between at least q (q≥3) feature points existing on the subject.

본 발명의 제1 기하학 관계 인식 실시예에 따르면, 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보가 확인되면, 상기 기하학 관계 인식부(180)는 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 바람직하게, 상기 기하학 관계 인식부(180)는 상기 보정변환 처리부(136)를 통해(또는 상기 보정변환 처리부(136)의 기능을 수행하여) 보정된 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점을 인식할 수 있다. 만약 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q(q≥3)개의 특징점이 인식되면, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다. 여기서, 상기 q개의 특징점 간의 거리관계는 상기 q개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보(예컨대, 지정된 좌표계 상의 좌표거리)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. 한편 상기 q개의 특징점 간의 각도관계는 상기 q개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보(예컨대, 지정된 좌표계 상의 좌표각도)와, 상기 q개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보(예컨대, 지정된 좌표계 상의 벡터성분) 중 적어도 하나의 정보를 포함할 수 있다. According to the first geometrical relationship recognition embodiment of the present invention, when the image information input through the camera module 105 and buffered in the designated buffer area is confirmed, the geometrical relationship recognition unit 180 includes the image information included in the image information. At least q (q≥3) feature points can be recognized by reading F frames of image information. Preferably, the geometrical relationship recognition unit 180 reads the corrected frame image information through the correction and transformation processing unit 136 (or by performing the function of the correction transformation processing unit 136) to at least q (q≥3). ) can be recognized. If at least q (q≥3) feature points are recognized by reading the F frame image information included in the image information, the geometric relationship recognition unit 180 determines the distance relationship between the q feature points and the q feature points. It is possible to generate geometric relationship information corresponding to a unique geometric relationship between the q feature points, including the angular relationship to be formed. Here, the distance relationship between the q feature points includes relative length information of two or more straight lines connecting the q feature points (eg, coordinate distance on a designated coordinate system), and a distance-related vector component of two or more straight lines connecting the q feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system). On the other hand, the angular relationship between the q feature points includes angular information formed by two or more straight lines connecting the q feature points (eg, coordinate angle on a designated coordinate system), and a direction-related vector component of two or more straight lines connecting the q feature points. It may include at least one piece of information (eg, a vector component on a specified coordinate system).

본 발명의 제2 기하학 관계 인식 실시예에 따르면, 상기 특징점 인식부(140)나 계측대상 인식부(164)를 통해 인식한 특징점의 개수가 적어도 q(q≥3)개인 경우, 상기 기하학 관계 인식부(180)는 상기 q개의 특징점 간의 거리관계와 상기 q개의 특징점들이 형성하는 각도관계를 포함하여 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보를 생성할 수 있다. According to the second geometrical relationship recognition embodiment of the present invention, when the number of feature points recognized through the feature point recognition unit 140 or the measurement target recognition unit 164 is at least q (q≥3), the geometric relationship is recognized The unit 180 may generate geometric relationship information corresponding to a unique geometric relationship between the q feature points, including a distance relationship between the q feature points and an angular relationship formed by the q feature points.

만약 상기 기하학 관계 인식부(180)를 통해 상기 제1 내지 제2 기하학 관계 인식 실시예 중 적어도 하나(또는 둘 실시예의 적어도 부분적 조합)를 통해 상기 q개의 특징점 간의 고유한 기하학 관계에 대응하는 기하학 관계정보가 생성되면, 상기 기하학 관계 매칭부(184)는 상기 기하학 관계 관리부(176)를 통해 지정된 저장영역에 저장되어 관리되는 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다.If, through the geometrical relationship recognition unit 180, at least one of the first to second geometrical relationship recognition embodiments (or at least a partial combination of the two embodiments) is used, a geometric relationship corresponding to the unique geometric relationship between the q feature points When the information is generated, the geometrical relationship matching unit 184 compares one or more reference geometrical relationship information stored and managed in a storage area designated through the geometrical relationship managing part 176 and the geometrical relationship information between the recognized q feature points. Thus, any one reference geometrical relationship information matching the geometrical relationship information between the q feature points and within an allowable error range is checked.

만약 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 어느 한 기준 기하학 관계정보를 확인한 경우, 상기 실제거리 결정부(188)는 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정할 수 있다.If any one reference geometrical relationship information matched with the geometrical relationship information between the q feature points within the allowable error range is checked through the geometrical relationship matching unit 184, the actual distance determining unit 188 is the matched An actual distance between at least two or more of the recognized q feature points may be determined by using the actual distance between the p feature points included in the reference geometric relationship information.

만약 상기 q개의 특징점 간의 실제거리를 결정한 경우, 상기 계측기준 설정부(160)는 상기 기하학 관계 인식부(180)를 통해 인식된 q개의 특징점이나 지정된 저장영역으로부터 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정할 수 있다. 만약 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정한 경우, 상기 상기 계측대상 인식부(164)는 상기 설정된 기준 특징점을 이용하여 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하고, 상기 계측대상 계측부(168)는 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출할 수 있다. 이로써 상기 앱(110)은 상기 카메라모듈(105)을 통해 상기 저장된 기준 기하학 관계정보와 매칭되는 특징점을 지닌 피사체를 촬영한 영상정보가 입력되는 경우에, 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하여 이를 기반으로 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행하지 않고도, 상기 입력되는 영상정보에 포함된 q개의 특징점 간의 실제거리는 물론 상기 q개의 특징점 근처에 형성된 T(T≥2)개의 계측대상 특징점 간의 실제거리까지 실시간 산출할 수 있다. If the actual distance between the q feature points is determined, the measurement reference setting unit 160 includes the q feature points recognized through the geometric relationship recognition unit 180 or the reference geometric relationship information identified from the designated storage area. At least two or more of the p feature points may be set as a reference feature point, and an actual distance between the set reference feature points may be set as a reference distance. If at least two or more of the recognized q feature points or p feature points included in the confirmed reference geometric relationship information are set as reference feature points and the actual distance between the set reference feature points is set as the reference distance, the measurement The target recognition unit 164 recognizes T (T≥2) measurement target characteristic points among the characteristic points formed in the vicinity of the reference characteristic point by using the set reference characteristic point, and the measurement target measurement unit 168 recognizes the actual point between the reference characteristic points. The numerical value of the actual distance between the T measurement target feature points may be calculated using the distance as a reference distance. Accordingly, when image information of a subject having a feature point matching the stored reference geometrical relationship information is input through the camera module 105, the app 110 receives the N number of images through the interface display unit 132. Inducing recognition of the feature point and M edge areas and/or processing to display an interface that induces separation of the shooting distance between the subject and the camera lens 200 in the '+' direction or in the '-' direction, based on this T(T) formed near the q feature points as well as the actual distance between the q feature points included in the input image information without performing a series of processes for calculating the numerical value of the actual distance between the n feature points among the N feature points It is possible to calculate in real time up to the actual distance between ≥2) measurement target feature points.

한편 상기 기하학 관계 인식부(180)를 통해 q개의 특징점을 인식하였으나 상기 기하학 관계 매칭부(184)를 통해 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 실제거리 결정부(188)는 상기 인터페이스 표시부(132)를 통해 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하며, 이를 기반으로 상기 앱(110)은 상기 N개의 특징점 중 n개의 특징점 간 실제거리의 수치를 산출하기 위한 일련의 과정을 수행할 수 있다.Meanwhile, although the q feature points were recognized through the geometric relationship recognition unit 180, the geometric relationship information between the q feature points and the reference geometric relationship information matched within the allowable error range were confirmed through the geometric relationship matching unit 184 If not, the real distance determining unit 188 induces recognition of the N feature points and M edge regions through the interface display unit 132 and/or the photographing distance between the subject and the camera lens 200 . is processed to display an interface that induces to be spaced apart in the '+' direction or spaced apart in the '-' direction, and based on this, the app 110 is a series of steps for calculating the numerical value of the actual distance between the n feature points among the N feature points. process can be performed.

도면2는 본 발명의 실시 방법에 따른 카메라모듈(105)의 구조를 도시한 도면이다.2 is a view showing the structure of the camera module 105 according to the embodiment of the present invention.

보다 상세하게 본 도면2는 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205)를 포함하는 카메라모듈(105)의 간략한 구조와 촬영거리와 초점거리의 관계 및 이미지 센서부(210)의 센서영역(또는 이미지 센서부(210)를 통해 생성된 영상정보나 화상정보)를 통해 산출되는 특징점 간 거리와 피사체에 존재하는 실제 특징점 간 실제거리의 관계를 도시한 것이다. 한편 무선단말(100)의 카메라모듈(105)은 본 도면2에 도시된 카메라렌즈(200)와 이미지 센서부(210) 및 액츄에이터부(205) 이외에 다양한 구성부를 더 구비하여 이루어질 것이나, 발명이 속한 기술분야에서 통상의 지식을 가진 자라면 무선단말(100)의 카메라모듈(105)에 구비되는 다양한 구성부의 실시예를 유추할 수 있을 것이므로, 본 도면2는 이에 대한 설명이나 도시를 생략하기로 한다. In more detail, FIG. 2 shows a simplified structure of a camera module 105 including a camera lens 200, an image sensor unit 210, and an actuator unit 205, and a relationship between a shooting distance and a focal length, and an image sensor unit 210 ) shows the relationship between the distance between key points calculated through the sensor area (or image information or image information generated through the image sensor unit 210) and the actual distance between actual key points existing in the subject. On the other hand, the camera module 105 of the wireless terminal 100 will be further provided with various components in addition to the camera lens 200, the image sensor unit 210 and the actuator unit 205 shown in FIG. 2, but the invention belongs to Those of ordinary skill in the art will be able to infer the embodiments of various components provided in the camera module 105 of the wireless terminal 100, and therefore, the description or illustration of this figure 2 will be omitted. .

도면2를 참조하면, 카메라모듈(105)은, 피사체로부터 반사된 광신호를 입력받는 하나 이상의 카메라렌즈(200)와, 상기 카메라렌즈(200)를 통해 입력되는 광신호를 검지하여 전기적 영상신호로 변환하는 이미지 센서부(210)와, 상기 카메라렌즈(200)와 이미지 센서부(210) 사이에서 자동초점 기능이나 손떨림 보정 기능을 구현하는 액츄에이터부(205)를 구비한다.Referring to FIG. 2 , the camera module 105 includes at least one camera lens 200 that receives an optical signal reflected from a subject, and detects an optical signal input through the camera lens 200 into an electrical image signal. It includes an image sensor unit 210 that converts, and an actuator unit 205 that implements an autofocus function or an image stabilization function between the camera lens 200 and the image sensor unit 210 .

상기 카메라렌즈(200)는 피사체로부터 반사된 광신호를 입력받는 대물렌즈에 해당하는 렌즈를 포함하여 이루어지며, 상기 대물렌즈와 이미지 센서부(210) 사이에 영상정보나 화상정보의 품질을 향상시키거나 각종 촬영 효과를 부여하기 위한 하나 이상읠 렌즈를 더 포함할 수 있다.The camera lens 200 includes a lens corresponding to an objective lens that receives an optical signal reflected from a subject, and improves the quality of image information or image information between the objective lens and the image sensor unit 210 . Or, it may further include one or more lenses for providing various shooting effects.

상기 이미지 센서부(210)는 상기 카메라렌즈(200)를 통해 입력되는 광신호를 실시간 검지하여 가로방향으로 지정된 h(h≥100)개의 픽셀 수(또는 해상도)와 세로방향으로 지정된 v(v≥100)개의 픽셀 수(또는 해상도)를 지닌 비트맵 이미지 형태의 화상정보를 생성하거나, 또는 가로세로 h개와 v개의 픽셀 수(또는 해상도)와 지정된 단위 시간당 프레임수를 지닌 영상정보를 생성하며, 이를 위해 가로방향 x(2≥1㎛)와 세로방향 y(y≥1㎛)의 센서영역을 구비하여 이루어진다. The image sensor unit 210 detects the optical signal input through the camera lens 200 in real time, and the number of pixels (or resolution) of h (h ≥ 100) specified in the horizontal direction and v (v ≥ v) specified in the vertical direction Generates image information in the form of a bitmap image with 100) pixels (or resolution), or creates image information with h and v pixels (or resolution) and the number of frames per unit time specified. For this purpose, the sensor area is provided with a sensor area in the horizontal direction x (2≥1㎛) and in the vertical direction y(y≥1㎛).

상기 센서영역은 가로세로 x와 y의 영역 상에 가로세로 h개와 v개의 센서셀을 포함하여 이루어질 수 있으며, 이에 의해 상기 이미지 센서부(210)를 통해 생성되는 화상정보나 영상정보 상의 픽셀 수와 상기 이미지 센서부(210)에 구비된 센서영역 상의 실제거리(예컨대, 지정된 도량형 단위의 실제거리)에는 지정된 대응관계가 형성될 수 있다. 예를들어, 상기 이미지 센서부(210)를 통해 생성된 화상정보나 영상정보 상의 필셀 수 100개는 센서영역 상의 10㎛에 대응할 수 있다.The sensor region may include h and v sensor cells on the x and y regions, and thereby the number of pixels on the image information or image information generated through the image sensor unit 210 and A specified correspondence may be formed in an actual distance (eg, an actual distance in a specified metrological unit) on the sensor area provided in the image sensor unit 210 . For example, the image information generated through the image sensor unit 210 or the number of 100 pixels on the image information may correspond to 10 μm on the sensor area.

상기 액츄에이터부(205)는 상기 카메라렌즈(200)와 이미지 센서부(210) 사이의 초점거리를 조정하여 자동초점 기능을 제공하며, 실시 방법에 따라 손떨림 보정 기능을 구현하기도 한다. The actuator unit 205 provides an autofocus function by adjusting the focal length between the camera lens 200 and the image sensor unit 210 , and also implements a handshake correction function according to an implementation method.

본 발명의 실시 방법에 따르면, 상기 액츄에이터부(205)는 구조적으로 상기 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210) 사이에는 허용된 이격 간격 범위가 존재하게 되는데, 본 발명은 상기 액츄에이터부(205)의 허용된 이격 간격 범위 중 어느 한 초점거리를 지정된 기준촬영거리에 대응하는 기준초점거리로 설정한다. According to the embodiment of the present invention, the actuator unit 205 has a structurally allowable spacing range between the camera lens 200 (eg, an objective lens) and the image sensor unit 210, the present invention sets any one focal length of the allowable separation interval range of the actuator unit 205 as the reference focal length corresponding to the designated reference photographing distance.

상기 초점거리는 카메라렌즈(200)(예컨대, 대물렌즈)와 이미지 센서부(210)의 센성영역 사이의 거리이고, 상기 촬영거리는 피사체의 촬영면과 카메라렌즈(200)(예컨대, 대물렌즈) 사이의 거리를 포함한다. 본 발명의 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 액츄에이터부(205)를 통해 상기 카메라렌즈(200)와 이미지 센서부(210)의 센성영역 사이의 초점거리를 미세하게 조정하여 지정된 기준촬영거리에 대응하는 기준초점거리로 설정할 수 있다. The focal length is the distance between the camera lens 200 (eg, objective lens) and the sensory region of the image sensor unit 210, and the shooting distance is between the photographing surface of the subject and the camera lens 200 (eg, objective lens). includes distance. According to the embodiment of the present invention, the app 110 of the wireless terminal 100 finely adjusts the focal length between the camera lens 200 and the sensory region of the image sensor unit 210 through the actuator unit 205 . It can be adjusted to the standard focal length corresponding to the designated reference shooting distance.

본 발명의 실시 방법에 따르면, 상기 카메라모듈(105)을 통해 입력되는 영상정보에 포함된 F개의 프레임 화상정보를 이용하여 산출되는 n개의 특징점 간 거리는 상기 프레임 화상정보를 판독하여 인식된 n개의 특징점 간 픽셀거리를 포함할 수 있다. 또는 상기 n개의 특징점 간 거리는 상기 이미지 센서부(210)에 구비된 가로세로 x와 y의 센서영역과 상기 프레임 화상정보의 가로세로 h와 v의 픽셀 수(또는 해상도)의 관계를 근거로 환산된 지정된 도량형 단위의 특징점 간 실제거리를 포함할 수 있다. According to the embodiment of the present invention, the distance between n feature points calculated using F frame image information included in the image information input through the camera module 105 is the n feature points recognized by reading the frame image information. Inter-pixel distance may be included. Alternatively, the distance between the n feature points is converted based on the relationship between the horizontal and vertical x and y sensor regions provided in the image sensor unit 210 and the number (or resolution) of horizontal and vertical pixels h and v of the frame image information. It may include the actual distance between the feature points of the specified metrological unit.

본 발명의 실시 방법에 따르면, 상기 기준초점거리와 기준촬영거리 사이의 비례 관계를 근거로 상기 산출된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출할 수 있다.According to the implementation method of the present invention, based on the proportional relationship between the reference focal length and the reference shooting distance, the numerical value of the actual distance between the n feature points on the subject corresponding to the calculated distance between the n feature points can be calculated. .

도면3은 본 발명의 제1 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.3 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the first embodiment of the present invention.

보다 상세하게 본 도면3은 카메라모듈(105)을 통해 입력되어 버퍼링되는 영상정보를 확인하는 과정을 수행하되, 지정된 저장영역에 적어도 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보가 저장되고 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점이 인식된 경우 상기 저장된 기준 기하학 관계정보를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 3 performs a process of checking image information input and buffered through the camera module 105, and reference geometric relationship information for determining a unique geometric relationship between at least p feature points is stored in a designated storage area. A process of determining an actual distance between at least two or more of the recognized q feature points using the stored reference geometrical relationship information when at least q feature points are recognized by reading F frame image information included in the image information As shown in the figure, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this figure 3 to perform various implementation methods for the numerical measurement process of the actual distance between the feature points (e.g., some steps omitted, or the order of which is changed) may be inferred, but the present invention includes all of the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 3 .

도면3을 참조하면, 무선단말(100)의 앱(110)은 무선단말(100)의 카메라모듈(105)을 통해 피사체를 촬영하여 생성된 영상정보를 지정된 버퍼영역에 버퍼링하거나 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보를 확인한다(300). 한편 상기 카메라모듈(105)을 통해 입력되어 지정된 버퍼영역에 버퍼링된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)의 자동초점 기능을 비활성화하거나 비활성화 상태를 유지할 수 있다.Referring to FIG. 3 , the app 110 of the wireless terminal 100 buffers image information generated by photographing a subject through the camera module 105 of the wireless terminal 100 in a designated buffer area or the camera module 105 ) and check the image information buffered in the designated buffer area (300). Meanwhile, image information input through the camera module 105 and buffered in a designated buffer area may be used in the processes of FIGS. 4 to 6 . Meanwhile, according to the embodiment of the present invention, the app 110 of the wireless terminal 100 may deactivate the auto-focus function of the camera module 105 or maintain an inactive state.

만약 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보가 확인되면, 상기 무선단말(100)의 앱(110)은 도면6의 과정을 통해 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있는지 확인한다(305). 만약 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장되어 있지 않은 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.If the buffered image information input through the camera module 105 is confirmed, the app 110 of the wireless terminal 100 stores one or more valid reference geometry relationship information in a storage area designated through the process of FIG. 6 . Check whether it is done (305). If one or more valid reference geometry relationship information is not stored in the designated storage area, the app 110 of the wireless terminal 100 displays the interface designated through the process of FIG. While recognizing n feature points and m edge regions from frame image information, focus through the m edge regions while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface After calculating the distance between the n feature points at the time point '0', the actual n feature points corresponding to the distance between the n feature points based on the relationship between the reference focal length and the reference shooting distance of the camera module 105 The process of calculating the actual distance between the two can be performed.

한편 지정된 저장영역에 하나 이상의 유효한 기준 기하학 관계정보가 저장된 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 프레임 화상정보 중 판독 대상에 해당하는 F개의 프레임 화상정보를 확인한다(310). 한편 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 실시예의 경우, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 상기 프레임 화상정보 내에 존재하는 D(D≥1)개의 원근 식별 영역 중 유효한 d(1≤d≤D)개의 유효한 원근 식별 영역을 인식하고, 상기 인식된 d개의 유효한 원근 식별 영역과 상기 무선단말(100)에 구비된 하나 이상의 센서를 통해 센싱된 정보를 결합 분석하여 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 상기 카메라모듈(105)의 카메라렌즈(200)의 시선 방향이 직교 방향에서 이격된 이격 각도를 산출한 후, 아핀 변환을 포함하는 각종 기하학 변환식을 이용하여 상기 영상정보에 포함된 F개의 프레임 화상정보를 상기 피사체의 촬영면(또는 피사체 상의 특징점 형성 영역)과 카메라렌즈(200)의 시선 방향이 직교 관계를 형성하도록 변환 보정할 수 있다(315). 한편 실시 방법에 따라 상기 보정된 영상정보는 도면4 내지 6의 과정에 이용될 수 있다. 한편 본 발명의 다른 실시 방법에 따라 상기 변환 보정을 생략하거나 또는 지정된 특징점이 인식된 후에 변환 보정하는 경우 상기 영상정보에 포함된 F개의 프레임 화상정보를 변환 보정하는 과정을 생략 가능하며, 이에 의해 본 발명이 한정되지 아한다.On the other hand, when one or more valid reference geometry relationship information is stored in the designated storage area, the app 110 of the wireless terminal 100 checks F frame image information corresponding to the reading target among the frame image information included in the image information do (310). On the other hand, in the case of an embodiment of converting and correcting image information of F frames included in the image information, the app 110 of the wireless terminal 100 reads F frame image information included in the image information to obtain the frame image information Recognizes d (1≤d≤D) valid perspective identification areas among D (D≥1) perspective identification areas existing within, and includes the recognized d effective perspective identification areas and the wireless terminal 100 By combining and analyzing the information sensed through one or more sensors, the distance between the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 of the camera module 105 are spaced apart in an orthogonal direction. After calculating the F frame image information included in the image information by using various geometric transformation equations including affine transformation, the photographing surface of the subject (or the feature point formation area on the subject) and the gaze direction of the camera lens 200 Transformation correction may be performed to form this orthogonal relationship (315). Meanwhile, according to the implementation method, the corrected image information may be used in the processes of FIGS. 4 to 6 . Meanwhile, according to another embodiment of the present invention, when the conversion correction is omitted or the transformation correction is performed after the specified feature point is recognized, the process of converting and correcting the image information of F frames included in the image information can be omitted, thereby The invention is not limited.

상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보에 포함된 F개의 프레임 화상정보(또는 상기 보정된 F개의 프레임 화상정보)를 판독하여 적어도 q개의 특징점을 인식 시도한다(320). 만약 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식하지 못한 경우, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.The app 110 of the wireless terminal 100 reads F frame image information (or the corrected F frame image information) included in the image information that is input and buffered through the camera module 105 to at least q An attempt is made to recognize the characteristic points of the dog ( 320 ). If at least q feature points are not recognized by reading the F frame image information, the app 110 of the wireless terminal 100 displays an interface designated through the process of FIG. 4 to display the F included in the image information. While recognizing n feature points and m edge regions from frame image information, and while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface, through the m edge regions After calculating the distance between the n feature points at the '0' point in focus, based on the relationship between the reference focal length and the reference shooting distance of the camera module 105, the actual n number of points corresponding to the distance between the n feature points The process of calculating the numerical value of the actual distance between the feature points may be performed.

한편 상기 F개의 프레임 화상정보를 판독하여 적어도 q개의 특징점을 인식한 경우, 상기 무선단말(100)의 앱(110)은 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인한다(325). 만약 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되지 않으면, 상기 무선단말(100)의 앱(110)은 도면4의 과정을 통해 지정된 인터페이스를 표시하여 상기 영상정보에 포함된 F개의 프레임 화상정보로부터 n개의 특징점과 m개의 엣지 영역을 인식함과 동시에 상기 인터페이스의 유도에 따라 상기 영상정보가 '+' 방향 및/또는 '-' 방향으로 이격되는 중에 상기 m개의 엣지 영역을 통해 초점이 맞추어지는 '0' 시점의 n개의 특징점 간 거리를 산출한 후 상기 카메라모듈(105)의 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 n개의 특징점 간 거리에 대응하는 실제 n개의 특징점 간 실제거리의 수치를 산출하는 과정을 수행할 수 있다.On the other hand, when at least q feature points are recognized by reading the F frame image information, the app 110 of the wireless terminal 100 stores one or more reference geometric relation information stored in a designated storage area and between the recognized q feature points. By comparing the geometrical relationship information, any one reference geometrical relationship information matching the geometrical relationship information between the q feature points within an allowable error range is checked ( 325 ). If the reference geometrical relationship information matching the geometrical relationship information between the q feature points is not confirmed, the app 110 of the wireless terminal 100 displays an interface designated through the process of FIG. While recognizing n feature points and m edge regions from F frame image information, the m edge regions while the image information is spaced apart in the '+' direction and/or '-' direction according to the derivation of the interface After calculating the distance between the n feature points at the '0' point in focus, the actual n corresponding to the distance between the n feature points based on the relationship between the reference focal length and the reference shooting distance of the camera module 105 The process of calculating the numerical value of the actual distance between the feature points may be performed.

한편 상기 q개의 특징점 간의 기하학 관계정보와 매칭되는 기준 기하학 관계정보가 확인되면, 상기 무선단말(100)의 앱(110)은 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하고(330), 상기 결정된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(335). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.On the other hand, when the reference geometric relationship information matching the geometric relationship information between the q feature points is confirmed, the app 110 of the wireless terminal 100 uses the actual distance between the p feature points included in the matched reference geometric relationship information. to determine an actual distance between at least two feature points among the recognized q feature points (330), and perform a procedure for displaying or using the determined real distance between the feature points (335). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

도면4는 본 발명의 제2 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the second embodiment of the present invention.

보다 상세하게 본 도면4는 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 카메라렌즈(200)와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하여 피사체에 존재하는 적어도 둘 이상의 특징점 간 실제거리의 수치를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 shows that the focal length between the camera lens 200 and the image sensor of the camera module 105 is set to a reference focal length corresponding to a designated reference shooting distance between the camera lens 200 and the subject, As shows the process of calculating the numerical value of the actual distance between at least two or more feature points that exist, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this figure 4 to modify the actual distance between the feature points. Various implementation methods (eg, an implementation method in which some steps are omitted or the order is changed) for the numerical measurement process of The technical characteristics are not limited only to the implementation method shown in .

도면4를 참조하면, 무선단말(100)의 앱(110)은 상기 무선단말(100)에 탑재된 카메라모듈(105)의 카메라렌즈(200)와 이미지센서 간 초점거리를 상기 카메라렌즈(200)와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고(400), 상기 카메라모듈(105)의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지한다(405).4, the app 110 of the wireless terminal 100 determines the focal length between the camera lens 200 and the image sensor of the camera module 105 mounted on the wireless terminal 100, the camera lens 200 A reference focal length corresponding to the designated reference shooting distance between the camera module and the subject is set (400), and the auto-focus function of the camera module 105 is deactivated or maintained in an inactive state (405).

만약 상기 기준초점거리가 설정되고 상기 카메라모듈(105)의 자동초점 기능을 비활성화되면, 상기 무선단말(100)의 앱(110)은 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 지정된 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 지정된 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고(410), 상기 도면3의 과정에서 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보를 화면 영역 상의 지정된 영상출력 영역에 출력하며(415), 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식한다(420). If the reference focal length is set and the auto-focus function of the camera module 105 is deactivated, the app 110 of the wireless terminal 100 sets the gaze direction of the camera lens 200 to N (N≥2) A shooting guidance interface and/or the induction interface for guiding the N key points and M edge areas to be included in the angle of view by directing them in the direction of the subject having M (M≥1) edge areas that can be confirmed Inducing the shooting distance between the subject and the camera lens 200 to be spaced apart in the '+' direction from a '-' distance less than the specified reference shooting distance to a '+' distance greater than or equal to the reference shooting distance, or the shooting distance is a designated reference shooting distance A separation inducing interface for inducing to be spaced apart in the '-' direction from the above '+' distance to a '-' distance less than the reference shooting distance is displayed on the designated interface area on the screen area (410), and the camera in the process of FIG. The image information inputted through the module 105 and buffered is output to a designated image output area on the screen area ( 415 ), and F frame image information included in the image information buffered or corrected through the process of FIG. 3 is read. Thus, n feature points and m edge regions are recognized ( 420 ).

만약 상기 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하는지 확인한다(425). If the F frame image information is read and n feature points and m edge regions are recognized, the app 110 of the wireless terminal 100 performs the '+' direction or '-' direction spaced apart of the image information. It is checked whether the blur ratio of the m edge regions included in the image information is reduced within a specified reference value ( 425 ).

만약 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않으면, 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)의 자동초점 기능을 활성화하고(430), 상기 카메라모듈(105)의 자동초점 기능을 통해 자동초점 맞춤을 시도하여 초점맞춤된 자동초점거리를 확인하고(435), 이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리의 '±' 방향의 일정 범위 이내의 초점거리에 대응하면서 상기 카메라모듈(105)에 대해 알려진 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정한다(440). 만약 상기 기준촬영거리와 기준초점거리가 초점맞춤 가능한 기준촬영거리와 기준초점거리로 보정되면, 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)의 자동초점 기능을 비활성화 설정하고(405), 상기 카메라렌즈(200)의 시선방향을 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체 방향으로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도하는 촬영 유도 인터페이스 및/또는 상기 피사체와 카메라렌즈(200) 사이의 촬영거리를 지정된 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 지정된 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 이격 유도 인터페이스를 화면 영역 상의 지정된 인터페이스 영역에 표시하고(410), 상기 도면3의 과정에서 카메라모듈(105)을 통해 입력되어 버퍼링된 영상정보를 화면 영역 상의 지정된 영상출력 영역에 출력하며(415), 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는 과정을 수행한다(420). If the blur ratio of the m edge regions included in the image information does not decrease within a specified reference value during the distance in the '+' direction or the '-' direction of the image information, the app 110 of the wireless terminal 100 ) activates the auto-focus function of the camera module 105 (430), attempts auto-focus through the auto-focus function of the camera module 105, and checks the focused auto-focus distance (435), Corresponding to the relationship between the focal length and the shooting distance known for the camera module 105 while the previously set reference shooting distance and the reference focal length correspond to a focal length within a certain range in the '±' direction of the confirmed auto focus distance. The new reference shooting distance and the reference focal length are corrected (440). If the reference shooting distance and the reference focal length are corrected to the focusable reference shooting distance and the reference focal length, the app 110 of the wireless terminal 100 disables the auto-focus function of the camera module 105, and (405), by directing the gaze direction of the camera lens 200 toward the subject having N (N≥2) feature points and M (M≥1) edge areas capable of confirming focus, within the angle of view A shooting guide interface that induces N feature points and M edge regions to be included and/or the shooting distance between the subject and the camera lens 200 is set at a '-' distance that is less than the specified reference shooting distance and is greater than or equal to the reference shooting distance. A separation induction interface that induces to separate the shooting distance in the '+' direction or to separate the shooting distance in the '-' direction from a '+' distance greater than the specified reference shooting distance to a '-' distance less than the reference shooting distance The display is displayed on a designated interface area on the screen area (410), and the buffered image information input through the camera module 105 in the process of FIG. 3 is output to the designated image output area on the screen area (415), as shown in FIG. 3 A process of recognizing n feature points and m edge areas is performed by reading F frame image information included in the buffered or corrected image information through the process of ( 420 ).

한편 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하면, 상기 무선단말(100)의 앱(110)은 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출한다(445).On the other hand, if the blur ratio of the m edge regions included in the image information decreases within a specified reference value during the distance in the '+' direction or the '-' direction of the image information, the app 110 of the wireless terminal 100 is at least f (1≤f<F) frames corresponding to the '0' time point when the blur ratio of the m edge regions included in the image information is reduced to a minimum value within a specified reference value. The distance between the two feature points is calculated (445).

한편 상기의 과정을 통해 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리가 산출되면, 상기 무선단말(100)의 앱(110)은 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 '0' 시점에 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하고(450), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(455). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.On the other hand, if the distance between the n feature points recognized through the image information of at least f (1≤f<F) frames corresponding to the '0' time point is calculated through the above process, the app 110 of the wireless terminal 100 calculates the numerical value of the actual distance between the n feature points on the subject corresponding to the distance between the n feature points recognized at the '0' point on the basis of the relationship between the reference focal length and the reference shooting distance (450), and the A procedure for displaying or using the actual distance between the calculated feature points is performed (455). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

도면5는 본 발명의 제3 실시 방법에 따라 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는 과정을 도시한 도면이다.5 is a diagram illustrating a process of measuring a numerical value of an actual distance between feature points on a subject photographed through the camera module 105 according to the third embodiment of the present invention.

보다 상세하게 본 도면5는 기 산출된 둘 이상의 특징점 간 실제거리를 이용하여 다른 특징점 간의 실제거리를 산출하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 특징점 간 실제거리의 수치 계측 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 5 shows a process of calculating the actual distance between different feature points using the calculated actual distance between two or more feature points. Those of ordinary skill in the art to which the present invention pertains 5, various implementation methods for the numerical measurement process of the actual distance between the feature points (eg, an implementation method in which some steps are omitted or the order is changed) may be inferred by referring and/or modifying 5, but in the present invention, the analogy It is made including all implementation methods that are used, and the technical characteristics are not limited only to the implementation method shown in FIG. 5 .

도면5를 참조하면, 무선단말(100)의 앱(110)은 상기 도면3 또는 도면4의 과정을 통해 특징점 간의 실제거리의 수치가 결정/산출된 특징점과 특징점 간의 실제거리를 확인하고, 상기 확인된 특징점 중 적어도 둘 이상의 특징점을 계측대상 특징점을 인식하기 위한 기준 특징점을 설정하고 상기 기준 특징점 간의 실제거리를 상기 계측대상 특징점 간의 실제거리를 산출하기 위한 기준거리로 설정한다(500).Referring to Figure 5, the app 110 of the wireless terminal 100 checks the actual distance between the feature point and the feature point where the numerical value of the actual distance between the feature points is determined/calculated through the process of Figure 3 or Figure 4, and the confirmation At least two feature points among the measured feature points are set as reference feature points for recognizing the feature points to be measured, and the actual distance between the reference feature points is set as a reference distance for calculating the actual distance between the feature points to be measured ( 500 ).

만약 실제거리의 수치가 결정/산출된 특징점을 통해 기준 특징점과 기준거리가 설정되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식한다(505). 여기서, 상기 T개의 계측대상 특징점은 상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하며, 상기 기준 특징점 중 적어도 하나의 특징점을 포함할 수 있다.If the reference feature point and the reference distance are set through the feature point for which the numerical value of the actual distance is determined/calculated, the app 110 of the wireless terminal 100 is T (T≥2) of the feature points formed near the reference feature point. The measurement target feature point is recognized (505). Here, the T feature points to be measured include feature points included in the same frame image information as the frame image information including the reference feature points, and may include at least one feature point among the reference feature points.

만약 상기 T개의 계측대상 특징점이 인식되면, 상기 무선단말(100)의 앱(110)은 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하고(510), 상기 산출된 특징점 간 실제거리를 표시하거나 이용하는 절차를 수행한다(515). 바람직하게, 상기 결정된 특징점 간 실제거리는 카메라를 통해 입력되는 영상정보에 존재하는 객체(=피사체)의 수치 계측을 기반으로 하는 증강현실 서비스에 이용될 수 있다.If the T feature points to be measured are recognized, the app 110 of the wireless terminal 100 uses the actual distance between the reference feature points as a reference distance to calculate the numerical value of the actual distance between the T feature points to be measured ( 510), a procedure of displaying or using the calculated actual distance between the feature points is performed (515). Preferably, the determined actual distance between the feature points may be used in an augmented reality service based on numerical measurement of an object (=subject) present in image information input through a camera.

한편 상기 무선단말(100)의 앱(110)은 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정할 수 있으며(520), 이로써 상기 무선단말(100)의 앱(110)은 상기 카메라모듈(105)을 통해 이어서 입력되는 영상정보에 포함된 다양한 특징점 간의 실제거리를 실시간 계측할 수 있다. Meanwhile, the app 110 of the wireless terminal 100 reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points, or sets the actual distance between the t feature points to be measured as a reference distance. can be reused (520), whereby the app 110 of the wireless terminal 100 can measure the actual distance between various feature points included in the image information subsequently input through the camera module 105 in real time.

도면6은 본 발명의 실시 방법에 따라 실제거리의 수치가 산출된 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 도면이다.6 is a diagram illustrating a process of generating, storing and managing geometric relation information between feature points for which numerical values of actual distances are calculated according to an embodiment of the present invention.

보다 상세하게 본 도면6은 상기 도면3의 과정을 통해 특징점 간 실제거리의 수치를 계측하기 위해 필요한 특징점 간의 기하학 관계정보를 생성하여 저장 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 특징점 간 기하학 관계정보를 생성 내지 저장 관리하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 6 shows a process of generating, storing and managing geometric relationship information between feature points necessary to measure the numerical value of the actual distance between the feature points through the process of FIG. For those with the knowledge of ) can be inferred, but the present invention is made including all the implementation methods inferred above, and the technical characteristics are not limited only to the implementation method shown in FIG. 6 .

도면6을 참조하면, 무선단말(100)의 앱(110)은 상기 도면3의 과정을 통해 버퍼링되거나 보정된 영상정보에 포함된 F개의 프레임 화상정보를 판독하여 적어도 p(p≥3)개의 특징점을 인식하고(600), 상기 F개의 프레임 화상정보를 판독하여 적어도 p개의 특징점이 인식된 경우 상기 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리를 산출한다(605). 한편 본 발명의 다른 실시 방법에 따르면, 상기 무선단말(100)의 앱(110)은 상기 도면3 내지 도면5의 과정을 통해 기 결정/산출된 특징점 간 실제거리 중 적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리를 확인한다(605). Referring to FIG. 6, the app 110 of the wireless terminal 100 reads F frame image information included in the image information buffered or corrected through the process of FIG. 3 and reads at least p (p≥3) feature points. (600), the F frame image information is read and when at least p feature points are recognized, an actual distance between p feature points including at least two or more actual distances formed by connecting the p feature points is calculated. (605). On the other hand, according to another embodiment of the present invention, the app 110 of the wireless terminal 100 is formed by connecting at least p key points among the actual distances between the pre-determined/calculated key points through the process of FIGS. 3 to 5 . The actual distances between the p number of feature points including the numerical values of at least two or more actual distances to be obtained are checked (605).

적어도 p개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리의 수치를 포함하는 p개의 특징점 간 실제거리가 산출/확인되면, 상기 무선단말(100)의 앱(110)은 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하고(610), 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하며(615), 상기 기준 기하학 관계정보는 상기 도면3의 과정을 통해 카메라모듈(105)을 통해 촬영되는 피사체 상의 특징점 간 실제거리의 수치를 계측하는데 이용된다.When the actual distance between p key points including the numerical value of at least two or more actual distances formed by connecting at least p key points is calculated/confirmed, the app 110 of the wireless terminal 100 displays the actual distance between the p key points. and generating reference geometric relationship information for discriminating a unique geometric relationship between the p feature points, including the distance relationship between the p feature points and the angular relationship formed by the p feature points (610), and the generated reference geometric relationship The information is stored and managed in a designated storage area ( 615 ), and the reference geometric relationship information is used to measure the numerical value of the actual distance between the feature points on the subject photographed through the camera module 105 through the process of FIG. 3 .

100 : 무선단말 105 : 카메라모듈
110 : 앱 112 : 기준거리 설정부
116 : 환산정보 확인부 120 : 촬영조건 설정부
124 : 입력영상 확인부 128 : 입력영상 출력부
132 : 인터페이스 표시부 136 : 보정변환 처리부
140 : 특징점 인식부 144 : 엣지 영역 인식부
148 : 기준거리 조정부 152 : 인식거리 산출부
156 : 실제거리 산출부 160 : 계측기준 설정부
164 : 계측대상 인식부 168 : 계측대상 계측부
172 : 기하학 관계 생성부 176 : 기하학 관계 관리부
180 : 기하학 관계 인식부 184 : 기하학 관계 매칭부
188 : 실제거리 결정부 200 : 카메라렌즈
205 : 액츄에이터부 210 : 이미지 센서부
100: wireless terminal 105: camera module
110: app 112: reference distance setting unit
116: conversion information confirmation unit 120: shooting condition setting unit
124: input image confirmation unit 128: input image output unit
132: interface display unit 136: correction conversion processing unit
140: feature point recognition unit 144: edge region recognition unit
148: reference distance adjustment unit 152: recognition distance calculation unit
156: actual distance calculation unit 160: measurement standard setting unit
164: measurement target recognition unit 168: measurement target measurement unit
172: geometric relationship generation unit 176: geometric relationship management unit
180: geometric relation recognition unit 184: geometric relation matching unit
188: actual distance determining unit 200: camera lens
205: actuator unit 210: image sensor unit

Claims (31)

카메라모듈을 탑재한 무선단말의 앱을 통해 실행되는 방법에 있어서,
상기 앱이 상기 카메라모듈의 카메라렌즈와 이미지센서 간 초점거리를 상기 카메라렌즈와 피사체 사이의 지정된 기준촬영거리에 대응하는 기준초점거리로 설정하고 상기 카메라모듈의 자동초점 기능을 비활성화 설정하거나 비활성화 상태를 유지하는 제1 단계;
상기 앱이 상기 카메라렌즈의 시선방향을 상호 간 거리를 산출 가능한 N(N≥2)개의 특징점과 초점맞춤을 확인 가능한 M(M≥1)개의 엣지(Edge) 영역을 지닌 피사체로 지향시켜 화각 내에 상기 N개의 특징점과 M개의 엣지 영역을 포함하도록 유도함과 동시에 상기 피사체와 카메라렌즈 사이의 촬영거리를 상기 기준촬영거리 미만의 '-' 거리에서 상기 기준촬영거리 이상의 '+' 거리로 '+' 방향 이격시키도록 유도하거나 상기 촬영거리를 상기 기준촬영거리 이상의 '+' 거리에서 상기 기준촬영거리 미만의 '-' 거리로 '-' 방향 이격시키도록 유도하는 인터페이스를 표시하는 제2 단계;
상기 앱이 상기 자동초점 기능이 비활성화되고 상기 카메라렌즈와 이미지센서 간 초점거리가 상기 기준초점거리로 설정된 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 F(F≥2)개의 프레임 화상정보를 판독하여 n(2≤n≤N)개의 특징점과 m(1≤n≤M)개의 엣지 영역을 인식하는 제3 단계;
상기 앱이 상기 영상정보의 '+' 방향 또는 '-' 방향 이격 중에 상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내의 최소값으로 감소한 '0' 시점에 대응하는 적어도 f(1≤f<F)개의 프레임 화상정보를 통해 인식된 n개의 특징점 간 거리를 산출하는 제4 단계; 및
상기 앱이 상기 기준초점거리와 기준촬영거리 사이의 관계를 근거로 상기 인식된 n개의 특징점 간 거리에 대응하는 피사체 상의 실제 n개의 특징점 간 실제거리의 수치를 산출하는 제5 단계;를 포함하는 카메라를 이용한 수치 계측 방법.
In the method of being executed through the app of the wireless terminal equipped with a camera module,
The app sets the focal length between the camera lens and the image sensor of the camera module to the reference focal length corresponding to the specified reference shooting distance between the camera lens and the subject, and disables the auto-focus function of the camera module or sets the inactive state a first step of maintaining;
The app directs the gaze direction of the camera lens to a subject having N (N≥2) feature points that can calculate the mutual distance and M (M≥1) edge areas that can check focus, so that within the angle of view Inducing to include the N feature points and M edge areas, and at the same time changing the shooting distance between the subject and the camera lens from a '-' distance less than the reference shooting distance to a '+' distance greater than the reference shooting distance in a '+' direction a second step of displaying an interface for inducing separation or inducing the shooting distance to be spaced apart in a '-' direction from a '+' distance greater than the reference shooting distance to a '-' distance less than the reference shooting distance;
F (F≥2) frame image information included in the image information to be buffered when the app is input through the camera module in which the auto-focus function is deactivated and the focal length between the camera lens and the image sensor is set as the reference focal length a third step of recognizing n (2≤n≤N) feature points and m (1≤n≤M) edge regions by reading;
The app corresponds to the '0' point in time when the blur ratio of the m edge regions included in the image information is reduced to a minimum value within a specified reference value while the app is spaced apart in the '+' direction or the '-' direction of the image information. a fourth step of calculating a distance between n feature points recognized through f (1≤f<F) frame image information; and
A fifth step of calculating, by the app, the numerical value of the actual distance between the n feature points on the subject corresponding to the recognized distance between the n feature points based on the relationship between the reference focal length and the reference shooting distance; a camera comprising a Numerical measurement method using
제 1항에 있어서,
둘 이상의 특징점 간 실제거리의 수치가 산출된 경우,
상기 앱이 실제거리의 수치가 산출된 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계;
상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계; 및
상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 1,
When the numerical value of the actual distance between two or more feature points is calculated,
setting, by the app, at least two or more feature points among the feature points for which the numerical value of the actual distance is calculated as a reference feature point, and setting the actual distance between the reference feature points as a reference distance;
Recognizing, by the app, T (T≥2) measurement target feature points among feature points formed in the vicinity of the reference feature point; and
Calculating, by the app, a numerical value of the actual distance between the T measurement target feature points by using the actual distance between the reference feature points as a reference distance; Numerical measurement method using a camera, characterized in that it further comprises.
◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 3 was abandoned when paying the registration fee.◈ 제 2항에 있어서, 상기 T개의 계측대상 특징점은,
상기 기준 특징점을 포함하는 프레임 화상정보와 동일한 프레임 화상정보에 포함된 특징점을 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method according to claim 2, wherein the T feature points to be measured are:
Numerical measurement method using a camera, characterized in that the frame image information including the reference feature point and the feature point included in the same frame image information are included.
◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 4 was abandoned when paying the registration fee.◈ 제 2항에 있어서, 상기 T개의 계측대상 특징점은,
상기 기준 특징점 중 적어도 하나의 특징점을 포함 가능한 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method according to claim 2, wherein the T feature points to be measured are:
Numerical measurement method using a camera, characterized in that it can include at least one feature point among the reference feature points.
◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 5 was abandoned when paying the registration fee.◈ 제 2항에 있어서,
상기 T개의 계측대상 특징점 간 실제거리의 수치가 산출된 경우,
상기 앱이 상기 T개의 계측대상 특징점 중 적어도 t(2≤t≤T)개의 특징점을 기준 특징점으로 재이용 설정하거나 상기 t개의 계측대상 특징점 간 실제거리를 기준거리로 재이용 설정하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
3. The method of claim 2,
When the numerical value of the actual distance between the T measurement target feature points is calculated,
The app reuses at least t (2≤t≤T) feature points among the T feature points to be measured as reference feature points, or sets the actual distance between the t feature points to be measured again as a reference distance. Numerical measurement method using a camera, characterized in that.
제 1항에 있어서,
적어도 p(p≥3)개의 특징점을 연결하여 형성되는 적어도 둘 이상의 실제거리를 포함하는 p개의 특징점 간 실제거리가 산출된 경우,
상기 앱이 상기 p개의 특징점 간 실제거리와 상기 p개의 특징점 간의 거리관계와 상기 p개의 특징점들이 형성하는 각도관계를 포함하여 상기 p개의 특징점 간의 고유한 기하학 관계를 판별하는 기준 기하학 관계정보를 생성하는 단계; 및
상기 앱이 상기 생성된 기준 기하학 관계정보를 지정된 저장영역에 저장하여 관리하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 1,
When the actual distance between p features including at least two or more real distances formed by connecting at least p (p≥3) feature points is calculated,
The app generates reference geometric relationship information for determining a unique geometric relationship between the p feature points, including the actual distance between the p feature points, the distance relationship between the p feature points, and the angular relationship formed by the p feature points step; and
Numerical measurement method using a camera, characterized in that it further comprises; storing and managing, by the app, the generated reference geometric relationship information in a designated storage area.
◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 7 was abandoned at the time of payment of the registration fee.◈ 제 6항에 있어서, 상기 거리관계는,
상기 p개의 특징점을 연결한 둘 이상 직선의 상대적 길이정보와,
상기 p개의 특징점을 연결한 둘 이상 직선의 거리 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 6, wherein the distance relationship is
Relative length information of two or more straight lines connecting the p feature points,
Numerical measurement method using a camera, characterized in that it includes at least one of distance-related vector component information of two or more straight lines connecting the p feature points.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned when paying the registration fee.◈ 제 6항에 있어서, 상기 각도관계는,
상기 p개의 특징점을 연결한 둘 이상 직선이 형성하는 각도정보와,
상기 p개의 특징점을 연결한 둘 이상 직선의 방향 관련 벡터성분정보 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method according to claim 6, wherein the angular relationship is
Angle information formed by two or more straight lines connecting the p feature points,
Numerical measurement method using a camera, characterized in that it comprises at least one of direction-related vector component information of two or more straight lines connecting the p feature points.
◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 9 was abandoned at the time of payment of the registration fee.◈ 제 6항에 있어서,
지정된 저장영역에 상기 기준 기하학 관계정보가 저장된 후 상기 카메라모듈을 통해 입력되는 영상정보에 포함된 적어도 q(q≥3)개의 특징점이 인식된 경우,
상기 앱이 상기 인식된 q개의 특징점 간의 거리관계와 각도관계를 포함하는 기하학 관계정보를 인식하는 단계;
상기 앱이 지정된 저장영역에 저장된 하나 이상의 기준 기하학 관계정보와 상기 인식된 q개의 특징점 간의 기하학 관계정보를 비교하여 상기 q개의 특징점 간의 기하학 관계정보와 허용된 오차 범위 내에서 매칭되는 어느 한 기준 기하학 관계정보를 확인하는 단계; 및
상기 매칭된 기준 기하학 관계정보를 확인한 경우, 상기 앱이 상기 매칭된 기준 기하학 관계정보에 포함된 p개의 특징점 간 실제거리를 이용하여 상기 인식된 q개의 특징점 중 적어도 둘 이상의 특징점 간 실제거리를 결정하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
7. The method of claim 6,
When at least q (q≥3) feature points included in the image information input through the camera module are recognized after the reference geometrical relationship information is stored in a designated storage area,
Recognizing, by the app, geometric relationship information including a distance relationship and an angle relationship between the recognized q feature points;
The app compares one or more reference geometric relationship information stored in a designated storage area with geometric relationship information between the recognized q feature points, and any reference geometric relationship that matches the geometric relationship information between the q feature points within an allowed error range verifying the information; and
When the matched reference geometric relationship information is confirmed, the app determines the actual distance between at least two or more of the recognized q feature points by using the actual distance between the p feature points included in the matched reference geometric relationship information Step; Numerical measurement method using a camera, characterized in that it further comprises.
◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 10 was abandoned when paying the registration fee.◈ 제 9항에 있어서,
상기 앱이 상기 인식된 q개의 특징점이나 상기 확인된 기준 기하학 관계정보에 포함된 p개의 특징점 중 적어도 둘 이상의 특징점을 기준 특징점으로 설정하고 상기 설정된 기준 특징점 간의 실제거리를 기준거리로 설정하는 단계;
상기 앱이 상기 기준 특징점의 근처에 형성된 특징점 중 T(T≥2)개의 계측대상 특징점을 인식하는 단계; 및
상기 앱이 상기 기준 특징점 간의 실제거리를 기준거리로 이용하여 상기 T개의 계측대상 특징점 간 실제거리의 수치를 산출하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
10. The method of claim 9,
setting, by the app, at least two or more of the recognized q feature points or p feature points included in the confirmed reference geometric relationship information as a reference feature point, and setting the actual distance between the set reference feature points as a reference distance;
Recognizing, by the app, T (T≥2) measurement target feature points among feature points formed in the vicinity of the reference feature point; and
Calculating, by the app, a numerical value of the actual distance between the T measurement target feature points by using the actual distance between the reference feature points as a reference distance; Numerical measurement method using a camera, characterized in that it further comprises.
◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 11 was abandoned when paying the registration fee.◈ 제 9항에 있어서,
상기 매칭된 기준 기하학 관계정보를 확인하지 못한 경우, 상기 앱이 상기 N개의 특징점과 M개의 엣지 영역을 인식하도록 유도하거나 상기 피사체와 카메라렌즈 사이의 촬영거리를 '+' 방향 이격하거나 '-' 방향 이격하도록 유도하는 인터페이스를 표시하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
10. The method of claim 9,
If the matched reference geometry relationship information is not confirmed, the app is induced to recognize the N feature points and M edge areas, or the shooting distance between the subject and the camera lens is spaced apart in the '+' direction or in the '-' direction. Numerical measurement method using a camera, characterized in that it comprises the step of processing to display the interface inducing the separation.
제 1항에 있어서, 상기 기준초점거리는,
상기 카메라렌즈와 피사체 간 촬영거리가 상기 기준촬영거리인 경우에 상기 피사체를 가장 초점화하는 초점거리인 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the reference focal length,
When the photographing distance between the camera lens and the subject is the reference photographing distance, the numerical measurement method using a camera, characterized in that it is a focal length that brings the subject into focus.
제 1항에 있어서, 상기 기준촬영거리는,
상기 카메라렌즈와 이미지 센서 간 초점거리가 상기 기준초점거리인 경우에 상기 피사체를 가장 초점화하는 초점거리인 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 1, wherein the reference shooting distance,
Numerical measurement method using a camera, characterized in that when the focal length between the camera lens and the image sensor is the reference focal length, the focal length of the subject is the most focused.
제 1항에 있어서,
상기 앱이 상기 무선단말의 기종이나 상기 무선단말에 탑재된 카메라모듈에 대하여 상기 카메라모듈의 이미지 센서를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 확인 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 1,
The app converts the specified unit pixel distance on the pixel area of the image information obtained through the image sensor of the camera module with respect to the model of the wireless terminal or the camera module mounted on the wireless terminal into an actual distance in a specified metrological unit. Numerical measurement method using a camera, characterized in that it further comprises a confirmation step of confirming the information.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서, 상기 N개의 특징점은,
상기 카메라모듈을 통해 입력되는 영상정보 내의 픽셀영역 중 색상, 명암, 채도 중 하나 이상의 값이 인접한 영역의 값보다 지정된 기준값 이상 차이가 발생하는 점 영역, 선 영역, 면 영역 중 적어도 하나의 영역을 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the N feature points,
At least one of a point region, a line region, and a plane region in which one or more values of color, contrast, and saturation among pixel regions in the image information input through the camera module differ by more than a specified reference value from values of adjacent regions Numerical measurement method using a camera, characterized in that made by.
◈청구항 20은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 20 was abandoned when paying the registration fee.◈ 제 1항에 있어서, 상기 N개의 특징점은,
지정된 허용 오차 범위 내에서 상기 카메라렌즈의 시선방향과 직교 관계를 형성하는 가상의 평면 영역에 형성된 특징점, 또는
지정된 허용 오차 범위 내에서 상기 카메라렌즈의 이미지 센서부의 센서영역과 평행 관계를 형성하는 가상의 평면 영역에 형성된 특징점을 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the N feature points,
A feature point formed in an imaginary planar area forming an orthogonal relationship with the gaze direction of the camera lens within a specified tolerance range, or
Numerical measurement method using a camera, characterized in that it comprises a feature point formed in a virtual plane region forming a parallel relationship with the sensor region of the image sensor unit of the camera lens within a specified tolerance range.
삭제delete 제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 피사체 상의 N개의 특징점을 형성한 면과 상기 카메라렌즈의 시선방향 사이에 직교 관계를 형성하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
Numerical measurement method using a camera, characterized in that the app further comprises the step of displaying an interface that induces to form an orthogonal relationship between the surface on which the N feature points on the subject are formed and the gaze direction of the camera lens.
제 1항에 있어서, 상기 제2 단계는,
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 영상정보에 포함된 지정 개수의 프레임을 판독하여 n개의 특징점과 m개의 엣지 영역을 인식하는데 소요되는 소요 시간 이내에 지정된 이격 거리 이내로 이동하는 지정된 이격 속도로 이격하도록 유도하는 인터페이스를 표시하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the second step,
The app reads a specified number of frames included in the image information input and buffered through the camera module and moves within the specified separation distance within the time required to recognize n feature points and m edge regions at a specified separation speed Numerical measurement method using a camera, characterized in that it further comprises the step of displaying an interface to induce separation.
삭제delete 삭제delete 제 1항에 있어서, 상기 제3 단계는,
상기 앱이 상기 카메라모듈을 통해 입력되어 버퍼링되는 F개의 프레임 중 제i(1≤f<F) 프레임 화상정보에 포함된 적어도 하나의 특징점 간 픽셀거리와 제j(i<j≤F) 프레임 화상정보에 포함된 동일한 특징점 간 픽셀거리를 비교하여 상기 특징점 간 픽셀거리가 증가하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '+' 방향 이격하는 영상정보로 확인하고 상기 특징점 간 픽셀거리가 감소하는 경우에 상기 카메라모듈을 통해 입력되는 영상정보를 '-' 방향 이격되는 영상정보로 확인하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the third step,
The pixel distance and the j (i<j≤F) frame image and the pixel distance between at least one feature point included in the i (1≤f<F) frame image information among F frames that the app is inputted through the camera module and buffered When the pixel distance between the feature points increases by comparing the pixel distance between the same feature points included in the information, the image information input through the camera module is identified as image information spaced apart in the '+' direction, and the pixel distance between the feature points is decreased. In the case of a numerical measurement method using a camera, comprising the step of confirming the image information input through the camera module as image information spaced apart in the '-' direction.
제 1항에 있어서,
상기 앱이 상기 무선단말에 탑재된 카메라모듈의 이미지 센서부를 통해 획득되는 화상정보의 픽셀영역 상의 지정된 단위 픽셀거리를 지정된 도량형 단위의 실제거리로 환산하는 환산정보를 확인하는 단계를 더 포함하며,
상기 제4 단계는,
상기 앱이 상기 f개의 화상정보에 존재하는 n개의 특징점 간 픽셀거리를 산출하는 단계; 및
상기 앱이 상기 환산정보를 이용하여 n개의 특징점 간 픽셀거리를 지정된 도량형 단위의 n개의 특징점 간 거리로 환산하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 1,
Further comprising the step of confirming conversion information for converting the designated unit pixel distance on the pixel area of the image information obtained through the image sensor unit of the camera module mounted on the wireless terminal by the app to the actual distance of the designated metrological unit,
The fourth step is
calculating, by the app, a pixel distance between n feature points present in the f pieces of image information; and
converting, by the app, the pixel distance between n feature points to the distance between n feature points in a specified metrological unit using the conversion information; Numerical measurement method using a camera, comprising: a.
◈청구항 28은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 28 was abandoned when paying the registration fee.◈ 제 27항에 있어서, 상기 환산정보는,
상기 픽셀영역 상의 지정된 단위 픽셀거리를 상기 이미지 센서부의 센서셀 사이의 실제거리로 환산하는 정보를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
The method of claim 27, wherein the conversion information,
and information for converting a specified unit pixel distance on the pixel area into an actual distance between sensor cells of the image sensor unit.
제 1항에 있어서, 상기 제4 단계는,
상기 영상정보에 포함된 m개의 엣지 영역의 블러(Blur) 비율이 지정된 기준값 이내로 감소하지 않는 경우 상기 카메라모듈의 자동초점 기능을 활성화하고 상기 피사체에 대한 자동초점을 시도하여 자동초점맞춤된 자동초점거리를 확인하는 단계; 및
이전 설정된 기준촬영거리와 기준초점거리를 상기 확인된 자동초점거리에 대응하면서 상기 카메라모듈의 초점거리와 촬영거리의 관계에 대응하는 새로운 기준촬영거리와 기준초점거리로 보정하여 재설정하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the fourth step,
When the blur ratio of the m edge areas included in the image information does not decrease within a specified reference value, the auto focus function of the camera module is activated and auto focus is attempted on the subject to auto focus distance. to confirm; and
Compensating and resetting the previously set reference shooting distance and reference focal length to a new reference shooting distance and reference focal length corresponding to the relationship between the focal length and the shooting distance of the camera module while corresponding to the confirmed auto focus distance; Numerical measurement method using a camera, characterized in that it comprises.
◈청구항 30은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 30 was abandoned at the time of payment of the registration fee.◈ 제 29항에 있어서,
상기 기준촬영거리와 기준초점거리를 보정한 후 상기 카메라모듈의 자동초점 기능을 비활성화하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
30. The method of claim 29,
Numerical measurement method using a camera, characterized in that it further comprises the step of deactivating the auto-focus function of the camera module after correcting the reference shooting distance and the reference focal length.
제 1항에 있어서, 상기 제4 단계는,
상기 '0' 시점에 대응하는 둘 이상의 프레임 화상정보에 존재하는 둘 이상의 n개의 특징점 간 거리를 산출한 경우, 상기 앱이 상기 산출된 둘 이상의 n개의 특징점 간 거리를 통계처리하여 지정된 오차 범위의 n개의 특징점 간 거리를 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 카메라를 이용한 수치 계측 방법.
According to claim 1, wherein the fourth step,
When the distance between two or more n feature points existing in the image information of two or more frames corresponding to the '0' point is calculated, the app statistically processes the calculated distance between the two or more n feature points, n of a specified error range Numerical measurement method using a camera, characterized in that it comprises the step of calculating the distance between the feature points.
KR1020170128492A 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Camera KR102401914B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170128492A KR102401914B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170128492A KR102401914B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Camera

Publications (2)

Publication Number Publication Date
KR20190038966A KR20190038966A (en) 2019-04-10
KR102401914B1 true KR102401914B1 (en) 2022-05-27

Family

ID=66163907

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170128492A KR102401914B1 (en) 2017-10-02 2017-10-02 Method for Measuring Numerical Value by using Camera

Country Status (1)

Country Link
KR (1) KR102401914B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511016B1 (en) * 2022-11-15 2023-03-16 (주)비씨앤컴퍼니 Apparatus and method for recognizing absolute distance in image taken with general optical device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011058854A (en) 2009-09-07 2011-03-24 Sharp Corp Portable terminal
CN105627926B (en) 2016-01-22 2017-02-08 尹兴 Four-camera group planar array feature point three-dimensional measurement system and measurement method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000012428U (en) * 1998-12-17 2000-07-05 신현준 Image measuring device for measuring cylindrical specimen
WO2016091545A1 (en) * 2014-12-09 2016-06-16 Fotonation Limited Image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011058854A (en) 2009-09-07 2011-03-24 Sharp Corp Portable terminal
CN105627926B (en) 2016-01-22 2017-02-08 尹兴 Four-camera group planar array feature point three-dimensional measurement system and measurement method

Also Published As

Publication number Publication date
KR20190038966A (en) 2019-04-10

Similar Documents

Publication Publication Date Title
KR102441716B1 (en) Facial recognition authentication system including path parameters
KR102158233B1 (en) Method for Providing Augmented Make-up Service
CN106716451B (en) Iris recognition device and manufacturing method and application thereof
KR102522415B1 (en) Apparatus and method for recognizing object in electronic device
JP2018032222A (en) Portable apparatus, authentication method and authentication program
CN109522783B (en) Personal identity verification system and method for verifying personal identity
KR102401914B1 (en) Method for Measuring Numerical Value by using Camera
KR20190024861A (en) Method for Providing Glasses Fitting Service by using Augmented Reality
KR102401575B1 (en) Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
US20220207947A1 (en) Personal identity verification system and method for verifying the identity of an individual
KR20190041289A (en) Method for Measuring Numerical Value by using Automatic Focussing Function of Camera
KR20200050095A (en) Method for Providing Wearing Service by Using Augment Reality
KR20200028515A (en) Method for Registering Camera Device
KR101937327B1 (en) Method for Providing Augmented Glasses Service
KR20190041295A (en) Method for Measuring Numerical Value by using Camera
KR102195456B1 (en) Method for Executing Function of Mobile Terminal by Using Facial Recognition
KR20190085809A (en) Method for Providing Augmented Bracelet Service
KR20190085811A (en) Method for Providing Augmented Ring Service
WO2008004436A1 (en) Iris authenticating system
KR102285156B1 (en) Method for Auto-changing the Screen Size of Mobile Terminal
KR20190024470A (en) Method for Providing Augmented Hat Service
KR102597951B1 (en) Method for Providing Optical Stamp
JP2009223786A (en) Face authentication system using binocular imaging device
KR20190085813A (en) Method for Providing Augmented Hair Style Service
KR101402212B1 (en) Near field communication device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right