KR101967554B1 - Method for measuring spatial information using index line and apparatus thereof - Google Patents

Method for measuring spatial information using index line and apparatus thereof Download PDF

Info

Publication number
KR101967554B1
KR101967554B1 KR1020170161793A KR20170161793A KR101967554B1 KR 101967554 B1 KR101967554 B1 KR 101967554B1 KR 1020170161793 A KR1020170161793 A KR 1020170161793A KR 20170161793 A KR20170161793 A KR 20170161793A KR 101967554 B1 KR101967554 B1 KR 101967554B1
Authority
KR
South Korea
Prior art keywords
distance
intersection point
polygonal
determining
polygonal shape
Prior art date
Application number
KR1020170161793A
Other languages
Korean (ko)
Other versions
KR20180116738A (en
Inventor
정치영
우태련
백은림
정진환
Original Assignee
부산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부산대학교 산학협력단 filed Critical 부산대학교 산학협력단
Publication of KR20180116738A publication Critical patent/KR20180116738A/en
Application granted granted Critical
Publication of KR101967554B1 publication Critical patent/KR101967554B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Abstract

지시선을 이용하여 공간 정보를 측정하기 위한 방법, 그 방법을 이용한 장치가 개시된다. 일 실시예에 따른 측정 방법은 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계, 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계, 및 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다. 이 때, 상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응할 수 있다.A method for measuring spatial information using a leader and an apparatus using the method are disclosed. According to an embodiment of the present invention, there is provided a measuring method comprising the steps of projecting a polygonal leader line onto a first object and a second object, projecting the polygonal leader line onto the first object and the second object, The method of claim 1, further comprising: extracting a plurality of trend lines corresponding to a first side of a plurality of sides constituting the polygonal shape based on the photographed image, Extracting a first intersection corresponding to a boundary of the first object and a second intersection corresponding to a boundary of the second object on the basis of the first intersection and the second intersection, And determining a distance between the second objects. At this time, the first intersection point and the second intersection point may correspond to inflection points generated by projecting the first side at a certain angle not perpendicular to the first object and the second object.

Description

지시선을 이용하여 공간 정보를 측정하기 위한 방법, 그 방법을 이용한 장치{METHOD FOR MEASURING SPATIAL INFORMATION USING INDEX LINE AND APPARATUS THEREOF}[0001] METHOD FOR MEASURING SPATIAL INFORMATION USING INDEX LINE AND APPARATUS THEREOF [0002]

아래 실시예들은 지시선을 이용하여 공간 정보를 측정하기 위한 방법, 그 방법을 이용한 장치에 관한 것이다.The following embodiments relate to a method for measuring spatial information using a leader and to an apparatus using the method.

두 물체간의 거리를 측정하는 방법은 크게 네 가지로 구분되는데 첫 번째는 자와 같은 기준이 되는 물리적 척도를 이용하여 거리는 측정하는 것이고, 두 번째는 하나의 물체에서 다른 물체로 레이저 등의 신호를 송출하고, 물체의 표면에서 반사되어 돌아오는 반사파를 측정하는 것이다. 이 때, 송출 시간과 수신 시간 간의 차를 송출파의 속도를 이용하여 거리를 측정할 수 있다. 세 번째로 최근 활용되는 GPS를 이용한 위성 거리 측정 방법이 있다. GPS를 이용한 방법은 $GPGGA 형식의 경우 위도, 경도뿐만 아니라 고도에 대한 정보를 포함하고 있어, 이를 이용한 구조물의 수직변위 계측이 가능하다. 그러나, 교량 구조물에 적용할 수 있을 정도로 높은 정확도를 갖는 장비는 고가인 경우가 대부분이다. 따라서, 현장 적용 시 비용 부담이 크다는 단점이 있다. 또한 1m 이내의 가까운 거리에 있는 물체들 간의 거리 측정에는 정확도가 떨어지는 단점이 있다.The distance between two objects can be divided into four categories. First, the distance is measured using a physical scale that is the same as the first. Second, a laser or other signal is transmitted from one object to another , And the reflected wave reflected from the surface of the object is measured. At this time, the distance between the transmission time and the reception time can be measured using the transmission wave speed. Third, there is a satellite distance measurement method using GPS which is used recently. In the case of $ GPGGA format, the method using GPS includes information on latitude and longitude as well as altitude, and it is possible to measure the vertical displacement of the structure using it. However, most of the equipment with high accuracy that can be applied to bridge structures is expensive. Therefore, there is a disadvantage that the cost is high when applied to the field. In addition, there is a disadvantage in that the accuracy of measurement of the distance between objects within a distance of 1m is low.

마지막으로, 대상물에 레이저를 투사한 후 영상 분석을 통하여 대상물 간의 거리를 측정하는 방식이 있다. 일직선의 레이저 선을 대상물에 투사한 후 투사된 레이저의 빛의 강도를 분석하여 빛의 강도가 낮은 곳을 균열로 인식하고, 그 구간의 길이를 디지털 사진 상의 픽셀 정보에서 실제 공간에서의 거리 값으로 환산하여 균열 폭 크기를 산출할 수 있다. 하지만, 이 방법에서는 레이저 투사각과 물체 표면이 수직을 이루고 있어야 하기 때문에 카메라와 레이저의 설치 조건에 따라 정확도가 떨어질 수 있고, 빛의 강도라는 하나의 인자만을 이용하기 때문에 오차 범위가 비교적 클 수 있는 단점이 있다.Finally, there is a method of measuring the distance between objects by projecting a laser to the object and then performing image analysis. After projecting a straight line of laser beam onto the object, the light intensity of the projected laser is analyzed to recognize the lower intensity of the light as a crack, and the length of the section is calculated from the pixel information on the digital photograph The crack width size can be calculated. However, in this method, since the laser projection angle and the surface of the object must be perpendicular to each other, the accuracy can be deteriorated according to the installation conditions of the camera and the laser, and the error range can be relatively large because only one factor of light intensity is used .

관련된 선행특허로는 영상입력에 의한 구조물의 균열 탐지장치 및 방법에 관한 한국공개특허 제10-2004-0020261호가 있다.Related prior patents are Korean Patent Laid-Open No. 10-2004-0020261 on an apparatus and method for crack detection of a structure by image input.

아래 실시예들은 지시선을 이용하여 공간 정보를 낮은 비용으로 정확하게 측정하는 것에 그 목적이 있다.The embodiments below are intended to accurately measure spatial information at low cost using a leader.

일 실시예에 따르면, 측정 방법은 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계; 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계; 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다.According to one embodiment, the measuring method includes projecting a polygonal leader to the first object and the second object; Photographing the first object and the second object in a state in which the polygonal leader line is projected on the first object and the second object to obtain a captured image; Extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape based on the captured image; Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being Corresponding to inflection points generated by projecting one side at a certain angle not perpendicular to the first object and the second object; And determining a distance between the first object and the second object based on the first intersection point and the second intersection point.

상기 다각형 형상의 지시선을 상기 제1 대상물 및 상기 제2 대상물에 투사하는 단계는 상기 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선을 투사하는 단계를 포함할 수 있고, 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계는 상기 서로 다른 색상에서 상기 제1 변을 나타내는 색상을 식별하여 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계를 포함할 수 있다.Projecting the polygonal leader lines to the first object and the second object may include projecting a leader line of different colors on each of the plurality of sides constituting the polygonal shape, Extracting a plurality of trend lines corresponding to the first side by identifying colors representing the first side in the different colors.

상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계는 상기 제1 교차점 및 상기 제2 교차점 간의 거리, 및 참조 다각형에서 상기 제1 변에 대응하는 변의 길이를 비교하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the distance between the first object and the second object includes comparing the distance between the first intersection point and the second intersection point and the length of the side corresponding to the first side in the reference polygon, Determining a distance between the first object and the second object.

상기 측정 방법은 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 거리를 결정하는 단계를 더 포함할 수 있다.The measuring method may further include determining an imaging distance based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape.

상기 촬영 거리를 결정하는 단계는 상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the photographing distance includes determining a reference photographing distance at which the reference polygon is formed and a reference photographing distance at which at least one of the plurality of sides constituting the polygonal shape is formed when the inside angles of the polygonal- And determining the photographing distance based on a ratio between the lengths of at least one of the plurality of sides constituting the reference polygon.

상기 측정 방법은 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 각도를 결정하는 단계를 더 포함할 수 있다.The measuring method may further include determining an imaging angle based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape.

상기 촬영 각도를 결정하는 단계는 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 어느 하나, 및 상기 다각형 형상의 내각들 중 적어도 하나 및 참조 다각형의 내각들 중 적어도 하나 간의 비율에 기초하여 상기 촬영 각도를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the photographing angle includes determining a ratio between a length of at least one of the plurality of sides constituting the polygonal shape and a length of at least one of a plurality of sides constituting the reference polygon, And a ratio between at least one of the internal angles of the reference polygon and at least one of the internal angles of the polygonal shape and the ratio between the lengths of the two sides facing each other in the rotation direction of the camera Step < / RTI >

다른 일 실시예에 따르면, 측정 방법은 직선 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계; 상기 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 직선 형상에 대응하는 복수의 추세선들을 추출하는 단계; 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 직선 형상이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다.According to another embodiment, the measuring method includes the steps of projecting a straight-line leader to the first object and the second object; Capturing the first object and the second object in a state in which the leader is projected onto the first object and the second object to obtain a captured image; Extracting a plurality of trend lines corresponding to the straight line shape based on the photographed image; Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being straight lines Corresponding to inflection points caused by projecting a shape at an angle that is not perpendicular to the first object and the second object; And determining a distance between the first object and the second object based on the first intersection and the second intersection.

또 다른 일 실시예에 따르면, 측정 방법은 다각형 형상의 지시선을 대상물에 투사하는 단계; 상기 다각형 형상의 지시선이 상기 대상물에 투사된 상태에서 상기 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들의 길이 및 상기 다각형 형상의 내각들 중 적어도 하나를 나타내는 제1 정보를 산출하는 단계; 참조 다각형을 구성하는 복수의 변들의 길이 및 상기 참조 다각형의 내각들 중 적어도 하나를 나타내는 제2 정보를 획득하는 단계; 및 상기 제1 정보 및 상기 제2 정보를 비교하여 촬영 거리 및 촬영 각도 중 적어도 하나를 결정하는 단계를 포함한다.According to another embodiment, the measuring method includes the steps of projecting a polygonal leader line onto an object; Capturing an image of the object in a state in which the polygonal leader line is projected on the object to obtain a captured image; Calculating first information representing at least one of the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographed image; Obtaining second information representing at least one of the lengths of the plurality of sides constituting the reference polygon and the internal angles of the reference polygon; And comparing at least one of the shooting distance and the shooting angle by comparing the first information and the second information.

일 실시예에 따르면, 측정 장치는 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 투사부; 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 생성하는 카메라; 및 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하고, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하고-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-, 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 영상 처리부를 포함한다.According to one embodiment, the measuring apparatus includes a projection unit that projects a polygonal leader line to the first object and the second object; A camera for photographing the first object and the second object in a state in which the polygonal leader line is projected onto the first object and the second object to generate a photographed image; And extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape on the basis of the photographed image, and based on the plurality of trend lines, And a second intersection point corresponding to a boundary of the second object, the first intersection point and the second intersection point being projected at a certain angle not perpendicular to the first object and the second object, And an image processing unit for determining a distance between the first object and the second object based on the first intersection point and the second intersection point.

아래 실시예들에 따르면 공간 정보를 낮은 비용으로 정확하게 측정할 수 있다.According to the embodiments described below, spatial information can be accurately measured at low cost.

도 1은 일 실시예에 따른 지시선을 이용하는 측정 장치를 나타낸 도면.
도 2는 일 실시예에 따른 지시선의 투사 각도 및 이에 따른 지시선의 형상을 나타낸 도면.
도 3은 대상물에 관한 수직 방향으로 투사된 지시선을 나타낸 도면.
도 4 및 도 5는 일 실시예에 따라 수평하지 않게 투사된 지시선 및 이에 기초한 추세선을 나타낸 도면.
도 6은 일 실시예에 따른 촬영 거리를 결정하는 과정을 나타낸 도면.
도 7은 일반적인 상대 공간 정보의 측정 과정을 나타낸 도면.
도 8 및 도 9는 일 실시예에 따른 촬영 각도를 결정하는 과정을 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 shows a measuring device using a leader according to an embodiment.
Fig. 2 is a view showing the projection angle of the leader line and the shape of the leader line according to the embodiment. Fig.
3 is a view showing a leader projected in a vertical direction with respect to an object;
Figures 4 and 5 are diagrams illustrating a leader line projected horizontally and a trend line based thereon according to one embodiment.
FIG. 6 illustrates a process of determining an imaging distance according to an exemplary embodiment; FIG.
7 is a diagram illustrating a process of measuring general relative space information.
8 and 9 are diagrams illustrating a process of determining an angle of view according to an embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 지시선을 이용하는 측정 장치를 나타낸 도면이다. 도 1을 참조하면, 일 실시예에 따른 측정 장치(100)는 투사부(110), 카메라(120) 및 영상 처리부(130)를 포함한다.1 is a view showing a measuring apparatus using a leader according to an embodiment. Referring to FIG. 1, a measuring apparatus 100 according to an exemplary embodiment includes a projection unit 110, a camera 120, and an image processing unit 130.

투사부(110)는 일정한 형상의 지시선을 대상물에 투사할 수 있다. 일정한 형상은 다각형 형상 및 직선 형상 등의 다양한 형상을 포함할 수 있다. 투사부(110)는 복수의 투사 소자들을 포함할 수 있다. 각 투사 소자는 대상물에 직선 형상의 지시선이 나타나도록 레이저를 투사할 수 있다. 복수의 투사 소자들에 의해 다수의 직선이 대상물에 투사됨에 따라 대상물에 다각형 형상의 지시선이 나타날 수 있다.The projection unit 110 can project a predetermined shape of the leader to the object. The constant shape may include various shapes such as a polygonal shape and a straight shape. The projection unit 110 may include a plurality of projection elements. Each projection element can project a laser so that a straight line-shaped leader line appears on the object. As a plurality of straight lines are projected on the object by the plurality of projection elements, a polygonal leader line may appear on the object.

각 투사 소자가 투사하는 선의 굵기, 색상 및 투사 각도는 각 투사 소자 별로 독립적으로 조절될 수 있다. 예를 들어, 대상물에 다각형 형상의 지시선이 투사되는 경우, 다각형 형상의 각 변의 길이, 굵기, 색상 및 투사 각도가 서로 다르게 조절될 수 있다. 투사부(110)는 투사부(110)에 마련된 제어 인터페이스를 통해 제어되거나, 영상 처리부(130)의 명령에 따라 제어될 수 있다.The thickness, color, and projection angle of the line projected by each projection element can be adjusted independently for each projection element. For example, when a polygonal leader line is projected on an object, the length, thickness, color, and projection angle of each side of the polygonal shape can be adjusted to be different from each other. The projection unit 110 may be controlled through a control interface provided in the projection unit 110 or may be controlled according to an instruction from the image processing unit 130. [

카메라(120)는 지시선이 대상물에 투사된 상태에서 대상물을 촬영할 수 있다. 영상 처리부(130)는 카메라(120)에 의해 촬영된 촬영 영상을 획득할 수 있다. 카메라(120)와 영상 처리부(130) 사이에는 유/무선 통신 연결이 형성될 수 있고, 해당 통신 연결을 통해 촬영 영상이 전송될 수 있다. 영상 처리부(130)는 촬영 영상에 나타난 지시선을 통해 공간 정보를 측정할 수 있다.The camera 120 can shoot an object in a state in which the leader line is projected on the object. The image processing unit 130 can acquire a photographed image photographed by the camera 120. A wired / wireless communication connection may be established between the camera 120 and the image processing unit 130, and a photographed image may be transmitted through the communication connection. The image processing unit 130 can measure spatial information through a leader line displayed on the photographed image.

공간 정보는 대상물들 간의 거리, 촬영 거리 및 촬영 각도를 포함할 수 있으며, 이 중에 촬영 거리 및 촬영 각도는 대상물과 카메라의 상대적인 정보를 나타내므로 상대 공간 정보로 지칭될 수 있다.The spatial information may include the distance between the objects, the shooting distance, and the shooting angle, and the shooting distance and the shooting angle may be referred to as relative space information because they represent relative information of the object and the camera.

대상물들 간의 거리는 도 1에 도시된 제1 대상물 및 제2 대상물 간의 거리를 의미할 수 있다. 예를 들어, 제1 대상물은 제1 표면일 수 있고, 제2 대상물은 제2 표면일 수 있다. 이 경우, 제1 대상물 및 제2 대상물 간의 거리는 제1 표면 및 제2 표면 간에 나타난 균열의 크기에 대응할 수 있다.The distance between the objects may mean the distance between the first object and the second object shown in FIG. For example, the first object may be a first surface, and the second object may be a second surface. In this case, the distance between the first object and the second object may correspond to the magnitude of the crack appearing between the first surface and the second surface.

촬영 거리는 대상물 및 카메라(120) 간의 거리를 나타내고, 촬영 각도는 기준선 및 카메라(120) 간에 형성되는 각도를 나타낸다. 촬영 각도는 수평 방향으로 형성될 수도 있고, 수직 방향으로 형성될 수도 있다. 예를 들어, 카메라(120)가 좌우로 회전하는 경우 촬영 각도는 수평 방향으로 형성될 수 있고, 카메라(120)가 상하로 회전하는 경우 촬영 각도는 수직 방향으로 형성될 수 있다.The photographing distance represents the distance between the object and the camera 120, and the photographing angle represents an angle formed between the reference line and the camera 120. The photographing angle may be formed in a horizontal direction or in a vertical direction. For example, when the camera 120 rotates left and right, the photographing angle can be formed in the horizontal direction, and when the camera 120 rotates up and down, the photographing angle can be formed in the vertical direction.

영상 처리부(130)는 촬영 영상에 나타난 지시선에서 추세선을 추출할 수 있다. 추세선은 지시선의 위치, 방향, 꺾임, 각도 등을 포함하는 지시선의 특징을 대표할 수 있도록 지시선으로부터 추출되며, 공간 정보 측정 시 지시선을 분석하기 위해 이용될 수 있다. 영상 처리부(130)에 의해 추출된 추세선은 도 1에 처리 영상 내에 도시되어 있다.The image processing unit 130 can extract the trend line from the leader line shown in the photographed image. The trend line is extracted from the leader line to represent the characteristics of the leader line including the position, direction, bend, and angle of the leader line, and can be used to analyze the leader line when measuring spatial information. The trend line extracted by the image processing unit 130 is shown in the processed image in Fig.

전술된 것처럼, 각 지시선은 서로 다른 색상을 가질 수 있다. 예를 들어, 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선이 투사될 수 있다. 영상 처리부(130)는 다각형 형상의 지시선의 색상을 통해 복수의 지시선들 중 특정한 지시선을 식별하고, 이로부터 추세선을 추출할 수 있다. 예를 들어, 다각형 형상의 제1 변에 대응하는 지시선이 빨간색인 경우, 영상 처리부(130)는 촬영 영상에 나타난 상기 서로 다른 색상 중 빨간색을 식별하여 제1 변에 대응하는 지시선을 식별하고, 이로부터 추세선을 추출할 수 있다.As described above, each leader may have a different color. For example, indicator lines of different colors may be projected on each of a plurality of sides constituting the polygonal shape. The image processing unit 130 can identify a specific leader among a plurality of leader lines through the color of the leader line of the polygonal shape and extract a trend line therefrom. For example, when the leader line corresponding to the first side of the polygonal shape is red, the image processing unit 130 identifies a leader line corresponding to the first side by identifying red among the different colors represented in the photographed image, The trend line can be extracted from the line.

영상 처리부(130)는 투사부(110)를 제어할 수 있다. 예를 들어, 영상 처리부(130)는 지시선의 길이, 굵기, 색상 및 투사 각도를 조절하기 위한 명령을 투사부(110)에 제공할 수 있다. 이러한 명령은 사용자의 제어에 기초하여 생성될 수 있다.The image processing unit 130 may control the projection unit 110. For example, the image processing unit 130 may provide a command to the projection unit 110 to adjust the length, thickness, color, and projection angle of the leader line. These commands can be generated based on user's control.

영상 처리부(130)는 미리 구축된 다각형 데이터베이스로부터 표준화된 크기 및 내각을 갖는 다각형의 형상에 관한 정보를 획득할 수 있고, 획득된 다각형 형상에 관한 정보에 기초하여 지시선을 투사하도록 투사부(110)를 제어할 수 있다. 이러한 표준화된 다각형은 아래에서 참조 다각형으로 지칭될 수 있다. 측정 장치는 촬영 영상을 통해 촬영된 다각형 및 참조 다각형을 비교하여 공간 정보를 측정할 수 있다.The image processing unit 130 can obtain information on the shape of the polygon having the standardized size and the internal angle from the polygon database constructed in advance and adjust the projection angle of the projection unit 110 to project the leader based on the information about the obtained polygonal shape. Can be controlled. These normalized polygons may be referred to below as reference polygons. The measuring apparatus can measure spatial information by comparing polygons and reference polygons photographed through photographed images.

도 2는 일 실시예에 따른 지시선의 투사 각도 및 이에 따른 지시선의 형상을 나타낸 도면이다. 도 2(a)는 투사부가 대상물에 관한 수직 방향으로 지시선을 투사한 경우를 나타내고, 도 2(b)는 투사부가 대상물에 관해 수직이 아닌 일정한 각도(θ)로 지시선을 투사한 경우를 나타낸다. 도 2(a)의 경우 대상물의 경계(210)를 인식하기에 어려움이 있으나, 도 2(b)의 경우 대상물의 경계(220)가 명확히 인식될 수 있다. 도 2(a)의 경우에 관해서는 도 3을 참조하여 보다 상세하게 설명한다.2 is a view showing a projection angle of a leader according to an embodiment and a shape of a leader according to the projection angle. Fig. 2 (a) shows a case where a leader line is projected in a vertical direction with respect to an object to be projected, and Fig. 2 (b) shows a case where a projected leader line is projected at a certain angle? In FIG. 2 (a), it is difficult to recognize the boundary 210 of the object, but in FIG. 2 (b), the boundary 220 of the object can be clearly recognized. The case of FIG. 2 (a) will be described in more detail with reference to FIG.

도 3은 대상물에 관한 수직 방향으로 투사된 지시선을 나타낸 도면이다. 도 3(a)를 참조하면, 지시선이 대상물에 관한 수직 방향으로 투사되고, 이 상태에서 영상 취득 장치에 의해 촬영 영상이 획득된다. 도 3(b)는 이 상태를 위에서 바라본 것을 나타낸다. 도 3에서는 지시선이 직선 형태로 나타나므로 지시선을 통해 대상물의 경계가 명확히 인식될 수 없다. 예를 들어, 표면 1 및 표면 2 간에서 지시선이 직선 형태를 나타내므로 촬영 영상에서 표면 1의 경계(310)가 명확히 인식될 수 없고, 표면 2 및 표면 3 간에서 지시선이 직선 형태를 나타내므로 촬영 영상에서 표면 3의 경계(320)가 명확히 인식될 수 없다. 표면은 전술된 대상물에 대응할 수 있다.3 is a diagram showing a leader projected in a vertical direction with respect to an object. 3 (a), the leader is projected in the vertical direction with respect to the object, and the captured image is obtained by the image capturing apparatus in this state. Fig. 3 (b) shows this state as viewed from above. In Fig. 3, since the leader line appears in a straight line shape, the boundary of the object can not be clearly recognized through the leader line. For example, since the leader line between the surface 1 and the surface 2 shows a linear shape, the boundary 310 of the surface 1 can not be clearly recognized in the photographed image, and the leader lines between the surface 2 and the surface 3 show a straight line, The boundary 320 of the surface 3 in the image can not be clearly recognized. The surface may correspond to the object described above.

실시예에 따른 투사부는 도 2(b)와 같이 대상물에 관해 수직이 아닌 일정한 각도로 지시선을 투사할 수 있다. 도 2(b)의 경우에 관해서는 도 3 및 도 4를 참조하여 보다 상세하게 설명한다.The projection unit according to the embodiment can project the leader line at a predetermined angle, not perpendicular to the object, as shown in Fig. 2 (b). The case of FIG. 2 (b) will be described in more detail with reference to FIG. 3 and FIG.

도 4 및 도 5는 일 실시예에 따라 수평하지 않게 투사된 지시선 및 이에 기초한 추세선을 나타낸 도면이다. 도 4를 참조하면, 지시선이 대상물에 관해 수직이 아닌 일정한 각도로 투사되고, 이 상태에서 영상 취득 장치에 의해 촬영 영상이 획득된다. 도 4에 도시된 지시선은 다각형 형상의 지시선 중 일부, 예를 들어 사각형 형상의 지시선 중 윗변 및 아랫변을 나타낼 수 있다.FIGS. 4 and 5 are diagrams illustrating leader lines projected non-horizontally according to one embodiment and trend lines based thereon. Referring to Fig. 4, the leader is projected at a certain angle with respect to the object, not at a vertical angle, and the captured image is acquired by the image capturing device in this state. The leader lines shown in Fig. 4 can represent some of the polygonal leader lines, for example, the upper side and the lower side among the leader lines having a rectangular shape.

도 4에서는 지시선에 변곡점들이 발생하므로 대상물의 경계가 명확히 인식될 수 있다. 예를 들어, 표면 1 및 표면 2 간에 지시선의 변곡점(410)이 나타나므로, 측정 장치는 촬영 영상에서 변곡점(410)을 식별하여 표면 1의 경계를 인식할 수 있다. 또한, 표면 2 및 표면 3 간에 지시선의 변곡점(420)이 나타나므로, 측정 장치는 촬영 영상에서 변곡점(420)을 식별하여 표면 3의 경계를 인식할 수 있다.In Fig. 4, since the inflection points are generated in the leader line, the boundaries of the object can be clearly recognized. For example, since the inflection point 410 of the leader line appears between the surface 1 and the surface 2, the measuring apparatus can recognize the inflection point 410 on the photographed image to recognize the boundary of the surface 1. In addition, since the inflection point 420 of the leader line appears between the surface 2 and the surface 3, the measuring apparatus can recognize the boundary of the surface 3 by identifying the inflection point 420 in the photographed image.

측정 장치는 추세선에서 이러한 변곡점들에 대응하는 지점들을 검출할 수 있다. 도 5를 참조하면, 촬영 영상에 나타난 지시선 및 지시선으로부터 추출된 추세선이 도시되어 있다. 측정 장치는 지시선에서 추세선을 추출할 수 있다. 도 5에서 지시선은 세 부분의 선들로 구성되어 있으며, 이들 각각으로부터 추세선들이 추출될 수 있다. 측정 장치는 추출된 추세선들에 기초하여, 변곡점(510)에 대응하는 추세선들의 교차점(515)을 검출할 수 있다. 추세선들은 수학식 1과 같은 1차 방정식, 혹은 더 높은 정확도를 갖는 다차 방정식으로 표현 가능하다. 수학식 1에서 a는 기울기를 나타내고, b는 y절편을 나타내고, i는 추세선의 인덱스를 나타낸다.The measuring device can detect points corresponding to these inflection points on the trend line. Referring to FIG. 5, trend lines extracted from the leader line and the leader line shown in the photographed image are shown. The measuring device can extract the trend line from the leader line. In Fig. 5, the leader line is composed of three lines, from which trend lines can be extracted. The measuring device can detect the intersection 515 of the trend lines corresponding to the inflection point 510 based on the extracted trend lines. The trend lines can be expressed as a first-order equation as shown in equation (1), or as a higher-order second-order equation. In Equation (1), a represents a slope, b represents a y-intercept, and i represents an index of a trendline.

Figure 112017119203277-pat00001
Figure 112017119203277-pat00001

산출된 추세선의 방정식을 이용하여 도 5에 나타낸 교차점들을 산술적으로 구할 수 있게 된다. 산출된 교차점을 이용하여 도 4에서의 표면 1과 표면 3의 경계면의 위치를 정확하게 산출할 수 있게 되고, 최종적으로 영상 내에서의 위치를 실제 거리 값으로 환산하여 목표로 하는 표면 1과 표면 3의 경계면의 간격을 산출할 수 있다. 예를 들어, 도 5에 도시된 지시선은 촬영 영상 내 다각형 형상을 구성하는 복수의 변들 중 어느 하나인 제1 변에 대응할 수 있고, 도 5에 도시된 추세선들은 제1 변에 대응할 수 있다. 도 5에서 추세선들의 교차점들 중 교차점(515)이 추출될 수 있다. 교차점(515)은 표면 3의 경계에 대응하며, 2차원 좌표로 표현될 수 있다. 이와 유사한 과정을 통해 표면 3의 반대 쪽에 위치하는 표면 1의 경계가 결정될 수 있고, 표면 1의 경계 및 표면 3의 경계 간의 거리가 대상물들 간의 거리로 결정될 수 있다. 표면 1은 전술된 제1 대상물에 대응될 수 있고, 표면 3은 전술된 제2 대상물에 대응될 수 있다.The intersection points shown in Fig. 5 can be obtained arithmetically using the equation of the calculated trend line. The position of the interface between the surface 1 and the surface 3 in FIG. 4 can be accurately calculated using the calculated intersection point, and finally, the position in the image is converted into the actual distance value, The interval between the interfaces can be calculated. For example, the leader line shown in Fig. 5 may correspond to the first side which is one of the plurality of sides constituting the polygonal shape in the photographed image, and the trend lines shown in Fig. 5 may correspond to the first side. In FIG. 5, an intersection 515 among intersections of trend lines can be extracted. The intersection point 515 corresponds to the boundary of the surface 3 and can be expressed in two-dimensional coordinates. A similar process can determine the boundary of the surface 1 located on the opposite side of the surface 3, and the distance between the boundary of the surface 1 and the boundary of the surface 3 can be determined by the distance between the objects. Surface 1 may correspond to the first object described above, and surface 3 may correspond to the second object described above.

한편, 전술된 것처럼 각 지시선은 서로 다른 색상을 가질 수 있다. 측정 장치는 촬영 영상에서 지시선을 검출하기 위해, 검출하고자 하는 지시선의 색상과 촬영 영상 내 선들의 색상 일치도를 이용할 수 있다.On the other hand, as described above, each leader may have a different color. The measuring apparatus can use the color of the leader line to be detected and the color match degree of the lines in the photographed image in order to detect the leader line in the photographed image.

대상물들 간의 거리를 결정하기 위해 이미지 센서, 혹은 촬영 영상 내 단위 픽셀에 대응하는 실제 거리가 이용될 수 있다. 단위 픽셀에 대응하는 실제 거리를 알고 있는 경우, 단일 픽셀에 대응하는 실제 거리 및 앞서 결정된 대상물들 간에 존재하는 픽셀들의 수를 곱해서 대상물들 간의 거리가 결정될 수 있다. 단위 픽셀에 대응하는 실제 거리를 알지 못하는 경우, 길이를 알고 있는 기준 물체를 대상물들과 함께 촬영하거나, 혹은 사이즈를 알고 있는 참조 다각형이 이용될 수 있다. 예를 들어, 참조 다각형에서 각 변의 길이에 대응하는 실제 거리를 알고 있다면, 측정 장치는 제1 교차점 및 제2 교차점 간의 거리, 및 참조 다각형에서 제1 변에 대응하는 변의 길이를 비교하여 제1 대상물 및 제2 대상물 간의 거리를 결정할 수 있다.In order to determine the distance between the objects, the actual distance corresponding to the image sensor or the unit pixel in the captured image may be used. If the actual distance corresponding to a unit pixel is known, the distance between the objects can be determined by multiplying the actual distance corresponding to a single pixel and the number of pixels present between the previously determined objects. When the actual distance corresponding to the unit pixel is not known, the reference object having a known length may be photographed with the objects, or a reference polygon whose size is known may be used. For example, if the actual distance corresponding to the length of each side is known in the reference polygon, the measuring device compares the distance between the first intersection point and the second intersection point, and the length of the side corresponding to the first side in the reference polygon, And the distance between the first object and the second object.

도 6은 일 실시예에 따른 촬영 거리를 결정하는 과정을 나타낸 도면이다. 도 6(a)에서 다각형(610)은 참조 다각형을 나타내며, 기준 촬영 거리(L)에서 미리 촬영되어 저장될 수 있다. 도 6(b)에서 다각형(620)은 현재 촬영 거리(L')에서 촬영된 것이다. 실시예에 따르면, 다각형(610)과 다각형(620)을 비교하여 현재 촬영 거리(L')가 측정될 수 있다. 촬영 각도가 유지된 상태에서 현재 촬영 거리(L')가 멀어짐에 따라 다각형(620)를 구성하는 변들의 길이는 길어진다. 따라서, 기준 촬영 거리(L) 및 현재 촬영 거리(L') 간에, 그리고 다각형(610)을 구성하는 변들의 길이 및 다각형(620)을 구성하는 변들의 길이 간에 비례 관계가 형성될 수 있다.6 is a diagram illustrating a process of determining an imaging distance according to an exemplary embodiment. In Fig. 6 (a), the polygon 610 represents a reference polygon and can be photographed and stored in advance at the reference photographing distance L. [ 6 (b), the polygon 620 is photographed at the current photographing distance L '. According to the embodiment, the current photographing distance L 'can be measured by comparing the polygon 610 and the polygon 620. The length of the sides constituting the polygon 620 becomes longer as the current photographing distance L 'is distant from the state in which the photographing angle is maintained. Accordingly, a proportional relationship can be formed between the reference photographing distance L and the current photographing distance L ', and between the lengths of the sides constituting the polygon 610 and the lengths of the sides constituting the polygon 620.

다시 말해, 수학식 2이 성립되는 경우, 수학식 3에 따른 관계가 성립될 수 있다. 수학식 3에서 S는 파라미터 값들 간의 비율을 나타내며, 일정한 상수일 수 있다.In other words, when Equation (2) is established, the relationship according to Equation (3) can be established. In Equation (3), S represents a ratio between parameter values, and may be a constant constant.

Figure 112017119203277-pat00002
Figure 112017119203277-pat00002

Figure 112017119203277-pat00003
Figure 112017119203277-pat00003

따라서, 다각형(610)의 내각들 및 다각형(620)의 내각들이 일치하는 경우, 측정 장치는 다각형(610)이 형성되는 기준 촬영 거리(L), 다각형(610)을 구성하는 복수의 변들 중 적어도 하나의 길이 및 다각형(620)을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율(S)에 기초하여 현재 촬영 거리(L')를 결정할 수 있다. 예를 들어, 측정 장치는 비율(S)가 산출되면 기준 촬영 거리(L)에 비율(S)을 곱하여 현재 촬영 거리(L')를 결정할 수 있다.Therefore, when the inner angles of the polygon 610 and the inner angles of the polygon 620 match, the measuring apparatus determines the reference photographing distance L at which the polygon 610 is formed, at least one of the plurality of sides constituting the polygon 610 The current shooting distance L 'can be determined based on the ratio S between the one length and the length of at least one of the plurality of sides constituting the polygon 620. [ For example, the measuring apparatus can determine the current photographing distance L 'by multiplying the reference photographing distance L by the ratio S when the ratio S is calculated.

아래에서 다각형(620)에 관한 정보는 제1 정보로 지칭될 수 있고, 다각형(610)에 관한 정보는 제2 정보로 지칭될 수 있으며, 이 경우 제1 정보 및 제2 정보의 비교에 기초하여 현재 촬영 거리가 결정되는 것으로 이해될 수 있다.Information about the polygon 620 below may be referred to as first information, and information about the polygon 610 may be referred to as second information, in this case based on a comparison of the first information and the second information It can be understood that the current shooting distance is determined.

도 7은 일반적인 상대 공간 정보의 측정 과정을 나타낸 도면이다. 거리 측정을 위해 영상을 취득하는 과정에서 대상물과 카메라 간의 촬영 각도와 촬영 거리 정보는 정확도에 매우 큰 영향을 미칠 수 있다. 또한, 촬영 각도 등이 정확하게 산출되고 이를 이용해서 적절한 보정 계수가 적용되지 않는다면 결과의 신뢰도는 떨어질 수 밖에 없다.7 is a diagram illustrating a process of measuring general relative spatial information. In the process of acquiring an image for distance measurement, the angle of shooting and the distance information between the object and the camera may have a great influence on the accuracy. In addition, if the photographing angle is accurately calculated and the appropriate correction coefficient is not applied, the reliability of the result can not be avoided.

일반적으로 미리 알려진 패턴을 이용할 경우 촬영 거리 및 촬영 각도를 포함하는 상대 공간 정보가 측정될 수 있다. 미리 알려졌다는 것은 측정 장치가 패턴의 전체 크기, 패턴을 구성하는 요소들의 크기, 해당 요소들 간에 형성되는 각도 등을 알고 있음을 의미한다. 측정 장치는 위치들(710, 720)에서 촬영 영상들을 획득하고, 촬영 영상들을 미리 알려진 패턴과 비교하여 상대 공간 정보를 측정할 수 있다. 비교 시 촬영 영상 내 패턴의 가로세로 비율과 기울어진 정도가 이용될 수 있다.In general, when a known pattern is used, relative space information including the shooting distance and the shooting angle can be measured. Previously known means that the measuring device knows the overall size of the pattern, the size of the elements making up the pattern, and the angle formed between the elements. The measuring apparatus can acquire the photographed images at the positions 710 and 720, and measure the relative spatial information by comparing the photographed images with a known pattern in advance. The aspect ratio and the inclination degree of the pattern in the photographed image can be used.

이 방법의 경우 상대 공간 정보의 측정을 위해 체스보드와 같은 물리적인 패턴이 준비되어야 한다는 불편이 있을 수 있다. 또한, 대상물에 부착된 체크보드의 부착 정도, 예를 들어 평탄성, 거리 측정 방향에 대한 체크보드의 수직성, 체크보드의 출력 상태, 영상 취득 시 조도 상태 등과 같은 오차 인자들이 존재할 수 있다. 이 외에도, 부착된 패턴이 대상물의 위치와 방향을 얼마나 대표할 수 있는가 하는 문제점도 존재할 수 있다.In this method, it may be inconvenient that a physical pattern such as a chess board must be prepared for measurement of relative spatial information. In addition, there may be error factors such as degree of attachment of the check board attached to the object, for example, flatness, verticality of the check board with respect to the distance measuring direction, check board output state, In addition, there may also be a problem of how the attached pattern can represent the position and orientation of the object.

아래에서 설명될 것처럼 실시예들의 경우 이러한 물리적인 패턴 없이 촬영 각도를 측정할 수 있는 방안을 제공할 수 있다.As will be described below, embodiments can provide a measure to measure the angle of view without this physical pattern.

도 8 및 도 9는 일 실시예에 따른 촬영 각도를 결정하는 과정을 나타낸 도면이다. 일 실시예에 따르면 도 8(a)와 같이 미리 정해진 기준 촬영 각도에서 참조 다각형 형상의 지시선을 촬영한 이후, 이 촬영 영상을 이용하여 도 8(b) 및 도 8(c)와 같이 각도가 변경된 상태에서 현재 촬영 각도를 측정할 수 있다.8 and 9 are diagrams illustrating a process of determining an angle of view according to an embodiment. According to one embodiment, after a reference line of a reference polygonal shape is photographed at a predetermined reference photographing angle as shown in FIG. 8 (a) The current shooting angle can be measured.

도 9(a)에서 다각형(910)은 참조 다각형을 나타내며, 기준 촬영 각도에서 미리 촬영되어 저장될 수 있다. 예를 들어, 기준 촬영 각도는 지면과 수평한 각도일 수 있다. 도 9(b)에서 다각형(920)은 현재 촬영 각도(θ)로 촬영된 것이다. 도 9(b)는 현재 촬영 각도(θ)가 수직 방향으로 형성된 것을 나타내지만, 수평 방향으로 형성된 각도도 같은 방법으로 측정될 수 있다.In Fig. 9A, the polygon 910 represents a reference polygon, which can be photographed and stored in advance at the reference photographing angle. For example, the reference photographing angle may be a horizontal angle with the ground. 9 (b), the polygon 920 is photographed at the current photographing angle?. 9 (b) shows that the current photographing angle? Is formed in the vertical direction, but the angle formed in the horizontal direction can also be measured in the same way.

현재 촬영 각도(θ)는 다각형(910)과 다각형(920)의 비교를 통해 측정될 수 있다. 촬영 거리가 유지된 상태에서 현재 촬영 각도(θ)가 변경될 경우, 다각형(920)를 구성하는 변들 및 다각형(920)의 내각은 일정한 규칙에 따라 변경될 수 있다. 구체적으로, 현재 촬영 각도(θ) 및 다각형(910)의 내각과 다각형(920)의 내각 간의 비율, 그리고 현재 촬영 각도(θ) 및 다각형(910)을 구성하는 변들의 길이 및 다각형(920)을 구성하는 변들의 길이 간의 비율 간에는 일정한 비례 관계가 형성될 수 있다. 이는 수학식 4 내지 수학식 7과 같이 나타낼 수 있다.The current photographing angle? Can be measured through comparison of the polygon 910 and the polygon 920. When the current photographing angle? Is changed while the photographing distance is maintained, the sides of the polygon 920 and the interior angles of the polygon 920 can be changed according to a certain rule. Specifically, the current photographing angle? And the ratio between the internal angle of the polygon 910 and the internal angle of the polygon 920 and the current photographing angle? And the length of the sides constituting the polygon 910 and the polygon 920 A constant proportional relationship may be formed between the ratios of the lengths of the constituent sides. This can be expressed by Equations (4) to (7).

Figure 112017119203277-pat00004
Figure 112017119203277-pat00004

Figure 112017119203277-pat00005
Figure 112017119203277-pat00005

Figure 112017119203277-pat00006
Figure 112017119203277-pat00006

Figure 112017119203277-pat00007
Figure 112017119203277-pat00007

따라서, 측정 장치는 수학식 4 또는 수학식 5, 그리고 수학식 6 또는 수학식 7 중 어느 하나를 이용하여 현재 촬영 각도(θ)를 측정할 수 있다. 다시 말해, 측정 장치는 다각형(920)을 구성하는 복수의 변들의 길이 및 다각형(920)의 내각들에 기초하여 촬영 각도를 결정할 수 있는데, 보다 구체적으로 다각형(910)을 구성하는 복수의 변들 중 적어도 하나의 길이 및 참조 다각형(920)을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율(수학식 6), 및 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율(수학식 7) 중 어느 하나, 및 다각형(910)의 내각들 중 적어도 하나 및 다각형(920)의 내각들 중 적어도 하나 간의 비율(수학식 4 또는 수학식 5)에 기초하여 상기 촬영 각도를 결정할 수 있다. 다각형(920)에 관한 정보는 제1 정보로 지칭될 수 있고, 다각형(910)에 관한 정보는 제2 정보로 지칭될 수 있으며, 이 경우 제1 정보 및 제2 정보의 비교에 기초하여 현재 촬영 각도가 결정되는 것으로 이해될 수 있다.Therefore, the measuring apparatus can measure the current photographing angle? Using either Equation (4) or (5), and Equation (6) or Equation (7). In other words, the measurement apparatus can determine the photographing angle based on the lengths of the plurality of sides constituting the polygon 920 and the internal angles of the polygon 920, more specifically, among the plurality of sides constituting the polygon 910 (6) between at least one length and the length of at least one of the plurality of sides constituting the reference polygon (920), and the ratio of the length of at least one of the two sides facing each other in the rotation direction of the camera among the plurality of sides constituting the polygonal shape (4) or (5) between at least one of the internal angles of the polygon (920) and at least one of the internal angles of the polygon (920) and any of the internal angles of the polygon The angle can be determined. Information about the polygon 920 may be referred to as first information and information about the polygon 910 may be referred to as second information, in which case, based on the comparison of the first information and the second information, It can be understood that the angle is determined.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a computer-readable recording medium, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (13)

다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계;
상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계;
상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및
상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계
를 포함하는 측정 방법.
Projecting a polygonal leader line onto the first object and the second object;
Photographing the first object and the second object in a state in which the polygonal leader line is projected on the first object and the second object to obtain a captured image;
Extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape based on the captured image;
Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being Corresponding to inflection points generated by projecting one side at a certain angle not perpendicular to the first object and the second object; And
Determining a distance between the first object and the second object based on the first intersection and the second intersection;
Lt; / RTI >
제1항에 있어서,
상기 다각형 형상의 지시선을 상기 제1 대상물 및 상기 제2 대상물에 투사하는 단계는
상기 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선을 투사하는 단계를 포함하고,
상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계는
상기 서로 다른 색상에서 상기 제1 변을 나타내는 색상을 식별하여 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계를 포함하는,
측정 방법.
The method according to claim 1,
Projecting the polygonal leader lines onto the first object and the second object,
Projecting an indicator line of different colors on each of the plurality of sides constituting the polygonal shape,
The step of extracting a plurality of trend lines corresponding to the first side
Identifying a color representing the first side in the different color, and extracting a plurality of trend lines corresponding to the first side;
How to measure.
제1항에 있어서,
상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계는
상기 제1 교차점 및 상기 제2 교차점 간의 거리, 및 참조 다각형에서 상기 제1 변에 대응하는 변의 길이를 비교하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함하는,
측정 방법.
The method according to claim 1,
Wherein determining the distance between the first object and the second object comprises:
Determining a distance between the first object and the second object by comparing a distance between the first intersection point and the second intersection point and a length of a side corresponding to the first side in a reference polygon,
How to measure.
제1항에 있어서,
상기 촬영 영상을 획득하는 단계 이후에, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 거리를 결정하는 단계
를 더 포함하는, 측정 방법.
The method according to claim 1,
Determining a photographing distance based on the length of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographing image after the step of acquiring the photographing image
≪ / RTI >
제4항에 있어서,
상기 촬영 거리를 결정하는 단계는
상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함하는, 측정 방법.
5. The method of claim 4,
The step of determining the shooting distance
The reference photographing distance at which the reference polygon is formed and the length of at least one of the plurality of sides constituting the polygonal shape and a plurality of the reference polygons constituting the reference polygon when the inside angles of the polygonal- And determining the imaging distance based on a ratio between the lengths of at least one of the sides of the imaging lens.
제1항에 있어서,
상기 촬영 영상을 획득하는 단계 이후에, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 각도를 결정하는 단계
를 더 포함하는, 측정 방법.
The method according to claim 1,
Determining a photographing angle based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographing image after the step of acquiring the photographing image
≪ / RTI >
제6항에 있어서,
상기 촬영 각도를 결정하는 단계는
상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 어느 하나, 및 상기 다각형 형상의 내각들 중 적어도 하나 및 상기 참조 다각형의 내각들 중 적어도 하나 간의 비율에 기초하여 상기 촬영 각도를 결정하는 단계를 포함하는, 측정 방법.
The method according to claim 6,
The step of determining the photographing angle
A ratio between a length of at least one of the plurality of sides constituting the polygonal shape and a length of at least one of a plurality of sides constituting the reference polygon and a ratio of a length of at least one of the plurality of sides constituting the polygonal shape, And determining the angle of view based on a ratio between at least one of the interior angles of the reference polygon and at least one of the interior angles of the polygonal shape.
직선 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계;
상기 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 직선 형상에 대응하는 복수의 추세선들을 추출하는 단계;
상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 직선 형상이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및
상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계
를 포함하는 측정 방법.
Projecting a straight-line leader line onto the first object and the second object;
Capturing the first object and the second object in a state in which the leader is projected onto the first object and the second object to obtain a captured image;
Extracting a plurality of trend lines corresponding to the straight line shape based on the photographed image;
Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being straight lines Corresponding to inflection points caused by projecting a shape at an angle that is not perpendicular to the first object and the second object; And
Determining a distance between the first object and the second object based on the first intersection and the second intersection;
Lt; / RTI >
다각형 형상의 지시선을 대상물에 투사하는 단계;
상기 다각형 형상의 지시선이 상기 대상물에 투사된 상태에서 상기 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들의 길이 및 상기 다각형 형상의 내각들 중 적어도 하나를 나타내는 제1 정보를 산출하는 단계;
참조 다각형을 구성하는 복수의 변들의 길이 및 상기 참조 다각형의 내각들 중 적어도 하나를 나타내는 제2 정보를 획득하는 단계; 및
상기 제1 정보 및 상기 제2 정보를 비교하여 촬영 거리 및 촬영 각도 중 적어도 하나를 결정하는 단계
를 포함하는, 측정 방법.
Projecting a polygonal leader line onto an object;
Capturing an image of the object in a state in which the polygonal leader line is projected on the object to obtain a captured image;
Calculating first information representing at least one of the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographed image;
Obtaining second information representing at least one of the lengths of the plurality of sides constituting the reference polygon and the internal angles of the reference polygon; And
Comparing the first information and the second information to determine at least one of an imaging distance and an imaging angle
. ≪ / RTI >
제9항에 있어서,
상기 촬영 거리 및 상기 촬영 각도 중 적어도 하나를 결정하는 단계는
상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함하는, 측정 방법.
10. The method of claim 9,
Wherein the step of determining at least one of the shooting distance and the shooting angle
The reference photographing distance at which the reference polygon is formed and the length of at least one of the plurality of sides constituting the polygonal shape and a plurality of the reference polygons constituting the reference polygon when the inside angles of the polygonal- And determining the imaging distance based on a ratio between the lengths of at least one of the sides of the imaging lens.
제9항에 있어서,
상기 촬영 거리 및 상기 촬영 각도 중 적어도 하나를 결정하는 단계는
상기 다각형 형상의 내각들 중 적어도 하나 및 참조 다각형의 내각들 중 적어도 하나 간의 비율, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 적어도 하나에 기초하여 상기 촬영 각도를 결정하는 단계를 포함하는, 측정 방법.
10. The method of claim 9,
Wherein the step of determining at least one of the shooting distance and the shooting angle
A ratio between at least one of the internal angles of the polygonal shape and at least one of internal angles of the reference polygon, at least one of the plurality of sides constituting the polygonal shape, and at least one of a plurality of sides constituting the reference polygon Determining a photographing angle based on at least one of a ratio between the lengths and a ratio of lengths of two sides of the plurality of sides constituting the polygonal shape in the direction of rotation of the camera.
제1항 내지 제11항 중 어느 한 항의 방법을 수행하기 위한 명령어들을 포함하는 하나 이상의 프로그램을 저장한 컴퓨터 판독 가능 저장매체.12. A computer-readable storage medium having stored thereon one or more programs comprising instructions for performing the method of any one of claims 1-11. 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 투사부;
상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 생성하는 카메라; 및
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하고, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하고-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-, 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 영상 처리부
를 포함하는 측정 장치.
A projection unit for projecting a polygonal leader line onto the first object and the second object;
A camera for photographing the first object and the second object in a state in which the polygonal leader line is projected onto the first object and the second object to generate a photographed image; And
Extracting a plurality of trend lines corresponding to a first side of a plurality of sides constituting the polygonal shape on the basis of the photographed image and extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the first object based on the plurality of trend lines Wherein the first intersection point and the second intersection point are generated by projecting the first side at a certain angle not perpendicular to the first object and the second object, - determining a distance between the first object and the second object based on the first intersection point and the second intersection point,
.
KR1020170161793A 2017-04-17 2017-11-29 Method for measuring spatial information using index line and apparatus thereof KR101967554B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170049010 2017-04-17
KR20170049010 2017-04-17

Publications (2)

Publication Number Publication Date
KR20180116738A KR20180116738A (en) 2018-10-25
KR101967554B1 true KR101967554B1 (en) 2019-04-09

Family

ID=64131701

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170161793A KR101967554B1 (en) 2017-04-17 2017-11-29 Method for measuring spatial information using index line and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101967554B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483188B1 (en) * 2020-10-30 2023-01-04 주식회사 나눔건설사업관리 Method for measuring architecture using image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188357B1 (en) 2011-04-21 2012-10-08 정제교 Method for three dimensional recognition by two dimensional detection of multi projected light with predetermined magnification angle
JP2018524700A (en) 2015-06-29 2018-08-30 ゼネラル・エレクトリック・カンパニイ Method and system for detecting known measurable object features

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188357B1 (en) 2011-04-21 2012-10-08 정제교 Method for three dimensional recognition by two dimensional detection of multi projected light with predetermined magnification angle
JP2018524700A (en) 2015-06-29 2018-08-30 ゼネラル・エレクトリック・カンパニイ Method and system for detecting known measurable object features

Also Published As

Publication number Publication date
KR20180116738A (en) 2018-10-25

Similar Documents

Publication Publication Date Title
CA2961921C (en) Camera calibration method using a calibration target
KR102209008B1 (en) Apparatus for estimating camera pose and method for estimating camera pose
KR102003187B1 (en) Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle
EP2154650A1 (en) 3D time-of-flight camera system and position/orientation calibration method therefor
KR20200040374A (en) Method and device to estimate distance
EP2990765A1 (en) Image processing device, image processing method, and program therefor
KR102354299B1 (en) Camera calibration method using single image and apparatus therefor
CN112798811B (en) Speed measurement method, device and equipment
US9584768B2 (en) Information processing apparatus, information processing method and computer-readable storage medium
KR101349376B1 (en) Method of automatic plotting of building plane for numerical map by using target
KR101925289B1 (en) Method and apparatus for identifying location/angle of terminal
CN114820793A (en) Target detection and target point positioning method and system based on unmanned aerial vehicle
CN111121724A (en) Method and device for distance measurement by using unmanned aerial vehicle
KR101967554B1 (en) Method for measuring spatial information using index line and apparatus thereof
KR102390457B1 (en) Inspection apparatus of lidar alignment error using camera and the method thereof
KR102050995B1 (en) Apparatus and method for reliability evaluation of spatial coordinates
KR101575934B1 (en) Apparatus and method for motion capture using inertial sensor and optical sensor
Del Pizzo et al. Reliable vessel attitude estimation by wide angle camera
KR102295857B1 (en) Calibration Method for Real-Time Spherical 3D 360 Imaging and Apparatus Therefor
KR101283189B1 (en) Apparatus and method for calculating satellite visibility
JP5473683B2 (en) Feature detection system
US10591300B2 (en) Fixing magnetometer based azimuth according to sun positioning
CN115272452A (en) Target detection positioning method and device, unmanned aerial vehicle and storage medium
KR101475742B1 (en) Apparatus and method for performing photogrammetry
JP6546898B2 (en) Three-dimensional space identification apparatus, method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant