KR101967554B1 - Method for measuring spatial information using index line and apparatus thereof - Google Patents
Method for measuring spatial information using index line and apparatus thereof Download PDFInfo
- Publication number
- KR101967554B1 KR101967554B1 KR1020170161793A KR20170161793A KR101967554B1 KR 101967554 B1 KR101967554 B1 KR 101967554B1 KR 1020170161793 A KR1020170161793 A KR 1020170161793A KR 20170161793 A KR20170161793 A KR 20170161793A KR 101967554 B1 KR101967554 B1 KR 101967554B1
- Authority
- KR
- South Korea
- Prior art keywords
- distance
- intersection point
- polygonal
- determining
- polygonal shape
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/20—Lamp housings
- G03B21/2006—Lamp housings characterised by the light source
- G03B21/2033—LED or laser light sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Abstract
지시선을 이용하여 공간 정보를 측정하기 위한 방법, 그 방법을 이용한 장치가 개시된다. 일 실시예에 따른 측정 방법은 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계, 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계, 및 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다. 이 때, 상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응할 수 있다.A method for measuring spatial information using a leader and an apparatus using the method are disclosed. According to an embodiment of the present invention, there is provided a measuring method comprising the steps of projecting a polygonal leader line onto a first object and a second object, projecting the polygonal leader line onto the first object and the second object, The method of claim 1, further comprising: extracting a plurality of trend lines corresponding to a first side of a plurality of sides constituting the polygonal shape based on the photographed image, Extracting a first intersection corresponding to a boundary of the first object and a second intersection corresponding to a boundary of the second object on the basis of the first intersection and the second intersection, And determining a distance between the second objects. At this time, the first intersection point and the second intersection point may correspond to inflection points generated by projecting the first side at a certain angle not perpendicular to the first object and the second object.
Description
아래 실시예들은 지시선을 이용하여 공간 정보를 측정하기 위한 방법, 그 방법을 이용한 장치에 관한 것이다.The following embodiments relate to a method for measuring spatial information using a leader and to an apparatus using the method.
두 물체간의 거리를 측정하는 방법은 크게 네 가지로 구분되는데 첫 번째는 자와 같은 기준이 되는 물리적 척도를 이용하여 거리는 측정하는 것이고, 두 번째는 하나의 물체에서 다른 물체로 레이저 등의 신호를 송출하고, 물체의 표면에서 반사되어 돌아오는 반사파를 측정하는 것이다. 이 때, 송출 시간과 수신 시간 간의 차를 송출파의 속도를 이용하여 거리를 측정할 수 있다. 세 번째로 최근 활용되는 GPS를 이용한 위성 거리 측정 방법이 있다. GPS를 이용한 방법은 $GPGGA 형식의 경우 위도, 경도뿐만 아니라 고도에 대한 정보를 포함하고 있어, 이를 이용한 구조물의 수직변위 계측이 가능하다. 그러나, 교량 구조물에 적용할 수 있을 정도로 높은 정확도를 갖는 장비는 고가인 경우가 대부분이다. 따라서, 현장 적용 시 비용 부담이 크다는 단점이 있다. 또한 1m 이내의 가까운 거리에 있는 물체들 간의 거리 측정에는 정확도가 떨어지는 단점이 있다.The distance between two objects can be divided into four categories. First, the distance is measured using a physical scale that is the same as the first. Second, a laser or other signal is transmitted from one object to another , And the reflected wave reflected from the surface of the object is measured. At this time, the distance between the transmission time and the reception time can be measured using the transmission wave speed. Third, there is a satellite distance measurement method using GPS which is used recently. In the case of $ GPGGA format, the method using GPS includes information on latitude and longitude as well as altitude, and it is possible to measure the vertical displacement of the structure using it. However, most of the equipment with high accuracy that can be applied to bridge structures is expensive. Therefore, there is a disadvantage that the cost is high when applied to the field. In addition, there is a disadvantage in that the accuracy of measurement of the distance between objects within a distance of 1m is low.
마지막으로, 대상물에 레이저를 투사한 후 영상 분석을 통하여 대상물 간의 거리를 측정하는 방식이 있다. 일직선의 레이저 선을 대상물에 투사한 후 투사된 레이저의 빛의 강도를 분석하여 빛의 강도가 낮은 곳을 균열로 인식하고, 그 구간의 길이를 디지털 사진 상의 픽셀 정보에서 실제 공간에서의 거리 값으로 환산하여 균열 폭 크기를 산출할 수 있다. 하지만, 이 방법에서는 레이저 투사각과 물체 표면이 수직을 이루고 있어야 하기 때문에 카메라와 레이저의 설치 조건에 따라 정확도가 떨어질 수 있고, 빛의 강도라는 하나의 인자만을 이용하기 때문에 오차 범위가 비교적 클 수 있는 단점이 있다.Finally, there is a method of measuring the distance between objects by projecting a laser to the object and then performing image analysis. After projecting a straight line of laser beam onto the object, the light intensity of the projected laser is analyzed to recognize the lower intensity of the light as a crack, and the length of the section is calculated from the pixel information on the digital photograph The crack width size can be calculated. However, in this method, since the laser projection angle and the surface of the object must be perpendicular to each other, the accuracy can be deteriorated according to the installation conditions of the camera and the laser, and the error range can be relatively large because only one factor of light intensity is used .
관련된 선행특허로는 영상입력에 의한 구조물의 균열 탐지장치 및 방법에 관한 한국공개특허 제10-2004-0020261호가 있다.Related prior patents are Korean Patent Laid-Open No. 10-2004-0020261 on an apparatus and method for crack detection of a structure by image input.
아래 실시예들은 지시선을 이용하여 공간 정보를 낮은 비용으로 정확하게 측정하는 것에 그 목적이 있다.The embodiments below are intended to accurately measure spatial information at low cost using a leader.
일 실시예에 따르면, 측정 방법은 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계; 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계; 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다.According to one embodiment, the measuring method includes projecting a polygonal leader to the first object and the second object; Photographing the first object and the second object in a state in which the polygonal leader line is projected on the first object and the second object to obtain a captured image; Extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape based on the captured image; Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being Corresponding to inflection points generated by projecting one side at a certain angle not perpendicular to the first object and the second object; And determining a distance between the first object and the second object based on the first intersection point and the second intersection point.
상기 다각형 형상의 지시선을 상기 제1 대상물 및 상기 제2 대상물에 투사하는 단계는 상기 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선을 투사하는 단계를 포함할 수 있고, 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계는 상기 서로 다른 색상에서 상기 제1 변을 나타내는 색상을 식별하여 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계를 포함할 수 있다.Projecting the polygonal leader lines to the first object and the second object may include projecting a leader line of different colors on each of the plurality of sides constituting the polygonal shape, Extracting a plurality of trend lines corresponding to the first side by identifying colors representing the first side in the different colors.
상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계는 상기 제1 교차점 및 상기 제2 교차점 간의 거리, 및 참조 다각형에서 상기 제1 변에 대응하는 변의 길이를 비교하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the distance between the first object and the second object includes comparing the distance between the first intersection point and the second intersection point and the length of the side corresponding to the first side in the reference polygon, Determining a distance between the first object and the second object.
상기 측정 방법은 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 거리를 결정하는 단계를 더 포함할 수 있다.The measuring method may further include determining an imaging distance based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape.
상기 촬영 거리를 결정하는 단계는 상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the photographing distance includes determining a reference photographing distance at which the reference polygon is formed and a reference photographing distance at which at least one of the plurality of sides constituting the polygonal shape is formed when the inside angles of the polygonal- And determining the photographing distance based on a ratio between the lengths of at least one of the plurality of sides constituting the reference polygon.
상기 측정 방법은 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 각도를 결정하는 단계를 더 포함할 수 있다.The measuring method may further include determining an imaging angle based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape.
상기 촬영 각도를 결정하는 단계는 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 어느 하나, 및 상기 다각형 형상의 내각들 중 적어도 하나 및 참조 다각형의 내각들 중 적어도 하나 간의 비율에 기초하여 상기 촬영 각도를 결정하는 단계를 포함할 수 있다.Wherein the step of determining the photographing angle includes determining a ratio between a length of at least one of the plurality of sides constituting the polygonal shape and a length of at least one of a plurality of sides constituting the reference polygon, And a ratio between at least one of the internal angles of the reference polygon and at least one of the internal angles of the polygonal shape and the ratio between the lengths of the two sides facing each other in the rotation direction of the camera Step < / RTI >
다른 일 실시예에 따르면, 측정 방법은 직선 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 단계; 상기 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 직선 형상에 대응하는 복수의 추세선들을 추출하는 단계; 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 직선 형상이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함한다.According to another embodiment, the measuring method includes the steps of projecting a straight-line leader to the first object and the second object; Capturing the first object and the second object in a state in which the leader is projected onto the first object and the second object to obtain a captured image; Extracting a plurality of trend lines corresponding to the straight line shape based on the photographed image; Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being straight lines Corresponding to inflection points caused by projecting a shape at an angle that is not perpendicular to the first object and the second object; And determining a distance between the first object and the second object based on the first intersection and the second intersection.
또 다른 일 실시예에 따르면, 측정 방법은 다각형 형상의 지시선을 대상물에 투사하는 단계; 상기 다각형 형상의 지시선이 상기 대상물에 투사된 상태에서 상기 대상물을 촬영하여 촬영 영상을 획득하는 단계; 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들의 길이 및 상기 다각형 형상의 내각들 중 적어도 하나를 나타내는 제1 정보를 산출하는 단계; 참조 다각형을 구성하는 복수의 변들의 길이 및 상기 참조 다각형의 내각들 중 적어도 하나를 나타내는 제2 정보를 획득하는 단계; 및 상기 제1 정보 및 상기 제2 정보를 비교하여 촬영 거리 및 촬영 각도 중 적어도 하나를 결정하는 단계를 포함한다.According to another embodiment, the measuring method includes the steps of projecting a polygonal leader line onto an object; Capturing an image of the object in a state in which the polygonal leader line is projected on the object to obtain a captured image; Calculating first information representing at least one of the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographed image; Obtaining second information representing at least one of the lengths of the plurality of sides constituting the reference polygon and the internal angles of the reference polygon; And comparing at least one of the shooting distance and the shooting angle by comparing the first information and the second information.
일 실시예에 따르면, 측정 장치는 다각형 형상의 지시선을 제1 대상물 및 제2 대상물에 투사하는 투사부; 상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 생성하는 카메라; 및 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하고, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하고-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-, 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 영상 처리부를 포함한다.According to one embodiment, the measuring apparatus includes a projection unit that projects a polygonal leader line to the first object and the second object; A camera for photographing the first object and the second object in a state in which the polygonal leader line is projected onto the first object and the second object to generate a photographed image; And extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape on the basis of the photographed image, and based on the plurality of trend lines, And a second intersection point corresponding to a boundary of the second object, the first intersection point and the second intersection point being projected at a certain angle not perpendicular to the first object and the second object, And an image processing unit for determining a distance between the first object and the second object based on the first intersection point and the second intersection point.
아래 실시예들에 따르면 공간 정보를 낮은 비용으로 정확하게 측정할 수 있다.According to the embodiments described below, spatial information can be accurately measured at low cost.
도 1은 일 실시예에 따른 지시선을 이용하는 측정 장치를 나타낸 도면.
도 2는 일 실시예에 따른 지시선의 투사 각도 및 이에 따른 지시선의 형상을 나타낸 도면.
도 3은 대상물에 관한 수직 방향으로 투사된 지시선을 나타낸 도면.
도 4 및 도 5는 일 실시예에 따라 수평하지 않게 투사된 지시선 및 이에 기초한 추세선을 나타낸 도면.
도 6은 일 실시예에 따른 촬영 거리를 결정하는 과정을 나타낸 도면.
도 7은 일반적인 상대 공간 정보의 측정 과정을 나타낸 도면.
도 8 및 도 9는 일 실시예에 따른 촬영 각도를 결정하는 과정을 나타낸 도면.BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 shows a measuring device using a leader according to an embodiment.
Fig. 2 is a view showing the projection angle of the leader line and the shape of the leader line according to the embodiment. Fig.
3 is a view showing a leader projected in a vertical direction with respect to an object;
Figures 4 and 5 are diagrams illustrating a leader line projected horizontally and a trend line based thereon according to one embodiment.
FIG. 6 illustrates a process of determining an imaging distance according to an exemplary embodiment; FIG.
7 is a diagram illustrating a process of measuring general relative space information.
8 and 9 are diagrams illustrating a process of determining an angle of view according to an embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms " comprises ", or " having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른 지시선을 이용하는 측정 장치를 나타낸 도면이다. 도 1을 참조하면, 일 실시예에 따른 측정 장치(100)는 투사부(110), 카메라(120) 및 영상 처리부(130)를 포함한다.1 is a view showing a measuring apparatus using a leader according to an embodiment. Referring to FIG. 1, a
투사부(110)는 일정한 형상의 지시선을 대상물에 투사할 수 있다. 일정한 형상은 다각형 형상 및 직선 형상 등의 다양한 형상을 포함할 수 있다. 투사부(110)는 복수의 투사 소자들을 포함할 수 있다. 각 투사 소자는 대상물에 직선 형상의 지시선이 나타나도록 레이저를 투사할 수 있다. 복수의 투사 소자들에 의해 다수의 직선이 대상물에 투사됨에 따라 대상물에 다각형 형상의 지시선이 나타날 수 있다.The
각 투사 소자가 투사하는 선의 굵기, 색상 및 투사 각도는 각 투사 소자 별로 독립적으로 조절될 수 있다. 예를 들어, 대상물에 다각형 형상의 지시선이 투사되는 경우, 다각형 형상의 각 변의 길이, 굵기, 색상 및 투사 각도가 서로 다르게 조절될 수 있다. 투사부(110)는 투사부(110)에 마련된 제어 인터페이스를 통해 제어되거나, 영상 처리부(130)의 명령에 따라 제어될 수 있다.The thickness, color, and projection angle of the line projected by each projection element can be adjusted independently for each projection element. For example, when a polygonal leader line is projected on an object, the length, thickness, color, and projection angle of each side of the polygonal shape can be adjusted to be different from each other. The
카메라(120)는 지시선이 대상물에 투사된 상태에서 대상물을 촬영할 수 있다. 영상 처리부(130)는 카메라(120)에 의해 촬영된 촬영 영상을 획득할 수 있다. 카메라(120)와 영상 처리부(130) 사이에는 유/무선 통신 연결이 형성될 수 있고, 해당 통신 연결을 통해 촬영 영상이 전송될 수 있다. 영상 처리부(130)는 촬영 영상에 나타난 지시선을 통해 공간 정보를 측정할 수 있다.The
공간 정보는 대상물들 간의 거리, 촬영 거리 및 촬영 각도를 포함할 수 있으며, 이 중에 촬영 거리 및 촬영 각도는 대상물과 카메라의 상대적인 정보를 나타내므로 상대 공간 정보로 지칭될 수 있다.The spatial information may include the distance between the objects, the shooting distance, and the shooting angle, and the shooting distance and the shooting angle may be referred to as relative space information because they represent relative information of the object and the camera.
대상물들 간의 거리는 도 1에 도시된 제1 대상물 및 제2 대상물 간의 거리를 의미할 수 있다. 예를 들어, 제1 대상물은 제1 표면일 수 있고, 제2 대상물은 제2 표면일 수 있다. 이 경우, 제1 대상물 및 제2 대상물 간의 거리는 제1 표면 및 제2 표면 간에 나타난 균열의 크기에 대응할 수 있다.The distance between the objects may mean the distance between the first object and the second object shown in FIG. For example, the first object may be a first surface, and the second object may be a second surface. In this case, the distance between the first object and the second object may correspond to the magnitude of the crack appearing between the first surface and the second surface.
촬영 거리는 대상물 및 카메라(120) 간의 거리를 나타내고, 촬영 각도는 기준선 및 카메라(120) 간에 형성되는 각도를 나타낸다. 촬영 각도는 수평 방향으로 형성될 수도 있고, 수직 방향으로 형성될 수도 있다. 예를 들어, 카메라(120)가 좌우로 회전하는 경우 촬영 각도는 수평 방향으로 형성될 수 있고, 카메라(120)가 상하로 회전하는 경우 촬영 각도는 수직 방향으로 형성될 수 있다.The photographing distance represents the distance between the object and the
영상 처리부(130)는 촬영 영상에 나타난 지시선에서 추세선을 추출할 수 있다. 추세선은 지시선의 위치, 방향, 꺾임, 각도 등을 포함하는 지시선의 특징을 대표할 수 있도록 지시선으로부터 추출되며, 공간 정보 측정 시 지시선을 분석하기 위해 이용될 수 있다. 영상 처리부(130)에 의해 추출된 추세선은 도 1에 처리 영상 내에 도시되어 있다.The
전술된 것처럼, 각 지시선은 서로 다른 색상을 가질 수 있다. 예를 들어, 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선이 투사될 수 있다. 영상 처리부(130)는 다각형 형상의 지시선의 색상을 통해 복수의 지시선들 중 특정한 지시선을 식별하고, 이로부터 추세선을 추출할 수 있다. 예를 들어, 다각형 형상의 제1 변에 대응하는 지시선이 빨간색인 경우, 영상 처리부(130)는 촬영 영상에 나타난 상기 서로 다른 색상 중 빨간색을 식별하여 제1 변에 대응하는 지시선을 식별하고, 이로부터 추세선을 추출할 수 있다.As described above, each leader may have a different color. For example, indicator lines of different colors may be projected on each of a plurality of sides constituting the polygonal shape. The
영상 처리부(130)는 투사부(110)를 제어할 수 있다. 예를 들어, 영상 처리부(130)는 지시선의 길이, 굵기, 색상 및 투사 각도를 조절하기 위한 명령을 투사부(110)에 제공할 수 있다. 이러한 명령은 사용자의 제어에 기초하여 생성될 수 있다.The
영상 처리부(130)는 미리 구축된 다각형 데이터베이스로부터 표준화된 크기 및 내각을 갖는 다각형의 형상에 관한 정보를 획득할 수 있고, 획득된 다각형 형상에 관한 정보에 기초하여 지시선을 투사하도록 투사부(110)를 제어할 수 있다. 이러한 표준화된 다각형은 아래에서 참조 다각형으로 지칭될 수 있다. 측정 장치는 촬영 영상을 통해 촬영된 다각형 및 참조 다각형을 비교하여 공간 정보를 측정할 수 있다.The
도 2는 일 실시예에 따른 지시선의 투사 각도 및 이에 따른 지시선의 형상을 나타낸 도면이다. 도 2(a)는 투사부가 대상물에 관한 수직 방향으로 지시선을 투사한 경우를 나타내고, 도 2(b)는 투사부가 대상물에 관해 수직이 아닌 일정한 각도(θ)로 지시선을 투사한 경우를 나타낸다. 도 2(a)의 경우 대상물의 경계(210)를 인식하기에 어려움이 있으나, 도 2(b)의 경우 대상물의 경계(220)가 명확히 인식될 수 있다. 도 2(a)의 경우에 관해서는 도 3을 참조하여 보다 상세하게 설명한다.2 is a view showing a projection angle of a leader according to an embodiment and a shape of a leader according to the projection angle. Fig. 2 (a) shows a case where a leader line is projected in a vertical direction with respect to an object to be projected, and Fig. 2 (b) shows a case where a projected leader line is projected at a certain angle? In FIG. 2 (a), it is difficult to recognize the
도 3은 대상물에 관한 수직 방향으로 투사된 지시선을 나타낸 도면이다. 도 3(a)를 참조하면, 지시선이 대상물에 관한 수직 방향으로 투사되고, 이 상태에서 영상 취득 장치에 의해 촬영 영상이 획득된다. 도 3(b)는 이 상태를 위에서 바라본 것을 나타낸다. 도 3에서는 지시선이 직선 형태로 나타나므로 지시선을 통해 대상물의 경계가 명확히 인식될 수 없다. 예를 들어, 표면 1 및 표면 2 간에서 지시선이 직선 형태를 나타내므로 촬영 영상에서 표면 1의 경계(310)가 명확히 인식될 수 없고, 표면 2 및 표면 3 간에서 지시선이 직선 형태를 나타내므로 촬영 영상에서 표면 3의 경계(320)가 명확히 인식될 수 없다. 표면은 전술된 대상물에 대응할 수 있다.3 is a diagram showing a leader projected in a vertical direction with respect to an object. 3 (a), the leader is projected in the vertical direction with respect to the object, and the captured image is obtained by the image capturing apparatus in this state. Fig. 3 (b) shows this state as viewed from above. In Fig. 3, since the leader line appears in a straight line shape, the boundary of the object can not be clearly recognized through the leader line. For example, since the leader line between the surface 1 and the surface 2 shows a linear shape, the
실시예에 따른 투사부는 도 2(b)와 같이 대상물에 관해 수직이 아닌 일정한 각도로 지시선을 투사할 수 있다. 도 2(b)의 경우에 관해서는 도 3 및 도 4를 참조하여 보다 상세하게 설명한다.The projection unit according to the embodiment can project the leader line at a predetermined angle, not perpendicular to the object, as shown in Fig. 2 (b). The case of FIG. 2 (b) will be described in more detail with reference to FIG. 3 and FIG.
도 4 및 도 5는 일 실시예에 따라 수평하지 않게 투사된 지시선 및 이에 기초한 추세선을 나타낸 도면이다. 도 4를 참조하면, 지시선이 대상물에 관해 수직이 아닌 일정한 각도로 투사되고, 이 상태에서 영상 취득 장치에 의해 촬영 영상이 획득된다. 도 4에 도시된 지시선은 다각형 형상의 지시선 중 일부, 예를 들어 사각형 형상의 지시선 중 윗변 및 아랫변을 나타낼 수 있다.FIGS. 4 and 5 are diagrams illustrating leader lines projected non-horizontally according to one embodiment and trend lines based thereon. Referring to Fig. 4, the leader is projected at a certain angle with respect to the object, not at a vertical angle, and the captured image is acquired by the image capturing device in this state. The leader lines shown in Fig. 4 can represent some of the polygonal leader lines, for example, the upper side and the lower side among the leader lines having a rectangular shape.
도 4에서는 지시선에 변곡점들이 발생하므로 대상물의 경계가 명확히 인식될 수 있다. 예를 들어, 표면 1 및 표면 2 간에 지시선의 변곡점(410)이 나타나므로, 측정 장치는 촬영 영상에서 변곡점(410)을 식별하여 표면 1의 경계를 인식할 수 있다. 또한, 표면 2 및 표면 3 간에 지시선의 변곡점(420)이 나타나므로, 측정 장치는 촬영 영상에서 변곡점(420)을 식별하여 표면 3의 경계를 인식할 수 있다.In Fig. 4, since the inflection points are generated in the leader line, the boundaries of the object can be clearly recognized. For example, since the
측정 장치는 추세선에서 이러한 변곡점들에 대응하는 지점들을 검출할 수 있다. 도 5를 참조하면, 촬영 영상에 나타난 지시선 및 지시선으로부터 추출된 추세선이 도시되어 있다. 측정 장치는 지시선에서 추세선을 추출할 수 있다. 도 5에서 지시선은 세 부분의 선들로 구성되어 있으며, 이들 각각으로부터 추세선들이 추출될 수 있다. 측정 장치는 추출된 추세선들에 기초하여, 변곡점(510)에 대응하는 추세선들의 교차점(515)을 검출할 수 있다. 추세선들은 수학식 1과 같은 1차 방정식, 혹은 더 높은 정확도를 갖는 다차 방정식으로 표현 가능하다. 수학식 1에서 a는 기울기를 나타내고, b는 y절편을 나타내고, i는 추세선의 인덱스를 나타낸다.The measuring device can detect points corresponding to these inflection points on the trend line. Referring to FIG. 5, trend lines extracted from the leader line and the leader line shown in the photographed image are shown. The measuring device can extract the trend line from the leader line. In Fig. 5, the leader line is composed of three lines, from which trend lines can be extracted. The measuring device can detect the
산출된 추세선의 방정식을 이용하여 도 5에 나타낸 교차점들을 산술적으로 구할 수 있게 된다. 산출된 교차점을 이용하여 도 4에서의 표면 1과 표면 3의 경계면의 위치를 정확하게 산출할 수 있게 되고, 최종적으로 영상 내에서의 위치를 실제 거리 값으로 환산하여 목표로 하는 표면 1과 표면 3의 경계면의 간격을 산출할 수 있다. 예를 들어, 도 5에 도시된 지시선은 촬영 영상 내 다각형 형상을 구성하는 복수의 변들 중 어느 하나인 제1 변에 대응할 수 있고, 도 5에 도시된 추세선들은 제1 변에 대응할 수 있다. 도 5에서 추세선들의 교차점들 중 교차점(515)이 추출될 수 있다. 교차점(515)은 표면 3의 경계에 대응하며, 2차원 좌표로 표현될 수 있다. 이와 유사한 과정을 통해 표면 3의 반대 쪽에 위치하는 표면 1의 경계가 결정될 수 있고, 표면 1의 경계 및 표면 3의 경계 간의 거리가 대상물들 간의 거리로 결정될 수 있다. 표면 1은 전술된 제1 대상물에 대응될 수 있고, 표면 3은 전술된 제2 대상물에 대응될 수 있다.The intersection points shown in Fig. 5 can be obtained arithmetically using the equation of the calculated trend line. The position of the interface between the surface 1 and the surface 3 in FIG. 4 can be accurately calculated using the calculated intersection point, and finally, the position in the image is converted into the actual distance value, The interval between the interfaces can be calculated. For example, the leader line shown in Fig. 5 may correspond to the first side which is one of the plurality of sides constituting the polygonal shape in the photographed image, and the trend lines shown in Fig. 5 may correspond to the first side. In FIG. 5, an
한편, 전술된 것처럼 각 지시선은 서로 다른 색상을 가질 수 있다. 측정 장치는 촬영 영상에서 지시선을 검출하기 위해, 검출하고자 하는 지시선의 색상과 촬영 영상 내 선들의 색상 일치도를 이용할 수 있다.On the other hand, as described above, each leader may have a different color. The measuring apparatus can use the color of the leader line to be detected and the color match degree of the lines in the photographed image in order to detect the leader line in the photographed image.
대상물들 간의 거리를 결정하기 위해 이미지 센서, 혹은 촬영 영상 내 단위 픽셀에 대응하는 실제 거리가 이용될 수 있다. 단위 픽셀에 대응하는 실제 거리를 알고 있는 경우, 단일 픽셀에 대응하는 실제 거리 및 앞서 결정된 대상물들 간에 존재하는 픽셀들의 수를 곱해서 대상물들 간의 거리가 결정될 수 있다. 단위 픽셀에 대응하는 실제 거리를 알지 못하는 경우, 길이를 알고 있는 기준 물체를 대상물들과 함께 촬영하거나, 혹은 사이즈를 알고 있는 참조 다각형이 이용될 수 있다. 예를 들어, 참조 다각형에서 각 변의 길이에 대응하는 실제 거리를 알고 있다면, 측정 장치는 제1 교차점 및 제2 교차점 간의 거리, 및 참조 다각형에서 제1 변에 대응하는 변의 길이를 비교하여 제1 대상물 및 제2 대상물 간의 거리를 결정할 수 있다.In order to determine the distance between the objects, the actual distance corresponding to the image sensor or the unit pixel in the captured image may be used. If the actual distance corresponding to a unit pixel is known, the distance between the objects can be determined by multiplying the actual distance corresponding to a single pixel and the number of pixels present between the previously determined objects. When the actual distance corresponding to the unit pixel is not known, the reference object having a known length may be photographed with the objects, or a reference polygon whose size is known may be used. For example, if the actual distance corresponding to the length of each side is known in the reference polygon, the measuring device compares the distance between the first intersection point and the second intersection point, and the length of the side corresponding to the first side in the reference polygon, And the distance between the first object and the second object.
도 6은 일 실시예에 따른 촬영 거리를 결정하는 과정을 나타낸 도면이다. 도 6(a)에서 다각형(610)은 참조 다각형을 나타내며, 기준 촬영 거리(L)에서 미리 촬영되어 저장될 수 있다. 도 6(b)에서 다각형(620)은 현재 촬영 거리(L')에서 촬영된 것이다. 실시예에 따르면, 다각형(610)과 다각형(620)을 비교하여 현재 촬영 거리(L')가 측정될 수 있다. 촬영 각도가 유지된 상태에서 현재 촬영 거리(L')가 멀어짐에 따라 다각형(620)를 구성하는 변들의 길이는 길어진다. 따라서, 기준 촬영 거리(L) 및 현재 촬영 거리(L') 간에, 그리고 다각형(610)을 구성하는 변들의 길이 및 다각형(620)을 구성하는 변들의 길이 간에 비례 관계가 형성될 수 있다.6 is a diagram illustrating a process of determining an imaging distance according to an exemplary embodiment. In Fig. 6 (a), the
다시 말해, 수학식 2이 성립되는 경우, 수학식 3에 따른 관계가 성립될 수 있다. 수학식 3에서 S는 파라미터 값들 간의 비율을 나타내며, 일정한 상수일 수 있다.In other words, when Equation (2) is established, the relationship according to Equation (3) can be established. In Equation (3), S represents a ratio between parameter values, and may be a constant constant.
따라서, 다각형(610)의 내각들 및 다각형(620)의 내각들이 일치하는 경우, 측정 장치는 다각형(610)이 형성되는 기준 촬영 거리(L), 다각형(610)을 구성하는 복수의 변들 중 적어도 하나의 길이 및 다각형(620)을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율(S)에 기초하여 현재 촬영 거리(L')를 결정할 수 있다. 예를 들어, 측정 장치는 비율(S)가 산출되면 기준 촬영 거리(L)에 비율(S)을 곱하여 현재 촬영 거리(L')를 결정할 수 있다.Therefore, when the inner angles of the
아래에서 다각형(620)에 관한 정보는 제1 정보로 지칭될 수 있고, 다각형(610)에 관한 정보는 제2 정보로 지칭될 수 있으며, 이 경우 제1 정보 및 제2 정보의 비교에 기초하여 현재 촬영 거리가 결정되는 것으로 이해될 수 있다.Information about the
도 7은 일반적인 상대 공간 정보의 측정 과정을 나타낸 도면이다. 거리 측정을 위해 영상을 취득하는 과정에서 대상물과 카메라 간의 촬영 각도와 촬영 거리 정보는 정확도에 매우 큰 영향을 미칠 수 있다. 또한, 촬영 각도 등이 정확하게 산출되고 이를 이용해서 적절한 보정 계수가 적용되지 않는다면 결과의 신뢰도는 떨어질 수 밖에 없다.7 is a diagram illustrating a process of measuring general relative spatial information. In the process of acquiring an image for distance measurement, the angle of shooting and the distance information between the object and the camera may have a great influence on the accuracy. In addition, if the photographing angle is accurately calculated and the appropriate correction coefficient is not applied, the reliability of the result can not be avoided.
일반적으로 미리 알려진 패턴을 이용할 경우 촬영 거리 및 촬영 각도를 포함하는 상대 공간 정보가 측정될 수 있다. 미리 알려졌다는 것은 측정 장치가 패턴의 전체 크기, 패턴을 구성하는 요소들의 크기, 해당 요소들 간에 형성되는 각도 등을 알고 있음을 의미한다. 측정 장치는 위치들(710, 720)에서 촬영 영상들을 획득하고, 촬영 영상들을 미리 알려진 패턴과 비교하여 상대 공간 정보를 측정할 수 있다. 비교 시 촬영 영상 내 패턴의 가로세로 비율과 기울어진 정도가 이용될 수 있다.In general, when a known pattern is used, relative space information including the shooting distance and the shooting angle can be measured. Previously known means that the measuring device knows the overall size of the pattern, the size of the elements making up the pattern, and the angle formed between the elements. The measuring apparatus can acquire the photographed images at the
이 방법의 경우 상대 공간 정보의 측정을 위해 체스보드와 같은 물리적인 패턴이 준비되어야 한다는 불편이 있을 수 있다. 또한, 대상물에 부착된 체크보드의 부착 정도, 예를 들어 평탄성, 거리 측정 방향에 대한 체크보드의 수직성, 체크보드의 출력 상태, 영상 취득 시 조도 상태 등과 같은 오차 인자들이 존재할 수 있다. 이 외에도, 부착된 패턴이 대상물의 위치와 방향을 얼마나 대표할 수 있는가 하는 문제점도 존재할 수 있다.In this method, it may be inconvenient that a physical pattern such as a chess board must be prepared for measurement of relative spatial information. In addition, there may be error factors such as degree of attachment of the check board attached to the object, for example, flatness, verticality of the check board with respect to the distance measuring direction, check board output state, In addition, there may also be a problem of how the attached pattern can represent the position and orientation of the object.
아래에서 설명될 것처럼 실시예들의 경우 이러한 물리적인 패턴 없이 촬영 각도를 측정할 수 있는 방안을 제공할 수 있다.As will be described below, embodiments can provide a measure to measure the angle of view without this physical pattern.
도 8 및 도 9는 일 실시예에 따른 촬영 각도를 결정하는 과정을 나타낸 도면이다. 일 실시예에 따르면 도 8(a)와 같이 미리 정해진 기준 촬영 각도에서 참조 다각형 형상의 지시선을 촬영한 이후, 이 촬영 영상을 이용하여 도 8(b) 및 도 8(c)와 같이 각도가 변경된 상태에서 현재 촬영 각도를 측정할 수 있다.8 and 9 are diagrams illustrating a process of determining an angle of view according to an embodiment. According to one embodiment, after a reference line of a reference polygonal shape is photographed at a predetermined reference photographing angle as shown in FIG. 8 (a) The current shooting angle can be measured.
도 9(a)에서 다각형(910)은 참조 다각형을 나타내며, 기준 촬영 각도에서 미리 촬영되어 저장될 수 있다. 예를 들어, 기준 촬영 각도는 지면과 수평한 각도일 수 있다. 도 9(b)에서 다각형(920)은 현재 촬영 각도(θ)로 촬영된 것이다. 도 9(b)는 현재 촬영 각도(θ)가 수직 방향으로 형성된 것을 나타내지만, 수평 방향으로 형성된 각도도 같은 방법으로 측정될 수 있다.In Fig. 9A, the
현재 촬영 각도(θ)는 다각형(910)과 다각형(920)의 비교를 통해 측정될 수 있다. 촬영 거리가 유지된 상태에서 현재 촬영 각도(θ)가 변경될 경우, 다각형(920)를 구성하는 변들 및 다각형(920)의 내각은 일정한 규칙에 따라 변경될 수 있다. 구체적으로, 현재 촬영 각도(θ) 및 다각형(910)의 내각과 다각형(920)의 내각 간의 비율, 그리고 현재 촬영 각도(θ) 및 다각형(910)을 구성하는 변들의 길이 및 다각형(920)을 구성하는 변들의 길이 간의 비율 간에는 일정한 비례 관계가 형성될 수 있다. 이는 수학식 4 내지 수학식 7과 같이 나타낼 수 있다.The current photographing angle? Can be measured through comparison of the
따라서, 측정 장치는 수학식 4 또는 수학식 5, 그리고 수학식 6 또는 수학식 7 중 어느 하나를 이용하여 현재 촬영 각도(θ)를 측정할 수 있다. 다시 말해, 측정 장치는 다각형(920)을 구성하는 복수의 변들의 길이 및 다각형(920)의 내각들에 기초하여 촬영 각도를 결정할 수 있는데, 보다 구체적으로 다각형(910)을 구성하는 복수의 변들 중 적어도 하나의 길이 및 참조 다각형(920)을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율(수학식 6), 및 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율(수학식 7) 중 어느 하나, 및 다각형(910)의 내각들 중 적어도 하나 및 다각형(920)의 내각들 중 적어도 하나 간의 비율(수학식 4 또는 수학식 5)에 기초하여 상기 촬영 각도를 결정할 수 있다. 다각형(920)에 관한 정보는 제1 정보로 지칭될 수 있고, 다각형(910)에 관한 정보는 제2 정보로 지칭될 수 있으며, 이 경우 제1 정보 및 제2 정보의 비교에 기초하여 현재 촬영 각도가 결정되는 것으로 이해될 수 있다.Therefore, the measuring apparatus can measure the current photographing angle? Using either Equation (4) or (5), and Equation (6) or Equation (7). In other words, the measurement apparatus can determine the photographing angle based on the lengths of the plurality of sides constituting the
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(Arithmetic Logic Unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(Programmable Logic Unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented as a computer-readable recording medium, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (13)
상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하는 단계;
상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및
상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계
를 포함하는 측정 방법.Projecting a polygonal leader line onto the first object and the second object;
Photographing the first object and the second object in a state in which the polygonal leader line is projected on the first object and the second object to obtain a captured image;
Extracting a plurality of trend lines corresponding to a first side of the plurality of sides constituting the polygonal shape based on the captured image;
Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being Corresponding to inflection points generated by projecting one side at a certain angle not perpendicular to the first object and the second object; And
Determining a distance between the first object and the second object based on the first intersection and the second intersection;
Lt; / RTI >
상기 다각형 형상의 지시선을 상기 제1 대상물 및 상기 제2 대상물에 투사하는 단계는
상기 다각형 형상을 구성하는 복수의 변들 각각에 서로 다른 색상의 지시선을 투사하는 단계를 포함하고,
상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계는
상기 서로 다른 색상에서 상기 제1 변을 나타내는 색상을 식별하여 상기 제1 변에 대응하는 복수의 추세선들을 추출하는 단계를 포함하는,
측정 방법.The method according to claim 1,
Projecting the polygonal leader lines onto the first object and the second object,
Projecting an indicator line of different colors on each of the plurality of sides constituting the polygonal shape,
The step of extracting a plurality of trend lines corresponding to the first side
Identifying a color representing the first side in the different color, and extracting a plurality of trend lines corresponding to the first side;
How to measure.
상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계는
상기 제1 교차점 및 상기 제2 교차점 간의 거리, 및 참조 다각형에서 상기 제1 변에 대응하는 변의 길이를 비교하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계를 포함하는,
측정 방법.The method according to claim 1,
Wherein determining the distance between the first object and the second object comprises:
Determining a distance between the first object and the second object by comparing a distance between the first intersection point and the second intersection point and a length of a side corresponding to the first side in a reference polygon,
How to measure.
상기 촬영 영상을 획득하는 단계 이후에, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 거리를 결정하는 단계
를 더 포함하는, 측정 방법.The method according to claim 1,
Determining a photographing distance based on the length of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographing image after the step of acquiring the photographing image
≪ / RTI >
상기 촬영 거리를 결정하는 단계는
상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함하는, 측정 방법.5. The method of claim 4,
The step of determining the shooting distance
The reference photographing distance at which the reference polygon is formed and the length of at least one of the plurality of sides constituting the polygonal shape and a plurality of the reference polygons constituting the reference polygon when the inside angles of the polygonal- And determining the imaging distance based on a ratio between the lengths of at least one of the sides of the imaging lens.
상기 촬영 영상을 획득하는 단계 이후에, 상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 상기 복수의 변들의 길이 및 상기 다각형 형상의 내각들에 기초하여 촬영 각도를 결정하는 단계
를 더 포함하는, 측정 방법.The method according to claim 1,
Determining a photographing angle based on the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographing image after the step of acquiring the photographing image
≪ / RTI >
상기 촬영 각도를 결정하는 단계는
상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 어느 하나, 및 상기 다각형 형상의 내각들 중 적어도 하나 및 상기 참조 다각형의 내각들 중 적어도 하나 간의 비율에 기초하여 상기 촬영 각도를 결정하는 단계를 포함하는, 측정 방법.The method according to claim 6,
The step of determining the photographing angle
A ratio between a length of at least one of the plurality of sides constituting the polygonal shape and a length of at least one of a plurality of sides constituting the reference polygon and a ratio of a length of at least one of the plurality of sides constituting the polygonal shape, And determining the angle of view based on a ratio between at least one of the interior angles of the reference polygon and at least one of the interior angles of the polygonal shape.
상기 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 직선 형상에 대응하는 복수의 추세선들을 추출하는 단계;
상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하는 단계-상기 제1 교차점 및 상기 제2 교차점은 상기 직선 형상이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-; 및
상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 단계
를 포함하는 측정 방법.Projecting a straight-line leader line onto the first object and the second object;
Capturing the first object and the second object in a state in which the leader is projected onto the first object and the second object to obtain a captured image;
Extracting a plurality of trend lines corresponding to the straight line shape based on the photographed image;
Extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the second object based on the plurality of trend lines, the first intersection point and the second intersection point being straight lines Corresponding to inflection points caused by projecting a shape at an angle that is not perpendicular to the first object and the second object; And
Determining a distance between the first object and the second object based on the first intersection and the second intersection;
Lt; / RTI >
상기 다각형 형상의 지시선이 상기 대상물에 투사된 상태에서 상기 대상물을 촬영하여 촬영 영상을 획득하는 단계;
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들의 길이 및 상기 다각형 형상의 내각들 중 적어도 하나를 나타내는 제1 정보를 산출하는 단계;
참조 다각형을 구성하는 복수의 변들의 길이 및 상기 참조 다각형의 내각들 중 적어도 하나를 나타내는 제2 정보를 획득하는 단계; 및
상기 제1 정보 및 상기 제2 정보를 비교하여 촬영 거리 및 촬영 각도 중 적어도 하나를 결정하는 단계
를 포함하는, 측정 방법.Projecting a polygonal leader line onto an object;
Capturing an image of the object in a state in which the polygonal leader line is projected on the object to obtain a captured image;
Calculating first information representing at least one of the lengths of the plurality of sides constituting the polygonal shape and the interior angles of the polygonal shape based on the photographed image;
Obtaining second information representing at least one of the lengths of the plurality of sides constituting the reference polygon and the internal angles of the reference polygon; And
Comparing the first information and the second information to determine at least one of an imaging distance and an imaging angle
. ≪ / RTI >
상기 촬영 거리 및 상기 촬영 각도 중 적어도 하나를 결정하는 단계는
상기 다각형 형상의 내각들 및 참조 다각형의 내각들이 일치하는 경우, 상기 참조 다각형이 형성되는 기준 촬영 거리 및, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율에 기초하여 상기 촬영 거리를 결정하는 단계를 포함하는, 측정 방법.10. The method of claim 9,
Wherein the step of determining at least one of the shooting distance and the shooting angle
The reference photographing distance at which the reference polygon is formed and the length of at least one of the plurality of sides constituting the polygonal shape and a plurality of the reference polygons constituting the reference polygon when the inside angles of the polygonal- And determining the imaging distance based on a ratio between the lengths of at least one of the sides of the imaging lens.
상기 촬영 거리 및 상기 촬영 각도 중 적어도 하나를 결정하는 단계는
상기 다각형 형상의 내각들 중 적어도 하나 및 참조 다각형의 내각들 중 적어도 하나 간의 비율, 상기 다각형 형상을 구성하는 상기 복수의 변들 중 적어도 하나의 길이 및 상기 참조 다각형을 구성하는 복수의 변들 중 적어도 하나의 길이 간의 비율, 및 상기 다각형 형상을 구성하는 상기 복수의 변들 중 카메라의 회전 방향으로 마주하는 두 변들의 길이 간의 비율 중 적어도 하나에 기초하여 상기 촬영 각도를 결정하는 단계를 포함하는, 측정 방법.10. The method of claim 9,
Wherein the step of determining at least one of the shooting distance and the shooting angle
A ratio between at least one of the internal angles of the polygonal shape and at least one of internal angles of the reference polygon, at least one of the plurality of sides constituting the polygonal shape, and at least one of a plurality of sides constituting the reference polygon Determining a photographing angle based on at least one of a ratio between the lengths and a ratio of lengths of two sides of the plurality of sides constituting the polygonal shape in the direction of rotation of the camera.
상기 다각형 형상의 지시선이 상기 제1 대상물 및 상기 제2 대상물에 투사된 상태에서 상기 제1 대상물 및 상기 제2 대상물을 촬영하여 촬영 영상을 생성하는 카메라; 및
상기 촬영 영상에 기초하여 상기 다각형 형상을 구성하는 복수의 변들 중 제1 변에 대응하는 복수의 추세선들을 추출하고, 상기 복수의 추세선들에 기초하여 상기 제1 대상물의 경계에 대응하는 제1 교차점 및 상기 제2 대상물의 경계에 대응하는 제2 교차점을 추출하고-상기 제1 교차점 및 상기 제2 교차점은 상기 제1 변이 상기 제1 대상물 및 상기 제2 대상물에 관해 수직이 아닌 일정한 각도로 투사됨으로써 발생하는 변곡점들에 대응함-, 상기 제1 교차점 및 상기 제2 교차점에 기초하여 상기 제1 대상물 및 상기 제2 대상물 간의 거리를 결정하는 영상 처리부
를 포함하는 측정 장치.A projection unit for projecting a polygonal leader line onto the first object and the second object;
A camera for photographing the first object and the second object in a state in which the polygonal leader line is projected onto the first object and the second object to generate a photographed image; And
Extracting a plurality of trend lines corresponding to a first side of a plurality of sides constituting the polygonal shape on the basis of the photographed image and extracting a first intersection point corresponding to a boundary of the first object and a second intersection point corresponding to a boundary of the first object based on the plurality of trend lines Wherein the first intersection point and the second intersection point are generated by projecting the first side at a certain angle not perpendicular to the first object and the second object, - determining a distance between the first object and the second object based on the first intersection point and the second intersection point,
.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170049010 | 2017-04-17 | ||
KR20170049010 | 2017-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180116738A KR20180116738A (en) | 2018-10-25 |
KR101967554B1 true KR101967554B1 (en) | 2019-04-09 |
Family
ID=64131701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170161793A KR101967554B1 (en) | 2017-04-17 | 2017-11-29 | Method for measuring spatial information using index line and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101967554B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102483188B1 (en) * | 2020-10-30 | 2023-01-04 | 주식회사 나눔건설사업관리 | Method for measuring architecture using image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101188357B1 (en) | 2011-04-21 | 2012-10-08 | 정제교 | Method for three dimensional recognition by two dimensional detection of multi projected light with predetermined magnification angle |
JP2018524700A (en) | 2015-06-29 | 2018-08-30 | ゼネラル・エレクトリック・カンパニイ | Method and system for detecting known measurable object features |
-
2017
- 2017-11-29 KR KR1020170161793A patent/KR101967554B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101188357B1 (en) | 2011-04-21 | 2012-10-08 | 정제교 | Method for three dimensional recognition by two dimensional detection of multi projected light with predetermined magnification angle |
JP2018524700A (en) | 2015-06-29 | 2018-08-30 | ゼネラル・エレクトリック・カンパニイ | Method and system for detecting known measurable object features |
Also Published As
Publication number | Publication date |
---|---|
KR20180116738A (en) | 2018-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2961921C (en) | Camera calibration method using a calibration target | |
KR102209008B1 (en) | Apparatus for estimating camera pose and method for estimating camera pose | |
KR102003187B1 (en) | Method and apparatus for modeling resultant image to which each of ground control points including location information of survey site is matched using images captured by unmanned air vehicle | |
EP2154650A1 (en) | 3D time-of-flight camera system and position/orientation calibration method therefor | |
KR20200040374A (en) | Method and device to estimate distance | |
EP2990765A1 (en) | Image processing device, image processing method, and program therefor | |
KR102354299B1 (en) | Camera calibration method using single image and apparatus therefor | |
CN112798811B (en) | Speed measurement method, device and equipment | |
US9584768B2 (en) | Information processing apparatus, information processing method and computer-readable storage medium | |
KR101349376B1 (en) | Method of automatic plotting of building plane for numerical map by using target | |
KR101925289B1 (en) | Method and apparatus for identifying location/angle of terminal | |
CN114820793A (en) | Target detection and target point positioning method and system based on unmanned aerial vehicle | |
CN111121724A (en) | Method and device for distance measurement by using unmanned aerial vehicle | |
KR101967554B1 (en) | Method for measuring spatial information using index line and apparatus thereof | |
KR102390457B1 (en) | Inspection apparatus of lidar alignment error using camera and the method thereof | |
KR102050995B1 (en) | Apparatus and method for reliability evaluation of spatial coordinates | |
KR101575934B1 (en) | Apparatus and method for motion capture using inertial sensor and optical sensor | |
Del Pizzo et al. | Reliable vessel attitude estimation by wide angle camera | |
KR102295857B1 (en) | Calibration Method for Real-Time Spherical 3D 360 Imaging and Apparatus Therefor | |
KR101283189B1 (en) | Apparatus and method for calculating satellite visibility | |
JP5473683B2 (en) | Feature detection system | |
US10591300B2 (en) | Fixing magnetometer based azimuth according to sun positioning | |
CN115272452A (en) | Target detection positioning method and device, unmanned aerial vehicle and storage medium | |
KR101475742B1 (en) | Apparatus and method for performing photogrammetry | |
JP6546898B2 (en) | Three-dimensional space identification apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |