KR20140031129A - Virtual face generating method of omni-directional image using user interaction - Google Patents

Virtual face generating method of omni-directional image using user interaction Download PDF

Info

Publication number
KR20140031129A
KR20140031129A KR1020130103878A KR20130103878A KR20140031129A KR 20140031129 A KR20140031129 A KR 20140031129A KR 1020130103878 A KR1020130103878 A KR 1020130103878A KR 20130103878 A KR20130103878 A KR 20130103878A KR 20140031129 A KR20140031129 A KR 20140031129A
Authority
KR
South Korea
Prior art keywords
omnidirectional image
virtual
image
generating
grid
Prior art date
Application number
KR1020130103878A
Other languages
Korean (ko)
Inventor
최영수
이자영
신진수
이용주
홍주석
Original Assignee
(주)지에스엠솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지에스엠솔루션 filed Critical (주)지에스엠솔루션
Publication of KR20140031129A publication Critical patent/KR20140031129A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Abstract

The present invention relates to a virtual surface generating method of an omnidirectional image based on a user interaction and, more specifically, to a method which easily grasps the position of a structure in an omnidirectional image by generating a grid virtual surface by designating two points on the omnidirectional image that a user obtains and enables the user to obtain a value by calculating the length and area of the structure with an accurate numerical value. For the aforementioned, the virtual surface generating method of an omnidirectional image based on a user interaction according to the present invention includes a designating step, a cross line generating step, a grid virtual surface generating step, a coordinate forming step, a coordinate extracting step, an accumulated information obtaining step, and a calculating step. The designating step designates two points on an image by a user input based on the obtained omnidirectional image. The cross line generating step generates a line which is generated by connecting the two points as a cross line of a virtual surface. The grid virtual surface generating step generates a grid virtual wall surface and a virtual bottom surface by using the determined cross line. The coordinate forming step forms stereoscopic coordinates based on the grid virtual surface. The coordinate extracting step extracts the stereoscopic coordinates of a structure in the omnidirectional image. The accumulated information obtaining step obtains accumulated information about the omnidirectional image. The calculating step calculates the length and area of the structure by using the accumulated information and the stereoscopic coordinates. [Reference numerals] (AA) Start; (BB) End; (S310) Collect overlapped front images and position and posture information; (S320) Calculate an image coordinate value of a conjugate point about a target point; (S330) Calculate an image point vector on a camera coordinate system; (S340) Induce the equation of a line which has a ground point on a ground coordinate system; (S350) Determine the three-dimensional coordinate value of the target point

Description

사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법 {VIRTUAL FACE GENERATING METHOD OF OMNI-DIRECTIONAL IMAGE USING USER INTERACTION}How to create virtual plane of omnidirectional image based on user interaction {VIRTUAL FACE GENERATING METHOD OF OMNI-DIRECTIONAL IMAGE USING USER INTERACTION}

본 발명은 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법으로써, 보다 상세하게는 사용자가 획득한 전방위 영상 위에 2개의 점을 지정하여 가상의 벽면 및 가상의 바닥면을 생성함으로써, 전방위 영상 내에 구조물의 위치를 쉽게 파악하고, 이에 사용자가 구조물의 길이 및 면적을 정확한 수치로 계산하여 값을 얻을 수 있도록 하는 방법에 관한 것이다.The present invention is a method for generating a virtual plane of an omnidirectional image based on user interaction, and more specifically, by designating two points on an omnidirectional image acquired by a user to generate a virtual wall surface and a virtual floor surface, the structure of the structure within the omnidirectional image is generated. The present invention relates to a method for easily identifying a location and thus allowing a user to calculate the exact length and area of a structure to obtain a value.

현대 사람들은 웹브라우저를 통해서 실제 거리의 모습을 볼 수 있는 로드뷰를 많이 사용한다. 로드뷰 서비스는 전국 각지의 실제 거리 모습을 DSLR 카메라 고해상도 파노라마로 사진을 촬영하여 거리의 생생한 모습을 사용자가 3차원으로 볼 수 있도록 게시한 지도 서비스이다. Modern people use a lot of road views to see the actual street through a web browser. Roadview service is a map service that allows users to see the lively streets in three dimensions by taking pictures of real streets around the country with high-resolution panoramas of DSLR cameras.

일반적으로 스트리트뷰(Street View)나 다음의 로드뷰(Road View) 등이 널리 알려져 있으며, 360도 파노라마를 촬영할 수 있는 특수 제작된 촬영 장비와 GPS추적장치를 이용하여 촬영한다. 그리고 촬영된 영상을 스티칭하여 하나의 영상으로 만든다. 이는 사용자가 웹브라우저를 통해서 여행을 가기에 앞서 초행길이라 길을 모를 때 또는 보고 싶은 거리가 있을 때 검색자가 찾고자 하는 거리의 모습을 자세히 보여주고, 식당 간판이나 버스정류장, 교통표지판까지도 선명하게 보여주기 때문에 이는 마치 거리에 실제 가서 보는 것과 같은 느낌을 준다.In general, Street View and Road View of the following are widely known, and are photographed using a specially made photographing equipment and a GPS tracking device capable of capturing 360-degree panoramas. And the stitched images are stitched into a single image. This is the first way before the user travels through a web browser, so it shows the details of what the searcher is looking for when they don't know the road or when they want to see it, and clearly shows restaurant signs, bus stops and even traffic signs. This makes it feel like you are actually going to the street.

그러나 로드뷰는 그 길의 겉모습만 보여주기 때문에 각 구조물들의 위치나 거리 같은 정보는 알기 힘들다는 단점이 있으며, 이에 구조물들의 위치나 거리와 같은 정보를 정확히 알기 위해서는 영상을 이용하여 3차원 좌표를 구하는 과정이 필요하다.However, the road view shows only the appearance of the road, so the information such as the location and distance of each structure is difficult to know. Therefore, in order to know the information such as the location or distance of the structures accurately, the 3D coordinates are used by using an image. The process of obtaining it is necessary.

이에 한국공개 제10-2011-0119589호 "전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법"은 도 1에 도시된 바와 같이 (a)영상정보 획득수단이 중첩 전방위 영상을 획득하는 단계; (b)위치정보 획득수단이 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 단계; (c)사용자 단말기가 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상점 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계; (d)상기 사용자 단말기가 산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 직선의 방정식을 유도하는 단계; 및 (e)상기 사용자 단말기가 유도된 상기 직선의 방정식으로 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계;를 포함한다.Accordingly, Korean Laid-Open Publication No. 10-2011-0119589 "System and method for determining three-dimensional coordinates of an object using an omnidirectional image", as shown in Figure 1 (a) the image information acquisition means is a superimposed omnidirectional image Obtaining; (b) acquiring position information and attitude information of the image information acquiring means by the position information acquiring means; (c) calculating, by the user terminal, an image point vector on the camera coordinate system based on the superimposed omnidirectional image, the positional information, the attitude information, and the image point coordinate value of the conjugate point for the predetermined object point; (d) deriving an equation of a straight line in which a ground point exists on the ground coordinate system using the image point vector on the camera coordinate system calculated by the user terminal; And (e) determining a three-dimensional coordinate value for the target point using the intersection calculated by calculating the intersection point by the equation of the straight line derived from the user terminal.

이때, 두 개의 중첩된 전방위 영상에서 선정한 공액점으로부터 유도한 각각의 직선의 교점을 계산하여 대상지점의 3차원 좌표를 결정할 수 있는 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정한다.At this time, the three-dimensional coordinates of the object are determined using the overlapping omnidirectional image that can determine the three-dimensional coordinates of the target point by calculating the intersection point of each straight line derived from the conjugated points selected from the two overlapping omnidirectional images.

하지만 위 선행기술에서 3차원 좌표를 결정하는데 있어서 두 개의 중첩된 전방위 영상을 가지고 공액점으로부터 유도한 직선의 직교점을 중심으로 계산하기 때문에 단영상일 경우 3차원 좌표를 정확히 구하기는 쉽지 않을 것이다.However, in determining the three-dimensional coordinates in the prior art, since it is calculated based on the orthogonal point of the straight line derived from the conjugate point with two overlapping omnidirectional images, it may not be easy to accurately obtain the three-dimensional coordinates for the single image.

이에 중첩 영상뿐만 아니라 단영상에서도 영상내의 구조물의 위치를 정확히 구할 수 있는 기술이 요구된다.This requires a technique that can accurately determine the position of the structure within the image in the single image as well as the superimposed image.

한국공개 제10-2011-0119589호Korean Publication No. 10-2011-0119589

본 발명의 목적은, 전방위 영상 내에 구조물의 위치에 해당하는 입체공간 좌표를 취득할 수 있게 한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 제공하는 것이다. An object of the present invention is to provide a method for generating a virtual plane of an omnidirectional image based on user interaction, which enables to obtain stereoscopic coordinates corresponding to the position of a structure in the omnidirectional image.

또한, 본 발명의 다른 목적은, 전방위 영상 위에 사용자가 지정한 2개의 점으로 입체공간 좌표가 구현된 그리드 가상면을 생성함으로써, 전방위 영상 내에 구조물의 실제 길이 및 면적을 쉽게 구할 수 있게 한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 제공하는 것이다. In addition, another object of the present invention is to create a grid virtual surface in which the three-dimensional spatial coordinates are implemented on a user-specified two points on the omnidirectional image, so that the actual length and area of the structure within the omnidirectional image can be easily obtained. It is to provide a virtual surface generation method based on the omnidirectional image.

또한, 본 발명의 또 다른 목적은, 사용자가 지정한 2개의 점을 이용해서 그리드 좌표의 기준이 되는 가상면을 자유롭게 설정할 수 있게 함으로써, 사용자의 자유도를 높일 수 있게 한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 제공하는 것이다. In addition, another object of the present invention, by using a user-designated two points to be able to freely set the virtual plane that is the reference of the grid coordinates, the virtualization of the omnidirectional image based on the user interaction to increase the degree of freedom of the user It is to provide a method for generating faces.

또한, 본 발명의 또 다른 목적은, 기존에 두 개 이상의 중첩된 영상을 가지고 영상 내에 구조물의 위치를 파악하는게 아니라, 단영상만으로도 사용자가 영상 위에 2개의 점을 지정함으로써 영상 내에 구조물의 위치를 쉽게 파악할 수 있게 한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 제공하는 것이다. In addition, another object of the present invention is not to determine the position of the structure in the image having two or more overlapping images, but the user can easily specify the position of the structure in the image by specifying two points on the image with only a single image. It is to provide a virtual plane generation method of the omnidirectional image based on the user interaction that can be identified.

또한, 본 발명의 또 다른 목적은, 가상면에 출력된 콘텐츠를 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있게 한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 제공하는 것이다. In addition, another object of the present invention, the user can obtain the coordinates by clicking on the image on the content output on the virtual surface, and link the facility information to the acquired coordinates to service the new spatial information It is to provide a virtual surface generation method of the omnidirectional image based on the interaction.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 취득한 전방위 영상을 기반으로 사용자 입력에 의해 영상 위에 2개의 점을 지정하는 지정단계; 상기 2개의 점을 연결하여 생기는 선을 가상면의 교차선으로 결정하는 교차선 생성단계; 및 상기 결정된 교차선을 이용하여 그리드 가상벽면과 가상바닥면을 생성하는 그리드 가상면 생성단계를 포함하는 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법을 통해 달성된다.According to a feature of the present invention for achieving the above object, the present invention, the designation step of designating two points on the image by the user input based on the obtained omnidirectional image; An intersection line generation step of determining a line formed by connecting the two points as an intersection line of an imaginary plane; And a grid virtual surface generation step of generating a grid virtual wall surface and a virtual floor surface by using the determined intersection line.

또한, 본 발명에서는 상기 그리드 가상벽면과 가상바닥면을 기준으로 하여 입체공간 좌표를 구현하는 좌표 구현단계; 및 상기 전방위 영상 내의 구조물의 상기 입체공간 좌표를 추출하는 좌표 추출단계를 더 포함할 수 있다.In addition, the present invention is a coordinate implementation step of implementing a three-dimensional space coordinates based on the grid virtual wall surface and the virtual floor surface; And extracting the three-dimensional spatial coordinates of the structure in the omnidirectional image.

또한, 본 발명에서는 상기 전방위 영상에 대한 축척 정보를 획득하는 축척 정보 획득단계; 및 상기 축척 정보와 상기 입체공간 좌표를 이용하여 상기 구조물의 길이 및 면적을 계산하는 계산단계를 더 포함할 수 있다.In addition, the present invention, the scale information obtaining step of obtaining the scale information for the omnidirectional image; And calculating a length and an area of the structure using the scale information and the three-dimensional space coordinates.

또한, 본 발명에서는 상기 계산단계 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행될 수 있다.In addition, in the present invention, the step of implementing the content in the omnidirectional image after the calculating step may be further performed.

또한, 본 발명에서는 상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 바닥면에 대해 특정 지점을 선택하여 면적 계산이 가능한 것을 특징으로 할 수 있다.In addition, the present invention may be characterized in that the area can be calculated by selecting a specific point for the bottom surface of the omnidirectional image when the grid virtual surface generation step.

또한, 본 발명에서는 상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 벽면에 대해 광고물의 사이즈를 판별한 후 해당 사이즈에 맞게 이미지 및 동영상을 삽입 가능한 것을 특징으로 할 수 있다.In addition, the present invention may be characterized in that the image and the video can be inserted according to the size after determining the size of the advertisement for the wall surface of the omnidirectional image when performing the grid virtual surface generation step.

또한, 본 발명에서는 상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 바닥면에 3차원 객체 생성이 가능한 것을 특징으로 할 수 있다.In addition, the present invention may be characterized in that the three-dimensional object can be generated on the bottom surface of the omnidirectional image when the grid virtual surface generation step.

본 발명에 의하면, 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법은 취득한 전방위 영상 위에 사용자가 2개의 점을 지정하여 이를 가지고 입체공간 좌표가 구현된 그리드 가상면을 생성함으로써, 상기 전방위 영상 내에 구조물의 위치에 해당하는 입체공간 좌표를 손쉽게 얻을 수 있는 효과가 있다.According to the present invention, a method for generating a virtual plane of an omnidirectional image based on user interaction generates a grid virtual plane in which three-dimensional coordinates are implemented by a user designating two points on the acquired omnidirectional image, thereby creating a grid virtual plane in the omnidirectional image. There is an effect that can easily obtain the three-dimensional space coordinates corresponding to the position.

또한, 본 발명은, 상기 입체공간 좌표를 얻음으로써, 전방위 영상 내에 구조물의 실제 길이 및 면적을 쉽게 구할 수 있는 효과가 있다.In addition, the present invention, by obtaining the three-dimensional space coordinates, there is an effect that can easily obtain the actual length and area of the structure in the omnidirectional image.

또한, 본 발명은, 단영상만으로도 영상 내에 구조물의 실제 길이 및 면적을 쉽게 구할 수 있는 효과가 있다.In addition, the present invention has the effect that it is possible to easily obtain the actual length and area of the structure in the image only a single image.

또한, 본 발명은, 전방위 영상이 어느 각도에서 바라본 구조물의 영상인지에 관계없이, 모두 정확한 길이, 및 면적을 구할 수 있는 효과가 있다. In addition, the present invention has the effect of obtaining the correct length and area, regardless of whether the omnidirectional image is the image of the structure viewed from which angle.

또한, 본 발명은, 사용자가 지정한 2개의 점을 이용해서 그리드 좌표의 기준이 되는 가상 벽면과 가상바닥면을 자유롭게 설정할 수 있으므로, 사용자의 자유도를 높일 수 있다.In addition, the present invention can freely set the virtual wall surface and the virtual floor surface serving as the reference for the grid coordinates using two points designated by the user, thereby increasing the degree of freedom of the user.

또한, 본 발명은, 가상면에 출력된 콘텐츠를 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있다.In addition, the present invention, the user can obtain the coordinates by clicking on the image on the content output on the virtual surface, and can link the facility information to the acquired coordinates to serve new spatial information.

도 1은 종래기술에서 3차원 좌표를 결정하기 위한 방법을 나타내는 예시도이다
도 2는 본 발명의 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법의 전체 흐름도를 나타낸 도면이다.
도 3은 본 발명의 일실시예로 취득한 전방위 영상 위에 사용자가 2개의 점을 지정한 예를 나타낸 도면이다.
도 4는 본 발명의 일실시예로 가상면이 생긴 예를 나타낸 도면이다.
도 5는 본 발명의 일실시예로 전방위 영상 내에 구조물의 입체공간 좌표를 추출하는 단계의 예를 나타낸 도면이다.
도 6은 본 발명의 일실시예로 축척 정보를 획득하여 계산하는 단계의 예를 나타낸 도면이다.
도 7은 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 거리측정이 구현되는 상태를 나타낸 사진이다.
도 8은 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에 의해 특정 지점에 대한 좌표를 구하는 구-평면 변환 모델의 참고도이다.
도 9는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 바닥면 계산이 구현되는 상태를 나타낸 사진이다.
도 10은 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 가상의 벽면 활용이 구현되는 상태를 나타낸 사진이다.
도 11은 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 객체 생성 및 GUI(Graphic User Interface)가 구현되는 상태를 나타낸 사진이다.
1 is an exemplary view showing a method for determining three-dimensional coordinates in the prior art.
2 is a diagram illustrating an overall flowchart of a method for generating a virtual plane of an omnidirectional image based on user interaction of the present invention.
3 is a diagram illustrating an example in which a user designates two points on an omnidirectional image acquired according to an embodiment of the present invention.
4 is a diagram illustrating an example in which a virtual surface is generated according to an embodiment of the present invention.
5 is a diagram illustrating an example of extracting three-dimensional spatial coordinates of a structure in an omnidirectional image according to an embodiment of the present invention.
6 is a diagram illustrating an example of obtaining and calculating scale information according to an embodiment of the present invention.
7 is a photograph showing a state in which distance measurement is implemented in a method for generating a virtual plane of an omnidirectional image based on user interaction according to the present invention.
8 is a reference diagram of a sphere-plane transformation model for obtaining coordinates for a specific point by a virtual plane generation method of an omnidirectional image based on user interaction according to the present invention.
9 is a photograph showing a state in which the floor surface calculation is implemented in the virtual surface generation method of the omnidirectional image based on the user interaction according to the present invention.
10 is a photograph showing a state in which virtual wall utilization is implemented in a virtual plane generation method of an omnidirectional image based on user interaction according to the present invention.
11 is a photograph showing a state in which an object is generated and a GUI (Graphic User Interface) is implemented in the method for generating a virtual plane of the omnidirectional image based on user interaction according to the present invention.

이하, 본 발명의 일실시예에 따른 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에 대해서 도 2에 도시된 흐름도를 참조하여 보다 구체적으로 설명한다.Hereinafter, a method for generating a virtual plane of an omnidirectional image based on user interaction according to an embodiment of the present invention will be described in more detail with reference to the flowchart shown in FIG. 2.

도 2는 본 발명에 따른 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법으로써, 지정단계(S100), 교차선 생성단계(S110), 그리드 가상면 생성단계(S120), 좌표 구현단계(S130), 좌표 추출단계(S140), 축척 정보 획득단계(S150), 계산단계(S160)를 포함하여 이루어진다.2 is a virtual plane generation method of an omnidirectional image based on user interaction according to the present invention, a designation step (S100), an intersection line generation step (S110), a grid virtual plane generation step (S120), a coordinate implementation step (S130), The coordinate extraction step S140, the scale information acquisition step S150, and the calculation step S160 are performed.

단계S100은 취득한 전방위 영상을 기반으로 사용자 입력에 의해 영상 위에 2개의 점을 지정한다. Step S100 specifies two points on the image by user input based on the acquired omnidirectional image.

도 3을 예로 보면 빨간색으로 표시한 부분이 사용자가 2개의 점을 입력한 지점이다. 상기 2개의 점을 지정하는 위치는 영상 위 어느 곳이든 상관없다.Referring to FIG. 3 as an example, the portion marked in red is a point at which the user inputs two points. The position specifying the two points may be anywhere on the image.

단계S110은 상기 2개의 점을 연결하여 가상벽면과 가상바닥면을 연결하는 가상면의 교차선을 생성한다.In step S110, the two points are connected to each other to create an intersection line of the virtual surface connecting the virtual wall surface and the virtual floor surface.

단계S120은 단계S110에서 결정된 2개의 점을 연결하여 생성된 교차선을 이용해 그리드 가상벽면 및 가상바닥면을 생성한다. Step S120 generates a grid virtual wall surface and a virtual floor surface by using the intersection line generated by connecting the two points determined in step S110.

도 4에는 상기 그리드 가상면의 생성된 모습의 예가 도시되어 있고, 상기 그리드 가상면은 상기 전방위 영상 내의 구조물의 위치를 추적하여 상기 입체공간의 상대 좌표를 얻기 위함이다.4 shows an example of the generated state of the grid virtual surface, and the grid virtual surface is for obtaining the relative coordinates of the three-dimensional space by tracking the position of the structure in the omnidirectional image.

단계S130은 생성된 상기 그리드 가상면을 기준으로 하여 입체공간 좌표를 구현한다. In operation S130, three-dimensional space coordinates are implemented based on the generated grid virtual plane.

상기 입체공간의 좌표가 구현됨에 따라, 상기 전방위 영상 내에 존재하는 모든 구조물의 특징 점들에 대한 상기 입체공간 좌표를 파악할 수 있게 된다.As the coordinates of the three-dimensional space are implemented, the three-dimensional space coordinates of the feature points of all the structures existing in the omnidirectional image can be identified.

단계S140은 단계S130에서 파악된 상기 전방위 영상 내의 구조물의 특징 점들에 대한 상기 입체공간 좌표를 추출한다. Step S140 extracts the three-dimensional space coordinates of the feature points of the structure in the omnidirectional image identified in step S130.

그리고 나서 상기 구조물의 추출된 입체공간 좌표를 선택하면 그에 맞는 위치가 그리드 가상면에 매칭되어 표시된다. 도 5는 상기 획득한 영상 내의 존재하는 한 상가의 윈도우 면적을 계산하기 위한 과정으로, 윈도우 각 모서리의 네 점을 상기 그리드 가상면에 매칭한 예를 나타낸 것이다. 이처럼 가상 벽면과 가상 바닥면으로부터 상기 전방위 영상 내에 구조물들의 좌표를 쉽게 파악하여 볼 수 있기 때문에, 이로부터 정확한 정보를 얻을 수 있다.Then, when the extracted three-dimensional space coordinates of the structure is selected, the corresponding position is displayed on the grid virtual plane. FIG. 5 is a process for calculating a window area of a shopping mall existing in the acquired image, and shows an example in which four points of each corner of a window are matched with the grid virtual plane. Thus, since the coordinates of the structures in the omnidirectional image can be easily seen from the virtual wall and the virtual floor, accurate information can be obtained therefrom.

단계S150은 상기 전방위 영상에 대한 축척 정보를 획득한다.Step S150 obtains scale information on the omnidirectional image.

상기 그리드 가상벽면과 가상바닥면을 기준으로 형성된 입체공간 좌표는 현지에서의 거리를 지도 상의 거리로 표시한 축척을 고려하여 형성되며, 이에 상기 단계S140에서 얻은 상기 전방위 영상 내에 구조물들의 좌표로부터 축척 정보를 얻을 수 있다.The three-dimensional spatial coordinates formed on the basis of the grid virtual wall surface and the virtual floor surface are formed in consideration of the scale in which the distance in the area is represented by the distance on the map, and thus scale information from the coordinates of the structures in the omnidirectional image obtained in step S140. Can be obtained.

단계S160은 상기 축척 정보와 상기 입체공간 좌표를 이용하여 상기 구조물의 길이 및 면적을 계산한다.Step S160 calculates the length and area of the structure using the scale information and the three-dimensional space coordinates.

도 6은 축척정보를 획득하는 예를 나타낸 것으로, 도 5에서 얻은 윈도우 모서리가 매칭되어 표시된 상기 그리드 가상면의 점을 가지고, 상기 그리드 가상면에 나타는 점을 클릭하여 실제 윈도우의 가로길이 8m, 세로길이 5m라는 축척된 정보를 얻게 된다. 또한 4개의 점을 이용하여 면적이 40m²라는 정보도 얻을 수 있다.6 illustrates an example of acquiring scale information, wherein the window edges obtained in FIG. 5 have matching points of the grid virtual plane displayed and clicked on the grid virtual plane. You get the scaled information of 5m in height. It is also possible to obtain information that the area is 40m² using four points.

이처럼 사용자의 입력에 의해 상기 그리드 가상면을 형성함에 따라, 상기 영상 내에 구조물의 입체공간 좌표 매칭점을 상기 그리드 가상면에 보임으로써, 상기 영상 내에 구조물의 위치를 쉽게 구할 수 있고, 상기 구조물의 실제 길이, 면적 및 부피와 같은 정보를 보다 정확한 값으로 계산할 수 있다.As the grid virtual surface is formed by the user's input, the position of the structure within the image can be easily obtained by showing the three-dimensional spatial coordinate matching point of the structure in the image on the grid virtual surface. Information such as length, area and volume can be calculated with more accurate values.

도면에는 도시하지 않았지만, 상기 계산단계(S160) 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행될 수 있으며, 상기 콘텐츠 구현 단계는 계단, 엘리베이터, 각층에 대한 호실 등의 건물 정보가 3D 콘텐츠로 구현되는 단계이다.Although not shown in the drawing, after performing the calculating step S160, the step of implementing content in the omnidirectional image may be further performed. The content implementing step may include building information such as stairs, elevators, and rooms for each floor. This is the step implemented.

도 7에는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 거리측정이 구현되는 상태가 사진으로 나타나 있다.7 shows a state in which a distance measurement is implemented in the virtual plane generation method of the omnidirectional image based on the user interaction according to the present invention.

한편, 상기 그리드 가상면 생성단계(S120) 수행시 특정 공간에 가상의 벽면 및 가상의 바닥면을 생성하기 위해서는 상기 특정 공간에서 벽면과 바닥면의 직교선을 정의해야 한다. 만들고자 하는 직교선의 양 끝점을 클릭[도 7(a) 참조]한 후 두 점을 연결하여 가상의 벽면과 바닥면의 직교선으로 정의한다. 직교선을 기준으로 가상의 바닥면과 벽면을 생성[도 7(b) 참조]한다. 생성된 가상의 벽면과 바닥면을 통하여 거리 측정[도 7(c) 참조]이 가능하고 영상 내 2차원적인 좌표를 3차원의 좌표로 표현이 가능하다. 이는, 보다 더 정확한 좌표 및 좌표를 통한 계산이 가능하다.Meanwhile, in order to generate the virtual wall surface and the virtual floor surface in a specific space when the grid virtual surface generation step S120 is performed, an orthogonal line between the wall surface and the floor surface must be defined in the specific space. Click both end points of the orthogonal line to be made (see Fig. 7 (a)) and connect the two points to define the orthogonal line between the virtual wall and the floor. A virtual bottom surface and a wall surface are generated based on orthogonal lines (see FIG. 7 (b)). Distance measurement (see FIG. 7 (c)) can be performed through the generated virtual wall and bottom surfaces, and two-dimensional coordinates in the image can be expressed in three-dimensional coordinates. This enables calculation with more accurate coordinates and coordinates.

도 9에는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 바닥면 계산이 구현되는 상태가 사진으로 나타나 있다. 상기 그리드 가상면 생성단계(S120)에서 가상의 벽면과 바닥면을 통하여 면적 계산(도 9 참조)도 가능하다. 생성된 바닥면 내 다수의 점을 통하여 다각형 모양의 정확한 넓이측정이 가능하다.9 shows a state in which a floor calculation is implemented in the virtual plane generation method of the omnidirectional image based on user interaction according to the present invention. In the grid virtual surface generating step (S120), an area may be calculated through the virtual wall and bottom surfaces (see FIG. 9). It is possible to measure the exact width of the polygonal shape through a number of points in the generated floor.

도 10에는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 가상의 벽면 활용이 구현되는 상태가 사진으로 나타나 있다. 도 11은 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 객체 생성 및 GUI(Graphic User Interface)가 구현되는 상태를 나타낸 사진이다.FIG. 10 shows a state in which a virtual wall surface utilization is implemented in the virtual plane generation method of the omnidirectional image based on user interaction according to the present invention. 11 is a photograph showing a state in which an object is generated and a GUI (Graphic User Interface) is implemented in the method for generating a virtual plane of the omnidirectional image based on user interaction according to the present invention.

상기 가상의 벽면 및 바닥면 생성 단계(S120)에서 가상의 벽면을 이용하여 건물 내 광고물인 간판 등의 크기, 높이 등을 알 수 있으며, 이를 이용하여 이미지 및 동영상 등을 삽입하여 광고 홍보로도 활용 가능하다. (도 10 참조)In the virtual wall and floor generation step (S120), the size, height, etc. of the signboard, which is an advertisement in the building, can be known using the virtual wall, and the image and the video can be inserted to use the advertisement as an advertisement. It is possible. (See Fig. 10)

도 11에는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에서 객체 생성 및 GUI(Graphic User Interface)가 구현되는 상태가 사진으로 나타나 있다. 가상의 바닥 면 내 원하는 지점을 클릭하여 객체 생성[도 11(a) 참조]이 가능하며, 객체에 비춰지는 조명의 그림자 생성[도 11(b) 참조]이 가능하다. 생성된 객체의 크기 조절[도 11(c) 참조], 객체의 회전각도 조절[도 11(d) 참조] 및 객체 이동을 가상의 바닥 면을 기준으로 조절이 가능하다. 11 illustrates a state in which an object is created and a GUI (Graphic User Interface) is implemented in the method for generating a virtual surface of an omnidirectional image based on user interaction according to the present invention. It is possible to create an object (see FIG. 11 (a)) by clicking a desired point on the virtual floor surface, and to generate a shadow of a light shining on the object (see FIG. 11 (b)). It is possible to adjust the size of the created object (see FIG. 11 (c)), adjust the rotation angle of the object (see FIG. 11 (d)), and move the object based on the virtual floor surface.

도 8에는 본 발명에 의한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법에 의해 특정 지점에 대한 좌표를 구하는 구-평면 변환 모델이 참고도로 나타나 있다.FIG. 8 is a reference diagram of a sphere-plane transformation model for obtaining coordinates of a specific point by a virtual plane generation method of an omnidirectional image based on user interaction according to the present invention.

한편, 상기 단계S130에서의 입체공간 좌표는 구-평면 변환 모델을 이용하여 얻는 구면 영상 상의 특정 지점에 대한 좌표로, 상기 구-평면 변환 모델에 의해 가상의 바닥면과 벽면을 생성하기 위한 직교선의 두 점에 대한 좌표는 X = Z/sin(h)ㆍcos(h)ㆍcos(v), Y = Z/sin(h)ㆍcos(h)ㆍsin(v) 에 의해 구할 수 있다. (도 8 참조)On the other hand, the three-dimensional space coordinates in step S130 is a coordinate for a specific point on the spherical image obtained by using the spherical-plane transformation model, the orthogonal line for generating the virtual floor surface and the wall surface by the spherical-plane transformation model The coordinates for the two points can be obtained by X = Z / sin (h), cos (h), cos (v), and Y = Z / sin (h), cos (h), sin (v). (See Fig. 8)

이때, 카메라 높이(Z)와 직교선의 한 점에 대한 이미지 내 H,V값을 이용하여 좌표를 획득할 수 있다.
In this case, the coordinates may be obtained using the H and V values in the image of the point of the camera height Z and the orthogonal line.

이상으로 도면과 명세서를 통해 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미를 한정하거나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이행할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. Embodiments have been disclosed through the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will implement that various modifications and equivalent other embodiments are possible from this. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (7)

취득한 전방위 영상을 기반으로 사용자 입력에 의해 영상 위에 2개의 점을 지정하는 지정단계;
상기 2개의 점을 연결하여 생기는 선을 가상면의 교차선으로 결정하는 교차선 생성단계; 및
상기 결정된 교차선을 이용하여 그리드 가상벽면과 가상바닥면을 생성하는 그리드 가상면 생성단계를 포함하는 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
A designation step of designating two points on the image by a user input based on the obtained omnidirectional image;
An intersection line generation step of determining a line formed by connecting the two points as an intersection line of an imaginary plane; And
And a grid virtual surface generating step of generating a grid virtual wall surface and a virtual floor surface by using the determined intersection line.
제1항에 있어서,
상기 그리드 가상벽면과 가상바닥면을 기준으로 하여 입체공간 좌표를 구현하는 좌표 구현단계; 및
상기 전방위 영상 내의 구조물의 상기 입체공간 좌표를 추출하는 좌표 추출단계를 더 포함하는 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method of claim 1,
A coordinate implementation step of implementing three-dimensional space coordinates based on the grid virtual wall surface and the virtual floor surface; And
And a coordinate extracting step of extracting the three-dimensional spatial coordinates of the structure in the omnidirectional image.
제2항에 있어서
상기 전방위 영상에 대한 축척 정보를 획득하는 축척 정보 획득단계; 및
상기 축척 정보와 상기 입체공간 좌표를 이용하여 상기 구조물의 길이 및 면적을 계산하는 계산단계를 더 포함하는 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method according to claim 2, wherein
A scale information obtaining step of obtaining scale information of the omnidirectional image; And
And calculating a length and an area of the structure using the scale information and the three-dimensional space coordinates.
제3항에 있어서,
상기 계산단계 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행되는 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method of claim 3,
And a method of generating content in the omnidirectional image after the calculating step is further performed.
제1항에 있어서,
상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 바닥면에 대해 특정 지점을 선택하여 면적 계산이 가능한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method of claim 1,
And a method of generating a virtual plane of the omnidirectional image based on user interaction in which an area can be calculated by selecting a specific point with respect to the bottom surface of the omnidirectional image when the grid virtual plane generation step is performed.
제1항에 있어서,
상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 벽면에 대해 광고물의 사이즈를 판별한 후 해당 사이즈에 맞게 이미지 및 동영상을 삽입 가능한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method of claim 1,
And a method of generating a virtual plane of the omnidirectional image based on a user interaction capable of inserting an image and a video according to a corresponding size after determining a size of an advertisement for the wall surface of the omnidirectional image when the grid virtual plane generation step is performed.
제1항에 있어서,
상기 그리드 가상면 생성단계 수행시 상기 전방위 영상의 바닥면에 3차원 객체 생성이 가능한 사용자 인터렉션에 기반한 전방위 영상의 가상면 생성 방법.
The method of claim 1,
And a method of generating a virtual plane of the omnidirectional image based on a user interaction capable of generating a 3D object on the bottom surface of the omnidirectional image when the grid virtual plane generation step is performed.
KR1020130103878A 2012-08-30 2013-08-30 Virtual face generating method of omni-directional image using user interaction KR20140031129A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120095870 2012-08-30
KR20120095870 2012-08-30

Publications (1)

Publication Number Publication Date
KR20140031129A true KR20140031129A (en) 2014-03-12

Family

ID=50643408

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130103878A KR20140031129A (en) 2012-08-30 2013-08-30 Virtual face generating method of omni-directional image using user interaction

Country Status (1)

Country Link
KR (1) KR20140031129A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045994A (en) * 2014-10-17 2016-04-28 주식회사 케이티 Method for providing augmented reality-video game, device and system
WO2016111587A1 (en) * 2015-01-08 2016-07-14 경북대학교 산학협력단 Device and method for calculating representative width of plane figure, and device and method for calculating representative width of structure using same
KR20190076806A (en) * 2017-12-22 2019-07-02 한국기술교육대학교 산학협력단 Method for workspace modeling based on virtual wall using 3d scanner and system thereof
WO2022098491A1 (en) * 2020-11-05 2022-05-12 Streem, Inc. Remote measurements from a live video stream
KR20220120211A (en) * 2021-02-23 2022-08-30 단국대학교 산학협력단 Drone image analysis system based on deep learning for traffic measurement

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160045994A (en) * 2014-10-17 2016-04-28 주식회사 케이티 Method for providing augmented reality-video game, device and system
WO2016111587A1 (en) * 2015-01-08 2016-07-14 경북대학교 산학협력단 Device and method for calculating representative width of plane figure, and device and method for calculating representative width of structure using same
KR20160085977A (en) * 2015-01-08 2016-07-19 경북대학교 산학협력단 Apparatus and method for calculating equivalent width of plane figure, and apparatus and method for calculating equivalent width of structure
KR20190076806A (en) * 2017-12-22 2019-07-02 한국기술교육대학교 산학협력단 Method for workspace modeling based on virtual wall using 3d scanner and system thereof
WO2022098491A1 (en) * 2020-11-05 2022-05-12 Streem, Inc. Remote measurements from a live video stream
KR20220120211A (en) * 2021-02-23 2022-08-30 단국대학교 산학협력단 Drone image analysis system based on deep learning for traffic measurement

Similar Documents

Publication Publication Date Title
Yang et al. Image-based 3D scene reconstruction and exploration in augmented reality
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
KR101841668B1 (en) Apparatus and method for producing 3D model
KR101295714B1 (en) Apparatus and Method for providing 3D Augmented Reality
CN104995665B (en) Method for representing virtual information in true environment
CN104995666B (en) Method for indicating virtual information in true environment
KR101665399B1 (en) Object generation apparatus and method of based augmented reality using actual measured
WO2016082797A1 (en) Method for modeling and registering three-dimensional scene structure based on single image
KR20110068469A (en) The method for 3d object information extraction from single image without meta information
JPWO2017038160A1 (en) Surveillance information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
WO2016063796A1 (en) Calibration device
EP3413266B1 (en) Image processing device, image processing method, and image processing program
KR102097416B1 (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
KR20140031129A (en) Virtual face generating method of omni-directional image using user interaction
Şanlıoğlua et al. PHOTOGRAMMETRIC SURVEY AND 3D MODELING OF IVRIZ ROCK RELIEF IN LATE HITTITE ERA.
JP6238101B2 (en) Numerical surface layer model creation method and numerical surface layer model creation device
CN102647512A (en) All-round display method of spatial information
US20030225513A1 (en) Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context
Pan et al. Virtual-real fusion with dynamic scene from videos
WO2020040277A1 (en) Mixed reality system, program, mobile terminal device, and method
US8837813B2 (en) Mobile three dimensional imaging system
KR101404976B1 (en) System for generating a walking route POI based on image using 3Dmatching
JP2018519733A (en) Apparatus and method for obtaining an alignment error map representing the sharpness level of an image
KR101189167B1 (en) The method for 3d object information extraction from single image without meta information
Arslan 3D object reconstruction from a single image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application