WO2015182809A1 - 전방위 영상을 이용한 공간정보 구축 방법 - Google Patents

전방위 영상을 이용한 공간정보 구축 방법 Download PDF

Info

Publication number
WO2015182809A1
WO2015182809A1 PCT/KR2014/005522 KR2014005522W WO2015182809A1 WO 2015182809 A1 WO2015182809 A1 WO 2015182809A1 KR 2014005522 W KR2014005522 W KR 2014005522W WO 2015182809 A1 WO2015182809 A1 WO 2015182809A1
Authority
WO
WIPO (PCT)
Prior art keywords
omnidirectional image
image
points
coordinates
spaces
Prior art date
Application number
PCT/KR2014/005522
Other languages
English (en)
French (fr)
Inventor
신진수
이용주
이지영
Original Assignee
(주)지에스엠솔루션
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지에스엠솔루션, 서울시립대학교 산학협력단 filed Critical (주)지에스엠솔루션
Publication of WO2015182809A1 publication Critical patent/WO2015182809A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Definitions

  • the present invention relates to a method for constructing spatial information using an omnidirectional image, and more particularly, to a method of constructing spatial information using an omnidirectional image capable of realizing a plan view (3D spatial information) and omnidirectional image contents using real and internal omnidirectional images. It is about.
  • the omnidirectional image captured by the omnidirectional image camera which is a special camera, is a 360-degree omnidirectional image based on a fixed viewpoint, and the omnidirectional image provides a wide viewing angle so as to identify 360-degree omnidirectional. Therefore, the omnidirectional image may be applied to various fields such as natural landscapes, buildings, real estate, facility security surveillance, maps, virtual tours, and the like.
  • the 360-degree omnidirectional image is serviced through the web.
  • a web service system using a 360-degree omnidirectional image is based on location information acquired from a GPS at the same time as image capturing.
  • FIG. 1 is an exemplary view illustrating a method for determining three-dimensional coordinates in Korean Patent No. 1179108 (hereinafter, referred to as 'prior art').
  • a method for determining three-dimensional coordinates of an object using an overlapping omnidirectional image of the prior art includes: (a) obtaining, by the image information obtaining means, an overlapping omnidirectional image; (b) obtaining, by the position information obtaining means, position information and attitude information of the image information obtaining means; (c) calculating, by the user terminal, an image point vector on a camera coordinate system based on the overlapping omnidirectional image, the position information and attitude information, and an image point coordinate value of a conjugate point with respect to a preset target point; (d) deriving, by the user terminal, an equation of a straight line in which a ground point exists in a ground coordinate system using the calculated image point vector in the camera coordinate system; And (e) determining a three-dimensional coordinate value for the target point by using the intersection point
  • the method for determining three-dimensional coordinates of an object by using an overlapping omnidirectional image focuses on determining three-dimensional coordinates of an object point, and thus, the use of coordinates is required in addition to determining the three-dimensional coordinates of the object point.
  • An object of the present invention is to solve the problems of the prior art as described above, it is possible to produce a content by connecting each spatial image taken, the connected content can be obtained by the user through the click through the coordinates in the image
  • the present invention provides a method of constructing spatial information using a omni-directional image that enables service of new spatial information by linking facility information to acquired coordinates.
  • the present invention comprises the steps of photographing the omnidirectional image for each of two or more spaces; Generating a sectional view by selecting a specific point in the omnidirectional image of the spaces; Generating a control point of a plurality of points following the cross-sectional view of the omnidirectional image for another neighboring space after generating the cross-sectional view of the omnidirectional image; Absolute coordinates of the relative coordinates of the control points of the plurality of points; Generating a virtual wall surface and a virtual floor surface from the omnidirectional image using the absolute coordinates; And a spatial information construction method using the omnidirectional image including the step of connecting the cross-sectional views of the spaces.
  • the step of implementing content in the omnidirectional image may be further performed.
  • the point selected in the omnidirectional image of the spaces is set as the coordinates of the photographing points of the spaces, and then the relative coordinates are obtained using the H and V values clicked on the image of the spaces. Can be.
  • the virtual wall and bottom surface generation step in the present invention after clicking the end points of the orthogonal line forming the virtual wall and the bottom surface to generate the virtual wall and floor surface based on the orthogonal line. Can be.
  • the present invention may be characterized in that the area can be calculated by selecting a specific point for the bottom surface of the omnidirectional image when the virtual wall and floor generation step.
  • the present invention may be characterized in that the image and the video can be inserted in accordance with the size after determining the size of the advertisement for the wall of the omnidirectional image when performing the virtual wall and bottom surface generation step.
  • the present invention may be characterized in that the three-dimensional object can be generated on the bottom surface of the omnidirectional image when the virtual wall and bottom surface generation step is performed.
  • the user can obtain the coordinates by clicking on the image in the linked content, and link the facility information to the acquired coordinates to the new spatial information It is effective to service.
  • 1 is an exemplary view showing a method for determining three-dimensional coordinates according to the prior art.
  • FIG. 2 is a block diagram of a spatial information construction method using an omnidirectional image according to the present invention.
  • FIG. 3 is a schematic diagram illustrating a state in which a first space and a second space constructed by the spatial information construction method using the omnidirectional image according to the present invention are connected.
  • FIG. 4 is a schematic diagram illustrating a state before and after a first space and a second space are connected by a method of constructing spatial information using an omnidirectional image according to the present invention.
  • 5 to 7 are photographs showing a state in which distance measurement is implemented in a spatial information construction method using an omnidirectional image according to the present invention.
  • FIG. 8 is a reference diagram of a sphere-plane transformation model for obtaining coordinates of a specific point by the method of constructing spatial information using the omnidirectional image according to the present invention.
  • FIG. 9 is a photograph showing a state in which the floor surface calculation is implemented in the spatial information construction method using an omnidirectional image according to the present invention.
  • FIG. 10 is a photograph showing a state in which virtual wall utilization is implemented in the spatial information construction method using the omnidirectional image according to the present invention.
  • FIG. 11 to 14 are photographs showing a state in which an object is created and a graphical user interface (GUI) is implemented in the spatial information construction method using the omnidirectional image according to the present invention.
  • GUI graphical user interface
  • FIG. 15 is a picture illustrating image contents constructed by a method of constructing spatial information using an omnidirectional image according to the present invention.
  • FIG. 16 is a schematic diagram illustrating a state in which first to fourth spaces connected by the spatial information construction method using the omnidirectional image according to the present invention are connected;
  • 17 to 28 are photographs showing a procedure of a processor of the method for constructing spatial information using an omnidirectional image according to the present invention.
  • the present invention comprises the steps of photographing the omnidirectional image for each of two or more spaces; Generating a sectional view by selecting a specific point in the omnidirectional image of the spaces; Generating a control point of a plurality of points following the cross-sectional view of the omnidirectional image for another neighboring space after generating the cross-sectional view of the omnidirectional image; Absolute coordinates of the relative coordinates of the control points of the plurality of points; Generating a virtual wall surface and a virtual floor surface from the omnidirectional image using the absolute coordinates; And a spatial information construction method using the omnidirectional image including the step of connecting the cross-sectional views of the spaces.
  • the step of implementing content in the omnidirectional image may be further performed.
  • the point selected in the omnidirectional image of the spaces is set as the coordinates of the photographing points of the spaces, and then the relative coordinates are obtained using the H and V values clicked on the image of the spaces. Can be.
  • the virtual wall and bottom surface generation step in the present invention after clicking the end points of the orthogonal line forming the virtual wall and the bottom surface to generate the virtual wall and floor surface based on the orthogonal line. Can be.
  • the present invention may be characterized in that the area can be calculated by selecting a specific point for the bottom surface of the omnidirectional image when the virtual wall and floor generation step.
  • the present invention may be characterized in that the image and the video can be inserted in accordance with the size after determining the size of the advertisement for the wall of the omnidirectional image when performing the virtual wall and bottom surface generation step.
  • the present invention may be characterized in that the three-dimensional object can be generated on the bottom surface of the omnidirectional image when the virtual wall and bottom surface generation step is performed.
  • FIG. 2 is a block diagram illustrating a spatial information construction method using an omnidirectional image according to the present invention
  • FIG. 3 is connected to a first space and a second space constructed by the spatial information construction method using an omnidirectional image according to the present invention.
  • the state is shown in schematic diagram, and in FIG. 4, the state before and after connecting the first space and the second space by the spatial information construction method using the omnidirectional image according to the present invention is shown in schematic diagrams, and FIGS. 5 to 7.
  • FIG. 8 shows the coordinates for a specific point by the spatial information construction method using the omnidirectional image according to the present invention
  • a reference diagram of the spherical-plane transformation model is shown
  • FIG. 9 shows a bar in the spatial information construction method using the omni-directional image according to the present invention.
  • FIG. 15 is an image constructed through the spatial information construction method using the omnidirectional image according to the present invention.
  • the content is shown as a photograph
  • Fig. 16 is a schematic diagram showing a state in which the first to fourth spaces constructed by the spatial information construction method using the omnidirectional image according to the present invention are connected.
  • the spatial information construction method using the omni-directional image of the present invention is the omnidirectional image photographing step (S100), the cross-sectional generation step (S110), the control point acquisition step (S120), the absolute coordinate step of the relative coordinates (S130) , Virtual wall and bottom surface generation step (S140) and cross-sectional connection step (S150).
  • the space used as the object for performing the omnidirectional image capturing step S100 is illustrated as being divided into a first space and a second space, but the number of spaces may be increased or decreased.
  • the omnidirectional image capturing step S100 is a step of capturing the omnidirectional images of the first and second spaces S1 and S2 with the omnidirectional camera, respectively (the star is a photographing point).
  • a cross-sectional view of the first space S1 is generated through four selection points
  • the second space After selecting four corners C2 in the omnidirectional image of S2), a cross-sectional view of the second space S2 is generated through four selection points.
  • first and second spaces S1 and S2 to generate the cross-sectional view are illustrated as being rectangular, the present invention is not limited thereto and may be changed according to the number of corner points of the first and second spaces S1 and S2 to be created. It is possible.
  • the control point obtaining step (S120) generates a cross-sectional view of the omnidirectional image corresponding to the first space S1, and then controls a plurality of points, that is, two points, that follow the cross-sectional view of the omnidirectional image with respect to the second space S2, which is another neighboring space. This step creates a control point.
  • the relative coordinates of the first and second spaces (S1, S2) are obtained, and when the relative coordinates of the first space are obtained, a cross-sectional view is taken from the omnidirectional image of the first space (S1).
  • the four points clicked for designation are set to the X, Y, Z (0, 0, 0) points of the first space S1 and then clicked on the image of the first space S1.
  • This step is to obtain relative X, Y, and Z coordinates by using Horizontal) and V (Vertical) values.
  • the relative coordinate acquisition of the second space may include four corners clicked to designate a cross-sectional view in the omnidirectional image of the second space S2 using the relative X, Y, and Z coordinates in the first space S1. Acquiring photographing point coordinates.
  • H Horizontal
  • V Vertical value represents the value of how far from the origin
  • the left and right values based on the image origin represents +180 (left end) to -180 (right end) value
  • the upper and lower values represent +90 (lower end) to -180 (upper end) value based on the image origin.
  • the relative X, Y, and Z coordinates are coordinates for a specific point on a spherical image obtained by using a spherical-plane transformation model, and two orthogonal lines for generating virtual floor and wall surfaces by the spherical-plane transformation model.
  • the coordinates may be obtained using the H and V values in the image of the point of the camera height Z and the orthogonal line.
  • Absolute coordinate step S130 of relative coordinates is a step of absolute coordinates of the relative coordinates for the control point of the plurality of points, the absolute coordinate value is obtained through the TRANSFORMATION algorithm for the control point. Using these absolute coordinates, a cross section of each image is created and each cross section shows a continuous cross section.
  • the virtual wall and floor generation step (S140) is a step of generating the virtual wall and the bottom surface in the first space S1 and the second space S2 of the omnidirectional image based on user interaction, respectively.
  • the first space S1 may be used.
  • An imaginary bottom surface and a wall surface are generated based on orthogonal lines (see FIG. 6).
  • Distance measurements can be performed through the generated virtual wall and bottom surfaces, and two-dimensional coordinates in the image can be expressed in three-dimensional coordinates. It is possible to calculate through more accurate coordinates and coordinates.
  • an area calculation (see FIG. 7) may be performed through the virtual wall and bottom surfaces. Many points in the generated floor surface allow accurate area measurement of polygonal shapes.
  • the size, height, etc. of the signboard which is an advertisement in the building
  • the image and the video can be inserted to use the advertisement as an advertisement. It is possible. (See FIG. 10)
  • object creation is to create an object at a desired position by creating a virtual wall surface or a virtual floor surface.
  • the cross-sectional view after the first space (S1) and the second space (S2) an algorithm that makes the coordinate points of the image of the first space (S1) and the image of the second space (S2) to the absolute coordinates.
  • the absolute coordinates are based on the image point of the first space S1.
  • four control points two images in the first space S1 and two images in the second space S2
  • four unknown values for absolute coordinates are obtained through the RELATION algorithm.
  • the four coordinate values are obtained through the TRANSFORMATION algorithm, and the absolute coordinates are used to create a cross-sectional view of each image, and each cross-section shows a continuous cross-sectional view.
  • cross-sections and control points are created based on the ceiling, but if it cannot be based on the ceiling, two points at both ends of the virtual wall for creating virtual walls of each image are designated.
  • the virtual wall is created based on the two points at both ends and clicks the desired location point in the virtual wall.
  • the cross-sectional connection step (S150) is performed by clicking at least one intersection point for combining the cross-sectional view of the second space S2 and the cross-sectional view of the first space S1, and then through the intersection point, the first space S1 and the second space. This is a step connecting the space S2.
  • the cross-sectional connection step S150 is a step of connecting the intersection point CP1 in the first space S1 and the intersection point CP2 in the second space S2.
  • intersection point in the cross-sectional connection step (S150) is applied to the door, window, and the like.
  • the content realization step is a step in which building information such as stairs, an elevator, a room for each floor, and the like is implemented as 3D content.
  • An indoor coordinate system is constructed by absolute coordinates of the relative coordinates of the control points of the plurality of points that form the cross-sectional view of the first space (S1) and the cross-sectional view of the second space (S2). It becomes possible.
  • the relative coordinates of the control points of the plurality of points that form the cross-sectional view of the first space (S1) and the cross-sectional view of the second space (S2) are absolute coordinates and constructed as a coordinate system, and the distance measurement using the Various services such as area measurement are possible. For example, if you want to measure the area of the signboard, etc. in the room, a virtual wall is created and the area is measured through this wall. This way, more precise and accurate data can be obtained.
  • the process for the first to fourth spaces is as follows.
  • XML information of _EMPTY name + section X, Y, Z coordinate (XML storage name: ⁇ RoomPoint>) and H, V value storage (XML storage name: ⁇ ControlPoint>)
  • XML information of _EMPTY name + section X, Y, Z coordinate (XML storage name: ⁇ RoomPoint>) and H, V value storage (XML storage name: ⁇ ControlPoint>)
  • the location of the saved XML coordinates is saved as the coordinates that have been merged through the algorithm, and the section view coordinates and H, V values are also saved (XML storage).
  • XML information of _EMPTY name + section X, Y, Z coordinate (XML storage name: ⁇ RoomPoint>) and H, V value storage (XML storage name: ⁇ ControlPoint>)
  • Listbox is inactive when there are less than 4 control point points
  • the location of the saved XML coordinates is saved as the coordinates that have been merged through the algorithm, and the section view coordinates and H, V values are also saved (XML storage).
  • XML information of _EMPTY name + section X, Y, Z coordinate (XML storage name: ⁇ RoomPoint>) and H, V value storage (XML storage name: ⁇ ControlPoint>)
  • Listbox is inactive when there are less than 4 control point points
  • the location of the saved XML coordinates is saved as the coordinates that have been merged through the algorithm, and the section view coordinates and H, V values are also saved (XML storage).
  • the value is displayed based on the origin coordinate in the “_empty” xml.
  • 17 to 28 illustrate a sequence of a processor of the spatial information construction method using the omnidirectional image according to the present invention as a photograph.
  • the base of the section creation is the ceiling.
  • the data of the point is displayed in the text box window of the main form.
  • the data for the control point points is displayed in a listbox in the main form. You can create multiple control point points.
  • the cross section is created immediately after pressing the 'stop' button. After that, the cross section is created after calculating the association between the control point of the previous image and the control point of the active image for the association between the images. .
  • the second and subsequent sections except for the first section have four unknowns through a relation algorithm (an algorithm for obtaining a relationship between two coordinate systems (images)) using four control point points (two # 1 image points and two # 2 image points). You can get the value.
  • the present invention relates to a method for constructing spatial information using an omnidirectional image, and more particularly, to a method of constructing spatial information using an omnidirectional image capable of realizing a plan view (3D spatial information) and omnidirectional image contents using real and internal omnidirectional images. It is about.
  • the user can obtain the coordinates by clicking on the image in the linked content, and link the facility information to the acquired coordinates to the new spatial information It is effective to service.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)

Abstract

본 발명은 전방위 영상을 이용한 공간정보 구축 방법에 관한 것으로, 본 발명은 둘 이상의 공간에 대한 전방위 영상을 각각 촬영하는 단계; 상기 공간들의 전방위 영상에서 특정 지점을 선택하여 단면도를 생성하는 단계; 상기 전방위 영상의 단면도 생성 후 다른 이웃 공간에 대한 전방위 영상의 단면도와 이어지는 복수 지점의 컨트롤 포인트를 생성하는 단계; 상기 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화시키는 단계; 상기 절대 좌표들을 이용하여 상기 전방위 영상에서 가상의 벽면과 가상의 바닥면을 생성하는 단계; 및 상기 공간들의 단면도를 연결하는 단계를 포함한다. 본 발명에 의하면, 촬영한 각각의 공간 영상을 연결하여 콘텐츠로 제작할 수 있으며, 이렇게 연결된 콘텐츠는 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있는 효과가 있다.

Description

전방위 영상을 이용한 공간정보 구축 방법
본 발명은 전방위 영상을 이용한 공간정보 구축 방법에 관한 것으로, 더욱 상세하게는 실, 내외 전방위 영상을 이용하여 평면도(3D 공간정보)와 전방위 영상 콘텐츠를 구현할 수 있는 전방위 영상을 이용한 공간정보 구축 방법에 관한 것이다.
특수 카메라인 전방위 영상 카메라를 통하여 촬영되는 전방위 영상은 고정 시점을 기준으로 360도 전방위를 나타내는 영상으로서, 이러한 전방위 영상은 360도 전방위를 확인할 수 있도록 넓은 시야각을 제공하게 된다. 따라서, 전방위 영상은 자연 경관, 건축물, 부동산, 시설물의 보안감시, 지도, 가상 여행 등 다양한 분야에 적용될 수 있다.
이러한 360도 전방위 영상은 웹을 통하여 서비스되고 있는데, 일반적으로 360도 전방위 영상을 이용한 웹 서비스 시스템은 영상 촬영과 동시에 GPS로부터 취득된 위치정보를 기반으로 하여, 촬영 영상과 웹 맵(Web Map)의 위치를 동기화를 하여 이를 웹 브라우저를 통해 서비스하는 시스템을 일컫는다.
이렇게 전방위 영상과 관련된 기술이 등록특허 제1179108호에 제안된 바 있다.
이하에서 종래기술로서 등록특허 제1179108호에 개시된 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법과 전방위 영상 웹 서비스 시스템 및 그 방법을 간략히 설명한다.
도 1은 등록특허 제1179108호(이하 '종래기술'이라 함)에서 3차원 좌표를 결정하기 위한 방법을 나타내는 예시도이다. 도 1에서 보는 바와 같이 종래기술의 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법은 (a)영상정보 획득수단이 중첩 전방위 영상을 획득하는 단계; (b)위치정보 획득수단이 상기 영상정보 획득수단의 위치 정보와 자세 정보를 획득하는 단계; (c)사용자 단말기가 상기 중첩된 전방위 영상, 상기 위치 정보와 자세 정보, 기 설정된 대상지점에 대한 공액점의 영상점 좌표값을 기반으로 카메라 좌표계 상에서의 영상점 벡터를 산출하는 단계; (d)상기 사용자 단말기가 산출된 상기 카메라 좌표계 상에서의 영상점 벡터를 이용하여 지상 좌표계 상에서의 지상점이 존재하는 직선의 방정식을 유도하는 단계; 및 (e)상기 사용자 단말기가 유도된 상기 직선의 방정식으로 교차점을 산출하여 산출된 상기 교차점을 이용하여 상기 대상지점에 대한 3차원 좌표값을 결정하는 단계;를 포함한다.
그러나 종래기술에 의한 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 방법은 대상지점의 3차원 좌표를 결정하는데 주안점을 두고 있으므로 대상지점의 3차원 좌표 결정 이외에 좌표의 활용이 요구된다.
본 발명의 목적은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 촬영한 각각의 공간 영상을 연결하여 콘텐츠로 제작할 수 있으며, 이렇게 연결된 콘텐츠는 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있게 한 전방위 영상을 이용한 공간정보 구축 방법을 제공하는 것이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 둘 이상의 공간에 대한 전방위 영상을 각각 촬영하는 단계; 상기 공간들의 전방위 영상에서 특정 지점을 선택하여 단면도를 생성하는 단계; 상기 전방위 영상의 단면도 생성 후 다른 이웃 공간에 대한 전방위 영상의 단면도와 이어지는 복수 지점의 컨트롤 포인트를 생성하는 단계; 상기 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화시키는 단계; 상기 절대 좌표들을 이용하여 상기 전방위 영상에서 가상의 벽면과 가상의 바닥면을 생성하는 단계; 및 상기 공간들의 단면도를 연결하는 단계를 포함하는 전방위 영상을 이용한 공간정보 구축 방법을 통해 달성된다.
또한, 본 발명에서는 상기 공간들의 단면도 연결 단계 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행될 수 있다.
또한, 본 발명에서의 상기 상대 좌표 획득 단계는 상기 공간들의 전방위 영상에서 선택한 점을 상기 공간들의 촬영 포인트를 좌표로 설정한 후 상기 공간의 영상에서 클릭한 H, V값을 이용하여 상대적인 좌표를 얻을 수 있다.
또한, 본 발명에서의 상기 가상의 벽면 및 바닥면 생성 단계는, 상기 가상의 벽면 및 바닥면을 이루는 직교선의 양 끝점을 클릭한 후 상기 직교선을 기준으로 상기 가상의 벽면 및 바닥면을 생성할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 대해 특정 지점을 선택하여 면적 계산이 가능한 것을 특징으로 할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 벽면에 대해 광고물의 사이즈를 판별한 후 해당 사이즈에 맞게 이미지 및 동영상을 삽입 가능한 것을 특징으로 할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 3차원 객체 생성이 가능한 것을 특징으로 할 수 있다.
본 발명에 의하면, 촬영한 각각의 공간 영상을 연결하여 콘텐츠로 제작할 수 있으며, 이렇게 연결된 콘텐츠는 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있는 효과가 있다.
도 1은 종래기술에 의한 3차원 좌표를 결정하기 위한 방법을 나타내는 예시도이다.
도 2는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법의 블록도이다.
도 3은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 구축된 제1 공간과 제2 공간이 연결된 상태를 도시한 개략도이다.
도 4는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 제1 공간과 제2 공간이 연결되기 전과 후 상태를 도시한 개략도이다.
도 5 내지 도 7은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 거리측정이 구현되는 상태를 나타낸 사진이다.
도 8은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 특정 지점에 대한 좌표를 구하는 구-평면 변환 모델의 참고도이다.
도 9는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 바닥면 계산이 구현되는 상태를 나타낸 사진이다.
도 10은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 가상의 벽면 활용이 구현되는 상태를 나타낸 사진이다.
도 11 내지 도 14는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 객체 생성 및 GUI(Graphic User Interface)가 구현되는 상태를 나타낸 사진이다.
도 15는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법을 통해 구축된 영상 콘텐츠를 도시한 사진이다.
도 16은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 구축된 제1 공간 내지 제4 공간이 연결된 상태가 도시된 개략도이다.
도 17 내지 도 28은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법의 프로세서의 순서를 도시한 사진이다.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은, 둘 이상의 공간에 대한 전방위 영상을 각각 촬영하는 단계; 상기 공간들의 전방위 영상에서 특정 지점을 선택하여 단면도를 생성하는 단계; 상기 전방위 영상의 단면도 생성 후 다른 이웃 공간에 대한 전방위 영상의 단면도와 이어지는 복수 지점의 컨트롤 포인트를 생성하는 단계; 상기 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화시키는 단계; 상기 절대 좌표들을 이용하여 상기 전방위 영상에서 가상의 벽면과 가상의 바닥면을 생성하는 단계; 및 상기 공간들의 단면도를 연결하는 단계를 포함하는 전방위 영상을 이용한 공간정보 구축 방법을 통해 달성된다.
또한, 본 발명에서는 상기 공간들의 단면도 연결 단계 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행될 수 있다.
또한, 본 발명에서의 상기 상대 좌표 획득 단계는 상기 공간들의 전방위 영상에서 선택한 점을 상기 공간들의 촬영 포인트를 좌표로 설정한 후 상기 공간의 영상에서 클릭한 H, V값을 이용하여 상대적인 좌표를 얻을 수 있다.
또한, 본 발명에서의 상기 가상의 벽면 및 바닥면 생성 단계는, 상기 가상의 벽면 및 바닥면을 이루는 직교선의 양 끝점을 클릭한 후 상기 직교선을 기준으로 상기 가상의 벽면 및 바닥면을 생성할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 대해 특정 지점을 선택하여 면적 계산이 가능한 것을 특징으로 할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 벽면에 대해 광고물의 사이즈를 판별한 후 해당 사이즈에 맞게 이미지 및 동영상을 삽입 가능한 것을 특징으로 할 수 있다.
또한, 본 발명에서는 상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 3차원 객체 생성이 가능한 것을 특징으로 할 수 있다.
본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 도면을 참고하여 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 대한 실시 예의 구성을 상세하게 설명하기로 한다.
도 2에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법이 블록도로 도시되어 있고, 도 3은 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 구축된 제1 공간과 제2 공간이 연결된 상태가 개략도로 도시되어 있고, 도 4에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 제1 공간과 제2 공간이 연결되기 전과 후 상태가 개략도로 도시되어 있고, 도 5 내지 도 7에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 거리측정이 구현되는 상태가 사진으로 나타나 있고, 도 8에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 특정 지점에 대한 좌표를 구하는 구-평면 변환 모델의 참고도가 도시되어 있고, 도 9에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 바닥면 계산이 구현되는 상태가 사진으로 나타나 있고, 도 10에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 가상의 벽면 활용이 구현되는 상태가 사진으로 나타나 있고, 도 11 내지 도 14에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에서 객체 생성 및 GUI(Graphic User Interface)가 구현되는 상태가 사진으로 나타나 있고, 도 15에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법을 통해 구축된 영상 콘텐츠가 사진으로 나타나 있으며, 도 16에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법에 의해 구축된 제1 공간 내지 제4 공간이 연결된 상태가 개략도로 도시되어 있다.
이들 도면에 의하면, 본 발명의 전방위 영상을 이용한 공간정보 구축 방법은 전방위 영상 촬영 단계(S100), 단면도 생성 단계(S110), 컨트롤 포인트 획득 단계(S120), 상대 좌표의 절대 좌표화 단계(S130), 가상의 벽면 및 바닥면 생성 단계(S140) 및 단면도 연결 단계(S150)를 포함한다. 한편, 본 실시예에서는 전방위 영상 촬영 단계(S100)를 수행하기 위한 대상인 공간이 제1 공간과 제2 공간으로 나누어지는 것으로 예시하였으나, 이에 한정하지 않고 공간의 개수 증감이 가능하다.
전방위 영상 촬영 단계(S100)는 제1, 2 공간(S1, S2)의 전방위 영상을 전방위 카메라로 각각 촬영(별표는 촬영 포인트)하는 단계이다.
단면도 생성 단계(S110)는 제1 공간(S1)의 전방위 영상에서 4개의 코너를 선택(C1)한 후 4개의 선택 지점을 통해 상기 제1 공간(S1)의 단면도를 생성하고, 제2 공간(S2)의 전방위 영상에서 4개의 코너를 선택(C2)한 후 4개의 선택 지점을 통해 상기 제2 공간(S2)의 단면도를 생성하는 단계이다.
여기서, 단면도를 생성하고자 하는 제1, 2 공간(S1, S2)이 사각형인 것으로 예시하였으나, 이에 한정하지 않고 생성하고자 하는 제1, 2 공간(S1, S2)의 코너 지점의 수에 따라 변경이 가능하다.
컨트롤 포인트 획득 단계(S120)는 제1 공간(S1)에 해당되는 전방위 영상의 단면도를 생성한 후 다른 이웃 공간인 제2 공간(S2)에 대한 전방위 영상의 단면도와 이어지는 복수 지점 즉 2점의 컨트롤 포인트(Control point)를 생성하는 단계이다.
이때, 상기 컨트롤 포인트 획득 단계(S120) 수행시 제1, 2 공간(S1, S2)의 상대 좌표를 획득하며, 상기 제1 공간의 상대 좌표 획득시 제1 공간(S1)의 전방위 영상에서 단면도를 지정하기 위해 클릭한 4개의 점은 상기 제1 공간(S1)의 촬영 포인트를 X, Y, Z(0, 0, 0)로 설정한 후 상기 제1 공간(S1)의 영상에서 클릭한 H(Horizontal), V(Vertical)값을 이용하여 상대적인 X, Y, Z 좌표를 얻는 단계이다. 또한, 상기 제2 공간의 상대 좌표 획득은 제1 공간(S1)에서의 상대적인 X, Y, Z 좌표를 이용하여 제2 공간(S2)의 전방위 영상에서 단면도를 지정하기 위해 클릭한 4개 코너와 촬영 포인트 좌표를 획득하는 단계이다. 이때, H(Horizontal), V(Vertical)값은 원점으로부터 얼마나 떨어져 있는지에 대한 값을 나타내 주며, 이미지 원점을 기준으로 좌우 값은 +180(좌측 끝) ~ -180(우측 끝) 값을 나타내고, 이미지 원점을 기준으로 상하 값은 +90(하측 끝) ~ -180(상측 끝) 값을 나타낸다.
여기서, 상대적인 X, Y, Z 좌표는 구-평면 변환 모델을 이용하여 얻는 구면 영상 상의 특정 지점에 대한 좌표로, 상기 구-평면 변환 모델에 의해 가상의 바닥면과 벽면을 생성하기 위한 직교선의 두 점에 대한 좌표는 X = Z/sin(h)ㆍcos(h)ㆍcos(v), Y = Z/sin(h)ㆍcos(h)ㆍsin(v) 에 의해 구할 수 있다. (도 8 참조)
이때, 카메라 높이(Z)와 직교선의 한 점에 대한 이미지 내 H,V값을 이용하여 좌표를 획득할 수 있다.
상대 좌표의 절대 좌표화 단계(S130)는 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화시키는 단계로, 컨트롤 포인트에 대해 TRANSFORMATION 알고리즘을 통하여 절대 좌표 값을 얻게 된다. 이 절대 좌표들을 이용하여 각 영상의 단면도를 만들고 각 단면도는 연속성 있는 단면도를 보여주게 된다.
가상의 벽면 및 바닥면 생성 단계(S140)는 사용자 인터렉션(Interaction)에 기반한 전방위 영상의 제1 공간(S1)과 제2 공간(S2)에서 가상의 벽면 및 바닥면을 각각 생성하는 단계이다.
즉, 상기 가상의 벽면 및 바닥면 생성 단계(S140)의 수행시 제1 공간(S1)과 제2 공간(S2)에 가상의 벽면 및 가상의 바닥면을 생성하기 위해서는 상기 제1 공간(S1)과 상기 제2 공간(S2)에서 벽면과 바닥면의 직교선을 정의해야 한다. 만들고자 하는 직교선의 양 끝점을 클릭(도 5 참조)한 후 두 점을 연결하여 가상의 벽면과 바닥면의 직교선으로 정의한다. 직교선을 기준으로 가상의 바닥면과 벽면을 생성(도 6 참조)한다. 생성된 가상의 벽면과 바닥면을 통하여 거리 측정(도 7 참조)이 가능하고 영상 내 2차원적인 좌표를 3차원의 좌표로 표현이 가능하다. 이는, 보다 더 정확한 좌표 및 좌표를 통한 계산이 가능하다.
상기 가상의 벽면 및 바닥면 생성 단계(S140)에서 가상의 벽면과 바닥면을 통하여 면적 계산(도 7 참조)도 가능하다. 생성된 바닥면 내 다수의 점을 통하여 다각형 모양의 정확한 넓이측정이 가능하다.
상기 가상의 벽면 및 바닥면 생성 단계(S140)에서 가상의 벽면을 이용하여 건물 내 광고물인 간판 등의 크기, 높이 등을 알 수 있으며, 이를 이용하여 이미지 및 동영상 등을 삽입하여 광고 홍보로도 활용 가능하다. (도 10 참조)
가상의 바닥 면 내 원하는 지점을 클릭하여 객체 생성(도 11 참조)이 가능하며, 객체에 비춰지는 조명의 그림자 생성(도 12 참조)이 가능하다. 생성된 객체의 크기 조절(도 13 참조), 객체의 회전각도 조절(도 14 참조) 및 객체 이동을 가상의 바닥 면을 기준으로 조절이 가능하다. 이때, 객체 생성은 가상 벽면이나 가상 바닥면을 생성하여 원하는 위치에 객체를 생성하게 되는 것이다.
한편, 제1 공간(S1)과 제2 공간(S2) 이후의 단면도 생성은, 제1 공간(S1)에 대한 영상과 제2 공간(S2)에 대한 영상의 좌표 점들을 절대 좌표화로 만드는 알고리즘을 통하여 제1 공간(S1)에 대한 영상 점을 기준으로 절대 좌표화 하게 된다. (컨트롤 포인트 4개(제1 공간(S1)에 대한 영상 2점, 제2 공간(S2)에 대한 영상 2점)를 이용하여 RELATION 알고리즘을 통하여 절대좌표화를 위한 미지수 4개의 값을 얻게 되고, 이 미지수 4개의 값을 TRANSFORMATION 알고리즘을 통하여 절대 좌표값을 얻게 된다. 이 절대 좌표들을 이용하여 각 영상의 단면도를 만들고 각 단면도는 연속성 있는 단면도를 보여주게 된다.
일반적으로 단면도와 컨트롤 포인트 등은 천장을 기준으로 생성하도록 되어 있지만, 천장 기준으로 할 수 없을 경우는 각 영상의 가상벽을 생성하기 위한 가상벽 양 끝 2점을 지정해 준다. 양 끝 2점을 기준으로 가상벽이 생성되고 해당 가상벽 내에 원하는 위치점을 클릭하도록 한다.
단면도 연결 단계(S150)는 제2 공간(S2)의 단면도와 제1 공간(S1)의 단면도를 결합하기 위한 교차점을 하나 이상 클릭한 후 상기 교차점을 통하여 상기 제1 공간(S1)과 상기 제2 공간(S2)을 이어주는 단계이다.
즉, 상기 단면도 연결 단계(S150)는 제1 공간(S1)에서의 교차점(CP1)과 제2 공간(S2)에서의 교차점(CP2)을 이어주는 단계이다.
한편, 상기 단면도 연결 단계(S150)에서의 교차점은 문, 창문 등이 이에 적용된다.
더욱이, 상기 단면도 연결 단계(S150) 수행 후에 영상 콘텐츠 구현 단계가 더 포함될 수 있으며, 상기 콘텐츠 구현 단계는 계단, 엘리베이터, 각층에 대한 호실 등의 건물 정보가 3D 콘텐츠로 구현되는 단계이다.
제1 공간(S1)의 단면도와 제2 공간(S2)의 단면도를 이으는 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화하여 하나의 실내 좌표체계가 구축되게 되며, 이를 기반으로 콘텐츠를 구현할 수 있게 된다.
결국, 제1 공간(S1)의 단면도와 제2 공간(S2)의 단면도를 이으는 복수 지점의 컨트롤 포인트에 대한 상대 좌표들을 절대 좌표화 하여 하나의 좌표체계로 구축하고, 이를 이용하여 거리측정, 면적측정 등의 다양한 서비스가 가능하게 된다. 예를 들면, 실내에 있는 간판 등의 면적을 측정하고자 할 경우, 가상의 벽면을 생성하게 되고 이 벽면을 통하여 면적을 측정하게 된다. 이와 같은 방법은 더 정밀하고 정확한 데이터를 얻을 수 있게 된다.
도 16에 도시된 바와 같이 제1 공간 내지 제4 공간에 대한 프로세스는 하기와 같다.
<1번째 단면도>
BASIC ROOM 폼 OK버튼 클릭 -> XML 생성(파일명 : _EMPTY) -> 단면도 점 잡고 STOP버튼 클릭 -> 단면도 생성 -> 컨트롤포인트 점 2개 클릭 후 STOP버튼 클릭 -> ★XML 생성(파일명: _BASIC)
★ : _EMPTY이름의 XML 정보 + 단면도 X,Y,Z좌표(XML 저장 이름 : <RoomPoint>)와 H,V값 저장(XML 저장 이름 : <ControlPoint>)
<2번째 단면도>
BASIC ROOM 폼 OK버튼 클릭 -> XML 생성(파일명 : _EMPTY, 1번째 촬영지점과 동일한 좌표로 원점 저장) -> 단면도 점 잡고 STOP버튼 클릭 -> 컨트롤포인트 점 6개 클릭 후 STOP버튼 클릭 -> ★ XML 생성(파일명: _Basic)
★ : _EMPTY이름의 XML 정보 + 단면도 X,Y,Z좌표(XML 저장 이름 : <RoomPoint>)와 H,V값 저장(XML 저장 이름 : <ControlPoint>)
->컨트롤포인트 점이 5개 이상일 경우, 리스트박스로 점들 정보 저장( EX. 1,2점 : ~ & ~ // 3,4점 : ~ & ~ 5,6점 : ~ & ~)
컨트롤포인트 점이 4개 이하인 경우, 리스트박스는 계속 비활성화 상태
->알고리즘 수행
-> 알고리즘을 통한 MERGE된 좌표 값들의 XML생성(파일명 : _MERGE)
저장되는 XML의 촬영지점 좌표는 알고리즘을 통한 MERGE된 좌표값으로 저장, 동일하게 단면도 좌표와 H,V값도 저장(XML저장
이름 : <MERGE RoomPoint>, <MERGE ControlPoint>
-> 단면도 생성과 ControlPoint점 생성
<3번째 단면도>
BASIC ROOM 폼 OK버튼 클릭 -> XML 생성(파일명 : _EMPTY, 2번째 촬영지점과 동일한 좌표로 원점 저장) -> 단면도 점 잡고 STOP버튼 클릭 -> 컨트롤포인트 점 2개 클릭 후, 리스트박스 선택(리스트박스 활성화 되었을 경우, 선택안하면 진행 안됨)후 STOP버튼 클릭 ->
★ XML 생성(파일명: _Basic) //2번째 촬영점 기반된 좌표값들이 나오나 확인.
★ : _EMPTY이름의 XML 정보 + 단면도 X,Y,Z좌표(XML 저장 이름 : <RoomPoint>)와 H,V값 저장(XML 저장 이름 : <ControlPoint>)
->컨트롤포인트 점이 5개 이상일 경우, 리스트박스로 점들 정보 갱신( EX. 1,2점 : ~ & ~ // 3,4점 : ~ & ~ 5,6점 : ~ & ~)
컨트롤포인트 점이 4개 이하인 경우, 리스트박스는 비활성화 상태
->알고리즘 수행
-> 알고리즘을 통한 MERGE된 좌표 값들의 XML생성(파일명 : _MERGE)
저장되는 XML의 촬영지점 좌표는 알고리즘을 통한 MERGE된 좌표값으로 저장, 동일하게 단면도 좌표와 H,V값도 저장(XML저장
이름 : <MERGE RoomPoint>, <MERGE ControlPoint>
-> 단면도 생성과 ControlPoint점 생성
<4번째 단면도>
불러오기 버튼으로 2번째 이미지 열기 -> 저장된 xml의 정보 중 <merge controlpoint>로 리스트박스 활성화 후, 리스트에 정보 저장
-> 단면도 점 잡고 STOP버튼 클릭
-> 컨트롤포인트 점 2개 클릭 후, 리스트박스 선택(리스트박스 활성화 되었을 경우, 선택안하면 진행 안됨)후 STOP버튼 클릭
-> ★ XML 생성(파일명: _Basic) //2번째 촬영점 기반된 좌표값들이 나오나 확인.
★ : _EMPTY이름의 XML 정보 + 단면도 X,Y,Z좌표(XML 저장 이름 : <RoomPoint>)와 H,V값 저장(XML 저장 이름 : <ControlPoint>)
-> 컨트롤포인트 점이 5개 이상일 경우, 리스트박스로 점들 정보 갱신( EX. 1,2점 : ~ & ~ // 3,4점 : ~ & ~ 5,6점 : ~ & ~)
컨트롤포인트 점이 4개 이하인 경우, 리스트박스는 비활성화 상태
-> 알고리즘 수행
-> 알고리즘을 통한 MERGE된 좌표 값들의 XML생성(파일명 : _MERGE)
저장되는 XML의 촬영지점 좌표는 알고리즘을 통한 MERGE된 좌표값으로 저장, 동일하게 단면도 좌표와 H,V값도 저장(XML저장
이름 : <MERGE RoomPoint>, <MERGE ControlPoint>
-> 단면도 생성과 ControlPoint점 생성
2번째 단면도 이후에 단면도 점 선택 시, “_empty” xml의 원점좌표의 기준으로 값이 나오나 확인.
도 17 내지 도 28에는 본 발명에 의한 전방위 영상을 이용한 공간정보 구축 방법의 프로세서의 순서가 사진으로 도시되어 있다.
<도 17 참조>
- 프로그램 실행 후, 시작 xml과 shp파일을 생성하기 위해서, Main 폼에서 ‘Setting EmptyRoom’을 클릭한다.
- 클릭을 하게 되면 새로운 창이 하나 열리게 된다.
<도 18 참조>
- input data란의 '...'버튼을 클릭하여 촬영한 이미지에 대한 경로를 설정해 준다.
- 'ok'버튼을 클릭하도록 한다.
<도 19 참조>
- 설정된 경로의 전 방위 영상이 보이게 되고, Root, point_ROOM, polygon_Room 이름의 shp 파일이 생성된다.
- 단면도를 생성하기 위해서 메인폼의 ‘corner’ 버튼을 클릭한다.
- 단면도 생성의 기준은 천장으로 하게 되며, 단면도를 생성하기 위한 천장의 기준점을 클릭할 때는 키보드의 스페이스바를 누른 상태로 마우스를 클릭 하도록 한다.
<도 20 참조>
- 스페이스바를 누른 상태로 단면도점을 생성하게 되면, 텍스트박스에 점 데이터가 나타나게 되고, 이미지 내 점이 표시된다.
- 단면도 점을 모두 찍은 후에는 'stop'버튼을 클릭하도록 한다.
<도 21 참조>
- ‘stop’버튼을 누르게 되면 영상 좌측의 ArcView에 단면도가 생성 되며, 영상 내 표시되었던 점들은 없어지게 된다.
<도 22 참조>
- 첫 번째 단면도와 두 번째 단면도(연속성 있는 두 장의 이미지)를 연결하기위한 연결점(control point)을 단면도를 그리는 형태와 동일한 방식으로 진행해준다
- 'connect'버튼을 클릭 후, 스페이스바를 누른 상태에서 control point 점을 클릭한다.
- 메인 폼 내 텍스트 박스 창에 해당 점의 데이터가 표기된다.
<도 23 참조>
- control point 점을 잡은 후에 ‘stop’버튼을 눌러준다.
- control point 점에 대한 데이터는 메인 폼 내 리스트박스에 표시가 되며, 다중의 control point 점을 생성할 수 있다.
- 첫 번째 이미지와 이어지는 두 번째 이미지를 오픈하도록 한다.
<도 24 참조>
- 첫 번째 이미지를 생성과 동일한 방법으로 해 준다.
<도 25 참조>
- 2번째 영상이 활성화된 모습을 볼 수 있다.
<도 26 참조>
- 첫 번째 이미지에서 진행했던 단면도 생성하는 방법과 동일하게 'corner'버튼을 클릭 후, 다수의 단면도 점을 클릭하고 ‘stop’버튼을 클릭한다.
- 첫 번째 이미지에서는 ‘stop’버튼을 누른 후 바로 단면도가 생성되지만, 이후에는 이미지간의 연관성을 위하여 전 이미지의 control point와 활성화 되어있는 이미지의 control point간의 연관성을 계산한 후, 단면도가 생성이 된다.
<도 27 참조>
- 첫 번째 이미지와 중첩되는 위치에 대한 control point를 잡아준다.
- 방법은 위와 동일하게 ‘connect’버튼을 클릭 후, ‘stop’버튼을 눌러준다.
- 만약, 여러장의 연속성 있는 이미지를 연결할 경우, 연속성 있는 영상들과의 중첩되는 control point점을 모두 클릭하도록 한다.
- 영상 간 control point점은 2개만 잡아주도록 한다.
(ex. #1이미지는 #2이미지와의 연속성이 있으면 2개의 좌,우 control point점을 잡아주고,
#2이미지는 #1이미지와 #3이미지와의 연속성이 있으면 #1이미지에 해당하는 좌우 control point 2개와 #3이미지에 해당되는 좌우 control point 2개의 점을 생성하여 #2이미지에서는 총 4개의 control point점을 생성한다.)
<도 28 참조>
- ‘stop‘버튼을 클릭하게 되면 2번째 단면도가 생성이 된다.
- 첫 단면도를 제외한 두 번째 이후의 단면도들은 control point 4개의 점(#1이미지 2개점, #2이미지 2개점)을 이용한 Relation 알고리즘(두 좌표계(이미지)간의 관계를 구하는 알고리즘)을 통하여 4개의 미지수 값을 구할 수 있다.
- Relation 알고리즘을 통하여 획득되는 미지수 4개의 값을 이용하여 Transformation 알고리즘(이미지간의 관계를 알 수 있는 4개의 미지수를 통한 해당 영상의 local 좌표를 첫 번째 영상의 기준으로 절대좌표로 변환하는 함수)을 통하여 단면도 점들을 절대좌표로 변환한다.
(Relation알고리즘과 Transformation 알고리즘 식은 별도의 한글파일 참조)
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
본 발명은 전방위 영상을 이용한 공간정보 구축 방법에 관한 것으로, 더욱 상세하게는 실, 내외 전방위 영상을 이용하여 평면도(3D 공간정보)와 전방위 영상 콘텐츠를 구현할 수 있는 전방위 영상을 이용한 공간정보 구축 방법에 관한 것이다.
본 발명에 의하면, 촬영한 각각의 공간 영상을 연결하여 콘텐츠로 제작할 수 있으며, 이렇게 연결된 콘텐츠는 사용자가 영상에서 클릭을 통하여 좌표를 취득할 수 있고, 취득된 좌표에 시설물 정보를 링크하여 새로운 공간정보를 서비스할 수 있는 효과가 있다.

Claims (7)

  1. 둘 이상의 공간에 대한 전방위 영상을 각각 촬영하는 단계;
    상기 공간들의 전방위 영상에서 특정 지점을 선택하여 단면도를 생성하는 단계;
    상기 전방위 영상의 단면도 생성 후 다른 이웃 공간에 대한 전방위 영상의 단면도와 이어지는 복수 지점의 컨트롤 포인트를 생성하는 단계;
    상기 복수 지점의 컨트롤 포인트에 대한 상대 좌표를 절대 좌표화시키는 단계;
    상기 절대 좌표들을 이용하여 상기 전방위 영상에서 가상의 벽면과 가상의 바닥면을 생성하는 단계; 및
    상기 공간들의 단면도를 연결하는 단계를 포함하는 전방위 영상을 이용한 공간정보 구축 방법.
  2. 제1항에 있어서,
    상기 공간들의 단면도 연결 단계 수행 후에 상기 전방위 영상에 콘텐츠를 구현하는 단계가 더 수행되는 전방위 영상을 이용한 공간정보 구축 방법.
  3. 제1항에 있어서,
    상기 상대 좌표 획득 단계는 상기 공간들의 전방위 영상에서 선택한 점을 상기 공간들의 컨트롤 포인트를 좌표로 설정한 후 상기 공간의 영상에서 클릭한 H(Horizontal), V(Vertical)값을 이용하여 상대적인 좌표를 얻는 전방위 영상을 이용한 공간정보 구축 방법.
  4. 제1항에 있어서,
    상기 가상의 벽면 및 바닥면 생성 단계는, 상기 가상의 벽면 및 바닥면을 이루는 직교선의 양 끝점을 클릭한 후 상기 직교선을 기준으로 상기 가상의 벽면 및 바닥면을 생성하는 전방위 영상을 이용한 공간정보 구축 방법.
  5. 제1항에 있어서,
    상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 대해 특정 지점을 선택하여 면적 계산이 가능한 전방위 영상을 이용한 공간정보 구축 방법.
  6. 제1항에 있어서,
    상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 벽면에 대해 광고물의 사이즈를 판별한 후 해당 사이즈에 맞게 이미지 및 동영상을 삽입 가능한 전방위 영상을 이용한 공간정보 구축 방법.
  7. 제1항에 있어서,
    상기 가상의 벽면 및 바닥면 생성 단계 수행시 상기 전방위 영상의 바닥면에 3차원 객체 생성이 가능한 전방위 영상을 이용한 공간정보 구축 방법.
PCT/KR2014/005522 2013-05-27 2014-06-23 전방위 영상을 이용한 공간정보 구축 방법 WO2015182809A1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20130059774 2013-05-27
KR10-2014-0063965 2014-05-27
KR1020140063965A KR101663482B1 (ko) 2013-05-27 2014-05-27 전방위 영상을 이용한 공간정보 구축 방법

Publications (1)

Publication Number Publication Date
WO2015182809A1 true WO2015182809A1 (ko) 2015-12-03

Family

ID=52459437

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/005522 WO2015182809A1 (ko) 2013-05-27 2014-06-23 전방위 영상을 이용한 공간정보 구축 방법

Country Status (2)

Country Link
KR (1) KR101663482B1 (ko)
WO (1) WO2015182809A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180040465A (ko) * 2016-10-12 2018-04-20 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
KR101998396B1 (ko) * 2017-12-22 2019-07-09 한국기술교육대학교 산학협력단 3d 스캐너를 이용한 가상 벽면 기반의 작업 공간 모델링 방법 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020398A (ja) * 2002-06-18 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体
JP2010038822A (ja) * 2008-08-07 2010-02-18 Topcon Corp Gps付全方位カメラ及び空間データ収集装置
KR20110119589A (ko) * 2010-04-27 2011-11-02 서울시립대학교 산학협력단 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법
KR20120140515A (ko) * 2011-06-21 2012-12-31 ㈜베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
KR20140030854A (ko) * 2012-09-04 2014-03-12 삼성전자주식회사 이동 기기의 위치 인식 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090078447A (ko) * 2008-01-15 2009-07-20 주식회사 방재안전기술원 디지털카메라로 거리 및 면적을 측정하는 방법과, 이를이용하여 피해정보를 산출하는 방법과, 이에 사용되는피해정보 산출시스템
KR20130053466A (ko) * 2011-11-14 2013-05-24 한국전자통신연구원 인터랙티브 증강공간 제공을 위한 콘텐츠 재생 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020398A (ja) * 2002-06-18 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体
JP2010038822A (ja) * 2008-08-07 2010-02-18 Topcon Corp Gps付全方位カメラ及び空間データ収集装置
KR20110119589A (ko) * 2010-04-27 2011-11-02 서울시립대학교 산학협력단 중첩 전방위 영상을 이용하여 객체의 3차원 좌표를 결정하기 위한 시스템 및 그 방법
KR20120140515A (ko) * 2011-06-21 2012-12-31 ㈜베이다스 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
KR20140030854A (ko) * 2012-09-04 2014-03-12 삼성전자주식회사 이동 기기의 위치 인식 방법

Also Published As

Publication number Publication date
KR20140139443A (ko) 2014-12-05
KR101663482B1 (ko) 2016-10-07

Similar Documents

Publication Publication Date Title
WO2011074759A1 (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
JP2005517253A (ja) 潜入型見張りを提供する方法及び装置
WO2010101434A2 (en) Apparatus and method of generating panoramic image and computer-readable recording medium storing program for executing the method
WO2016035993A1 (ko) 클라우드 포인트를 이용한 실내 지도 구축 장치 및 방법
WO2012091326A2 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
WO2021132907A1 (ko) 타워 크레인을 이용한 건축물 감리 시스템 및 그 방법
WO2013015549A2 (ko) 평면 특성 기반 마커리스 증강 현실 시스템 및 그 동작 방법
WO2014073841A1 (ko) 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기
WO2016099085A1 (en) Apparatus and method for determining content screening suitabilities in a multi-projection theater
WO2017007166A1 (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
WO2020218644A1 (ko) 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
WO2015182809A1 (ko) 전방위 영상을 이용한 공간정보 구축 방법
WO2018155742A1 (ko) 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템
WO2017195984A1 (ko) 3차원 스캐닝 장치 및 방법
JP2940736B2 (ja) 画像処理装置及びこの画像処理装置における歪み補正方法
WO2015008932A1 (ko) 증강현실에서의 원격 협업을 위한 디지로그 공간 생성기 및 그를 이용한 디지로그 공간 생성 방법
WO2020189909A2 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
WO2016035924A1 (ko) 달리기 감지 방법 및 시스템
WO2012074174A1 (ko) 고유식별 정보를 이용한 증강 현실 구현시스템
JP2003319388A (ja) 画像処理方法及び装置
WO2021101213A1 (ko) 3d 투어 내에서 실제 거리 측정 방법
JP2018207271A (ja) 端末、画像処理システム、画像処理プログラムおよび画像処理方法
WO2015009112A9 (en) Method and apparatus for displaying images in portable terminal
WO2021206209A1 (ko) 스마트 팩토리 구축을 위한 마커리스 기반의 ar 구현 방법 및 시스템
WO2024063242A1 (ko) 영상 분석 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14893048

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14893048

Country of ref document: EP

Kind code of ref document: A1