KR20140049232A - Map handling method and system for 3d object extraction and rendering using image maps - Google Patents

Map handling method and system for 3d object extraction and rendering using image maps Download PDF

Info

Publication number
KR20140049232A
KR20140049232A KR1020120115210A KR20120115210A KR20140049232A KR 20140049232 A KR20140049232 A KR 20140049232A KR 1020120115210 A KR1020120115210 A KR 1020120115210A KR 20120115210 A KR20120115210 A KR 20120115210A KR 20140049232 A KR20140049232 A KR 20140049232A
Authority
KR
South Korea
Prior art keywords
map
dispy
dispx
coordinates
gsd
Prior art date
Application number
KR1020120115210A
Other languages
Korean (ko)
Other versions
KR101448567B1 (en
Inventor
김태정
Original Assignee
(주)쓰리디랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)쓰리디랩스 filed Critical (주)쓰리디랩스
Priority to KR1020120115210A priority Critical patent/KR101448567B1/en
Publication of KR20140049232A publication Critical patent/KR20140049232A/en
Application granted granted Critical
Publication of KR101448567B1 publication Critical patent/KR101448567B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes

Abstract

The present invention relates to a method and a system for map handling for: extracting three-dimensional object information, by a user directly, from an image map including a height and a position of a roof surface and a bottom surface of three-dimensional objects such as buildings, factory buildings, residential buildings, and stadiums observed by using a second-dimensional image map provided by the internet or a wireless communication network such as Google Earth and Microsoft BingMap; three-dimensionally representing the extracted three-dimensional objects on the image map; and rendering outside and inside of the three-dimensional objects seamlessly. [Reference numerals] (AA) User terminal; (BB) Map supplying server; (CC) User designates a roof surface, a bottom surface, and shadow; (DD) Use a mathematical equation; (EE,HH) Display three-dimensional object; (FF) User designates the roof surface; (GG) Calculate the coordinate of the bottom surface and the shadow according to the height control; (H1) Object height value; (S100) Request a map (selecting zooming, zooming out, and a view point); (S101) Supply the map (map coordinate); (S102) Display; (S110) Calculate a resolution and conversion relation; (S120) Calculate an altitude angle and an azimuth of sun and a camera; (S130) Extract three-dimensional object information of the other object; (S140) Object texture processing function; (S150) Selecting the zooming, the zooming out, and the view point; (S151,S181) Supply the predetermined map (map coordinate); (S160) Rendering; (S170) Supply the predetermined content in case the observing view point is the inside of the object; (S180) Request the region map with different altitude angle and azimuth; (S190) Display

Description

영상지도에서 3차원 개체를 추출하고 렌더링하는 지도 처리 방법 및 시스템{Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps}Field of the Invention < RTI ID = 0.0 > [0002] < / RTI > A map processing method and system for extracting and rendering three-

본 발명은 지도 처리 방법 및 시스템에 관한 것으로서, 특히, Google Earth, Microsoft BingMap등과 같이 인터넷 또는 무선통신 네트워크 등을 통해서 제공되는 2차원 영상지도를 이용하여 사용자가 직접 영상지도에서 관측되는 빌딩, 공장건물, 주거용건물, 경기장 등과 같은 3차원 개체의 높이, 지붕면 및 바닥면의 위치를 포함하는 3차원 개체정보를 추출하고, 추출된 3차원 개체를 영상지도 상에 3차원으로 표현하고 3차원 개체의 외부 및 내부를 끊김없이 렌더링하기 위한 지도 처리 방법 및 시스템에 관한 것이다.The present invention relates to a map processing method and system, and more particularly, to a map processing method and system for processing a map of a building, a factory building or the like viewed by a user directly on a video map using a two-dimensional image map provided through the Internet or a wireless communication network such as Google Earth and Microsoft BingMap , A residential building, a stadium, and the like, extracts three-dimensional object information including the height, roof surface, and bottom surface position of the three-dimensional object, and displays the extracted three-dimensional object on the image map in three dimensions, And more particularly, to a map processing method and system for seamlessly rendering exterior and interior.

최근에 Google, Microsoft사와 같은 인터넷 포털업체에서 인공위성이나 비행기에서 촬영한 고해상도 영상을 이용하여 제작한 영상지도를 인터넷이나 무선통신 네트워크를 통해서 일반 사용자에게 제공하고 있다. 이러한 영상지도가 널리 사용되게 되고 많은 사용자가 다양한 분야에서 활용됨에 따라서, 사용자는 영상지도에 더 많은 정보가 담기기를 요구하고 있고 또한 Google과 Miscrsoft사와 같은 영상지도 서비스 제공 업체에서는 더 많은 정보를 제공하기 위해서 노력하고 있다. 이러한 노력의 하나로 빌딩, 공장건물, 주거용건물, 경기장 등과 같은 3차원 개체가 지표면 바닥에 누워있는 형태로 제공되는 2차원 영상지도를 개선하여 3차원 개체들이 입체감있는 3차원의 형태로 제공되는 3차원 영상지도를 구축하여 제공하기도 한다.In recent years, Internet portal companies such as Google and Microsoft have provided video maps created by using high resolution images taken from satellites or airplanes to the general users through the Internet or wireless communication network. As these video maps become widespread and many users are used in various fields, users are asking for more information on the video map, and video and map service providers like Google and Miscrsoft are providing more information I'm trying to. One of these efforts is to improve the 2D image map, which is provided in the form of a three-dimensional object such as a building, a factory building, a residential building, a stadium, etc. lying on the ground surface, They also provide video maps.

그러나, 3차원 영상지도 서비스를 위해서는 3차원 개체들에 대한 높이, 영상지도 내에서의 지붕면 및 바닥면의 위치 등 3차원 개체정보를 가지고 있어야만 가능하다. 3차원 개체정보를 추출하는 대표적인 종래의 기술로는 스테레오 영상을 사용하는 사진측량방식과 레이저측량에 의한 방식이 있으나 이러한 방식에는 많은 인력과 예산이 필요하며, 따라서 지구상에 존재하는 모든 3차원 개체에 대한 정보를 추출하기는 현실적으로 불가능에 가깝다. 이러한 연유로 현재 서비스되고 있는 3차원 영상지도는 북미와 유럽국가의 일부 대도시의 도심지역에 국한되고 있다.However, in order to provide the 3D image guidance service, it is possible to have 3D object information such as the height of the 3D objects, the roof surface in the image map, and the position of the bottom surface. Representative conventional techniques for extracting three-dimensional object information include a photogrammetric method using stereo images and a laser surveying method. However, this method requires a lot of manpower and budget, and therefore, It is practically impossible to extract the information about it. Because of this, 3D image maps currently being served are limited to urban areas in some major cities in North America and Europe.

3차원 개체정보를 추출하는 종래의 스테레오영상을 이용한 사진측량방식이나 레이저측량 방식이 가지는 고비용 문제를 해결하기 위해 고안된 발명으로 '그림자 분석을 통한 3차원 건물정보 추출방법'(대한민국등록특허 10-0647807, 출원일 2006.11.13)이 있다. 이 발명에서는 광원과 카메라의 방위각 및 고도각 등을 이용하며 그림자와 개체의 연직선을 시뮬레이션하여 이를 영상에 투영하는 방식으로 단일영상에서 3차원 개체정보를 추출함으로써 상술한 바와 같은 고비용 문제점을 어느 정도 극복하였다. 하지만, 이 경우에도 영상을 촬영할 당시의 광원과 카메라의 방위각과 고도각 정보를 수록한 메타정보가 반드시 필요하다는 문제점이 있다. A method of extracting three-dimensional building information using shadow analysis as an invention devised to solve a high-cost problem of a photogrammetric method or a laser surveying method using a conventional stereo image for extracting three-dimensional object information (Korean Patent No. 10-0647807 , Filed on November 13, 2006). According to the present invention, a three-dimensional object information is extracted from a single image by simulating a vertical line of a shadow and an object using an azimuth angle and an altitude angle of a light source and a camera, thereby projecting the three- Respectively. However, even in this case, there is a problem that meta information including the azimuth angle and altitude angle information of the light source at the time of shooting the image and the camera is necessarily required.

또한, 상기 발명의 문제점을 해결하기 위한 발명으로 '메타정보 없는 단일영상에서 그림자 분석을 통한 3차원 개체정보 추출방법'(대한민국특허출원번호 10-2009-0125439, 출원일 2009. 12. 16)이 있으나 메타정보가 없는 단일영상에서 추출한 3차원 개체정보의 경우 추출된 개체의 좌표정보가 지도좌표가 아닌 영상좌표이므로 이를 다시 지도좌표로 변환하기 위해서는 별도의 메타정보 및 별도의 변환과정이 필요하고 따라서 영상지도와 직접 연계되기 어려운 단점이 있다. In order to solve the problems of the present invention, there is a method for extracting three-dimensional object information through shadow analysis in a single image without meta information (Korean Patent Application No. 10-2009-0125439, filed on December 16, 2009) In the case of 3D object information extracted from a single image without meta information, since the coordinate information of the extracted object is not an image coordinate but an image coordinate, in order to convert it into a map coordinate, additional meta information and a separate conversion process are required. There is a drawback that it is difficult to link directly with the map.

따라서, 본 발명은 상술한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은, Google Earth, Microsoft BingMap등과 같이 인터넷 또는 무선통신 네트워크 등을 통해서 제공되는 2차원 영상지도를 이용하여 사용자가 직접 영상지도에서 관측되는 빌딩, 공장건물, 주거용건물, 경기장 등과 같은 3차원 개체의 높이, 지붕면 및 바닥면의 위치와 같은 3차원 개체정보를 추출하기 위한 지도 처리 방법 및 시스템을 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for searching a two-dimensional image map, such as Google Earth, Microsoft BingMap, There is provided a map processing method and system for extracting three-dimensional object information such as height, roof surface, and bottom surface position of a three-dimensional object such as an observed building, a factory building, a residential building,

또한, 본 발명의 또 다른 목적은 상기한 방식으로 추출되거나 또는 별도의 방식으로 추출된 3차원 개체정보를 영상지도 상에 3차원으로 표현하고 3차원 개체의 외부 및 내부를 끊김없이 렌더링하기 위한 지도 처리 방법 및 시스템을 제공하는 데 있다.It is still another object of the present invention to provide a map for rendering three-dimensional object information extracted on a video map in a three-dimensional manner on the image map and rendering the outside and inside of the three- And to provide a processing method and system.

먼저, 본 발명의 특징을 요약하면, 본 발명의 일면에 따른, 사용자 단말에서 화면에 제공된 영상지도 상의 개체에 대한 3차원 정보추출 및 표시를 위한 지도 처리 방법은, 상기 화면 에 표시된 상기 영상지도의 모서리의 지도좌표와 이에 대응되는 모서리 화면좌표를 이용하여 축척 비율을 나타내는 해상도를 산출하는 단계; 및 상기 해상도, 및 상기 영상지도 상에서 그림자가 있는 개체에 대한 지붕면, 바닥면, 및 그림자의 좌표들을 이용하여 상기 영상지도가 촬영될 당시의 태양의 방위각 및 고도각과 카메라의 방위각 및 고도각을 산출하여, 상기 영상지도 상의 개체에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 단계를 포함한다. According to an aspect of the present invention, there is provided a map processing method for extracting and displaying three-dimensional information on an object on a video map provided on a screen in a user terminal, Calculating a resolution representing a scale factor using map coordinates of the edges and corresponding edge screen coordinates; And an azimuth angle and an altitude angle of the sun at the time when the image map is photographed and an azimuth angle and an altitude angle of the camera using the resolutions and the coordinates of the roof surface, the bottom surface, and the shadow for the shadowed object on the image map And extracting and additionally displaying the three-dimensional solid surface of the object on the image map.

상기 사용자 단말은 유무선 인터넷 또는 이동통신 네트워크 상의 서버를 통하여 상기 영상지도를 제공받을 수 있다. The user terminal may receive the video map through a server on a wired / wireless Internet or a mobile communication network.

상기 해상도를 산출하는 단계에서, 상기 영상지도에 대한, 좌상단 모서리 지도좌표(MapX1, MapY1), 우하단 모서리 지도좌표(MapX2, MapY2), 좌상단 모서리 화면좌표(DispX1, DispY1), 우하단 모서리 화면좌표(DispX2, DispY2)를 기초로, 하기의 [수학식1]을 이용하여, x 방향의 해상도(GSDx)와 y 방향의 해상도(GSDy)를 산출할 수 있다.(MapX 1 , MapY 1 ), bottom left corner map coordinates (MapX 2 , MapY 2 ), top left corner screen coordinates (DispX 1 , DispY 1 ), and left top corner corner coordinates , it is possible to calculate the lower right corner of the screen coordinates (DispX 2, DispY 2) [equation 1], and the resolution (GSD y) of the x-resolution (GSD x) and the y-direction of the direction used in to on the basis of, for .

상기 영상지도를 촬영할 때의 지도 좌표계의 방위와 상기 사용자 단말에 제공된 상기 영상지도의 화면 좌표계의 방위가 일치할 때, 임의의 지도좌표 (MapX, MapY)에 대응되는 화면좌표(DispX, DispY)의 관계는, 하기의 [수학식2]에 의해 결정될 수 있다.(DispX, DispY) corresponding to arbitrary map coordinates (MapX, MapY) when the orientation of the map coordinate system when capturing the image map coincides with the orientation of the screen coordinate system of the image map provided to the user terminal The relationship can be determined by the following equation (2).

상기 영상지도를 촬영할 때의 지도 좌표계의 방위와 상기 사용자 단말에 제공된 상기 영상지도의 화면 좌표계의 방위가 일치하지 않을 때, 임의의 지도좌표 (MapX, MapY)에 대응되는 화면좌표(DispX, DispY)의 관계는, 하기의 [수학식3], [수학식4]에 의해 결정될 수 있다.(DispX, DispY) corresponding to arbitrary map coordinates (MapX, MapY) when the orientation of the map coordinate system at the time of shooting the video map and the orientation of the screen coordinate system of the video map provided to the user terminal do not match, Can be determined by the following equations (3) and (4).

상기 태양의 방위각(Asun) 및 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam)을 산출하기 위하여, 해당 개체의 지붕면 중 어느 하나의 모서리 화면좌표(DispX3, DispY3), 해당 모서리 화면좌표에서 연장되는 연직선 상의 바닥면 모서리 좌표(DispX4, DispY4), 및 해당 모서리 화면좌표에 대응되는 그림자 모서리 화면좌표(DispX5, DispY5)를 이용하여, [수학식5], [수학식6]에 따라 계산하며, 여기서, H1은 해당 개체의 높이값이다.In order to calculate the azimuth angle Asun and the altitude angle Esun of the sun and the azimuth angle Acam and the altitude angle Ecam of the camera, one of the roof surface coordinates of the corresponding object (DispX 3 , DispY 3 ( 5 ) using the bottom corner coordinates (DispX 4 , DispY 4 ) on the vertical line extending in the corresponding corner screen coordinates and the shadow corner screen coordinates (DispX 5 , DispY 5 ) corresponding to the corresponding edge screen coordinates. , And [Equation 6], where H1 is the height value of the corresponding object.

상기 사용자 단말을 통하여 상기 H1을 사용자로부터 입력받을 수 잇다.And receives the H1 from the user through the user terminal.

상기 H1은 해당 개체의 가상의 높이값 또는 실제 높이값으로서, 상기 H1을 사용자로부터 재입력받는 경우에 상기 3차원 입체면의 높이를 갱신할 수 있다.The H1 is a virtual height value or an actual height value of the corresponding entity, and when the H1 is re-input from the user, the height of the three-dimensional solid surface can be updated.

상기 태양의 방위각(Asun) 및 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam)을 산출하기 위하여, 상기 사용자 단말을 통하여 사용자로부터 해당 개체에 대한 지붕면, 바닥면, 및 그림자를 지정 받거나, 상기 사용자 단말이 자동으로 그림자가 있는 개체의 대한 지붕면, 바닥면, 및 그림자를 지정할 수 있다.In order to calculate the azimuth angle (Asun) and altitude angle (Esun) of the sun and the azimuth angle (Acam) and altitude angle (Ecam) of the camera, a roof surface, a floor surface, A shadow may be assigned, or the user terminal may automatically specify the roof surface, floor, and shadow of the shadowed object.

상기 영상지도 상의 개체에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 단계는, 상기 영상지도 상의 어느 하나의 상기 개체에 대한 상기 태양의 방위각(Asun) 및 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam), 및 사용자가 지정하는 다른 개체의 지붕면과 높이(H2)에 따라, 상기 다른 개체의 3차원 입체면을 추출하고 추가적으로 표시하는 단계를 포함할 수 있다.Wherein the step of extracting and additionally displaying the three-dimensional solid surface of the object on the image map comprises the steps of: calculating an azimuth angle (Asun) and an altitude angle (Esun) of the sun relative to any one of the objects on the image map and an azimuth angle Extracting and additionally displaying the three-dimensional solid surface of the other entity according to the height (Acam) and the altitude angle (Ecam) of the other entity, and the roof surface and height (H2) of another entity specified by the user.

상기 다른 개체의 하나의 지붕면 모서리 화면좌표(DispX6, DispY6), 이에 대응하는 바닥면 모서리 화면좌표(DispX7, DispY7) 및 그림자 모서리 화면좌표(DispX8, DispY8)를 [수학식7]을 이용해 계산하여, 상기 다른 개체의 3차원 입체면을 표시할 수 있다.(DispX 6 , DispY 6 ), the corresponding bottom edge corner screen coordinates (DispX 7 , DispY 7 ), and the shadow corner screen coordinates (DispX 8 , DispY 8 ) 7] to display the three-dimensional solid surface of the other entity.

상기 다른 개체의 지붕면을 사용자가 지정하면 화면상에 임시 바닥면과 임시 그림자면이 생성되고, 사용자가 좌표 입력 수단을 이용하여 상기 임시 바닥면을 해당 개체의 바닥면까지 끌어 당기거나 상기 임시 그림자면을 해당 개체의 그림자면까지 끌어당기면, 해당 위치에 대한 상기 다른 개체의 높이값과 3차원 입체면을 추출하여 표시할 수 있다.When the user designates the roof surface of the other object, a temporary bottom surface and a temporary shadow surface are created on the screen. The user draws the temporary floor surface to the bottom surface of the object using the coordinate input means, If the magnetic field is pulled to the shadow surface of the object, the height value of the other object and the three-dimensional solid surface can be extracted and displayed.

상기 지붕면 모서리 화면좌표(DispX6, DispY6)에 대응하는 모서리 지도좌표, 상기 바닥면 모서리 화면좌표(DispX7, DispY7)에 대응하는 모서리 지도좌표, 및 상기 개체의 높이(H2)를 저장 수단에 저장하고 관리하여 해당 개체와 관련된 정보 제공에 활용할 수 있다.The corner map coordinates corresponding to the roof surface corner screen coordinates (DispX 6 , DispY 6 ), the corner map coordinates corresponding to the bottom floor corner screen coordinates (DispX 7 , DispY 7 ), and the height H2 of the object And can be used to provide information related to the object.

상기 영상 지도 상의 상기 개체의 지붕면과 바닥면의 겉보기 색상이나 밝기를 추출하고 상기 3차원 입체면의 지붕면과 바닥면에 해당 색상이나 밝기를 반영하여 표시할 수 있다. 상기 3차원 입체면의 지붕면과 바닥면의 색상이나 밝기 정보를 저장 수단에 저장하고 관리하여 해당 개체와 관련된 정보 제공에 활용할 수 있다.It is possible to extract the apparent color or brightness of the roof surface and the bottom surface of the object on the image map and to reflect the color or brightness on the roof surface and the bottom surface of the three dimensional solid surface. The color and brightness information of the roof surface and the bottom surface of the three-dimensional solid surface can be stored and managed in the storage means and utilized for providing information related to the object.

상기 영상지도에 대하여 사용자가 좌표 입력 수단을 이용해 확대, 축소, 또는 시점 변경에 따라 그에 맞게 상기 3차원 입체면을 렌더링하여 표시할 수 있다.The user can render and display the three-dimensional solid surface according to the enlargement, reduction, or change of viewpoint by using the coordinate input means with respect to the image map.

상기 영상지도에 대하여 사용자가 좌표 입력 수단을 이용해 확대, 축소, 또는 시점 변경에 따라, 상기 3차원 입체면 내부로 관찰 시점이 변경되는지 여부를 판별하여, 내부로 변경될 때, 실시간으로 렌더링을 수행하여 내부의 해당 모습을 표시할 수 있다.The user determines whether or not the observation point is changed inside the three-dimensional solid surface in accordance with the enlargement, reduction, or change of the viewpoint by using the coordinate input means by the user, and performs rendering in real time when changing to the inside So that it can display its internal appearance.

상기 관찰 시점이 내부로 변경되면, 해당 개체의 내부에 대한 콘텐츠 영상을 제공하거나, 해당 개체의 내부의 벽면을 투명하게 하고 제공되고 있는 상기 영상지도가 동시에 보이도록 또는 제공되고 있는 상기 영상지도는 보이지 않도록 할 수 있다.If the observation time is changed to the inside, the content image for the inside of the object is provided, or the wall surface of the inside of the object is made transparent, .

그리고, 본 발명의 다른 일면에 따른, 사용자 단말에서 화면에 제공된 영상지도 상의 개체에 대한 3차원 정보추출 및 표시를 위한 지도 처리 시스템은, 상기 화면에 표시된 상기 영상지도의 모서리의 지도좌표와 이에 대응되는 모서리 화면좌표를 이용하여 축척 비율을 나타내는 해상도를 산출하는 제1 산출 수단; 상기 해상도, 및 상기 영상지도 상에서 그림자가 있는 개체에 대한 지붕면, 바닥면, 및 그림자의 좌표들을 이용하여 상기 영상지도가 촬영될 당시의 태양의 방위각 및 고도각과 카메라의 방위각 및 고도각을 산출하는 제2 산출 수단; 및 상기 해상도, 상기 태양과 상기 카메라의 방위각 및 고도각을 이용해 상기 영상지도 상의 개체들에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 제3 산출 수단을 포함할 수 있다.According to another aspect of the present invention, there is provided a map processing system for extracting and displaying three-dimensional information on an object on a video map provided on a screen of a user terminal, the map coordinate system including a map coordinate of an edge of the video map displayed on the screen, First calculating means for calculating a resolution indicating a scale factor using the edge screen coordinates; The azimuth angle and altitude angle of the sun at the time the image map is photographed, azimuth angle and altitude angle of the camera using the resolution, and coordinates of the roof surface, bottom surface, and shadow of the shadowed object on the image map Second calculating means; And third calculating means for extracting and additionally displaying a three-dimensional solid surface for the individuals on the image map using the resolution, the azimuth angle and the altitude angle of the sun and the camera.

본 발명에 따른 지도 처리 방법 및 시스템에 따르면, 사용자가 추가적인 비용없이 네트워크 등을 통해 제공되는 2차원 영상지도로부터 빌딩, 공장건물, 주거용건물, 경기장과 같은 3차원 개체의 높이, 지붕면 및 바닥면 위치 정보를 포함하는 3차원 개체정보를 추출하여, 추출된 3차원 개체를 영상지도 상에 3차원으로 디스플레이하도록 할 수 있다. According to the map processing method and system of the present invention, it is possible to provide a map processing method and system, in which a user can obtain a height, a roof surface, and a floor surface of a three-dimensional object such as a building, a factory building, a residential building, Dimensional object information including the positional information, and display the extracted three-dimensional object on the image map in three dimensions.

또한, 본 발명에 따르면 네트워크 등을 통해 제공되는 2차원 형태의 영상지도 상에 다양한 관찰자 시점에 맞도록 3차원 개체를 렌더링하고 3차원 개체의 외부 및 내부의 렌더링을 끊김없이 수행할 수 있다.In addition, according to the present invention, a three-dimensional object can be rendered on a two-dimensional image map provided through a network or the like so as to fit various observer's viewpoints, and the exterior and interior rendering of the three-dimensional object can be seamlessly performed.

도 1은 본 발명의 일실시예에 따른 지도 처리 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 사용자 단말에서 네트워크를 통해서 제공된 2차원 영상지도로부터 3차원 개체를 추출하고 렌더링하는 과정을 설명하기 위한 흐름도이다.
도 3은 도 1의 사용자 단말에 제공된 2차원 영상지도로부터 영상지도를 촬영한 당시의 태양과 카메라의 방위각과 고도각을 추출하는 과정을 설명하기 위한 도면이다.
도 4는 도3과 같이 태양과 카메라의 고도각 및 방위각을 산출한 이후, 사용자 단말에 제공된 2차원 영상지도로부터 3차원 개체를 추출하는 과정을 설명하기 위한 도면이다.
도 5는 도 4와 같이 사용자 단말에 제공된 2차원 영상지도로부터 추출한 3차원 개체를 영상지도 상에 3차원으로 렌더링한 결과를 보여주는 도면이다.
도 6은 사용자가 관찰시점을 조절한 경우 3차원 개체의 외부 및 내부를 렌더링하는 예이다.
1 is a diagram for explaining a map processing system according to an embodiment of the present invention.
2 is a flowchart illustrating a process of extracting and rendering a 3D object from a 2D image map provided through a network in the user terminal of FIG.
FIG. 3 is a view for explaining a process of extracting azimuth and altitude angles of the sun and the camera at the time of photographing the image map from the two-dimensional image map provided to the user terminal of FIG. 1;
FIG. 4 is a diagram for explaining a process of extracting a three-dimensional object from a two-dimensional image map provided to a user terminal after calculating altitude angles and azimuth angles of a sun and a camera as shown in FIG.
FIG. 5 is a diagram showing a result of three-dimensional rendering of a three-dimensional object extracted from a two-dimensional image map provided on a user terminal as shown in FIG. 4 on a video map.
FIG. 6 is an example of rendering the outside and inside of a three-dimensional object when the user adjusts the viewing point.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

도 1은 본 발명의 일실시예에 따른 지도 처리 시스템(100)을 설명하기 위한 도면이다.1 is a diagram for explaining a map processing system 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 지도 처리 시스템(100)은, 유선 인터넷이나 WiFi, WiBro 등의 무선 인터넷, 또는 3G/4G 이동통신 네트워크 등을 통해서 서로 통신하는 사용자 단말(110)과 지도 제공 서버(120)를 포함한다. Referring to FIG. 1, a map processing system 100 according to an embodiment of the present invention includes a user terminal 110 (hereinafter referred to as " user ") 110 which communicates with each other via a wired Internet, a wireless Internet such as WiFi, WiBro, And a map providing server 120.

사용자 단말(110)은 위와 같은 네트워크를 통해서 지도 제공 서버(120)와 통신할 수 있는 데스크탑 PC, 노트북 PC, iPAD, iPhone, IPTV 등 가정용 또는 산업용 사회 전반의 다양한 전자 기기 또는 장치를 포함할 수 있다. 이하에서 지도 제공 서버(120)는 2차원 영상지도를 네트워크를 통해서 사용자 단말(110)로 제공하고, 사용자 단말(110)은 지도 제공 서버(120)와 연동하여 본 발명의 지도 처리 서비스를 제공하는 것을 예로 들어 설명하지만, 이에 한정되지 않으며 경우에 따라서는 사용자 단말(110)이 지도 제공 서버(120)가 제공하는 영상지도와 유사한 지도 정보를 탑재하고 하기하는 바와 같은 지도 좌표 등 서비스에 필요한 정보를 측정할 수 있는 경우에는 사용자 단말(110)에서 자체적으로 본 발명의 지도 처리 서비스를 제공할 수도 있다.The user terminal 110 may include a variety of electronic devices or devices throughout the home or industrial community, such as a desktop PC, a notebook PC, an iPAD, an iPhone, and an IPTV, which can communicate with the map providing server 120 through the above- . Hereinafter, the map providing server 120 provides the two-dimensional image map to the user terminal 110 via the network, and the user terminal 110 provides the map processing service of the present invention in cooperation with the map providing server 120 However, the present invention is not limited thereto. In some cases, the user terminal 110 may store information necessary for a service such as map coordinates, which is similar to a video map provided by the map providing server 120, The user terminal 110 may provide the map processing service of the present invention by itself.

하기하는 바와 같은 사용자 단말(110)에서의 지도 처리 서비스를 제공하기 위하여 사용자 단말(110)에는 소정의 지도 처리 서비스를 위한 소정의 어플리케이션이 설치될 수 있으며, 지도 처리 서비스를 위하여 설치된 어플리케이션과 기타 사용자 단말(110)내의 하드웨어가 연동하여 동작할 수 있다. In order to provide a map processing service in the user terminal 110 as described below, a predetermined application for a predetermined map processing service may be installed in the user terminal 110, and an application installed for the map processing service and other users Hardware in the terminal 110 can operate in conjunction with each other.

도 2는 도 1의 사용자 단말(110)에서 네트워크를 통해서 제공된 2차원 영상지도로부터 3차원 개체를 추출하고 렌더링하는 과정을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart illustrating a process of extracting and rendering a three-dimensional object from a two-dimensional image map provided through a network in the user terminal 110 of FIG.

하기하는 바와 같이, 사용자가 3차원 개체정보 추출을 희망하는 지역을 선택하여 사용자 단말(110)은 네트워크를 통해서 지도 제공 서버(120)로부터 해당 2차원 영상지도와 해당 모서리 지도 좌표(MapXi, MapYi)를 제공받을 수 있으며(S100~S102), 이로부터 사용자 단말(110)은 디스플레이된 영상지도에 대한 해상도(GSD) 및 모서리 화면좌표(DispXi, DispYi)와 지도좌표(MapXi, MapYi) 간의 변환관계를 추출하고(S110), 사용자가 특정 개체에서의 지붕면, 바닥면, 그림자 등을 지정함에 따라 해당 영상지도를 촬영할 당시의 태양과 카메라의 방위각 및 고도각 정보를 산출하며(S120), 이와 같이 산출된 해상도(GSD), 변환관계, 태양과 카메라의 방위각 및 고도각 정보 등을 다른 개체에도 적용하여 3차원 개체들의 높이, 지붕면 모서리 화면좌표와 지도좌표, 바닥면 모서리 화면좌표와 지도좌표, 그림자 모서리 화면좌표, 지붕면 및 수직면 텍스처 정보 등을 포함하는 3차원 개체정보를 추출하여 디스플레이할 수 있으며(S130~S151). 이외에도 사용자 단말(110)은 사용자가 지도의 확대, 축소, 상하좌우 시점 선택, 지역 이동 등에 따른 다양한 관찰자 시점에 맞도록 3차원 개체를 렌더링하고 3차원 개체의 외부 및 내부의 렌더링을 끊김없이 수행할 수 있다(S160~S190).To described above, the user selects the region the desired three-dimensional object information to extract the user terminal 110, which is the from the map server 120 through the network 2-D image map and the edge map coordinates (MapX i, MapY the user terminal 110 can obtain the resolution GSD and the screen coordinate values DispX i and DispY i of the displayed video map and the map coordinates MapX i and MapY extracting the conversion relationship between i) and (S110), the user calculates the sun and the camera azimuth and elevation angle information of the time to take the image map, as the roof surface, specifies the bottom surface, the shadows of the specific object, and ( S120), applying the calculated resolution (GSD), conversion relation, azimuth and elevation angle information of the sun and the camera to other objects so as to calculate the height of the three-dimensional objects, the roof surface corner coordinates and the map coordinates, The 3D object information including the surface coordinates, the map coordinates, the shadow edge screen coordinates, the roof surface, and the vertical surface texture information can be extracted and displayed (S130 to S151). In addition, the user terminal 110 may render the three-dimensional object in accordance with various viewpoints of the observer according to the enlargement / reduction of the map, the selection of the up / down / right / (S160 to S190).

먼저, 사용자는 사용자 단말(110)을 통해 네트워크를 통해서 지도 제공 서버(120)에 접속하여 영상지도(정보)를 요청하며(S100), 지도 제공 서버(120)가 제공하는 해당 2차원 영상지도와 해당 모서리 지도 좌표(MapXi, MapYi)를 제공받아 화면에 영상지도를 디스플레이할 수 있다(S102). 사용자는 사용자 단말(110)의 키보드, 마우스 등을 조작하여 화면에 디스플레이된 2차원 영상지도의 확대, 축소, 상하좌우 시점 선택, 지역 이동 등을 통하여 3차원 개체정보 추출을 희망하는 지역을 선택할 수 있고, 지도 제공 서버(120)는 그에 따른 해당 2차원 영상지도와 해당 모서리 지도 좌표(MapXi, MapYi)를 사용자 단말(110)로 제공할 수 있다. 사용자 단말(110)에서 어플리케이션과 연동하는 소정 수단(예, 화면 좌표 산출 수단)은 영상지도가 제공되어 디스플레이될 때마다 직각 좌표계 (x,y) 상의 4개의 모서리 화면 좌표(DispXi, DispYi)를 산출할 수 있다. First, a user accesses a map providing server 120 through a network through a user terminal 110 to request a video map (information) (S100). Then, the user inputs a corresponding two-dimensional video map provided by the map providing server 120 you can take the edge provided map coordinates (MapX i, MapY i) to display the map image on the screen (S102). The user can operate a keyboard, a mouse, etc. of the user terminal 110 to select an area desired to extract three-dimensional object information through enlargement, reduction, up / down / right / and, the map server 120 may provide the corresponding 2-D image map and the edge map coordinates (i MapX, MapY i) user terminals 110 in accordance thereto. Certain means for interlocking with an application in the user terminal 110 (for example, the screen coordinate calculation means) is a Cartesian coordinate system (x, y) 4 of the corner screen coordinates (DispX i, DispY i) on each time the image map is provided display Can be calculated.

이와 같이, 3차원 개체정보 추출을 희망하는 지역에 대한 영상지도를 디스플레이할 때, 사용자 단말(110)은 제공된 모서리 지도 좌표(MapXi, MapYi)를 이용하여, 디스플레이된 영상지도에 대한 x, y 방향의 해상도(GSDx, GSDy) 및 각 화면좌표(DispX, DispY)에 대응되는 지도좌표(MapX, MapY)를 나타내는 변환관계를 추출한다(S110). 사용자 단말(110)에서 어플리케이션과 연동하는 소정 수단(예, 해상도 및 변환관계 산출 수단)은 영상지도가 제공되어 디스플레이될 때마다 위와 같은 x, y 방향의 해상도(GSDx, GSDy) 및 변환관계를 추출할 수 있다. In this way, the three-dimensional object information extraction when displaying an image map for the area wishing to, by using the user terminal 110 is provided edge map coordinates (MapX i, MapY i), x for the displayed image map, (MapX, MapY) corresponding to the y-direction resolution (GSD x , GSD y ) and each screen coordinate (DispX, DispY) (S110). Predetermined means (for example, resolution and conversion relation calculating means) linked with the application in the user terminal 110 can display the resolution (GSD x , GSD y ) in the x and y directions and the conversion relationship Can be extracted.

예를 들어, 사용자 단말(110)은 x, y 방향의 해상도(GSDx, GSDy)를 [수학식1]과 같이 산출할 수 있다. 여기서, x, y 방향의 해상도(GSDx, GSDy)는 현실에서의 실제 거리에 기반한 지도 좌표계와 제공된 영상지도의 화면 좌표계 간의 각 방향 축척 비율을 나타내는 것으로서, [수학식1]과 같이 화면에 제공된 영상지도에 대한, 좌상단 모서리 지도좌표(MapX1, MapY1), 우하단 모서리 지도좌표(MapX2, MapY2), 좌상단 모서리 화면좌표(DispX1, DispY1), 우하단 모서리 화면좌표(DispX2, DispY2)를 기초로 산출할 수 있다.For example, the user terminal 110 can calculate the resolutions (GSD x , GSD y ) in the x and y directions as shown in the following equation (1). Here, the resolutions in the x and y directions (GSD x , GSD y ) represent the scale ratios in the respective directions between the map coordinate system based on the actual distance in the real world and the screen coordinate system of the provided image map. (MapX 1 , MapY 1 ), upper left corner map coordinates (MapX 2 , MapY 2 ), upper left corner screen coordinates (DispX 1 , DispY 1 ), and lower right corner screen coordinates (DispX 2 , DispY 2 ).

[수학식1][Equation 1]

GSDx = (MapX2 - MapX1) / (DispX2 - DispX1)GSD x = (MapX 2 - MapX 1 ) / (DispX 2 - DispX 1 )

GSDy = (MapY2 - MapY1) / (DispY2 - DispY1)GSD y = (MapY 2 - MapY 1 ) / (DispY 2 - DispY 1 )

또한, 사용자 단말(110)은 x, y 방향의 해상도(GSDx, GSDy)를 기초로 [수학식2] 또는 [수학식3]과 같이 화면에 제공된 영상지도에 대한 각 위치의 화면좌표에 대응되는 지도좌표를 나타내는 변환관계를 산출할 수 있다. 화면에 제공되는 영상지도에 대한 시점 변동(상하좌우 시점 이동) 시에도 이와 같은 변환관계를 통하여 각 화면좌표(DispX, DispY)와 지도좌표(MapX, MapY)를 대응시킴으로써, 해당 지도영상을 촬영할 때의 지도 좌표계의 방위가 달라진 정도 등을 추정할 수 있다. In addition, the user terminal 110 calculates the screen coordinates of each position of the video map provided on the screen as shown in Equation (2) or (3) based on the resolutions (GSD x , GSD y ) It is possible to calculate the conversion relation indicating the corresponding map coordinates. DispX, DispY and map coordinates (MapX, MapY) are associated with each other during the viewpoint change (up / down / left / right viewpoint movement) of the video map provided on the screen, The degree to which the orientation of the map coordinate system of the robot is changed.

예를 들어, 화면에 제공되는 영상지도는 시점이 변동되면서 화면 좌표계의 방위가 달라질 수 있는데, 화면에 제공되는 지도영상의 지도 좌표계의 방위가 화면 좌표계의 방위와 일치하는 경우, 즉, 화면좌표의 x축, y축 방향이 각각 지도좌표의 x축 및 y축 방향과 일치하는 경우에는, [수학식2]와 같이, 임의의 지도좌표 (MapX, MapY)가 해상도(GSDx, GSDy)와 영상지도의 좌상단 모서리 지도좌표 (MapX1, MapY1)를 이용하여, 각 화면좌표(DispX, DispY)에 대응되는 지도좌표(MapX, MapY)를 나타내는 변환관계를 산출할 수 있다. For example, the image map provided on the screen may change the orientation of the screen coordinate system while the viewpoint is changed. When the orientation of the map coordinate system of the map image provided on the screen coincides with the orientation of the screen coordinate system, x-axis, in the case of the y-axis direction consistent with the map coordinate x-axis and y-axis directions, respectively, as shown in equation (2), any geographic coordinates (MapX, MapY) resolution (GSD x, GSD y) and The transformation relation indicating map coordinates (MapX, MapY) corresponding to each screen coordinate (DispX, DispY) can be calculated by using the upper left corner map coordinates (MapX 1 , MapY 1 ) of the video map.

[수학식2]&Quot; (2) "

MapX = DispX * GSDx + MapX1 MapX = DispX * GSD x + MapX 1

MapY = DispY * GSDy + MapY1 MapY = DispY * GSD y + MapY 1

또한, 예를 들어, 화면에 제공되는 지도영상의 지도 좌표계의 방위가 화면 좌표계의 방위와 일치하지 않는 경우, 즉, 화면에 제공되는 영상지도에 대한 시점 변동(상하좌우 시점 이동)으로 화면 좌표계의 방위가 달라질 때, 해당 임의의 화면 좌표계의 방위에서도 [수학식4]와 같이 화면에 제공된 영상지도에 대한 각 위치의 화면좌표(DispX, DispY)에 대응되는 지도좌표(MapX, MapY)를 나타내는 변환관계를 산출할 수 있다. [수학식3]에서 a, b, c, d, e, f는 화면좌표와 지도좌표 간의 변환관계식의 계수로서, [수학식4]와 같이, 4개의 각 모서리 지도좌표(MapXi, MapYi)(i=1,2,3,4)와 이에 대응되는 4개의 각 모서리 화면좌표(DispXi, DispYi)(i=1,2,3,4)를 이용해 산출할 수 있다.For example, when the orientation of the map coordinate system of the map image provided on the screen does not coincide with the orientation of the screen coordinate system, that is, when the viewpoint change (up / down / right / (MapX, MapY) corresponding to the screen coordinates (DispX, DispY) of each position with respect to the image map provided on the screen, as shown in Equation (4), in the azimuth of the arbitrary screen coordinate system when the azimuth is changed The relationship can be calculated. In the formula 3; a, b, c, d, e, f are screen coordinates, and as a function of the conversion relationship between geographic coordinates, as shown in [Equation 4], each of the four corner of the map coordinates (MapX i, MapY i (i = 1, 2, 3, 4) and corresponding four corner screen coordinates (DispX i , DispY i ) (i = 1, 2, 3, 4).

[수학식3] &Quot; (3) "

MapX = a * DispX + b * DispY + cMapX = a * DispX + b * DispY + c

MapY = d * DispX + e * DispY + fMapY = d * DispX + e * DispY + f

[수학식4]&Quot; (4) "

Figure pat00001
Figure pat00001

한편, 위와 같이 x, y 방향의 해상도(GSDx, GSDy), 각 화면좌표(DispX, DispY)에 대응되는 지도좌표(MapX, MapY)를 나타내는 변환관계를 산출한 후, 사용자 단말(110)은 사용자가 영상지도 상의 특정 개체에서의 지붕면, 바닥면, 그림자 등을 지정함에 따라 해당 영상지도를 촬영할 당시의 태양과 카메라의 방위각 및 고도각 정보를 산출한다(S120). 사용자 단말(110)에서 어플리케이션과 연동하는 소정 수단(예, 방위각 및 고도각 산출 수단)은 아래와 같이 [수학식5], [수학식6]을 이용하여 사용자로부터 필요한 입력을 받아 화면에 제공된 해당 영상지도를 촬영할 당시의 태양과 카메라의 방위각 및 고도각 정보를 산출할 수 있다.On the other hand, after calculating the conversion relations indicating the map coordinates (MapX, MapY) corresponding to the resolution (GSD x , GSD y ) in the x and y directions and the screen coordinates (DispX, DispY) (S120), the azimuth and elevation angle information of the sun and the camera at the time of capturing the corresponding image map is calculated according to the user designating the roof surface, bottom surface, and shadow of the specific object on the image map. The predetermined means (for example, the azimuth angle and altitude angle calculating means) linked with the application in the user terminal 110 receives the necessary input from the user using Equation (5) and Equation (6) The azimuth and elevation angle information of the sun and the camera at the time of shooting the map can be calculated.

화면에 제공된 해당 영상지도를 촬영할 당시의 태양과 카메라의 방위각 및 고도각 정보를 산출하기 위하여, 먼저, 사용자 단말(110)의 키보드, 마우스, 터치 등 좌표 입력 수단을 통해 도 3의 310과 같이 사용자가 영상지도 상의 그림자가 있는 임의의 개체(예, 빌딩 등)를 선택하고, 도 3의 320과 같이 해당 개체의 지붕면(예, 해당 빌딩의 옥상이 보이는 사각면), 바닥면(예, 해당 빌딩의 바닥에 해당하는 사각면), 및 그림자(예, 해당 영상지도를 촬영할 당시에 해당 빌딩에 의해 생긴 그림자)를 지정해 준다. 경우에 따라 사용자 단말(110)이 그림자가 있는 임의의 개체(예, 빌딩 등)를 추정하고 자동 선택하여 해당 개체의 지붕면(예, 해당 빌딩의 옥상이 보이는 사각면), 바닥면(예, 해당 빌딩의 바닥에 해당하는 사각면), 및 그림자(예, 해당 영상지도를 촬영할 당시에 해당 빌딩에 의해 생긴 그림자)를 지정할 수도 있다. In order to calculate the azimuth angle and altitude angle information of the sun and the camera at the time of shooting the corresponding image map provided on the screen, first, the user (E.g., a building, etc.) with a shadow on the image map and selects the roof surface of the object (for example, the roof surface of the building is viewed as a square surface), the floor surface A square face corresponding to the bottom of the building), and a shadow (eg, the shadow created by the building at the time the image map was taken). Optionally, the user terminal 110 may estimate and automatically select any entity (e.g., a building) with a shadow to determine the roof surface of the entity (e.g., a square surface where the roof of the building is visible) A square face corresponding to the bottom of the building), and a shadow (e.g., a shadow created by the building at the time the corresponding image map was taken).

이에 따라 사용자 단말(110)은 도 3의 320과 같이 해당 지붕면 중 어느 하나의 모서리 화면좌표, 예를들어, (DispX3, DispY3), 해당 모서리 화면좌표에서 연장되는 연직선 상의 바닥면 모서리 좌표로서 그에 대응되는 바닥면 모서리 화면좌표, 예를들어, (DispX4, DispY4), 및 해당 모서리 화면좌표에 대응되는 그림자 모서리 화면좌표, 예를들어, (DispX5, DispY5)를 이용하여 [수학식5], [수학식6]과 같이, 카메라의 방위각(Acam), 카메라의 고도각(Ecam), 태양의 방위각(Asun), 태양의 고도각(Esun)을 산출할 수 있다. [수학식5], [수학식6]에서 카메라의 고도각(Ecam)과 태양의 고도각(Esun)에 사용된 H1은 사용자가 선택한 영상지도 상의 개체(예, 빌딩 등)에 대한 높이로서, 실제 높이를 알고 있는 경우에는 실제 높이값이 사용자에 의해 입력되며, 그렇지 않으면 임의의 높이값이 사용자에 의해 입력되어 사용될 수 있다.3, the user terminal 110 may obtain the coordinates of any one of the corresponding roof surfaces, for example, (DispX 3 , DispY 3 ), floor corner coordinates on a vertical line extending from the corresponding corner screen coordinates For example, (DispX 4 , DispY 4 ) and corresponding shadow edge screen coordinates corresponding to the corresponding edge screen coordinates, for example, (DispX 5 , DispY 5 ) The camera azimuth angle Acam, the camera altitude angle Ecam, the azimuth angle of the sun and the altitude angle Esun of the sun can be calculated as shown in Equation 5 and Equation 6. H1 used in the altitude angle Ecam of the camera and the altitude angle Esun of the sun in the equations (5) and (6) is a height of an object (e.g., a building, etc.) If the actual height is known, the actual height value is input by the user, otherwise an arbitrary height value can be input and used by the user.

[수학식5][Equation 5]

XLen1 = (DispX4 - DispX3)*GSDx XLen1 = (DispX 4 - DispX 3 ) * GSD x

YLen1 = (DispY4 - DispY3)*GSDy YLen1 = (DispY 4 - DispY 3 ) * GSD y

Acam = atan(YLen1 / XLen1)Acam = assign (YLen1 / XLen1)

Ecam = atan(H1 / sqrt( XLen1*XLen1 + YLen1*YLen1))Ecam = atan (H1 / sqrt (XLen1 * XLen1 + Ylen1 * Ylen1))

[수학식6][Equation 6]

XLen2 = (DispX5 - DispX4)*GSDx XLen2 = (DispX 5 - DispX 4 ) * GSD x

YLen2 = (DispY5 - DispY4)*GSDy YLen2 = (DispY 5 - DispY 4 ) * GSD y

Asun = atan(YLen2 / XLen2 )Asun = assign (YLen2 / XLen2)

Esun = atan(H1 / sqrt(XLen2*XLen2 + YLen2*YLen2))Esun = assign (H1 / sqrt (XLen2 * XLen2 + Ylen2 * Ylen2))

이와 같이 사용자가 선택한 영상지도 상의 개체(예, 빌딩 등)에 대한 지붕면(예, 해당 빌딩의 옥상이 보이는 사각면), 바닥면(예, 해당 빌딩의 바닥에 해당하는 사각면), 및 그림자(예, 해당 영상지도를 촬영할 당시에 해당 빌딩에 의해 생긴 그림자)를 지정해 주면, 해당 카메라의 방위각(Acam), 카메라의 고도각(Ecam), 태양의 방위각(Asun), 태양의 고도각(Esun)이 산출함으로써, 해당 영상 지도에 대한 시점 변경이나, 확대, 축소 등 영상 지도의 디스플레이 상태 변경 시에도 도 3의 330, 도 5 등과 같이 위와 같은 파라미터를 이용하여, 사용자 단말(110)의 소정 수단(예, 개체 정보 산출 수단)은 해당 개체의 지붕면과 이로부터 연장된 바닥면으로 추가적으로 표시되는 입체면(예, 육면체) 및 바닥면에서 연장된 그림자 영역이 그에 맞게 시점 이동, 확대, 축소 등이 이루어져 해당 개체를 3차원 형태로 표시해 줄 수 있다. 다만, 위와 같이 H1으로서 임의의 높이값이 입력된 경우에 해당 개체 및 이후에 추출되는 3차원 개체들의 높이값은 실제의 높이값이 아닌 사용된 임의의 높이값에 비례하는 가상의 높이값을 가지게 된다. 언제든지 H1으로서 실제의 높이값이 입력되면, 영상 지도상에 표시되는 3차원 개체들의 높이는 실제 높이를 기반으로 한 높이를 나타낼 수 있으며, 또한, 3차원 개체의 실제 높이값을 알고 있는 개체를 선택하여 언제든지 위와 같은 카메라의 방위각(Acam), 카메라의 고도각(Ecam), 태양의 방위각(Asun), 태양의 고도각(Esun)을 다시 산출하여 3차원 개체들을 정확한 높이로 갱신하여 표시할 수도 있다. In this way, the roof surface (eg, the roof of the building), the floor surface (eg, the square surface corresponding to the floor of the building), and the shadow (Eg, the shadow created by the building at the time of shooting the map), the camera's azimuth (Acam), camera's altitude angle (Ecam), sun's azimuth (Asun), sun's altitude angle (Esun) It is possible to change the display state of the video map such as the viewpoint change, enlargement or reduction of the video map by using the above-mentioned parameters 330, 5, (For example, an object information calculating means) is a means for calculating a distance between a surface of the object (for example, a cube) additionally displayed on the roof surface of the object and a bottom surface extending therefrom and a shadow region extending from the bottom surface, this The object can be displayed in three-dimensional form. However, when an arbitrary height value is input as H1 as described above, the height values of the object and the three-dimensional objects extracted thereafter are not a true height value but have a virtual height value proportional to a used arbitrary height value do. When the actual height value is input as H1 at any time, the height of the three-dimensional objects displayed on the image map can represent a height based on the actual height, and an object that knows the actual height value of the three- At any time, the above-mentioned camera's azimuth (Acam), the camera altitude angle (Ecam), the sun's azimuth angle (Asun), and the sun altitude angle (Esun) can be calculated again to update the three-dimensional objects to the correct height.

이와 같이 S120 단계에서 산출된 해상도(GSD), 변환관계, 태양과 카메라의 방위각 및 고도각 정보 등을 다른 개체에도 적용하여, 사용자 단말(110)은 다른 3차원 개체들의 높이, 지붕면 모서리 화면좌표와 지도좌표, 바닥면 모서리 화면좌표와 지도좌표, 그림자 모서리 화면좌표, 지붕면 및 수직면 텍스처 정보 등을 포함하는 3차원 개체정보를 추출하여 추가적으로 3차원 입체면을 디스플레이할 수 있다(S130~S151). 사용자 단말(110)에서 어플리케이션과 연동하는 소정 수단(예, 개체 정보 산출 수단)은 위에서 산출된 해상도(GSD), 변환관계, 태양과 카메라의 방위각 및 고도각 정보 등을 다른 개체에도 적용하여, 아래와 같이 사용자가 다른 개체의 지붕면과 높이만 지정해 주거나 다른 개체의 지붕면과 바닥면만 또는 지붕면과 그림자면만 지정해주면, [수학식7]을 이용하여 실시간으로 해당 개체의 높이, 지붕면 모서리 화면좌표 및 지도좌표, 바닥면 모서리 화면좌표 및 지도좌표, 그림자 모서리 화면좌표, 지붕면 및 수직면(벽면) 텍스처 정보 등을 포함하는 3차원 개체정보를 추출하여 추가적으로 3차원 입체면을 디스플레이할 수 있다.In this way, the user terminal 110 applies the resolution GSD calculated in step S120, the conversion relation, the azimuth angle and altitude angle information of the sun and the camera to other entities, and the user terminal 110 calculates the height, Dimensional object information including the map coordinates, the bottom edge corner screen coordinates, the map coordinates, the shadow corner screen coordinates, the roof surface, and the vertical surface texture information, and further displays the three-dimensional solid surface (S130 to S151) . The predetermined means (for example, the object information calculating means) that interacts with the application in the user terminal 110 applies the above calculated resolution GSD, the conversion relation, the azimuth and elevation angle information of the sun and the camera to other objects, Similarly, if the user specifies only the roof surface and height of another object, or only the roof surface and the floor surface of another object or only the roof surface and the shadow surface are specified, the height, roof surface corner coordinate Dimensional object information including a map coordinate, a bottom edge corner screen coordinate and a map coordinate, a shadow corner screen coordinate, a roof surface, and a vertical surface (wall surface) texture information can be extracted and a three-dimensional solid surface can additionally be displayed.

[수학식7]&Quot; (7) "

DispX7 = DispX6 - (H2 / GSDx) * sin (Acam) / tan (Ecam)DispX 7 = DispX 6 - (H2 / GSD x ) * sin (Acam) / tan (Ecam)

DispY7 = DispY6 - (H2 / GSDy) * cos (Acam) / tan (Ecam)DispY 7 = DispY 6 - (H 2 / GSD y ) * cos (Acam) / tan (Ecam)

DispX8 = DispX7 - (H2 / GSDx) * sin (Asun) / tan (Esun)DispX 8 = DispX 7 - (H2 / GSD x ) * sin (Asun) / tan (Esun)

DispY8 = DispY7 - (H2 / GSDy) * cos (Asun) / tan (Esun)DispY 8 = DispY 7 - (H 2 / GSD y ) * cos (Asun) / tan (Esun)

예를 들어, 먼저 사용자가 도 4의 410과 같이 개체 정보를 추출하고자 하는 다른 3차원개체(도 3에서 선택한 개체 주위의 임의의 개체로서 빌딩 등)의 지붕면 모서리들을 선택(예, 옥상 사각면 지정)하게 되면, 사용자 단말(110)은 특정한 값(예, H2=1m)를 해당 3차원 개체의 초기 높이값으로 일단 가정하여 바닥면과 그림자면(임시 바닥면과 임시 그림자면)을 생성하고 이때의 3차원개체의 수직 외각선(벽면의 외각선) 및 그림자를 영상지도에 투영하여 표시할 수 있다.For example, if the user selects the roof surface edges of another three-dimensional entity (a building, etc. as an arbitrary entity around the entity selected in FIG. 3) for which the user wants to extract the entity information as shown in 410 of FIG. 4 The user terminal 110 generates a floor surface and a drawing surface (a temporary bottom surface and a temporary drawing surface) by assuming a specific value (for example, H2 = 1 m) as an initial height value of the corresponding three-dimensional entity At this time, the vertical outline (the outline of the wall surface) and the shadow of the three-dimensional object can be projected on the image map and displayed.

이때 H2=1m는 해당 개체의 지붕면에서 바닥면 까지의 실제 높이를 반영한 것이 아니므로, 사용자가 입력 장치로 해당 3차원 개체의 높이값을 조절하여(상기 임시 바닥면을 해당 개체의 바닥면까지 끌어 당기거나 상기 임시 그림자면을 해당 개체의 그림자면까지 끌어당김), 영상지도에 투영된 3차원 개체의 수직외각선, 바닥면모서리점 및 그림자의 전부 또는 일부가 실제 영상지도에 존재하는 해당 3차원 개체의 수직 외각선, 바닥면모서리점 및 그림자의 전부 또는 일부와 일치될 때까지 조절하면, 해당 개체의 하나의 지붕면 모서리 화면좌표(DispX6, DispY6)에 대응하는 바닥면 모서리 화면좌표(DispX7, DispY7) 및 그림자 모서리 화면좌표(DispX8, DispY8)가 [수학식7]과 같이 계산될 수 있다. 사용자 단말(110)은 위와 같은 좌표값들과 [수학식2]의 변환관계 등을 이용하여 H1에 상대적인 높이값으로 [수학식7]의 H2를 계산하여 적용할 수 있다. Since H2 = 1m does not reflect the actual height from the roof to the floor of the object, the user adjusts the height of the corresponding 3-dimensional object with the input device Or pulling the temporary drawing surface to the drawing surface of the object), all or part of the vertical outline, bottom edge point, and shadow of the projected three-dimensional object on the image map are present in the actual image map. The bottom edge corner point corresponding to one of the roof surface corner coordinates (DispX 6 , DispY 6 ) of the object, if adjusted to match all or part of the vertical outline, bottom edge point, and shadow of the dimension object (DispX 7 , DispY 7 ) and the shadow corner screen coordinates (DispX 8 , DispY 8 ) can be calculated as shown in Equation (7). The user terminal 110 can calculate and apply H2 of Equation (7) to a height value relative to H1 by using the above coordinate values and the conversion relation of Equation (2).

사용자 단말(110)은 이와 같이 사용자가 지정하는 개체의 지붕면과 높이 조절에 따라, [수학식7]을 이용하여 실시간으로 해당 개체의 높이, 지붕면 모서리 화면좌표와 지도좌표, 바닥면 모서리 화면좌표와 지도좌표, 그림자 모서리 화면좌표를 산출함으로써, 영상 지도에 표시된 어떠한 개체들이라도 도 5와 같이 지붕면과 이로부터 연장된 바닥면으로 표시되는 육면체 형태의 3차원 형태를 추가적으로 표시해 줄 수 있다. 사용자 단말(110)이 위와 같이 영상 지도 상의 개체들에 대해 산출한 지붕면 모서리 지도좌표, 바닥면 모서리 지도좌표, 개체 높이(H2) 등은 해당 개체에 대응시켜 소정 저장 수단(메모리)에 저장하고 관리하여, 해당 개체와 관련된 다양한 정보 제공에 활용될 수 있다. The user terminal 110 can adjust the height of the corresponding object in real time, the coordinates of the roof edge and the coordinates of the map, the coordinates of the bottom edge, By calculating coordinates, map coordinates, and shadow corner coordinates, any entity displayed on the image map can additionally display a three-dimensional shape in the form of a hexahedron represented by the roof surface and the bottom surface extending therefrom, as shown in FIG. The roof surface corner map coordinates, the bottom edge corner map coordinates, the object height H2, and the like calculated for the objects on the image map by the user terminal 110 are stored in the predetermined storage means (memory) corresponding to the corresponding object And can be used for providing various information related to the object.

또한, 사용자 단말(110)의 소정 수단(예, 개체 정보 산출 수단)은 이와 같이 영상 지도에 표시된 개체들을 3차원 형태로 표시하는 경우에, 영상 지도 상의 해당 개체의 겉보기 색상이나 밝기 등 텍스처(texture) 특징을 추출하여 지붕면이나 수직면(벽면)에 해당 개체의 텍스처를 디스플레이할 수 있다(S140). 즉, 도 5와 같이, 사용자가 선택한 개체에 대하여 지붕면과 이로부터 연장된 바닥면으로 표시되는 육면체를 외각선만 나타내고 투명하게 그 개체를 3차원으로 투영 표시하는 것에 그치지 않으며, 도 5에 도시하지는 않았지만, 사용자 단말(110)은 해당 선택된 개체의 지붕면에서 각 픽셀의 겉보기 색상이나 밝기를 추출하여 그 픽셀값에 따라 입체면(육면체)의 해당 지붕면에 반영하여 표시되도록 할 수 있으며, 마찬가지로, 보이는 수직면(예, 앞벽면, 옆벽면 등)에 대하여도 각 픽셀의 겉보기 색상이나 밝기를 추출하여 그 픽셀값에 따라 입체면(육면체)의 해당 수직면(벽면)에 반영하여 표시되도록 할 수 있다. 사용자 단말(110)이 위와 같이 영상 지도 상의 개체들에 대해 추출한 지붕면, 수직면 등에 대한 색상이나 밝기 정보는 해당 개체에 대응시켜 소정 저장 수단(메모리)에 저장하고 관리하여, 해당 개체와 관련된 다양한 정보 제공에 활용될 수 있다. In the case where the objects displayed on the video map are displayed in a three-dimensional form, the predetermined means (e.g., object information calculating means) of the user terminal 110 may display the texture of the object such as the apparent color or brightness of the object on the video map ) Feature to display the texture of the object on the roof surface or the vertical surface (wall surface) (S140). In other words, as shown in FIG. 5, not only the outline of the cube represented by the roof surface and the bottom surface extended from the object but the object selected by the user is transparently projected and displayed in three dimensions, The user terminal 110 may extract the apparent color or brightness of each pixel on the roof surface of the selected object and reflect the same on the corresponding roof surface of the cubic surface according to the pixel value, , The apparent color or brightness of each pixel may be extracted from the vertical surface (e.g., the front wall surface, the side wall surface, etc.) to be displayed and reflected on the corresponding vertical surface (wall surface) of the solid surface . The color or brightness information of the roof, the vertical surface, and the like extracted by the user terminal 110 on the objects on the image map is stored and managed in a predetermined storage unit (memory) corresponding to the corresponding object, Can be used to provide.

이와 같이 사용자 단말(110)이 사용자가 선택한 개체들의 지붕면과 이로부터 연장된 바닥면으로 표시되는 입체면(육면체) 및 바닥면에서 연장된 그림자 영역 등을 표시함으로써 3차원으로 실감나게 하는 것은, 현재 디스플레이되고 있는 해당 영상 지도에 대한 시점 변경(예, 상하좌우 지역을 이동하면서 해당 위치의 시점에서 보기)이나, 확대, 축소 등 영상 지도의 디스플레이 상태 변경 시에도(S150), 지도 제공 서버(120)가 해당 영상을 제공함에 따라 사용자 단말(110)에 표시되는 영상지도 상에서(S151), 사용자 단말(110)은 사용자가 위와 같이 3차원으로 표시하기를 선택한 개체들의 지붕면과 이로부터 연장된 바닥면으로 표시되는 입체면(육면체) 및 바닥면에서 연장된 그림자 영역 등이 도 5와 같이 해당 시점이나 확대, 축소 등에 따라 그에 맞게 표시되도록 렌더링하여 개체들을 3차원 형태로 표시해 줄 수 있다(S160).In this way, the user terminal 110 realizes the three-dimensional reality by displaying the roof surface of the entities selected by the user, the solid surface (hexahedron) represented by the bottom surface extended from the roof surface, and the shadow area extending from the bottom surface, Even when the display state of the video map is changed (S150), the map providing server 120 (120) changes the view state of the video map currently displayed (for example, (S151), the user terminal 110 determines whether the user wants to display the three-dimensional image on the roof surface of the user and / As shown in FIG. 5, the solid surface (hexahedron) and the shadow area extending from the bottom surface are displayed in accordance with the viewpoint or the enlargement, reduction, The object to render it can display a three-dimensional form (S160).

이외에도, 사용자는 위와 같이 3차원으로 표시되는 개체 외부에서 관찰할 수도 있지만(도 6의 610 참조), 해당 개체의 내부를 보기 위하여 관찰자 시점을 해당 개체의 내부로 선택할 수도 있으며, 이때에도 사용자 단말(110)의 소정 수단(예, 개체 정보 산출 수단)은 관찰 시점이 내부에서 외부로 외부에서 내부로 변경되어도 실시간으로 도 6과 같이 렌더링을 수행하여 끊김없이 개체들을 3차원 형태로 표시해 줄 수 있다(S170).In addition, although the user can observe from outside the object displayed in three dimensions as described above (see 610 in FIG. 6), the observer's viewpoint may be selected as the inside of the object to view the inside of the object, (For example, the object information calculating means) 110 may display objects in a three-dimensional form without interruption by performing rendering as shown in FIG. 6 in real time even if the observation time is changed from the inside to the outside and from outside to inside S170).

예를 들어, 일정 이상으로 확대된 영상지도 상에서 3차원 개체의 지붕면과 바닥면 모서리점들에 의해서 정의되는 입체적 입체면(육면체)의 내부를 관찰시점으로 할 수 있으며(도 6의 620 참조), 사용자 단말(110)에 디스플레이 되고 있는 영상 지도 상에서 사용자가 영상지도의 확대, 축소, 관찰시점의 변경 등에 따라 관찰시점이 3차원으로 표시되는 개체 내부의 위치, 즉, 관찰시점의 지도좌표(예, MapX3, MapY3, H3)가 위에서 기술한 바와 같은 3차원 개체의 지붕면과 바닥면 모서리점들에 의해서 정의되는 입체적 육면체의 내부에 위치하는 지를 판별함으로써 관찰시점이 내부로 변경될 때, 사용자 단말(110)은 실시간으로 렌더링을 수행하여 내부의 모습을 표시해 줄 수 있다(도 6의 630 참조). For example, the inside of a three-dimensional solid surface (hexahedron) defined by the roof surface and bottom edge points of a three-dimensional object on an image map enlarged to a predetermined size or more can be used as an observation point (see 620 in FIG. 6) , A position on the video map being displayed on the user terminal 110 by the user, the position of the inside of the object to be displayed in three dimensions according to the enlargement or reduction of the video map, the change of the observation point, , MapX 3 , MapY 3 , H3) are located inside the cubic body defined by the roof and bottom edge points of the three-dimensional entity as described above, The user terminal 110 may perform rendering in real time to display an inner appearance (refer to 630 in FIG. 6).

이와 같이 사용자는 3차원 개체의 내부로 들어가 건물 내부의 관찰이 가능하며, 도 6에는 내부가 투명한 상태로 도시되었으나, 개체 내부에 대한 각 층별 콘텐츠 영상을 별도로 구축하여 내부의 시설 모습, 벽면 상태 등 실제 내용을 제공할 수도 있다. 이외에도, 관찰시점이 3차원 개체의 내부에 위치하는 경우, 관찰시점의 조작방식, 관찰시점에 따른 3차원 개체 내부에서의 표현방식은 별도로 정하여 제공되도록 처리할 수 있다. 예를 들어, 관찰시점이 3차원 개체의 내부에 위치하는 경우로 3차원 개체의 내부가 사용자의 화면에 디스플레이되는 동안, 도 6의 620, 630과 같이 3차원 개체의 내부벽의 투명도를 조절하여 3차원 개체의 내부벽면 및 해당 관찰시점에 해당하는 영상지도가 동시에 보이도록 처리될 수도 있다. 이때 네트워크를 통해서 제공되는 영상지도는 디스플레이되지 않도록 처리될 수도 있다. In this way, the user can go inside the three-dimensional object and observe the interior of the building. In FIG. 6, the inside is transparent. However, the content image of each floor is separately constructed so that the inside appearance, Actual content may be provided. In addition, when the observation point is located inside the three-dimensional object, the operation mode of the observation point and the expression method in the three-dimensional object according to the observation point can be separately provided. For example, when the observation point is located inside the three-dimensional object, while the interior of the three-dimensional object is displayed on the screen of the user, the transparency of the inner wall of the three- The inner wall of the dimensional object and the image map corresponding to the observation point may be simultaneously displayed. At this time, a video map provided through the network may be processed so as not to be displayed.

한편, 사용자는 현재 디스플레이되고 있는 해당 영상 지도에 대한 시점 변경(예, 상하좌우 지역을 이동하면서 해당 위치의 시점에서 보기)이나, 확대, 축소 등을 통하여, 영상 지도의 디스플레이 상태를 변경할 수 있을 뿐만 아니라, 마우스나 키보드 조작 등 좌표입력 장치를 통하여 Google Earth, Microsoft BingMap등과 같이 인터넷 또는 무선통신 네트워크 등을 통해서 제공되는 2차원 영상지도에서 태양과 카메라의 고도각 및 방위각이 위에서 산출한 것과 다른 지역으로 이동(예, 뉴욕에서 서울로 이동 등)하여 해당 지역의 지도를 요청할 수 있고(S180), 이에 따라 On the other hand, the user can change the display state of the video map by changing the viewpoint of the current displayed video map (e.g., viewing the viewpoint of the corresponding position while moving in the up, down, left, and right regions) In a two-dimensional image map, such as Google Earth, Microsoft BingMap, etc., provided through a coordinate input device such as a mouse or a keyboard, through the Internet or a wireless communication network, the altitude and azimuth angle of the sun and the camera are different from those calculated above (E.g., moving from New York to Seoul, etc.) to request a map of the area (S180)

지도 제공 서버(120)가 해당 영상을 제공함에 따라(S181) 사용자 단말(110)에 표시되는 영상지도 상에서(S190), 사용자 단말(110)은 다시 해당 영상지도상에서 위의 S110~S170의 단계와 유사한 과정으로 개체들을 3차원 형태로 표시해 줄 수 있다.As the map providing server 120 provides the corresponding image in step S181, on the image map displayed on the user terminal 110 in step S190, the user terminal 110 repeats steps S110 through S170 on the corresponding image map A similar process can display objects in a three-dimensional form.

즉, 사용자가 영상지도 상에서 3차원 개체정보 추출을 희망하는 지역을 선택함에 따라 사용자 단말(110)은 네트워크를 통해서 지도 제공 서버(120)로부터 해당 2차원 영상지도와 해당 모서리 지도 좌표(MapXi, MapYi)를 제공받을 수 있으며(S181), 이로부터 사용자 단말(110)은 디스플레이된 영상지도에 대한(S190) 해상도(GSD) 및 모서리 화면좌표(DispXi, DispYi)와 지도좌표(MapXi, MapYi) 간의 변환관계를 추출하고(S110), 사용자가 특정 개체에서의 지붕면, 바닥면, 그림자 등을 지정함에 따라 해당 영상지도를 촬영할 당시의 태양과 카메라의 방위각 및 고도각 정보를 산출하며(S120), 이와 같이 산출된 해상도(GSD), 변환관계, 태양과 카메라의 방위각 및 고도각 정보 등을 다른 개체에도 적용하여 3차원 개체들의 높이, 지붕면 모서리 화면좌표와 지도좌표, 바닥면 모서리 화면좌표와 지도좌표, 그림자 모서리 화면좌표, 지붕면 및 수직면 텍스처 정보 등을 포함하는 3차원 개체정보를 추출하여 디스플레이할 수 있으며(S130~S151). 이외에도 사용자 단말(110)은 사용자가 지도의 확대, 축소, 상하좌우 시점 선택, 지역 이동 등에 따른 다양한 관찰자 시점에 맞도록 3차원 개체를 렌더링하고 3차원 개체의 외부 및 내부의 렌더링을 끊김없이 수행할 수 있다(S160~S190).That is, the user on the image map, as selecting the area desired three-dimensional object information to extract the user terminal 110 2 that from the map server 120 via a network-D image map and the edge map coordinates (MapX i, MapY i) can be provided, and (S181), from which the user terminal 110 for the display image maps (S190) the resolution (GSD) and corner screen coordinates (DispX i, DispY i) and the map coordinates (MapX i a , MapY i ) (S110). The user calculates the azimuth angle and altitude angle information of the sun and the camera at the time of photographing the corresponding image map by designating the roof surface, the floor surface, the shadow, (S120). The calculated resolution GSD, the conversion relation, the azimuth angle and the altitude angle information of the sun and the camera are applied to other objects so that the height of the three-dimensional objects, the coordinates of the roof surface corner and the coordinates of the map, mother Li screen coordinates and map coordinates, screen coordinates shadow edges, the roof surface and a vertical surface texture information, and can display a three-dimensional object by extracting information, and that includes (S130 ~ S151). In addition, the user terminal 110 may render the three-dimensional object in accordance with various viewpoints of the observer according to the enlargement / reduction of the map, the selection of the up / down / right / (S160 to S190).

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

해상도(GSDx, GSDy)
모서리 지도 좌표(MapXi, MapYi)
모서리 화면 좌표(DispXi, DispYi)
카메라의 방위각(Acam)
카메라의 고도각(Ecam)
태양의 방위각(Asun)
태양의 고도각(Esun)
Resolution (GSD x , GSD y )
Corner map coordinates (MapX i , MapY i )
Corner screen coordinates (DispX i , DispY i )
Camera's azimuth (Acam)
The camera's elevation angle (Ecam)
The azimuth of the sun (Asun)
The altitude angle of the sun (Esun)

Claims (19)

사용자 단말에서 화면에 제공된 영상지도 상의 개체에 대한 3차원 정보추출 및 표시를 위한 지도 처리 방법에 있어서,
상기 화면에 표시된 상기 영상지도의 모서리의 지도좌표와 이에 대응되는 모서리 화면좌표를 이용하여 축척 비율을 나타내는 해상도를 산출하는 단계; 및
상기 해상도, 및 상기 영상지도 상에서 그림자가 있는 개체에 대한 지붕면, 바닥면, 및 그림자의 좌표들을 이용하여 상기 영상지도가 촬영될 당시의 태양의 방위각 및 고도각과 카메라의 방위각 및 고도각을 산출하여, 상기 영상지도 상의 개체에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 단계
를 포함하는 것을 특징으로 하는 지도 처리 방법.
A map processing method for extracting and displaying three-dimensional information on an object on a video map provided on a screen in a user terminal,
Calculating a resolution representing a scale factor using map coordinates of corners of the video map displayed on the screen and corner screen coordinates corresponding thereto; And
The azimuth angle and elevation angle of the sun at the time of shooting the image map, azimuth angle and elevation angle of the camera are calculated using the resolution, coordinates of the roof surface, bottom surface, and shadow of the shadowed object on the image map Extracting a three-dimensional solid surface of the object on the image map and additionally displaying the three-
And a map processing unit for processing the map.
제1항에 있어서,
상기 사용자 단말은 유무선 인터넷 또는 이동통신 네트워크 상의 서버를 통하여 상기 영상지도를 제공받는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
Wherein the user terminal is provided with the video map through a server on a wired / wireless Internet or a mobile communication network.
제1항에 있어서,
상기 해상도를 산출하는 단계에서,
상기 영상지도에 대한, 좌상단 모서리 지도좌표(MapX1, MapY1), 우하단 모서리 지도좌표(MapX2, MapY2), 좌상단 모서리 화면좌표(DispX1, DispY1), 우하단 모서리 화면좌표(DispX2, DispY2)를 기초로, 수학식
GSDx = (MapX2 - MapX1) / (DispX2 - DispX1)
GSDy = (MapY2 - MapY1) / (DispY2 - DispY1)
를 이용하여, x 방향의 해상도(GSDx)와 y 방향의 해상도(GSDy)를 산출하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
In the step of calculating the resolution,
(MapX 1 , MapY 1 ), upper left corner map coordinates (MapX 2 , MapY 2 ), upper left corner screen coordinates (DispX 1 , DispY 1 ), and lower right corner screen coordinates (DispX 2 , DispY 2 )
GSD x = (MapX 2 - MapX 1 ) / (DispX 2 - DispX 1 )
GSD y = (MapY 2 - MapY 1 ) / (DispY 2 - DispY 1 )
(GSD x ) in the x direction and a resolution (GSD y ) in the y direction are calculated using the above-described method.
제3항에 있어서,
상기 영상지도를 촬영할 때의 지도 좌표계의 방위와 상기 사용자 단말에 제공된 상기 영상지도의 화면 좌표계의 방위가 일치할 때,
임의의 지도좌표 (MapX, MapY)에 대응되는 화면좌표(DispX, DispY)의 관계는, 수학식
MapX = DispX * GSDx + MapX1
MapY = DispY * GSDy + MapY1
에 의해 결정되는 것을 특징으로 하는 지도 처리 방법.
The method of claim 3,
When the azimuth of the map coordinate system at the time of capturing the video map coincides with the azimuth of the screen coordinate system of the video map provided to the user terminal,
The relationship of the screen coordinates DispX and DispY corresponding to arbitrary map coordinates (MapX, MapY)
MapX = DispX * GSDx + MapXOne
MapY = DispY * GSDy + MapYOne
Of the map.
제3항에 있어서,
상기 영상지도를 촬영할 때의 지도 좌표계의 방위와 상기 사용자 단말에 제공된 상기 영상지도의 화면 좌표계의 방위가 일치하지 않을 때,
임의의 지도좌표 (MapX, MapY)에 대응되는 화면좌표(DispX, DispY)의 관계는, 수학식
MapX = a * DispX + b * DispY + c
MapY = d * DispX + e * DispY + f
Figure pat00002

에 의해 결정되며, 여기서, 4개의 각 모서리 지도좌표(MapXi, MapYi)(i=1,2,3,4)와 이에 대응되는 4개의 각 모서리 화면좌표(DispXi, DispYi)(i=1,2,3,4)를 이용하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 3,
When the orientation of the map coordinate system at the time of shooting the video map does not match the orientation of the screen coordinate system of the video map provided to the user terminal,
The relationship of the screen coordinates DispX and DispY corresponding to arbitrary map coordinates (MapX, MapY)
MapX = a * DispX + b * DispY + c
MapY = d * DispX + e * DispY + f
Figure pat00002

Where each of the four corner map coordinates (MapX i , MapY i ) (i = 1,2,3,4) and the corresponding four corner screen coordinates (DispX i , DispY i ) (i = 1,2,3,4).
제3항에 있어서,
상기 태양의 방위각(Asun) 및 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam)을 산출하기 위하여,
해당 개체의 지붕면 중 어느 하나의 모서리 화면좌표(DispX3, DispY3), 해당 모서리 화면좌표에서 연장되는 연직선 상의 바닥면 모서리 좌표(DispX4, DispY4), 및 해당 모서리 화면좌표에 대응되는 그림자 모서리 화면좌표(DispX5, DispY5)를 이용하여, 수학식
XLen1 = (DispX4 - DispX3)*GSDx
YLen1 = (DispY4 - DispY3)*GSDy
Acam = atan(YLen1 / XLen1)
Ecam = atan(H1 / sqrt( XLen1*XLen1 + YLen1*YLen1))
XLen2 = (DispX5 - DispX4)*GSDx
YLen2 = (DispY5 - DispY4)*GSDy
Asun = atan(YLen2 / XLen2 )
Esun = atan(H1 / sqrt(XLen2*XLen2 + YLen2*YLen2))
에 따라 계산하며, 여기서, H1은 해당 개체의 높이값인 것을 특징으로 하는 지도 처리 방법.
The method of claim 3,
In order to calculate the azimuth angle (Asun) and altitude angle (Esun) of the sun and the azimuth (Acam) and elevation angle (Ecam) of the camera,
(DispX 3 , DispY 3 ) of one of the roof surfaces of the object, bottom edge corner coordinates (DispX 4 , DispY 4 ) on the vertical line extending from the corresponding edge screen coordinates, and shadow edges corresponding to the corresponding edge screen coordinates Using the screen coordinates (DispX 5 , DispY 5 )
XLen1 = (DispX 4 - DispX 3 ) * GSD x
YLen1 = (DispY 4 - DispY 3 ) * GSD y
Acam = assign (YLen1 / XLen1)
Ecam = atan (H1 / sqrt (XLen1 * XLen1 + Ylen1 * Ylen1))
XLen2 = (DispX 5 - DispX 4 ) * GSD x
YLen2 = (DispY 5 - DispY 4 ) * GSD y
Asun = assign (YLen2 / XLen2)
Esun = assign (H1 / sqrt (XLen2 * XLen2 + Ylen2 * Ylen2))
Wherein H1 is a height value of the corresponding object.
제6항에 있어서,
상기 사용자 단말을 통하여 상기 H1을 사용자로부터 입력받는 것을 특징으로 하는 지도 처리 방법.
The method according to claim 6,
And the H1 is received from a user through the user terminal.
제6항에 있어서,
상기 H1은 해당 개체의 가상의 높이값 또는 실제 높이값으로서, 상기 H1을 사용자로부터 재입력받는 경우에 상기 3차원 입체면의 높이를 갱신하는 것을 특징으로 하는 지도 처리 방법.
The method according to claim 6,
Wherein H1 is a virtual height value or an actual height value of the object, and when the H1 is re-input from the user, the height of the three-dimensional solid surface is updated.
제1항에 있어서,
상기 태양의 방위각(Asun) 및 고도각 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam)을 산출하기 위하여,
상기 사용자 단말을 통하여 사용자로부터 해당 개체에 대한 지붕면, 바닥면, 및 그림자를 지정 받거나, 상기 사용자 단말이 자동으로 그림자가 있는 개체의 대한 지붕면, 바닥면, 및 그림자를 지정하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
In order to calculate the azimuth angle (Asun) and altitude angle (Esun) of the sun and the azimuth angle (Acam) and altitude angle (Ecam) of the camera,
A floor surface, and a shadow for a corresponding object from the user through the user terminal, or the user terminal automatically designates a roof surface, a floor surface, and a shadow of the shadowed object. Map processing method.
제1항에 있어서,
상기 영상지도 상의 개체에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 단계는,
상기 영상지도 상의 어느 하나의 상기 개체에 대한 상기 태양의 방위각(Asun) 및 고도각(Esun)과 상기 카메라의 방위각(Acam) 및 고도각(Ecam), 및 사용자가 지정하는 다른 개체의 지붕면과 높이(H2) 또는 사용자가 지정하는 다른 개체의 지붕면과 바닥면 혹은 지붕면과 그림자면에 따라, 상기 다른 개체의 높이와 3차원 입체면을 추출하고 추가적으로 표시하는 단계
를 포함하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
Wherein the step of extracting and additionally displaying the three-
An azimuth angle (Acun) and an altitude angle (Ecam) of the camera and an azimuth angle (Azim) of the sun relative to any one of the objects on the image map, Extracting and additionally displaying the height and the three-dimensional solid surface of the other object according to the height H2 or the roof surface, the floor surface, the roof surface and the shadow surface of another object designated by the user
And a map processing unit for processing the map.
제10항에 있어서,
상기 다른 개체의 하나의 지붕면 모서리 화면좌표(DispX6, DispY6), 이에 대응하는 바닥면 모서리 화면좌표(DispX7, DispY7) 및 그림자 모서리 화면좌표(DispX8, DispY8)를 수학식
DispX7 = DispX6 - (H2 / GSDx) * sin (Acam) / tan (Ecam)
DispY7 = DispY6 - (H2 / GSDy) * cos (Acam) / tan (Ecam)
DispX8 = DispX7 - (H2 / GSDx) * sin (Asun) / tan (Esun)
DispY8 = DispY7 - (H2 / GSDy) * cos (Asun) / tan (Esun)
을 이용해 계산하여, 상기 다른 개체의 3차원 입체면을 표시하는 것을 특징으로 하는 지도 처리 방법.
11. The method of claim 10,
(DispX 6 , DispY 6 ), the corresponding bottom edge corner screen coordinates (DispX 7 , DispY 7 ), and the shadow corner screen coordinates (DispX 8 , DispY 8 )
DispX 7 = DispX 6 - (H2 / GSD x ) * sin (Acam) / tan (Ecam)
DispY 7 = DispY 6 - (H 2 / GSD y ) * cos (Acam) / tan (Ecam)
DispX 8 = DispX 7 - (H2 / GSD x ) * sin (Asun) / tan (Esun)
DispY 8 = DispY 7 - (H 2 / GSD y ) * cos (Asun) / tan (Esun)
Calculation using, to display the three-dimensional solid surface of the other object map processing method.
제10항에 있어서,
상기 다른 개체의 지붕면을 사용자가 지정하면 화면상에 임시 바닥면과 임시 그림자면이 생성되고, 사용자가 좌표 입력 수단을 이용하여 상기 임시 바닥면을 해당 개체의 바닥면까지 끌어 당기거나 상기 임시 그림자면을 해당 개체의 그림자면까지 끌어당기면, 해당 위치에 대한 상기 다른 개체의 높이값과 3차원 입체면을 추출하여 표시하는 것을 특징으로 하는 지도 처리 방법.
11. The method of claim 10,
When the user designates the roof surface of the other object, a temporary bottom surface and a temporary shadow surface are created on the screen. The user draws the temporary floor surface to the bottom surface of the object using the coordinate input means, And extracting and displaying the height value of the other entity and the three-dimensional solid surface with respect to the corresponding position by dragging the child surface to the shadow surface of the corresponding object.
제11항에 있어서,
상기 지붕면 모서리 화면좌표(DispX6, DispY6)에 대응하는 모서리 지도좌표, 상기 바닥면 모서리 화면좌표(DispX7, DispY7)에 대응하는 모서리 지도좌표, 및 상기 개체의 높이(H2)를 저장 수단에 저장하고 관리하는 것을 특징으로 하는 지도 처리 방법.
12. The method of claim 11,
The corner map coordinates corresponding to the roof surface corner screen coordinates (DispX 6 , DispY 6 ), the corner map coordinates corresponding to the bottom floor corner screen coordinates (DispX 7 , DispY 7 ), and the height H2 of the object Means for storing and managing the map data.
제1항에 있어서,
상기 영상 지도 상의 상기 개체의 지붕면과 바닥면의 겉보기 색상이나 밝기를 추출하고 상기 3차원 입체면의 지붕면과 바닥면에 해당 색상이나 밝기를 반영하여 표시하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
Extracting the apparent color or brightness of the roof surface and the bottom surface of the object on the image map, and reflecting the corresponding color or brightness on the roof surface and the bottom surface of the three-dimensional solid surface.
제14항에 있어서,
상기 3차원 입체면의 지붕면과 바닥면의 색상이나 밝기 정보를 저장 수단에 저장하고 관리하는 것을 특징으로 하는 지도 처리 방법.
15. The method of claim 14,
Wherein the color and brightness information of the roof surface and the bottom surface of the three-dimensional solid surface are stored and managed in the storage means.
제1항에 있어서,
상기 영상지도에 대하여 사용자가 좌표 입력 수단을 이용해 확대, 축소, 또는 시점 변경에 따라 그에 맞게 상기 3차원 입체면을 렌더링하여 표시하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
Wherein the three-dimensional solid surface is rendered by the user in accordance with enlargement, reduction, or change in viewpoint by using the coordinate input means with respect to the image map.
제1항에 있어서,
상기 영상지도에 대하여 사용자가 좌표 입력 수단을 이용해 확대, 축소, 또는 시점 변경에 따라, 상기 3차원 입체면 내부로 관찰 시점이 변경되는지 여부를 판별하여, 내부로 변경될 때, 실시간으로 렌더링을 수행하여 내부의 해당 모습을 표시하는 것을 특징으로 하는 지도 처리 방법.
The method of claim 1,
The user determines whether or not the observation point is changed inside the three-dimensional solid surface in accordance with the enlargement, reduction, or change of the viewpoint by using the coordinate input means by the user, and performs rendering in real time when changing to the inside And displays the corresponding inside of the map.
제15항에 있어서,
상기 관찰 시점이 내부로 변경되면, 해당 개체의 내부에 대한 콘텐츠 영상을 제공하거나, 해당 개체의 내부의 벽면을 투명하게 하고 제공되고 있는 상기 영상지도가 동시에 보이도록 또는 제공되고 있는 상기 영상지도는 보이지 않도록 하는 것을 특징으로 하는 지도 처리 방법.
16. The method of claim 15,
If the observation time is changed to the inside, the content image for the inside of the object is provided, or the wall surface of the inside of the object is made transparent, The map processing method comprising the steps of:
사용자 단말에서 화면에 제공된 영상지도 상의 개체에 대한 3차원 정보추출 및 표시를 위한 지도 처리 시스템에 있어서,
상기 화면에 표시된 상기 영상지도의 모서리의 지도좌표와 이에 대응되는 모서리 화면좌표를 이용하여 축척 비율을 나타내는 해상도를 산출하는 제1 산출 수단;
상기 해상도, 및 상기 영상지도 상에서 그림자가 있는 개체에 대한 지붕면, 바닥면, 및 그림자의 좌표들을 이용하여 상기 영상지도가 촬영될 당시의 태양의 방위각 및 고도각과 카메라의 방위각 및 고도각을 산출하는 제2 산출 수단; 및
상기 해상도, 상기 태양과 상기 카메라의 방위각 및 고도각을 이용해 상기 영상지도 상의 개체들에 대한 3차원 입체면을 추출하고 추가적으로 표시하는 제3 산출 수단
을 포함하는 것을 특징으로 하는 지도 처리 방법.
1. A map processing system for extracting and displaying three-dimensional information on an object on a video map provided on a screen in a user terminal,
First calculation means for calculating a resolution indicating a scale factor using map coordinates of corners of the video map displayed on the screen and corner screen coordinates corresponding thereto;
The azimuth angle and altitude angle of the sun at the time the image map is photographed, azimuth angle and altitude angle of the camera using the resolution, and coordinates of the roof surface, bottom surface, and shadow of the shadowed object on the image map Second calculating means; And
A third calculation means for extracting and additionally displaying a three-dimensional solid surface for the individuals on the image map using the resolution, the azimuth angle and the altitude angle of the sun and the camera,
Map processing method comprising a.
KR1020120115210A 2012-10-17 2012-10-17 Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps KR101448567B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120115210A KR101448567B1 (en) 2012-10-17 2012-10-17 Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120115210A KR101448567B1 (en) 2012-10-17 2012-10-17 Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps

Publications (2)

Publication Number Publication Date
KR20140049232A true KR20140049232A (en) 2014-04-25
KR101448567B1 KR101448567B1 (en) 2014-10-15

Family

ID=50654884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120115210A KR101448567B1 (en) 2012-10-17 2012-10-17 Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps

Country Status (1)

Country Link
KR (1) KR101448567B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106027960A (en) * 2016-05-13 2016-10-12 深圳先进技术研究院 Positioning system and method
WO2023075250A1 (en) * 2021-10-27 2023-05-04 삼성전자 주식회사 Electronic device and method for providing three-dimensional map

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100513660B1 (en) * 2003-05-23 2005-09-09 엘지전자 주식회사 Method for creating three-dimensional map from two-dimensional map
KR100911931B1 (en) * 2007-10-15 2009-08-13 한국전자통신연구원 Method and apparatus for generating 3d building model
KR20110068469A (en) * 2009-12-16 2011-06-22 인하대학교 산학협력단 The method for 3d object information extraction from single image without meta information
KR101189167B1 (en) * 2011-05-26 2012-10-10 인하대학교 산학협력단 The method for 3d object information extraction from single image without meta information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106027960A (en) * 2016-05-13 2016-10-12 深圳先进技术研究院 Positioning system and method
CN106027960B (en) * 2016-05-13 2019-03-26 深圳先进技术研究院 A kind of positioning system and method
WO2023075250A1 (en) * 2021-10-27 2023-05-04 삼성전자 주식회사 Electronic device and method for providing three-dimensional map

Also Published As

Publication number Publication date
KR101448567B1 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
US20230289026A1 (en) System and Method of Indicating the Distance or the Surface of an Image of a Geographical Object
EP2401703B1 (en) System and method of indicating transition between street level images
CN109643465B (en) System, method, display device, and medium for creating mixed reality environment
EP3170151B1 (en) Blending between street view and earth view
US20130321461A1 (en) Method and System for Navigation to Interior View Imagery from Street Level Imagery
US8963999B1 (en) Augmented reality with earth data
US20130314398A1 (en) Augmented reality using state plane coordinates
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
JP2011523110A (en) System and method for synchronizing a three-dimensional site model and a two-dimensional image in association with each other
US20120105581A1 (en) 2d to 3d image and video conversion using gps and dsm
EP3655928B1 (en) Soft-occlusion for computer graphics rendering
US20180005425A1 (en) System and Method for Displaying Geographic Imagery
CN102647512A (en) All-round display method of spatial information
Liarokapis et al. Mobile augmented reality techniques for geovisualisation
KR101448567B1 (en) Map Handling Method and System for 3D Object Extraction and Rendering using Image Maps
KR20110068764A (en) System and method for providing object information from aspherical image acquired by omnidirectical camera
US20220130064A1 (en) Feature Determination, Measurement, and Virtualization From 2-D Image Capture
CN106846388B (en) Image map registration method and system
CN114693820A (en) Object extraction method and device, electronic equipment and storage medium
Haala et al. Generation and application of virtual landscape models for location-based services
Yoon et al. Introduction To A New Geo-Referenced Street Level Content: 3D GEOPANO

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170919

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 5