KR102041320B1 - Precision-Location Based Optimized 3D Map Delivery System - Google Patents

Precision-Location Based Optimized 3D Map Delivery System Download PDF

Info

Publication number
KR102041320B1
KR102041320B1 KR1020190121720A KR20190121720A KR102041320B1 KR 102041320 B1 KR102041320 B1 KR 102041320B1 KR 1020190121720 A KR1020190121720 A KR 1020190121720A KR 20190121720 A KR20190121720 A KR 20190121720A KR 102041320 B1 KR102041320 B1 KR 102041320B1
Authority
KR
South Korea
Prior art keywords
image
map
live
photorealistic
road
Prior art date
Application number
KR1020190121720A
Other languages
Korean (ko)
Inventor
우진국
Original Assignee
주식회사 아이디어캐슬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이디어캐슬 filed Critical 주식회사 아이디어캐슬
Priority to KR1020190121720A priority Critical patent/KR102041320B1/en
Application granted granted Critical
Publication of KR102041320B1 publication Critical patent/KR102041320B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to the present invention, a precision location-based optimized 3D map delivery system comprises: a data input module configured to receive an actual image necessary for making a map and multiple pieces of map coordinate information stored by image from a data server; an image optimization module including an image analyzing unit configured to reconstruct the actual image into an intermediate image by filtering and analyzing the actual image, and an optimizing unit configured to calculate a detail level value of the intermediate image and perform allocation and rendering of polygons included in the intermediate image depending on the detail level value to generate a 3D image, and store the 3D image in the data server; a road position correction module including a coordinate display unit configured to display the multiple pieces of map coordinate information displayed as points on a road in the 3D image, and a position aligning unit configured to align lane positions of the road in the 3D image in accordance with a reference line which is one among multiple lines connecting the points in an extension direction of the road; and a map delivery module configured to combine background images based on the 3D image, in which the lane positions are aligned, to generate and output a 3D map.

Description

정밀 위치 기반의 최적화 3D 지도 제공 시스템{Precision-Location Based Optimized 3D Map Delivery System}Precision-Location Based Optimized 3D Map Delivery System}

본 발명은 정밀 위치 기반의 최적화 3D 지도 제공 시스템에 관한 것으로서, 보다 자세하게 설명하면 실사 이미지 및 지도좌표정보를 입력받아 이를 분석 및 렌더링함으로써 고화질 저용량 특성을 가지며 도로상의 지도좌표정보를 점 및 선으로 표현하여 차선을 정렬함으로써 정밀화된 3D 지도를 제공할 수 있는, 정밀 위치 기반의 최적화 3D 지도 제공 시스템에 관한 것이다.The present invention relates to a system for providing an optimized 3D map based on a precision location. More specifically, the present invention has a high-quality low-capacity characteristic by receiving and analyzing and rendering real image and map coordinate information, and expressing map coordinate information on a road as points and lines. The present invention relates to an accurate location based optimized 3D map providing system capable of providing a precise 3D map by aligning lanes.

먼저, 3차원 이미지는 2차원 이미지와는 달리 기하학적 데이터(각 점의 위치를 높이, 폭, 깊이의 3축으로 하는 공간 좌표를 이용하여 저장)를 이용해 3차원적으로 표현한 뒤에 2차원적 결과물로 처리, 출력되어 입체적으로 표현된 이미지이다. 이때, 3차원 이미지는 3차원 모델링, 렌더링 등의 그래픽 과정을 통해 제작될 수 있으며, 평평하고 밋밋한 화면이 아닌 착시 효과와 원근법이 적용되어 입체적이고 실감 나는 화면으로 생성될 수 있다.First of all, unlike two-dimensional images, three-dimensional images are expressed in three dimensions using geometric data (stored using spatial coordinates with three axes of height, width, and depth). It is an image that is processed and output and expressed in three dimensions. In this case, the 3D image may be produced through a graphic process such as 3D modeling and rendering, and may be generated as a stereoscopic and realistic screen by applying optical illusions and perspectives instead of a flat and flat screen.

이러한 3차원 이미지는 애니메이션, 소프트웨어 등 각종 미디어에 적용될 수 있으며, 특히 지도에도 적용되어 입체적이고 실감나는 지형을 제공할 수도 있다.The 3D image may be applied to various media such as animation and software. In particular, the 3D image may be applied to a map to provide three-dimensional and realistic terrain.

이때, 3D 지도를 제공하는 기술과 관련하여 한국 등록 특허 제 10-0966478호(발명의 명칭 : 3D 지도 서비스 제공 방법 및 지리정보 시스템)가 등록되어 있다.At this time, the Republic of Korea Patent No. 10-0966478 (name of the invention: 3D map service providing method and geographic information system) is registered with respect to the technology for providing 3D map.

상기 선행기술은 상기 GIS 서버에서, 사용자의 지도 검색 요청에 따라 2D(two-dimensional) 지도 이미지를 추출하는 단계; 및, 상기 웹 서버에서, 상기 추출한 2D 지도 이미지를 이용하여 3D(three-dimensional) 형태의 지도 이미지를 제공하는 단계를 포함하고, 상기 3D 형태의 지도 이미지를 제공하는 단계는, 상기 추출한 2D 지도 이미지를 일정 크기의 블록으로 분할하는 단계와, 상기 분할된 각 이미지 블록에 대하여, 형태 및 크기 변형을 수행하는 단계와, 상기 형태와 크기가 변형된 이미지 블록을 합성하여 상기 3D 형태의 지도 이미지로 제공하는 단계를 포함하고, 상기 분할된 각 이미지 블록에 대하여, 형태 및 크기 변형을 수행하는 단계는, 상기 2D 지도 이미지를 등분하는 수직선을 기준으로 상기 이미지 블록의 상단과 하단을 상반된 방향으로 축소 변형하여 상기 이미지 블록의 형태를 변형하는 형태 변형을 수행하는 단계와, 상기 형태가 변형된 각 이미지 블록에 대하여, 상기 2D 지도 이미지를 등분하는 수평선을 기준으로 상기 이미지 블록의 위치에 따라 상기 형태가 변형된 이미지 블록의 크기를 변형하는 크기 변형을 수행하는 단계를 포함하는, 3D 지도 서비스 제공 방법을 제시하고 있다.The prior art is the step of extracting a two-dimensional (2D) map image in accordance with the user's map search request in the GIS server; And providing, by the web server, a map image in 3D form using the extracted 2D map image, wherein providing the map image in 3D form comprises: extracting the 2D map image. Dividing the image into blocks of a predetermined size, performing shape and size transformation on each of the divided image blocks, and synthesizing the image blocks of which the shape and size are deformed to provide the map image in the 3D form. And performing shape and size transformation on each of the divided image blocks by reducing and deforming the top and bottom of the image block in opposite directions based on a vertical line dividing the 2D map image. Performing shape deformation to deform the shape of the image block, and for each image block of which the shape is deformed, A method of providing a 3D map service is provided, including a step of performing a size transformation to change the size of the image block whose shape is deformed according to the position of the image block based on a horizontal line dividing the 2D map image.

상기 선행기술은 2D의 지도 이미지를 변형하여 3D 지도 서비스를 제공하지만, 2D 이미지에서 3D 이미지로 렌더링하는 과정에서 위치의 정확도 및 정밀성이 어려울 수 있다는 문제가 따른다.The prior art provides a 3D map service by transforming a 2D map image, but there is a problem that accuracy and precision of a location may be difficult in the process of rendering a 2D map to a 3D image.

따라서 상술한 바와 같은 문제점을 해결하기 위해 실사 이미지를 필터링 및 분석한 뒤 3차원 이미지를 생성하고 도로상의 지도좌표정보를 점 및 선으로 표현하여 차선 위치를 정렬하여 정확도를 향상시킬 수 있는 정밀 위치 기반의 최적화 3D 지도 제공 시스템을 개발할 필요성이 대두되는 실정이다.Therefore, in order to solve the problems described above, after filtering and analyzing the photorealistic image, a three-dimensional image is generated, and the map coordinate information on the road is represented by points and lines to align lane positions to improve accuracy. There is a need to develop an optimized 3D map providing system.

본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 실사 이미지 및 지도좌표정보를 입력받아 이를 분석 및 렌더링함으로써 고화질 저용량 특성을 가지며 도로상의 지도좌표정보를 점 및 선으로 표현하여 차선을 정렬함으로써 정밀화된 3D 지도를 제공하는 것을 주요 목적으로 한다.The present invention has been made to overcome the problems of the above technology, by receiving the image and the map coordinate information received by analyzing and rendering it has a high-definition low-capacity characteristics by expressing the map coordinate information on the road in points and lines to align the lanes The main objective is to provide a precise 3D map.

본 발명의 다른 목적은, 동일 지역에 대해 복수 개로 촬영된 실사 이미지 중 촬영 조건을 고려하여 대표 이미지를 선정함으로써 용량이 최적화되고 품질이 향상된 3D 지도를 제공하는 것이다.Another object of the present invention is to provide a 3D map of which capacity is optimized and quality is improved by selecting a representative image in consideration of shooting conditions among a plurality of live images captured for the same area.

본 발명의 또 다른 목적은, 대표 이미지 선정을 위한 이미지 좌표의 투명도를 제어함으로써 중첩된 부분이 가려져 보이지 않는 현상을 방지할 수 있는 것이다.Still another object of the present invention is to control the transparency of image coordinates for selecting a representative image, thereby preventing the overlapping portions from being hidden.

본 발명의 추가 목적은, 3차원 이미지의 잔존 노이즈를 검출하고 제거하여 보정함으로써 보다 고품질의 3D 지도를 제공하는 것이다.It is a further object of the present invention to provide a higher quality 3D map by detecting, removing and correcting residual noise of a three-dimensional image.

상기 목적을 달성하기 위하여, 본 발명에 따른 정밀 위치 기반의 최적화 3D 지도 제공 시스템은 지도 제작에 필요한 실사 이미지 및 상기 실사 이미지별로 저장된 복수의 지도좌표정보를 데이터 서버로부터 입력받는 데이터 입력모듈; 상기 실사 이미지를 필터링 및 분석하여 중간 이미지로 재구성하는 이미지 분석부 및, 상기 중간 이미지의 상세 레벨 값을 계산하여 상기 상세 레벨 값에 따라 상기 중간 이미지에 포함된 폴리곤의 할당 처리 및 렌더링을 수행함으로 3차원 이미지를 생성하여 상기 데이터 서버에 저장하는 옵티마이징부를 포함하는 이미지 최적화모듈; 상기 3차원 이미지에 표시된 도로상에 상기 복수의 지도좌표정보를 점(point)으로 표시하는 좌표 표시부와, 상기 도로의 연장 방향을 따라 상기 점을 연결한 복수의 선(line) 중 하나인 기준선에 맞춰 상기 3차원 이미지에 표시된 도로의 차선 위치를 정렬하는 위치 정렬부를 구비한 도로 위치 보정모듈; 상기 차선 위치가 정렬된 3차원 이미지를 기준으로 배경 이미지를 조합하여 3D 지도를 생성 및 출력하는 지도 제공모듈;을 포함하는 것을 특징으로 한다.In order to achieve the above object, according to the present invention, an accurate location-based optimized 3D map providing system includes: a data input module configured to input a photorealistic image required for map production and a plurality of map coordinate information stored for each photorealistic image from a data server; An image analysis unit for filtering and analyzing the actual image to reconstruct the intermediate image, and calculating a detail level value of the intermediate image and performing allocation processing and rendering of polygons included in the intermediate image according to the detail level value 3 An image optimization module including an optimizer configured to generate a dimensional image and store it in the data server; On a reference line which is one of a coordinate display unit for displaying the plurality of map coordinate information as a point on a road displayed in the three-dimensional image, and a plurality of lines connecting the points along an extension direction of the road. A road position correction module having a position alignment unit for aligning lane positions of roads displayed on the 3D image accordingly; And a map providing module for generating and outputting a 3D map by combining a background image based on the 3D image in which the lane positions are aligned.

또한, 상기 시스템은, 동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지 중에서 촬영 조건에 따라 특정 실사 이미지를 추출하여 대표 이미지로 선정한 다음 상기 데이터 서버에 저장 처리하는 이미지 선정모듈;을 추가로 포함하는 것을 특징으로 한다.The system may further include an image selection module configured to extract a specific photorealistic image according to a shooting condition from among the plurality of photorealistic images photographed for the same region, select the representative image, and store the data in the data server. It features.

더하여, 상기 이미지 선정모듈은, 동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지를 대상으로 상기 실사 이미지의 촬영 조건에 따라 x축 및 y축을 정의하여 2차원 평면을 설정하는 평면 설정부와, 상기 실사 이미지를 상기 2차원 평면에 배치하기 위해 상기 실사 이미지의 이미지 좌표를 설정하는 좌표 설정부 및, 상기 이미지 좌표에 따라 상기 실사 이미지를 상기 2차원 평면에 배치하여 배치도를 생성하는 배치도 생성부와, 상기 이미지 좌표를 기반으로 상기 실사 이미지의 분산값을 파악한 후 상기 분산값을 확률변수로 지정하여 상기 확률변수를 2개씩 대상으로 공분산 행렬을 생성하는 행렬 생성부와, 상기 2차원 평면의 원점과 상기 이미지 좌표 간의 거리 및 상기 공분산 행렬을 기반으로 상기 실사 이미지 별로 분포 가중치를 산출하는 분포 가중치 산출부 및, 기 설정된 기준값을 초과하는 분포 가중치에 해당하는 배치도 상의 실사 이미지를 추출하여 대표 이미지로 선정하여 상기 데이터 서버에 저장하는 대표 이미지 추출부를 포함하는 것을 특징으로 한다.In addition, the image selection module may include a plane setting unit configured to set a two-dimensional plane by defining an x-axis and a y-axis according to the shooting conditions of the live-action image with respect to the live-action image photographed in plural for the same area; A coordinate setting unit for setting image coordinates of the actual image for arranging an image on the two-dimensional plane, and a layout generating unit for generating a layout by placing the actual image on the two-dimensional plane according to the image coordinates; A matrix generator configured to determine a variance of the real image based on image coordinates, and then designate the variance as a random variable and generate a covariance matrix for each of the two random variables; the origin of the two-dimensional plane and the image A distribution that calculates a distribution weight for each real image based on the distance between coordinates and the covariance matrix. Weights and it characterized in that it comprises calculating section and, group and extracts an inspection image on the map corresponding to the reference value, weight distribution in excess of the set selected as a representative image representing the image extraction portion that stores the data server.

본 발명에 따른 정밀 위치 기반의 최적화 3D 지도 제공 시스템에 의하면,According to the present invention, an accurate 3D map providing system based on precision,

1) 고화질 저용량 특성을 가지며 정밀화된 3D 지도를 제공할 수 있고,1) It has high quality and low capacity and can provide precise 3D map,

2) 대표 이미지를 선정함으로써 용량이 최적화되고 품질이 향상된 3D 지도를 제공할 수 있으며,2) By selecting a representative image can provide a 3D map with optimized capacity and improved quality,

3) 대표 이미지 선정을 위한 이미지 좌표의 투명도를 제어함으로써 중첩된 부분이 가려져 보이지 않는 현상을 방지할 수 있을 뿐 아니라,3) By controlling the transparency of the image coordinates for the representative image selection, not only can the overlapped portions be hidden and not visible,

4) 3차원 이미지의 잔존 노이즈를 검출하고 제거하여 보정함으로써 보다 고품질의 3D 지도를 제공할 수 있다.4) Higher quality 3D maps can be provided by detecting, removing, and correcting residual noise in three-dimensional images.

도 1은 본 발명의 시스템의 개략적인 구성을 나타낸 개념도.
도 2는 본 발명의 시스템의 기본 구성을 나타낸 블록도.
도 3은 본 발명의 실사 이미지의 필터링 및 분석의 일 실시예를 도시한 개념도.
도 4는 본 발명의 복수의 지도좌표정보를 점 및 선으로 표시한 일 실시예를 도시한 개념도.
도 5는 본 발명의 생성된 3D 지도의 일 실시예를 도시한 개념도.
1 is a conceptual diagram showing a schematic configuration of a system of the present invention.
2 is a block diagram showing the basic configuration of the system of the present invention.
3 is a conceptual diagram illustrating an embodiment of the filtering and analysis of the photorealistic image of the present invention.
4 is a conceptual diagram illustrating an embodiment in which a plurality of map coordinate information of the present invention is displayed with dots and lines.
5 is a conceptual diagram illustrating one embodiment of a generated 3D map of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale, and like reference numerals in each of the drawings refer to like elements.

도 1은 본 발명의 시스템의 개략적인 구성을 나타낸 개념도이다.1 is a conceptual diagram showing a schematic configuration of a system of the present invention.

도 1을 참조하면, 본 발명의 정밀 위치 기반의 최적화 3D 지도 제공 시스템(1)은 데이터 서버로부터 실사 이미지 및 지도좌표정보를 입력받은 후 분석 및 렌더링 과정을 통해 3차원의 이미지를 생성하고 이를 정렬 및 보정하여 정밀화된 3D 지도를 생성하는 역할을 수행한다. Referring to FIG. 1, the precision location-based optimized 3D map providing system 1 of the present invention receives a photorealistic image and map coordinate information from a data server, generates a three-dimensional image through an analysis and rendering process, and arranges the same. And calibrate to generate an accurate 3D map.

이러한 기능을 수행하는 본 발명의 시스템(1)은 기본적으로 본 발명의 시스템(1)이 구현되는 메인 서버 및 지도 제작에 필요한 정보 및 데이터를 제공 및 저장하는 데이터 서버의 구성으로 이루어진다. The system 1 of the present invention performing such a function basically consists of a main server on which the system 1 of the present invention is implemented and a data server for providing and storing information and data necessary for making a map.

이때, 메인 서버는 실사 이미지의 필터링 및 분석을 수행하여 고화질 저용량의 3차원 이미지를 생성해내고, 이를 데이터 서버에 저장하는 기능을 수행한다. At this time, the main server performs a function of filtering and analyzing the live image to generate a high-quality low-capacity 3D image and storing it in a data server.

이러한 메인 서버와 데이터 서버는 하나의 시스템 형식으로 구현되는 것으로 이해할 수 있으며, 혹은 본 발명의 시스템(1)이 웹 상의 클라우드 형식으로 구현됨으로써 3D 데이터에 대해 분석 및 최적화를 수행하여 3차원 이미지를 생성한 뒤 이를 클라우드의 데이터 서버에 자체 저장하는 것 역시 가능하며, 이때 메인 서버는 해당 클라우드에 대한 관리 주체인 서버컴퓨터가 될 수 있다. 바람직하게 본 발명의 시스템(1)은 프로그램의 형식이 아닌 웹 상에서 구현되어야 하므로, 메인 서버의 경우 실사 이미지의 처리 및 3차원 이미지 생성을 수행하는 웹페이지에 대한 관리서버의 역할 역시 수행해야 한다.It can be understood that the main server and the data server are implemented in one system format, or the system 1 of the present invention is implemented in a cloud format on the web to analyze and optimize 3D data to generate 3D images. After that, it is also possible to store the data in a cloud data server itself, and in this case, the main server may be a server computer that manages the cloud. Preferably, the system 1 of the present invention should be implemented on the web, not in the form of a program. In the case of the main server, the system 1 should also play a role of a management server for a web page that performs processing of photorealistic images and 3D image generation.

본 발명의 메인 서버는 데이터 서버와 통신 및 정보를 전송하기 위한 통신부 및 전송수단를 구비한 상태에서 CPU와 저장수단을 구비한 하드웨어를 의미하는 것으로, 이 CPU에서 수행될 소프트웨어에 의해 후술할 일련의 모듈 및 이의 구체적 기능이 도출될 수 있다.The main server of the present invention refers to hardware having a CPU and a storage means in a state of having a communication unit and a transmission means for communicating with a data server and transmitting information, and a series of modules to be described later by software to be executed in the CPU. And specific functions thereof may be derived.

즉, 메인 서버는 중앙처리장치(CPU) 및 메모리와 하드디스크와 같은 저장수단을 구비한 하드웨어 기반에서 중앙처리장치에서 수행될 수 있는 프로그램, 즉 소프트웨어가 설치되어 이 소프트웨어를 실행할 수 있는데 이러한 소프트웨어에 대한 일련의 구체적 구성을 '모듈' 및 '부', '인터페이스'라는 구성 단위로서 후술할 예정이다. In other words, the main server is a hardware-based system having a central processing unit (CPU) and storage means such as a memory and a hard disk, that is, a software that can be executed in the central processing unit, that is, software can be installed to execute the software. A detailed configuration of the module will be described later as a structural unit called a module, a part, and an interface.

이때, 메인 서버는 이 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시), 프로세서를 포함할 수 있다.In this case, the main server may include random access memory (RAM) and read only memory (ROM), which temporarily and / or permanently store signals (or data) processed therein, It may include a processor.

또한, 메인 서버는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In addition, the main server may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.

프로세서는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다The processor may include one or more cores (not shown) and connection passages (eg, buses) for transmitting and receiving signals to and from graphics processors (not shown) and / or other components.

메모리에는 후술할 모듈 내지 부의 실행 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory may store programs (one or more instructions) for execution and control of a module to a part to be described later. Programs stored in the memory may be divided into a plurality of modules according to their functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

즉, 본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.That is, the components of the present invention may be implemented as a program (or an application) and stored in a medium in order to be executed in combination with a computer which is hardware. The components of the present invention may be implemented as software programming or software elements, and likewise, embodiments may include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs, such as C, C ++. It may be implemented in a programming or scripting language such as Java, an assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors.

이러한 '모듈' 또는 '부' 또는 '인터페이스'의 구성은 메인 서버의 저장수단에 설치 및 저장된 상태에서 CPU 및 메모리를 매개로 실행되는 소프트웨어 또는 FPGA 내지 ASIC과 같은 하드웨어의 일 구성을 의미한다. 이때, '모듈' 또는 '부', '인터페이스'라는 구성은 하드웨어에 한정되는 의미는 아니고, 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 일 예로서 '모듈' 또는 '부' 또는 '인터페이스'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터 서버, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.The configuration of the 'module' or 'unit' or 'interface' refers to a configuration of software such as FPGA or ASIC or software that is executed through CPU and memory while being installed and stored in the storage means of the main server. At this time, the configuration of the 'module', 'unit', or 'interface' is not limited to hardware, and may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. As an example, a 'module' or 'part' or 'interface' may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, attributes, and the like. Fields, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, data servers, data structures, tables, arrays, and variables.

이러한 '모듈' 또는 '부' 또는 '인터페이스'에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는'모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.The functionality provided by these 'modules' or 'parts' or 'interfaces' may be combined into a smaller number of components and 'parts' or 'modules' or by additional components and 'parts' or 'modules'. Can be further separated.

이하, 이와 같은 거시적 구성 내의 세부 구성 및 기능을 설명하도록 한다.Hereinafter, detailed configurations and functions within such a macroscopic configuration will be described.

도 2는 본 발명의 시스템의 기본 구성을 나타낸 블록도이고, 도 3은 본 발명의 실사 이미지의 필터링 및 분석의 일 실시예를 도시한 개념도이며, 도 4는 본 발명의 복수의 지도좌표정보를 점 및 선으로 표시한 일 실시예를 도시한 개념도이고, 도 5는 본 발명의 생성된 3D 지도의 일 실시예를 도시한 개념도이다.2 is a block diagram showing the basic configuration of the system of the present invention, Figure 3 is a conceptual diagram showing an embodiment of the filtering and analysis of the photorealistic image of the present invention, Figure 4 is a plurality of map coordinate information of the present invention FIG. 5 is a conceptual diagram illustrating an embodiment represented by dots and lines, and FIG. 5 is a conceptual diagram illustrating an embodiment of a generated 3D map of the present invention.

도 2를 참조하면, 본 발명의 시스템(1)은 기본적으로 데이터 입력모듈(100), 이미지 최적화모듈(200), 도로 위치 보정모듈(300), 지도 제공모듈(400)을 포함할 수 있다.Referring to FIG. 2, the system 1 of the present invention may basically include a data input module 100, an image optimization module 200, a road position correction module 300, and a map providing module 400.

데이터 입력모듈(100)은 지도 제작에 필요한 실사 이미지 및 상기 실사 이미지별로 저장된 복수의 지도좌표정보를 데이터 서버로부터 입력받는 기능을 제공한다.The data input module 100 provides a function of receiving a live image necessary for making a map and a plurality of map coordinate information stored for each live image from a data server.

이때, 데이터 서버로부터 입력받은 실사 이미지는 어느 하나의 위치에 대하여 복수 개로 존재할 수 있다. 예를 들어, 한 위치에 대하여 흑백 사진, 역광 조건에서 촬영한 사진, 흐린 날에 촬영한 사진 등 다양한 외부 및 환경 조건에서 촬영한 실사 이미지가 존재할 수 있으며, 정확하고 최적화된 3D 지도의 제작을 위하여 시스템 상에 제공될 수 있다. 이때, 한 위치에 대한 실사 이미지가 복수개로 존재할 수 있지만, 하나의 실시 이미지가 표현하는 위치 영역 범위에 따라서 하나의 실사 이미지에 복수 개의 위치 정보가 존재할 수도 있음은 물론이다. 또한, 지도좌표정보라 함은 실사 이미지 상의 위치에 대한 위도, 경도, 고도, 상세 주소 등의 위치를 표현하는 정보가 될 수 있으며, 추가적으로 실사 이미지를 촬영한 날짜 및 시간의 정보가 포함되어 있을 수 있다. In this case, a plurality of live-action images input from the data server may exist in any one position. For example, there may be photorealistic images taken in various external and environmental conditions, such as black and white photographs, photographs taken in backlight conditions, photographs taken on a cloudy day, and for the purpose of producing accurate and optimized 3D maps. May be provided on the system. At this time, although there may be a plurality of live image for a location, a plurality of location information may exist in one live image according to the range of the location region represented by one implementation image. In addition, the map coordinate information may be information representing a location such as latitude, longitude, altitude, detailed address, etc. of the location on the live image, and may additionally include information on the date and time at which the live image was taken. have.

이미지 최적화모듈(200)은 이미지 분석부(210)와 옵티마이징부(220)를 포함할 수 있다.The image optimization module 200 may include an image analyzer 210 and an optimizer 220.

이미지 분석부(210)는 상기 실사 이미지를 필터링 및 분석하여 도 3과 같은 중간 이미지로 재구성하는 역할을 수행한다. The image analyzer 210 filters and analyzes the live image to reconstruct the intermediate image as shown in FIG. 3.

이때, 필터링이라 함은 실사 이미지 및 지도좌표정보 중 객체 식별이 불가능하거나 3D 지도 생성에 필요하지 않은 이미지들을 걸러 제거하는 과정이다. 또한, 분석 과정은 기본적으로 실사 이미지에 포함된 객체에 대한 식별 뿐 아니라 객체와 배경의 분리, 보정, 분리된 객체와 배경, 그리고 각 개체의 재조합을 포함하는 것이다. 따라서 실사 이미지에서 필요한 객체 또는 위치 정보를 분리해내고, 객체에 대한 보정을 수행한 뒤 재조합을 수행함으로써 실사 이미지에 포함된 각각의 픽셀 중 유의미한 픽셀을 필터링하고, 해상도의 조절 등을 함께 수행하여 1차적인 용량 최적화 및 화질 최적화를 함께 수행하는 것 역시 가능하다. 혹은 이 외에도 다양한 필터링 및 분석이 가능하며, 이는 이미지 및 영상 필터링에 있는 공지의 기술 대부분을 적용할 수 있으므로 보다 상세한 설명은 생략하기로 한다. 이러한 필터링 및 분석 과정을 거친 실사 이미지는 도 3과 같은 중간 이미지로서 생성될 수 있다.In this case, filtering refers to a process of filtering out images that are impossible to identify objects or that are not necessary for generating a 3D map, from the live image and the map coordinate information. In addition, the analysis process basically includes the identification and correction of objects and backgrounds, the separation of objects and backgrounds, and the recombination of each object, as well as the identification of objects included in the actual image. Therefore, by separating the necessary object or position information from the photo-realistic image, performing correction on the object, and performing recombination, filtering significant pixels of each pixel included in the photo-realistic image, adjusting the resolution, etc. It is also possible to perform both secondary capacity optimization and image quality optimization together. Alternatively, in addition to this, various filtering and analysis are possible, and since this can apply most of the known techniques in image and image filtering, a detailed description thereof will be omitted. The live image which has undergone such filtering and analysis may be generated as an intermediate image as shown in FIG. 3.

옵티마이징부(220)는 상기 중간 이미지의 상세 레벨 값을 계산하여 상기 상세 레벨 값에 따라 상기 중간 이미지에 포함된 폴리곤의 할당 처리 및 렌더링을 수행함으로 3차원 이미지를 생성하여 데이터 서버에 저장하는 기능을 제공한다.The optimizer 220 calculates a detail level value of the intermediate image, performs an allocation process and renders polygons included in the intermediate image according to the detail level value, and generates a 3D image and stores the same in a data server. to provide.

이때 폴리곤(Polygon)이라 함은 3차원 이미지 상에서 입체적인 형상, 즉 객체를 표현할 때 사용되는 가장 작은 단위의 다각형으로서, 3차원 공간상에서 시작점과 끝점이 선으로 연결된 폴리 라인으로 곡선 위에 있는 몇 개의 점을 직선으로 이어서 곡선을 표현하며, 물체의 테두리를 나타나기 위해 사용된다. 또한, 렌더링(rendering)은 2차원의 이미지에 광원, 위치, 색상 등의 외부 정보를 고려하여 사실감을 불어넣어, 3차원의 이미지를 만드는 과정을 뜻한다. 이와 같이 중간 이미지의 레벨값에 의해 롤리곤의 할당 처리 및 랜더링을 수행하여 3차원 이미지를 제작하는 기술은 공지의 기술이므로 보다 상세한 설명은 생략하도록 한다. In this case, the polygon is a polygon of the smallest unit used to express a three-dimensional shape, that is, an object on a three-dimensional image. A polyline is formed by connecting a starting point and an ending point with a line in three-dimensional space. A straight line is then used to represent the curve and to represent the object's rim. In addition, rendering refers to a process of creating a three-dimensional image by injecting realism into the two-dimensional image in consideration of external information such as a light source, a position, and a color. As described above, since the technology for producing the 3D image by performing the allocation processing and rendering of the lolligon by the level value of the intermediate image is a known technique, a detailed description thereof will be omitted.

즉, 옵티마이징부(220)는 중간 이미지의 상세 레벨 값을 계산해내고, 계산된 상세 레벨 값에 따라 폴리곤을 할당하여 3차원 화 시킨 후 이를 지도좌표 상에 할당하고 렌더링하여 3차원 이미지를 생성할 수 있다. 또한, 본 발명에서 3차원 이미지는 단지 하나의 이미지에 국한되거나 한정되는 것이 아니라 영상과 같이 복수 개의 이미지 프레임을 포함하는 개념일 수도 있다.That is, the optimizer 220 calculates the detail level value of the intermediate image, assigns polygons according to the calculated detail level value, and then three-dimensionalizes the polygons. have. In addition, in the present invention, the 3D image is not limited to only one image or may be a concept including a plurality of image frames such as an image.

도로 위치 보정모듈(300)은 좌표 표시부(310)와 위치 정렬부(320)를 구비할 수 있다.The road position correction module 300 may include a coordinate display unit 310 and a position alignment unit 320.

좌표 표시부(310)는 상기 3차원 이미지에 표시된 도로상에 상기 복수의 지도좌표정보를 점(point)으로 표시하는 역할을 수행하며, 위치 정렬부(320)는 상기 도로의 연장 방향을 따라 상기 점을 연결한 복수의 선(line) 중 하나인 기준선에 맞춰 상기 3차원 이미지에 표시된 도로의 차선 위치를 정렬하는 기능을 제공한다.The coordinate display unit 310 serves to display the plurality of map coordinate information as a point on the road displayed in the 3D image, and the position alignment unit 320 may perform the point along the extension direction of the road. It provides a function to align the lane position of the road displayed on the three-dimensional image in accordance with the reference line, which is one of a plurality of lines (connected).

여기서, 지도좌표정보는 라이다(Lidar, 대상 물체까지의 거리뿐 아니라 움직이는 속도와 방향, 온도, 주변의 대기 물질 분석 및 농도 측정 등에 쓰이는 장치)를 통해 정확한 좌표 값으로 얻어질 수 있으며, 이를 통해 후술할 3차원 이미지의 위치를 정렬하고 3D 지도를 생성할 때 높은 정밀도의 특성을 가질 수 있도록 기여할 수 있다.Here, the map coordinate information can be obtained with accurate coordinate values through Lidar (a device used to measure not only the distance to the target object but also the moving speed and direction, temperature, ambient air substance analysis and concentration measurement). When aligning the position of the three-dimensional image to be described later and create a 3D map can contribute to have a high precision characteristics.

즉, 3차원 이미지는 여러 개의 실사 이미지가 분석된 후 합쳐져서 형성된 것으로, 3차원 이미지 상에는 각 실사 이미지에 저장된 지도좌표정보가 복수 개로 형성될 수 있으며, 도 4와 같이 그 중 도로 위의 지도좌표정보를 점으로 표시하고 이 점들은 특히 도로의 연장 방향을 따라 연결되어 하나의 선(line)으로 형성되며 이 선은 도로의 폭 내지 연장 방향에 따라 복수 개로 형성될 수 있는 것이다. That is, the three-dimensional image is formed by combining a plurality of real-world images after analysis, and a plurality of map coordinate information stored in each live-action image may be formed on the three-dimensional image, as shown in FIG. 4. Is indicated by a dot, and these dots are connected in particular along the extension direction of the road to form a single line, which may be formed in plural numbers depending on the width or extension direction of the road.

이때, 기준선의 설정은 정렬 및 배치의 용이성을 위하여 최대한 균일하고 일직선인 것을 기준선으로 설정하는 것이 바람직하다. 예를 들어, 지도좌표 상에서 일직선으로 형성되어 있으며 가장 큰 틀이 되는 도로 위의 선을 기준선으로 설정한 뒤 이를 기준으로 다른 차선들의 위치를 정렬할 수 있다. 여기서, 도로의 차선은 실사 이미지 내에서 가장 단조롭고 규격화되어있는 실사 구조물이라고 할 수 있으며, 도 4와 같이 이를 기준선에 맞추어 차선 위치를 정밀하게 배치할 수 있고 이를 기반으로 3D 지도에서 보다 정밀한 좌표정보를 반영할 수 있도록 하는 기반을 제공한다.At this time, it is preferable to set the reference line as the baseline to be as uniform and straight as possible for ease of alignment and arrangement. For example, the line on the road that is formed in a straight line on the map coordinates may be set as a reference line, and then the positions of other lanes may be aligned based on the reference line. Here, the lane of the road may be referred to as the most monotonous and standardized structure in the photo-realistic image. As shown in FIG. 4, the lane position may be precisely arranged based on the reference line, and more accurate coordinate information may be obtained from the 3D map. It provides a foundation to reflect.

지도 제공모듈(400)은 상기 차선 위치가 정렬된 3차원 이미지를 기준으로 배경 이미지를 조합하여 3D 지도를 생성 및 출력하는 역할을 수행한다. 즉, 상술한 위치 정렬부(320)를 통해 정렬된 위치에 3D 지도의 디테일한 완성을 위한 주변 건물, 구조물, 신호등 등 의 배경 이미지를 조합하여 도 5와 같은 3D 지도를 완성할 수 있다. 이러한 배경 이미지 또한 실사 이미지 내의 지도좌표정보를 정렬 및 배치되어 3차원 이미지 상의 정확한 장소에 위치할 수 있다. The map providing module 400 generates and outputs a 3D map by combining a background image based on the 3D image in which the lane positions are aligned. That is, the 3D map of FIG. 5 may be completed by combining background images of surrounding buildings, structures, traffic lights, etc. for the detailed completion of the 3D map to the positions aligned through the above-described position alignment unit 320. Such a background image may also be arranged and arranged in map coordinate information in the live-action image to be located at an accurate place on the 3D image.

이와 같은 구성에 따라 적은 용량의 이미지를 기초로 하여 지도좌표정보를 기반으로 함으로써 보다 정밀하고 정확한 3D 지도를 생성 및 제공할 수 있는 특성을 부여한다.According to such a configuration, based on map coordinate information based on a small amount of images, a feature that generates and provides a more accurate and accurate 3D map is given.

이에 더하여, 시스템(1)은 이미지 선정모듈(500)을 추가적으로 포함할 수 있다.In addition, the system 1 may further include an image selection module 500.

이미지 선정모듈(500)은 동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지 중에서 촬영 조건에 따라 특정 실사 이미지를 추출하여 대표 이미지로 선정한 다음 상기 데이터 서버에 저장 처리하는 기능을 제공한다.The image selecting module 500 provides a function of extracting a specific photorealistic image from the plurality of photorealistic images photographed for the same region according to the photographing conditions, selecting the representative photographic image, and storing the data on the data server.

여기서, 동일 지역에 대해 복수 개로 촬영된 실사 이미지는 동일 지역을 촬영하였지만 방향, 광도, 조도, 해상도, 구도, 원근, 노출, 초점거리 등의 촬영 조건이 다른 이미지일 수 있다. 이러한 각각의 실사 이미지는 후술할 이미지 선정모듈(500)을 통해 일종의 프로세스를 거쳐 한 개 또는 복수 개의 실사 이미지가 대표 이미지로 선정할 수 있으며, 이렇게 선정된 대표 이미지는 실사 이미지를 3차원화하거나 배경 이미지를 조합할 때 복수 개의 이미지들 중의 기준이 되어 용량의 최적화 및 3D 지도 퀄리티 향상에 도움이 될 수 있다. 이러한 대표 이미지의 구체적인 선정 방법은 후술할 과정을 통해 설명하도록 한다.Here, the photorealistic images photographed in plural in the same region may be images in which the photographing conditions such as direction, brightness, illuminance, resolution, composition, perspective, exposure, and focal length are different. Each of the photorealistic images may be selected as one or a plurality of photorealistic images as representative images through a kind of process through an image selection module 500 which will be described later. When combining images, it can be a reference among multiple images, which can help optimize capacity and improve 3D map quality. A specific method of selecting the representative image will be described through a process to be described later.

이때, 이미지 선정모듈(500)은 보다 구체적으로 평면 설정부(510), 좌표 설정부(520), 배치도 생성부(530), 행렬 생성부(540), 분포 가중치 산출부(550), 대표 이미지 추출부(560)를 포함함으로써 각 실사 이미지의 촬영 조건을 체계적으로 비교함으로써 대표 이미지를 추출할 수 있다.At this time, the image selection module 500 is more specifically the plane setting unit 510, the coordinate setting unit 520, the arrangement map generator 530, the matrix generator 540, the distribution weight calculator 550, the representative image By including the extractor 560, it is possible to extract the representative image by systematically comparing the shooting conditions of each real image.

평면 설정부(510)는 동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지를 대상으로 상기 실사 이미지의 촬영 조건에 따라 x축 및 y축을 정의하여 2차원 평면을 설정하는 기능을 제공한다. 예를 들어, 촬영 조건이 '해상도'와 '광도'라면 x축을 '해상도'로, y축을 '광도'로 설정하여 2차원의 평면을 설정할 수 있다. 이때, x축 및 y축으로 정의된 촬영 조건은 실사 이미지의 배치를 위해 수치화되는 것이 바람직한데, 실사 이미지의 해상도 및 광도의 절대적인 단위 및 수치로서 평면에 배치할 수도 있지만, 각 실사 이미지끼리 비교하여 촬영 조건에 상대적인 수치를 부여한 뒤 이를 반영하여 평면에 배치하는 것도 가능하다. 이 또한 공지된 이미지 및 영상 분석 기술을 통해 파악할 수 있으므로 자세한 설명은 생략하기로 한다.The plane setting unit 510 provides a function of setting a two-dimensional plane by defining an x-axis and a y-axis according to the shooting conditions of the live-action image for the live-action image photographed in plural for the same area. For example, if the shooting conditions are 'resolution' and 'luminosity', the two-dimensional plane may be set by setting the x-axis to 'resolution' and the y-axis to 'luminance'. At this time, the shooting conditions defined by the x-axis and the y-axis are preferably quantified for the placement of the live-action image, but may be arranged on the plane as an absolute unit and numerical value of the resolution and brightness of the live-action image, It is also possible to assign a numerical value relative to the shooting conditions and arrange it on the plane by reflecting it. Since this can also be identified through known image and image analysis techniques, a detailed description thereof will be omitted.

좌표 설정부(520)는 상기 실사 이미지를 상기 2차원 평면에 배치하기 위해 상기 실사 이미지의 이미지 좌표를 설정하는 역할을 수행하는 것으로서, 상술한 바와 같이 정의된 x,y축에 해당하는 촬영 조건을 기준으로 실사 이미지를 촬영 조건에 대하여 수치적으로 표현한 다음 이를 이미지 좌표로 설정하는 기능을 제공한다. 예를 들어, 실사 이미지 A의 '해상도' 상대 수치가 30이고 '광도' 상대 수치가 10일 때, 실사 이미지 A의 이미지 좌표는 (30,10)이 된다.The coordinate setting unit 520 serves to set image coordinates of the actual image in order to arrange the actual image on the two-dimensional plane, and captures shooting conditions corresponding to the x and y axes defined as described above. It provides a function to numerically express the photorealistic image with respect to shooting conditions as a reference and then set it as image coordinates. For example, when the 'resolution' relative value of the live image A is 30 and the 'luminance' relative value is 10, the image coordinate of the live image A becomes (30, 10).

배치도 생성부(530)는 상기 이미지 좌표에 따라 상기 실사 이미지를 상기 2차원 평면에 배치하여 배치도를 생성하는 역할을 수행하는 것으로서, 복수 개의 실사 이미지를 배치하여 생성된 배치도는 설정된 촬영 조건에 부합하는 실사 이미지를 쉽게 파악하는 기능을 수행한다. 이때, 상기 이미지 좌표는 실사 이미지의 중심에 부여되어 실사 이미지를 배치도 상에 배치할 수 있다. 나아가, 상기 배치도는 촬영 조건에 부합하는 실사 이미지가 어느 정도 분포되었는지를 쉽게 파악할 수 있도록 도움을 줌으로써 본 발명의 시스템의 기능적 우수성 역시 알 수 있다.The layout generating unit 530 serves to generate a layout by arranging the photorealistic image on the two-dimensional plane according to the image coordinates, and the layout generated by arranging a plurality of photorealistic images corresponds to a set shooting condition. It performs a function to easily grasp the live image. In this case, the image coordinate may be given to the center of the live image to arrange the live image on the layout. In addition, the layout can also be seen that the functional superiority of the system of the present invention by helping to easily grasp how much of the photorealistic image corresponding to the shooting conditions are distributed.

행렬 생성부(540)는 상기 이미지 좌표를 기반으로 상기 실사 이미지의 분산값을 파악한 후 상기 분산값을 확률변수로 지정하여 상기 확률변수를 2개씩 대상으로 공분산 행렬을 생성하는 기능을 제공한다. 이때, 분산은 실사 이미지가 배치도 내에서 분포하는 정도를 의미하는데 이는 실사 이미지가 촬영 조건에 부합하는 확률로부터 도출되기 때문에 공분산 행렬은 실사 이미지의 분산 정도(즉, 실사 이미지가 촬영 조건에 얼마나 잘 부합하는지)를 알려주는 기능을 수행하여 이로부터 실사 이미지의 적합도(이때 적합도라 함은 실사 이미지가 촬영 조건에 잘 부합하는 정도를 의미한다.)를 파악할 수 있다. 더하여, 공분산 행렬은 복수 개의 촬영 조건의 표준 편차를 이용하여 구할 수 있으며, 복수 개의 촬영 조건이 서로 어떤 영향을 끼치는가를 측정하는 지표로 활용될 수 있다. 즉, 주변의 조건 및 환경에 따른 변동의 지표로 활용될 수 있으며, 본 발명에서는 확률변수 두 개를 대상으로 공분산 행렬에 적용하여 비교하기로 한다. 예를 들어, 배치도로부터 실사 이미지의 두 촬영 조건의 분산 및 표준 편차를 반영한 공분산 행렬 D는

Figure 112019100607019-pat00001
와 같이 생성될 수 있다.The matrix generator 540 determines a variance of the actual image based on the image coordinates, and then provides a function of generating a covariance matrix for each of the two random variables by designating the variance as a random variable. In this case, the variance means the degree to which the real image is distributed in the layout. Since the real image is derived from the probability that the image meets the shooting conditions, the covariance matrix is distributed to the degree of dispersion of the real image (that is, how well the real image matches the shooting conditions. It can be used to determine the suitability of the photorealistic image (where fitness refers to the degree to which the photorealistic image satisfies the shooting conditions). In addition, the covariance matrix may be obtained using standard deviations of a plurality of shooting conditions, and may be used as an index for measuring how the plurality of shooting conditions affect each other. That is, the present invention may be used as an index of variation according to surrounding conditions and environments. In the present invention, two random variables are applied to a covariance matrix and compared. For example, the covariance matrix D reflecting the variance and standard deviation of the two shooting conditions of the live-action image from the layout
Figure 112019100607019-pat00001
Can be generated as

분포 가중치 산출부(550)는 상기 2차원 평면의 원점과 상기 이미지 좌표 간의 거리 및 상기 공분산 행렬을 기반으로 상기 실사 이미지 별로 분포 가중치를 산출하는 기능을 제공한다. 이때, 분포 가중치라 함은 실사 이미지의 배치도 내 분포 정도에 따라 부여되는 값을 의미한다. 구체적으로, 실사 이미지가 배치도 내에서 고르게 분포한다는 것은 본 발명의 시스템(1)이 촬영 조건에 부합하지 않을 때 실사 이미지를 생성한 경우가 많다는 것을 의미하므로 이때 분포 가중치는 작게 산출된다. 이와 반대로 실사 이미지가 배치도 내에서 분포가 고르지 않다는 것은 그만큼 촬영 조건에 부합할 때 실사 이미지를 생성한 경우가 많다는 것을 의미하므로 분포 가중치는 크게 산출된다.The distribution weight calculator 550 provides a function of calculating a distribution weight for each real image based on the distance between the origin of the 2D plane and the image coordinates and the covariance matrix. In this case, the distribution weight means a value given according to the degree of distribution in the layout of the actual image. Specifically, the distribution of the live image evenly in the layout means that the live image is often generated when the system 1 of the present invention does not meet the shooting conditions, and thus the distribution weight is small. On the contrary, the uneven distribution of the live image in the layout means that the live image is often generated when the shooting conditions are satisfied. Thus, the distribution weight is large.

대표 이미지 추출부(560)는 기 설정된 기준값을 초과하는 분포 가중치에 해당하는 배치도 상의 실사 이미지를 추출하여 대표 이미지로 선정하여 상기 데이터 서버에 저장하는 역할을 수행한다. 예를 들어, 기준값이 10일 때 10일 초과하는 분포 가중치를 가진 실사 이미지를 대표 이미지로 추출하는 역할을 수행한다. 이때, 대표 이미지는 기준값을 초과하는 실사 이미지를 의미하므로, 복수 개의 대표 이미지가 추출될 수 있다. 또한, 여기서 기준값은 시스템(1)의 관리자가 임의로 설정하거나 시스템(1)에서 자체적으로 자동 설정될 수 있는 값으로서, 기준값을 설정하는 방법에는 제한이 없다.The representative image extractor 560 extracts a live image on a layout corresponding to a distribution weight value exceeding a preset reference value, selects a representative image, and stores the image as a representative image. For example, when the reference value is 10, it extracts a photorealistic image having a distribution weight exceeding 10 days as a representative image. In this case, since the representative image means a live image exceeding a reference value, a plurality of representative images may be extracted. Here, the reference value is a value that can be arbitrarily set by the administrator of the system 1 or automatically set by the system 1 itself, and there is no limitation in the method of setting the reference value.

나아가, 상술한 분포 가중치는 다음의 수학식 1을 통해 산출될 수 있다.In addition, the above-described distribution weight may be calculated through Equation 1 below.

수학식 1.Equation 1.

Figure 112019100607019-pat00002
Figure 112019100607019-pat00002

여기서,

Figure 112019100607019-pat00003
는 분포 가중치,
Figure 112019100607019-pat00004
은 상기 실사 이미지
Figure 112019100607019-pat00005
의 이미지 좌표.
Figure 112019100607019-pat00006
는 상기 배치도의 중심 좌표,
Figure 112019100607019-pat00007
는 상기 공분산 행렬을 의미한다.here,
Figure 112019100607019-pat00003
Is the distribution weight,
Figure 112019100607019-pat00004
Live action image
Figure 112019100607019-pat00005
Image coordinates.
Figure 112019100607019-pat00006
Is the center coordinate of the layout,
Figure 112019100607019-pat00007
Means the covariance matrix.

상기 수학식 1은 실사 이미지와 배치도의 중심 사이의 거리 및 공분산 행렬의 역행렬을 기반으로 실사 이미지에 대한 분포 가중치를 산출하는 식으로서, 이는 싱사 이미지와 배치도 중심 사이의 거리뿐만 아니라 실사 이미지의 분산 정도까지 고려하여 실사 이미지가 촬영 조건에 얼마나 부합하는지를 정확하게 파악할 수 있도록 한다.Equation 1 is a formula for calculating the distribution weight for the real image based on the distance between the real image and the center of the layout and the inverse of the covariance matrix, which is not only the distance between the singular image and the center of the layout, but also the degree of dispersion of the real image. Considering the above, it is possible to accurately determine how the live image matches the shooting conditions.

이에 대해 자세히 설명하면, 실사 이미지와 배치도 중심 사이의 거리만을 기반으로 분포 가중치를 산출하면 실사 이미지의 이미지 좌표에서 x성분과 y성분의 값에 상관없이 단순히 배치도의 중심과 멀리 떨어진 실사 이미지에 대한 분포 가중치가 크게 산출되어, 실사 이미지가 촬영 조건에 부합하는지 여부를 정확히 판가름할 수 없다. 예를 들어, 이미지 좌표가 (50,50)인 실사 이미지와 (-50,-50)인 실사 이미지를 비교할 때 (50.50)인 실사 이미지가 촬영 조건에 더 부합하나 두 실사 이미지와 배치도의 중심 간의 거리는 동일하므로 동일한 분포 가중치가 산출된다. 이와 같은 오류를 보정하기 위한 것이 바로 공분산 행렬이며, 이를 더 고려함으로써 실사 이미지의 적합도를 정확히 판별할 수 있다.In detail, if the distribution weight is calculated based only on the distance between the live image and the center of the layout, the distribution of the live image is far from the center of the layout, regardless of the values of the x and y components. The weight is largely calculated so that it is not possible to accurately determine whether or not the live image meets the shooting conditions. For example, when comparing a live image with an image coordinate of (50,50) and a live image with (-50, -50), the live image with (50.50) is more suitable for shooting conditions, but the difference between the two live image and the center of the layout Since the distances are the same, the same distribution weight is calculated. It is the covariance matrix for correcting such an error that can be accurately determined by properly considering the real image.

예를 들어, 실사 이미지 a의 이미지 좌표가 (2,3), 공분산 행렬 D가

Figure 112019100607019-pat00008
일 때, 실사 이미지 a에 대한 분포 가중치를 산출하면 다음과 같다.For example, the image coordinates of the live-action image a are (2,3), and the covariance matrix D is
Figure 112019100607019-pat00008
In this case, the distribution weight for the actual image a is calculated as follows.

Figure 112019100607019-pat00009
Figure 112019100607019-pat00009

즉, 상기 수학식 1을 기반으로 산출된 실사 이미지 a의 분포 가중치는 11.88로서, 이와 같은 방법을 통해 실사 이미지의 적합도를 수치화하여 촬영 조건에 가장 부합하는 실사 이미지를 파악할 수 있다.That is, the distribution weight of the actual image a calculated based on Equation 1 is 11.88. Through this method, the goodness of fit of the actual image can be quantified to identify the actual image that best matches the shooting condition.

이에 더 나아가, 복수 개의 실사 이미지를 하나의 2차원 평면인 배치도 상에 배치를 하다보면 실사 이미지끼리 겹치는 현상이 발생할 수 있는데, 이때 실사 이미지의 중첩 영역(즉, 실사 이미지가 겹치는 부분)의 가시성을 위해 상기 이미지 선정 모듈(500)은 투명도 제어부(570)를 포함할 수 있다.In addition, when a plurality of photorealistic images are arranged on a layout plan which is one two-dimensional plane, the photorealistic images may overlap. In this case, visibility of overlapping regions (ie, portions where the photorealistic images overlap) of the photorealistic images may occur. The image selection module 500 may include a transparency control unit 570.

투명도 제어부(570)는 상기 배치도 상의 실사 이미지가 중첩된 경우 중첩 영역의 투명도를 제어하는 역할을 수행할 수 있으며, 다음의 수학식 2를 통해 산출되는 것을 특징으로 한다.The transparency control unit 570 may play a role of controlling transparency of the overlapped area when the photorealistic image on the arrangement map is overlapped, and is calculated through Equation 2 below.

수학식 2.Equation 2.

Figure 112019100607019-pat00010
Figure 112019100607019-pat00010

여기서,

Figure 112019100607019-pat00011
는 투명도,
Figure 112019100607019-pat00012
은 실사 이미지의 중첩 영역의 기존 투명도,
Figure 112019100607019-pat00013
는 중첩된 영역의 면적,
Figure 112019100607019-pat00014
는 실사 이미지의 픽셀 개수,
Figure 112019100607019-pat00015
은 중첩된 영역 n의 픽셀 개수, n은 중첩된 영역에 부여된 인덱스, m은 중첩된 영역의 총 개수이며,
Figure 112019100607019-pat00016
이다.here,
Figure 112019100607019-pat00011
The transparency,
Figure 112019100607019-pat00012
Is the existing transparency of the overlapping region of the photorealistic image,
Figure 112019100607019-pat00013
Is the area of the overlapped area,
Figure 112019100607019-pat00014
Is the number of pixels in the photorealistic image,
Figure 112019100607019-pat00015
Is the number of pixels in the overlapped area n, n is the index given to the overlapped area, m is the total number of overlapped areas,
Figure 112019100607019-pat00016
to be.

상기 수학식 2는 기존 투명도에 중첩 영역의 면적 대비 실사 이미지 및 중첩 영역의 픽셀 개수를 기반으로 중첩 영역에서의 투명도를 산출하는 식으로서, 특히 예를 들어 중첩된 두 개의 실사 이미지 중 상측의 실사 이미지에 대한 투명도를 조절하여 하측의 실사 이미지의 중첩 영역이 보이도록 하는 역할을 수행한다. 이때 중첩된 실사 이미지가 셋 이상일 때 역시 상기 수학식 2를 기반으로 각 중첩 영역의 투명도를 제어할 수 있음은 물론이다.Equation 2 is an expression for calculating the transparency in the overlapped area based on the actual image compared to the area of the overlapped area and the number of pixels of the overlapped area, and, for example, the above-mentioned live-action image of the two overlapped photorealistic images. It adjusts the transparency of the to play the role of showing the overlap region of the photorealistic image of the lower side. In this case, when there are three or more overlapping photorealistic images, the transparency of each overlapping region may also be controlled based on Equation 2.

이때 투명도는 실사 이미지의 투명한 정도를 의미하는 것으로서, 0 에서 1 사이의 값을 지니는데 그 값이 0에 가까울수록 투명함을 뜻하고 1에 가까울수록 불투명함을 뜻한다. 또한,

Figure 112019100607019-pat00017
는 중첩 영역의 면적을 의미하는데 무차원의 값으로 중첩되는 실사 이미지의 가로 및 세로 길이를 기준으로 그 비율에 따라 산출될 수 있다.(예를 들어, 가로 길이를 50, 세로 길이를 100으로 놓고 이를 기준으로 하여 중첩 영역의 면적을 비율로 계산하여 산출할 수 있다.)In this case, transparency means the degree of transparency of the live-action image, and has a value between 0 and 1, which means that the closer to 0, the transparent, and the closer to 1, the opacity. Also,
Figure 112019100607019-pat00017
Denotes the area of the overlapping area, which can be calculated according to the ratio based on the horizontal and vertical lengths of the photorealistic images overlapping the dimensionless values (for example, the horizontal length is 50 and the vertical length is 100. Based on this, the area of the overlapping area can be calculated by calculating the ratio.)

이러한 상기 수학식 2에 대한 수치적 예시를 들면, 두 개의 실사 이미지가 중첩되었을 때 중첩 영역의 기존 투명도가 0.8,

Figure 112019100607019-pat00018
이 10,
Figure 112019100607019-pat00019
이 5,
Figure 112019100607019-pat00020
가 50이라고 하면 중첩 영역의 투명도
Figure 112019100607019-pat00021
는 수학식 2에 의해 다음과 같이 산출된다.As a numerical example for the above Equation 2, when two photorealistic images overlap, the existing transparency of the overlapped region is 0.8,
Figure 112019100607019-pat00018
This 10,
Figure 112019100607019-pat00019
This 5,
Figure 112019100607019-pat00020
Is 50, the transparency of the overlapping region
Figure 112019100607019-pat00021
Is calculated by Equation 2 as follows.

Figure 112019100607019-pat00022
Figure 112019100607019-pat00022

즉, 상기 수학식 2를 통해 산출된 중첩 영역의 투명도는 0.24로서, 이를 기반으로 중첩 영역을 투명하게 제어하여 중첩된 부분이 가려져 보이지 않는 현상을 방지할 수 있다.That is, the transparency of the overlapped region calculated through Equation 2 is 0.24, so that the overlapped portion may be covered by the transparent region.

이와 같이 실사 이미지를 기반으로 배치도를 생성하고 실사 이미지가 중첩되는 부분은 투명도를 제어하여 관리함으로써, 보다 적합한 실사 이미지를 제공할 수 있다.In this way, a layout may be generated based on the photorealistic image, and the portion where the photorealistic image overlaps may be controlled by managing transparency to provide a more realistic photorealistic image.

다른 실시예로서, 이미지 최적화모듈(200)은 이미지 보정부(230)를 추가적으로 포함하여 실사 이미지에 잔존할 수 있는 노이즈를 보정함으로써 보다 고품질의 3D 지도를 제공할 수 있다.In another embodiment, the image optimization module 200 may further include an image corrector 230 to correct a noise that may remain in the live image to provide a higher quality 3D map.

이미지 보정부(230)는 생성된 상기 3차원 이미지로부터 잔존 노이즈를 검출하고 제거하여 상기 3차원 이미지에 대한 보정을 수행하는 역할을 수행한다.The image corrector 230 detects and removes residual noise from the generated 3D image to perform correction on the 3D image.

즉, 실사 이미지를 최적화한 뒤 렌더링하여 3차원 이미지를 생성하는 과정에서 발생할 수 있는 잔존 노이즈를 제거하여 보정함으로써 보다 고화질의 3차원 이미지를 제공할 수 있다.
지금까지 설명한 바와 같이, 본 발명에 따른 정밀 위치 기반의 최적화 3D 지도 제공 시스템을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.
That is, a higher quality 3D image may be provided by optimizing the real image and then rendering and correcting the residual noise that may occur in the process of generating the 3D image.
As described so far, the precise location-based optimized 3D map providing system according to the present invention has been represented in the above description and drawings, but this is merely an example, and the spirit of the present invention is not limited to the above description and drawings. Various changes and modifications are possible without departing from the spirit of the invention.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

1: 시스템 100: 데이터 입력모듈
200: 이미지 최적화모듈 210: 이미지 분석부
220: 옵티마이징부 230: 이미지 보정부
300: 도로 위치 보정모듈
310: 좌표 표시부 320: 위치 정렬부
400: 지도 제공모듈 500: 이미지 선정모듈
510: 평면 설정부 520: 좌표 설정부
530: 배치도 생성부 540: 행렬 생성부
550: 분포 가중치 산출부 560: 대표 이미지 추출부
570: 투명도 제어부
1: system 100: data input module
200: image optimization module 210: image analysis unit
220: optimizer 230: image correction unit
300: road position correction module
310: coordinate display unit 320: position alignment unit
400: map providing module 500: image selection module
510: plane setting unit 520: coordinate setting unit
530: layout generator 540: matrix generator
550: Distribution weight calculation unit 560: Representative image extraction unit
570: transparency control

Claims (12)

정밀 위치 기반의 최적화 3D 지도 제공 시스템으로서,
지도 제작에 필요한 실사 이미지 및 상기 실사 이미지별로 저장된 복수의 지도좌표정보를 데이터 서버로부터 입력받는 데이터 입력모듈;
상기 실사 이미지를 필터링 및 분석하여 중간 이미지로 재구성하는 이미지 분석부 및, 상기 중간 이미지의 상세 레벨 값을 계산하여 상기 상세 레벨 값에 따라 상기 중간 이미지에 포함된 폴리곤의 할당 처리 및 렌더링을 수행함으로 3차원 이미지를 생성하여 상기 데이터 서버에 저장하는 옵티마이징부를 포함하는 이미지 최적화모듈;
상기 3차원 이미지에 표시된 도로상에 상기 복수의 지도좌표정보를 점(point)으로 표시하는 좌표 표시부와, 상기 도로의 연장 방향을 따라 상기 점을 연결한 복수의 선(line) 중 하나인 기준선에 맞춰 상기 3차원 이미지에 표시된 도로의 차선 위치를 정렬하는 위치 정렬부를 구비한 도로 위치 보정모듈;
상기 차선 위치가 정렬된 3차원 이미지를 기준으로 배경 이미지를 조합하여 3D 지도를 생성 및 출력하는 지도 제공모듈;을 포함하는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
Precise location based optimized 3D map providing system,
A data input module for receiving a live image necessary for making a map and a plurality of map coordinate information stored for each live image from a data server;
An image analysis unit for filtering and analyzing the actual image to reconstruct the intermediate image, and calculating a detail level value of the intermediate image and performing allocation processing and rendering of polygons included in the intermediate image according to the detail level value 3 An image optimization module including an optimizer configured to generate a dimensional image and store it in the data server;
On a reference line which is one of a coordinate display unit for displaying the plurality of map coordinate information as a point on a road displayed in the three-dimensional image, and a plurality of lines connecting the points along an extension direction of the road. A road position correction module having a position alignment unit for aligning lane positions of roads displayed on the 3D image accordingly;
And a map providing module for generating and outputting a 3D map by combining a background image on the basis of the 3D image in which the lane positions are aligned. 3.
제 1항에 있어서,
상기 시스템은,
동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지 중에서 촬영 조건에 따라 특정 실사 이미지를 추출하여 대표 이미지로 선정한 다음 상기 데이터 서버에 저장 처리하는 이미지 선정모듈;을 추가로 포함하는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
The method of claim 1,
The system,
And an image selection module for extracting a specific photorealistic image from the plurality of photorealistic images photographed for the same region according to shooting conditions, selecting the representative photographic image, and storing the image in the data server. Map providing system.
제 2항에 있어서,
상기 이미지 선정모듈은,
동일 지역에 대해 복수 개로 촬영된 상기 실사 이미지를 대상으로 상기 실사 이미지의 촬영 조건에 따라 x축 및 y축을 정의하여 2차원 평면을 설정하는 평면 설정부와,
상기 실사 이미지를 상기 2차원 평면에 배치하기 위해 상기 실사 이미지의 이미지 좌표를 설정하는 좌표 설정부 및,
상기 이미지 좌표에 따라 상기 실사 이미지를 상기 2차원 평면에 배치하여 배치도를 생성하는 배치도 생성부와,
상기 이미지 좌표를 기반으로 상기 실사 이미지의 분산값을 파악한 후 상기 분산값을 확률변수로 지정하여 상기 확률변수를 2개씩 대상으로 공분산 행렬을 생성하는 행렬 생성부와,
상기 2차원 평면의 원점과 상기 이미지 좌표 간의 거리 및 상기 공분산 행렬을 기반으로 상기 실사 이미지 별로 분포 가중치를 산출하는 분포 가중치 산출부 및,
기 설정된 기준값을 초과하는 분포 가중치에 해당하는 배치도 상의 실사 이미지를 추출하여 대표 이미지로 선정하여 상기 데이터 서버에 저장하는 대표 이미지 추출부를 포함하는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
The method of claim 2,
The image selection module,
A plane setting unit configured to set a two-dimensional plane by defining an x-axis and a y-axis according to the shooting conditions of the live-action image with respect to the live-action image photographed in plural for the same area;
A coordinate setting unit for setting image coordinates of the actual image to arrange the actual image on the two-dimensional plane;
A layout generating unit for generating a layout by arranging the photo-realistic image on the two-dimensional plane according to the image coordinates;
A matrix generator configured to determine a variance of the actual image based on the image coordinates, and then designate the variance as a random variable and generate a covariance matrix for each of the random variables;
A distribution weight calculator configured to calculate a distribution weight for each real image based on a distance between the origin of the two-dimensional plane and the image coordinates and the covariance matrix;
And a representative image extracting unit for extracting a photorealistic image corresponding to a distribution weight value exceeding a preset reference value, selecting the representative image as a representative image, and storing the extracted representative image in the data server.
제 3항에 있어서,
상기 분포 가중치는,
다음의 수학식 1을 통해 산출되는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
수학식 1.
Figure 112019100607019-pat00047

(여기서,
Figure 112019100607019-pat00048
는 분포 가중치,
Figure 112019100607019-pat00049
은 상기 실사 이미지
Figure 112019100607019-pat00050
의 이미지 좌표.
Figure 112019100607019-pat00051
는 상기 배치도의 중심 좌표,
Figure 112019100607019-pat00052
는 상기 공분산 행렬)
The method of claim 3, wherein
The distribution weight is,
Optimized 3D map providing system, characterized in that calculated through the following equation (1).
Equation 1.
Figure 112019100607019-pat00047

(here,
Figure 112019100607019-pat00048
Is the distribution weight,
Figure 112019100607019-pat00049
Live action image
Figure 112019100607019-pat00050
Image coordinates.
Figure 112019100607019-pat00051
Is the center coordinate of the layout,
Figure 112019100607019-pat00052
Is the covariance matrix)
제 3항에 있어서,
상기 이미지 선정 모듈은,
상기 배치도 상에서 2개의 실사 이미지가 서로 중첩된 경우 중첩된 영역의 투명도를 제어하는 투명도 제어부를 포함하는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
The method of claim 3, wherein
The image selection module,
And a transparency controller configured to control transparency of the overlapped area when two photorealistic images overlap each other on the layout.
제 5항에 있어서,
상기 투명도는,
다음의 수학식 2를 통해 산출되는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
수학식 2.
Figure 112019108334799-pat00053

(여기서,
Figure 112019108334799-pat00054
는 투명도,
Figure 112019108334799-pat00055
은 2개의 실사 이미지가 서로 중첩된 영역의 기존 투명도,
Figure 112019108334799-pat00056
는 상기 중첩된 영역의 면적,
Figure 112019108334799-pat00057
는 실사 이미지의 픽셀 개수,
Figure 112019108334799-pat00058
은 중첩된 영역 n의 픽셀 개수, n은 상기 중첩된 영역에 부여된 인덱스, m은 상기 중첩된 영역의 총 개수이며,
Figure 112019108334799-pat00059
이다.)
The method of claim 5,
The transparency is,
Optimized 3D map providing system, characterized in that it is calculated through the following equation (2).
Equation 2.
Figure 112019108334799-pat00053

(here,
Figure 112019108334799-pat00054
The transparency,
Figure 112019108334799-pat00055
Is the existing transparency of an area where two photorealistic images overlap each other,
Figure 112019108334799-pat00056
Is the area of the overlapped area,
Figure 112019108334799-pat00057
Is the number of pixels in the photorealistic image,
Figure 112019108334799-pat00058
Is the number of pixels of the overlapped area n, n is the index given to the overlapped area, m is the total number of the overlapped areas,
Figure 112019108334799-pat00059
to be.)
제 1항에 있어서,
상기 이미지 최적화모듈은,
생성된 상기 3차원 이미지로부터 잔존 노이즈를 검출하고 제거하여 상기 3차원 이미지에 대한 보정을 수행하는 이미지 보정부를 더 포함하는 것을 특징으로 하는, 최적화 3D 지도 제공 시스템.
The method of claim 1,
The image optimization module,
And an image correction unit configured to detect and remove residual noise from the generated 3D image to perform correction on the 3D image.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190121720A 2019-10-01 2019-10-01 Precision-Location Based Optimized 3D Map Delivery System KR102041320B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121720A KR102041320B1 (en) 2019-10-01 2019-10-01 Precision-Location Based Optimized 3D Map Delivery System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121720A KR102041320B1 (en) 2019-10-01 2019-10-01 Precision-Location Based Optimized 3D Map Delivery System

Publications (1)

Publication Number Publication Date
KR102041320B1 true KR102041320B1 (en) 2019-11-06

Family

ID=68541817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121720A KR102041320B1 (en) 2019-10-01 2019-10-01 Precision-Location Based Optimized 3D Map Delivery System

Country Status (1)

Country Link
KR (1) KR102041320B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102309476B1 (en) * 2020-04-27 2021-10-06 주식회사 인포인 3D road map providing system including automatic lane generation interface
KR20220081753A (en) * 2020-12-09 2022-06-16 주식회사 맵퍼스 Method and system for matching information of 2d map with 3d map

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05118864A (en) * 1991-10-24 1993-05-14 Alpine Electron Inc Displaying method for running guide image of on-vehicle navigator
JPH07262492A (en) * 1994-03-25 1995-10-13 Alpine Electron Inc On-vehicle navigator
JP2011504248A (en) * 2007-11-16 2011-02-03 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for creating lane information
KR20120007094A (en) * 2010-07-08 2012-01-20 삼성전기주식회사 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
KR20120060173A (en) * 2012-01-09 2012-06-11 삼성전기주식회사 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
KR20140018083A (en) * 2010-01-06 2014-02-12 켄지 요시다 Curved surface body for information input, map for information input, and drawing for information input
KR20160020690A (en) * 2014-08-14 2016-02-24 이명익 Apparatus and method for generating 3D printing file using 2D image converting
KR20160146567A (en) * 2015-06-12 2016-12-21 신동한 Method and device for detecting variable and fast moving object
KR101913623B1 (en) * 2018-03-14 2018-10-31 주식회사 아이디어캐슬 A Method of Generating 3-Dimensional Advertisement Using Photographed Images
KR101976801B1 (en) * 2019-02-08 2019-05-09 주식회사 인포인 System Providing 3D Video Optimization And Compression
KR20190082129A (en) * 2017-12-29 2019-07-09 주식회사 이오이스 Apparatus and method for rendering 3dimensional image using video

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05118864A (en) * 1991-10-24 1993-05-14 Alpine Electron Inc Displaying method for running guide image of on-vehicle navigator
JPH07262492A (en) * 1994-03-25 1995-10-13 Alpine Electron Inc On-vehicle navigator
JP2011504248A (en) * 2007-11-16 2011-02-03 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for creating lane information
KR20140018083A (en) * 2010-01-06 2014-02-12 켄지 요시다 Curved surface body for information input, map for information input, and drawing for information input
KR20120007094A (en) * 2010-07-08 2012-01-20 삼성전기주식회사 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
KR20120060173A (en) * 2012-01-09 2012-06-11 삼성전기주식회사 Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
KR20160020690A (en) * 2014-08-14 2016-02-24 이명익 Apparatus and method for generating 3D printing file using 2D image converting
KR20160146567A (en) * 2015-06-12 2016-12-21 신동한 Method and device for detecting variable and fast moving object
KR20190082129A (en) * 2017-12-29 2019-07-09 주식회사 이오이스 Apparatus and method for rendering 3dimensional image using video
KR101913623B1 (en) * 2018-03-14 2018-10-31 주식회사 아이디어캐슬 A Method of Generating 3-Dimensional Advertisement Using Photographed Images
KR101976801B1 (en) * 2019-02-08 2019-05-09 주식회사 인포인 System Providing 3D Video Optimization And Compression

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102309476B1 (en) * 2020-04-27 2021-10-06 주식회사 인포인 3D road map providing system including automatic lane generation interface
KR20220081753A (en) * 2020-12-09 2022-06-16 주식회사 맵퍼스 Method and system for matching information of 2d map with 3d map
KR102484511B1 (en) 2020-12-09 2023-01-05 주식회사 맵퍼스 Method and system for matching information of 2d map with 3d map

Similar Documents

Publication Publication Date Title
US8179393B2 (en) Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
CN109883401B (en) Method and system for measuring visual field of city mountain watching
CN112085840B (en) Semantic segmentation method, semantic segmentation device, semantic segmentation equipment and computer readable storage medium
CN111629193A (en) Live-action three-dimensional reconstruction method and system
CN111737790B (en) Method and equipment for constructing simulated city model
CN112652065A (en) Three-dimensional community modeling method and device, computer equipment and storage medium
KR102041320B1 (en) Precision-Location Based Optimized 3D Map Delivery System
CN107170040A (en) A kind of three-dimensional bridge scenario building method and apparatus
CN114998545A (en) Three-dimensional modeling shadow recognition system based on deep learning
CN109115232A (en) The method and apparatus of navigation
CN112507891B (en) Method and device for automatically identifying high-speed intersection and constructing intersection vector
CN112258568B (en) High-precision map element extraction method and device
JP6730501B1 (en) Automatic plotting apparatus, automatic plotting method, and automatic plotting program
Deng et al. Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images
CN116962612A (en) Video processing method, device, equipment and storage medium applied to simulation system
CN113362458B (en) Three-dimensional model interpretation method for simulating multi-view imaging, terminal and storage medium
CN116012542A (en) Dynamic visualization method and device for earthquake disasters
CN113126944B (en) Depth map display method, display device, electronic device, and storage medium
JP7204087B2 (en) Object recognition device
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
KR102309476B1 (en) 3D road map providing system including automatic lane generation interface
CN113223146A (en) Data labeling method and device based on three-dimensional simulation scene and storage medium
KR101632070B1 (en) Earth surface image generation apparatus for simulation and the image storage method thereof
CN117078470B (en) BIM+GIS-based three-dimensional sign dismantling management system
CN117197211B (en) Depth image generation method, system, device and medium

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant