KR20170029286A - Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map - Google Patents

Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map Download PDF

Info

Publication number
KR20170029286A
KR20170029286A KR1020150126438A KR20150126438A KR20170029286A KR 20170029286 A KR20170029286 A KR 20170029286A KR 1020150126438 A KR1020150126438 A KR 1020150126438A KR 20150126438 A KR20150126438 A KR 20150126438A KR 20170029286 A KR20170029286 A KR 20170029286A
Authority
KR
South Korea
Prior art keywords
image
aerial
aerial image
winter
mask
Prior art date
Application number
KR1020150126438A
Other languages
Korean (ko)
Other versions
KR102506263B1 (en
Inventor
고석필
이기욱
변혜경
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020150126438A priority Critical patent/KR102506263B1/en
Publication of KR20170029286A publication Critical patent/KR20170029286A/en
Application granted granted Critical
Publication of KR102506263B1 publication Critical patent/KR102506263B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

An aerial image processing method is disclosed. The aerial image processing method comprises the steps of: receiving a winter aerial image and a non-winter aerial image; generating a mask image by detecting a green region in the non-winter aerial image; and generating a synthesis aerial image by synthesizing the generated mask image and the winter aerial image.

Description

항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 항공 지도를 이용하여 경로 안내를 수행하는 내비게이션 장치 및 서버{APPARATUS, METHOD, AND COMPUTER READABLE RECORDING MEDIUM FOR AERIAL IMAGE PROCESS, NAVIGATION APPARATUS AND SERVER FOR PATH GUIDE USING AERIAL MAP}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation apparatus and a server for performing route guidance using an aviation map, a computer readable recording medium on which a program for aviation image processing is recorded, AERIAL IMAGE PROCESS, NAVIGATION APPARATUS AND SERVER FOR PATH GUIDE USING AERIAL MAP}

본 발명은 항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 항공 영상을 이용하여 경로 안내를 수행하는 내비게이션 장치 및 서버에 관한 것이다. The present invention relates to an aviation image processing apparatus, an aviation image processing method, a computer readable recording medium on which a program for aviation image processing is recorded, a navigation apparatus and a server for performing route guidance using an aviation image.

현재 자동차 등 이동체의 수가 지속적으로 증가함에 따라 교통 혼잡이 가중되고 있으며, 이러한 이동체의 증가 속도가 도로와 같은 인프라가 확충되는 속도에 비하여 매우 빠르게 이루어지고 있어 교통 혼잡과 같은 문제의 심각성이 대두되고 있다.Currently, traffic congestion is increasing as the number of vehicles such as automobiles is continuously increasing, and the rate of increase of such vehicles is very fast compared with the speed of expansion of infrastructure such as roads, and the seriousness of problems such as traffic congestion is emerging .

이러한 상황에서 내비게이션 장치는 교통혼잡에 대한 해결책 중의 하나로 주목 받고 있다. 내비게이션 장치는 GPS(Global Positioning System)용 위성이 송신하는 항법 메시지를 수신하여 이동체의 현재 위치를 판단하고, 이동체의 현재 위치를 지도 데이터에 매칭시켜 화면에 표시할 뿐만 아니라 이동체의 현재 위치로부터 목적지까지의 주행 경로를 탐색한다. 또한, 내비게이션 장치는 상기 탐색한 주행 경로를 따라 사용자가 이동체를 주행시킬 수 있도록 안내함으로써 주어진 도로망을 효율적으로 사용할 수 있도록 하고 있다.In this situation, navigation devices are attracting attention as one of solutions to traffic congestion. The navigation device receives a navigation message transmitted by a GPS (Global Positioning System) satellite, judges the current position of the moving object, matches the current position of the moving object with the map data and displays it on the screen, Of the vehicle. In addition, the navigation device guides the user to travel the moving object along the travel route, thereby allowing the user to efficiently use the given road network.

통상 내비게이션 장치의 화면에 표시되는 지도는 수치 지도로써 수치화된 지도 데이터를 통해 2D 이미지를 기반으로 도로와 지형지물을 표시하거나, 지형 지물을 3D로 모델링하여 보다 사실적인 느낌을 갖도록 표시하고 있다.The map displayed on the screen of the navigation device normally displays roads and features based on the 2D images through the map data digitized by the digital map, or models the feature objects in 3D so as to have a more realistic feel.

최근에는 항공기에서 실제로 촬영한 항공 사진을 이용하여 경로 안내를 수행함으로써 실제 도로 상태 및 주변 상황을 정확하게 파악할 수 있도록 하는 방안이 제공되고 있다. 특히 항공 영상의 경우 정밀도가 높아짐에 따라 지도의 역할을 소화해 내고 있다. In recent years, there has been provided a method for accurately grasping actual road conditions and surrounding conditions by performing route guidance using aerial photographs actually taken on an airplane. Especially, in the case of aviation images, as the accuracy increases, the role of map is being extinguished.

그러나, 촬영 여건이 좋은 기상 상태에서 촬영된 항공 사진을 취득하기란 쉽지 않다. 특히, 최근에는 황사나 미세 먼지의 영향으로 쾌청 지수가 높은 촬영일 수는 점차 줄어들고 있기 때문에, 좋은 품질의 항공 사진을 취득하는 것은 더욱 어려워지고 있다. However, it is not easy to acquire aerial photographs taken in a weather condition with good photographing conditions. Especially in recent years, the number of shooting days with high clear indexes is gradually decreasing due to the influence of yellow dust or fine dust, so it becomes more difficult to obtain good quality aerial photographs.

따라서, 종래에는 일반적으로 항공 사진의 촬영을 동계 시기에 수행하였다. 그리고, 동계 시기가 지나 봄, 여름이 되면, 현재 시기에 적절한 항공 사진을 제공하기 위하여 이전 동계 시기에 촬영된 항공 영상에 수작업으로 녹지 영역을 합성하거나 또는 항공 사진의 재촬영을 수행하였다. 다만, 이 경우, 현재 시기에 적절한 항공 사진을 제공할 수 있으나, 많은 추가 비용이 발생한다는 문제점이 있었다. Therefore, conventionally, aerial photographing was generally performed in the winter season. Then, in order to provide aerial photographs suitable for the present time when the winter season passes by and in the summer, the green areas are synthesized manually or aerial photographs are taken on the aerial images photographed in the winter season. However, in this case, it is possible to provide appropriate aerial photographs at the current time, but there is a problem that a lot of additional costs are incurred.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하고, 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체를 제공함에 있다. SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned needs, and it is an object of the present invention to provide a method of generating a synthetic aerial image by synthesizing a mask image and a winter aerial image by detecting a green area in non- An aviation image processing apparatus, an aviation image processing method, and a program for aviation image processing.

또한, 본 발명의 다른 목적은 항공 영상 처리 방법에 따라 생성된 항공 지도를 기초로 경로 안내를 수행하는 내비게이션 장치 및 서버를 제공함에 있다.It is another object of the present invention to provide a navigation device and a server for performing route guidance based on an aerial map generated according to an aerial image processing method.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 항공 영상 처리 방법은, 동계 항공 영상과 비동계 항공 영상을 입력 받는 단계, 상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 단계 및 상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 단계를 포함한다.According to another aspect of the present invention, there is provided an aerial image processing method including receiving a winter aerial image and a non-winter aerial image, generating a mask image by detecting a green area in the non- And generating the synthetic aerial image by synthesizing the generated mask image and the winter aerial image.

그리고, 상기 마스크 영상을 생성하는 단계는, 상기 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 단계, 상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 단계 및 상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 단계를 포함할 수 있다. The step of generating the mask image may include the steps of converting the non-winter aerial image into an HSV (Hue Saturation Value) image, generating an S (Saturation) channel image and a V (Value) channel image of the HSV image, Detecting a green area based on the pixel value, and generating a first mask image using the detected green area.

또한, 상기 변환하는 단계는, 상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하는 단계 및 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 단계를 포함할 수 있다. Also, the converting may include generating at least one pixel value of R (Red), G (Green), and B (Blue) in the non-winter aerial image to generate a non-winter aerial image in which the green area is highlighted And converting the non-panoramic aerial image highlighted with the green area into an HSV (Hue Saturation Value) image.

그리고, 상기 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성하는 단계를 더 포함할 수 있다.The method may further include generating a second mask image by performing a Gaussian filter process on the first mask image.

또한, 상기 합성 항공 영상을 생성하는 단계는, 상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하는 단계 및 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여하여 합성하는 단계를 포함할 수 있다.In addition, the step of generating the synthetic aerial image may include calculating a ratio for pixel value adjustment for each of the winter aerial image and the mask image, and calculating a ratio for adjusting the pixel value based on the calculated winter aerial image and the mask aerial image, And weighting each of the mask images and synthesizing them.

그리고, 상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 단계를 더 포함할 수 있다.The method may further include generating an aerial map using a plurality of synthetic aerial images generated according to the aerial image processing method.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 동계 항공 영상과 비동계 항공 영상을 이용하여 항공 영상을 처리하는 항공 영상 처리 장치는, 상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 마스크 영상 생성부 및 상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 합성 항공 영상 생성부를 포함한다.According to another aspect of the present invention, there is provided an aviation image processing apparatus for processing an aerial image using a winter aerial image and a non-winter aerial image according to an embodiment of the present invention, A mask image generating unit for generating a mask image, and a synthetic aerial image generating unit for synthesizing the generated mask image and the winter aerial image to generate a synthetic aerial image.

그리고, 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 영상 변환부를 더 포함하고, 상기 마스크 영상 생성부는, 상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 녹지 영역 검출부 및 상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 제1 마스크 영상 생성부를 포함할 수 있다.The mask image generation unit may further include an image conversion unit for converting the non-winter aerial image into a HSV (Hue Saturation Value) image, wherein the mask image generation unit generates the mask image for each of the S (Saturation) channel image and the V A green area detecting unit for detecting a green area based on a predetermined pixel value and a first mask image generating unit for generating a first mask image using the detected green area.

또한, 상기 영상 변환부는, 상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하고, 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환할 수 있다.Also, the image converting unit may generate at least one pixel value of R (Red), G (Green), and B (Blue) in the non-winter aerial image to generate a non-winter aerial image highlighted with the green area, A non-winter aerial image highlighted with a green area can be converted into a HSV (Hue Saturation Value) image.

그리고, 상기 마스크 영상 생성부는, 상기 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성하는 제2 마스크 영상 생성부를 더 포함할 수 있다.The mask image generation unit may further include a second mask image generation unit that performs a Gaussian filter process on the first mask image to generate a second mask image.

또한, 상기 합성 항공 영상 생성부는, 상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하고, 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여할 수 있다.Also, the synthetic aerial image generating unit may calculate a ratio for adjusting the pixel values of the winter aerial image and the mask image, and calculate a ratio for each of the winter aerial image and the mask image based on the calculated ratio, Weighting can be given.

그리고, 상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 항공 지도 생성부를 더 포함할 수 있다.The navigation system may further include an aerial map generation unit that generates an aerial map using a plurality of synthetic aerial images generated according to the aerial image processing method.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 서버는 상술한 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 저장할 수 있다.According to another aspect of the present invention, there is provided a server for storing an aviation map generated by using the aviation image processing method.

그리고, 상기 서버에 접속한 내비게이션 장치에서 경로 안내가 요청되면, 상기 서버는 상기 저장된 항공 지도를 기초로 경로 안내 정보를 생성하고, 상기 생성된 경로 안내 정보를 상기 내비게이션 장치에 전송할 수 있다.When route guidance is requested in the navigation device connected to the server, the server generates route guidance information based on the stored aerial map, and transmits the generated route guidance information to the navigation device.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 내비게이션 장치는 상술한 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 기초로 경로 안내를 수행할 수 있다.According to another aspect of the present invention, there is provided a navigation apparatus for performing route guidance based on an aerial map generated using the aerial image processing method.

그리고, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록 매체는 상술한 항공 영상 처리 방법을 실행하기 위한 프로그램을 저장할 수 있다. According to another aspect of the present invention, there is provided a computer readable recording medium storing a program for executing the above-described method of processing an aviation image.

상술한 본 발명의 다양한 실시 예에 따르면, 지난 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하여 이용할 수 있다. 이에 따라, 동계 항공 영상에 녹지 영역을 합성하는 수작업 과정 또는 항공 영상의 재촬영 과정을 배제할 수 있어, 그에 따른 막대한 비용 소모를 방지할 수 있다. According to various embodiments of the present invention described above, the winter aerial image photographed in the last winter season can be automatically corrected to a non-winter aerial image suitable for non-winter time. Accordingly, it is possible to exclude a manual process of composing a green area or a re-photographing process of an aerial image on a winter aerial image, thereby avoiding a huge cost.

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 각 시기에 적합한 항공 지도를 이용하여 사용자에게 안내화면을 제공하여, 운전자에게 사실감 있는 정보와 안내를 제공할 수 있다.In addition, according to various embodiments of the present invention described above, it is possible to provide a guidance screen to a user by using an aerial map suitable for each period, and provide realistic information and guidance to the driver.

도 1은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 항공 영상 처리 방법을 나타내는 흐름도 이다.
도 4는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 마스크 영상 생성 과정을 나타내는 흐름도 이다.
도 5는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 합성 항공 영상의 생성 과정을 나타내는 흐름도 이다.
도 6a 내지 도 6b는 본 발명의 일 실시 예에 따른 비동계 항공 영상 및 동계 항공 영상을 나타내는 도면 이다.
도 7은 본 발명의 일 실시 예에 따른 제2 마스크 영상을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 합성 항공 영상을 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 내비게이션 장치를 나타내는 블록도 이다.
도 10은 본 발명의 일 실시 예에 따른 서버를 나타내는 블록도 이다.
도 11a는 본 발명의 일 실시 예에 따른 동계 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이고, 도 11b는 본 발명의 일 실시 예에 따른 항공 영상 처리 방법에 따라 생성된 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이다.
1 is a block diagram illustrating an aviation image processing apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating an aviation image processing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating an aerial image processing method of an aerial image processing apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a process of generating a mask image of an aerial image processing apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating a process of generating a synthetic aerial image of an aerial image processing apparatus according to an embodiment of the present invention.
6A and 6B are views showing a non-winter aerial image and a winter aerial image according to an embodiment of the present invention.
7 is a diagram illustrating a second mask image according to an embodiment of the present invention.
8 is a view showing a synthetic aerial image according to an embodiment of the present invention.
9 is a block diagram illustrating a navigation device according to an embodiment of the present invention.
10 is a block diagram illustrating a server according to an embodiment of the present invention.
FIG. 11A is a view showing a route guidance screen using a winter aerial map according to an embodiment of the present invention, FIG. 11B is a view showing a route guidance screen using an aerial map generated according to an aerial image processing method according to an embodiment of the present invention, Fig.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 나타내는 블록도 이다. 도 2는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다. 1 is a block diagram illustrating an aviation image processing apparatus according to an embodiment of the present invention. 2 is a block diagram illustrating an aviation image processing apparatus according to an embodiment of the present invention.

도 1 내지 2를 참조하면, 항공 영상 처리 장치(10)는 영상 변환부(11), 마스크 영상 생성부(12), 합성 항공 영상 생성부(13), 항공 지도 생성부(14)의 전부 또는 일부를 포함할 수 있다. 마스크 영상 생성부(12)는 녹지 영역 검출부(15), 제1 마스크 영상 생성부(16), 제2 마스크 영상 생성부(17)의 전부 또는 일부를 포함할 수 있다.1 and 2, an aerial image processing apparatus 10 includes an image conversion unit 11, a mask image generation unit 12, a synthetic aerial image generation unit 13, an air map generation unit 14, Some may be included. The mask image generating unit 12 may include all or part of the green area detecting unit 15, the first mask image generating unit 16, and the second mask image generating unit 17.

이러한, 항공 영상 처리 장치(10)는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하고, 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성하며, 복수의 합성 항공 영상을 이용하여 항공 지도를 생성할 수 있다. 여기서, 항공 영상 처리 장치(10)는 각종 전자 장치에 구비되어 입력 영상을 처리하는 이미지 프로세서(Image Processor)로 구현될 수 있다. The aerial image processing apparatus 10 generates a mask image by detecting a green area in a non-winter aerial image, synthesizes the mask image and the winter aerial image to generate a synthetic aerial image, Can be used to generate an aerial map. Here, the aviation image processing apparatus 10 may be implemented as an image processor (image processor) provided in various electronic apparatuses for processing an input image.

이러한, 항공 영상 처리 장치(10)의 영상 처리는 동계 항공 영상과 비동계 항공 영상을 입력 받아 수행될 수 있다. The image processing of the aviation image processing apparatus 10 can be performed by receiving the winter aerial image and the non-winter aerial image.

동계 항공 영상은 동계 시기에 항공기 등을 타고 공중에서 지표를 촬영한 영상으로, 일 예로, 동계 시기는 12 ~ 2월의 시기일 수 있다. 이러한 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않아, 이에 따라 동계 항공 영상에서 녹지에 대응되는 영역은 검정에 가까운 어두운 색으로 표출될 수 있다. The winter aerial image is an image of an indicator taken in the air in an airplane during the winter season. For example, the winter season may be in the period from December to February. In this winter season, there is not much greenery in mountains and forests, so that the area corresponding to greenery in the winter aerial image can be expressed in dark color close to black.

비동계 항공 영상은 비동계 시기에 항공기 등을 타고 공중에서 지표를 촬영한 영상으로, 일 예로, 비동계 시기는 3 ~ 11월의 시기일 수 있다. 이러한 비동계 시기에는 산이나 숲 등에 녹지가 많이 존재하여, 비동계 항공 영상에서 녹지에 대응되는 영역은 녹색에 가까운 색으로 표출될 수 있다. The non-winter aerial image is an image of an airborne terrestrial image taken on an airplane during non-winter time. For example, the non-winter time may be from November to November. In this non-winter period, there are many green areas such as mountains and forests, and areas corresponding to green areas in non-winter aerial images can be expressed in a color close to green.

따라서, 동계 시기가 지나 비동계 시기가 되면, 종래에는 이전 동계 시기에 촬영된 항공 영상에 수작업으로 녹지 영역을 합성하여 이용하거나, 또는 항공 영상을 재촬영하여 이용하였고, 이에 따라 큰 비용이 발생하는 문제점이 있었다. Therefore, when the winter season passes the non-winter season, conventionally, the green area is manually combined with the aerial image photographed in the winter season, or the aerial image is taken again, There was a problem.

이를 해결하기 위하여 본 발명의 일 실시 예에 따른 항공 영상 처리 장치(10)는 자동으로 동계 항공 영상에 녹지 영역을 합성하는 영상 처리를 수행할 수 있다. 구체적으로, 항공 영상 처리 장치(10)는 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하는 영상 처리를 수행할 수 있다. In order to solve this problem, the aviation image processing apparatus 10 according to an embodiment of the present invention can automatically perform image processing for synthesizing a green area in a winter aerial image. Specifically, the aerial image processing apparatus 10 can perform image processing for automatically correcting the winter aerial image photographed in the winter time period to a non-winter aerial image suitable for non-winter time.

구체적으로, 영상 변환부(11)는 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환할 수 있다. 예를 들어, 항공 영상 처리 장치(10)에 입력된 동계 항공 영상과 비동계 항공 영상은 RGB(Red Green Blue Color) 색 공간에서 정의되는 RGB 영상일 수 있다. 이 경우, 영상 변환부(11)는 RGB 색 공간을 다른 색 공간, 이를테면 HSV(Hue Saturation Value) 공간으로 변환하여 비동계 항공 영상의 칼라 값을 다시 정의할 수 있다. Specifically, the image converting unit 11 may convert the non-winter aerial image into a HSV (Hue Saturation Value) image. For example, the winter aerial image and the non-winter aerial image input to the aviation image processing apparatus 10 may be RGB images defined in the RGB (Red Green Blue Color) color space. In this case, the image converting unit 11 may convert the RGB color space to another color space, such as HSV (Hue Saturation Value) space, to redefine the color value of the non-winter aerial image.

또한, 영상 변환부(11)는 비동계 항공 영상을 기초로 생성될 마스크 영상에서 녹지 영역이 더욱 강조되도록 비동계 항공 영상에 포함된 녹지 영역을 강조 처리할 수 있다. 구체적으로 영상 변환부(11)는 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 녹지 영역이 강조된 비동계 항공 영상을 생성할 수 있다. 예를 들어, 영상 변환부(11)는 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 G(Green)의 픽셀 값을 다른 색상의 픽셀 값보다 키울 수 있다. Also, the image converting unit 11 can emphasize the green area included in the non-winter aerial image so that the green area is more emphasized in the mask image to be generated based on the non-winter aerial image. Specifically, the image converting unit 11 may generate at least one pixel value of R (Red), G (Green), and B (Blue) in the non-winter aerial image to generate a non-winter aerial image highlighted with a green area . For example, the image converting unit 11 may increase pixel values of G (Green) among R (Red), G (Green), and B (Blue)

다만, 상술한 예시는 본 발명의 일 실시 예일 뿐, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 입력 항공 영상 및 변환 영상은 sRGB (super RGB), CMYK(Cyan Magenta Yellow Black), HSB(Hue Saturation Brightness)등 다른 색 공간의 영상으로 구현될 수도 있다. 이하에서는 설명의 편의를 위하여 입력 항공 영상은 RGB 영상이고, 영상 변환부(11)에서 변환된 영상은 HSV 영상인 경우를 예로 설명하기로 한다. However, the above-described exemplary embodiments are only examples of the present invention, and the present invention is not limited thereto. For example, the input aerial image and the converted image may be implemented as images of different color spaces such as sRGB (super RGB), Cyan Magenta Yellow Black (CMYK), and Hue Saturation Brightness (HSB). Hereinafter, for convenience of explanation, the input aerial image is an RGB image, and the image converted by the image converting unit 11 is an HSV image.

마스크 영상 생성부(12)는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성할 수 있다. 이러한 마스크 영상 생성부(12)는 녹지 영역 검출부(15), 제1 마스크 영상 생성부(16), 제2 마스크 영상 생성부(17)를 포함할 수 있다. The mask image generating unit 12 may generate a mask image by detecting a green area in the non-winter aerial image. The mask image generating unit 12 may include a green area detecting unit 15, a first mask image generating unit 16, and a second mask image generating unit 17.

녹지 영역 검출부(15)는 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출할 수 있다. 구체적으로 녹지 영역 검출부(15)는 S(Saturation) 채널 영상에서 제1 픽셀 값 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 제2 픽셀 값 이하의 픽셀을 검출하며, 검출된 픽셀들의 앤드(AND) 연산을 수행하여 녹지 영역을 검출할 수 있다. 예를 들어, 녹지 영역 검출부(15)는 S(Saturation) 채널 영상에서 그레이 레벨 80 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 그레이 레벨 100 이하의 픽셀을 검출하며, 검출된 픽셀들을 기초로 녹지 영역을 검출할 수 있다. The green zone detection unit 15 can detect a green zone based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image. Specifically, the green area detecting unit 15 detects a pixel having a first pixel value or more in the S (Saturation) channel image, detects a pixel below the second pixel value in the V (Value) channel image, AND) operation to detect a green area. For example, the green area detection unit 15 detects pixels of gray level 80 or more in the S (Saturation) channel image, detects pixels of gray level 100 or less in the V (Value) channel image, A green area can be detected.

그리고, 제1 마스크 영상 생성부(16)는 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성할 수 있다. 여기서, 제1 마스크 영상은 비동계 항공 영상에서 상기 녹지 영역을 분리하여 타 이미지에 합성하는데 쓰는 이미지일 수 있다. The first mask image generator 16 may generate the first mask image using the detected green area. Here, the first mask image may be an image for separating the green area from the non-winter aerial image and synthesizing the green area into other images.

그리고, 제2 마스크 영상 생성부(17)는 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성할 수 있다. 여기서, 제2 마스크 영상은 제1 마스크 영상에 가우시안 필터를 적용하여 테두리를 부드럽게 만든 영상일 수 있다. The second mask image generating unit 17 may generate a second mask image by performing a Gaussian filter process on the first mask image. Here, the second mask image may be an image obtained by applying a Gaussian filter to the first mask image to smooth the border.

한편, 합성 항공 영상 생성부(13)는 마스크 영상 생성부(12)에서 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성할 수 있다. 여기서, 마스크 영상은 제1 마스크 영상 생성부(16)에서 생성된 제1 마스크 영상 또는 제2 마스크 영상 생성부(17)에서 생성된 제2 마스크 영상일 수 있다.Meanwhile, the synthetic aerial image generating unit 13 may synthesize the mask image and the winter aerial image generated by the mask image generating unit 12 to generate a synthetic aerial image. Here, the mask image may be the first mask image generated by the first mask image generating unit 16 or the second mask image generated by the second mask image generating unit 17.

이 경우, 합성 항공 영상 생성부(13)는 동계 항공 영상과 마스크 영상 생성부(12)에서 생성된 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출할 수 있다. 그리고, 합성 항공 영상 생성부(13)는 산출된 비율을 기초로 동계 항공 영상과 제2 마스크 영상 각각에 가중치를 부여하여 합성할 수 있다.In this case, the synthetic aerial image generating unit 13 may calculate a ratio for adjusting the pixel values of the winter aerial image and the mask image generated by the mask image generating unit 12, respectively. Then, the synthetic aerial image generating unit 13 may weight each of the winter aerial image and the second mask image based on the calculated ratio, and combine them.

예를 들어, 합성 항공 영상 생성부(13)는 아래와 수학식 1을 이용하여 합성 항공 영상을 생성할 수 있다. For example, the synthetic aerial image generating unit 13 can generate a synthetic aerial image using Equation 1 below.

[수학식1][Equation 1]

ratio = (c) / 128ratio = (c) / 128

(d) = (c) x ratio + (a) x (1 - ratio)(d) = (c) x ratio + (a) x (1 - ratio)

여기서, ratio는 비율, a는 동계 항공 영상의 픽셀 값, c는 마스크 영상의 픽셀 값, d는 합성 항공 영상의 픽셀 값일 수 있다.Here, ratio is a ratio, a is a pixel value of a winter aerial image, c is a pixel value of a mask image, and d is a pixel value of a synthetic aerial image.

한편, 항공 지도 생성부(14)는 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성할 수 있다. 구체적으로, 항공 지도 생성부(14)는 복수의 합성 항공 영상 각각을 연결하여 항공 지도를 생성할 수 있다. On the other hand, the aerial map generating unit 14 can generate an aerial map using a plurality of synthetic aerial images generated according to the aerial image processing method. Specifically, the aerial map generation unit 14 may generate an aerial map by connecting each of the plurality of synthetic aerial images.

이러한 도 1 내지 2의 항공 영상 처리 장치의 항공 영상 처리 방법에 대해서는 도 3 내지 7을 참조하여 보다 구체적으로 설명하기로 한다.The aerial image processing method of the aerial image processing apparatus of FIGS. 1 and 2 will be described in more detail with reference to FIGS.

도 3은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 항공 영상 처리 방법을 나타내는 흐름도 이다. 도 3을 참조하면, 먼저 항공 영상 처리 장치(10)는 동계 항공 영상과 비동계 항공 영상을 입력받을 수 있다(S101). 여기서, 동계 항공 영상과 비동계 항공 영상에 대해서는 도 6을 참조하여 구체적으로 설명하기로 한다.3 is a flowchart illustrating an aerial image processing method of an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 3, the aerial image processing apparatus 10 can receive the winter aerial image and the non-winter aerial image (S101). Here, the winter aerial image and the non-winter aerial image will be described in detail with reference to FIG.

도 6a는 본 발명의 일 실시 예에 따른 동계 항공 영상, 도 6b는 본 발명의 일 실시 예에 따른 비동계 항공 영상을 나타내는 도면 이다. 도 6a를 참조하면, 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않기 때문에, 동계 항공 영상에서 산이나 숲 등은 어둡게 표출될 수 있다. 다만, 도 6b를 참조하면, 비동계 시기에는 산이나 숲 등에 녹지가 많이 존재하기 때문에, 비동계 항공 영상에서 산이나 숲 등은 녹색으로 밝게 표출될 수 있다.FIG. 6A is a winter aerial image according to an embodiment of the present invention, and FIG. 6B is a diagram illustrating a non-winter aerial image according to an embodiment of the present invention. Referring to FIG. 6A, since there are not many green spots in mountains or forests in the winter season, mountains and forests can be darkly displayed in the winter aerial image. However, referring to FIG. 6B, since green peaks are present in mountains and forests during the non-winter season, mountains and forests can be brightly colored in non-winter aerial images.

한편, 동계 항공 영상과 비동계 항공 영상이 입력되면, 항공 영상 처리 장치는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성할 수 있다(S102). 이러한 마스크 영상의 생성 동작에 대해서는 도 4를 참조하여 구체적으로 설명하기로 한다.On the other hand, if the winter aerial image and the non-winter aerial image are inputted, the aerial image processing apparatus can detect the green area in the non-winter aerial image to generate the mask image (S102). The operation of generating such a mask image will be described in detail with reference to FIG.

도 4는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 마스크 영상 생성 과정을 나타내는 흐름도 이다. 도 4를 참조하면, 항공 영상 처리 장치(10)는 비동계 항공 영상에서 녹지 영역의 강조를 위하여 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정할 수 있다(S201).4 is a flowchart illustrating a process of generating a mask image of an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 4, the aerial image processing apparatus 10 may adjust at least one pixel value of R (Red), G (Green), and B (Blue) for emphasizing a green area in a non-winter aerial image S201).

그리고, 항공 영상 처리 장치(10)는 비동계 항공 영상을 HSV 영상으로 변환할 수 있다(S202). 구체적으로, 항공 영상 처리 장치(10)는 RGB 색 공간을 HSV 공간으로 변환하여 RGB 영상에 대응되는 비동계 항공 영상을 HSV 영상으로 변환할 수 있다.Then, the aerial image processing apparatus 10 can convert the non-panoramic aerial image into the HSV image (S202). Specifically, the aviation image processing apparatus 10 converts the RGB color space into the HSV space, and converts the non-winter aerial image corresponding to the RGB image into the HSV image.

그리고, 항공 영상 처리 장치(10)는 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출할 수 있다(S203). 구체적으로 항공 영상 처리 장치(10)는 S(Saturation) 채널 영상에서 제1 픽셀 값 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 제2 픽셀 값 이하의 픽셀을 검출하며, 검출된 픽셀들의 앤드(AND) 연산을 수행하여 녹지 영역을 검출할 수 있다. Then, the aviation image processing apparatus 10 can detect a green area based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image (S203). Specifically, the aviation image processing apparatus 10 detects a pixel of a first pixel value or more in a saturation channel image, detects a pixel of a second pixel value or less in a V (Value) channel image, (AND) operation to detect a green area.

그리고, 항공 영상 처리 장치(10)는 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성할 수 있다(S204). Then, the aerial image processing apparatus 10 can generate the first mask image using the detected green area (S204).

그리고, 항공 영상 처리 장치(10)는 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성할 수 있다(S205). 여기서, 제2 마스크 영상은 제1 마스크 영상에 가우시안 필터를 적용하여 테두리를 부드럽게 만든 영상일 수 있다. 이러한 제2 마스크 영상에 대해서는 도 7을 참조하여 구체적으로 설명하기로 한다.Then, the aerial image processing apparatus 10 may generate a second mask image by performing a Gaussian filter process on the first mask image (S205). Here, the second mask image may be an image obtained by applying a Gaussian filter to the first mask image to smooth the border. The second mask image will be described in detail with reference to FIG.

도 7은 본 발명의 일 실시 예에 따른 제2 마스크 영상을 나타내는 도면이다. 도 7을 참조하면, 제2 마스크 영상은 도 6b에 도시된 비동계 항공 영상에서 검출된 녹지 영역(도 7의 녹색 부분)과 그외 영역(도 7의 검은색 부분)을 포함하여 구성될 수 있다. 이에 따라 제2 마스크 영상은 타 이미지에 합성하는데 이용될 수 있다. 7 is a diagram illustrating a second mask image according to an embodiment of the present invention. Referring to FIG. 7, the second mask image may be configured to include a green area (the green part in FIG. 7) and another area (the black part in FIG. 7) detected in the non-panoramic aerial image shown in FIG. 6B . Accordingly, the second mask image can be used to synthesize other images.

한편, 도 3의 S102 단계에 이어서 항공 영상 처리 장치(10)는 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성할 수 있다(S103). 이러한 합성 항공 영상의 생성 과정에 대해서는 도 5를 참조하여 구체적으로 설명하기로 한다.Meanwhile, following step S102 of FIG. 3, the aerial image processing apparatus 10 may synthesize the mask image and the winter aerial image to generate a synthetic aerial image (S103). The process of generating such a synthetic aerial image will be described in detail with reference to FIG.

도 5는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 합성 항공 영상의 생성 과정을 나타내는 흐름도 이다. 도 5를 참조하면, 항공 영상 처리 장치는 동계 항공 영상과 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출할 수 있다(S301). 여기서, 상기 비율은 상기 마스크 영상을 구성하는 복수의 픽셀들 각각의 픽셀 값을 특정 값으로 나눔으로써 픽셀 각각에 대하여 산출될 수 있다. 5 is a flowchart illustrating a process of generating a synthetic aerial image of an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 5, the aerial image processing apparatus may calculate a ratio for adjusting a pixel value for each of the winter aerial image and the mask image (S301). Here, the ratio may be calculated for each pixel by dividing the pixel value of each of the plurality of pixels constituting the mask image by a specific value.

그리고, 항공 영상 처리 장치는 산출된 비율을 기초로 동계 항공 영상과 마스크 영상 각각에 가중치를 부여하여 합성할 수 있다(S302). 이러한 동작에 따라 생성되는 합성 항공 영상에 대해서는 도 8을 참조하여 구체적으로 설명하기로 한다. Then, the aerial image processing apparatus can combine the winter aerial image and the mask image by assigning weights to each of them based on the calculated ratio (S302). The synthetic aerial image generated according to such an operation will be described in detail with reference to FIG.

도 8은 본 발명의 일 실시 예에 따른 합성 항공 영상을 나타내는 도면 이다. 즉, 도 8은 도 7의 마스크 영상과 도 6a의 동계 항공 영상을 합성하여 생성될 수 있다. 도 8을 참조하면, 합성 항공 영상은 도 6a에 도시된 합성 전의 동계 항공 영상과 달리 녹지 영역을 포함할 수 있다. 8 is a view showing a synthetic aerial image according to an embodiment of the present invention. That is, FIG. 8 can be generated by synthesizing the mask image of FIG. 7 and the winter aerial image of FIG. 6A. Referring to FIG. 8, the synthetic aerial image may include a green area, unlike the winter aerial image before synthesis shown in FIG. 6A.

따라서, 본 발명의 영상 처리 방법을 이용하면, 지난 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하여 이용할 수 있다. 이에 따라, 동계 항공 영상에 녹지 영역을 합성하는 수작업 과정 또는 항공 영상의 재촬영 과정을 배제할 수 있어, 그에 따른 막대한 비용 소모를 방지할 수 있다. Therefore, by using the image processing method of the present invention, it is possible to automatically correct the winter aerial image photographed in the last winter season to a non-winter aerial image suitable for the winter season. Accordingly, it is possible to exclude a manual process of composing a green area or a re-photographing process of an aerial image on a winter aerial image, thereby avoiding a huge cost.

도 9는 본 발명의 일 실시 예에 따른 내비게이션 장치를 나타내는 블록도 이다. 도 9를 참조하면, 내비게이션 장치(100)는 저장부(110), 입력부(120), 출력부(130), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.9 is a block diagram illustrating a navigation device according to an embodiment of the present invention. 9, the navigation device 100 includes a storage unit 110, an input unit 120, an output unit 130, a control unit 170, a communication unit 180, a sensing unit 190, and a power unit 195 Including all or part of them.

여기서, 내비게이션 장치(100)는 운행 상태에 있는 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the navigation device 100 may be a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), a smart glass, Project glass, navigation, black-box, and the like, and may be provided in a vehicle.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. The driving-related guidance may include various guidance for assisting the driving of the driver, such as route guidance, lane departure guidance, forward vehicle departure guidance, traffic light change guidance, forward vehicle collision prevention guide, lane change guidance,

여기서, 경로 안내는, 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. Here, the route guidance may include an augmented reality route guide for performing route guidance by combining various information such as the location and direction of a user to an image taken in front of a vehicle in operation, a 2D (2-Dimensional) or 3D (3-Dimensional (2-Dimensional) or 3D (3-Dimensional) route guidance for performing route guidance by combining various information such as a user's location, direction, and the like to map data of the user.

뿐만 아니라, 경로 안내는 항공 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 항공 지도 경로 안내를 포함할 수 있다. 여기서, 경로 안내는, 사용자가 차량에 탑승하여 운전하는 경우뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. In addition, the route guidance may include an aerial map route guide for performing route guidance by combining various information such as the user's location, direction, and the like in the aerial map data. Here, the route guidance can be interpreted not only as a case in which the user rides on the vehicle but also includes a route guidance in the case where the user moves or jumps.

또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. Further, the lane departure guidance may be to guide whether or not the vehicle being driven has departed from the lane.

또한, 전방 차량 출발 안내는, 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the forward vehicle departure guidance may be to guide the departure of the vehicle located in front of the vehicle being stopped.

또한, 신호등 변경 안내는, 정차 중인 차량의 전방에 위치한 신호등의 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간 신호등이 켜진 상태에서 출발 신호를 나타내는 파란 신호등으로 변경되면, 이를 안내하는 것 일 수 있다. Further, the traffic light change guidance may be to guide the change of the traffic light located in front of the vehicle being stopped. For example, when the red signal lamp indicating the stop signal is turned on and the blue signal lamp indicating the start signal is changed, it may be guided.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. The front vehicle collision avoidance guidance may be to guide the vehicle to avoid a collision with the preceding vehicle when the distance to the vehicle located in front of the stopped or running vehicle is within a certain distance.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. In addition, the lane change guidance may be for guiding the change from the lane where the vehicle is located to another lane for guiding the route to the destination.

또한, 차로 안내는 차량이 현재 위치한 차로를 안내하는 것일 수 있다. Also, the lane guidance may be to guide the lane where the vehicle is currently located.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 내비게이션 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. Such driving-related images, such as the forward image of the vehicle, which enables the provision of various guides, can be photographed from a camera mounted on the vehicle. Here, the camera may be a camera that is integrally formed with the navigation device 100 mounted on the vehicle and photographs the front of the vehicle.

다른 예로, 카메라는 내비게이션 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 내비게이션 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력 받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 내비게이션 장치(100)에 삽입되면, 내비게이션 장치(100)는 촬영 영상을 입력 받을 수 있다. As another example, the camera may be a camera that is mounted on the vehicle separately from the navigation device 100 and photographs the front of the vehicle. In this case, the camera may be a separate black box mounted toward the front of the vehicle, and the navigation device 100 may receive the photographed image through wired / wireless communication with the separately mounted black box, When the storage medium to be stored is inserted into the navigation device 100, the navigation device 100 can receive a photographed image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 내비게이션 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the navigation device 100 according to an embodiment of the present invention will be described in more detail based on the above description.

저장부(110)는 내비게이션 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 내비게이션 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한, 저장부(110)는 내비게이션 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The storage unit 110 stores various data and applications required for the operation of the navigation device 100. [ In particular, the storage unit 110 may store data necessary for the operation of the navigation device 100, for example, an OS, a route search application, map data, and the like. In addition, the storage unit 110 may store data generated by the operation of the navigation device 100, for example, the detected route data, the received image, and the like.

또한, 저장부(110)는 항공 지도 경로 안내를 위한 항공 지도를 저장할 수 있다. 여기서, 저장부(110)는 전체의 항공 지도를 미리 획득하여 저장할 수 있다. 또는, 저장부(110)는 내비게이션 장치(100)의 현재 위치에 대응되는 항공 지도를 서버(200)로부터 실시간으로 수신하여 저장할 수 있다. In addition, the storage unit 110 may store an aerial map for aerial map guidance. Here, the storage unit 110 may acquire and store the entire air map in advance. Alternatively, the storage unit 110 may receive and store an aerial map corresponding to the current position of the navigation device 100 from the server 200 in real time.

이러한 항공 지도는 상술한 도 1 내지 8의 합성 항공 영상을 기초로 생성된 지도일 수 있다. 구체적으로, 항공 지도는 도 1 내지 8의 과정에 따라 생성된 복수의 합성 항공 영상을 연결하여 생성될 수 있다. Such an aerial map may be a map generated based on the synthetic aerial image of Figs. 1 to 8 described above. Specifically, the aerial map can be generated by connecting a plurality of synthetic aerial images generated according to the procedures of FIGS. 1 to 8.

이러한 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 110 may be implemented as a random access memory (RAM), a flash memory, a ROM, an erasable programmable ROM (EPROM), an electronically erasable and programmable ROM (EEPROM), a register, a hard disk, Card, a Universal Subscriber Identity Module (USIM), or the like, as well as a detachable type storage device such as a USB memory.

입력부(120)는 내비게이션 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the navigation device 100 into a specific electric signal. Here, the input unit 120 may include all or some of the user input unit 121 and the microphone unit 123.

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 can receive user inputs such as touch, push operation, and the like. The user input unit 120 may be implemented using at least one of various types of buttons, a touch sensor for receiving a touch input, and a proximity sensor for receiving a motion to be accessed.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 can receive the user's voice and the sound generated from the inside and the outside of the vehicle.

출력부(130)는 내비게이션 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device for outputting the data of the navigation device 100. Here, the output unit 130 may include all or a part of the display unit 131 and the audio output unit 133.

디스플레이부(131)는 내비게이션 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 내비게이션 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 내비게이션 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 내비게이션 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that the navigation device 100 can visually recognize. The display unit 131 may be implemented as a display unit provided on the front surface of the housing of the navigation device 100. The display unit 131 may be integrally formed with the navigation device 100 to output visual recognition data. The display unit 131 may be installed separately from the navigation device 100 such as a HUD (Head Up Display) You may.

오디오 출력부(133)는 내비게이션 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 내비게이션 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device that outputs data that the navigation device 100 can perceive audibly. The audio output unit 133 may be implemented as a speaker for expressing sound data to be notified to the user of the navigation device 100.

통신부(180)는 내비게이션 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181), 무선 인터넷부(183), 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The communication unit 180 may be provided for the navigation device 100 to communicate with other devices. The communication unit 180 includes all or a part of the location data unit 181, the wireless Internet unit 183, the broadcast transmission / reception unit 185, the mobile communication unit 186, the short range communication unit 187, and the wired communication unit 189 can do.

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 내비게이션 장치(100)의 위치 데이터부(181)는, 내비게이션 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The position data section 181 is a device for acquiring position data through a Global Navigation Satellite System (GNSS). GNSS means a navigation system capable of calculating the position of a receiving terminal using a radio signal received from a satellite. A specific example of GNSS is a GPS (Global Positioning System), a Galileo, a GLONASS (Global Orbiting Navigational Satellite System), a COMPASS, an Indian Regional Navigational Satellite System (IRNSS), a Quasi-Zenith Satellite System . The position data portion 181 of the navigation device 100 according to an embodiment of the present invention may receive the GNSS signal serviced in the area where the navigation device 100 is used and obtain position data.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The wireless Internet unit 183 is a device that connects to the wireless Internet to acquire or transmit data. The wireless Internet accessable through the wireless Internet unit 183 may be a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), or a high speed downlink packet access (HSDPA).

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transmitting and receiving unit 185 is a device for transmitting and receiving broadcast signals through various broadcasting systems. The broadcasting system that can transmit and receive through the broadcasting transmission and reception unit 185 is a digital broadcasting system such as DMBT (Digital Multimedia Broadcasting Terrestrial), DMBS (Digital Multimedia Broadcasting Satellite), MediaFLO (Media Forward Link Only), DVBH (Digital Video Broadcast Handheld) Integrated Services Digital Broadcast Terrestrial) and the like. The broadcast signal transmitted / received through the broadcast transmission / reception unit 185 may include traffic data, living data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The mobile communication unit 186 can access and communicate with a mobile communication network according to various mobile communication standards such as 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE)

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-range communication unit 187 is a device for short-range communication. As described above, the short-range communication unit 187 is a communication unit that transmits and receives data via Bluetooth, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), an Ultra WidBand (UWB), a ZigBee, -Fi (Wireless-Fidelity) or the like.

유선 통신부(189)는 내비게이션 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device capable of wiredly connecting the navigation device 100 to another device. The wired communication unit 119 may be a USB module capable of communicating via a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of the location data unit 181, the wireless Internet unit 183, the broadcast transmission / reception unit 185, the mobile communication unit 186, the short-range communication unit 187, and the wired communication unit 189 To communicate with other devices.

일 예로, 내비게이션 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the navigation device 100 does not include a camera function, an image photographed by a vehicle camera such as a black box or the like can be received using at least one of the short-range communication unit 187 and the wired communication unit 189. [

다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, in the case of communicating with a plurality of devices, either one may communicate with the short-range communication unit 187 and the other may communicate via the wired communication unit 119. [

센싱부(190)는 내비게이션 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of sensing the current state of the navigation device 100. The sensing unit 190 may include all or some of the motion sensing unit 191 and the optical sensing unit 193.

모션 센싱부(191)는 내비게이션 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 궤적을 보다 정확하게 산출할 수 있다.The motion sensing unit 191 can sense movement of the navigation device 100 in a three-dimensional space. The motion sensing unit 191 may include a three-axis geomagnetic sensor and a three-axis acceleration sensor. The motion data acquired through the motion sensing unit 191 can be combined with the position data acquired through the position data unit 181 to more accurately calculate the locus of the vehicle to which the electronic device 100 is attached.

광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The optical sensing unit 193 is a device for measuring the ambient illuminance of the electronic device 100. The brightness of the display unit 131 can be changed to correspond to the surrounding brightness by using the illuminance data acquired through the optical sensing unit 193. [

전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 내비게이션 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device for supplying power necessary for operation of the electronic device 100 or operation of another device connected to the electronic device 100. [ The power supply unit 195 may be a battery built in the navigation device 100, or a device that receives power from an external power source such as a vehicle. The power supply unit 195 may be implemented as a wired communication module 119 according to the type of the power supply, or may be implemented as a wirelessly supplied device.

제어부(170)는 내비게이션 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다. The control unit 170 controls the overall operation of the navigation device 100. More specifically, the control unit 170 controls all or a part of the storage unit 110, the input unit 120, the output unit 130, the control unit 170, the communication unit 180, the sensing unit 190, can do.

특히, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 저장부(110)에 기저장된 항공 지도를 이용하여 목적지까지의 경로 안내를 수행하도록 제어할 수 있다. In particular, when the destination information is input through the input unit 120, the controller 170 can control the route guidance to the destination using the air map pre-stored in the storage unit 110.

또는, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 현재 위치 정보, 목적지 정보 중 적어도 하나를 포함하는 경로 안내 요청을 서버(200)에 전송할 수 있다. 그리고, 상기 경로 안내 요청에 따라 서버(200)로부터 항공 지도를 이용하여 경로를 안내하는 경로 안내 정보가 수신되면, 제어부(170)는 수신된 경로 안내 정보에 따라 항공 지도를 이용하여 목적지까지의 경로 안내를 수행하도록 제어할 수 있다. 즉, 내비게이션 장치(100)는 항공 지도를 저장하는 서버(200)와 실시간으로 연계하여 경로 안내를 수행할 수 있다. 이러한 서버(200)에 대해서는 도 10을 참조하여 구체적으로 설명하기로 한다.Alternatively, when the destination information is inputted through the input unit 120, the controller 170 may transmit a route guidance request including at least one of the current location information and the destination information to the server 200. When the route guidance information for guiding the route is received from the server 200 according to the route guidance request, the controller 170 controls the route to the destination using the air route map according to the received route guidance information, So that the user can perform guidance. That is, the navigation device 100 can perform route guidance in real time in connection with the server 200 storing the aerial map. The server 200 will be described in detail with reference to FIG.

도 10은 본 발명의 일 실시 예에 따른 서버를 나타내는 블록도 이다. 도 10을 참조하면, 서버(200)는 통신부(210), 저장부(220), 제어부(230)의 전부 또는 일부를 포함할 수 있다. 여기서, 서버(200)는 접속한 외부 장치에 항공 지도를 이용한 서비스(예를 들어, 위치 안내 서비스, 경로 안내 서비스 등)를 제공하는 웹 서버, 경로 안내 서버 등 다양한 형태로 구현될 수 있다. 10 is a block diagram illustrating a server according to an embodiment of the present invention. 10, the server 200 may include all or some of the communication unit 210, the storage unit 220, and the control unit 230. Here, the server 200 may be implemented in various forms such as a web server and a route guidance server that provide a service (e.g., location guidance service, route guidance service, etc.) using an aerial map to the connected external device.

통신부(210)는 서버(200)에 접속한 외부 장치와 서버(200) 간의 통신 기능을 제공할 수 있다. The communication unit 210 may provide a communication function between an external device connected to the server 200 and the server 200. [

여기서, 통신부(210)는 근거리 통신망(LAN : Local Area Network) 및 인터넷망을 통해 무선 또는 유선방식으로 접속되는 형태, USB(Universal Serial Bus)포트를 통하여 접속되는 형태, 3G, 4G와 같은 이동 통신망을 통해 접속되는 형태, NFC(Near Field Communication, RFID(Radio Frequency Identification), Wi-Fi등과 같은 근거리 무선 통신방식을 통해 접속되는 형태가 가능하다. Here, the communication unit 210 may be connected in a wireless or wired manner via a local area network (LAN) and an Internet network, a form connected through a USB (Universal Serial Bus) port, a mobile communication network Or a short-range wireless communication method such as NFC (Near Field Communication), Radio Frequency Identification (RFID), Wi-Fi, or the like.

저장부(220)는 위치 안내 서비스, 경로 안내 서비스 등에 이용되는 항공 지도를 저장할 수 있다. 특히, 저장부(220)는 항공 지도를 위도, 경도 등과 같은 위치 정보에 매핑하여 저장할 수 있다. 이러한 항공 지도는 상술한 도 1 내지 8의 합성 항공 영상을 연결하여 생성된 지도일 수 있다. The storage unit 220 may store an aerial map used for a location guidance service, a route guidance service, and the like. In particular, the storage unit 220 may map and store the aerial map to location information such as latitude, longitude, and the like. Such an aerial map may be a map generated by connecting the synthetic aerial images of Figs. 1 to 8 described above.

여기서 저장부(220)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드 등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.Herein, the storage unit 220 may be implemented as a random access memory (RAM), a flash memory, a ROM, an erasable programmable ROM (EPROM), an electronically erasable and programmable ROM (EEPROM), a register, a hard disk, Card, or the like, as well as a detachable type storage device such as a USB memory.

이러한 저장부(220)는 서버(200) 내에 구현될 수 있고, 또는 서버(200)와 연결된 외부 데이터 베이스(DB)형태로 구현될 수 있다. The storage unit 220 may be implemented in the server 200 or in the form of an external database (DB) connected to the server 200.

제어부(230)는 서버(200)의 전반적인 동작을 제어한다. 구체적으로 제어부(230)는 통신부(210), 저장부(220)의 전부 또는 일부를 제어할 수 있다.The control unit 230 controls the overall operation of the server 200. Specifically, the control unit 230 can control all or a part of the communication unit 210 and the storage unit 220.

특히, 내비게이션 장치(100)로부터 현재 위치 정보, 목적지 정보 중 적어도 하나를 포함하는 경로 안내 요청이 수신되면, 제어부(230)는 수신된 정보와 저장부(220)에 저장된 항공 지도를 이용하여 경로 안내를 위한 경로 안내 정보를 생성할 수 있다. 여기서, 경로 안내 정보는 목적지까지의 경로 안내를 항공 지도를 이용하여 수행 가능하게 하는 정보로, 상기 내비게이션 장치의 현재 위치로부터 소정 거리 범위에 대응되는 항공 지도, 경로 안내 객체 등을 포함할 수 있다. In particular, when a route guidance request including at least one of current location information and destination information is received from the navigation device 100, the controller 230 displays the route guidance information using the received information and the air map stored in the storage unit 220 Can generate route guidance information for the user. Here, the route guidance information is information enabling the route guidance to the destination to be performed using the air navigation map, and may include an air map, a route guidance object, and the like corresponding to a predetermined distance range from the current position of the navigation device.

그리고, 제어부(230)는 생성된 경로 안내 정보를 내비게이션 장치(100)에 전송할 수 있다. 이에 따라, 내비게이션 장치(100)는 수신된 경로 안내 정보를 이용하여 목적지까지의 경로 안내를 항공 지도를 통하여 수행할 수 있다. 이에 대해서는 도 11을 참조하여 구체적으로 설명하기로 한다. Then, the controller 230 can transmit the generated route guidance information to the navigation device 100. Accordingly, the navigation device 100 can perform route guidance to the destination through the aerial map using the received route guidance information. This will be described in detail with reference to FIG.

도 11a는 동계 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이고, 도 11b는 본 발명의 일 실시 예에 따른 항공 영상 처리 방법에 따라 생성된 항공 지도를 이용한 경로 안내 화면을 나타내는 도면 이다.FIG. 11A is a view showing a route guidance screen using a winter aerial map, and FIG. 11B is a view illustrating a route guidance screen using an aerial map generated according to an aerial image processing method according to an embodiment of the present invention.

도 11a를 참조하면, 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않기 때문에, 동계 항공 지도를 이용한 경로 안내 화면(1101)에서 산이나 숲 등은 어둡게 표출될 수 있다. Referring to FIG. 11A, since there is not much greenery in mountains or forests in the winter season, mountains or forests can be darkly displayed on the route guidance screen 1101 using the winter aerial map.

다만, 도 11b를 참조하면, 상술한 항공 영상 처리 방법에 따라 생성된 항공 지도는 녹지 영역 합성 작업이 수행되어, 항공 지도를 이용한 경로 안내 화면(1102)에서 산이나 숲 등은 녹색으로 밝게 표출될 수 있다. However, referring to FIG. 11B, in the aerial map generated according to the above-described aerial image processing method, a green area synthesis operation is performed, and mountains or forests are brightly displayed in green on the route guidance screen 1102 using the aerial map .

이러한, 본 발명의 일 실시 예의 경로 안내 화면에 따르면, 각 시기에 적합한 항공 지도를 이용하여 사용자에게 안내화면을 제공하여, 운전자에게 사실감 있는 정보와 안내를 제공할 수 있다.According to the route guidance screen of the embodiment of the present invention, it is possible to provide the guidance screen to the user by using the aerial map suitable for each period, and to provide the driver with realistic information and guidance.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 항공 영상 처리 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라, 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the aviation image processing method according to various embodiments of the present invention may be implemented as a program and provided to a server or devices. Accordingly, each device can access the server or the device in which the program is stored, and download the program.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 항공 영상 처리 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the aerial image processing method according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media. A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

10 : 항공 영상 처리 장치 11 : 영상 변환부
12 : 마스크 영상 생성부 13 : 합성 항공 영상 생성부
14 : 항공 지도 생성부 15 : 녹지 영역 검출부
16 : 제1 마스크 영상 생성부 17 : 제2 마스크 영상 생성부
100 : 내비게이션 장치 110 : 저장부
120 : 입력부 130 : 출력부
170 : 제어부 180 : 통신부
190 : 센싱부 195 : 전원부
200 : 서버 210 : 통신부
220 : 저장부 230 : 제어부
10: aerial image processing apparatus 11: image conversion unit
12: mask image generating unit 13: synthetic aerial image generating unit
14: aerial map generating unit 15: green area detecting unit
16: First mask image generating unit 17: Second mask image generating unit
100: navigation device 110: storage unit
120: input unit 130: output unit
170: control unit 180: communication unit
190: sensing unit 195: power source unit
200: server 210:
220: storage unit 230:

Claims (14)

항공 영상 처리 방법에 있어서,
동계 항공 영상과 비동계 항공 영상을 입력 받는 단계;
상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 단계; 및
상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 단계;를 포함하는 항공 영상 처리 방법.
In an aerial image processing method,
Receiving a winter aerial image and a non-winter aerial image;
Detecting a green area in the non-winter aerial image to generate a mask image; And
And combining the generated mask image and the winter aerial image to generate a synthetic aerial image.
제1항에 있어서,
상기 마스크 영상을 생성하는 단계는,
상기 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 단계;
상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 단계; 및
상기 검출된 녹지 영역을 이용하여 마스크 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
The method according to claim 1,
Wherein the generating the mask image comprises:
Converting the non-panoramic aerial image into an HSV (Hue Saturation Value) image;
Detecting a green area based on a predetermined pixel value for each of an S (Saturation) channel image and a V (Value) channel image of the HSV image; And
And generating a mask image using the detected green area.
제2항에 있어서,
상기 변환하는 단계는,
상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하는 단계; 및
상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 단계;를 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
3. The method of claim 2,
Wherein the converting comprises:
Adjusting at least one pixel value of R (Red), G (Green), and B (Blue) in the non-winter aerial image to generate a non-winter aerial image highlighted with the green area; And
And converting the non-moving aerial image highlighted with the green area into a hue saturation value (HSV) image.
제1항에 있어서,
상기 합성 항공 영상을 생성하는 단계는,
상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하는 단계; 및
상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여하여 합성하는 단계;를 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
The method according to claim 1,
Wherein the step of generating the synthetic aerial image comprises:
Calculating a ratio for pixel value adjustment for each of the winter aerial image and the mask image; And
And weighting and combining each of the winter aerial image and the mask image based on the calculated ratio.
제1항에 있어서,
상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
The method according to claim 1,
And generating an aerial map using a plurality of synthetic aerial images generated according to the aerial image processing method.
동계 항공 영상과 비동계 항공 영상을 이용하여 항공 영상을 처리하는 항공 영상 처리 장치에 있어서,
상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 마스크 영상 생성부; 및
상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 합성 항공 영상 생성부;를 포함하는 항공 영상 처리 장치.
1. An aerial image processing apparatus for processing an aerial image using a winter aerial image and a non-winter aerial image,
A mask image generation unit for generating a mask image by detecting a green area in the non-winter aerial image; And
And a synthetic aerial image generation unit for synthesizing the generated mask image and the winter aerial image to generate a synthetic aerial image.
제6항에 있어서,
비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 영상 변환부;를 더 포함하고,
상기 마스크 영상 생성부는,
상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 녹지 영역 검출부; 및
상기 검출된 녹지 영역을 이용하여 마스크 영상을 생성하는 마스크 영상 생성부;를 포함하는 것을 특징으로 하는 항공 영상 처리 장치.
The method according to claim 6,
And an image converter for converting the non-winter aerial image into an HSV (Hue Saturation Value) image,
Wherein the mask image generating unit comprises:
A green area detecting unit for detecting a green area based on a predetermined pixel value for each of an S (Saturation) channel image and a V (Value) channel image of the HSV image; And
And a mask image generator for generating a mask image using the detected green area.
제7항에 있어서,
상기 영상 변환부는,
상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하고, 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 것을 특징으로 하는 항공 영상 처리 장치.
8. The method of claim 7,
The image converter may include:
The method comprising: generating at least one pixel value of R (Red), G (Green), and B (Blue) in the non-winter aerial image to generate a non-winter aerial image highlighted with the green area, And converting the image into an HSV (Hue Saturation Value) image.
제6항에 있어서,
상기 합성 항공 영상 생성부는,
상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하고, 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여하여 합성하는 것을 특징으로 하는 항공 영상 처리 장치.
The method according to claim 6,
Wherein the synthetic aerial image generating unit comprises:
The aerial image and the mask image are calculated and a weight is assigned to each of the winter aerial image and the mask image based on the calculated ratio to synthesize the aerial image and the mask image, An aerial image processing device.
제6항에 있어서,
상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 항공 지도 생성부;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 장치.
The method according to claim 6,
Further comprising: an aerial map generation unit configured to generate an aerial map using a plurality of synthetic aerial images generated according to the aerial image processing method.
제1항 내지 제5항에 기재된 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 저장하는 서버.A server for storing an aerial map generated by using the aerial image processing method according to any one of claims 1 to 5. 제11항에 있어서,
상기 서버에 접속한 내비게이션 장치에서 경로 안내가 요청되면,
상기 서버는 상기 저장된 항공 지도를 기초로 경로 안내 정보를 생성하고, 상기 생성된 경로 안내 정보를 상기 내비게이션 장치에 전송하는 것을 특징으로 하는 서버.
12. The method of claim 11,
When a route guidance is requested in the navigation device connected to the server,
Wherein the server generates route guidance information based on the stored aerial map, and transmits the generated route guidance information to the navigation device.
제1항 내지 제5항에 기재된 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 기초로 경로 안내를 수행하는 내비게이션 장치.A navigation device for performing route guidance based on an aerial map generated by using the aerial image processing method according to any one of claims 1 to 5. 제1 항 내지 제5항에 기재된 항공 영상 처리 방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium storing a program for executing the aerial image processing method according to any one of claims 1 to 5.
KR1020150126438A 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map KR102506263B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Publications (2)

Publication Number Publication Date
KR20170029286A true KR20170029286A (en) 2017-03-15
KR102506263B1 KR102506263B1 (en) 2023-03-06

Family

ID=58403396

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Country Status (1)

Country Link
KR (1) KR102506263B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390569B1 (en) * 2021-10-14 2022-04-27 (주)지트 Geospatial information survey system using drone

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005284540A (en) * 2004-03-29 2005-10-13 Remoto Sensing Technology Center Of Japan Matching system
KR20070059321A (en) * 2005-12-06 2007-06-12 주식회사 현대오토넷 Navigation system that have function for displaying enlargement map using aerial photograph
JP2012163644A (en) * 2011-02-04 2012-08-30 Omi:Kk Aerial photograph display device, aerial photograph display method, and program
US20150243072A1 (en) * 2014-02-24 2015-08-27 Saab Ab Method and a system for building a three-dimensional model from satellite images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005284540A (en) * 2004-03-29 2005-10-13 Remoto Sensing Technology Center Of Japan Matching system
KR20070059321A (en) * 2005-12-06 2007-06-12 주식회사 현대오토넷 Navigation system that have function for displaying enlargement map using aerial photograph
JP2012163644A (en) * 2011-02-04 2012-08-30 Omi:Kk Aerial photograph display device, aerial photograph display method, and program
US20150243072A1 (en) * 2014-02-24 2015-08-27 Saab Ab Method and a system for building a three-dimensional model from satellite images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dyah, et al, "Image Color Extraction of Forest" International Journal of Computer Applications, Volume 64, No.9(2013)* *
jongwook, "픽셀 기반 처리 - 이미지 합성하기", 학습컨텐츠/이미지프로세싱 <https://kylog.tistory.com/20> (2007.08.04.)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390569B1 (en) * 2021-10-14 2022-04-27 (주)지트 Geospatial information survey system using drone

Also Published As

Publication number Publication date
KR102506263B1 (en) 2023-03-06

Similar Documents

Publication Publication Date Title
US11543256B2 (en) Electronic apparatus and control method thereof
KR102348127B1 (en) Electronic apparatus and control method thereof
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US10719990B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN110091798B (en) Electronic device, control method of electronic device, and computer-readable storage medium
KR102233391B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
US9644987B2 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20160065724A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
CN108335507B (en) Method and device for providing driving guidance by using camera to shoot image
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR20170029286A (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map
KR20160065721A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20160048351A (en) Navigation device, black-box and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant