KR102506263B1 - Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map - Google Patents

Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map Download PDF

Info

Publication number
KR102506263B1
KR102506263B1 KR1020150126438A KR20150126438A KR102506263B1 KR 102506263 B1 KR102506263 B1 KR 102506263B1 KR 1020150126438 A KR1020150126438 A KR 1020150126438A KR 20150126438 A KR20150126438 A KR 20150126438A KR 102506263 B1 KR102506263 B1 KR 102506263B1
Authority
KR
South Korea
Prior art keywords
image
aerial
winter
aerial image
mask
Prior art date
Application number
KR1020150126438A
Other languages
Korean (ko)
Other versions
KR20170029286A (en
Inventor
고석필
이기욱
변혜경
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020150126438A priority Critical patent/KR102506263B1/en
Publication of KR20170029286A publication Critical patent/KR20170029286A/en
Application granted granted Critical
Publication of KR102506263B1 publication Critical patent/KR102506263B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

항공 영상 처리 방법이 개시된다. 본 항공 영상 처리 방법은 동계 항공 영상과 비동계 항공 영상을 입력 받는 단계, 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 단계 및 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 단계를 포함한다.An aerial image processing method is disclosed. This aerial image processing method includes the steps of receiving winter aerial images and non-winter aerial images, generating mask images by detecting green areas in non-winter aerial images, and synthesizing aerial images by synthesizing the generated mask images and winter aerial images. It includes the step of generating.

Description

항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 항공 지도를 이용하여 경로 안내를 수행하는 내비게이션 장치 및 서버{APPARATUS, METHOD, AND COMPUTER READABLE RECORDING MEDIUM FOR AERIAL IMAGE PROCESS, NAVIGATION APPARATUS AND SERVER FOR PATH GUIDE USING AERIAL MAP}Aerial image processing apparatus, aerial image processing method, computer readable recording medium in which a program for aerial image processing is recorded, navigation device and server performing route guidance using aerial maps {APPARATUS, METHOD, AND COMPUTER READABLE RECORDING MEDIUM FOR AERIAL IMAGE PROCESS, NAVIGATION APPARATUS AND SERVER FOR PATH GUIDE USING AERIAL MAP}

본 발명은 항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체, 항공 영상을 이용하여 경로 안내를 수행하는 내비게이션 장치 및 서버에 관한 것이다. The present invention relates to an aerial image processing device, an aerial image processing method, a computer readable recording medium on which a program for processing an aerial image is recorded, and a navigation device and server for providing route guidance using aerial images.

현재 자동차 등 이동체의 수가 지속적으로 증가함에 따라 교통 혼잡이 가중되고 있으며, 이러한 이동체의 증가 속도가 도로와 같은 인프라가 확충되는 속도에 비하여 매우 빠르게 이루어지고 있어 교통 혼잡과 같은 문제의 심각성이 대두되고 있다.Currently, as the number of moving objects such as cars continues to increase, traffic congestion is aggravated, and since the rate of increase of these moving objects is very fast compared to the speed at which infrastructure such as roads are being expanded, the seriousness of problems such as traffic congestion is emerging. .

이러한 상황에서 내비게이션 장치는 교통혼잡에 대한 해결책 중의 하나로 주목 받고 있다. 내비게이션 장치는 GPS(Global Positioning System)용 위성이 송신하는 항법 메시지를 수신하여 이동체의 현재 위치를 판단하고, 이동체의 현재 위치를 지도 데이터에 매칭시켜 화면에 표시할 뿐만 아니라 이동체의 현재 위치로부터 목적지까지의 주행 경로를 탐색한다. 또한, 내비게이션 장치는 상기 탐색한 주행 경로를 따라 사용자가 이동체를 주행시킬 수 있도록 안내함으로써 주어진 도로망을 효율적으로 사용할 수 있도록 하고 있다.In this situation, navigation devices are attracting attention as one of the solutions to traffic congestion. A navigation device determines the current location of a moving object by receiving a navigation message transmitted by GPS (Global Positioning System) satellites, matches the current location of the moving object to map data, displays it on the screen, and also provides information from the current location of the moving object to the destination. search the driving route. In addition, the navigation device allows the user to efficiently use a given road network by guiding the user to drive the mobile object along the searched driving route.

통상 내비게이션 장치의 화면에 표시되는 지도는 수치 지도로써 수치화된 지도 데이터를 통해 2D 이미지를 기반으로 도로와 지형지물을 표시하거나, 지형 지물을 3D로 모델링하여 보다 사실적인 느낌을 갖도록 표시하고 있다.A map displayed on the screen of a navigation device is a digital map, and roads and features are displayed based on 2D images through digitized map data, or features are modeled in 3D to give a more realistic feeling.

최근에는 항공기에서 실제로 촬영한 항공 사진을 이용하여 경로 안내를 수행함으로써 실제 도로 상태 및 주변 상황을 정확하게 파악할 수 있도록 하는 방안이 제공되고 있다. 특히 항공 영상의 경우 정밀도가 높아짐에 따라 지도의 역할을 소화해 내고 있다. Recently, a method has been provided to accurately grasp actual road conditions and surrounding conditions by performing route guidance using aerial photographs actually taken from an aircraft. In particular, in the case of aerial images, as the precision increases, they are digesting the role of maps.

그러나, 촬영 여건이 좋은 기상 상태에서 촬영된 항공 사진을 취득하기란 쉽지 않다. 특히, 최근에는 황사나 미세 먼지의 영향으로 쾌청 지수가 높은 촬영일 수는 점차 줄어들고 있기 때문에, 좋은 품질의 항공 사진을 취득하는 것은 더욱 어려워지고 있다. However, it is not easy to obtain aerial photos taken under favorable weather conditions. In particular, since the number of shooting days with a high pleasantness index is gradually decreasing due to the influence of yellow sand or fine dust, it is becoming more difficult to obtain good quality aerial photographs.

따라서, 종래에는 일반적으로 항공 사진의 촬영을 동계 시기에 수행하였다. 그리고, 동계 시기가 지나 봄, 여름이 되면, 현재 시기에 적절한 항공 사진을 제공하기 위하여 이전 동계 시기에 촬영된 항공 영상에 수작업으로 녹지 영역을 합성하거나 또는 항공 사진의 재촬영을 수행하였다. 다만, 이 경우, 현재 시기에 적절한 항공 사진을 제공할 수 있으나, 많은 추가 비용이 발생한다는 문제점이 있었다. Therefore, in the prior art, aerial photography was generally taken during the winter season. In addition, when the winter season passes and spring or summer arrives, green areas are manually synthesized with aerial images taken in the previous winter season or aerial photographs are retaken to provide aerial photographs appropriate for the current time. However, in this case, it is possible to provide an appropriate aerial photograph at the current time, but there is a problem in that a lot of additional cost is incurred.

본 발명은 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하고, 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 항공 영상 처리 장치, 항공 영상 처리 방법, 항공 영상 처리를 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체를 제공함에 있다. The present invention has been made in accordance with the above-mentioned needs, and an object of the present invention is to generate a mask image by detecting a green area in a non-winter aerial image, and to generate a synthesized aerial image by synthesizing the mask image and the winter aerial image. An aerial image processing device, an aerial image processing method, and a computer readable recording medium having a program for processing the aerial image are provided.

또한, 본 발명의 다른 목적은 항공 영상 처리 방법에 따라 생성된 항공 지도를 기초로 경로 안내를 수행하는 내비게이션 장치 및 서버를 제공함에 있다.In addition, another object of the present invention is to provide a navigation device and server for performing route guidance based on an aerial map generated according to an aerial image processing method.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 항공 영상 처리 방법은, 동계 항공 영상과 비동계 항공 영상을 입력 받는 단계, 상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 단계 및 상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 단계를 포함한다.In order to achieve the above object, an aerial image processing method according to an embodiment of the present invention includes the steps of receiving a winter aerial image and a non-winter aerial image, and generating a mask image by detecting a green area in the non-winter aerial image. and generating a synthesized aerial image by synthesizing the generated mask image and the winter aerial image.

그리고, 상기 마스크 영상을 생성하는 단계는, 상기 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 단계, 상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 단계 및 상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 단계를 포함할 수 있다. The generating of the mask image may include converting the non-winter aerial image into a Hue Saturation Value (HSV) image, and a predetermined value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image. The method may include detecting green areas based on pixel values and generating a first mask image using the detected green areas.

또한, 상기 변환하는 단계는, 상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하는 단계 및 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 단계를 포함할 수 있다. The converting may include generating a non-winter aerial image in which the green area is emphasized by adjusting at least one pixel value among R (Red), G (Green), and B (Blue) in the non-winter aerial image. and converting the non-winter aerial image in which the green area is emphasized into a Hue Saturation Value (HSV) image.

그리고, 상기 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성하는 단계를 더 포함할 수 있다.The method may further include generating a second mask image by performing Gaussian filter processing on the first mask image.

또한, 상기 합성 항공 영상을 생성하는 단계는, 상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하는 단계 및 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여하여 합성하는 단계를 포함할 수 있다.In addition, the generating of the synthesized aerial image may include calculating a ratio for adjusting pixel values of the winter aerial image and the mask image, respectively, and the winter aerial image and the winter aerial image based on the calculated ratio. A step of synthesizing by assigning a weight to each of the mask images may be included.

그리고, 상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 단계를 더 포함할 수 있다.The method may further include generating an aerial map using a plurality of synthesized aerial images generated according to the aerial image processing method.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 동계 항공 영상과 비동계 항공 영상을 이용하여 항공 영상을 처리하는 항공 영상 처리 장치는, 상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 마스크 영상 생성부 및 상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 합성 항공 영상 생성부를 포함한다.On the other hand, an aerial image processing apparatus for processing an aerial image using a winter aerial image and a non-winter aerial image according to an embodiment of the present invention for achieving the above object, detects a green area in the non-winter aerial image It includes a mask image generation unit generating a mask image and a synthesis aerial image generation unit generating a synthesized aerial image by synthesizing the generated mask image and the winter aerial image.

그리고, 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 영상 변환부를 더 포함하고, 상기 마스크 영상 생성부는, 상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 녹지 영역 검출부 및 상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 제1 마스크 영상 생성부를 포함할 수 있다.And, it further includes an image conversion unit that converts non-winter aerial images into Hue Saturation Value (HSV) images, wherein the mask image generation unit generates an S (Saturation) channel image and a V (Value) channel image of the HSV image, respectively. It may include a green area detector to detect a green area based on a predetermined pixel value and a first mask image generator to generate a first mask image using the detected green area.

또한, 상기 영상 변환부는, 상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하고, 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환할 수 있다.In addition, the image converter generates a non-winter aerial image in which the green area is emphasized by adjusting at least one pixel value among R (Red), G (Green), and B (Blue) in the non-winter aerial image, A non-winter aerial image in which a green area is emphasized may be converted into a Hue Saturation Value (HSV) image.

그리고, 상기 마스크 영상 생성부는, 상기 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성하는 제2 마스크 영상 생성부를 더 포함할 수 있다.The mask image generator may further include a second mask image generator configured to generate a second mask image by performing a Gaussian filter process on the first mask image.

또한, 상기 합성 항공 영상 생성부는, 상기 동계 항공 영상과 상기 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하고, 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 마스크 영상 각각에 가중치를 부여할 수 있다.In addition, the synthesized aerial image generating unit calculates a ratio for adjusting pixel values for each of the winter aerial image and the mask image, and generates the winter aerial image and each of the mask image based on the calculated ratio. weight can be assigned.

그리고, 상기 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성하는 항공 지도 생성부를 더 포함할 수 있다.The aerial map generation unit may further include an aerial map generating unit generating an aerial map using a plurality of synthesized aerial images generated according to the aerial image processing method.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 서버는 상술한 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 저장할 수 있다.Meanwhile, the server according to an embodiment of the present invention for achieving the above object may store an aerial map generated using the above-described aerial image processing method.

그리고, 상기 서버에 접속한 내비게이션 장치에서 경로 안내가 요청되면, 상기 서버는 상기 저장된 항공 지도를 기초로 경로 안내 정보를 생성하고, 상기 생성된 경로 안내 정보를 상기 내비게이션 장치에 전송할 수 있다.Further, when route guidance is requested from a navigation device connected to the server, the server may generate route guidance information based on the stored aerial map and transmit the generated route guidance information to the navigation device.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 내비게이션 장치는 상술한 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 기초로 경로 안내를 수행할 수 있다.Meanwhile, a navigation device according to an embodiment of the present invention for achieving the above object may perform route guidance based on an aerial map generated using the above-described aerial image processing method.

그리고, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록 매체는 상술한 항공 영상 처리 방법을 실행하기 위한 프로그램을 저장할 수 있다. And, a computer readable recording medium according to an embodiment of the present invention for achieving the above object may store a program for executing the above-described aerial image processing method.

상술한 본 발명의 다양한 실시 예에 따르면, 지난 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하여 이용할 수 있다. 이에 따라, 동계 항공 영상에 녹지 영역을 합성하는 수작업 과정 또는 항공 영상의 재촬영 과정을 배제할 수 있어, 그에 따른 막대한 비용 소모를 방지할 수 있다. According to various embodiments of the present invention described above, a winter aerial image captured in the last winter season may be automatically corrected and used as an appropriate non-winter aerial image for a non-winter season. Accordingly, it is possible to exclude a manual process of synthesizing a green area on an aerial video in winter or a process of re-photographing an aerial video, thereby preventing enormous cost consumption.

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 각 시기에 적합한 항공 지도를 이용하여 사용자에게 안내화면을 제공하여, 운전자에게 사실감 있는 정보와 안내를 제공할 수 있다.In addition, according to various embodiments of the present invention described above, information and guidance with a sense of reality can be provided to the driver by providing a guide screen to the user using an aerial map suitable for each period.

도 1은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 항공 영상 처리 방법을 나타내는 흐름도 이다.
도 4는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 마스크 영상 생성 과정을 나타내는 흐름도 이다.
도 5는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 합성 항공 영상의 생성 과정을 나타내는 흐름도 이다.
도 6a 내지 도 6b는 본 발명의 일 실시 예에 따른 비동계 항공 영상 및 동계 항공 영상을 나타내는 도면 이다.
도 7은 본 발명의 일 실시 예에 따른 제2 마스크 영상을 나타내는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 합성 항공 영상을 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 내비게이션 장치를 나타내는 블록도 이다.
도 10은 본 발명의 일 실시 예에 따른 서버를 나타내는 블록도 이다.
도 11a는 본 발명의 일 실시 예에 따른 동계 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이고, 도 11b는 본 발명의 일 실시 예에 따른 항공 영상 처리 방법에 따라 생성된 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이다.
1 is a block diagram illustrating an aerial image processing apparatus according to an embodiment of the present invention.
2 is a block diagram showing an aerial image processing apparatus according to an embodiment of the present invention in more detail.
3 is a flowchart illustrating an aerial image processing method of an aerial image processing apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a process of generating a mask image of an aerial image processing apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating a process of generating a synthesized aerial image by an aerial image processing apparatus according to an embodiment of the present invention.
6A to 6B are diagrams illustrating non-winter aerial images and winter aerial images according to an embodiment of the present invention.
7 is a diagram illustrating a second mask image according to an embodiment of the present invention.
8 is a diagram illustrating a synthesized aerial image according to an embodiment of the present invention.
9 is a block diagram illustrating a navigation device according to an embodiment of the present invention.
10 is a block diagram illustrating a server according to an embodiment of the present invention.
11A is a diagram showing a route guidance screen using an aerial map in winter according to an embodiment of the present invention, and FIG. 11B is a route guidance screen using an aerial map generated by an aerial image processing method according to an embodiment of the present invention. It is a drawing showing

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the present invention. Therefore, those skilled in the art can invent various devices that embody the principles of the present invention and fall within the concept and scope of the present invention, even though not explicitly described or shown herein. In addition, all conditional terms and embodiments listed in this specification are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and should be understood not to be limited to such specifically listed embodiments and conditions. do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it should be understood that all detailed descriptions reciting specific embodiments, as well as principles, aspects and embodiments of the present invention, are intended to encompass structural and functional equivalents of these matters. In addition, it should be understood that such equivalents include not only currently known equivalents but also equivalents developed in the future, that is, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of exemplary circuits embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc., are meant to be tangibly represented on computer readable media and represent various processes performed by a computer or processor, whether or not the computer or processor is explicitly depicted. It should be.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of various elements shown in the drawings including functional blocks represented by processors or similar concepts may be provided using dedicated hardware as well as hardware capable of executing software in conjunction with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the explicit use of terms presented as processor, control, or similar concepts should not be construed as exclusively citing hardware capable of executing software, but without limitation, digital signal processor (DSP) hardware, ROM for storing software (ROM), random access memory (RAM) and non-volatile memory. Other hardware for the governor's use may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of this specification, components expressed as means for performing the functions described in the detailed description include, for example, a combination of circuit elements performing the functions or all types of software including firmware/microcode, etc. It is intended to include any method that performs the function of performing the function, combined with suitable circuitry for executing the software to perform the function. Since the invention defined by these claims combines the functions provided by the various enumerated means and is combined in the manner required by the claims, any means capable of providing such functions is equivalent to that discerned from this disclosure. should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art to which the present invention belongs can easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 나타내는 블록도 이다. 도 2는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치를 보다 구체적으로 나타내는 블록도 이다. 1 is a block diagram illustrating an aerial image processing apparatus according to an embodiment of the present invention. 2 is a block diagram showing an aerial image processing apparatus according to an embodiment of the present invention in more detail.

도 1 내지 2를 참조하면, 항공 영상 처리 장치(10)는 영상 변환부(11), 마스크 영상 생성부(12), 합성 항공 영상 생성부(13), 항공 지도 생성부(14)의 전부 또는 일부를 포함할 수 있다. 마스크 영상 생성부(12)는 녹지 영역 검출부(15), 제1 마스크 영상 생성부(16), 제2 마스크 영상 생성부(17)의 전부 또는 일부를 포함할 수 있다.1 and 2, the aerial image processing device 10 includes all or all of the image converter 11, mask image generator 12, synthesized aerial image generator 13, and aerial map generator 14. may contain some The mask image generator 12 may include all or part of the green area detector 15 , the first mask image generator 16 , and the second mask image generator 17 .

이러한, 항공 영상 처리 장치(10)는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하고, 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성하며, 복수의 합성 항공 영상을 이용하여 항공 지도를 생성할 수 있다. 여기서, 항공 영상 처리 장치(10)는 각종 전자 장치에 구비되어 입력 영상을 처리하는 이미지 프로세서(Image Processor)로 구현될 수 있다. The aerial image processing apparatus 10 generates a mask image by detecting a green area in the non-winter aerial image, generates a synthesized aerial image by synthesizing the generated mask image and the winter aerial image, and generates a plurality of synthesized aerial images. You can use it to create aerial maps. Here, the aerial image processing device 10 may be implemented as an image processor provided in various electronic devices to process input images.

이러한, 항공 영상 처리 장치(10)의 영상 처리는 동계 항공 영상과 비동계 항공 영상을 입력 받아 수행될 수 있다. The image processing of the aerial image processing apparatus 10 may be performed by receiving winter aerial images and non-winter aerial images.

동계 항공 영상은 동계 시기에 항공기 등을 타고 공중에서 지표를 촬영한 영상으로, 일 예로, 동계 시기는 12 ~ 2월의 시기일 수 있다. 이러한 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않아, 이에 따라 동계 항공 영상에서 녹지에 대응되는 영역은 검정에 가까운 어두운 색으로 표출될 수 있다. The winter aerial image is an image obtained by photographing the surface of the earth in the air on an aircraft during the winter season. For example, the winter season may be from December to February. In such a winter season, there are not many green areas such as mountains or forests, and accordingly, areas corresponding to green areas in winter aerial images may be expressed in a dark color close to black.

비동계 항공 영상은 비동계 시기에 항공기 등을 타고 공중에서 지표를 촬영한 영상으로, 일 예로, 비동계 시기는 3 ~ 11월의 시기일 수 있다. 이러한 비동계 시기에는 산이나 숲 등에 녹지가 많이 존재하여, 비동계 항공 영상에서 녹지에 대응되는 영역은 녹색에 가까운 색으로 표출될 수 있다. The non-winter aerial image is an image obtained by photographing the surface of the earth in the air on an aircraft during the non-winter period. For example, the non-winter period may be from March to November. In such non-winter period, there are many green areas such as mountains or forests, and therefore, areas corresponding to green areas in non-winter aerial images may be expressed in a color close to green.

따라서, 동계 시기가 지나 비동계 시기가 되면, 종래에는 이전 동계 시기에 촬영된 항공 영상에 수작업으로 녹지 영역을 합성하여 이용하거나, 또는 항공 영상을 재촬영하여 이용하였고, 이에 따라 큰 비용이 발생하는 문제점이 있었다. Therefore, when the winter period passes and the non-winter period passes, conventionally, the green area is manually synthesized and used in the aerial image taken during the previous winter period, or the aerial image is re-photographed and used, resulting in a large cost There was a problem.

이를 해결하기 위하여 본 발명의 일 실시 예에 따른 항공 영상 처리 장치(10)는 자동으로 동계 항공 영상에 녹지 영역을 합성하는 영상 처리를 수행할 수 있다. 구체적으로, 항공 영상 처리 장치(10)는 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하는 영상 처리를 수행할 수 있다. To solve this problem, the aerial image processing apparatus 10 according to an embodiment of the present invention may automatically perform image processing to synthesize a green area with an aerial image in winter. Specifically, the aerial image processing apparatus 10 may perform image processing to automatically correct a winter aerial image captured in winter to an appropriate non-winter aerial image in non-winter time.

구체적으로, 영상 변환부(11)는 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환할 수 있다. 예를 들어, 항공 영상 처리 장치(10)에 입력된 동계 항공 영상과 비동계 항공 영상은 RGB(Red Green Blue Color) 색 공간에서 정의되는 RGB 영상일 수 있다. 이 경우, 영상 변환부(11)는 RGB 색 공간을 다른 색 공간, 이를테면 HSV(Hue Saturation Value) 공간으로 변환하여 비동계 항공 영상의 칼라 값을 다시 정의할 수 있다. Specifically, the image conversion unit 11 may convert non-winter aerial images into Hue Saturation Value (HSV) images. For example, the winter aerial image and the non-winter aerial image input to the aerial image processing device 10 may be RGB images defined in a red green blue color (RGB) color space. In this case, the image conversion unit 11 may redefine the color values of the non-winter aerial image by converting the RGB color space into another color space, for example, Hue Saturation Value (HSV) space.

또한, 영상 변환부(11)는 비동계 항공 영상을 기초로 생성될 마스크 영상에서 녹지 영역이 더욱 강조되도록 비동계 항공 영상에 포함된 녹지 영역을 강조 처리할 수 있다. 구체적으로 영상 변환부(11)는 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 녹지 영역이 강조된 비동계 항공 영상을 생성할 수 있다. 예를 들어, 영상 변환부(11)는 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 G(Green)의 픽셀 값을 다른 색상의 픽셀 값보다 키울 수 있다. In addition, the image conversion unit 11 may emphasize green areas included in the non-winter aerial images so that the green areas are further emphasized in the mask image to be generated based on the non-winter aerial images. Specifically, the image converter 11 may generate a non-winter aerial image in which green areas are emphasized by adjusting at least one pixel value among R (Red), G (Green), and B (Blue) in the non-winter aerial image. . For example, the image conversion unit 11 may increase a pixel value of G (Green) among R (Red), G (Green), and B (Blue) in a non-winter aerial image than pixel values of other colors.

다만, 상술한 예시는 본 발명의 일 실시 예일 뿐, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 입력 항공 영상 및 변환 영상은 sRGB (super RGB), CMYK(Cyan Magenta Yellow Black), HSB(Hue Saturation Brightness)등 다른 색 공간의 영상으로 구현될 수도 있다. 이하에서는 설명의 편의를 위하여 입력 항공 영상은 RGB 영상이고, 영상 변환부(11)에서 변환된 영상은 HSV 영상인 경우를 예로 설명하기로 한다. However, the above-mentioned example is only one embodiment of the present invention, and the present invention is not limited thereto. For example, the input aerial image and the converted image may be implemented as images of other color spaces such as sRGB (super RGB), CMYK (cyan magenta yellow black), and HSB (hue saturation brightness). Hereinafter, for convenience of description, a case in which the input aerial image is an RGB image and the image converted by the image converter 11 is an HSV image will be described as an example.

마스크 영상 생성부(12)는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성할 수 있다. 이러한 마스크 영상 생성부(12)는 녹지 영역 검출부(15), 제1 마스크 영상 생성부(16), 제2 마스크 영상 생성부(17)를 포함할 수 있다. The mask image generation unit 12 may generate a mask image by detecting a green area in a non-winter aerial image. The mask image generator 12 may include a green area detector 15 , a first mask image generator 16 , and a second mask image generator 17 .

녹지 영역 검출부(15)는 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출할 수 있다. 구체적으로 녹지 영역 검출부(15)는 S(Saturation) 채널 영상에서 제1 픽셀 값 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 제2 픽셀 값 이하의 픽셀을 검출하며, 검출된 픽셀들의 앤드(AND) 연산을 수행하여 녹지 영역을 검출할 수 있다. 예를 들어, 녹지 영역 검출부(15)는 S(Saturation) 채널 영상에서 그레이 레벨 80 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 그레이 레벨 100 이하의 픽셀을 검출하며, 검출된 픽셀들을 기초로 녹지 영역을 검출할 수 있다. The green area detector 15 may detect a green area based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image. Specifically, the green area detection unit 15 detects pixels having a first pixel value or more in the S (Saturation) channel image, detects pixels having a second pixel value or less in the V (Value) channel image, and detects the ends of the detected pixels ( AND) operation can be performed to detect the green area. For example, the green area detection unit 15 detects pixels having a gray level of 80 or more in the S (Saturation) channel image, detects pixels of gray level of 100 or less in the V (Value) channel image, and based on the detected pixels Green areas can be detected.

그리고, 제1 마스크 영상 생성부(16)는 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성할 수 있다. 여기서, 제1 마스크 영상은 비동계 항공 영상에서 상기 녹지 영역을 분리하여 타 이미지에 합성하는데 쓰는 이미지일 수 있다. Also, the first mask image generating unit 16 may generate a first mask image using the detected green area. Here, the first mask image may be an image used to separate the green area from the non-winter aerial image and synthesize it into another image.

그리고, 제2 마스크 영상 생성부(17)는 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성할 수 있다. 여기서, 제2 마스크 영상은 제1 마스크 영상에 가우시안 필터를 적용하여 테두리를 부드럽게 만든 영상일 수 있다. Also, the second mask image generation unit 17 may generate a second mask image by performing Gaussian filter processing on the first mask image. Here, the second mask image may be an image in which an edge is softened by applying a Gaussian filter to the first mask image.

한편, 합성 항공 영상 생성부(13)는 마스크 영상 생성부(12)에서 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성할 수 있다. 여기서, 마스크 영상은 제1 마스크 영상 생성부(16)에서 생성된 제1 마스크 영상 또는 제2 마스크 영상 생성부(17)에서 생성된 제2 마스크 영상일 수 있다.Meanwhile, the synthesized aerial image generator 13 may generate a synthesized aerial image by synthesizing the mask image generated by the mask image generator 12 and the winter aerial image. Here, the mask image may be a first mask image generated by the first mask image generator 16 or a second mask image generated by the second mask image generator 17 .

이 경우, 합성 항공 영상 생성부(13)는 동계 항공 영상과 마스크 영상 생성부(12)에서 생성된 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출할 수 있다. 그리고, 합성 항공 영상 생성부(13)는 산출된 비율을 기초로 동계 항공 영상과 제2 마스크 영상 각각에 가중치를 부여하여 합성할 수 있다.In this case, the synthesized aerial image generating unit 13 may calculate a ratio for adjusting pixel values of the winter aerial image and each of the mask images generated by the mask image generating unit 12 . Then, the synthesized aerial image generator 13 may apply weights to each of the winter aerial image and the second mask image based on the calculated ratio and synthesize them.

예를 들어, 합성 항공 영상 생성부(13)는 아래와 수학식 1을 이용하여 합성 항공 영상을 생성할 수 있다. For example, the synthesized aerial image generation unit 13 may generate a synthesized aerial image using Equation 1 below.

[수학식1][Equation 1]

ratio = (c) / 128ratio = (c) / 128

(d) = (c) x ratio + (a) x (1 - ratio)(d) = (c) x ratio + (a) x (1 - ratio)

여기서, ratio는 비율, a는 동계 항공 영상의 픽셀 값, c는 마스크 영상의 픽셀 값, d는 합성 항공 영상의 픽셀 값일 수 있다.Here, ratio may be a ratio, a is a pixel value of a winter aerial image, c is a pixel value of a mask image, and d is a pixel value of a synthesized aerial image.

한편, 항공 지도 생성부(14)는 항공 영상 처리 방법에 따라 생성된 복수의 합성 항공 영상을 이용하여 항공 지도를 생성할 수 있다. 구체적으로, 항공 지도 생성부(14)는 복수의 합성 항공 영상 각각을 연결하여 항공 지도를 생성할 수 있다. Meanwhile, the aerial map generation unit 14 may generate an aerial map using a plurality of synthesized aerial images generated according to an aerial image processing method. Specifically, the aerial map generating unit 14 may generate an aerial map by connecting each of a plurality of synthesized aerial images.

이러한 도 1 내지 2의 항공 영상 처리 장치의 항공 영상 처리 방법에 대해서는 도 3 내지 7을 참조하여 보다 구체적으로 설명하기로 한다.The aerial image processing method of the aerial image processing apparatus of FIGS. 1 and 2 will be described in more detail with reference to FIGS. 3 to 7 .

도 3은 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 항공 영상 처리 방법을 나타내는 흐름도 이다. 도 3을 참조하면, 먼저 항공 영상 처리 장치(10)는 동계 항공 영상과 비동계 항공 영상을 입력받을 수 있다(S101). 여기서, 동계 항공 영상과 비동계 항공 영상에 대해서는 도 6을 참조하여 구체적으로 설명하기로 한다.3 is a flowchart illustrating an aerial image processing method of an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 3 , first, the aerial image processing device 10 may receive winter aerial images and non-winter aerial images (S101). Here, winter aerial images and non-winter aerial images will be described in detail with reference to FIG. 6 .

도 6a는 본 발명의 일 실시 예에 따른 동계 항공 영상, 도 6b는 본 발명의 일 실시 예에 따른 비동계 항공 영상을 나타내는 도면 이다. 도 6a를 참조하면, 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않기 때문에, 동계 항공 영상에서 산이나 숲 등은 어둡게 표출될 수 있다. 다만, 도 6b를 참조하면, 비동계 시기에는 산이나 숲 등에 녹지가 많이 존재하기 때문에, 비동계 항공 영상에서 산이나 숲 등은 녹색으로 밝게 표출될 수 있다.6A is a winter aerial image according to an embodiment of the present invention, and FIG. 6B is a diagram showing a non-winter aerial image according to an embodiment of the present invention. Referring to FIG. 6A , since there are not many green areas in mountains or forests in the winter season, mountains or forests may appear dark in winter aerial images. However, referring to FIG. 6B , since there are many green areas such as mountains and forests in non-winter seasons, mountains and forests can be brightly expressed in green in non-winter aerial images.

한편, 동계 항공 영상과 비동계 항공 영상이 입력되면, 항공 영상 처리 장치는 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성할 수 있다(S102). 이러한 마스크 영상의 생성 동작에 대해서는 도 4를 참조하여 구체적으로 설명하기로 한다.Meanwhile, when a winter aerial image and a non-winter aerial image are input, the aerial image processing apparatus may generate a mask image by detecting a green area in the non-winter aerial image (S102). An operation of generating such a mask image will be described in detail with reference to FIG. 4 .

도 4는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 마스크 영상 생성 과정을 나타내는 흐름도 이다. 도 4를 참조하면, 항공 영상 처리 장치(10)는 비동계 항공 영상에서 녹지 영역의 강조를 위하여 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정할 수 있다(S201).4 is a flowchart illustrating a process of generating a mask image of an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 4 , the aerial image processing apparatus 10 may adjust at least one pixel value among R (Red), G (Green), and B (Blue) to emphasize a green area in a non-winter aerial image ( S201).

그리고, 항공 영상 처리 장치(10)는 비동계 항공 영상을 HSV 영상으로 변환할 수 있다(S202). 구체적으로, 항공 영상 처리 장치(10)는 RGB 색 공간을 HSV 공간으로 변환하여 RGB 영상에 대응되는 비동계 항공 영상을 HSV 영상으로 변환할 수 있다.Also, the aerial image processing apparatus 10 may convert the non-winter aerial image into an HSV image (S202). Specifically, the aerial image processing apparatus 10 may convert a non-synchronized aerial image corresponding to an RGB image into an HSV image by converting an RGB color space into an HSV space.

그리고, 항공 영상 처리 장치(10)는 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출할 수 있다(S203). 구체적으로 항공 영상 처리 장치(10)는 S(Saturation) 채널 영상에서 제1 픽셀 값 이상의 픽셀을 검출하고, V(Value) 채널 영상에서 제2 픽셀 값 이하의 픽셀을 검출하며, 검출된 픽셀들의 앤드(AND) 연산을 수행하여 녹지 영역을 검출할 수 있다. In addition, the aerial image processing apparatus 10 may detect a green area based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image (S203). Specifically, the aerial image processing apparatus 10 detects pixels having a first pixel value or more in the S (Saturation) channel image, detects pixels having a second pixel value or less in the V (Value) channel image, and detects the end of the detected pixels. (AND) operation can be performed to detect the green area.

그리고, 항공 영상 처리 장치(10)는 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성할 수 있다(S204). Also, the aerial image processing apparatus 10 may generate a first mask image using the detected green area (S204).

그리고, 항공 영상 처리 장치(10)는 제1 마스크 영상에 가우시안 필터 처리를 수행하여 제2 마스크 영상을 생성할 수 있다(S205). 여기서, 제2 마스크 영상은 제1 마스크 영상에 가우시안 필터를 적용하여 테두리를 부드럽게 만든 영상일 수 있다. 이러한 제2 마스크 영상에 대해서는 도 7을 참조하여 구체적으로 설명하기로 한다.The aerial image processing apparatus 10 may generate a second mask image by performing a Gaussian filter process on the first mask image (S205). Here, the second mask image may be an image in which an edge is softened by applying a Gaussian filter to the first mask image. This second mask image will be described in detail with reference to FIG. 7 .

도 7은 본 발명의 일 실시 예에 따른 제2 마스크 영상을 나타내는 도면이다. 도 7을 참조하면, 제2 마스크 영상은 도 6b에 도시된 비동계 항공 영상에서 검출된 녹지 영역(도 7의 녹색 부분)과 그외 영역(도 7의 검은색 부분)을 포함하여 구성될 수 있다. 이에 따라 제2 마스크 영상은 타 이미지에 합성하는데 이용될 수 있다. 7 is a diagram illustrating a second mask image according to an embodiment of the present invention. Referring to FIG. 7, the second mask image may include a green area (green portion in FIG. 7) and other areas (black portion in FIG. 7) detected in the non-winter aerial image shown in FIG. 6B. . Accordingly, the second mask image may be used to synthesize another image.

한편, 도 3의 S102 단계에 이어서 항공 영상 처리 장치(10)는 생성된 마스크 영상과 동계 항공 영상을 합성하여 합성 항공 영상을 생성할 수 있다(S103). 이러한 합성 항공 영상의 생성 과정에 대해서는 도 5를 참조하여 구체적으로 설명하기로 한다.Meanwhile, following step S102 of FIG. 3 , the aerial image processing apparatus 10 may generate a synthesized aerial image by synthesizing the generated mask image and the winter aerial image (S103). A process of generating such a synthesized aerial image will be described in detail with reference to FIG. 5 .

도 5는 본 발명의 일 실시 예에 따른 항공 영상 처리 장치의 합성 항공 영상의 생성 과정을 나타내는 흐름도 이다. 도 5를 참조하면, 항공 영상 처리 장치는 동계 항공 영상과 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출할 수 있다(S301). 여기서, 상기 비율은 상기 마스크 영상을 구성하는 복수의 픽셀들 각각의 픽셀 값을 특정 값으로 나눔으로써 픽셀 각각에 대하여 산출될 수 있다. 5 is a flowchart illustrating a process of generating a synthesized aerial image by an aerial image processing apparatus according to an embodiment of the present invention. Referring to FIG. 5 , the aerial image processing apparatus may calculate a ratio for adjusting pixel values for each of the winter aerial image and the mask image (S301). Here, the ratio may be calculated for each pixel by dividing a pixel value of each of a plurality of pixels constituting the mask image by a specific value.

그리고, 항공 영상 처리 장치는 산출된 비율을 기초로 동계 항공 영상과 마스크 영상 각각에 가중치를 부여하여 합성할 수 있다(S302). 이러한 동작에 따라 생성되는 합성 항공 영상에 대해서는 도 8을 참조하여 구체적으로 설명하기로 한다. Then, the aerial image processing apparatus may apply weights to each of the winter aerial image and the mask image based on the calculated ratio and synthesize them (S302). A synthesized aerial image generated according to such an operation will be described in detail with reference to FIG. 8 .

도 8은 본 발명의 일 실시 예에 따른 합성 항공 영상을 나타내는 도면 이다. 즉, 도 8은 도 7의 마스크 영상과 도 6a의 동계 항공 영상을 합성하여 생성될 수 있다. 도 8을 참조하면, 합성 항공 영상은 도 6a에 도시된 합성 전의 동계 항공 영상과 달리 녹지 영역을 포함할 수 있다. 8 is a diagram illustrating a synthesized aerial image according to an embodiment of the present invention. That is, FIG. 8 may be generated by synthesizing the mask image of FIG. 7 and the winter aerial image of FIG. 6A. Referring to FIG. 8 , the synthesized aerial image may include a green area, unlike the winter aerial image before synthesis shown in FIG. 6A .

따라서, 본 발명의 영상 처리 방법을 이용하면, 지난 동계 시기에 촬영된 동계 항공 영상을 비동계 시기에 적절한 비동계 항공 영상으로 자동으로 보정하여 이용할 수 있다. 이에 따라, 동계 항공 영상에 녹지 영역을 합성하는 수작업 과정 또는 항공 영상의 재촬영 과정을 배제할 수 있어, 그에 따른 막대한 비용 소모를 방지할 수 있다. Therefore, by using the image processing method of the present invention, it is possible to automatically correct and use a winter aerial image captured in the last winter season as an appropriate non-winter aerial image for a non-winter season. Accordingly, it is possible to exclude a manual process of synthesizing a green area on an aerial video in winter or a process of re-photographing an aerial video, thereby preventing enormous cost consumption.

도 9는 본 발명의 일 실시 예에 따른 내비게이션 장치를 나타내는 블록도 이다. 도 9를 참조하면, 내비게이션 장치(100)는 저장부(110), 입력부(120), 출력부(130), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.9 is a block diagram illustrating a navigation device according to an embodiment of the present invention. Referring to FIG. 9 , the navigation device 100 includes a storage unit 110, an input unit 120, an output unit 130, a control unit 170, a communication unit 180, a sensing unit 190, and a power supply unit 195. include all or part of

여기서, 내비게이션 장치(100)는 운행 상태에 있는 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the navigation device 100 includes a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), smart glasses, It may be implemented in various devices such as a project glass, a navigation device, a black-box, and the like, and may be provided in a vehicle.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. The driving-related guidance may include various guidance to assist the driver's driving, such as route guidance, lane departure guidance, front vehicle departure guidance, traffic light change guidance, front vehicle collision avoidance guidance, lane change guidance, lane guidance, and the like.

여기서, 경로 안내는, 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. Here, route guidance is augmented reality route guidance, 2D (2-Dimensional) or 3D (3-Dimensional), which performs route guidance by combining various information such as the location and direction of the user with an image of the front of the vehicle in motion. ) may include 2-Dimensional (2D) or 3-Dimensional (3D) route guidance that performs route guidance by combining various types of information such as the user's location and direction with map data.

뿐만 아니라, 경로 안내는 항공 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 항공 지도 경로 안내를 포함할 수 있다. 여기서, 경로 안내는, 사용자가 차량에 탑승하여 운전하는 경우뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. In addition, route guidance may include air map route guidance in which route guidance is performed by combining air map data with various types of information such as a user's location and direction. Here, route guidance may be interpreted as a concept that includes route guidance not only when a user gets on a vehicle and drives, but also when a user moves by walking or running.

또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. Further, the lane departure guidance may be guidance on whether or not the driving vehicle has departed from the lane.

또한, 전방 차량 출발 안내는, 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the front vehicle departure guidance may be guidance on whether or not a vehicle positioned in front of a stopped vehicle is starting.

또한, 신호등 변경 안내는, 정차 중인 차량의 전방에 위치한 신호등의 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간 신호등이 켜진 상태에서 출발 신호를 나타내는 파란 신호등으로 변경되면, 이를 안내하는 것 일 수 있다. In addition, the traffic light change guidance may be guidance on whether or not a traffic light located in front of a stopped vehicle is changed. For example, when a red traffic light indicating a stop signal is turned on and changed to a blue traffic light indicating a start signal, this may be provided.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, forward vehicle collision avoidance information may be provided to prevent a collision with a vehicle in front when a distance from a stopped or running vehicle to a vehicle located in front of the vehicle is within a predetermined distance.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. Further, the lane change guidance may be guidance for changing from a lane where the vehicle is located to another lane for route guidance to a destination.

또한, 차로 안내는 차량이 현재 위치한 차로를 안내하는 것일 수 있다. Further, the lane guidance may be guidance of a lane in which the vehicle is currently located.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 내비게이션 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. A driving-related image, such as an image in front of the vehicle enabling the provision of various guidance, may be captured by a camera installed in the vehicle. Here, the camera may be a camera that is integrally formed with the navigation device 100 installed in the vehicle and photographs the front of the vehicle.

다른 예로, 카메라는 내비게이션 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 내비게이션 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력 받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 내비게이션 장치(100)에 삽입되면, 내비게이션 장치(100)는 촬영 영상을 입력 받을 수 있다. As another example, the camera may be a camera installed in a vehicle separately from the navigation device 100 and photographing the front of the vehicle. In this case, the camera may be a separate black box mounted toward the front of the vehicle, and the navigation device 100 receives a captured image through wired/wireless communication with the separately mounted black box, or captures an image of the black box. When a storage medium for storing is inserted into the navigation device 100, the navigation device 100 may receive a captured image as an input.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 내비게이션 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, based on the above description, the navigation device 100 according to an embodiment of the present invention will be described in more detail.

저장부(110)는 내비게이션 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 내비게이션 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한, 저장부(110)는 내비게이션 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The storage unit 110 functions to store various data and applications necessary for the operation of the navigation device 100 . In particular, the storage unit 110 may store data necessary for the operation of the navigation device 100, for example, an OS, a route search application, and map data. Also, the storage unit 110 may store data generated by the operation of the navigation device 100, eg, searched route data, received images, and the like.

또한, 저장부(110)는 항공 지도 경로 안내를 위한 항공 지도를 저장할 수 있다. 여기서, 저장부(110)는 전체의 항공 지도를 미리 획득하여 저장할 수 있다. 또는, 저장부(110)는 내비게이션 장치(100)의 현재 위치에 대응되는 항공 지도를 서버(200)로부터 실시간으로 수신하여 저장할 수 있다. Also, the storage unit 110 may store an air map for air map route guidance. Here, the storage unit 110 may obtain and store the entire aerial map in advance. Alternatively, the storage unit 110 may receive and store the aerial map corresponding to the current location of the navigation device 100 from the server 200 in real time.

이러한 항공 지도는 상술한 도 1 내지 8의 합성 항공 영상을 기초로 생성된 지도일 수 있다. 구체적으로, 항공 지도는 도 1 내지 8의 과정에 따라 생성된 복수의 합성 항공 영상을 연결하여 생성될 수 있다. Such an aerial map may be a map generated based on the synthesized aerial images of FIGS. 1 to 8 described above. Specifically, the aerial map may be created by connecting a plurality of synthesized aerial images generated according to the processes of FIGS. 1 to 8 .

이러한 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.The storage unit 110 includes RAM (Random Access Memory), flash memory, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable and Programmable ROM), registers, hard disk, removable disk, and memory. It may be implemented as a built-in storage device such as a card, universal subscriber identity module (USIM), and the like, as well as a removable storage device such as a USB memory.

입력부(120)는 내비게이션 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the navigation device 100 into a specific electrical signal. Here, the input unit 120 may include all or part of the user input unit 121 and the microphone unit 123 .

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 may receive a user input such as a touch or push operation. Here, the user input unit 120 may be implemented using at least one of various button shapes, a touch sensor that receives a touch input, and a proximity sensor that receives an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 may receive a user's voice and sound generated inside and outside the vehicle.

출력부(130)는 내비게이션 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device that outputs data of the navigation device 100 . Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 133 .

디스플레이부(131)는 내비게이션 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 내비게이션 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 내비게이션 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 내비게이션 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that can be visually recognized by the navigation device 100 . The display unit 131 may be implemented as a display unit provided on the front surface of the housing of the navigation device 100 . In addition, the display unit 131 is integrally formed with the navigation device 100 to output visual recognition data, and is installed separately from the navigation device 100 like a HUD (Head Up Display) to output visual recognition data You may.

오디오 출력부(133)는 내비게이션 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 내비게이션 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device that outputs data that can be audibly recognized by the navigation device 100 . The audio output unit 133 may be implemented as a speaker expressing sound of data to be notified to the user of the navigation device 100 .

통신부(180)는 내비게이션 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181), 무선 인터넷부(183), 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The communication unit 180 may be provided for the navigation device 100 to communicate with other devices. The communication unit 180 includes all or part of the location data unit 181, the wireless Internet unit 183, the broadcast transmission/reception unit 185, the mobile communication unit 186, the short-distance communication unit 187, and the wired communication unit 189. can do.

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 내비게이션 장치(100)의 위치 데이터부(181)는, 내비게이션 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The location data unit 181 is a device that acquires location data through GNSS (Global Navigation Satellite System). GNSS refers to a navigation system capable of calculating the location of a receiving terminal using radio signals received from artificial satellites. Specific examples of GNSS include GPS (Global Positioning System), Galileo, GLONASS (Global Orbiting Navigational Satellite System), COMPASS, IRNSS (Indian Regional Navigational Satellite System), QZSS (Quasi-Zenith Satellite System), etc. can The location data unit 181 of the navigation device 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serving in an area where the navigation device 100 is used.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The wireless Internet unit 183 is a device that obtains or transmits data by accessing the wireless Internet. The wireless Internet accessible through the wireless Internet unit 183 may be wireless LAN (WLAN), wireless broadband (Wibro), world interoperability for microwave access (Wimax), high speed downlink packet access (HSDPA), and the like.

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transceiver 185 is a device that transmits and receives broadcast signals through various broadcast systems. A broadcasting system capable of transmitting and receiving through the broadcast transceiver 185 includes Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Forward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and ISDBT ( Integrated Services Digital Broadcast Terrestrial) and the like. Broadcast signals transmitted and received through the broadcast transmission/reception unit 185 may include traffic data, life data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The mobile communication unit 186 may communicate by accessing a mobile communication network according to various mobile communication standards such as 3rd generation (3G), 3rd generation partnership project (3GPP), and long term evolution (LTE).

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-distance communication unit 187 is a device for short-distance communication. As described above, the short-range communication unit 187 includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra WidBand (UWB), ZigBee, Near Field Communication (NFC), Wi It can communicate through -Fi (Wireless-Fidelity), etc.

유선 통신부(189)는 내비게이션 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device capable of connecting the navigation device 100 to other devices by wire. The wired communication unit 119 may be a USB module capable of communicating through a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of the location data unit 181, the wireless Internet unit 183, the broadcast transceiver 185, the mobile communication unit 186, the short-distance communication unit 187, and the wired communication unit 189. You can use it to communicate with other devices.

일 예로, 내비게이션 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the navigation device 100 does not include a camera function, an image captured by a vehicle camera such as a black box may be received using at least one of the short-range communication unit 187 and the wired communication unit 189.

다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, in the case of communication with a plurality of devices, it is also possible to communicate with one of the short range communication units 187 and the other through the wired communication unit 119 .

센싱부(190)는 내비게이션 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of detecting the current state of the navigation device 100 . The sensing unit 190 may include all or part of the motion sensing unit 191 and the light sensing unit 193 .

모션 센싱부(191)는 내비게이션 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 궤적을 보다 정확하게 산출할 수 있다.The motion sensing unit 191 may detect movement of the navigation device 100 in a 3D space. The motion sensing unit 191 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. By combining motion data acquired through the motion sensing unit 191 with location data acquired through the location data unit 181, the trajectory of the vehicle to which the electronic device 100 is attached can be more accurately calculated.

광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing unit 193 is a device that measures ambient illumination of the electronic device 100 . The brightness of the display unit 131 may be changed to correspond to ambient brightness by using illuminance data acquired through the light sensing unit 193 .

전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 내비게이션 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device that supplies power required for the operation of the electronic device 100 or the operation of other devices connected to the electronic device 100 . The power supply unit 195 may be a device that receives power from a battery built in the navigation device 100 or an external power source such as a vehicle. In addition, the power supply unit 195 may be implemented as a wired communication module 119 or a device that receives power wirelessly, depending on the type of power supply.

제어부(170)는 내비게이션 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다. The controller 170 controls overall operations of the navigation device 100 . Specifically, the control unit 170 controls all or part of the storage unit 110, the input unit 120, the output unit 130, the control unit 170, the communication unit 180, the sensing unit 190, and the power supply unit 195. can do.

특히, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 저장부(110)에 기저장된 항공 지도를 이용하여 목적지까지의 경로 안내를 수행하도록 제어할 수 있다. In particular, when destination information is input through the input unit 120, the controller 170 may control to perform route guidance to the destination using an air map previously stored in the storage unit 110.

또는, 입력부(120)를 통하여 목적지 정보가 입력되면, 제어부(170)는 현재 위치 정보, 목적지 정보 중 적어도 하나를 포함하는 경로 안내 요청을 서버(200)에 전송할 수 있다. 그리고, 상기 경로 안내 요청에 따라 서버(200)로부터 항공 지도를 이용하여 경로를 안내하는 경로 안내 정보가 수신되면, 제어부(170)는 수신된 경로 안내 정보에 따라 항공 지도를 이용하여 목적지까지의 경로 안내를 수행하도록 제어할 수 있다. 즉, 내비게이션 장치(100)는 항공 지도를 저장하는 서버(200)와 실시간으로 연계하여 경로 안내를 수행할 수 있다. 이러한 서버(200)에 대해서는 도 10을 참조하여 구체적으로 설명하기로 한다.Alternatively, when destination information is input through the input unit 120, the controller 170 may transmit a route guidance request including at least one of current location information and destination information to the server 200. Then, when route guidance information for guiding a route using an air map is received from the server 200 according to the route guidance request, the controller 170 uses the air map according to the received route guidance information to route to the destination. You can control to perform guidance. That is, the navigation device 100 may perform route guidance in real time in connection with the server 200 that stores the aerial map. The server 200 will be described in detail with reference to FIG. 10 .

도 10은 본 발명의 일 실시 예에 따른 서버를 나타내는 블록도 이다. 도 10을 참조하면, 서버(200)는 통신부(210), 저장부(220), 제어부(230)의 전부 또는 일부를 포함할 수 있다. 여기서, 서버(200)는 접속한 외부 장치에 항공 지도를 이용한 서비스(예를 들어, 위치 안내 서비스, 경로 안내 서비스 등)를 제공하는 웹 서버, 경로 안내 서버 등 다양한 형태로 구현될 수 있다. 10 is a block diagram illustrating a server according to an embodiment of the present invention. Referring to FIG. 10 , the server 200 may include all or part of a communication unit 210, a storage unit 220, and a control unit 230. Here, the server 200 may be implemented in various forms, such as a web server or a route guidance server that provides services (eg, location guidance service, route guidance service, etc.) using aerial maps to connected external devices.

통신부(210)는 서버(200)에 접속한 외부 장치와 서버(200) 간의 통신 기능을 제공할 수 있다. The communication unit 210 may provide a communication function between the server 200 and an external device connected to the server 200 .

여기서, 통신부(210)는 근거리 통신망(LAN : Local Area Network) 및 인터넷망을 통해 무선 또는 유선방식으로 접속되는 형태, USB(Universal Serial Bus)포트를 통하여 접속되는 형태, 3G, 4G와 같은 이동 통신망을 통해 접속되는 형태, NFC(Near Field Communication, RFID(Radio Frequency Identification), Wi-Fi등과 같은 근거리 무선 통신방식을 통해 접속되는 형태가 가능하다. Here, the communication unit 210 is a type connected in a wireless or wired manner through a local area network (LAN) and an Internet network, a type connected through a USB (Universal Serial Bus) port, and a mobile communication network such as 3G and 4G It is possible to be connected through a form connected through a short-range wireless communication method such as NFC (Near Field Communication, RFID (Radio Frequency Identification), Wi-Fi, and the like.

저장부(220)는 위치 안내 서비스, 경로 안내 서비스 등에 이용되는 항공 지도를 저장할 수 있다. 특히, 저장부(220)는 항공 지도를 위도, 경도 등과 같은 위치 정보에 매핑하여 저장할 수 있다. 이러한 항공 지도는 상술한 도 1 내지 8의 합성 항공 영상을 연결하여 생성된 지도일 수 있다. The storage unit 220 may store an air map used for a location guidance service, a route guidance service, and the like. In particular, the storage unit 220 may store an aerial map mapped to location information such as latitude and longitude. This aerial map may be a map created by connecting the synthesized aerial images of FIGS. 1 to 8 described above.

여기서 저장부(220)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드 등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈 가능한 형태의 저장소자로 구현될 수도 있다.Here, the storage unit 220 includes RAM (Random Access Memory), flash memory, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable and Programmable ROM), registers, hard disk, removable disk, and memory. It may be implemented as a built-in storage device such as a card or a removable storage device such as a USB memory.

이러한 저장부(220)는 서버(200) 내에 구현될 수 있고, 또는 서버(200)와 연결된 외부 데이터 베이스(DB)형태로 구현될 수 있다. This storage unit 220 may be implemented in the server 200, or may be implemented in the form of an external database (DB) connected to the server 200.

제어부(230)는 서버(200)의 전반적인 동작을 제어한다. 구체적으로 제어부(230)는 통신부(210), 저장부(220)의 전부 또는 일부를 제어할 수 있다.The controller 230 controls overall operations of the server 200 . Specifically, the control unit 230 may control all or part of the communication unit 210 and the storage unit 220 .

특히, 내비게이션 장치(100)로부터 현재 위치 정보, 목적지 정보 중 적어도 하나를 포함하는 경로 안내 요청이 수신되면, 제어부(230)는 수신된 정보와 저장부(220)에 저장된 항공 지도를 이용하여 경로 안내를 위한 경로 안내 정보를 생성할 수 있다. 여기서, 경로 안내 정보는 목적지까지의 경로 안내를 항공 지도를 이용하여 수행 가능하게 하는 정보로, 상기 내비게이션 장치의 현재 위치로부터 소정 거리 범위에 대응되는 항공 지도, 경로 안내 객체 등을 포함할 수 있다. In particular, when a route guidance request including at least one of current location information and destination information is received from the navigation device 100, the control unit 230 provides route guidance using the received information and an aerial map stored in the storage unit 220. It is possible to generate route guidance information for Here, the route guidance information is information enabling route guidance to a destination using an air map, and may include an air map corresponding to a predetermined distance range from the current location of the navigation device, a route guidance object, and the like.

그리고, 제어부(230)는 생성된 경로 안내 정보를 내비게이션 장치(100)에 전송할 수 있다. 이에 따라, 내비게이션 장치(100)는 수신된 경로 안내 정보를 이용하여 목적지까지의 경로 안내를 항공 지도를 통하여 수행할 수 있다. 이에 대해서는 도 11을 참조하여 구체적으로 설명하기로 한다. And, the controller 230 may transmit the generated route guidance information to the navigation device 100 . Accordingly, the navigation device 100 may perform route guidance to a destination through an air map using the received route guidance information. This will be described in detail with reference to FIG. 11 .

도 11a는 동계 항공 지도를 이용한 경로 안내 화면을 나타내는 도면이고, 도 11b는 본 발명의 일 실시 예에 따른 항공 영상 처리 방법에 따라 생성된 항공 지도를 이용한 경로 안내 화면을 나타내는 도면 이다.11A is a diagram showing a route guidance screen using an aerial map in winter, and FIG. 11B is a diagram showing a route guidance screen using an aerial map generated by an aerial image processing method according to an embodiment of the present invention.

도 11a를 참조하면, 동계 시기에는 산이나 숲 등에 녹지가 많이 존재하지 않기 때문에, 동계 항공 지도를 이용한 경로 안내 화면(1101)에서 산이나 숲 등은 어둡게 표출될 수 있다. Referring to FIG. 11A , since there are not many green areas in mountains or forests in the winter season, mountains or forests may be darkly displayed on a route guidance screen 1101 using an aerial map in winter.

다만, 도 11b를 참조하면, 상술한 항공 영상 처리 방법에 따라 생성된 항공 지도는 녹지 영역 합성 작업이 수행되어, 항공 지도를 이용한 경로 안내 화면(1102)에서 산이나 숲 등은 녹색으로 밝게 표출될 수 있다. However, referring to FIG. 11B, green area synthesis is performed on the aerial map generated by the above-described aerial image processing method, and mountains and forests are brightly displayed in green on the route guidance screen 1102 using the aerial map. can

이러한, 본 발명의 일 실시 예의 경로 안내 화면에 따르면, 각 시기에 적합한 항공 지도를 이용하여 사용자에게 안내화면을 제공하여, 운전자에게 사실감 있는 정보와 안내를 제공할 수 있다.According to the route guidance screen according to an embodiment of the present invention, a guidance screen is provided to the user using an air map suitable for each period, so that realistic information and guidance can be provided to the driver.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 항공 영상 처리 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라, 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the aerial image processing method according to various embodiments of the present disclosure described above may be implemented as a program and provided to servers or devices. Accordingly, each device may access a server or device in which the program is stored and download the program.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 항공 영상 처리 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the aerial image processing method according to various embodiments of the present disclosure described above may be implemented as a program, stored in various non-transitory computer readable media, and provided. A non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, the various applications or programs described above may be stored and provided in non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. Of course, various modifications are possible by those skilled in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

10 : 항공 영상 처리 장치 11 : 영상 변환부
12 : 마스크 영상 생성부 13 : 합성 항공 영상 생성부
14 : 항공 지도 생성부 15 : 녹지 영역 검출부
16 : 제1 마스크 영상 생성부 17 : 제2 마스크 영상 생성부
100 : 내비게이션 장치 110 : 저장부
120 : 입력부 130 : 출력부
170 : 제어부 180 : 통신부
190 : 센싱부 195 : 전원부
200 : 서버 210 : 통신부
220 : 저장부 230 : 제어부
10: aerial image processing device 11: image conversion unit
12: mask image generation unit 13: synthetic aerial image generation unit
14: aerial map generation unit 15: green area detection unit
16: first mask image generator 17: second mask image generator
100: navigation device 110: storage unit
120: input unit 130: output unit
170: control unit 180: communication unit
190: sensing unit 195: power unit
200: server 210: communication unit
220: storage unit 230: control unit

Claims (14)

항공 영상 처리 방법에 있어서,
동계 항공 영상과 비동계 항공 영상을 입력 받는 단계;
상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 단계; 및
상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 단계;를 포함하고,
상기 마스크 영상을 생성하는 단계는,
상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 단계; 및
상기 제1 마스크 영상에 테두리 처리를 위한 소정 필터를 적용하여 상기 테두리를 부드럽게 만든 제2 마스크 영상을 생성하는 단계;를 포함하고,
상기 합성 항공 영상을 생성하는 단계는,
상기 제2 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하고,
생성된 복수의 합성 항공 영상을 연결하여 항공 지도를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
In the aerial image processing method,
Receiving winter aerial images and non-winter aerial images as input;
generating a mask image by detecting a green area in the non-winter aerial image; and
Generating a synthesized aerial image by synthesizing the generated mask image and the winter aerial image;
Generating the mask image,
generating a first mask image using the detected green area; and
Generating a second mask image by applying a predetermined filter for edge processing to the first mask image to soften the edge,
Generating the synthesized aerial image,
synthesizing the second mask image and the winter aerial image to generate a synthesized aerial image;
The aerial image processing method further comprising generating an aerial map by connecting a plurality of synthesized aerial images.
제1항에 있어서,
상기 마스크 영상을 생성하는 단계는,
상기 비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 단계; 및
상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 단계;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
According to claim 1,
Generating the mask image,
converting the non-winter aerial image into a Hue Saturation Value (HSV) image; and
The aerial image processing method further comprising: detecting a green area based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image.
제2항에 있어서,
상기 변환하는 단계는,
상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하는 단계; 및
상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 단계;를 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
According to claim 2,
The conversion step is
generating a non-winter aerial image in which the green area is emphasized by adjusting at least one pixel value among R (Red), G (Green), and B (Blue) in the non-winter aerial image; and
and converting the non-winter aerial image in which the green area is emphasized into a Hue Saturation Value (HSV) image.
제1항에 있어서,
상기 합성 항공 영상을 생성하는 단계는,
상기 동계 항공 영상과 상기 제2 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하는 단계; 및
상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 제2 마스크 영상 각각에 가중치를 부여하여 합성하는 단계;를 포함하는 것을 특징으로 하는 항공 영상 처리 방법.
According to claim 1,
Generating the synthesized aerial image,
Calculating a ratio for adjusting pixel values for each of the winter aerial image and the second mask image; and
and combining the winter aerial image and the second mask image with weights based on the calculated ratio.
삭제delete 동계 항공 영상과 비동계 항공 영상을 이용하여 항공 영상을 처리하는 항공 영상 처리 장치에 있어서,
상기 비동계 항공 영상에서 녹지 영역을 검출하여 마스크 영상을 생성하는 마스크 영상 생성부; 및
상기 생성된 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하는 합성 항공 영상 생성부;를 포함하고,
상기 마스크 영상 생성부는,
상기 검출된 녹지 영역을 이용하여 제1 마스크 영상을 생성하는 제1 마스크 영상 생성부; 및
상기 제1 마스크 영상에 테두리 처리를 위한 소정 필터를 적용하여 상기 테두리를 부드럽게 만든 제2 마스크 영상을 생성하는 제2 마스크 영상 생성부;를 포함하고,
상기 합성 항공 영상 생성부는,
상기 제2 마스크 영상과 상기 동계 항공 영상을 합성하여 합성 항공 영상을 생성하고,
생성된 복수의 합성 항공 영상을 연결하여 항공 지도를 생성하는 항공 지도 생성부;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 장치.
An aerial image processing apparatus for processing aerial images using winter aerial images and non-winter aerial images,
a mask image generating unit generating a mask image by detecting a green area in the non-winter aerial image; and
A synthesized aerial image generating unit generating a synthesized aerial image by synthesizing the generated mask image and the winter aerial image;
The mask image generator,
a first mask image generating unit generating a first mask image using the detected green area; and
A second mask image generation unit configured to generate a second mask image in which an edge is softened by applying a predetermined filter for edge processing to the first mask image,
The synthesized aerial image generation unit,
synthesizing the second mask image and the winter aerial image to generate a synthesized aerial image;
The aerial image processing apparatus further comprising: an aerial map generator for generating an aerial map by connecting a plurality of synthesized aerial images.
제6항에 있어서,
비동계 항공 영상을 HSV(Hue Saturation Value)영상으로 변환하는 영상 변환부;를 더 포함하고,
상기 마스크 영상 생성부는,
상기 HSV 영상의 S(Saturation) 채널 영상 및 V(Value) 채널 영상 각각에 대하여 소정 픽셀 값을 기초로 녹지 영역을 검출하는 녹지 영역 검출부;를 더 포함하는 것을 특징으로 하는 항공 영상 처리 장치.
According to claim 6,
An image conversion unit for converting non-winter aerial images into Hue Saturation Value (HSV) images;
The mask image generator,
The aerial image processing apparatus further comprises a green area detection unit for detecting a green area based on a predetermined pixel value for each of the S (Saturation) channel image and the V (Value) channel image of the HSV image.
제7항에 있어서,
상기 영상 변환부는,
상기 비동계 항공 영상에서 R(Red), G(Green), B(Blue) 중 적어도 하나의 픽셀 값을 조정하여 상기 녹지 영역이 강조된 비동계 항공 영상을 생성하고, 상기 녹지 영역이 강조된 비동계 항공 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 것을 특징으로 하는 항공 영상 처리 장치.
According to claim 7,
The video conversion unit,
A non-winter aerial image in which the green area is emphasized is generated by adjusting a pixel value of at least one of R (Red), G (Green), and B (Blue) in the non-winter aerial image, and non-winter aerial image in which the green area is emphasized An aerial image processing device characterized by converting an image into a Hue Saturation Value (HSV) image.
제6항에 있어서,
상기 합성 항공 영상 생성부는,
상기 동계 항공 영상과 상기 제2 마스크 영상 각각에 대하여 픽셀 값 조정을 위한 비율(ratio)을 산출하고, 상기 산출된 비율을 기초로 상기 동계 항공 영상과 상기 제2 마스크 영상 각각에 가중치를 부여하여 합성하는 것을 특징으로 하는 항공 영상 처리 장치.
According to claim 6,
The synthesized aerial image generation unit,
For each of the winter aerial image and the second mask image, a ratio for adjusting pixel values is calculated, and based on the calculated ratio, a weight is applied to each of the winter aerial image and the second mask image to synthesize the image. Aerial image processing device, characterized in that for doing.
삭제delete 제1항 내지 제4항 중 어느 한 항에 기재된 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 저장하는 서버.A server for storing an aerial map generated using the aerial image processing method according to any one of claims 1 to 4. 제11항에 있어서,
상기 서버에 접속한 내비게이션 장치에서 경로 안내가 요청되면,
상기 서버는 상기 저장된 항공 지도를 기초로 경로 안내 정보를 생성하고, 상기 생성된 경로 안내 정보를 상기 내비게이션 장치에 전송하는 것을 특징으로 하는 서버.
According to claim 11,
When route guidance is requested from a navigation device connected to the server,
The server generates route guidance information based on the stored aerial map and transmits the generated route guidance information to the navigation device.
제1항 내지 제4항 중 어느 한 항에 기재된 항공 영상 처리 방법을 이용하여 생성된 항공 지도를 기초로 경로 안내를 수행하는 내비게이션 장치.A navigation device that performs route guidance based on an aerial map created using the aerial image processing method according to any one of claims 1 to 4. 제1 항 내지 제4항 중 어느 한 항에 기재된 항공 영상 처리 방법을 실행하기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체.A computer readable recording medium storing a program for executing the aerial image processing method according to any one of claims 1 to 4.
KR1020150126438A 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map KR102506263B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Publications (2)

Publication Number Publication Date
KR20170029286A KR20170029286A (en) 2017-03-15
KR102506263B1 true KR102506263B1 (en) 2023-03-06

Family

ID=58403396

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150126438A KR102506263B1 (en) 2015-09-07 2015-09-07 Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map

Country Status (1)

Country Link
KR (1) KR102506263B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390569B1 (en) * 2021-10-14 2022-04-27 (주)지트 Geospatial information survey system using drone

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005284540A (en) 2004-03-29 2005-10-13 Remoto Sensing Technology Center Of Japan Matching system
JP2012163644A (en) * 2011-02-04 2012-08-30 Omi:Kk Aerial photograph display device, aerial photograph display method, and program
US20150243072A1 (en) 2014-02-24 2015-08-27 Saab Ab Method and a system for building a three-dimensional model from satellite images

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101115141B1 (en) * 2005-12-06 2012-02-24 주식회사 현대오토넷 Navigation system that have function for displaying enlargement map using aerial photograph

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251618A (en) 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005284540A (en) 2004-03-29 2005-10-13 Remoto Sensing Technology Center Of Japan Matching system
JP2012163644A (en) * 2011-02-04 2012-08-30 Omi:Kk Aerial photograph display device, aerial photograph display method, and program
US20150243072A1 (en) 2014-02-24 2015-08-27 Saab Ab Method and a system for building a three-dimensional model from satellite images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dyah, et al, "Image Color Extraction of Forest" International Journal of Computer Applications, Volume 64, No.9(2013)*
jongwook, "픽셀 기반 처리 - 이미지 합성하기", 학습컨텐츠/이미지프로세싱 <https://kylog.tistory.com/20> (2007.08.04.)*

Also Published As

Publication number Publication date
KR20170029286A (en) 2017-03-15

Similar Documents

Publication Publication Date Title
US10145703B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
KR102348127B1 (en) Electronic apparatus and control method thereof
US10719990B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US9976866B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
KR102383425B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102406491B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
US20200180619A1 (en) Method for displaying lane information and apparatus for executing the method
CN108470162B (en) Electronic device and control method thereof
KR102480000B1 (en) Electronic apparatus, route guidance method of electronic apparatus, computer program and computer readable recording medium
KR102123844B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
CN108335507B (en) Method and device for providing driving guidance by using camera to shoot image
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102506263B1 (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map
KR20210071584A (en) Method and apparatus for determining location by correcting Global Navigation Satellite System based location and electronic device thereof
KR20200092197A (en) Image processing method, image processing apparatus, electronic device, computer program and computer readable recording medium for processing augmented reality image
KR102406489B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant