KR101860448B1 - System for providing view simulation image with user orientation - Google Patents

System for providing view simulation image with user orientation Download PDF

Info

Publication number
KR101860448B1
KR101860448B1 KR1020170027570A KR20170027570A KR101860448B1 KR 101860448 B1 KR101860448 B1 KR 101860448B1 KR 1020170027570 A KR1020170027570 A KR 1020170027570A KR 20170027570 A KR20170027570 A KR 20170027570A KR 101860448 B1 KR101860448 B1 KR 101860448B1
Authority
KR
South Korea
Prior art keywords
image data
information
altitude
height
unit
Prior art date
Application number
KR1020170027570A
Other languages
Korean (ko)
Inventor
김신종
홍재주
Original Assignee
주식회사 맵인어스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 맵인어스 filed Critical 주식회사 맵인어스
Priority to KR1020170027570A priority Critical patent/KR101860448B1/en
Application granted granted Critical
Publication of KR101860448B1 publication Critical patent/KR101860448B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A system for providing a user-oriented scenery simulation image using an unmanned flight object according to the present invention includes: a receiving unit for receiving image data and location information from the unmanned flight object; a storage unit for storing the image data in association with the location information including altitude information; an altitude-specific image creation unit for creating a plurality of altitude-specific image data by classifying the image data by reference height using the location information; a space data DB unit for storing space model data including location information and height information of a building; a data processing unit for creating simulation image data, which is altitude-specific image data matching to height information of each floor extracted from the space model data; an interface unit for receiving a view request signal including information on each floor or height information; and an output control unit for selecting and outputting simulation image data corresponding to the view request signal. The image providing system according to the present invention may provide a user with scenery simulation image data more accurately according to the height of each floor of a building from the viewpoint of vertical space by associating image data photographed when an unmanned flight object rises or falls in the vertical direction with feature information or location information of space model data of a planned building.

Description

무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템{SYSTEM FOR PROVIDING VIEW SIMULATION IMAGE WITH USER ORIENTATION}TECHNICAL FIELD [0001] The present invention relates to a user-oriented landscape simulation image providing system using an unmanned aerial vehicle,

본 발명은 경관 시뮬레이션 영상을 생성하고 제공하는 시스템에 관한 것으로서, 더욱 구체적으로는 무인비행체에 장착된 카메라가 촬영하는 영상데이터, 위치정보, 고도 정보 및 모델링된 건물의 특성 정보를 유기적으로 결합하여 모델링된 건물 등에서 사용자가 원하는 특정 위치 또는 층별 높이의 경관을 제공하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템에 관한 것이다.The present invention relates to a system for generating and providing a landscape simulation image, and more particularly, to a system for generating and providing landscape simulation images by organically combining image data, position information, altitude information, and characteristic information of a modeled building, The present invention relates to a user-oriented landscape simulation image providing system using a unmanned aerial vehicle that provides a landscape of a specific location or floor height desired by a user in a building or the like.

아파트, 집합 건물, 상가, 주상복합 건물 등은 실제 건설이 완료되기 전 특정 비율로 축소된 모델링된 조형물이나 모델 하우스(견본 주택) 등이 사용자에게 제공되고, 사용자는 이러한 조형물이나 모델 하우스를 통하여 그 형태, 구조, 조경 환경은 물론, 건물 주변과 건물 주변의 시장적 환경 등을 파악하게 된다.Apartment buildings, residential buildings, shopping malls, and residential complexes are provided to the user with modeled sculptures or model houses (specimen houses) reduced to a certain ratio before the actual construction is completed. It will identify the shape, structure, landscape environment as well as the market environment around the building and around the building.

근래에는 아파트 등이 고층화되어 가는 추세이며, 이러한 추세에 따라 고층 건물의 층별 높이에 따라 다양하고 정밀한 가격대가 형성되어 가고 있어 각 층별 높이에 따른 외부 경관도 구매 의사 결정이나 가격 형성에 주요한 요인이 되고 있다.In recent years, apartments have become more and more high-rise. According to this tendency, various and precise price ranges are being formed according to the height of the high-rise buildings, and external scenery according to the height of each floor is also a major factor in purchase decision and price formation have.

그러나 건축물이 완성되기 전에는 건물의 실체가 존재하지 않으므로 각 층별 조망을 확인하는 것은 불가능하며 또한, 건축물이 완성된 이후라 할지라도 각 층마다의 출입이 자유롭지 못하므로 각 층별 구조에 따른 외부 조망을 사용자가 자유롭고 객관적으로 확인할 수 있는 방법은 극히 제한적이라고 할 수 있다.However, it is not possible to confirm the view of each floor since the reality of the building does not exist before the completion of the building. Also, since the access to each floor is not free even after the building is completed, The method of free and objective confirmation is extremely limited.

저층의 경우 해당 부지의 평면 위치에서 어느 정도 육안으로 확인이 될 수 있다고 하여도 고층 건물(아파트)의 경우 해당 층의 거실이나 또는 베란다 창문을 통하여 조망되는 외부 경관의 모습을 사용자가 객관적으로 확인하는 방법이 없는 실정이다.In the case of a low-rise building, it can be confirmed visually from a flat position of the corresponding site. However, in the case of a high-rise building (apartment), the user objectively confirms the appearance of the exterior view through the living room of the floor or the veranda window There is no method.

한편, 근래 드론(무인비행체)이 촬영하는 영상을 이용하는 다양한 방법이 시도되고 있기는 하나 종래에는 한국공개특허공보 2016-0125215호 등에 개시된 바와 같이 드론에서 촬영한 영상을 이용하여 경로를 확인하여 안내하거나 보행하는 사용자가 주변 건물과의 충돌 등을 예상하는 방법 등으로 이용되거나 특정 시설물을 모니터링하는 방법으로 활용될 뿐, 모델링된 건물과 연계하여 모델링된 건물의 각 층별 경관 내지 조망 영상을 사용자의 니즈(NEEDS)에 부합되도록 다양한 방법으로 제공하지 못하고 있다.Meanwhile, various methods using images taken by a drone (unmanned aerial vehicle) have been tried, but conventionally, as disclosed in Korean Patent Laid-Open Publication No. 2016-0125215, A method of estimating a collision with a neighboring building or the like is used as a method of monitoring a specific facility or a user who is walking is used as a method of monitoring a specific facility, NEEDS) in a variety of ways.

한국공개특허공보 10-2016-0125212호(2016.10.31.)Korean Patent Publication No. 10-2016-0125212 (October 31, 2016) 한국등록특허공보 10-1662071호(2016.09.27.)Korean Patent Registration No. 10-1662071 (Feb.

본 발명은 상기와 같은 배경에서 상술된 문제점을 해결하기 위하여 창안된 것으로서, 무인비행체가 촬영하는 영상데이터, 촬영이 이루어지는 고도 정보, 위치정보, 모델링된 건물의 층별 높이 정보 등을 유기적으로 결합하는 프로세싱을 통하여 사용자가 원하는 층별 높이의 경관 내지 조망에 대한 영상 데이터를 사용자 니즈에 부합되는 다양한 방법으로 제공할 수 있는 시스템 내지 영상데이터 구축에 대한 인프라를 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems in the background as described above, and it is an object of the present invention to provide an image processing apparatus, an image processing method, The present invention provides an infrastructure for constructing a system or image data that can provide image data of scenery or view of a floor height desired by a user in various ways according to user needs.

본 발명의 다른 목적 및 장점들은 아래의 설명에 의하여 이해될 수 있으며, 본 발명의 실시예에 의하여 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 그 구성의 조합에 의하여 실현될 수 있다.Other objects and advantages of the present invention will become apparent from the following description, and it will be apparent from the description of the embodiments of the present invention. Further, the objects and advantages of the present invention can be realized by a combination of the constitution shown in the claims and the constitution thereof.

상기 목적을 달성하기 위한 본 발명의 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공 시스템은 카메라, GPS센서 및 고도센서가 구비된 무인비행체로부터 영상데이터 및 위치정보를 수신하는 수신부; 상기 영상데이터를 고도 정보를 포함하는 위치정보와 연계하여 저장하는 저장부; 상기 위치정보를 이용하여 상기 영상데이터를 기준 높이별 영상데이터로 분류한 복수 개의 고도별 영상데이터를 생성하는 고도별 영상생성부; 건축물의 위치정보 및 높이정보가 포함된 공간모델 데이터가 저장되는 공간데이터DB부; 상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터인 시뮬레이션 영상데이터를 생성하는 데이터처리부; 층별정보 또는 높이정보가 포함된 조망요청신호를 입력받는 인터페이스부; 및 상기 조망요청신호에 해당하는 시뮬레이션 영상데이터를 선별하여 출력하는 출력제어부를 포함하여 구성될 수 있다.According to another aspect of the present invention, there is provided a user-oriented landscape simulation image providing system using an unmanned aerial vehicle, comprising: a receiver for receiving image data and location information from an unmanned aerial vehicle equipped with a camera, a GPS sensor, and an altitude sensor; A storage unit for storing the image data in association with location information including altitude information; An altitude-specific image generating unit for generating a plurality of altitude-based image data classified into image data of a reference height by using the position information; A spatial data DB unit for storing spatial model data including position information and height information of a building; A data processing unit for generating simulation image data, which is image data of altitude matched with the layer height information extracted from the spatial model data; An interface unit for receiving a view request signal including floor information or height information; And an output controller for selectively outputting simulation image data corresponding to the view request signal.

또한, 본 발명의 상기 고도별 영상생성부는 구체적으로 상기 무인비행체의 촬영이 개시되는 지점의 초기 고도정보 및 촬영이 종료되는 지점의 최후 고도정보를 추출하는 고도추출부; 촬영 개시 지점부터 촬영 종료 지점까지의 각 높이별 영상데이터를 상하 방향으로 통합한 통합영상데이터를 생성하는 영상통합부; 및 상기 초기 고도정보와 최후 고도정보의 고도 차이정보 및 기준 높이정보를 이용하여 상기 통합영상데이터를 복수 개의 기준 높이별 영상데이터로 분리시켜 상기 복수 개의 고도별 영상 데이터를 생성하는 영상분류부를 포함하여 구성되는 것이 바람직하다. According to another aspect of the present invention, there is provided an image generating unit for an altitude, the apparatus comprising: an altitude extracting unit for extracting initial altitude information at a point where photographing of the unmanned aerial vehicle is started and final altitude information at a point where photographing ends; An image integration unit for generating integrated image data in which the image data for each height from the shooting start point to the shooting end point are vertically integrated; And an image classifier for generating the plurality of pieces of image data by separating the combined image data into image data of a plurality of reference heights by using the altitude difference information and the reference height information of the initial altitude information and the latest altitude information, .

여기에서 본 발명의 상기 무인비행체는 광학 특성정보가 서로 다른 제1 및 제2 카메라가 장착될 수 있으며 이 경우 본 발명의 상기 수신부는 상기 제1 및 제2 카메라 각각의 영상데이터를 수신하고, 상기 데이터처리부는 상기 제1 및 제2카메라 각각의 영상데이터를 이용하여 서로 다른 뷰각(view angle)의 시뮬레이션 영상데이터를 생성하도록 구성될 수 있다.Here, the first and second cameras having different optical characteristic information may be mounted on the unmanned air vehicle of the present invention. In this case, the receiver of the present invention receives image data of the first and second cameras, The data processing unit may be configured to generate simulation image data of different view angles using the image data of the first and second cameras.

또한, 본 발명의 상기 조망요청신호는 경관 조망이 이루어지는 경관위치정보가 더 포함될 수 있으며 이 경우 본 발명은 상기 출력제어부는 상기 조망요청신호에 포함된 층별정보 또는 높이정보에 해당하는 서로 다른 뷰각의 시뮬레이션 영상데이터 중 상기 입력된 경관위치정보에 해당하는 시뮬레이션 영상데이터를 선별하여 출력하도록 구성될 수 있다.In addition, the view request signal of the present invention may further include landscape position information on which a landscape view is made. In this case, the output control unit may display the view information of the view information And outputting simulation image data corresponding to the input landscape position information among the simulation image data.

더욱 바람직하게, 본 발명의 상기 공간모델 데이터는 상기 건축물의 독립공간별 위치정보, 창문 위치정보 및 창문의 크기 정보인 조망특성정보가 더 저장될 수 있으며, 이 경우 본 발명은 상기 조망특성정보를 이용하여 조망각도 또는 조망크기에 대한 파라미터를 생성하는 파라미터 결정부를 더 포함할 수 있으며 본 발명의 상기 데이터처리부는 상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터를 상기 생성된 파라미터에 부합되도록 가공하여 상기 시뮬레이션 영상데이터를 생성하도록 구성될 수 있다.More preferably, the spatial model data of the present invention may further store location information of the building, independent location information of the building, window position information, and viewing characteristic information which is window size information. In this case, The data processing unit of the present invention may further include a parameter determination unit for generating a parameter for a viewing angle or view size by using the generated height information and the height information matching the height information extracted from the spatial model data, So as to generate the simulation image data.

또한, 본 발명의 상기 출력제어부는 상기 인터페이스부로부터 서로 다른 복수 개의 층별정보 또는 높이정보가 포함된 조망요청신호가 입력되면, 각 층별정보 또는 높이정보에 해당하는 시뮬레이션 영상데이터를 각각 선별하고, 선별된 복수 개의 시뮬레이션 영상데이터에서 중첩되는 영상 데이터 영역과 각 층별정보 또는 높이 정보에만 해당하는 독립된 영상 데이터 영역을 각각 생성하여 출력하도록 구성하는 것이 바람직하다. When the view request signal including a plurality of different layer information or height information is inputted from the interface unit, the output control unit of the present invention selects simulation image data corresponding to each layer information or height information, It is preferable to generate and output an overlapped video data area and a separate video data area corresponding to each layer information or height information, respectively, from the plurality of simulated video data.

나아가 본 발명의 상기 무인비행체는 몸체 부분에서 수직 상하 방향으로 이동하는 중심프레임; 상기 중심프레임 상부에 구비되는 상기 카메라; 및 지면과의 높이가 기준 거리 이내인 경우 상기 무인비행체의 착륙을 지지하도록 상기 중심프레임이 수직 하방으로 내려오도록 제어하며, 촬영개시신호가 입력되는 경우 상기 무인비행체에 구비된 프로펠러가 상기 카메라의 영상 데이터에 포함되지 않는 높이까지 상기 중심프레임을 수직 상방으로 상승하도록 제어하는 구동제어부를 포함하여 구성될 수 있다.Further, the unmanned aerial vehicle of the present invention includes a center frame that moves vertically up and down in a body part; A camera provided on the center frame; And controlling the center frame to be vertically downwardly supported to support the landing of the unmanned air vehicle when the height between the center frame and the ground is within a reference distance. When a photographing start signal is input, the propeller provided in the unmanned air vehicle And a drive controller for controlling the center frame to rise vertically up to a height not included in the data.

본 발명에 의한 영상제공시스템은 무인비행체가 수직 방향으로 상승 내지 하강하면서 촬영되는 영상 데이터를 예정 건축물의 공간모델데이터의 특성정보 내지 위치 정보와 연계함으로써 수직적 공간의 관점에서 건축물의 각 층별 높이에 따른 경관 시뮬레이션 영상데이터를 더욱 정확하게 사용자에게 제공할 수 있다.The image providing system according to the present invention is a system in which image data taken while the unmanned aerial vehicle ascends or descends in a vertical direction is associated with characteristic information or positional information of spatial model data of a prospective building, The landscape simulation image data can be more accurately provided to the user.

또한, 본 발명은 수평적 공간의 관점에서, 경관이 이루어지는 수평적 공간 위치(예를 들어, 거실 중앙, 베란다 창문 등)에 따른 사용자의 시야각 변화를 적응적으로 반영할 수 있는 시뮬레이션 영상데이터를 생성하고 제공할 수 있어 영상제공 시스템을 더욱 사용자 지향적인 환경으로 구현할 수 있다.In addition, the present invention generates simulated image data that adaptively reflects a change in viewing angle of a user depending on a horizontal spatial position (for example, a living room center, a veranda window, and the like) And the image providing system can be implemented in a more user-oriented environment.

나아가 본 발명은 서로 다른 층의 높이에서 각각 생성되는 시뮬레이션 영상 데이터를 중첩 영역과 독립 영역으로 차등적으로 대비하여 제공함으로써 각 층별 경관 조망의 차이에 대한 사용자의 시인성을 더욱 향상시킬 수 있다. Furthermore, the present invention can further improve the visibility of the user with respect to the difference of the landscape view of each floor by providing the simulation image data generated at the heights of the different layers differentially from the overlap area and the independent area.

또한, 영상 촬영이 이루어지는 경우와 그러하지 않는 경우에 따라 카메라가 장착된 프레임이 승강하는 구조를 무인비행체에 적용함으로써, 영상 촬영 시 무인비행체의 몸체 또는 외주 프로펠러 등이 용이하게 영상에서 배제될 수 있도록 하여 영상 촬영의 효율성을 더욱 향상시키고 무인비행체의 이착륙에 따른 구동 효율성을 높일 수 있다. In addition, by applying the structure in which the frame equipped with the camera is raised and lowered according to the case where the image capturing is performed or not, the body or the outer propeller of the unmanned aerial vehicle can be easily excluded from the image It is possible to further improve the efficiency of image shooting and to improve the driving efficiency according to the takeoff and landing of the unmanned aerial vehicle.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술 사상을 더욱 효과적으로 이해시키는 역할을 하는 것이므로, 본 발명은 이러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 바람직한 일 실시예에 의한 영상제공시스템 및 관련 구성을 전반적으로 도시한 도면,
도 2는 본 발명의 바람직한 일 실시예에 의한 영상제공시스템의 상세 구성을 도시한 블록도,
도 3은 본 발명의 바람직한 일 실시예에 의한 영상제공방법에 대한 과정을 도시한 흐름도,
도 4는 무인비행체를 이용하여 영상을 생성하는 본 발명의 일 실시예를 설명하는 도면,
도 5는 서로 다른 광학 특성을 가지는 복수 개 카메라를 이용하여 뷰각이 서로 다른 영상데이터를 생성하는 본 발명의 일 실시예를 설명하는 도면,
도 6은 본 발명의 바람직한 실시예에 의하여 생성되는 다양한 시뮬레이션 영상데이터를 설명하는 도면,
도 7은 본 발명의 바람직한 일 실시예에 의한 무인비행체의 구조를 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the detailed description of the invention given below, serve to better understand the technical idea of the invention, And shall not be construed as limited to such matters.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view generally showing an image providing system and related configurations according to a preferred embodiment of the present invention;
2 is a block diagram showing a detailed configuration of a video providing system according to a preferred embodiment of the present invention.
FIG. 3 is a flowchart illustrating a method of providing a video according to an exemplary embodiment of the present invention.
4 is a view for explaining an embodiment of the present invention for generating an image using an unmanned aerial vehicle,
5 is a view for explaining an embodiment of the present invention for generating image data having different view angles by using a plurality of cameras having different optical characteristics,
6 is a view for explaining various simulation image data generated according to a preferred embodiment of the present invention,
7 is a view illustrating a structure of an unmanned aerial vehicle according to an exemplary embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

도 1은 본 발명의 바람직한 일 실시예에 의한 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템(이하 ‘영상제공시스템’이라 지칭한다)(100) 및 관련 구성을 전반적으로 도시한 도면이다.1 is a diagram generally showing a user-oriented landscape simulation image providing system (hereinafter, referred to as 'image providing system') 100 using an unmanned aerial vehicle according to a preferred embodiment of the present invention, and related configurations.

본 발명의 영상제공시스템(100)은 도 1에 도시된 바와 같이 카메라(210) 등의 영상촬영장치가 구비된 무인비행체(200)와 네트워크(5)를 통하여 통신가능하게 연결된다. The image providing system 100 of the present invention is communicably connected to a UAV 200 equipped with a photographing device such as a camera 210 through a network 5 as shown in FIG.

본 발명의 영상제공시스템(100)은 온라인 서버 등의 형태로 구현되는 것이 일반적일 수 있으나, 다양한 형태의 장치 내지 단말로 구현될 수 있으며, 본 발명의 영상제공시스템(100)과 직접 연결되거나 또는 네트워크(5)를 통하여 연결되는 화면표시수단(90) 또는 이 화면표시수단(90)과 연결되는 다른 서버 또는 장치와 연동되도록 구성되어 시뮬레이션 영상데이터를 사용자 등에게 제공하도록 구성될 수 있다.The image providing system 100 of the present invention may be implemented in the form of an on-line server or the like. However, the image providing system 100 may be implemented in various types of apparatuses or terminals and may be directly connected to the image providing system 100 of the present invention, A screen display means 90 connected via a network 5 or other server or device connected to the screen display means 90 and configured to provide simulation image data to a user or the like.

상기 네트워크(5)는 데이터 통신을 수행하는 통신망으로서 데이터 전송이 가능하다면 유선, 무선, 유무선 결합형태 등을 구분하지 않으며, LAN, CDMA, WCDMA, LTE, Bluetooth, WiFi 등 다양한 프로토콜과 방식으로 구현될 수 있음은 물론이다. The network 5 is a communication network for performing data communication. If the data transmission is possible, the network 5 does not distinguish the wired, wireless, wired and wireless connection type and is implemented with various protocols and methods such as LAN, CDMA, WCDMA, LTE, Bluetooth and WiFi Of course.

무인비행체(200)는 그 물리적인 위치가 수시로 변경되므로 본 발명의 영상제공시스템(100)은 무인비행체(200)와 무선 환경을 통하여 통신 가능하게 연결되는 것이 바람직하다.Since the physical location of the unmanned air vehicle 200 is changed from time to time, it is preferable that the image providing system 100 of the present invention is communicably connected to the unmanned air vehicle 200 through a wireless environment.

무인비행체(200)의 경우 그 위치 변화 영역이 다양하게 이루어질 수 있으므로 통신 환경의 효율성을 높이기 위하여 무인비행체(200)와 무선 통신을 수행하며 본 발명의 영상제공시스템(100)과 유선 또는 무선으로 통신 가능하게 연결되는 하나 이상의 무선 통신용 AP(50)가 더 구비될 수 있다.In order to increase the efficiency of the communication environment, the unmanned air vehicle 200 performs wireless communication with the unmanned air vehicle 200 and can communicate with the image providing system 100 of the present invention by wire or wireless communication One or more APs 50 for wireless communication may be further provided.

이와 같은 통신 환경을 기반으로 본 발명의 영상제공시스템(100)은 무인비행체(200)로부터 촬영되는 영상 데이터, 무인비행체(200)의 위치정보, 고도(height/altitude) 정보, 무인비행체(200)에 구비된 카메라(210)의 특성 정보(화각정보, 초점정보, 팬(pan), 틸트(tilt), 줌(zoom) 정보 등) 등을 전송받으며 후술되는 바와 같은 본 발명만의 고유한 프로세싱을 수행한다.Based on the communication environment, the image providing system 100 of the present invention can acquire image data photographed from the unmanned air vehicle 200, position information of the unmanned air vehicle 200, height / altitude information, (Such as angle of view information, focus information, pan, tilt, zoom information, etc.) of the camera 210 provided in the camera 210 and transmits the unique processing of the present invention .

본 발명은 후술되는 바와 같이 신축 예정인 건물의 위치에서 무인비행체(200)가 수직 방향으로 정해진 고도까지 상승하면서 촬영된 영상 데이터를 활용하는데, 이를 위하여 본 발명은 신축 예정 건물의 위치정보, 높이 정보, 부지정보, 렌더링 데이터 등이 포함되는 공간모델데이터가 구축된 DB서버(300)와 통신 가능하게 연결될 수 있다.
The present invention utilizes image data taken while the unmanned aerial vehicle 200 is elevated to a predetermined altitude in a vertical direction at a location of a building to be newly constructed or expanded. Space model information including location information, rendering data, and the like can be communicatively connected to the DB server 300 in which the spatial model data is installed.

이하에서는 첨부된 도면 등을 참조하여 본 발명에 의한 영상제공시스템(100)의 구체적인 구성과 프로세싱에 대하여 상세히 설명하도록 한다. Hereinafter, a specific configuration and processing of the image providing system 100 according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 일 실시예에 의한 영상제공시스템(100)의 상세 구성을 도시한 블록도이며, 도 3은 본 발명의 바람직한 일 실시예에 의한 영상제공방법에 대한 과정을 도시한 흐름도이다.FIG. 2 is a block diagram illustrating a detailed configuration of an image providing system 100 according to an exemplary embodiment of the present invention. FIG. 3 is a flowchart illustrating a method of providing an image according to an exemplary embodiment of the present invention. to be.

도 2에 도시된 바와 같이 본 발명의 영상제공시스템(100)은 수신부(110), 저장부(120), 고도별영상생성부(130), 공간데이터DB부(140), 데이터처리부(150), 인터페이스부(160) 및 출력제어부(170)를 포함하여 구성될 수 있다.2, the image providing system 100 of the present invention includes a receiving unit 110, a storage unit 120, an altitude-specific image generating unit 130, a spatial data DB unit 140, a data processing unit 150, An interface unit 160, and an output control unit 170.

본 발명의 상세한 설명에 앞서, 도 2에 도시된 본 발명의 영상제공시스템(100)에 대한 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 이해되어야 한다. Prior to the description of the present invention, each component of the image providing system 100 of the present invention shown in FIG. 2 should be understood as a logically separated component rather than as a physically distinct component.

즉, 각각의 구성은 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 구성되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.That is, since each constitution corresponds to a logical constituent element for realizing the technical idea of the present invention, even if each constituent element is constituted integrally or separately, if the function performed by the logical constitution of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.

본 발명의 수신부(110)는 영상데이터를 생성하는 카메라(210), 위치정보의 전송을 위한 GPS센서/고도센서가 구비된 무인비행체(200)로부터 영상데이터 및 현재 무인비행체(200)의 위치 정보를 수신한다(S710). The receiving unit 110 of the present invention includes a camera 210 for generating image data, image data from the unmanned air vehicle 200 equipped with a GPS sensor / altitude sensor for transmitting position information, and position information of the current unmanned air vehicle 200 (S710).

무인비행체(200)는 예정 건물이 들어설 부지 위치에서 수직 방향으로 이동하면서 각 고도 내지 높이별 영상 데이터를 생성한다. 실시형태에 따라서 예정 건물의 가운데 위치는 물론, 예정 건물에 설치될 하나 이상의 창문 위치를 고려한 위치 등에서 무인비행체(200)가 수직 방향으로 상승하면서 영상 데이터를 생성하도록 구성할 수 있다. The unmanned aerial vehicle 200 moves in a vertical direction at a site location where a predetermined building is installed, and generates image data for each altitude to height. According to the embodiment, it is possible to construct image data while the unmanned air vehicle 200 is elevated in the vertical direction at a position considering a center position of a prospective building as well as a position of one or more windows to be installed in a prospective building.

영상 처리의 효율성을 높이고 전방위적인 경관 영상 데이터가 생성될 수 있도록 하기 위하여 무인비행체(200)에 탑재되는 카메라(210) 내지 영상촬영장치는 360도 촬영이 가능한 카메라 등을 이용하는 것이 바람직하다.In order to increase the efficiency of the image processing and generate omnidirectional landscape image data, it is preferable that the camera 210 or the image photographing apparatus mounted on the unmanned air vehicle 200 uses a camera capable of photographing 360 degrees.

본 발명의 저장부(120)는 무인비행체(200)가 촬영한 영상데이터가 수신되면, 수신된 영상데이터를 촬영시간 정보 및 고도정보를 포함하는 위치정보와 연계하여 저장한다(S720).When the image data photographed by the unmanned aerial vehicle 200 is received, the storage unit 120 stores the received image data in association with location information including photographing time information and altitude information at step S720.

실시형태에 따라서 최종 고도에 대한 영상데이터가 수신되면(S710) 그 때까지 수신된 영상 데이터를 각 고도정보, 위치정보, 촬영시간정보와 함께 연계하여 저장하도록 구성할 수 있다.When the image data of the final altitude is received according to the embodiment (S710), the received image data may be stored in association with the altitude information, the location information, and the photographing time information.

이와 같이 무인비행체(200)에 의한 영상 데이터를 DB로 구축하는 과정을 도 4를 참조하여 보충 설명하면 아래와 같다. A process of constructing the image data by the unmanned aerial vehicle 200 as a DB will be described with reference to FIG. 4 as follows.

도 4에 도시된 바와 같이, 무인비행체(200)가 비행을 시작하는 초기 고도(Point-1)에서 무인비행체(200)에 구비된 카메라(210)가 촬영한 영상 데이터가 S1이 되며, 촬영이 종료되는 지점인 최후 고도(Point-n)에서 카메라(210)가 촬영한 영상데이터가 Sn이 된다.As shown in FIG. 4, at the initial altitude (Point-1) at which the unmanned air vehicle 200 starts to fly, the image data taken by the camera 210 provided in the unmanned air vehicle 200 becomes S1, The image data photographed by the camera 210 at the last altitude (Point-n), which is the end point, becomes Sn.

이와 같은 방법으로 무인비행체(200)는 각 고도별 영상 데이터(S1, S2, ..., Sn-1, Sn)를 생성하고 각 영상데이터(S1, S2, ..., Sn-1, Sn)는 각 영상데이터가 생성된 시간정보, 고도정보 등과 본 발명의 수신부(110)로 전송되며 본 발명의 저장부(120)는 이들 데이터를 상호 연계하여 DB화한다.
In this way, the unmanned aerial vehicle 200 generates the image data S1, S2, ..., Sn-1, Sn for each altitude and outputs the image data S1, S2, ..., Sn- Is transmitted to the receiving unit 110 of the present invention together with time information and altitude information on which each image data is generated, and the storage unit 120 of the present invention associates these data with each other to form a DB.

이와 같이 본 발명의 저장부(120)가 영상데이터를 다른 정보들과 연계하여 DB화하면, 본 발명의 고도별영상생성부(130)는 위치정보(고도정보, 수평 위치정보 등)를 이용하여 상기 영상데이터를 기준 높이별 영상데이터로 분류한 복수 개의 고도별 영상데이터를 생성한다(S730).As described above, when the storage unit 120 of the present invention associates image data with other information and DB, the altitude-specific image generation unit 130 of the present invention uses position information (altitude information, horizontal position information, etc.) And generates a plurality of pieces of image data classified into the image data of each reference height by the image data (S730).

본 발명의 상기 고도별영상생성부(130)는 구체적으로 도 2에 도시된 바와 같이 고도출출부(131), 영상통합부(132) 및 영상분류부(133)를 포함하여 구성될 수 있다.As shown in FIG. 2, the altitude-specific image generation unit 130 of the present invention may include an altitude output unit 131, an image integration unit 132, and an image classification unit 133.

우선 본 발명의 고도추출부(131)는 무인비행체(200)의 촬영이 개시되는 지점의 초기 고도정보 및 촬영이 종료되는 지점의 최후 고도정보를 추출한다(S731).First, the altitude extracting unit 131 of the present invention extracts initial altitude information at a point where photographing of the unmanned aerial vehicle 200 is started and final altitude information at a point where photographing is finished (S731).

또한, 본 발명의 영상통합부(132)는 촬영이 개시되는 지점(도 4의 Point_1)부터 촬영이 종료되는 지점(도 4의 Point_n)까지의 각 높이별 영상데이터를 상하 방향으로 통합한 통합영상데이터를 생성한다(S733). In addition, the image integrating unit 132 of the present invention integrates the image data for each height from the point where the photographing is started (Point_1 in FIG. 4) to the point where the photographing ends (Point_n in FIG. 4) And generates data (S733).

이 통합영상데이터는 종래 횡방향으로 영상을 머징(merging)하는 파노라마(panorama) 영상 생성 방법 등을 수직 방향으로 적용하여 수직 상하 방향으로 S1 ~ Sn의 영상을 통합한 영상데이터일 수 있다. The integrated image data may be image data obtained by integrating images of S1 to Sn vertically vertically by vertically applying a panorama image generation method for merging images in a conventional lateral direction.

예를 들어, 영상데이터 S1의 상단 부분 영상과 영상데이터 S2의 하단 부분 영상에서 상호 일치되는 부분을 기준으로 영상데이터 S1과 S2를 수직 상하 방향으로 머징시키며, 이러한 방법을 영상데이터 Sn와 Sn-1까지 순차적으로 적용함으로써 S1~Sn 영상 모두를 이용하여 수직 방향으로 통합된 통합 영상데이터를 생성할 수 있다. 여기에서 n은 2 이상의 자연수이다.For example, the image data S1 and S2 are merged vertically in the vertical direction on the basis of a part of the upper part image of the image data S1 and a lower part image of the image data S2, The integrated image data integrated in the vertical direction can be generated by using all of the S1 to Sn images. Where n is a natural number greater than or equal to 2.

이와 같이 통합 영상데이터가 생성되면 본 발명의 영상분류부(133)는 상기 통합 영상데이터를 복수 개의 기준 높이별 영상데이터로 분리 내지 분류한다(S735). When the integrated image data is generated as described above, the image classifying unit 133 of the present invention separates or classifies the integrated image data into a plurality of reference height image data (S735).

앞서 본 발명의 고도추출부(131)가 초기 고도정보와 최후 고도정보를 추출하였으므로 이들 고도 차이정보를 이용하면 통합 영상데이터의 전체 높이 정보를 산출할 수 있고, 이 전체 높이에 대한 통합 영상데이터를 기준 높이정보에 대응되는 복수 개의 영상으로 분리시킴으로써, 복수 개의 고도별 영상 데이터를 생성한다.Since the altitude extracting unit 131 of the present invention extracts the initial altitude information and the latest altitude information, the altitude information of the integrated image data can be calculated using the altitude difference information, and the integrated image data of the altitude Into a plurality of images corresponding to the reference height information, thereby generating a plurality of image data for each altitude.

고도별 영상 데이터를 수직 상하 방향으로 분리하는 파라미터인 기준 높이 정보는 통상적으로 모델링된 건물의 층별 높이에 대응되는 정보로서 사용자의 시야각을 고려한 높이 정보에 해당한다. 이 기준 높이 정보는 가변적으로 적용될 수 있음은 물론이다. The reference height information, which is a parameter for separating the elevation image data vertically in the vertical direction, corresponds to the height information considering the viewing angle of the user as information corresponding to the floor height of the modeled building. Needless to say, this reference height information can be variably applied.

다양하게 가변될 수 있는 높이별로 적응적인 영상이 생성되고 활용될 수 있도록 하기 위하여 본 발명은 앞서 설명된 바와 같이 통합영상데이터를 생성한 후, 다시 이 통합영상데이터를 기준 높이별로 분리 내지 분류시키는 방법을 적용한다. In order to generate and utilize an adaptive image according to the height that can be varied in various ways, the present invention generates the integrated image data as described above, and then separates and classifies the integrated image data by the reference height Is applied.

또한, 2차원 위치 정보는 GPS 모듈의 정밀성에 의하여 그 오차 범위가 유미의한 정도로 작을 수 있으나 고도정보를 생성하는 센서는 아직 그 분해능이 정밀하지 못하므로 무인비행체(200)가 전송하는 각 높이별 고도정보를 기준으로 영상을 개별적으로 생성하는 경우 오차 범위가 커지게 된다.In addition, although the error range of the two-dimensional position information may be as small as that of Yumi due to the precision of the GPS module, the sensor for generating the altitude information is not yet precise in resolution, When the images are individually generated based on the altitude information, the error range becomes large.

그러므로 본 발명은 상대적으로 이격된 거리가 큰 최초 고도정보와 최후 고도정보의 고도차 정보를 이용하여 통합 영상데이터를 생성하고 이를 이용하여 고도별 영상데이터를 생성함으로써, 고도 정보의 오차를 현저히 낮출 수 있게 된다. Therefore, according to the present invention, the integrated image data is generated using the altitude information of the first altitude information and the last altitude information having relatively large distances, and the altitude information is generated using the altitude information, do.

한편, 본 발명의 공간데이터DB부(140)에는 예정 건물 내지 건축물의 위치정보, 층별정보, 층별 높이 정보 등이 포함되며, 실시형태에 따라서 2차원 또는 3차원으로 랜더링된 데이터를 포함하는 공간모델 데이터가 저장된다. 앞서 기술된 바와 같이 필요한 범위에서 공간모델 데이터는 DB서버(300)로부터 전송될 수 있음은 물론이다.In the meantime, the spatial data DB unit 140 of the present invention includes spatial information of a planned building or a building, information of each floor, height information of each floor, and the like. In accordance with the embodiment, a space model including data rendered in two- Data is stored. It goes without saying that the spatial model data can be transmitted from the DB server 300 within a necessary range as described above.

본 발명의 데이터처리부(150)는 상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터인 시뮬레이션 영상데이터를 생성한다(S740). 만약 공간 모델 데이터에서 추출된 층별 높이 정보가 앞서 생성된 고도별 영상 영상데이터의 생성에 이용된 기준 높이와 동일하다면 시뮬레이션 영상데이터는 고도별 영상 데이터와 일대일로 대응될 수 있다. 실시형태에 따라서 고도별 영상 데이터를 생성하는 프로세싱에서 공간모델 데이터에 수록된 층별 높이 정보를 그대로 활용할 수 있음은 물론이다.The data processing unit 150 of the present invention generates simulation image data, which is image data of the altitude matched with the layer height information extracted from the spatial model data (S740). If the layer height information extracted from the spatial model data is the same as the reference height used to generate the altitude image data, the simulation image data can correspond to the altitude image data on a one-to-one basis. It is needless to say that it is possible to utilize the layer height information recorded in the spatial model data as it is in the processing for generating the image data of the altitude according to the embodiment.

기준 높이 정보를 단위화된 높이, 예를 들어, 1m 간격으로 설정하고 이 단위 높이를 기준으로 고도별 영상 데이터를 생성해 두는 경우, 향후 공간 모델 데이터의 층별 높이가 후속적으로 확정되더라도 이 층별 높이 정보에 매칭되는 시뮬레이션 영상데이터를 더욱 정확하고 용이하게 생성할 수 있다. When the reference height information is set to a unitized height, for example, an interval of 1 m, and image data for each elevation is generated on the basis of the unit height, even if the height of the floor of the spatial model data is determined subsequently, The simulation image data matched with the information can be generated more accurately and easily.

이와 같은 프로세싱에 의하여 층별 높이 정보에 매칭되는 복수 개의 시뮬레이션 영상데이터가 생성되면, 본 발명의 출력제어부(170)는 인터페이스부(160)를 통하여 사용자 등으로부터 입력된 조망요청신호(층별정보 또는 높이정보 포함)에 해당하는 시뮬레이션 영상데이터를 선별하여 화면표시수단(90) 등으로 출력한다(S750)When a plurality of pieces of simulation image data matching the layer height information are generated by the above processing, the output control unit 170 of the present invention transmits a view request signal (layer information or height information And outputs the selected simulation image data to the screen display means 90 or the like (S750)

조망요청신호는 사용자가 특정 화면 등과 같은 GUI 환경을 통하여 입력하는 신호일 수 있으며 신축 예정 건물 등을 그래픽으로 구현하고 해당 그래픽에서 특정 층을 클릭하거나 선택하는 방법 등을 통하여 본 발명의 영상제공시스템(100)으로 입력되도록 구성될 수 있다.
The view request signal may be a signal input by a user through a GUI environment such as a specific screen, or may be implemented by graphically implementing a new building or the like, and clicking or selecting a specific layer in the graphic, As shown in FIG.

이하에서는 첨부된 도면 등을 통하여 본 발명의 다른 바람직한 실시예를 상세히 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 5는 서로 다른 광학 특성을 가지는 복수 개 카메라(210)를 이용하여 뷰각이 서로 다른 영상데이터를 생성하는 본 발명의 일 실시예를 설명하는 도면이다.5 is a diagram for explaining an embodiment of the present invention for generating image data having different view angles by using a plurality of cameras 210 having different optical characteristics.

도 5에 도시된 바와 같이 본 발명의 무인비행체(200)는 광학 특성 정보(화각, 초점 거리 등)가 서로 다른 제1카메라(210-1)과 제2카메라(210-2)가 장착될 수 있다.As shown in FIG. 5, the unmanned aerial vehicle 200 according to the present invention may include a first camera 210-1 and a second camera 210-2 having optical characteristic information (angle of view, focal length, etc.) have.

도 5에 예시된 바와 같이 제1카메라(210-1)는 화각이 a인 영상 데이터를 생성하고 제2카메라(210-2)는 화각이 b인 영상 데이터를 생성한다. 제1 및 제2카메라(210-1, 210-2)는 도면에 예시된 바와 같이 무인비행체(200)의 몸체를 기준으로 상하 방향에 배치될 수 있으나 이에 한정되는 것이 아니다.As illustrated in FIG. 5, the first camera 210-1 generates image data having an angle of view 'a', and the second camera 210-2 generates image data having an angle of view 'b'. The first and second cameras 210-1 and 210-2 may be disposed vertically with respect to the body of the unmanned air vehicle 200 as illustrated in the drawing, but are not limited thereto.

이와 같이 복수 개의 카메라(210)가 장착되는 경우 본 발명의 수신부(110)는 제1 및 제2카메라 각각의 영상데이터를 모두 수신하며, 제1카메라(210-1)의 영상 데이터 및 제2카메라(210-2)의 영상 데이터 각각을 대상으로 앞서 설명된 본 발명의 프로세싱이 수행된다.When the plurality of cameras 210 are mounted as described above, the receiving unit 110 of the present invention receives all of the image data of the first and second cameras, and the image data of the first camera 210-1, The processing of the present invention described above is performed on each of the image data of the image processing unit 210-2.

그러므로 최종적으로 본 발명의 데이터처리부(150)는 상기 제1카메라(210-1) 및 제2카메라(210-2) 각각의 영상데이터를 이용하여 서로 다른 뷰각(view angle)의 시뮬레이션 영상데이터를 생성한다. Therefore, the data processor 150 of the present invention generates simulated image data of different view angles using the image data of the first camera 210-1 and the second camera 210-2, respectively do.

도 5에서 화각 a를 가지는 제1카메라(210-1)가 각 고도(Point_n, Pont_n-1)에서 촬영하는 영상 데이터는 Sn-A, Sn-1-A이며, 화각 b를 가지는 제2카메라(210-2)가 각 고도(Point_n, Pont_n-1)에서 촬영하는 영상 데이터는 Sn-B, Sn-1-B이다. 5, the image data captured by the first camera 210-1 having the angle of view a at each altitude (Point_n, Pont_n-1) are Sn-A and Sn-1-A, Sn-1, and Sn-1-B, respectively, at the respective altitudes (Point_n, Pont_n-1).

이들 각 화각마다의 영상 데이터를 이용하여 최종적으로 시뮬레이션 영상데이터를 각각 생성하는 방법은 앞서 설명된 프로세싱과 동일하므로 생략한다. The method of finally generating the simulation image data using the image data for each angle of view is the same as the above-described processing, and thus is omitted.

이와 같이 구성하는 경우 무인비행체(200)의 한 번의 비행으로 서로 다른 화각을 가지는 복수 개의 시뮬레이션 영상데이터를 생성하여 활용할 수 있게 된다. 대응되는 관점에서 3개 이상의 카메라가 촬영하는 영상데이터를 이용할 수도 있음은 물론이며, 화각의 조정이 가능한 단일(single) 카메라를 이용하여 2종 이상의 화각에 대한 영상 데이터를 생성할 수도 있다.  In such a configuration, a plurality of simulation image data having different angles of view can be generated and utilized in one flight of the UAV 200. FIG. It is also possible to use image data photographed by three or more cameras from a corresponding viewpoint, and image data for two or more kinds of angle of view may be generated using a single camera capable of adjusting the angle of view.

건물이 실제 완공되는 경우 해당 층 공간의 가운데 부분에서 조망되는 경관과 해당 측 공간의 가장자리 부분에서 조망되는 경관은 서로 다를 것이므로 조망이 이루어지는 이러한 경관위치정보에 따른 차등적인 시뮬레이션 영상데이터가 제공되도록 구성하는 것이 바람직하다.When the building is actually completed, the scenery viewed from the center portion of the floor space and the scenery viewed from the edge portion of the side space are different from each other, so that differential simulation image data corresponding to the landscape position information in which the sight is made is provided .

이를 위하여 본 발명의 조망요청신호에 경관 조망이 이루어지는 경관위치정보가 더 포함되도록 구성하고, 본 발명의 출력제어부(170)는 조망요청신호에 포함된 층별 정보(높이 정보)에 해당하는 서로 다른 뷰각(view angle)의 시뮬레이션 영상데이터 중 입력된 경관위치정보에 해당하는 시뮬레이션 영상데이터를 선별하여 출력하도록 구성한다.In order to achieve the above object, the present invention further includes landscape position information in which a landscape view is made in the view request signal, and the output control unit 170 according to the present invention is configured to include different view angles corresponding to the floor information (height information) the simulation image data corresponding to the input landscape position information among the simulation image data of the view angle is selected and output.

본 발명의 설명에서는 화각이 a인 영상데이터, 화각이 b인 영상데이터만을 기준으로 설명하였으나, 영상 처리 프로세싱을 이용하면 화각 a에서부터 화각 b까지 변화되는 화각에 따른 영상 데이터를 가공 생성할 수 있으므로 사용자가 연속적으로 경관위치정보를 수정하여 입력하면(마우스의 스크롤 등), 이에 따른 시뮬레이션 영상데이터를 사용자에게 제공할 수 있다.
In the description of the present invention, only the image data with the angle of view a and the image data with the angle of view b have been described. However, since the image data according to the angle of view varying from the angle of view a to the angle of view b can be generated using the image processing processing, (E.g., scrolling the mouse), the simulation image data can be provided to the user.

도 6은 본 발명의 바람직한 실시예에 의하여 생성되는 다양한 시뮬레이션 영상데이터를 설명하는 도면이다. 앞서 설명된 바와 같이 본 발명은 특정 층의 독립 공간(500)(예를 들어 거실 등)에서 경관 조망이 이루어지는 경관위치정보(View point-1, View point-2)가 변화됨에 따라 차등적인 시뮬레이션 영상데이터를 제공할 수 있다.6 is a diagram illustrating various simulation image data generated according to a preferred embodiment of the present invention. As described above, according to the present invention, as the landscape position information (View point-1, View point-2) in which the landscape view is made in the independent space 500 (for example, Data can be provided.

더욱 바람직한 실시형태의 구현을 위하여, 본 발명의 공간데이터DB부(140)에 저장되는 공간 모델 데이터에는 건축물의 독립공간(500)별 위치정보, 창문(510) 위치정보 및 창문의 크기 정보인 조망특성정보가 더 저장될 수 있다.The spatial model data stored in the spatial data DB unit 140 of the present invention includes location information for each independent space 500 of the building, location information of the window 510, More characteristic information can be stored.

본 발명의 파라미터결정부(180)는 이러한 조망특성정보를 이용하여 도 6에 예시된 바와 같은 조망각도 또는 조망크기에 대한 파라미터를 생성한다. The parameter determination unit 180 of the present invention generates parameters for viewing angle or viewing size as illustrated in FIG. 6 using the viewing characteristic information.

도 6에 예시된 바와 같이 경관 조망이 이루어지는 위치정보(View point-1, View point-2)가 선택되면 선택된 경관위치정보와 독립 공간(500)에 구비되는 창문 등(510)의 길이 내지 크기 정보를 이용하면 조망이 이루어지는 각도 내지 크기 정보에 대한 파라미터를 생성할 수 있다.6, when the view point-1 and the view point-2 are selected, the selected landscape position information and the length or size information of the window 510 or the like provided in the independent space 500 It is possible to generate parameters for the angle or size information on which the view is made.

도 6의 예와 같이, 경관위치정보로 View-point 2가 선택된다면, 조망 각도 또는 조망 크기에 대한 파라미터로 S2가 생성되며, View-point 1이 선택된다면 조망 각도 또는 조망 크기에 대한 파라미터로 S1이 생성된다.6, if View-point 2 is selected as the landscape position information, S2 is generated as a parameter for the viewing angle or viewing size, and if View-point 1 is selected, S1 is selected as a parameter for viewing angle or viewing size Is generated.

도면에는 이해의 편의성을 높이기 위하여 각 조망 각도 내지 크기에 대응되는 화살표 영역(S1, S2)으로 파라미터를 도시하였으나 데이터 처리의 관점에서는 파라미터 정보는 각도 정보 내지 크기 정보에 해당할 수 있다.In the figure, the parameters are shown by the arrow areas S1 and S2 corresponding to each viewing angle or size in order to enhance the convenience of understanding. However, from the viewpoint of data processing, the parameter information may correspond to the angle information or the size information.

이와 같이 파라미터가 결정되면 본 발명의 데이터처리부(150)는 상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터를 상기 생성된 파라미터에 부합되도록 가공하여 시뮬레이션 영상데이터를 생성하고 본 발명의 출력제어부(170)는 이 가공된 시뮬레이션 영상데이터 즉, 사용자가 선택한 경관위치정보에 부합되는 맞춤형 시뮬레이션 영상데이터가 출력되도록 제어한다. When the parameters are determined as described above, the data processor 150 of the present invention processes the image data of the altitude matched with the layer height information extracted from the spatial model data to match the generated parameters to generate simulation image data, The output control unit 170 controls the output of the processed simulation image data, that is, the customized simulation image data corresponding to the landscape position information selected by the user.

도 6의 우측에 도시된 바와 같이 사용자는 모델링된 건물 그래픽(600)에서 각 층별 높이(Height_a, Height_b,...)와 경관위치정보를 함께 선택할 수 있으므로 상술된 맞춤형 시뮬레이션 영상데이터는 선택된 층별 높이에 해당하는 고도별 영상 데이터를 선별한 후 진행될 수 있다. 6, the user can select the height of each floor (Height_a, Height_b, ...) and the landscape position information together in the modeled building graphic 600. Thus, the customized simulation image data described above can be displayed on the selected floor height And then proceeds to the step S403.

바람직하게, 본 발명의 출력제어부(170)는 인터페이스부(160)로부터 서로 다른 복수 개의 층별정보(높이 정보)가 포함된 조망요청신호가 입력되면, 각 층별정보에 해당하는 시뮬레이션 영상데이터를 각각 선별한 후, 선별된 복수 개의 시뮬레이션 영상데이터에서 서로 중첩되는 영상데이터 영역과 각 측별 높이에서만 조망되는 독립된 영상데이터 영역을 구분하여 생성하고 출력하도록 구성될 수 있다. 이와 같은 구성을 통하여 서로 다른 층에서 조망되는 경관 영상을 사용자가 더욱 정확하고 쉽게 구분할 수 있도록 유도할 수 있다.
Preferably, when the view request signal including a plurality of different layer information (height information) is inputted from the interface unit 160, the output control unit 170 of the present invention selects the simulation image data corresponding to each layer information And generating and outputting separately a video data area overlapped with each other in a plurality of selected simulation video data and an independent video data area viewed only at each side height. With this configuration, it is possible to induce the user to distinguish the landscape image viewed from different layers more accurately and easily.

도 7은 본 발명의 바람직한 일 실시예에 의한 무인비행체(200)의 구조를 도시한 도면이다.7 is a view showing the structure of the UAV 200 according to an embodiment of the present invention.

도 7에 도시된 바와 같이 본 발명의 무인비행체(200)(드론)는 몸체(205) 부분에서 수직 상하 방향으로 승강 이동하며 상부에 카메라(210)가 구비되는 중심프레임(230)이 포함될 수 있다. 7, the unmanned aerial vehicle 200 (drone) of the present invention may include a center frame 230, which is vertically moved up and down in a body 205 and has a camera 210 mounted thereon .

무인비행체(200)의 내부에 구비되는 구동제어부(220)는 무인비행체(200)가 지면에 착륙하거나 지면과의 높이가 기준 거리 이내가 되는 경우 다른 랜딩기어(270)와 함께 무인비행체(200)를 지지하는 기능을 수행할 수 있도록 중심프레임(230)이 수직 하방으로 내려오도록 제어한다.When the unmanned object 200 is landed on the ground or the height of the unmanned object 200 is within a reference distance from the ground, the driving control unit 220 provided inside the unmanned air vehicle 200 together with the other landing gear 270, So that the center frame 230 is vertically downwardly moved.

또한, 촬영이 개시되는 경우 무인비행체(200)의 몸체 내지 외주 부분에 위치한 프로펠라(250)가 영상에 잡히지 않도록 즉, 촬영되는 영상에 포함되지 않도록 하기 위하여 무인비행체(200)의 구동제어부(220)는 촬영개시신호가 입력되는 경우 상기 중심프레임(230)를 수직 상방으로 상승하도록 구동제어한다. 도 7에 도시된 바와 같이 무인비행체(200)의 비행이 개시되는 경우 구동제어부(220)는 랜딩기어(270)이 상방으로 접히도록 구동제어할 수 있음은 물론이다.When the photographing is started, the driving control unit 220 of the unmanned aerial vehicle 200 is controlled so that the propeller 250 located in the body or the outer circumferential portion of the UAV 200 is not captured by the image, And controls the central frame 230 to rise vertically upward when a photographing start signal is input. As shown in FIG. 7, when the unmanned aerial vehicle 200 starts to fly, the driving control unit 220 can control the landing gear 270 to be folded upward.

앞서 설명된 바와 같이 광학 특성이 서로 다른 복수 개의 카메라가 무인비행체(200)에 탑재되는 경우 상기 중심프레임(230)의 상부 및 하부에 각각 카메라(210)가 탑재될 수 있다. 이 경우 촬영이 개시되면 중심프레임(230)은 가운데 중심 부분을 기준으로 상방 및 하방으로 각각 연장되도록 구동제어될 수 있으며, 촬영이 종료되거나 지면에 안착하는 경우 중심프레임(230)의 연장된 상부 및 하부 단부가 가운데 부분으로 수축되도록 구동제어될 수 있다.
As described above, when a plurality of cameras having different optical characteristics are mounted on the unmanned air vehicle 200, the cameras 210 may be mounted on the upper and lower portions of the center frame 230, respectively. In this case, the center frame 230 can be driven and controlled to extend upward and downward with respect to the center of the center frame 230 when the photographing is started, And the lower end is driven to be contracted to the middle portion.

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not to be limited to the details thereof and that various changes and modifications will be apparent to those skilled in the art. And various modifications and variations are possible within the scope of the appended claims.

상술된 본 발명의 설명에 있어 제1 및 제2 등과 같은 수식어는 상호 간의 구성요소를 상대적으로 구분하기 위하여 사용되는 도구적 개념의 용어일 뿐이므로, 특정의 순서, 우선순위 등을 나타내기 위하여 사용되는 용어가 아니라고 해석되어야 한다.In the above description of the present invention, the first and second modifiers are merely terms of a tool concept used for relatively separating the components of each other, so that they are used to indicate a specific order, priority, etc. It should be interpreted that it is not a terminology.

본 발명의 설명과 그에 대한 실시예의 도시를 위하여 첨부된 도면 등은 본 발명에 의한 기술 내용을 강조 내지 부각하기 위하여 다소 과장된 형태로 도시될 수 있으나, 앞서 기술된 내용과 도면에 도시된 사항 등을 고려하여 본 기술분야의 통상의 기술자 수준에서 다양한 형태의 변형 적용 예가 가능할 수 있음은 자명하다고 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It should be understood that various modifications may be made in the ordinary skill in the art.

100 : 본 발명의 영상제공시스템
110 : 수신부 120 : 저장부
130 : 고도별영상생성부 140 : 공간데이터DB부
150 : 데이터처리부 160 : 인터페이스부
170 : 출력제어부 180 : 파라미터결정부
200 : 무인비행체 300 : DB서버
100: Image providing system of the present invention
110: Receiving unit 120:
130: altitude-specific image generation unit 140: spatial data DB unit
150: Data processing unit 160: Interface unit
170: output control unit 180:
200: unmanned vehicle 300: DB server

Claims (7)

GPS센서 및 고도센서가 구비된 무인비행체로부터 영상데이터 및 위치정보를 수신하는 수신부;
상기 영상데이터를 고도 정보를 포함하는 위치정보와 연계하여 저장하는 저장부;
상기 위치정보를 이용하여 상기 영상데이터를 기준 높이별 영상데이터로 분류한 복수 개의 고도별 영상데이터를 생성하는 고도별 영상생성부;
건축물의 위치정보 및 높이정보가 포함된 공간모델 데이터가 저장되는 공간데이터DB부;
상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터인 시뮬레이션 영상데이터를 생성하는 데이터처리부;
층별정보 또는 높이정보가 포함된 조망요청신호를 입력받는 인터페이스부; 및
상기 조망요청신호에 해당하는 시뮬레이션 영상데이터를 선별하여 출력하는 출력제어부를 포함하고,
상기 무인비행체는,
몸체 부분에서 수직 상하 방향으로 이동하는 중심프레임;
상기 중심프레임 상부에 구비되는 카메라; 및
지면과의 높이가 기준 거리 이내인 경우 상기 무인비행체의 착륙을 지지하도록 상기 중심프레임이 수직 하방으로 내려오도록 제어하며, 촬영개시신호가 입력되는 경우 상기 무인비행체에 구비된 프로펠러가 상기 카메라의 영상 데이터에 포함되지 않는 높이까지 상기 중심프레임을 수직 상방으로 상승하도록 제어하는 구동제어부를 포함하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
A receiver for receiving image data and position information from an unmanned aerial vehicle equipped with a GPS sensor and an altitude sensor;
A storage unit for storing the image data in association with location information including altitude information;
An altitude-specific image generating unit for generating a plurality of altitude-based image data classified into image data of a reference height by using the position information;
A spatial data DB unit for storing spatial model data including position information and height information of a building;
A data processing unit for generating simulation image data, which is image data of altitude matched with the layer height information extracted from the spatial model data;
An interface unit for receiving a view request signal including floor information or height information; And
And an output control unit for selectively outputting the simulation image data corresponding to the view request signal,
In the unmanned aerial vehicle,
A center frame moving vertically up and down in the body part;
A camera provided on the central frame; And
The controller controls the center frame to vertically downward to support the landing of the unmanned air vehicle when the height of the unmanned air vehicle is within a reference distance, And a drive control unit for controlling the center frame to rise vertically up to a height not included in the center frame.
제 1항에 있어서, 상기 고도별 영상생성부는,
상기 무인비행체의 촬영이 개시되는 지점의 초기 고도정보 및 촬영이 종료되는 지점의 최후 고도정보를 추출하는 고도추출부;
촬영 개시 지점부터 촬영 종료 지점까지의 각 높이별 영상데이터를 상하 방향으로 통합한 통합영상데이터를 생성하는 영상통합부; 및
상기 초기 고도정보와 최후 고도정보의 고도 차이정보 및 기준 높이정보를 이용하여 상기 통합영상데이터를 복수 개의 기준 높이별 영상데이터로 분리시켜 상기 복수 개의 고도별 영상 데이터를 생성하는 영상분류부를 포함하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
The apparatus according to claim 1, wherein the altitude-
An altitude extracting unit for extracting initial altitude information at a point where photographing of the unmanned aerial vehicle is started and final altitude information at a point where photographing ends;
An image integration unit for generating integrated image data in which the image data for each height from the shooting start point to the shooting end point are vertically integrated; And
And an image classifying unit for separating the integrated image data into image data of a plurality of reference heights by using the altitude difference information of the initial altitude information and the latest altitude information and the reference height information to generate the image data of the plurality of altitudes A user - oriented landscape simulation image providing system using unmanned aerial vehicle.
제 1항에 있어서, 상기 무인비행체는,
광학 특성정보가 서로 다른 제1 및 제2 카메라가 장착되며,
상기 수신부는 상기 제1 및 제2 카메라 각각의 영상데이터를 수신하고,
상기 데이터처리부는 상기 제1 및 제2카메라 각각의 영상데이터를 이용하여 서로 다른 뷰각(view angle)의 시뮬레이션 영상데이터를 생성하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
2. The unmanned aerial vehicle according to claim 1,
First and second cameras having different optical characteristic information are mounted,
Wherein the receiving unit receives image data of each of the first and second cameras,
Wherein the data processor generates simulation image data of different view angles by using the image data of the first and second cameras, respectively.
제 3항에 있어서, 상기 조망요청신호는,
경관 조망이 이루어지는 경관위치정보가 더 포함되며,
상기 출력제어부는,
상기 조망요청신호에 포함된 층별정보 또는 높이정보에 해당하는 서로 다른 뷰각의 시뮬레이션 영상데이터 중 상기 입력된 경관위치정보에 해당하는 시뮬레이션 영상데이터를 선별하여 출력하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
4. The method of claim 3,
Landscape position information on which a landscape view is made is further included,
Wherein the output control unit comprises:
Wherein the simulated image data corresponding to the input landscape position information is selected and output from simulation image data of different view angles corresponding to the layer information or the height information included in the view request signal. Landscape simulation image providing system.
제 1항에 있어서, 상기 공간모델 데이터는,
상기 건축물의 독립공간별 위치정보, 창문 위치정보 및 창문의 크기 정보인 조망특성정보가 더 저장되고,
상기 조망특성정보를 이용하여 조망각도 또는 조망크기에 대한 파라미터를 생성하는 파라미터 결정부를 더 포함하고,
상기 데이터처리부는,
상기 공간모델 데이터에서 추출된 층별 높이 정보와 매칭되는 고도별 영상 데이터를 상기 생성된 파라미터에 부합되도록 가공하여 상기 시뮬레이션 영상데이터를 생성하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
The method of claim 1,
The location information of the independent space of the building, the window position information, and the view characteristic information which is the size information of the window are further stored,
Further comprising a parameter determination unit for generating a parameter for a viewing angle or a viewing size using the viewing characteristic information,
Wherein the data processing unit comprises:
Wherein the simulation image data is generated by processing the altitude image data matched with the layer height information extracted from the spatial model data to match the generated parameters.
제 1항에 있어서, 상기 출력제어부는,
상기 인터페이스부로부터 서로 다른 복수 개의 층별정보 또는 높이정보가 포함된 조망요청신호가 입력되면, 각 층별정보 또는 높이정보에 해당하는 시뮬레이션 영상데이터를 각각 선별하고, 선별된 복수 개의 시뮬레이션 영상데이터에서 중첩되는 영상 데이터 영역과 각 층별정보 또는 높이 정보에만 해당하는 독립된 영상 데이터 영역을 각각 생성하여 출력하는 것을 특징으로 하는 무인비행체를 이용한 사용자 지향적 경관 시뮬레이션 영상제공시스템.
The image processing apparatus according to claim 1,
When a view request signal including a plurality of different layer information or height information is inputted from the interface unit, the simulation image data corresponding to each layer information or the height information is selected, and superimposed on a plurality of selected simulation image data And generating and outputting independent image data areas corresponding only to the image data area and each layer information or the height information, and outputting the independent image data areas.
삭제delete
KR1020170027570A 2017-03-03 2017-03-03 System for providing view simulation image with user orientation KR101860448B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170027570A KR101860448B1 (en) 2017-03-03 2017-03-03 System for providing view simulation image with user orientation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170027570A KR101860448B1 (en) 2017-03-03 2017-03-03 System for providing view simulation image with user orientation

Publications (1)

Publication Number Publication Date
KR101860448B1 true KR101860448B1 (en) 2018-05-23

Family

ID=62452416

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170027570A KR101860448B1 (en) 2017-03-03 2017-03-03 System for providing view simulation image with user orientation

Country Status (1)

Country Link
KR (1) KR101860448B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101992672B1 (en) * 2019-03-04 2019-06-25 (주)선운이앤지 Visual impact analyzing method for overhead transmitting line
KR102075656B1 (en) * 2019-04-30 2020-02-10 장길승 System and method for controling position of drone with respect to buildings and computer program for the same
KR102321400B1 (en) * 2021-04-23 2021-11-02 주식회사 아파트엔 Experience of environmental system in user visibility
WO2022039587A1 (en) * 2020-08-19 2022-02-24 Poladrone Solutions Sdn Bhd A method for precision agriculture and system thereof

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0646084B1 (en) * 1992-06-22 1998-05-20 United Technologies Corporation An unmanned aerial vehicle having ducted, coaxial counter-rotating rotors
JP2001154571A (en) * 1999-11-25 2001-06-08 Kumagai Gumi Co Ltd Method for selecting construction site
KR20150000053A (en) * 2013-06-21 2015-01-02 퍼스텍주식회사 Method and Apparatus for Guiding Unmanned Aerial Vehicle and Method and Apparatus for Controlling Unmanned Aerial Vehicle
KR20150113586A (en) * 2014-03-31 2015-10-08 세종대학교산학협력단 Multi rotor unmanned aerial vehicle, autonomous flight control method augmented by vision sensor thereof and record media recorded program for implement thereof
US20160001883A1 (en) * 2014-07-02 2016-01-07 Skycatch, Inc. Unmanned aerial vehicle landing interface
JP2016501154A (en) * 2012-12-07 2016-01-18 デロリアン エアロスペース リミテッド ライアビリティ カンパニー Vertical take-off and landing aircraft
WO2016137982A1 (en) * 2015-02-24 2016-09-01 Airogistic, L.L.C. Methods and apparatus for unmanned aerial vehicle landing and launch
KR101662071B1 (en) * 2016-03-29 2016-10-05 수자원기술 주식회사 Drinking Water Facilities Monitering System by Using Drone and Method thereof
KR20160119990A (en) * 2015-04-07 2016-10-17 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20160125215A (en) * 2015-04-21 2016-10-31 경희대학교 산학협력단 The drone, the route guidance drone set and the method of route guidance using them
WO2017003538A2 (en) * 2015-04-14 2017-01-05 Tobin Fisher System for authoring, executing, and distributing unmanned aerial vehicle flight-behavior profiles
WO2017160192A1 (en) * 2016-03-18 2017-09-21 Павел Константинович ГЕРАСИМОВ Method for precision landing an unmanned aerial vehicle
KR20170111921A (en) * 2016-03-30 2017-10-12 팅크웨어(주) Method and system for controlling unmanned air vehicle

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0646084B1 (en) * 1992-06-22 1998-05-20 United Technologies Corporation An unmanned aerial vehicle having ducted, coaxial counter-rotating rotors
JP2001154571A (en) * 1999-11-25 2001-06-08 Kumagai Gumi Co Ltd Method for selecting construction site
JP2016501154A (en) * 2012-12-07 2016-01-18 デロリアン エアロスペース リミテッド ライアビリティ カンパニー Vertical take-off and landing aircraft
KR20150000053A (en) * 2013-06-21 2015-01-02 퍼스텍주식회사 Method and Apparatus for Guiding Unmanned Aerial Vehicle and Method and Apparatus for Controlling Unmanned Aerial Vehicle
KR20150113586A (en) * 2014-03-31 2015-10-08 세종대학교산학협력단 Multi rotor unmanned aerial vehicle, autonomous flight control method augmented by vision sensor thereof and record media recorded program for implement thereof
US20160001883A1 (en) * 2014-07-02 2016-01-07 Skycatch, Inc. Unmanned aerial vehicle landing interface
WO2016137982A1 (en) * 2015-02-24 2016-09-01 Airogistic, L.L.C. Methods and apparatus for unmanned aerial vehicle landing and launch
KR20160119990A (en) * 2015-04-07 2016-10-17 엘지전자 주식회사 Mobile terminal and method for controlling the same
WO2017003538A2 (en) * 2015-04-14 2017-01-05 Tobin Fisher System for authoring, executing, and distributing unmanned aerial vehicle flight-behavior profiles
KR20160125215A (en) * 2015-04-21 2016-10-31 경희대학교 산학협력단 The drone, the route guidance drone set and the method of route guidance using them
WO2017160192A1 (en) * 2016-03-18 2017-09-21 Павел Константинович ГЕРАСИМОВ Method for precision landing an unmanned aerial vehicle
KR101662071B1 (en) * 2016-03-29 2016-10-05 수자원기술 주식회사 Drinking Water Facilities Monitering System by Using Drone and Method thereof
KR20170111921A (en) * 2016-03-30 2017-10-12 팅크웨어(주) Method and system for controlling unmanned air vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101992672B1 (en) * 2019-03-04 2019-06-25 (주)선운이앤지 Visual impact analyzing method for overhead transmitting line
KR102075656B1 (en) * 2019-04-30 2020-02-10 장길승 System and method for controling position of drone with respect to buildings and computer program for the same
WO2022039587A1 (en) * 2020-08-19 2022-02-24 Poladrone Solutions Sdn Bhd A method for precision agriculture and system thereof
KR102321400B1 (en) * 2021-04-23 2021-11-02 주식회사 아파트엔 Experience of environmental system in user visibility

Similar Documents

Publication Publication Date Title
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
US11794890B2 (en) Unmanned aerial vehicle inspection system
KR101860448B1 (en) System for providing view simulation image with user orientation
US11635775B2 (en) Systems and methods for UAV interactive instructions and control
US20210065400A1 (en) Selective processing of sensor data
US11106203B2 (en) Systems and methods for augmented stereoscopic display
US10599149B2 (en) Salient feature based vehicle positioning
EP3420428B1 (en) Systems and methods for visual target tracking
CN106910229B (en) Image processing apparatus and method
CN110366745B (en) Information processing device, flight control instruction method, program, and recording medium
US20190088025A1 (en) System and method for authoring and viewing augmented reality content with a drone
WO2019100219A1 (en) Output image generation method, device and unmanned aerial vehicle
JP6225147B2 (en) Controller terminal and wireless aircraft control method
WO2019140686A1 (en) Following control method, control terminal, and unmanned aerial vehicle
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
CN110366711A (en) Information processing unit, flight control instructions method and recording medium
US20230259132A1 (en) Systems and methods for determining the position of an object using an unmanned aerial vehicle
JP6940459B2 (en) Information processing device, imaging control method, program and recording medium
KR101873681B1 (en) System and method for virtual viewing based aerial photography information
WO2020103024A1 (en) Job control system, job control method, apparatus, device and medium
WO2022188151A1 (en) Image photographing method, control apparatus, movable platform, and computer storage medium
WO2022056683A1 (en) Field of view determination method, field of view determination device, field of view determination system, and medium
WO2021014752A1 (en) Information processing device, information processing method, and information processing program
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
KR101552407B1 (en) System and Method for Taking a Picture with Partner Have a Same Place but Different Time

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant