KR102554018B1 - 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법 - Google Patents

드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법 Download PDF

Info

Publication number
KR102554018B1
KR102554018B1 KR1020230006499A KR20230006499A KR102554018B1 KR 102554018 B1 KR102554018 B1 KR 102554018B1 KR 1020230006499 A KR1020230006499 A KR 1020230006499A KR 20230006499 A KR20230006499 A KR 20230006499A KR 102554018 B1 KR102554018 B1 KR 102554018B1
Authority
KR
South Korea
Prior art keywords
shooting
performer
requester
photographing
temporary
Prior art date
Application number
KR1020230006499A
Other languages
English (en)
Inventor
김영우
김기섭
Original Assignee
주식회사 보다
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 보다 filed Critical 주식회사 보다
Priority to KR1020230006499A priority Critical patent/KR102554018B1/ko
Application granted granted Critical
Publication of KR102554018B1 publication Critical patent/KR102554018B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Biomedical Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Development Economics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

일 실시예에 따른 중개 서버는 통신부; 적어도 하나의 명령어를 저장하는 메모리; 및 프로세서를 포함한다. 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 촬영 수행자에 의해 조종되는 드론에서의 촬영 요청 지역에 대한 촬영 영상이, 상기 통신부를 통해 수신되고, 촬영 요청자에게 제공될 최종 영상보다 생성 소요 시간이 짧거나 생성 소요 리소스가 적은 임시 영상이 상기 수신된 촬영 영상을 이용해서 생성되며, 상기 생성된 임시 영상이 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되고, 상기 촬영 요청자 및/또는 상기 촬영 수행자로부터의 피드백에 따라, 상기 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공된다.

Description

드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법{SERVER FOR MEDIATING BETWEEN REQUESTER AND PERFORMER OF MOVIE TAKEN FROM DRONE AND MEDIATING METHOD USING THE SAME}
본 발명은 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법에 관한 것이다.
무인 비행기(이하, 드론)는 다양한 목적을 위해 사용될 수 있다. 예컨대, 드론에서 촬영 내지 획득되는 영상 및 센서 데이터는 산불 감지, 인명 수색 및 구조, 댐의 균열 점검, 수목의 상태 점검, 댐이나 저수지 점검, 지적 경계 측량, 미세먼지 측정, 열배관 누수 탐지, 포트홀 분석, 도로 균열 분석, 논이나 밭의 작물 판독, 태양광 패널 점검 또는 용배수로 수위 계층 등과 같이 다양한 산업 분야에서 이용될 수 있다.
다만, 드론을 구동시킴으로써 원하는 데이터를 얻기 위해서는 몇 가지의 절차가 필요하다. 예컨대, 카메라가 달리 드론의 경우 촬영 신청이 요구되며, 공역에 따라 비행 승인이 필요할 수 있다. 아울러, 원하는 수준의 영상 데이터 확보를 위해서는, 타겟팅하는 지역이 드론에 의해 꼼꼼하게 촬영되어야 하는데, 일반인 입장에서 이를 계획하고 수행하기는 쉽지 않다. 또한, 드론에서 획득되는 전술한 영상 및 센서 데이터는 목적하는 바에 따라 반드시 후처리가 필요하다. 예컨대 용량을 줄이거나, 해상도를 변경한다거나, 원치 않는 구역의 영상을 삭제한다거나, 자막이나 사운드를 입혀야 한다. 이러한 후처리 역시 일반인의 입장에서는 번거로운 작업일 수 있다.
이에, 드론에 의한 촬영을 대행해주는 업체들이 등장하고 있다. 이들 업체는 촬영 요청자로부터의 의뢰를 받아서, 촬영 신청, 비행 승인, 드론 비행 및 영상 후처리 등을 대행해준다.
드론에서 촬영된 영상을 원하는 사람은, 이러한 업체들 중 어느 하나를 선택하고, 자신의 요구사항을 선택된 업체에게 전달하며, 최종적으로는 결과물에 해당되는 영상을 전달받게 된다. 경우에 따라, 영상에 대한 수정 또는 재촬영이 이들 업체에게 요청되기도 한다.
대한민국 공개특허공보 제10-2023-0003730, 2023년 01월 06일
일 실시예에 따라 해결하고자 하는 과제는, 드론에서의 촬영을 요청(의뢰)하고 이를 대행해주는 과정에서 발생 가능한 이슈(issue)를 타겟으로, 촬영 요청자와 촬영 수행자 사이를 중개해주는 기술을 제공하는 것을 포함한다.
예컨대, 촬영 요청자와 촬영 수행자를 매칭시키는 것부터, 촬영 수행자에게 촬영 가이드를 제공하는 것, 아울러 촬영 결과물에 대한 preview를 촬영 요청자 또는 촬영 수행자에게 실시간으로 제공함으로써 재촬영의 필요 여부가 촬영 현장에서 확인될 수 있도록 하는 것 등이 이러한 과제에 포함될 수 있다.
다만, 전술한 과제가 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
제 1 관점에 따른 중개 서버는 통신부; 적어도 하나의 명령어를 저장하는 메모리; 및 프로세서를 포함한다. 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 촬영 수행자에 의해 조종되는 드론에서의 촬영 요청 지역에 대한 촬영 영상이 상기 통신부를 통해 수신되고, 촬영 요청자에게 제공될 최종 영상보다 생성 소요 시간이 짧거나 생성 소요 리소스가 적은 임시 영상이 상기 수신된 촬영 영상을 이용해서 생성되며, 상기 생성된 임시 영상이 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되고, 상기 촬영 요청자 및/또는 상기 촬영 수행자로부터의 피드백에 따라, 상기 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공된다.
또한, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 상기 촬영 요청 지역에서 측정된 GPS 정보 및 적어도 하나의 환경 센서에서 측정된 환경 센싱 정보가 상기 통신부를 통해 수신되되, 상기 임시 영상의 생성과정에는 상기 수신된 GPS 정보 중 적어도 일부가 이용되지 않거나 상기 수신된 환경 센싱 정보 중 적어도 일부가 이용되지 않을 수 있다.
또한, 상기 임시 영상은 상기 최종 영상보다 해상도가 낮거나 또는 상기 촬영 요청 지역 중 상기 촬영 요청자가 지정한 구역에 대해서만 소정의 영상 가공 처리가 수행된 것일 수 있다.
또한, 상기 촬영 요청 지역에 대한 촬영은 복수 회 수행되고, 상기 임시 영상은 상기 복수 회의 촬영이 종료될 때마다 생성되며, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 상기 생성된 복수 개의 임시 영상 각각에 대한 평가가 수행되며, 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 임시 영상은, 상기 복수 개의 임시 영상 중 평가 결과가 가장 높은 임시 영상을 포함할 수 있다.
또한, 상기 평가는 상기 복수 개의 임시 영상 각각이 상기 촬영 요청 지역을 커버하는 정도 및 상기 복수 개의 임시 영상 각각에서 기록된 상기 드론의 항적과 상기 촬영 요청 지역에 대해 사전 결정된 항적과의 일치 정도 중 적어도 하나에 의해 수행될 수 있다.
또한, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 상기 촬영 요청 지역에 대한 추천 비행 경로가 생성되고, 상기 생성된 추천 비행 경로가 상기 통신부를 통해 상기 촬영 수행자에게 제공될 수 있다.
또한, 상기 메모리에는 서로 상이한 지역 각각에 대한 복수의 위성 사진을 학습용 입력 데이터로 하고 상기 복수의 위성 사진 각각에서의 드론 항적 정보를 학습용 정답 데이터로 하여 학습된 비행 경로 추천 모델이 저장되어 있고, 상기 추천 비행 경로는 상기 비행 경로 추천 모델에 상기 촬영 요청 지역에 대한 위성 사진이 입력된 것에 대응해서 상기 비행 경로 추천 모델가 출력한 것일 수 있다.
또한, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 상기 촬영 요청자에 의해 제기된 과거의 피드백이 상기 메모리로부터 획득되고, 상기 획득된 피드백이 상기 통신부를 통해 상기 촬영 수행자에게 제공될 수 있다.
또한, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써 복수의 촬영 요청자에 의해 제기된 과거의 피드백이 상기 메모리로부터 획득되고, 상기 복수의 촬영 요청자에 의해 제기된 과거의 피드백 중 상기 촬영 요청자에 의해 제기된 피드백과의 유사도가 판단되며, 상기 촬영 수행자에게 제공되는 피드백은 상기 유사도가 판단된 과거의 피드백 중 소정 수준 이상의 유사도를 갖는 과거의 피드백을 포함할 수 있다.
또한, 상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써 복수의 촬영 요청자에 의해 제기된 과거의 피드백이 상기 메모리로부터 획득되고, 상기 복수의 촬영 요청자에 의해 제기된 과거의 피드백에 공통적으로 포함되는 항목이 추출되며, 상기 촬영 수행자에게 제공되는 피드백은 상기 공통적으로 추출된 항목을 포함할 수 있다.
제 2 관점에 따른 중개 서버에서 수행되는 촬영 수행자와 촬영 요청자를 중개하는 방법으로서, 상기 방법은 상기 촬영 수행자에 의해 조종되는 드론에서의 촬영 요청 지역에 대한 촬영 영상이 수신되는 단계; 상기 촬영 요청자에게 제공될 최종 영상보다 생성 소요 시간이 짧거나 생성 소요 리소스가 적은 임시 영상이 상기 수신된 촬영 영상을 이용해서 생성되는 단계; 상기 생성된 임시 영상이 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 단계; 및 상기 촬영 요청자 및/또는 상기 촬영 수행자로부터의 피드백에 따라, 상기 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 단계를 포함하여서 수행된다.
제 3 관점에 따른 컴퓨터 프로그램은 컴퓨터 판독가능한 기록매체에 저장되며, 상기 컴퓨터 프로그램은 전술한 방법에 포함된 각 단계를 수행하도록 프로그램된 것이다.
제 4 관점에 따른 컴퓨터 판독가능한 기록매체는 컴퓨터 프로그램을 호함하며, 상기 컴퓨터 프로그램은 전술한 방법에 포함된 각 단계를 수행하도록 프로그램된 것이다.
일 실시예에 따르면, 중개 서버는 촬영 요청자와 촬영 수행자를 매칭시켜줄 뿐만 아니라, 촬영 요청자에게는 자신의 요구조건에 부합되도록 드론이 조종되고 영상이 촬영되고 있는지에 대한 피드백을 제공할 수 있고, 촬영 수행자에게는 자신이 드론을 제대로 조종하고 있는지 내지 영상을 제대로 촬영하고 있는지 여부에 대한 피드백을 제공할 수 있다. 이를 통해, 촬영 요청자는 중개 서버를 통한 영상 제작 의뢰를 신뢰하게 되며, 촬영 수행자는 자신의 드론 비행 내지 촬영 스킬에 대한 실력 향상 기회를 얻게 된다. 아울러, 촬영 수행자는 촬영이 종료되어서 현장을 벗어났는데, 이 후 촬영 결과물의 불만족 내지 오류로 인해 촬영 요청 지역을 재방문해서 재촬영을 해야 하는 번거로움을 겪지 않을 수 있다.
도 1에는 일 실시예에 따른 중개 서버에서 드론 교육자, 촬영 수행자 및 촬영 요청자를 중개해주는 중개 서버가 개념적으로 도시되어 있다.
도 2에는 일 실시예에 따른 중개 서버에서 촬영 수행자와 촬영 요청자를 중개해주는 개념이 예시적으로 도시되어 있다.
도 3은 일 실시예에 따른 중개 서버에 대한 예시적인 구성도이다.
도 4에는 일 실시예에 따른 중개 서버에서 실행 가능한 기능이 모듈 내지 모델 별로 개념화되어 도시되어 있다.
도 5에는 일 실시예에 따른 비행 경로 추천 모델에 대한 개념이 예시적으로 도시되어 있다.
도 6에는 위성 사진 상에 일 실시예에 따라 추천된 추천 비행 경로가 예시적으로 도시되어 있다.
도 7에는 일 실시예에 따라 촬영 요청자가 자신의 단말을 통해 임시 영상을 확인하고 그에 대한 피드백을 제공하는 상황이 예시적으로 도시되어 있다.
도 8에는 일 실시예에 따른 중개 방법에 대한 순서도가 예시적으로 도시되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1에는 일 실시예에 따른 중개 서버에서 드론 교육자, 촬영 수행자 및 촬영 요청자를 중개해주는 중개 서버가 개념적으로 도시되어 있다. 도 1을 설명하기에 앞서, 본 명세서에서 언급되는 '드론'은 무인기 또는 무인 비행체(unmanned aerial vehicle, UAV) 등으로 지칭될 수 있다.
이러한 드론에는 다양한 종류의 센서 등이 구비될 수 있다. 예컨대, 풍향 센서, 풍속 센서, 고도 센서, 지자기 센서, 가속도 센서, 자이로 센서 또는 GPS 수신기 등이 이에 해당된다.
또한, 드론에는 다양한 종류의 촬영 장치 등이 구비될 수 있다. 예컨대 일반적인 카메라 뿐 아니라 적외선 카메라 등이 이에 구비될 수 있다.
아울러, 드론에는 통신 모듈 또한 구비될 수 있다. 이러한 통신 모듈을 통해, 드론을 조종하는 자로부터 명령을 받아서 구동될 수 있으며, 촬영된 영상이나 전술한 센서를 통해 측정된 환경 센싱 정보 등이 이러한 통신 모듈을 통해 드론을 조종하는 자의 단말 내지 후술할 중개 서버에게 송신될 수 있다.
도 1을 참조하면, 촬영 요청자(300), 촬영 수행자(200), 드론 교육자(50) 및 중개 서버(100)가 도시되어 있다.
이 중, 촬영 요청자(300)는 드론에서 촬영된 영상이나 데이터를 요청하는 자를 지칭한다. 예컨대, 산불 감지, 인명 수색 및 구조, 댐의 균열 점검, 수목의 상태 점검, 댐이나 저수지 점검, 지적 경계 측량, 미세먼지 측정, 열배관 누수 탐지, 포트홀 분석, 도로 균열 분석, 논이나 밭의 작물 판독, 태양광 패널 점검 또는 용배수로 수위 계층 등의 목적을 위해, 촬영 요청자(300)는 드론에서의 촬영이나 데이터 획득을 요청할 수 있다.
촬영 수행자(200)는 촬영 요청자(300)에게 매칭되어서, 촬영 요청자(300)를 대신해서 드론을 조종하고 촬영이 수행되도록 하며, 다양한 종류의 데이터가 획득되도록 하는 자를 지칭한다. 이러한 촬영 수행자(200)는 후술하겠지만 드론 교육자(50)를 통해 드론에 대한 조종 내지 촬영 등을 교육받은 사람일 수 있다.
드론 교육자(50)는 드론에 대한 조종 스킬 내지 드론에서의 촬영 노하우를 소정 레벨 이상으로 갖춘 자를 지칭한다. 드론 교육자(50)는 소정의 협회에 의해 그 자격 내지 실력을 인정받은 사람일 수 있으나, 반드시 이에 한정되는 것은 아니다.
중개 서버(100)는 전술한 촬영 요청자(300), 촬영 수행자(200) 및 드론 교육자(50) 사이를 중개하도록 마련된다. 이러한 중개 서버(100)를 통해 이하에서 설명될 다양한 기능들이 수행될 수 있다.
첫째, 드론 교육자(50)에 의한 교육이 촬영 수행자(200)에게 제공될 수 있도록, 이들 (50,200) 간의 매칭이 중개 서버(100)에서 수행될 수 있다. 전술한 바와 같이 드론의 조종 내지 촬영 및 결과물 산출 과정에서는 다소 전문적인 작업들이 수행된다. 드론 교육자(50)는 촬영 수행자(200)가 전술한 작업들을 보다 능숙하게 처리할 수 있도록 또는 드론에 대해 입문하는 사람들이 이러한 능력을 갖추어서 촬영 수행자(200)가 될 수 있도록 교육을 수행할 수 있다.
이 때, 전술한 바와 같이 드론은 다양한 산업분야에서 활용될 수 있다. 따라서, 촬영 수행자(200) 또는 일반인이 어떠한 산업분야에서 요청 내지 의뢰받기를 원하는지에 따라, 중개 서버(100)는 해당 산업분야에 특화된 드론 교육자(50)를 촬영 수행자(200)나 일반인에게 매칭시켜줄 수 있다. 이를 위해, 중개 서버(100)에는 복수의 드론 교육자(50) 각각에 대한 특화 분야가 데이터베이스화되어서 저장되어 있을 수 있다.
아울러, 중개 서버(100)는 이러한 매칭 과정에서 발생되는 수수료를 드론 교육자(50) 또는 촬영 수행자(200)로부터 획득할 수 있다. 수수료를 지불함으로써, 드론 교육자(50) 입장에서는 중개 서버(100)를 통해 자신이 교육할 촬영 수행자(200)나 일반인을 발굴함으로써 수익을 얻을 수 있다. 아울러, 촬영 수행자(200)나 일반인 입장에서는 중개 서버(100)를 통해 드론 조종 내지 촬영 스킬을 획득 내지 증진시킬 수 있으며, 이로써 전문적은 촬영 수행자(200)로서 활동할 수 있게 된다.
이 과정을 보다 구체적으로 나타내면 다음과 같이 예시될 수 있는데, 이들은 중개 서버(100)에서 수행된다.
1. 일반인 내지 촬영 수행자의 회원 가입
2. 교육 신청서 작성 및 제출
3. 신청 결과 통보 to 일반인 내지 촬영 수행자
4. 드론 교육자 배정
5. 교육 일정 및 장소 통보
6. 교육 일정 조율
7. 교육 진행
8. 교육 결과 평가 및 피드백
9. 수료증 발급
10. '전문 촬영 수행자'로서 등록
둘째, 촬영 수행자(200)와 촬영 요청자(300) 간의 매칭이 중개 서버(100)에서 수행될 수 있다. 이를 위해, 촬영 수행자(200)에 대한 신상 정보 및 전문 분야에 대한 정보가 중개 서버(100)에 저장되어서 제공될 수 있다. 촬영 요청자(300)는 중개 서버(100)에 접속해서 자신이 원하는 촬영 수행자(200)를 선택할 수 있다. 이와 달리 촬영 요청자(300)는 자신의 요구조건을 중개 서버(100)에 제공할 수 있으며, 이에 대응해서 중개 서버(100)는 요구조건에 부합되는 촬영 수행자(200)를 한 명 이상 선별해서 촬영 요청자(300)에게 추천할 수도 있다. 요구조건에는 예컨대 전문분야, 나이, 성별, 사는 곳 뿐 아니라 비용 등이 포함될 수 있으며, 다만 이에 한정되는 것은 아니다. 아울러, 중개 서버(100)가 촬영 수행자(200)를 선별할 때에는, 각 촬영 수행자(200)에 대해 미리 평가되어 있는 항목, 예컨대 드론 조종 능력, 촬영 능력, 위기 대처 능력 또는 기 수행된 촬영에 대한 피드백 점수 등이 고려될 수 있으며, 다만 이에 한정되는 것은 아니다.
아울러, 중개 서버(100)는 이러한 매칭 과정에서 발생되는 수수료를 촬영 수행자(200) 또는 촬영 요청자(200)로부터 획득할 수 있다. 수수료를 지불함으로써, 촬영 요청자(200) 입장에서는 중개 서버(100)를 통해 자신이 원하는 영상이나 환경 센싱 정보를 획득할 수 있다. 아울러, 촬영 수행자(200) 입장에서는 중개 서버(100)를 통해 드론 조종 내지 촬영에 대한 일감을 획득할 수 있다.
이 과정에서 중개 서버(100)에서 수행되는 절차는 다음과 같이 예시될 수 있다.
1. 회원가입
2. 촬영 요청서 작성 및 요구조건 입력
3. 촬영 수행자 선별 및 추천
4. 촬영 수행자 지정
5. 촬영 내지 조종에 대한 견적서 송부
6. 촬영 일정 조율
7. 드론 비행 및 이 과정에서 생성되는 영상에 대한 preview가 촬영 요청(300) 및/또는 촬영 수행자(200)에게 제공
8. Preview에 대한 피드백 획득 및 재촬영 여부 결정
9. 촬영 종료 및 데이터 가공
10. 최종 결과물 제공
이하에서는, 중개 서버(100)가 촬영 요청자(300)와 촬영 수행자(200) 사이를 중개해주는 것에 대해 보다 자세하게 살펴보기로 한다.
도 2에는 일 실시예에 따른 중개 서버에서 촬영 수행자와 촬영 요청자를 중개해주는 개념이 예시적으로 도시되어 있다. 다만, 도 2는 예시적인 것에 불과한 바, 본 발명의 사상이 도 2에 도시된 것으로 한정 해석되는 것은 아니다.
우선, 도 2에는 도 1에 도시된 중개 서버(100), 촬영 수행자(200) 및 촬영 요청자(300) 각각이 그대로 도시되어 있다. 아울러, 도 2에는 드론(400), 촬영 수행자(200)의 단말(220), 드론 조종 장치(210) 및 촬영 요청자(300)의 단말이 추가적으로 도시되어 있다. 이 때, 드론(400), 촬영 수행자(200)의 단말(220), 촬영 요청자(300)의 단말(310) 및 중개 서버(100)는 네트워크(500)를 통해 상호 간에 통신 가능하다. 이러한 네트워크(500)에서는 초저지연 통신이 지원될 수 있다.
중개 서버(100)에서는 촬영 요청자(300)의 요구조건에 따라 촬영 요청 지역에서의 추천 비행 경로가 생성되어서 네트워크(500)를 통해 촬영 수행자(200)의 단말(200)이나 드론 조종 장치(210) 또는 드론(400)에게 전송된다.
그러면, 촬영 수행자(200)는 드론 조종 장치(210)를 이용해서 드론(400)을 조종한다. 이 과정에서 촬영 영상이나 환경 센싱 정보 등이 획득된다. 환경 센싱 정보는 풍향 센서, 풍속 센서, 고도 센서, 지자기 센서, 가속도 센서, 자이로 센서 또는 GPS 수신기 등으로부터 획득된 센싱 정보일 수 있으며, 다만 이에 한정되는 것은 아니다.
이렇게 획득되는 촬영 영상이나 환경 센싱 정보는 드론(400)으로부터 네트워크(500)를 통해 중개 서버(100)에게 전송된다. 이 때 실시예에 따라 전술한 촬영 영상이나 환경 센싱 정보는 드론(400)으로부터 드론 조종 장치(210)나 단말(220)를 거쳐서 중개 서버(100)에게 전송될 수도 있음은 물론이다. 네트워크(500)는 초저지연 통신을 지원할 수 있는 바, 이러한 촬영 영상이나 환경 센싱 정보는 실시간 전송이 가능하며, 다만 이에 한정되는 것은 아니다.
중개 서버(100)는 이렇게 전송받은 촬영 영상이나 환경 센싱 정보 중 적어도 일부를 이용해서 '임시 영상'을 생성한다. 이러한 임시 영상은 촬영 요청자(300)에게 최종적으로 제공될 최종 영상보다 해상도가 낮거나 또는 촬영 요청 지역 중 촬영 요청자(300)가 지정한 구역에 대해서만 소정의 영상 가공 처리가 수행된 것일 수 있으며, 다만 이에 한정되는 것은 아니다. 이에, 이러한 임시 영상의 생성 과정에서는 촬영 영상 중 일부 지역에 대한 영상이 이용되지 않을 수 있고, 촬영 요청 지역에서 측정된 GPS 정보 중 적어도 일부가 이용되지 않을 수 있으며, 또는 환경 센싱 정보 중 적어도 일부가 이용되지 않을 수도 있다.
이렇게 생성된 임시 영상은 네트워크(500)를 통해 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공된다. 제공은 실시간으로 이루어질 수 있다. 예컨대, 촬영 수행자(200)가 촬영 요청 지역을 벗어나기 전, 촬영이 종료되기 전 또는 경우에 따라서는 촬영 중에도 제공될 수 있다.
이렇게 제공되는 임시 영상은 일종의 preview로서의 역할을 할 수 있다. 즉, 촬영 요청자(300) 입장에서는 최종 영상을 받기 전에도 자신의 요구조건이 반영되어 있는지를 퀵하게 확인할 수 있다. 만약 요구조건이 반영되어 있지 않는 것으로 판단되면, 촬영 요청자(300)는 중개 서버(100)를 통해서 촬영 수행자(200)에게 재촬영을 요청할 수 있으며, 실시예에 따라 어떠한 요구조건이 반영되어 있는지에 대한 상세 사항(ex. 경로 준수 여부, 원하는 지역에 대한 촬영 수행 여부, 영상 해상도 등)이나 항목이 피드백으로서 중개 서버(100)와 촬영 수행자(200)에게 제공되도록 할 수 있다.
아울러, 촬영 수행자(200) 입장에서는 드론(400)에서 촬영되는 영상이 촬영 요청자(300)의 요구조건에 부합되고 있는지 여부를 이러한 임시 영상을 통해 확인할 수 있다. 만약 부합되지 않는다고 판단되면 촬영 수행자(200)는 즉시 재촬영을 할 수도 있다. 아울러, 이러한 임시 영상을 통한 피드백으로부터, 자신의 드론 조종 실력을 가늠하고 평가해볼 수 있으며, 이를 통해 실력이 향상될 수도 있다.
즉, 일 실시예에 따르면, 중개 서버는 촬영 요청자와 촬영 수행자를 매칭시켜줄 뿐만 아니라, 촬영 요청자에게는 자신의 요구조건에 부합되도록 드론이 조종되고 영상이 촬영되고 있는지에 대한 피드백을 제공할 수 있고, 촬영 수행자에게는 자신이 드론을 제대로 조종하고 있는지 내지 영상을 제대로 촬영하고 있는지 여부에 대한 피드백을 제공할 수 있다. 이를 통해, 촬영 요청자는 중개 서버를 통한 영상 제작 의뢰를 신뢰하게 되며, 촬영 수행자는 자신의 드론 비행 내지 촬영 스킬에 대한 실력 향상 기회를 얻게 된다. 아울러, 촬영 수행자는 촬영이 종료되어서 현장을 벗어났는데, 이 후 촬영 결과물의 불만족 내지 오류로 인해 촬영 요청 지역을 재방문해서 재촬영을 해야 하는 번거로움을 겪지 않을 수 있다.
이하, 이러한 중개 서버(100)에 대해 자세하게 살펴보기로 한다.
도 3은 일 실시예에 따른 중개 서버에 대한 예시적인 구성도이다. 도 3을 참조하면, 중개 서버(100)는 통신부(110), 메모리(120) 및 프로세서(130)를 포함한다. 다만, 도 3에 도시된 구성도는 예시적인 것에 불과한 바, 본 발명의 사상이 도 3에 도시된 구성도에 의해 한정 해석되는 것은 아니다. 예컨대, 중개 서버(300)는 도 3에 도시되지 않은 구성을 적어도 하나 포함하거나 도 3에 도시된 구성 중 적어도 하나를 포함하지 않을 수 있다.
통신부(110)는 유선 또는 무선 통신 모듈에 의해 구현 가능하다. 중개 서버(100)는 이러한 통신부(110)를 통해 외부의 단말, 예컨대, 촬영 수행자(200)의 단말(220), 촬영 요청자(300)의 단말(310), 드론 조종 장치(210) 또는 드론(400)과 통신을 수행할 수 있다.
메모리(120)는 정보를 저장하는 매체에 의해 구현 가능하다. 이러한 매체에는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체일 수 있으며, 다만 이에 한정되는 것은 아니다.
이러한 메모리(120)에는 다양한 종류의 정보가 저장될 수 있다. 예컨대 메모리(120)에는 드론 교육자(50), 촬영 수행자(200) 및 촬영 요청자(300) 각각에 대한 정보가 리스트화되어서 저장되어 있을 수 있다. 이러한 정보에는 드론 교육자(50)나 촬영 수행자(200)의 전문분야, 나이, 성별, 사는 곳 뿐 아니라 비용 등이 포함될 수 있으며, 또한 촬영 수행자(200)에 대해 미리 평가되어 있는 항목, 예컨대 드론 조종 능력, 촬영 능력, 위기 대처 능력 또는 기 수행된 촬영에 대한 피드백 점수 등이 저장되어 있을 수 있다.
또한, 메모리(120)에는 다양한 종류의 모듈 내지 모델이 구현되어 있을 수 있다. 이러한 모듈이나 모델은 후술할 프로세서(130)에 의해 실행되면, 목적하는 기능이 수행되게 된다. 각각의 모듈 내지 모델에 대해 도 4를 참조해서 살펴보자.
도 4에는 일 실시예에 따른 중개 서버에서 실행 가능한 기능이 모듈 내지 모델 별로 개념화되어 도시되어 있다. 다만, 도 4는 예시적인 것에 불과한 바, 본 발명의 사상이 도 4에 도시된 것으로 한정 해석되는 것은 아니다.
도 4를 참조하면, 매칭부(121), 비행 경로 추천 모델(122), 임시 영상 생성부(123) 및 임시 영상 평가부(124)가 메모리(120)에 구현되어 있다.
이 중 매칭부(121)에 대해 먼저 살펴보자. 매칭부(121)는 촬영 요청자(300)와 촬영 수행자(200)를 매칭시켜주도록 구현된다. 이를 위해, 매칭 과정에서는 촬영 요청자(300)의 요구조건이 촬영 수행자(200)에 대한 정보가 비교되는데, 촬영 요청자(300)의 요구조건은 통신부(110)를 통해 촬영 요청자(300)로부터 획득된 것일 수 있고, 촬영 수행자(200)에 대한 정보는 메모리(120)로부터 로딩된 것일 수 있다. 이하, 매칭 과정의 예시를 살펴보자.
매치 과정을 살펴보면, 예컨대, 복수 개의 기 정의된 항목이 있고, 각 항목 별로 소정의 값이 촬영 요청자와 요구조건 각각에 할당되어 있을 수 있다. 그러면, 매칭 과정에서는 모든 항목을 만족시키는 촬영 수행자가 선택되거나, 소정 비율 이상, 예컨대 75% 이상의 항목을 만족시키는 촬영 수행자가 선택될 수 있다. 선택되는 촬영 수행자는 두 명 이상일 수도 있으며, 이 경우에는 그 중에서 랜덤으로 선택되거나 만족되는 수치가 가장 높은 촬영 수행자가 선택될 수 있다.
여기서의 항목에는 1) 해외에서의 촬영 가능 여부, 2) 해발고도 1km 이상에서의 촬영 가능 여부, 3) 수중 촬영 가능 여부, 4) 풍속 20km/h 이상에서의 촬영 가능 여부 등이 포함될 수 있고, 다만 이에 한정되는 것은 아니다
다음으로, 비행 경로 추천 모델(122)에 대해 살펴보자. 이러한 추천 모델(122)은 드론(400)의 비행 경로를 추천하도록 구현된다. 추천 방식은 다양하며, 실시예에 따라 인공신경망을 이용한 방식이 이용될 수도 있는데, 인공신경망 그 자체는 후술하기로 하고 이하에서는 비행 경로 추천 모델(122)의 동작 방식 그 자체에 대해서만 살펴보자.
도 5에는 비행 경로 추천 모델(122)에 대한 동작 방식이 도시되어 있다. 도 5를 참조하면, 비행 경로 추천 모델(122)에는 촬영 요청 지역에 대한 위성 사진이 입력된다. 이러한 입력에 대응해서, 비행 경로 추천 모델(122)은 추천 비행 경로를 출력한다. 여기서, 입력이 위성 사진인 것은 예시적인 것에 불과한 바, 그 밖의 다양한 종류의 사진이 해당 추천 모델(122)에 입력될 수도 있음은 물론이다.
도 6에는 이러한 비행 경로 추천 모델(122)에 소정의 위성 사진이 입력되었을 때, 그에 대한 추천 비행 경로가 비행 경로 추천 모델(122)로부터 출력된 것이 예시적으로 도시되어 있다.
다시 도 5를 참조하면, 이러한 비행 경로 추천 모델(122)은 다음과 같은 방식으로 학습 가능하다. 우선, 학습용 입력 데이터로서 서로 상이한 지역 각각에 대해 복수 장의 위성 사진이 마련되어야 한다. 아울러, 학습용 정답 데이터로서 각 위성 사진이 가리키는 지역에서 드론 전문가 내지 드론 교육자(50)에 의해 드론이 실제로 비행한 항적 정보 내지 비행 궤도가 마련되어야 한다. 학습 과정은, 이러한 학습용 입력 및 정답 데이터가 지도 학습 방식으로 제공되어서 수행된다.
즉, 비행 경로 추천 모델(122)이 추천하는 비행 경로는 드론 전문가나 드론 교육자(50)가 사전에 비행한 데이터에 근거에서 추천된 것이다. 따라서, 드론 조종 경험이 많지 않거나 해당 지역이 익숙하지 않은 촬영 수행자(200) 입장에서는, 이러한 추천 비행 경로가 유용하게 활용될 수 있다.
한편, 비행 경로 추천 모델(122)에서 추천된 비행 경로는 수정될 수도 있다. 예컨대 이러한 추천 비행 경로에는 촬영 요청자(300)의 요구조건이 미반영되어 있을 수도 있다. 구체적으로 살펴보면, 촬영 요청자(300)는 추천 비행 경로가 지나가지 않는 특정 구역에서의 영상이 필요할 수 있고, 또는 특정 구역은 불필요할 수도 있다. 이 경우, 추천 비행 경로는 이러한 요구조건에 의해 수정될 수도 있다. 수정 방식의 경우, 특정 구역을 반드시 포함해야 할 경우에는, 추천 비행 경로와 특정 구역의 무게중심을 연결하는 최단 직선을 생성한 뒤, 추천 비행 경로에 이 최단 직선을 연결함으로써 수정될 수 있다. 이와 달리, 특정 구역이 제외되어야 하는 경우, 특정 구역 내에서의 추천 비행 경로는 제거된 뒤, 해당 특정 구역의 테두리를 따라서 제거된 부분의 끝 점을 연결함으로써 수정될 수 있다. 다만, 이러한 수정 방식은 예시적인 것에 불과한 바, 본 발명의 사상이 이에 한정되는 것은 아니다.
임시 영상 생성부(123)는 촬영 요청자(300)에게 최종적으로 제공될 최종 영상이 아닌 임시 영상, 즉 preview를 위한 영상을 생성하도록 마련된다. 이를 위해, 임시 영상 생성부(123)에는 드론(400)에서 촬영된 영상이 입력되며, 그 결과로서 임시 영상이 출력된다.
임시 영상의 경우, 촬영 요청자(300)에게 최종적으로 제공될 최종 영상보다 해상도가 낮거나 또는 촬영 요청 지역 중 촬영 요청자(300)가 지정한 구역에 대해서만 소정의 영상 가공 처리가 수행된 것일 수 있으며, 다만 이에 한정되는 것은 아니다.
여기서, 영상 가공 처리에는 해상도를 높이는 작업, 자막이나 사운드를 입히는 작업, GPS 정보와 매칭시키는 작업 등이 포함될 수 있으며, 다만 이에 한정되는 것은 아니다.
이에, 이러한 임시 영상의 생성 과정에서는 촬영 영상 중 일부 지역에 대한 영상이 이용되지 않을 수 있고, 촬영 요청 지역에서 측정된 GPS 정보 중 적어도 일부가 이용되지 않을 수 있으며, 또는 환경 센싱 정보 중 적어도 일부가 이용되지 않을 수도 있다.
이렇게 생성된 임시 영상은 네트워크(500)를 통해 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공된다. 제공은 실시간으로 이루어질 수 있다. 예컨대, 촬영 수행자(200)가 촬영 요청 지역을 벗어나기 전, 촬영이 종료되기 전 또는 경우에 따라서는 촬영 중에도 제공될 수 있다.
이렇게 제공되는 임시 영상은 일종의 preview로서의 역할을 할 수 있다. 즉, 촬영 요청자(300) 입장에서는 최종 영상을 받기 전에도 자신의 요구조건이 반영되어 있는지를 퀵하게 확인할 수 있다. 만약 요구조건이 반영되어 있지 않는 것으로 판단되면, 촬영 요청자(300)는 중개 서버(100)를 통해서 촬영 수행자(200)에게 재촬영을 요청할 수도 있다.
아울러, 촬영 수행자(200) 입장에서는 드론(400)에서 촬영되는 영상이 촬영 요청자(300)의 요구조건에 부합되고 있는지 여부를 이러한 임시 영상을 통해 확인할 수 있다. 만약 부합되지 않는다고 판단되면 촬영 수행자(200)는 즉시 재촬영을 할 수도 있다. 아울러, 이러한 임시 영상을 통한 피드백으로부터, 자신의 드론 조종 실력을 가늠하고 평가해볼 수 있으며, 이를 통해 실력이 향상될 수도 있다.
한편, 전술한 임시 영상은 임시 영상 생성부(123)에서 동일한 촬영 요청 지역에 대해 복수 개가 생성될 수 있다. 이를 위해, 드론(400)은 촬영 요청 지역을 적어도 두 번 촬영하게 된다. 한번 촬영이 완료될 때마다 촬영 영상이 드론(400)으로부터 중개 서버(100)에게 전송되고, 중개 서버(100)의 임시 영상 생성부(123)는 이렇게 전송받은 촬영 영상을 이용해서 임시 영상을 생성한다. 즉, 동일한 촬영 요청 지역에 대해 복수 개의 촬영 영상이 생성되므로, 임시 영상 역시 복수 개가 생성될 수 있다.
임시 영상 평가부(124)는 임시 영상 생성부(123)가 생성한 임시 영상을 평가하도록 마련된다. 평가 방식은 다양할 수 있다. 예컨대, 촬영 영상과 함께 제공된 GPS 정보를 이용해서, 임시 영상에 나타낸 지역이 촬영 요청자(300)의 촬영 요청 지역을 얼마나 커버하는지 그 커버 정도 또는 전술한 추천 비행 경로가 실제로 드론(400)이 비행한 항적과 일치하는 정도 등에 의해 평가될 수 있다.
평가 결과가 소정의 기준을 충족시키면, 임시 영상은 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 전송된다. 이러한 임시 영상은 촬영 요청자(300)의 단말(310)에서 디스플레이되고, 도 7에 도시된 것과 같이 재촬영이 필요한지 여부 역시 단말(310)에 디스플레이될 수 있다. 만약, 재촬영이 필요하다고 판단되면, 재촬영 요청은 단말(310)에서 중개 서버(100)를 통해 촬영 수행자(200)에게 전송되고, 재촬영이 불필요하다고 판단되면 재촬영 불필요 사실이 단말(310)에서 중개 서버(100)를 통해 촬영 수행자(200)에게 전송된다.
한편, 평가 결과가 기준을 충족시키지 않을 수도 있다. 이 경우 이러한 임시 영상은 촬영 수행자(200)에게만 전송되고 촬영 요청자(300)에게는 전송되지 않는다. 아울러, 평가 결과가 어떤 면에서 기준을 충족시키지 못했는지 여부도 함께 촬영 수행자(200)에게 전송될 수 있다. 그러면, 촬영 수행자(200)는 재촬영을 해야 함을 인식할 수 있다.
한편, 앞서 살펴본 바와 같이, 임시 영상 생성부(123)는 동일한 촬영 요청 지역에 대해 복수 개의 임시 영상을 생성할 수 있는 바, 임시 영상 평가부(124)는 이들 복수 개의 임시 영상 각각에 대해 평가를 수행할 수 있다. 이렇게 수행된 평가 결과에 따라, 복수 개의 임시 영상 중 가장 우수한 임시 영상이 선별될 수 있으며, 선별된 임시 영상만이 촬영 요청자(300)에게 전송될 수 있다. 물론, 이 경우에도 복수 개의 임시 영상 모두가 촬영 수행자(200)에게 전송될 수도 있다
한편, 전술한 비행 경로 추천 모델(122)은 인공 신경망에 의해 학습된 추정 모델일 수 있는 바, 이러한 추정 모델에 대해 간단하게 살펴보도록 한다.
본 명세서에서의 추정 모델은 네트워크 함수, 인공신경망 및/또는 뉴럴 네트워크에 기반하여 동작하는 임의의 형태의 컴퓨터 프로그램을 의미할 수 있다. 본 명세서에 걸쳐, 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 상호 교환 가능한 의미로 사용될 수 있다. 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수개의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network), 트랜스포머(transformer) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
뉴럴 네트워크는 지도학습(supervised learning), 비지도학습(unsupervised learning), 준지도학습(semi supervised learning), 자가학습(self-supervised learning) 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 지도학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 데이터(labelled data)를 사용하며, 비지도학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않은 데이터(unlabeled data)를 사용할 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 또한, 과적합(overfitting)을 막기 위해서 학습 데이터의 증가, 레귤러화(regularization), 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer) 등의 방법이 적용될 수 있다.
일 실시예에서, 추정 모델은 트랜스포머의 적어도 일부분을 차용할 수 있다. 트랜스포머는 임베딩된 데이터들을 인코딩하는 인코더 및 인코딩된 데이터들을 디코딩하는 디코더로 구성될 수 있다. 트랜스포머는 일련의 데이터들을 수신하여, 인코딩 및 디코딩 단계를 거처 상이한 타입의 일련의 데이터들을 출력하는 구조를 지닐 수 있다. 일 실시예에서, 일련의 데이터들은 트랜스포머가 연산가능한 형태로 가공될 수 있다. 일련의 데이터들을 트랜스포머가 연산가능한 형태로 가공하는 과정은 임베딩 과정을 포함할 수 있다. 데이터 토큰, 임베딩 벡터, 임베딩 토큰 등과 같은 표현들은, 트랜스포머가 처리할 수 있는 형태로 임베딩된 데이터들을 지칭하는 것일 수 있다.
트랜스포머가 일련의 데이터들을 인코딩 및 디코딩하기 위하여, 트랜스포머 내의 인코더 및 디코더들을 어텐션(attention) 알고리즘을 활용하여 처리할 수 있다. 어텐션 알고리즘이란 주어진 쿼리(Query)에 대해, 하나 이상의 키(Key)에 대한 유사도를 구하고, 이렇게 주어진 유사도를, 각각의 키(Key)와 대응하는 값(Value)에 반영한 후, 유사도가 반영된 값(Value)들을 가중합하여 어텐션 값을 계산하는 알고리즘을 의미할 수 있다.
쿼리, 키 및 값을 어떻게 설정하느냐에 따라, 다양한 종류의 어텐션 알고리즘이 분류될 수 있다. 예를 들어, 쿼리, 키 및 값을 모두 동일하게 설정하여 어텐션을 구하는 경우, 이는 셀프-어텐션 알고리즘을 의미할 수 있다. 입력된 일련의 데이터들을 병렬로 처리하기 위해, 임베딩 벡터를 차원을 축소하여, 각 분할된 임베딩 벡터에 대해 개별적인 어텐션 헤드를 구하여 어텐션을 구하는 경우, 이는 멀티-헤드(multi-head) 어텐션 알고리즘을 의미할 수 있다.
일 실시예에서, 트랜스포머는 복수개의 멀티-헤드 셀프 어텐션 알고리즘 또는 멀티-헤드 인코더-디코더 알고리즘을 수행하는 모듈들로 구성될 수 있다. 일 실시예에서, 트랜스포머는 임베딩, 정규화, 소프트맥스(softmax) 등 어텐션 알고리즘이 아닌 부가적인 구성요소들 또한 포함할 수 있다. 어텐션 알고리즘을 이용하여 트랜스포머를 구성하는 방법은 Vaswani et al., Attention Is All You Need, 2017 NIPS에 개시된 방법을 포함할 수 있으며, 이는 본 명세서에 참조로 통합된다.
트랜스포머는 임베딩된 자연어, 분할된 이미지 데이터, 오디오 파형 등 다양한 데이터 도메인에 적용하여, 일련의 입력 데이터를 일련의 출력 데이터로 변환할 수 있다. 다양한 데이터 도메인을 가진 데이터들을 트랜스포머에 입력가능한 일련의 데이터들로 변환하기 위해, 트랜스포머는 데이터들을 임베딩할 수 있다. 트랜스포머는 일련의 입력 데이터 사이의 상대적 위치관계 또는 위상관계를 표현하는 추가적인 데이터를 처리할 수 있다. 또는 일련의 입력 데이터에 입력 데이터들 사이의 상대적인 위치관계 또는 위상관계를 표현하는 벡터들이 추가적으로 반영되어 일련의 입력 데이터가 임베딩될 수 있다. 일 예에서, 일련의 입력 데이터 사이의 상대적 위치관계는, 자연어 문장 내에서의 어순, 각각의 분할된 이미지의 상대적 위치 관계, 분할된 오디오 파형의 시간 순서 등을 포함할 수 있으나, 이에 제한되지 않는다. 일련의 입력 데이터들 사이의 상대적인 위치관계 또는 위상관계를 표현하는 정보를 추가하는 과정은 위치 인코딩(positional encoding)으로 지칭될 수 있다.
일 실시예에서, 추정 모델은 RNN(Recurrent Neural Network), LSTM(Long Short Term Memory) 네트워크, BERT(Bidirectional Encoder Representations from Transformers), 또는 GPT(Generative Pre-trained Transformer)를 포함할 수 있다.
일 실시예에서, 추정 모델은 전이학습(transfer learning) 방식으로 학습된 모델일 수 있다. 여기서, 전이학습은 대용량의 라벨링되어 있지 않은 학습용 데이터를 준지도학습 또는 자가학습 방식으로 사전 학습(pre-training)하여 제1 태스크를 갖는 사전 학습된(pre-trained) 모델을 얻고, 사전 학습된 모델을 제2 태스크에 적합하도록 fine-tuning하여 라벨링된 학습용 데이터를 지도학습 방식으로 학습해 타겟으로 하는 모델을 구현하는 학습 방식을 나타낸다.
한편, 도 4에는 도시되어 있지 않지만, 촬영 요청자(300)로부터의 피드백이 중개 서버(100)에게 제공될 수 있으며, 실시예에 따라 이러한 피드백은 촬영 수행자(300)에게 제공될 수도 있다. 구체적으로 살펴보면, 피드백은 촬영 요청자(300)의 요구조건에 관한 것일 수 있으며, 예컨대 경로 준수 여부, 원하는 지역에 대한 촬영 수행 여부 또는 영상 해상도 등이 포함될 수 있고, 다만 이에 한정되는 것은 아니다.
이렇게 제공받은 피드백은 어떤 촬영 요청자(300)가 제기한 것인지에 대한 정보가 메모리(120)에 저장될 수 있다. 즉, 복수의 촬영 요청자(300) 각각에 대한 피드백이 저장되어서 데이터베이스화될 수 있다.
아울러, 실시예에 따라 이렇게 저장된 피드백 중 공통적인 사항이 추출될 수 있다. 추출된 사항에는 예컨대 전술한 피드백 중 하나 이상, 즉 경로 준수 여부, 원하는 지역에 대한 촬영 수행 여부 또는 영상 해상도 등이 포함될 수 있으며, 다만 이에 한정되는 것은 아니다.
이러한 피드백의 경우, 촬영 요청자(300)의 개인적인 성향을 반영한다. 따라서, 이 후 촬영 수행자(200)가 누구인지와 상관없이, 동일한 유형의 피드백이 발생될 해당 촬영 요청자(300)로부터 제기될 가능성이 있다.
이에, 일 실시예에서는 촬영 요청자(300)가 과거 어떠한 피드백을 했는지 또는 해당 촬영 요청자를 포함해서 복수의 촬영 요청자가 과거에 어떠한 피드백을 했는지에 따라, 그러한 피드백이 촬영 수행자(200)에게 임시 영상과 함께 피드백으로서 제공될 수 있다.
제공되는 피드백은 해당 촬영 요청자에 의해 제기된 모든 사항 또는 그 중 공통적으로 추출된 것일 수 있다. 아울러, 실시예에 따라서는 해당 촬영 요청자를 포함해서 복수의 촬영 요청자에 의한 피드백 중 공통적으로 추출된 것이 피드백으로서 제공될 수도 있다. 즉, 해당 촬영 요청자에 의한 것은 아니자만 다른 촬영 요청자에 의해 빈번하게 제기되는 것이라면 해당 촬영 요청자 역시 언제든 제기할 수 있는 것이기에, 일 실시예에서는 이러한 다른 촬영 요청자에 의해 제기된 피드백 중 공통적으로 추출된 것이 피드백으로서 제공될 수도 있는 것이다. 아울러, 실시예에 따라서는, 이렇게 공통적인 것으로 추출되는 과정에서는, 해당 촬영 요청자에 의한 피드백과 동일 또는 유사한 것에는 가중치가 적용됨으로써 추출 과정에 반영될 수 있음은 물론이다. 가중치의 결정 과정은 다양할 수 있으며, 예컨대 복수의 촬영 요청자로부터의 피드백 각각에 대해 의미론적 벡터(semantic vector)가 산출된 뒤, 이렇게 산출된 의미론적 벡터의 거리가 가까운 정도에 비례해서 가중치가 결정될 수 있으며, 다만 이에 한정되는 것은 아니다.
다시 도 3을 참조하여서, 프로세서(130)에 대해 살펴보자. 우선, 일 실시예에 따른 프로세서(130)는 메모리(120)에 저장된 적어도 하나의 명령어를 실행시킴으로써, 후술될 본 개시내용의 실시예들에 따른 기술적 특징들을 수행할 수 있다. 일 실시예에서, 프로세서(130)는 적어도 하나의 코어로 구성될 수 있으며, 컴퓨터 장치(100)의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석 및/또는 처리를 위한 프로세서를 포함할 수 있다.
이하, 프로세서(130)에 대해 살펴보기로 한다.
우선, 프로세서(130)는 메모리(120)에 저장된 적어도 하나의 명령어를 실행시킴으로써, 후술될 본 개시내용의 실시예들에 따른 기술적 특징들을 수행할 수 있다. 일 실시예에서, 프로세서(130)는 적어도 하나의 코어로 구성될 수 있으며, 컴퓨터 장치(100)의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석 및/또는 처리를 위한 프로세서를 포함할 수 있다.
이러한 프로세서(130)는 머신러닝이나 딥러닝 방식으로 설계된 신경망 내지 모델을 학습시킬 수 있다. 이를 위해, 프로세서(130)는 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(130)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다.
또한, 프로세서(130)는 머신러닝이나 딥러닝 방식으로 이미 학습이 완료된 신경망 내지 모델을 이용해서, 소정의 목적 하에 추론(inference)을 수행할 수도 있다.
이하, 프로세서(130)에 의해 메모리(120)에 저장된 적어도 하나의 명령어가 실행됨으로써, 중개 서버(100)가 수행할 수 있는 다양한 동작 내지 기능 등에 대해 살펴보기로 하자.
프로세서(130)는 통신부(110)를 제어할 수 있다. 또한 프로세서(130)는 메모리(120)에 저장되어 있는 전술한 데이터나 명령어를 읽어들일 수 있고, 메모리(120)에 새로운 데이터나 명령어를 기록할 수 있다. 또한, 프로세서(130)는 이미 기록되어 있는 데이터나 명령어를 수정하거나 삭제할 수 있다.
프로세서(130)에 의해 중개 서버(100)는 다양한 기능을 수행할 수 있다. 이하, 프로세서(130)에 의해 중개 서버(100)에서 수행될 수 있는 다양한 기능에 대해 살펴보도록 한다.
중개 서버(100)에서는, 프로세서(130)에 의해 메모리(120)에 저장된 적어도 하나의 명령어가 실행됨으로써, 촬영 수행자(300)에 의해 조종되는 드론(400)에서의 촬영 요청 지역에 대한 촬영 영상이, 통신부(110)를 통해 수신된다. 실시예에 따라, 상기 촬영 요청 지역에서 측정된 GPS 정보 및 적어도 하나의 환경 센서에서 측정된 환경 센싱 정보가 상기 통신부를 통해 수신될 수도 있다.
또한, 중개 서버(100)에서는 프로세서(130)에 의해, 전술한 임시 영상이 생성된다. 이 때, 임시 영상의 생성 과정에서는 상기 수신된 GPS 정보 중 적어도 일부가 이용되지 않거나 상기 수신된 환경 센싱 정보 중 적어도 일부가 이용되지 않을 수 있다. 한편, 임시 영상에 대해서는 이미 설명된 바 있으므로, 이에 대한 추가 설명은 생략하기로 한다.
또한, 중개 서버(100)에서는 프로세서(130)에 의해, 이렇게 생성된 임시 영상이 통신부(110)를 통해 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공된다. 여기서 제공되는 임시 영상은 임시 영상 평가부(124)에 의해 소정의 평가 기준을 충족시키는 것임은 전술한 바와 같다.
또한, 중개 서버(100)에서는 프로세서(130)에 의해, 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공되는데, 이는 촬영 요청자(300) 및/또는 촬영 수행자(200)로부터의 피드백에 따르게 된다.
즉, 일 실시예에 따르면, 중개 서버는 촬영 요청자와 촬영 수행자를 매칭시켜줄 뿐만 아니라, 촬영 요청자에게는 자신의 요구조건에 부합되도록 드론이 조종되고 영상이 촬영되고 있는지에 대한 피드백을 제공할 수 있고, 촬영 수행자에게는 자신이 드론을 제대로 조종하고 있는지 내지 영상을 제대로 촬영하고 있는지 여부에 대한 피드백을 제공할 수 있다. 이를 통해, 촬영 요청자는 중개 서버를 통한 영상 제작 의뢰를 신뢰하게 되며, 촬영 수행자는 자신의 드론 비행 내지 촬영 스킬에 대한 실력 향상 기회를 얻게 된다. 아울러, 촬영 수행자는 촬영이 종료되어서 현장을 벗어났는데, 이 후 촬영 결과물의 불만족 내지 오류로 인해 촬영 요청 지역을 재방문해서 재촬영을 해야 하는 번거로움을 겪지 않을 수 있다.
한편, 중개 서버(100)에서는 프로세서(130)에 의해, 매칭 과정이 수행된다. 이를 위해, 매칭 과정에서는 촬영 요청자(300)의 요구조건이 촬영 수행자(200)에 대한 정보가 비교되는데, 촬영 요청자(300)의 요구조건은 통신부(110)를 통해 촬영 요청자(300)로부터 획득된 것일 수 있고, 촬영 수행자(200)에 대한 정보는 메모리(120)로부터 로딩된 것일 수 있다. 이러한 매칭 과정의 예시는 이미 살펴본 바 있으므로, 이를 원용하기로 한다.
또한, 중개 서버(100)에서는 프로세서(130)에 의해, 드론(400)의 비행 경로가 추천된다. 추천 방식은 다양하며, 실시예에 따라 인공신경망을 이용한 방식이 이용될 수도 있다. 이러한 추천 비행 경로는 드론 전문가나 드론 교육자(50)가 사전에 비행한 데이터에 근거에서 추천된 것이다. 따라서, 드론 조종 경험이 많지 않거나 해당 지역이 익숙하지 않은 촬영 수행자(200) 입장에서는, 이러한 추천 비행 경로가 유용하게 활용될 수 있다.
이 때, 이러한 추천된 비행 경로는 수정될 수도 있다. 예컨대 이러한 추천 비행 경로에는 촬영 요청자(300)의 요구조건이 미반영되어 있을 수도 있다. 구체적으로 살펴보면, 촬영 요청자(300)는 추천 비행 경로가 지나가지 않는 특정 구역에서의 영상이 필요할 수 있고, 또는 특정 구역은 불필요할 수도 있다. 이 경우, 추천 비행 경로는 이러한 요구조건에 의해 수정될 수도 있다. 수정 방식의 경우, 특정 구역을 반드시 포함해야 할 경우에는, 추천 비행 경로와 특정 구역의 무게중심을 연결하는 최단 직선을 생성한 뒤, 추천 비행 경로에 이 최단 직선을 연결함으로써 수정될 수 있다. 이와 달리, 특정 구역이 제외되어야 하는 경우, 특정 구역 내에서의 추천 비행 경로는 제거된 뒤, 해당 특정 구역의 테두리를 따라서 제거된 부분의 끝 점을 연결함으로써 수정될 수 있다. 다만, 이러한 수정 방식은 예시적인 것에 불과한 바, 본 발명의 사상이 이에 한정되는 것은 아니다.
이하, 일 실시예에 따른 중개 서버(100)에서 수행되는 중개 방법에 대해 살펴보기로 하자.
도 8에는 일 실시예에 따른 중개 방법에 대한 순서도가 예시적으로 도시되어 있다. 이러한 도 4에 방법 또는 이러한 방법에 포함된 각 단계는 도 3에 도시된 중개 서버(100), 구체적으로는 메모리(120)에 저장된 적어도 하나의 명령어가 프로세서(130)에 의해 실행됨으로써 수행 가능하다. 또한, 도 8에 도시된 이러한 순서도는 예시적인 것에 불과한 바, 본 발명의 사상이 도 8에 도시된 것으로 한정 해석되는 것은 아니다. 예컨대, 실시예에 따라 도 8에 도시된 것과는 상이한 순서로 각 단계가 수행될 수 있으며, 또는 도 8에 도시되지 않은 적어도 하나의 단계가 추가적으로 수행되거나 또는 도 8에 도시된 단계 중 적어도 하나가 수행되지 않을 수도 있다.
도 8을 참조하면, 촬영 수행자(300)에 의해 조종되는 드론(400)에서의 촬영 요청 지역에 대한 촬영 영상이 수신된다(S100). 실시예에 따라, 상기 촬영 요청 지역에서 측정된 GPS 정보 및 적어도 하나의 환경 센서에서 측정된 환경 센싱 정보가 상기 통신부를 통해 수신될 수도 있다.
또한, 전술한 임시 영상이 생성된다(S110). 이 때, 임시 영상의 생성 과정에서는 상기 수신된 GPS 정보 중 적어도 일부가 이용되지 않거나 상기 수신된 환경 센싱 정보 중 적어도 일부가 이용되지 않을 수 있다. 한편, 임시 영상에 대해서는 이미 설명된 바 있으므로, 이에 대한 추가 설명은 생략하기로 한다.
또한, 이렇게 생성된 임시 영상이 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공된다(S120). 여기서 제공되는 임시 영상은 임시 영상 평가부(124)에 의해 소정의 평가 기준을 충족시키는 것임은 전술한 바와 같다.
또한, 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 촬영 요청자(300) 및/또는 촬영 수행자(200)에게 제공되는데, 이는 촬영 요청자(300) 및/또는 촬영 수행자(200)로부터의 피드백에 따르게 된다(S130).
즉, 일 실시예에 따르면, 중개 서버는 촬영 요청자와 촬영 수행자를 매칭시켜줄 뿐만 아니라, 촬영 요청자에게는 자신의 요구조건에 부합되도록 드론이 조종되고 영상이 촬영되고 있는지에 대한 피드백을 제공할 수 있고, 촬영 수행자에게는 자신이 드론을 제대로 조종하고 있는지 내지 영상을 제대로 촬영하고 있는지 여부에 대한 피드백을 제공할 수 있다. 이를 통해, 촬영 요청자는 중개 서버를 통한 영상 제작 의뢰를 신뢰하게 되며, 촬영 수행자는 자신의 드론 비행 내지 촬영 스킬에 대한 실력 향상 기회를 얻게 된다. 아울러, 촬영 수행자는 촬영이 종료되어서 현장을 벗어났는데, 이 후 촬영 결과물의 불만족 내지 오류로 인해 촬영 요청 지역을 재방문해서 재촬영을 해야 하는 번거로움을 겪지 않을 수 있다.
한편, 전술한 실시예에 따른 방법은, 이러한 방법에 포함된 각각의 단계를 프로세서가 수행하도록 하기 위한 컴퓨터 명령어를 포함하도록 구현된 컴퓨터 프로그램의 형태로 구현 가능하다. 이 때, 이러한 컴퓨터 프로그램은 컴퓨터 판독가능한 기록매체에 저장된 것일 수 있다.
또는, 전술한 실시예에 따른 방법에, 이러한 방법에 포함된 각각의 단계를 프로세서가 수행하도록 하기 위한 컴퓨터 명령어를 포함하는 컴퓨터 프로그램을 포함하는 컴퓨터 판독가능한 기록매체의 형태로 구현될 수 있다.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 중개 서버
200: 촬영 수행자
300: 촬영 요청자
400: 드론

Claims (10)

  1. 통신부;
    적어도 하나의 명령어를 저장하는 메모리; 및
    프로세서를 포함하며,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써,
    촬영 수행자에 의해 조종되는 드론에서의 촬영 요청 지역에 대한 촬영 영상이, 상기 통신부를 통해 수신되고,
    촬영 요청자에게 제공될 최종 영상보다 생성 소요 시간이 짧거나 생성 소요 리소스가 적은 임시 영상이 상기 수신된 촬영 영상을 이용해서 생성되며,
    상기 생성된 임시 영상이 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되고,
    상기 촬영 요청자 및/또는 상기 촬영 수행자로부터의 피드백에 따라, 상기 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되며,
    상기 촬영 요청 지역에 대한 촬영은 복수 회 수행되고,
    상기 임시 영상은 상기 복수 회의 촬영이 종료될 때마다 생성되며,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써, 상기 생성된 복수 개의 임시 영상 각각에 대한 평가가 수행되며,
    상기 통신부를 통해 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 임시 영상은, 상기 복수 개의 임시 영상 중 평가 결과가 가장 높은 임시 영상을 포함하고,
    상기 평가는,
    상기 복수 개의 임시 영상 각각이 상기 촬영 요청 지역을 커버하는 정도 및 상기 복수 개의 임시 영상 각각에서 기록된 상기 드론의 항적과 상기 촬영 요청 지역에 대해 사전 결정된 항적과의 일치 정도 중 적어도 하나에 의해 수행되는,
    중개 서버.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써,
    상기 촬영 요청 지역에서 측정된 GPS 정보 및 적어도 하나의 환경 센서에서 측정된 환경 센싱 정보가 상기 통신부를 통해 수신되되,
    상기 임시 영상의 생성과정에는,
    상기 수신된 GPS 정보 중 적어도 일부가 이용되지 않거나 상기 수신된 환경 센싱 정보 중 적어도 일부가 이용되지 않는,
    중개 서버.
  3. 제 1 항에 있어서,
    상기 임시 영상은,
    상기 최종 영상보다 해상도가 낮거나 또는 상기 촬영 요청 지역 중 상기 촬영 요청자가 지정한 구역에 대해서만 소정의 영상 가공 처리가 수행된 것인,
    중개 서버.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써,
    상기 촬영 요청 지역에 대한 추천 비행 경로가 생성되고,
    상기 생성된 추천 비행 경로가 상기 통신부를 통해 상기 촬영 수행자에게 제공되는,
    중개 서버.
  7. 제 6 항에 있어서,
    상기 메모리에는 서로 상이한 지역 각각에 대한 복수의 위성 사진을 학습용 입력 데이터로 하고 상기 복수의 위성 사진 각각에서의 드론 항적 정보를 학습용 정답 데이터로 하여 학습된 비행 경로 추천 모델이 저장되어 있고,
    상기 추천 비행 경로는,
    상기 비행 경로 추천 모델에 상기 촬영 요청 지역에 대한 위성 사진이 입력된 것에 대응해서 상기 비행 경로 추천 모델이 출력한 것인,
    중개 서버.
  8. 제 1 항에 있어서,
    상기 적어도 하나의 명령어가 상기 프로세서에 의해 실행됨으로써,
    상기 촬영 요청자에 의해 제기된 과거의 피드백이 상기 메모리로부터 획득되고,
    상기 획득된 피드백이 상기 통신부를 통해 상기 촬영 수행자에게 제공되는
    중개 서버.
  9. 중개 서버에서 수행되는 촬영 수행자와 촬영 요청자를 중개하는 방법으로서,
    상기 촬영 수행자에 의해 조종되는 드론에서의 촬영 요청 지역에 대한 촬영 영상이 수신되는 단계;
    상기 촬영 요청자에게 제공될 최종 영상보다 생성 소요 시간이 짧거나 생성 소요 리소스가 적은 임시 영상이 상기 수신된 촬영 영상을 이용해서 생성되는 단계;
    상기 생성된 임시 영상이 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 단계; 및
    상기 촬영 요청자 및/또는 상기 촬영 수행자로부터의 피드백에 따라, 상기 촬영 요청 지역에 대한 재촬영 요청 또는 재촬영 불필요 여부가 상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 단계를 포함하며,
    상기 촬영 요청 지역에 대한 촬영은 복수 회 수행되고,
    상기 임시 영상은 상기 복수 회의 촬영이 종료될 때마다 생성되며,
    상기 생성된 복수 개의 임시 영상 각각에 대한 평가가 수행되며,
    상기 촬영 요청자 및/또는 상기 촬영 수행자에게 제공되는 임시 영상은, 상기 복수 개의 임시 영상 중 평가 결과가 가장 높은 임시 영상을 포함하고,
    상기 평가는,
    상기 복수 개의 임시 영상 각각이 상기 촬영 요청 지역을 커버하는 정도 및 상기 복수 개의 임시 영상 각각에서 기록된 상기 드론의 항적과 상기 촬영 요청 지역에 대해 사전 결정된 항적과의 일치 정도 중 적어도 하나에 의해 수행되는
    촬영 수행자와 촬영 요청자를 중개하는 방법.
  10. 제 9 항에 따른 방법에 포함된 각 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020230006499A 2023-01-17 2023-01-17 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법 KR102554018B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230006499A KR102554018B1 (ko) 2023-01-17 2023-01-17 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230006499A KR102554018B1 (ko) 2023-01-17 2023-01-17 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법

Publications (1)

Publication Number Publication Date
KR102554018B1 true KR102554018B1 (ko) 2023-07-11

Family

ID=87160056

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230006499A KR102554018B1 (ko) 2023-01-17 2023-01-17 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법

Country Status (1)

Country Link
KR (1) KR102554018B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101990886B1 (ko) * 2018-11-22 2019-06-19 주식회사 무지개연구소 빅데이터 기반 자율 비행 드론 시스템 및 그 자율 비행 방법
KR20220018732A (ko) * 2020-08-07 2022-02-15 윤석재 드론으로 촬영된 데이터를 중개하거나 공급하는 서버 및 그의 동작 방법
KR102444508B1 (ko) * 2021-12-22 2022-09-19 주식회사 유시스 드론 온라인 매칭 서비스 플랫폼
KR20230003730A (ko) 2021-06-29 2023-01-06 주식회사 뷰메진 드론을 이용하여 구조물의 외부 균열을 검사하는 방법, 시스템 및 비일시성 판독 가능 기록 매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101990886B1 (ko) * 2018-11-22 2019-06-19 주식회사 무지개연구소 빅데이터 기반 자율 비행 드론 시스템 및 그 자율 비행 방법
KR20220018732A (ko) * 2020-08-07 2022-02-15 윤석재 드론으로 촬영된 데이터를 중개하거나 공급하는 서버 및 그의 동작 방법
KR20230003730A (ko) 2021-06-29 2023-01-06 주식회사 뷰메진 드론을 이용하여 구조물의 외부 균열을 검사하는 방법, 시스템 및 비일시성 판독 가능 기록 매체
KR102444508B1 (ko) * 2021-12-22 2022-09-19 주식회사 유시스 드론 온라인 매칭 서비스 플랫폼

Similar Documents

Publication Publication Date Title
JP6886202B2 (ja) 仮想走行の環境で使用されるドメイン適応に適用され得るganを利用して、リアル特徴マップと同一または類似する特性を有するバーチャル特徴マップを生成する学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
KR102296507B1 (ko) 트래킹 네트워크를 포함한 cnn을 사용하여 객체를 트래킹하는 방법 및 이를 이용한 장치
Saputra et al. Learning monocular visual odometry through geometry-aware curriculum learning
JP6886201B2 (ja) ドメイン適応に適用され得るサイクルganを利用してリアルイメージ上の物体検出に使用される、リアル世界におけるリアルイメージをバーチャル世界におけるバーチャルイメージに変換するランタイム入力変換のための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
TWI795447B (zh) 基於關注提議進行視訊動作定位
KR102548732B1 (ko) 신경망 학습 방법 및 이를 적용한 장치
JP2022537636A (ja) メディア処理および表示のための方法、システム、およびコンピュータ・ プログラム製品
JP7092383B2 (ja) 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置
Jain et al. GAN-Poser: an improvised bidirectional GAN model for human motion prediction
JP2020126618A (ja) 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same}
KR102203252B1 (ko) 생성적 적대 신경망에 기반한 협업 필터링을 위한 방법 및 시스템
US10872297B2 (en) Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same
CN110281949B (zh) 一种自动驾驶统一分层决策方法
CN110431565A (zh) 直推式和/或自适应最大边界零样本学习方法和系统
KR20200036680A (ko) 감정 정보 획득을 위한 전자 장치 및 방법
KR102554018B1 (ko) 드론에서 촬영된 영상에 대한 촬영 요청자와 촬영 수행자를 중개해주는 서버 및 이를 이용한 중개 방법
Meftah et al. A virtual simulation environment using deep learning for autonomous vehicles obstacle avoidance
US20210034969A1 (en) Training an unsupervised memory-based prediction system to learn compressed representations of an environment
CN117197451A (zh) 基于域自适应的遥感图像语义分割方法及装置
CN112801138A (zh) 基于人体拓扑结构对齐的多人姿态估计方法
Ferencz et al. End-to-end autonomous vehicle lateral control with deep learning
Kapur Marine search and rescue using light weight neural networks
Procopio An experimental analysis of classifier ensembles for learning drifting concepts over time in autonomous outdoor robot navigation
Sun et al. Learn to Adapt for Self-Supervised Monocular Depth Estimation
Arana-Daniel et al. Path Planning in Rough Terrain Using Neural Network Memory

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant