KR102163455B1 - Remote delivery system and method using unmanned drone pilotless aircraft - Google Patents

Remote delivery system and method using unmanned drone pilotless aircraft Download PDF

Info

Publication number
KR102163455B1
KR102163455B1 KR1020190148686A KR20190148686A KR102163455B1 KR 102163455 B1 KR102163455 B1 KR 102163455B1 KR 1020190148686 A KR1020190148686 A KR 1020190148686A KR 20190148686 A KR20190148686 A KR 20190148686A KR 102163455 B1 KR102163455 B1 KR 102163455B1
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
altitude
delivery
recipient
Prior art date
Application number
KR1020190148686A
Other languages
Korean (ko)
Inventor
고광만
원우연
Original Assignee
(합)동양아이텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (합)동양아이텍 filed Critical (합)동양아이텍
Priority to KR1020190148686A priority Critical patent/KR102163455B1/en
Application granted granted Critical
Publication of KR102163455B1 publication Critical patent/KR102163455B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q50/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/042Control of altitude or depth specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • B64C2201/128
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Remote Sensing (AREA)
  • Operations Research (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a remote delivery system using an unmanned aerial vehicle and a delivery method thereof, and more particularly, to a remote delivery system using an unmanned aerial vehicle for solving problems of the unmanned aerial vehicle to provide a delivery service safely through control of take-off and landing points (algorithm for maintaining the altitude of the unmanned aerial vehicle), recipient recognition/authentication, a warning method in case of approaching a person (animal) other than a correct recipient, and rainfall prediction, and a delivery method thereof.

Description

무인 항공기를 이용한 원격 배달 시스템 및 배달 방법{Remote delivery system and method using unmanned drone pilotless aircraft}Remote delivery system and method using unmanned drone pilotless aircraft

본 발명은 무인 항공기를 이용한 원격 배달 시스템 및 배달 방법에 관한 것으로서, 보다 상세하게는 이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘), 수취인 인식/인증, 올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법, 강우량 예측 등을 통해 무인 항공기의 문제점을 해결하고 안전한 배달 서비스가 이루어질 수 있도록 구성된 무인 항공기를 이용한 원격 배달 시스템 및 배달 방법에 관한 것이다.The present invention relates to a remote delivery system and delivery method using an unmanned aerial vehicle, and in more detail, control of take-off and landing points (altitude maintenance algorithm of unmanned aerial vehicle), recipient recognition/authentication, warning method when approaching a person (animal) other than the correct recipient , It relates to a remote delivery system and delivery method using an unmanned aerial vehicle configured to solve the problem of the unmanned aerial vehicle through rainfall prediction, etc. and to provide a safe delivery service.

일반적으로, 드론(DRON)은 기체에 사람이 타지 않고 지상에서 원격조종을 통해 비행하는 무인(無人) 비행기를 의미한다. 이때, 드론은 원격조종을 통해 비행을 수행하기 때문에 무인항공기(UAV)로 불리기도 한다.In general, a drone (DRON) refers to an unmanned airplane flying through remote control from the ground without a person on board. At this time, drones are also called unmanned aerial vehicles (UAVs) because they fly through remote control.

초기의 드론은 군사용 목적으로 개발되었다. 일례로, 드론은 공군기나 고사포의 연습사격을 위한 표적용, 정찰 및 감시와 대잠공격용, 정찰 및 정보수집용 등으로 개발되었다.Early drones were developed for military purposes. For example, drones have been developed for targeting, reconnaissance and surveillance, anti-submarine attacks, reconnaissance and information collection for practice shooting of air force aircraft or AA guns.

드론은 원격탐지장치, 위성제어장치 등 최첨단 장비를 갖추고 사람이 접근하기 힘든 곳이나 위험지역 등에 투입되어 정보를 수집하기도 하고, 공격용 무기를 장착하여 지상군 대신 적을 공격하는 공격기의 기능으로 활용되고 있다.Drones are equipped with state-of-the-art equipment such as remote detection devices and satellite control devices, and are used in places that are difficult to access or dangerous areas to collect information, and are used as a function of attack aircraft to attack enemies instead of ground forces by installing attack weapons.

한편, 드론은 군사적 성격 외에 다양한 민간 분야에 활용되고 있다. 일례로, 사람이 직접 촬영이 어려운 환경(예를 들면, 화산 분화구, 화재 현장 등), 비용이 많이 드는 항공 촬영, 무인 택배(배달) 서비스 등의 용도로 사용된다.On the other hand, drones are being used in a variety of private sectors besides their military nature. For example, it is used for environments in which it is difficult for people to take pictures directly (for example, volcanic craters, fire sites, etc.), expensive aerial photography, and unmanned courier (delivery) services.

무인 택배용 드론은 GPS(위성항법장치)를 통해 물품을 구매자에게 배달한다. 즉, 무인 택배용 드론은 GPS 정보를 이용해 측정되는 현재 위치와 배송 위치를 근거로 비행하여 배송 위치로 물품을 배달한다.Unmanned delivery drones deliver goods to buyers through GPS (satellite navigation system). In other words, drones for unmanned parcel delivery deliver goods to the delivery location by flying based on the current location and delivery location measured using GPS information.

또한 설치된 카메라를 이용하여 대상을 감시하는 CCTV로서의 역할을 하는 CCTV 드론의 경우, 자유로운 움직임을 통해 정밀하고 다양한 영상을 확보할 수 있다는 장점이 있지만, 관리자가 인근에서 움직임을 제어하여야 하는 문제점이 발생한다.In addition, in the case of a CCTV drone that acts as a CCTV monitoring the target using the installed camera, it has the advantage of securing precise and diverse images through free movement, but there is a problem that the administrator must control the movement in the vicinity. .

특히 배송용으로 드론을 사용하는 기술에 대한 연구가 활발하게 진행되고 있으며, 드론은 무인으로 시간과 장소의 문제를 해결하면서 배송이 가능하다는 장점을 가지고 있어, 이러한 장점을 극대화 하기 위한 다양한 노력이 시도되고 있다.In particular, research on the technology of using drones for delivery is being actively conducted, and drones have the advantage of being able to deliver while solving problems of time and place unattended, so various efforts to maximize these advantages have been attempted. Has become.

하지만 일반적으로 드론을 이용하여 배송이 이루어지는 경우 택배기사가 직접 배송을 하는 것에 비해 올바른 수취인에게 배송이 이루어졌는지 인증을 하는 방법이 문제가 된다. 따라서 물품배송 시 인증방법 및 장치에 대한 개발이 요구되고 있다.However, in general, when delivery is performed using a drone, the problem is how to verify that the delivery has been delivered to the correct recipient, compared to the delivery by a courier. Therefore, there is a demand for the development of authentication methods and devices when delivering goods.

또한 배송용 드론의 고도가 유지해야 하는 고도보다 낮으면 스로틀 수치를 올려 드론을 상승시키고 유지해야 하는 고도보다 높으면 스로틀 수치를 내려 드론을 하강시킨다.In addition, if the altitude of the delivery drone is lower than the altitude to be maintained, the throttle value is raised to raise the drone, and if the altitude is higher than the altitude to be maintained, the throttle value is lowered to lower the drone.

그러나 드론이 고도 유지 중에 몇 가지 원인으로 인하여 유지해야 하는 고도로부터 멀어지는 경우가 있다. 그 원인에는 모터 속도 차이로 인한 추력의 불균형, 바람, 드론의 상승이나 하강을 위한 스로틀 계산 값의 오차가 있다.However, while maintaining altitude, there are cases when the drone moves away from the altitude it needs to maintain due to several reasons. The causes include an imbalance in thrust due to a difference in motor speed, wind, and errors in the throttle calculation value for the rise or fall of the drone.

현재 배송용 드론의 고도가 유지해야 하는 고도보다 낮으면 스로틀 수치를 올려 드론을 상승시키고 유지해야 하는 고도보다 높으면 스로틀 수치를 내려 드론을 하강시킨다.If the current altitude of the delivery drone is lower than the altitude that must be maintained, the throttle value is raised to raise the drone, and if it is higher than the altitude that must be maintained, the throttle value is lowered to lower the drone.

그러나 드론이 고도 유지 중에 몇 가지 원인으로 인하여 유지해야 하는 고도로부터 멀어지는 경우가 있다. 그 원인에는 모터 속도 차이로 인한 추력의 불균형, 바람, 드론의 상승이나 하강을 위한 스로틀 계산 값의 오차가 있다. However, while maintaining altitude, there are cases when the drone moves away from the altitude it needs to maintain due to several reasons. The causes include an imbalance in thrust due to a difference in motor speed, wind, and errors in the throttle calculation value for the rise or fall of the drone.

바람은 환경적 요인이고 모터 속도 문제는 주로 하드웨어적 결함으로 인해 발생하는 것이므로 드론의 고도 유지 능력을 저해하는 주된 원인은 스로틀 계산 값 오차다. Since wind is an environmental factor and motor speed problems are mainly caused by hardware defects, the main cause of the drone's ability to maintain altitude is an error in the throttle calculation value.

이 오차는 드론을 현재 고도에서 유지해야 하는 고도로 움직이려 할 때 현재 고도가 정확하게 측정되지 않아서 발생한다. This error is caused by the fact that the current altitude is not accurately measured when trying to move the drone to the altitude it should maintain at the current altitude.

따라서 안정적인 고도 유지를 수행하기 위해서는 현재 드론의 정확한 고도를 측정할 수 있어야 한다.Therefore, in order to perform stable altitude maintenance, it is necessary to be able to measure the accurate altitude of the current drone.

일반적으로 드론의 고도 측정은 관성항법장치에 내장된 가속도센서를 이용한다. 이 경우 가속도를 적분하여 고도를 계산하기 때문에 적분 오차가 누적된다. 또 드론 기체의 진동으로 인한 가속도 측정치의 변동 값도 고도 계산에 사용해서 측정 고도에 오차가 생긴다. 그래서 가속도센서의 이런 문제를 방지하고자 고도 측정에 기압계를 같이 사용한다. In general, to measure the altitude of a drone, an acceleration sensor built into the inertial navigation system is used. In this case, since the acceleration is integrated to calculate the altitude, an integration error is accumulated. In addition, the fluctuation value of the acceleration measurement value due to the vibration of the drone is also used in the altitude calculation, causing an error in the measurement altitude. So, to prevent this problem with the accelerometer, a barometer is used together to measure altitude.

하지만 기압계는 기압의 변화를 측정해 고도를 계산하는데 바람이나 온도 등 외적인 요인에 의해 민감하게 반응한다. However, barometers measure changes in barometric pressure to calculate altitude, and react sensitively to external factors such as wind or temperature.

예를 들어 드론을 작동시킬 때 프로펠러가 일으키는 바람이 지표면에 닿아 드론 주위의 기압이 낮아지면 고도가 0이 아닌 음의 값으로 측정된다. 결과적으로 가속도센서와 기압계를 같이 사용하더라도 측정값은 불규칙적으로 변하는 등 정확한 고도 측정을 기대하기 힘들다.For example, if the air pressure around the drone is lowered due to the wind generated by the propeller when operating the drone, the altitude is measured as a negative value rather than zero. As a result, even if an acceleration sensor and a barometer are used together, it is difficult to expect an accurate altitude measurement, such as the measured value changes irregularly.

앞서 설명한 일반적인 드론의 고도 측정 방법의 문제점들 때문에 기존 연구들에서는 별도의 센서를 추가하여 다른 센서와 함께 고도 측정에 사용한다. 그 결과 기체가 무거워지고 제작비용이 증가하며 연산 처리가 많아지는 문제가 발생한다.Due to the problems of the general drone altitude measurement method described above, in existing studies, a separate sensor is added and used for altitude measurement together with other sensors. As a result, there is a problem that the gas becomes heavier, the manufacturing cost increases, and the calculation processing is increased.

또 센서에 따라 측정 가능 거리의 한계가 있기 때문에 고도에 따라 정확도의 차이가 생긴다. In addition, since there is a limit on the distance that can be measured depending on the sensor, the accuracy varies depending on the altitude.

따라서 배송용 드론이 정확한 주소지로 배송 목적지를 파악하였더라도 고도를 유지하지 못하여 건물과 충돌 사고가 발생하는 것을 막기 위해, 다른 센서를 추가하지 않고 고도 측정의 정확도를 높일 수 있는 방안이 필요하다.Therefore, even if the delivery drone identifies the delivery destination with the correct address, in order to prevent a collision with the building due to failure to maintain the altitude, there is a need for a method to increase the accuracy of altitude measurement without adding other sensors.

또한 정확한 수취인이 아닌 사람에게 배송되는 사고를 방지할 대책이 정확하게 마련되어야 한다.In addition, accurate measures must be in place to prevent accidents delivered to persons other than the correct recipient.

한국등록특허 제1873021호Korean Patent Registration No. 1873021 한국공개특허 제2016-0142017호Korean Patent Publication No. 2016-0142017

[1] Z. Zhang, "A Flexible new Technique for Camera Calibration," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 22, pp. 1330-1334, 2000. [1] Z. Zhang, "A Flexible new Technique for Camera Calibration," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 22, pp. 1330-1334, 2000. [2] D.C. Brown, "Close-range Camera Calibration," Photogrammetric Engineering, Vol. 37, pp.855- 866, 1971.[2] D.C. Brown, "Close-range Camera Calibration," Photogrammetric Engineering, Vol. 37, pp.855-866, 1971.

본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 무인 항공기의 고도 유지 알고리즘에 의한 이착륙 지점 제어와 안면 인식 알고리즘을 이용하여 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 방법을 이용한 무인 항공기를 이용한 원격 배달 시스템을 제공하는 데 목적이 있다.The present invention has been made in order to solve the above problems, and provides an unmanned aerial vehicle using a recipient recognition/authentication method for estimating a parameter of a facial recognition model using a face recognition algorithm and a take-off and landing point control by an altitude maintenance algorithm of the unmanned aerial vehicle. It is an object to provide a remote delivery system used.

또한 본 발명은 올바른 수취인이 아닌 사람(동물) 접근 시 경고하고, 강우량 예측에 의해 배달품을 보호할 수 있는 무인 항공기를 이용한 원격 배달 시스템을 제공하는 데 목적이 있다.In addition, an object of the present invention is to provide a remote delivery system using an unmanned aerial vehicle capable of warning when approaching a person (animal) who is not a correct recipient, and protecting delivered goods by predicting rainfall.

상기 과제를 해결하기 위하여 본 발명은 배송 주소가 배송 서버에 입력되고, 상기 배송 주소에 도착하는 단계; 상기 배송 주소에 도착한 후, 유지해야 하는 고도와 현재 무인 항공기의 고도, 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 PID 제어 방법으로 계산하는 보정 스로틀 값에 의한 무인 항공기의 고도 유지 알고리즘에 의한 이착륙 지점 유지 단계; 상기 이착륙 지점 유지 단계에서 안면 패턴을 촬영한 영상에 대해서 교차점들의 집합을 추출하고, 추출된 교차점들의 집합으로부터 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 단계; 상기 수취인 인식/인증 완료 후 배송 물품 전달 후 배송 완료하는 단계;를 포함한다.In order to solve the above problems, the present invention includes the steps of: inputting a delivery address into a delivery server and arriving at the delivery address; After arriving at the delivery address, take-off and landing points by the altitude maintenance algorithm of the unmanned aerial vehicle based on the corrected throttle value calculated by the PID control method from the error between the altitude to be maintained and the current altitude of the drone, and the altitude to be maintained and the current measured altitude. Maintenance phase; A recipient recognition/authentication step of extracting a set of intersection points from the image photographed with the facial pattern in the take-off and landing point maintenance step, and estimating a parameter of the facial recognition model from the set of the extracted intersection points; And completing delivery after delivery of the delivery item after completion of the recipient recognition/authentication.

최종 스로틀 값은 수학식 1이다. 상기 안면 인식 모델은 수학식 2를 통해 계산된다.The final throttle value is Equation 1. The facial recognition model is calculated through Equation 2.

상기 무인 항공기는 이동 단말기에 수취인의 음성 인식정보를 요청하고, 이동 단말기의 마이크로폰을 통해 수취인의 음성 인식정보를 얻는다.The unmanned aerial vehicle requests the recipient's voice recognition information from the mobile terminal, and obtains the recipient's voice recognition information through a microphone of the mobile terminal.

상기 무인 항공기는 이동 단말기에 웨어러블 디바이스의 정보를 요청하고, 상기 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호이다.The unmanned aerial vehicle requests information on the wearable device from the mobile terminal, and the information on the wearable device is a unique identification number of the wearable device worn by the recipient.

상기 안면 인식모델로 촬영된 각각의 보정 패턴 영상에 대해서 4개의 외곽 기준점을 지정하고, 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정한다.For each correction pattern image captured by the facial recognition model, four outer reference points are designated, the initial intersection point is estimated based on the number and size information of the selected grid shape, and the shape of the extracted intersection points is originally If it is located inside the position, the radiation distortion coefficient is adjusted to a negative value, and if it is outside, the radiation distortion coefficient is adjusted to a positive value to correct the position of each intersection.

상기 수취인 인식/인증 완료 전 외부인 접근시 센서 감지 신호를 생성하여 제어부에 전송하는 근거리 센서 및 상기 제어부의 제어 신호에 따라 데시벨 또는 헤르츠를 달리하여 위험을 알리는 스피커를 더 포함한다.A short-range sensor that generates a sensor detection signal when an outsider approaches before completion of the recipient recognition/authentication and transmits the sensor detection signal to the control unit, and a speaker notifying of danger by varying decibels or hertz according to the control signal of the control unit.

상기 외부인 접근을 감지하는 도플러 센서를 포함하는 근거리 센서를 통해 접근 거리가 가까워질수록 볼륨제어신호의 크기를 선형적으로 제어한다.The volume control signal is linearly controlled as the approach distance becomes closer through a short-range sensor including a Doppler sensor that detects the approach of an outsider.

상기와 같이 이루어지는 본 발명은 배송용 무인 항공기가 정확한 주소지로 배송 목적지를 파악하였더라도 고도를 유지하지 못하여 건물과 충돌 사고가 발생하는 것을 막기 위해, 다른 센서를 추가하지 않고 고도 측정의 정확도를 높일 수 있다.The present invention made as described above can increase the accuracy of altitude measurement without adding other sensors in order to prevent a collision with a building due to failure to maintain altitude even if the delivery unmanned aerial vehicle identifies the delivery destination at the correct address. .

또한 본 발명은 올바른 수취인에게 배송이 이루어졌는지 확인하기 위해 안면 인식 에러가 발생하는 최대 원인인 왜곡 변환 보정식으로 왜곡영상에 의한 오류를 방지할 수 있다.In addition, the present invention can prevent errors caused by distorted images by using a distortion conversion correction formula that is the largest cause of facial recognition errors in order to check whether delivery has been made to the correct recipient.

또한 본 발명은 올바른 수취인이 아닌 사람의 접근 시 경고를 하거나, 올바른 수취인이 접근할 때까지 고도를 유지하는 기능을 가져 배송의 정확성을 높일 수 있다.In addition, the present invention provides a warning when a person other than the correct recipient approaches, or has a function of maintaining the altitude until the correct recipient approaches, thereby increasing the accuracy of delivery.

또한 본 발명은 강우량 인식을 위한 심층 신경망 모델을 사용하여 배달 물품이 젖지 않도록 최대한 빨리 피할 수 있다.In addition, the present invention can avoid as soon as possible so as not to get wet by using a deep neural network model for rainfall recognition.

도 1은 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 개념도를 보여주는 도면이다.
도 2는 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템을 사용하여 수취인을 인능하는 단계를 보여주는 도면이다.
도 3은 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 작동 과정을 보여주는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 구성을 보여주는 도면이다.
1 is a view showing a conceptual diagram of a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 2 is a diagram showing a step of identifying a recipient by using a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a diagram showing an operation process of a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a diagram showing the configuration of a remote delivery system using an unmanned aerial vehicle according to another embodiment of the present invention.

본 발명을 충분히 이해하기 위해서 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 설명한다. 본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상세히 설명하는 실시예로 한정되는 것으로 해석되어서는 안 된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 따라서 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어 표현될 수 있다. 각 도면에서 동일한 부재는 동일한 참조부호로 도시한 경우가 있음을 유의하여야 한다. 또한, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략된다.In order to fully understand the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the embodiments described in detail below. This embodiment is provided to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shape of the element in the drawings may be exaggerated to emphasize a clearer description. It should be noted that in each drawing, the same member may be indicated by the same reference numeral. In addition, detailed descriptions of known functions and configurations that are determined to unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명은 이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘), 수취인 인식/인증, 올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법, 강우량 예측 등을 통해 무인 항공기의 문제점을 해결하고 안전한 배달 서비스가 이루어질 수 있도록 무인 항공기(200)에 센싱부(근거리 센서; 101), 제어부(250), 스피커(102) 등을 포함하여 구성된다.The present invention solves the problems of the unmanned aerial vehicle through take-off and landing point control (altitude maintenance algorithm of the unmanned aerial vehicle), recipient recognition/authentication, a warning method when approaching a person (animal) other than the correct recipient, rainfall prediction, etc., and provides a safe delivery service. The unmanned aerial vehicle 200 is configured to include a sensing unit (near-range sensor) 101, a control unit 250, a speaker 102, and the like.

이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘)Control of take-off and landing points (algorithm for maintaining the altitude of the drone)

도 1 내지 도 4에 도시된 바와 같이 무인 항공기(200)의 고도 유지에 필요한 핵심 정보는 유지해야 하는 고도와 현재 무인 항공기의 고도, 보정 스로틀 값이다. As shown in FIGS. 1 to 4, the key information necessary for maintaining the altitude of the unmanned aerial vehicle 200 is the altitude to be maintained, the current altitude of the unmanned aerial vehicle, and a corrected throttle value.

보정 스로틀값은 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 계산하며 일반적으로 PID 제어(Proportional-Integral-Differential controller) 방법을 이용한다.The corrected throttle value is calculated from the error between the altitude to be maintained and the current measured altitude, and generally uses a PID control (Proportional-Integral-Differential controller) method.

또한 본 발명에 따른 무인 항공기의 고도 유지 알고리즘은 크게 세 개의 과정을 거친다. 첫 번째는 가속도센서 또는 다른 센서를 이용해 무인 항공기의 현재 고도를 측정하는 과정이며 두 번째는 목표인 유지 고도를 달성하기 위한 보정 스로틀 값을 계산하는 과정이다.In addition, the algorithm for maintaining the altitude of an unmanned aerial vehicle according to the present invention largely goes through three processes. The first is the process of measuring the current altitude of the drone using an accelerometer or other sensor, and the second is the process of calculating the corrected throttle value to achieve the target maintenance altitude.

마지막 세 번째 과정은 계산한 보정 스로틀 값을 현재 스로틀 값에 더해주는 과정이다.The third and final step is to add the calculated corrected throttle value to the current throttle value.

센싱부(101)는 무인 항공기 내 정보, 무인 항공기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부는 GPS센서(GPS sensor), 자이로스코프 센서(gyroscope sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 모션 센서(motion sensor), RGB센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. The sensing unit 101 may include one or more sensors for sensing at least one of information in the unmanned aerial vehicle, information on surrounding environments surrounding the unmanned aerial vehicle, and user information. For example, the sensing unit is a GPS sensor, a gyroscope sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), motion sensor (motion sensor), RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint recognition sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor), optical sensor (ex. For example, cameras), microphones, battery gauges, environmental sensors (e.g., barometers, hygrometers, thermometers, radiation sensors, heat sensors, gas sensors, etc.), chemical sensors (e.g. For example, it may include at least one of an electronic nose, a healthcare sensor, a biometric sensor, etc.).

실제 무인 항공기의 고도 유지를 위해 계산한 보정 스로틀 값을 현재 스로틀 값에 더해주거나 사용자가 유지 고도를 변경하고자 할 때 유지 고도 정보를 변경해주거나, 고도 유지를 수행할 때 모터 값 계산을 위해 사용되는 최종 스로틀 값은 수학식 1과 같이 계산된다. The corrected throttle value calculated to maintain the altitude of the actual drone is added to the current throttle value, or the maintenance altitude information is changed when the user wants to change the maintenance altitude, or the final used for calculating the motor value when performing altitude maintenance. The throttle value is calculated as in Equation 1.

Figure 112019118789794-pat00001
Figure 112019118789794-pat00001

최종 스로틀 값인

Figure 112019118789794-pat00002
은 고도 유지를 시작할 때의 스로틀 값인
Figure 112019118789794-pat00003
에 보정 스로틀 값인
Figure 112019118789794-pat00004
을 더해준 것이다.The final throttle value
Figure 112019118789794-pat00002
Is the throttle value when you start maintaining altitude
Figure 112019118789794-pat00003
Is the corrected throttle value at
Figure 112019118789794-pat00004
Was added.

먼저 도 3에 도시된 바와 같이 고도 유지 모드 작동 여부를 체크한다(S201).First, as shown in Fig. 3, it is checked whether the altitude maintenance mode is operated (S201).

그리고 고도 유지 모드를 실행한다(S202).Then, the altitude maintenance mode is executed (S202).

계속하여 현재 고도에 따른 유지 고도 및 현재 스로틀 값에 따른 시작 스로틀 값 셋팅(S203).Continue setting the maintenance altitude according to the current altitude and the start throttle value according to the current throttle value (S203).

그리고 현재 고도 측정 및 PID 제어부를 이용한 스로틀 보정값 계산한다(S204).Then, the current altitude is measured and a throttle correction value is calculated using the PID control unit (S204).

마지막으로 사용자가 유지 고도를 변경하는지 확인(S205)하여 고도를 재계산하고, 이미 변경 상태인지 확인(S207)한 후 재계산한다(S206, S208).Finally, it is checked whether the user changes the maintenance altitude (S205), the altitude is recalculated, and after confirming whether the altitude has already been changed (S207), the recalculation is performed (S206, S208).

수취인 인식/인증Recipient recognition/authentication

도 2에 도시된 바와 같이 무인 항공기(200)는 수취인이 물품을 전달 받을 권리자라는 것을 판단하기 위해 인증 요청을 한다.As shown in FIG. 2, the unmanned aerial vehicle 200 requests authentication to determine that the recipient is the right person to receive the goods.

일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 수취인의 얼굴에 대한 정보를 요청할 수 있다. 이동 단말기(100)의 카메라를 통해 수취인의 안면 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 안면 인식정보를 요청할 수 있다(S101, S102).As an embodiment, the unmanned aerial vehicle 200 may request information on the recipient's face from the mobile terminal 100. Since the recipient's facial recognition information can be obtained through the camera of the mobile terminal 100, the unmanned aerial vehicle 200 may request the facial recognition information from the mobile terminal 100 (S101, S102).

이 후, 인증 요청과 확인 요청에서 배송 완료 전송하여 복귀 요청을 한다(S103 ~ S111).After that, the authentication request and the confirmation request are sent to complete delivery to request a return (S103 to S111).

일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 수취인의 음성 인식정보를 요청할 수 있다. As an embodiment, the unmanned aerial vehicle 200 may request the recipient's voice recognition information from the mobile terminal 100.

이동 단말기(100)의 마이크로폰을 통해 수취인의 음성 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 음성 인식정보를 요청할 수 있다. 이를 위해, 수취인의 음성이 미리 배송서버(300)에 저장되고, 예컨대, 물품이 무인 항공기(200)에 적재될 때, 필요시 수취인의 음성 정보가 무인 항공기(200)로 제공될 수 있다.Since the recipient's voice recognition information can be obtained through the microphone of the mobile terminal 100, the unmanned aerial vehicle 200 can request the voice recognition information from the mobile terminal 100. To this end, the recipient's voice is stored in the delivery server 300 in advance, for example, when the goods are loaded on the unmanned aerial vehicle 200, the recipient's voice information may be provided to the unmanned aerial vehicle 200 if necessary.

일실시예로서로서, 무인 항공기(200)는 NFC(Near Field Communication) 인식장치에 이동 단말기(100)에 저장된 전자태그(RFID) 인증정보를 요청할 수 있다. As an embodiment, the unmanned aerial vehicle 200 may request electronic tag (RFID) authentication information stored in the mobile terminal 100 from an NFC (Near Field Communication) recognition device.

이동 단말기(100)는 전자태그 정보를 포함하고 무인 항공기(200)가 NFC 인식장치를 포함하여 이동 단말기(100)를 NFC 인식장치에 접속하여 전자태그 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 전자태그 인식정보를 요청할 수 있다.The mobile terminal 100 includes electronic tag information, and the unmanned aerial vehicle 200 can obtain electronic tag recognition information by connecting the mobile terminal 100 to the NFC recognition device including the NFC recognition device. May request electronic tag recognition information from the mobile terminal 100.

일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 비밀번호정보를 요청할 수 있다. 이동 단말기(100)의 사용자입력부를 통해 비밀번호정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 비밀번호정보를 요청할 수 있다.As an embodiment, the unmanned aerial vehicle 200 may request password information from the mobile terminal 100. Since password information can be obtained through the user input unit of the mobile terminal 100, the unmanned aerial vehicle 200 can request the password information from the mobile terminal 100.

일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 패턴인식정보를 요청할 수 있다. As an embodiment, the unmanned aerial vehicle 200 may request pattern recognition information from the mobile terminal 100.

이동 단말기(100)의 사용자입력부를 통해 패턴인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 패턴인식정보를 요청할 수 있다.Since pattern recognition information can be obtained through the user input unit of the mobile terminal 100, the unmanned aerial vehicle 200 can request the pattern recognition information from the mobile terminal 100.

무인 항공기(200)는 이동 단말기(100)에 지문인식정보를 요청할 수 있다. 도 5f에 도시한 바와 같이, 이동 단말기(100)의 지문인식부를 통해 지문인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 지문인식정보를 요청할 수 있다.The unmanned aerial vehicle 200 may request fingerprint recognition information from the mobile terminal 100. As shown in FIG. 5F, since fingerprint recognition information can be obtained through the fingerprint recognition unit of the mobile terminal 100, the unmanned aerial vehicle 200 can request the fingerprint recognition information from the mobile terminal 100.

일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 웨어러블(Wearable) 디바이스의 정보를 요청할 수 있다. 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호일 수 있다. 이동 단말기(100)는 인식부를 통해 웨어러블 디바이스의 정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 웨어러블 디바이스의 정보를 요청할 수 있다.As an embodiment, the unmanned aerial vehicle 200 may request information on a wearable device from the mobile terminal 100. The information on the wearable device may be a unique identification number of the wearable device worn by the recipient. Since the mobile terminal 100 can obtain information on the wearable device through the recognition unit, the unmanned aerial vehicle 200 can request information on the wearable device from the mobile terminal 100.

다만, 다른 실시예에 의하면 무인 항공기(200)는 이동 단말기에 안면 인식정보, 음성 인식정보, 전자태그 인식정보, 비밀번호정보, 패턴인식정보 및 지문인식정보 중 적어도 하나 이상을 요청할 수 있다.However, according to another embodiment, the unmanned aerial vehicle 200 may request at least one of facial recognition information, voice recognition information, electronic tag recognition information, password information, pattern recognition information, and fingerprint recognition information from the mobile terminal.

상기 센싱부(101; 카메라)를 통해 인식한 안면 인식정보 등으로 촬영된 각각의 보정 패턴 영상에 대해서 4단계를 거쳐서 교차점들을 추출한다. Crossing points are extracted through four steps for each correction pattern image captured using facial recognition information, etc., recognized by the sensing unit 101 (camera).

(1) 4개의 외곽 기준점을 지정하고, (2) 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, (3) 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정한다.(1) Designate four outer reference points, (2) estimate the initial intersection point based on the number and size information of the grid shape included in the selected interior, and (3) the shape of the extracted intersection points are located inside the original position. If it is present, the radiation distortion coefficient is adjusted to a negative value, and if it is outside, the radiation distortion coefficient is adjusted to a positive value to correct the positions of each intersection point.

상기 안면 패턴을 촬영한 영상에 대해서 위의 과정을 반복하여 교차점들의 집합을 추출하고, 추출된 교차점들의 집합으로부터 Zhang의 방법과 Brown의 반복 알고리즘을 이용하여 안면 인식 모델의 파라미터를 추정한다. For the image photographed with the facial pattern, the above process is repeated to extract a set of intersection points, and parameters of the facial recognition model are estimated from the extracted set of intersection points using Zhang's method and Brown's iterative algorithm.

이 때 안면 패턴들 사이의 위치 관계를 파악함으로써, 카메라를 기준으로 한 좌표에서 각 패턴들의 회전 및 이동 파라미터도 추정할 수 있다. At this time, by grasping the positional relationship between the facial patterns, it is possible to estimate rotation and movement parameters of each pattern in coordinates based on the camera.

즉, 안면의 실제 좌표와 추정된 왜곡 모델로 계산된 좌표 사이의 거리의 합을 최소화하는 문제로 정의하고 최적의 해를 찾을 수 있다.That is, it is defined as a problem of minimizing the sum of the distances between the actual coordinates of the face and the coordinates calculated by the estimated distortion model, and an optimal solution can be found.

Figure 112019118789794-pat00005
Figure 112019118789794-pat00005

여기서 N은 학습에 사용된 안면 인식 패턴 영상의 수이고, M은 각각의 영상에서 찾은 교차점의 수이며,

Figure 112019118789794-pat00006
는 영상의 좌표이고,Where N is the number of facial recognition pattern images used for learning, M is the number of intersections found in each image,
Figure 112019118789794-pat00006
Is the coordinates of the image,

Figure 112019118789794-pat00007
는 왜곡 모델로 추정한 좌표로써, A는 카메라의 초점 거리, 주점, 비틀림 계수, 접선 왜곡을 포함하는 벡터이고,
Figure 112019118789794-pat00008
는 방사 왜곡 계수이며,
Figure 112019118789794-pat00009
는 각각 i번째 영상의 외부 파라미터로써 회전과 이동을 나타내는 벡터이고,
Figure 112019118789794-pat00010
는 j번째 좌표의 실제 3차원 좌표이다.
Figure 112019118789794-pat00007
Is the coordinates estimated by the distortion model, where A is the vector including the focal length of the camera, the main point, the distortion factor, and the tangential distortion
Figure 112019118789794-pat00008
Is the radiation distortion coefficient,
Figure 112019118789794-pat00009
Is a vector representing rotation and movement as external parameters of the i-th image,
Figure 112019118789794-pat00010
Is the actual three-dimensional coordinate of the j-th coordinate.

여기에 추가적인 왜곡 변환 보정식으로 왜곡영상(원형 영상)을 직교좌표변환방법 등을 사용하여 더 선명한 영상(직사각형 영상)을 얻을 수 있다.In addition, as an additional distortion conversion correction formula, a clearer image (rectangular image) can be obtained by using a rectangular coordinate transformation method or the like.

Figure 112019118789794-pat00011
Figure 112019118789794-pat00011

여기서 수학식 2에 의한 이미지의 View 벡터 수평각(δ)와 수직각(β) 그리고 반지름(R)에 의해 DOV(Direction of View벡터)가 구해지고 원 구 1/2 위의 한 점이 원근왜곡 변환을 위한 원점이 된다. Here, the DOV (Direction of View vector) is obtained by the horizontal angle (δ), the vertical angle (β), and the radius (R) of the image view vector according to Equation 2, and a point on the circle 1/2 transforms the perspective distortion. It becomes the origin for

여기에서 영상 회전정도는 각 θ로 구하고 영상 확대계수는 m을 적용한다.Here, the image rotation degree is calculated by the angle θ and the image magnification factor is applied to m.

수학식 2에 의한 임의의 원형의 이미지를 식에 투영하여 표현하였을 경우 X, Y 2차원 평면상에서의 극좌표(r,δ)를 관계식에 의해 표현하면 수학식 4와 같다.When the image of an arbitrary circle according to Equation 2 is projected onto the equation, the polar coordinates (r, δ) on the X and Y two-dimensional plane are expressed by the relational expression as in Equation 4.

Figure 112019118789794-pat00012
Figure 112019118789794-pat00012

올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법How to warn when approaching a person (animal) other than the correct recipient

도 4에 도시된 바와 같이 본 발명은 외부인의 접근시 상기 센싱부(101)를 통해 센서 감지 신호를 생성하여 제어부(250)가 데시벨(dB) 또는 헤르츠(Hz)를 달리하여 스피커(102)를 통해 위험을 알릴 수 있다.As shown in FIG. 4, the present invention generates a sensor detection signal through the sensing unit 101 when an outsider approaches, so that the controller 250 controls the speaker 102 by varying decibels (dB) or hertz (Hz). You can communicate the danger through it.

근거리 센서(101)에서 발생하는 마이크로파 신호가 움직이는 물체에 반사될 때, 도플러 효과로 인해 신호의 주파수가 물체의 속도에 비례하여 변화된다.When the microwave signal generated by the near-field sensor 101 is reflected by a moving object, the frequency of the signal changes in proportion to the speed of the object due to the Doppler effect.

일정한 주기를 갖고 움직이는 물체로부터 반사된 신호의 주파수는 동일하게 유지되나 위상이 시간에 따라 변화한다.The frequency of the signal reflected from a moving object with a constant period remains the same, but the phase changes with time.

f0는 입력신호의 주파수, v는 움직이는 물체의 속도, c는 광속도, f는 주파수 변화량, λ는 입력신호의 파장, x(t)는 물체의 변위이다.f 0 is the frequency of the input signal, v is the speed of the moving object, c is the speed of light, f is the amount of change in frequency, λ is the wavelength of the input signal, and x(t) is the displacement of the object.

Figure 112019118789794-pat00013
Figure 112019118789794-pat00013

도플러 이론에 따르면, 주기적으로 변화되는 변위를 가지고 움직이는 물체에 대해 주파수는 일정하나 위상 ㆈ(t)는 시간에 따라 변화된다. 이것을 수식으로 표현하면 식 6과 같다.According to the Doppler theory, for an object moving with a displacement that changes periodically, the frequency is constant, but the phase ㆈ(t) changes with time. This can be expressed in Equation 6.

따라서 본 발명은 위상 ㆈ(t)에 따라 근로자가 안내 멘트에 집중할 수 있도록 싸이렌 이나 경고음향을 먼저 알림으로써 주의를 집중시킨다.Therefore, the present invention focuses attention by first notifying a siren or a warning sound so that the worker can concentrate on the guidance message according to the phase ㆈ(t).

Figure 112019118789794-pat00014
Figure 112019118789794-pat00014

여기서, λ는 신호의 파장이다. 물체로부터 반사된 신호는 위상변조가 되어있다. 이 물체의 변위 변화 크기가 신호 파장의 크기에 비해 적으면, 위상 변화는 적을 것이다.Here, λ is the wavelength of the signal. The signal reflected from the object is phase-modulated. If the magnitude of the displacement change of this object is less than the magnitude of the signal wavelength, the phase change will be small.

따라서 도플러 센서를 포함하는 근거리 센서(위상 변화 측정)를 통해 사람의 접근 거리가 가까워질수록 제1볼륨제어신호 < 제2볼륨제어신호로 제어가 가능하며, 후술하는 바와 같이 다양한 응용이 가능하다.Therefore, as the approach distance of a person gets closer through a short-range sensor including a Doppler sensor (phase change measurement), the first volume control signal <the second volume control signal can be used, and various applications are possible as described later.

또한 일정 주파수의 센서 신호에 따라 소리의 볼륨 등을 동기화시켜 스피커를 통해 소리를 전달할 수 있다.In addition, sound can be transmitted through a speaker by synchronizing the volume of sound according to a sensor signal of a certain frequency.

따라서 빠르게 접근하는 경우 높은 주파수 또는 위상 φ(t)의 변화, 물체의 변위 변화 크기 등에 따라 소리가 높아질 수 있다.Therefore, when approaching quickly, the sound may increase depending on the change in high frequency or phase φ(t), and the amount of change in displacement of the object.

강우량 예측Rainfall forecast

상기 센싱부(101)를 통한 입력 영상 V를 동일한 길이의 K개 영상 부분

Figure 112019118789794-pat00015
로 나누고, 각 영상 부분에서 무작위로 연속 프레임 표본을 선택해
Figure 112019118789794-pat00016
로 나타낸다. K video portions of the same length as input video V through the sensing unit 101
Figure 112019118789794-pat00015
Divided by and randomly select consecutive frame samples from each image part
Figure 112019118789794-pat00016
Represented by

Figure 112019118789794-pat00017
를 N 개의 조각
Figure 112019118789794-pat00018
으로 나누면, TSSN은 아래 수학식 7과 같이 조각 집합
Figure 112019118789794-pat00019
에 대한 함수의 형태로 표현된다.bracket
Figure 112019118789794-pat00017
N pieces
Figure 112019118789794-pat00018
Divided by, TSSN is a set of pieces as shown in Equation 7 below.
Figure 112019118789794-pat00019
Is expressed in the form of a function for

Figure 112019118789794-pat00020
Figure 112019118789794-pat00020

이때,

Figure 112019118789794-pat00021
에대해
Figure 112019118789794-pat00022
Figure 112019118789794-pat00023
는 입력 조각
Figure 112019118789794-pat00024
과 매개변수
Figure 112019118789794-pat00025
를 대상으로 하는 합성곱 신경망을 나타낸다.At this time,
Figure 112019118789794-pat00021
About
Figure 112019118789794-pat00022
Figure 112019118789794-pat00023
The input piece
Figure 112019118789794-pat00024
And parameters
Figure 112019118789794-pat00025
Represents a convolutional neural network targeting.

Figure 112019118789794-pat00026
는 조각
Figure 112019118789794-pat00027
를 입력으로 받아 각 레이블에 대한 점수를 산출한다.
Figure 112019118789794-pat00026
The piece
Figure 112019118789794-pat00027
It takes as input and calculates the score for each label.

Figure 112019118789794-pat00028
은 여러 조각들의 결과로부터 표본 수준의 합의를 산출하는 조각 합의(patch consensus) 함수를 나타낸다.
Figure 112019118789794-pat00028
Represents a patch consensus function that yields a sample-level consensus from the results of several pieces.

Figure 112019118789794-pat00029
는 표본
Figure 112019118789794-pat00030
의 조각 합의 결과이다.
Figure 112019118789794-pat00029
Is the sample
Figure 112019118789794-pat00030
Is the result of a piece agreement.

Figure 112019118789794-pat00031
는 여러 표본들의 결과로부터 영상 수준의 합의를 산출하는 부분 합의 (segmental consensus) 함수를 나타낸다.
Figure 112019118789794-pat00031
Denotes a segmental consensus function that calculates the image-level consensus from the results of several samples.

예측 함수

Figure 112019118789794-pat00032
는 부분 합의
Figure 112019118789794-pat00033
가 주어졌을 때, 입력 영상에 대한 레이블 확률 분포를 예측한다.Prediction function
Figure 112019118789794-pat00032
Partial agreement
Figure 112019118789794-pat00033
Given is, predict the label probability distribution for the input image.

Figure 112019118789794-pat00034
은 각 표본에서 생성된 조각의 개수를 나타낸다.
Figure 112019118789794-pat00035
의 설정에 기초해, 본 발명에서는
Figure 112019118789794-pat00036
를 3으로,
Figure 112019118789794-pat00037
를 Softmax 함수로 설정한다. 부분 합의
Figure 112019118789794-pat00038
와 조각 합의
Figure 112019118789794-pat00039
은 각각 단순한 형태인
Figure 112019118789794-pat00040
Figure 112019118789794-pat00041
Figure 112019118789794-pat00042
로 정의한다. 이 때, 레이블 점수
Figure 112019118789794-pat00043
는 모든 조각의 동일한 레이블에 대한 점수의 함수 형태이다.
Figure 112019118789794-pat00034
Represents the number of pieces created in each sample.
Figure 112019118789794-pat00035
Based on the setting of, in the present invention
Figure 112019118789794-pat00036
To 3,
Figure 112019118789794-pat00037
Is set with the Softmax function. Partial agreement
Figure 112019118789794-pat00038
Piece agreement with
Figure 112019118789794-pat00039
Are each simple form
Figure 112019118789794-pat00040
Wow
Figure 112019118789794-pat00041
Figure 112019118789794-pat00042
Is defined as At this time, the label score
Figure 112019118789794-pat00043
Is a function form of the score for the same label of all pieces.

집계(aggregation) 함수 g와 r은 평균, 최댓값, 가중 평균 등 다양한 형태로 설정될 수 있다. Aggregation functions g and r can be set in various forms such as average, maximum value, and weighted average.

본 발명에서는 평균을 사용해 최종 인식 결과를 보고한다.In the present invention, an average is used to report the final recognition result.

일반적인 Categorical Cross-entropy 손실 함수를 사용해, 부분 합의 G에 대한 최종적인 손실 함수는 수학식 8과 같이 표현된다.Using a general categorical cross-entropy loss function, the final loss function for the partial sum G is expressed as Equation 8.

Figure 112019118789794-pat00044
Figure 112019118789794-pat00044

이 때, C 는 레이블의 개수,

Figure 112019118789794-pat00045
는 레이블
Figure 112019118789794-pat00046
의 정답 레이블을 의미한다. 해당 손실 함수는
Figure 112019118789794-pat00047
Figure 112019118789794-pat00048
에 따라 미분 가능하거나, 적어도 기울기 계산이 가능하다. In this case, C is the number of labels,
Figure 112019118789794-pat00045
The label
Figure 112019118789794-pat00046
Means the correct answer label. The corresponding loss function is
Figure 112019118789794-pat00047
Wow
Figure 112019118789794-pat00048
Differentiable according to, or at least the slope calculation is possible.

따라서 역전파(back-propagation) 알고리즘을 적용해 다수의 표본과 조각으로부터 심층 신경망 모델의 매개 변수 W에 대한 최적화를 수행할 수 있다. Therefore, it is possible to optimize the parameter W of the deep neural network model from multiple samples and fragments by applying a back-propagation algorithm.

역전파 과정에서, 모델의 매개 변수 W에 대한 손실 함수

Figure 112019118789794-pat00049
의 기울기는 수학식 9와 같이 유도된다.In the backpropagation process, the loss function for the parameter W of the model
Figure 112019118789794-pat00049
The slope of is derived as in Equation 9.

Figure 112019118789794-pat00050
Figure 112019118789794-pat00050

일반적인 심층 신경망 모델의 매개 변수를 학습하기 위해, 본 발명에서는 기울기 기반 최적화 알고리즘을 사용한다. 위 식은 손실 함수

Figure 112019118789794-pat00051
가 부분 합의 G와 모든 조각 수준 예측으로부터 계산된 조각 합의
Figure 112019118789794-pat00052
에 의해 최적화 가능함을 보여준다.In order to learn the parameters of a general deep neural network model, the present invention uses a gradient-based optimization algorithm. The above equation is a loss function
Figure 112019118789794-pat00051
Is the partial sum G and the slice sum calculated from all slice level predictions
Figure 112019118789794-pat00052
Shows that optimization is possible by

따라서 본 발명은 강우량 인식을 위한 심층 신경망 모델을 통한 예측 함수

Figure 112019118789794-pat00053
또는 손실 함수
Figure 112019118789794-pat00054
등을 사용하여 배달 물품이 젖지 않도록 최대한 빨리 무인 항공기를 대피시킬 수 있다.Therefore, the present invention is a prediction function through a deep neural network model for rainfall recognition.
Figure 112019118789794-pat00053
Or loss function
Figure 112019118789794-pat00054
You can use a light to evacuate the drone as soon as possible to avoid getting the delivered goods wet.

특히 최종적으로 학습한 TSSN(Temporal and Spatial Segment Networks) 모델은 우수한 강우량 인식 성능을 보였다.In particular, the finally learned TSSN (Temporal and Spatial Segment Networks) model showed excellent rainfall recognition performance.

한편 무인 항공기를 이용한 원격 배달 방법에 있어 주소 인식 능력이 중요한데, 길가 또는 횡단 보도 등에 세워져 있는 안내판의 표시와 일치 여부를 제어부(250)가 검토할 수 있다.(여기에서 영상 정보의 텍스트화는 Image-to-Text 모듈을 통해 할 수 있다. 즉 영상 정보의 현재 현상을 표현한 내용을 Image-to-Text 모듈을 통해 텍스트로 변환한다.)Meanwhile, in the remote delivery method using an unmanned aerial vehicle, address recognition capability is important, and the control unit 250 can review whether or not the display matches the display of the information board erected on the side of the road or crosswalk. This can be done through the -to-Text module, that is, the content representing the current phenomenon of image information is converted into text through the Image-to-Text module.)

예를 들어 만년로, 만년동 등의 주소(doc1)를 입력받은 경우 GPS 정보에 오류가 발생해 만년로 네거리, 만년로 방향 등과 같은 표지판(doc2)을 발견한 경우 이미지에서 문자를 인식하는 알고리즘을 작동시켜 문자화한 후 상호 일치 여부를 빠르게 판단하여 정확한 주소지로 배송할 수 있도록 해야 한다.For example, if an address (doc1) such as Mannyeon-ro or Mannyeon-dong is input, an error occurs in GPS information, and when a sign (doc2) such as Mannyeon-ro intersection or Mannyeon-ro direction is found, an algorithm that recognizes characters in the image is operated. It is necessary to quickly determine whether they match each other and deliver them to the correct address.

이 경우 CNN(Convolutional Neural Networks) 또는 RNN(Recurrent Neural Network) 방법으로 이미지를 문자화시키거나, 이미지에서 문자를 추출할 수 있다.In this case, the image may be characterized using a convolutional neural network (CNN) or a recurrent neural network (RNN) method, or a character may be extracted from the image.

아래 테스트 프로그램과 같이 두 데이터 doc1, doc2 사이의 자카드 유사도 J(doc1,doc2)는 두 집합의 교집합 크기를 두 집합의 합집합 크기로 나눈 값으로 정의된다.As in the test program below, the jacquard similarity J(doc1,doc2) between two data doc1 and doc2 is defined as the value obtained by dividing the size of the intersection of two sets by the size of the union of the two sets.

결론적으로 아래와 같이 유사도가 0.0으로 나오면 두 개의 데이터가 상당히 유사하다고 제어부(250)가 판단한다.In conclusion, if the degree of similarity is 0.0 as follows, the controller 250 determines that the two data are quite similar.

여기에서 split()는 스플릿트 모듈, set().union(set())는 합집합 모듈, set().intersection(())은 유사도 모듈을 나타낸다.Here, split() is a split module, set().union(set()) is a union module, and set().intersection(()) is a similarity module.

Figure 112019118789794-pat00055
Figure 112019118789794-pat00055

100 : 이동 단말기
200 : 무인 항공기
100: mobile terminal
200: drone

Claims (8)

배송 주소가 배송 서버에 입력되고, 무인 항공기가 상기 배송 주소에 도착하는 단계;
상기 무인 항공기가 배송 주소에 도착한 후, 유지해야 하는 고도와 현재 무인 항공기의 고도, 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 PID 제어 방법으로 계산한 보정 스로틀 값에 의한 고도 유지 알고리즘을 이용하여 이착륙 지점을 유지하는 단계;
상기 이착륙 지점 유지하는 단계에서 수취인의 안면 패턴을 촬영한 영상에 대해서 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 단계;
상기 수취인 인식/인증 완료 후 배송 물품 전달 후 배송 완료하는 단계;를 포함하되,
상기 안면 인식 모델은 아래 수학식 2를 통해 계산되는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
[수학식 2]
Figure 112020098453500-pat00067

(여기서 N은 학습에 사용된 안면 인식 패턴 영상의 수이고, M은 각각의 영상에서 찾은 교차점의 수이며,
Figure 112020098453500-pat00068
는 영상의 좌표이고,
Figure 112020098453500-pat00069
는 왜곡 모델로 추정한 좌표로써, A는 카메라의 초점 거리, 주점, 비틀림 계수, 접선 왜곡을 포함하는 벡터이고,
Figure 112020098453500-pat00070
는 방사 왜곡 계수이며,
Figure 112020098453500-pat00071
는 각각 i번째 영상의 외부 파라미터로써 회전과 이동을 나타내는 벡터이고,
Figure 112020098453500-pat00072
는 j번째 좌표의 실제 3차원 좌표이다. )
A delivery address is input to a delivery server, and the unmanned aerial vehicle arrives at the delivery address;
After the drone arrives at the delivery address, takeoff and landing using an altitude maintenance algorithm based on a corrected throttle value calculated by the PID control method from the error between the altitude to be maintained and the current altitude of the drone, and the altitude to be maintained and the current measured altitude. Maintaining a point;
A recipient recognition/authentication step of estimating a parameter of a facial recognition model with respect to an image photographed of the recipient's facial pattern in the step of maintaining the take-off and landing point;
Including; the step of completing delivery after delivery of the delivery item after completion of the recipient recognition/authentication;
The face recognition model is a remote delivery method using an unmanned aerial vehicle, characterized in that calculated through Equation 2 below.
[Equation 2]
Figure 112020098453500-pat00067

(Where N is the number of facial recognition pattern images used for learning, M is the number of intersections found in each image,
Figure 112020098453500-pat00068
Is the coordinates of the image,
Figure 112020098453500-pat00069
Is the coordinates estimated by the distortion model, where A is the vector including the focal length of the camera, the main point, the distortion factor, and the tangential distortion
Figure 112020098453500-pat00070
Is the radiation distortion coefficient,
Figure 112020098453500-pat00071
Is a vector representing rotation and movement as external parameters of the i-th image,
Figure 112020098453500-pat00072
Is the actual three-dimensional coordinate of the j-th coordinate. )
제1항에 있어서,
상기 보정 스로틀 값은 아래 수학식 1인 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
[수학식 1]
Figure 112019118789794-pat00056
The method of claim 1,
The corrected throttle value is a remote delivery method using an unmanned aerial vehicle, characterized in that Equation 1 below.
[Equation 1]
Figure 112019118789794-pat00056
삭제delete 제1항에 있어서,
상기 무인 항공기(200)는 이동 단말기(100)에 수취인의 음성 인식정보를 요청하고, 이동 단말기(100)의 마이크로폰을 통해 수취인의 음성 인식정보를 얻는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
The method of claim 1,
The unmanned aerial vehicle 200 requests the recipient's voice recognition information from the mobile terminal 100, and obtains the recipient's voice recognition information through a microphone of the mobile terminal 100. A remote delivery method using an unmanned aerial vehicle.
제1항에 있어서,
상기 무인 항공기(200)는 이동 단말기(100)에 웨어러블(Wearable) 디바이스의 정보를 요청하고, 상기 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호인 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
The method of claim 1,
The unmanned aerial vehicle 200 requests information on a wearable device from the mobile terminal 100, and the information on the wearable device is a unique identification number of the wearable device worn by the recipient. Remote delivery method.
제1항에 있어서,
상기 안면 인식 모델로 촬영된 각각의 보정 패턴 영상에 대해서 4개의 외곽 기준점을 지정하고, 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
The method of claim 1,
For each correction pattern image captured by the facial recognition model, four outer reference points are designated, the initial intersection point is estimated based on the number and size information of the selected grid shape, and the shape of the extracted intersection points is originally A remote delivery method using an unmanned aerial vehicle, characterized in that the position of each intersection is corrected by adjusting the radiation distortion coefficient to a negative value if it is located inside the position, and by adjusting the radiation distortion coefficient to a positive value if it is outside.
제1항에 있어서,
상기 수취인 인식/인증 완료 전 외부인 접근시 센서 감지 신호를 생성하여 제어부(250)에 전송하는 근거리 센서(101) 및 상기 제어부(250)의 제어 신호에 따라 데시벨(dB) 또는 헤르츠(Hz)를 달리하여 위험을 알리는 스피커(102)를 더 포함하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
The method of claim 1,
The decibel (dB) or hertz (Hz) is different according to the short-range sensor 101 that generates a sensor detection signal and transmits it to the control unit 250 when an outsider approaches before completion of the recipient recognition/authentication. Remote delivery method using an unmanned aerial vehicle, characterized in that it further comprises a speaker 102 to notify the danger.
제7항에 있어서,
상기 외부인 접근을 감지하는 도플러 센서를 포함하는 근거리 센서를 통해 접근 거리가 가까워질수록 볼륨제어신호의 크기를 선형적으로 제어하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
The method of claim 7,
A remote delivery method using an unmanned aerial vehicle, characterized in that as the approach distance gets closer through a short-range sensor including a Doppler sensor that detects the approach of an outsider, the volume control signal is linearly controlled.
KR1020190148686A 2019-11-19 2019-11-19 Remote delivery system and method using unmanned drone pilotless aircraft KR102163455B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190148686A KR102163455B1 (en) 2019-11-19 2019-11-19 Remote delivery system and method using unmanned drone pilotless aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148686A KR102163455B1 (en) 2019-11-19 2019-11-19 Remote delivery system and method using unmanned drone pilotless aircraft

Publications (1)

Publication Number Publication Date
KR102163455B1 true KR102163455B1 (en) 2020-10-07

Family

ID=72884779

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148686A KR102163455B1 (en) 2019-11-19 2019-11-19 Remote delivery system and method using unmanned drone pilotless aircraft

Country Status (1)

Country Link
KR (1) KR102163455B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063073A (en) * 2022-06-10 2022-09-16 安徽大学 Efficient and confidential unmanned aerial vehicle cooperative distribution method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101541359B1 (en) * 2013-10-21 2015-08-03 동국대학교 산학협력단 Method and system for unmanned delivery service
KR20160142017A (en) 2015-06-02 2016-12-12 엘지전자 주식회사 method for luggage shipping authentication using the drone
KR101829125B1 (en) * 2016-05-11 2018-02-13 한국과학기술원 Method and system for determing delivery point using unmanned aerial vehicle
KR101873021B1 (en) 2018-01-11 2018-07-02 박시연 Method for providing drone delivery service using 3d coordinates in space

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101541359B1 (en) * 2013-10-21 2015-08-03 동국대학교 산학협력단 Method and system for unmanned delivery service
KR20160142017A (en) 2015-06-02 2016-12-12 엘지전자 주식회사 method for luggage shipping authentication using the drone
KR101829125B1 (en) * 2016-05-11 2018-02-13 한국과학기술원 Method and system for determing delivery point using unmanned aerial vehicle
KR101873021B1 (en) 2018-01-11 2018-07-02 박시연 Method for providing drone delivery service using 3d coordinates in space

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
[1] Z. Zhang, "A Flexible new Technique for Camera Calibration," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 22, pp. 1330-1334, 2000.
[2] D.C. Brown, "Close-range Camera Calibration," Photogrammetric Engineering, Vol. 37, pp.855- 866, 1971.

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115063073A (en) * 2022-06-10 2022-09-16 安徽大学 Efficient and confidential unmanned aerial vehicle cooperative distribution method
CN115063073B (en) * 2022-06-10 2024-04-16 安徽大学 Efficient and secret unmanned aerial vehicle collaborative distribution method

Similar Documents

Publication Publication Date Title
US20230359227A1 (en) Method and System for Providing Route of Unmanned Air Vehicle
US11656638B1 (en) Backup navigation system for unmanned aerial vehicles
US20220146263A1 (en) Dynamically Adjusting UAV Flight Operations Based On Thermal Sensor Data
US20190025071A1 (en) Information processing device
KR101948569B1 (en) Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same
KR20210081984A (en) Object change detection system for high definition map update and method thereof
US20160093225A1 (en) Landing system for an aircraft
US20160086497A1 (en) Landing site tracker
US11183056B2 (en) Electronic device for generating map data and operating method therefor
KR101771492B1 (en) Method and system for mapping using UAV and multi-sensor
RU2755603C2 (en) System and method for detecting and countering unmanned aerial vehicles
US11776369B2 (en) Acoustic detection of small unmanned aircraft systems
US11113567B1 (en) Producing training data for machine learning
US20210221502A1 (en) Method and a system for real-time data processing, tracking, and monitoring of an asset using uav
KR102163455B1 (en) Remote delivery system and method using unmanned drone pilotless aircraft
KR102349818B1 (en) Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes
JP2022051976A (en) Unmanned aircraft and communication method and program
WO2021258282A1 (en) Target detection device and method, imaging apparatus, and mobile platform
CN114379802A (en) Automatic safe landing place selection for unmanned flight system
KR102128590B1 (en) System for Providing location informaion of flight vehicle and Driving method thereof
Gur et al. Image processing based approach for crime scene investigation using drone
US20230282122A1 (en) Geofence management with an unmanned aerial vehicle
Maltese et al. Detect and avoid function for UAVs: Presentation of an EO/IR sensor solution
CN113379732B (en) Cable target detection method based on airborne laser radar
KR20200064236A (en) Structure inspection system and method using dron

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant